Hoe is jouw ervaring met Duplicacy en het herstellen van backups? Ik heb namelijk Duplicati (ook docker maar gratis) eens geprobeerd maar toen bleek opeens mijn backup corrupt te zijn en in geen enkele mogelijkheid te herstellen. Toen ben ik maar overgestapt naar de oplossing van synology. Wat ook niet de schoonheidsprijs verdiend.Flans schreef op dinsdag 25 april 2023 @ 06:26:
[...]
Ik gebruik sinds kort - het betaalde - Duplicacy (https://duplicacy.com/) voor mijn backups. Waarmee ik verschillende backups laat draaien naar OneDrive. Het is gewoon een docker container die je kunt installeren vanuit de 'unraid app store'.
Zoals gezegd het is een betaalde oplossing, wel het overwegen waard wat mij betreft.
Ik heb ook veel gelezen over CrashPlanPro Dit is ook een betaalde versie maar dit werkt dan naar een cloud toe ipv een 2e nas systeem.
Momenteel staan mijn beide gegevens nog op de Unraid server en me oude Qnap maar natuurlijk wil ik er op een gegeven moment heen dat deze op me unraid staan en als backup op de qnap. IPV een domme kopie.
Vandaar dat ik nog oriënterende ben en het dus erg interessant vind hoe jullie dit opgelost hebben.
- Nextcloud icm WebDav
Verdiend geen schoonheids prijs als je het mij vraagt.
- Duplicacy
Geen ervaring mee
- Crashplan Pro
Lees goede verhalen hier over maar ik vind het een nadeel dat de gegevens in een cloud staan en niet locaal veilig offline van het internet.
Momenteel staan mijn beide gegevens nog op de Unraid server en me oude Qnap maar natuurlijk wil ik er op een gegeven moment heen dat deze op me unraid staan en als backup op de qnap. IPV een domme kopie.
Vandaar dat ik nog oriënterende ben en het dus erg interessant vind hoe jullie dit opgelost hebben.
- Nextcloud icm WebDav
Verdiend geen schoonheids prijs als je het mij vraagt.
- Duplicacy
Geen ervaring mee
- Crashplan Pro
Lees goede verhalen hier over maar ik vind het een nadeel dat de gegevens in een cloud staan en niet locaal veilig offline van het internet.
Geen ervaring mee tot nu toe, ik heb het nog niet nodig gehad. Ik heb wel toen ik de boel aan het opzetten was de backup gecheckt en dat leek toen allemaal goed te gaan.kevi-n1 schreef op dinsdag 25 april 2023 @ 07:58:
[...]
Hoe is jouw ervaring met Duplicacy en het herstellen van backups? Ik heb namelijk Duplicati (ook docker maar gratis) eens geprobeerd maar toen bleek opeens mijn backup corrupt te zijn en in geen enkele mogelijkheid te herstellen. Toen ben ik maar overgestapt naar de oplossing van synology. Wat ook niet de schoonheidsprijs verdiend.
Voor het beeld ik heb op dit moment drie backups lopen:
- Appdata map - 1x per week op maandag
- Nextcloud - elke dag
- Archief (7zip) map - 1x per week donderdag
Ik heb het inmiddels naar tevredenheid ingericht.
Ik maak gebruik van de Wireguard VPN verbinding tussen beide systemen.
Op de Unraid server heb ik LuckyBackup draaien die volgens een schema de backup taken uitvoert richting de QNap nas.
Tot nu toe zeer tevreden hier over!
Nog wel heb ik een andere vraag.
Ik zoek een oplossing voor het automatisch kopiëren van een usb stick naar een specifieke map.
Ik zou dit het liefste zien dat dit alleen werkt bij een vooraf gespecificeerde usb poort. Als hier dan een USB stick op aangesloten wordt wil ik dat deze inhoud gekopieerd word naar een vooaf gespecificeerde map in de array. Daarna mag de usb stick veilig verwijderd / unmount worden.
De data komt dat in een soort van dump map terecht waardoor ik deze later naar de juist mappen kan zetten.
Mijn oude Qnap heeft deze functie onder de naam One Touche Copy.
Nu verwacht ik dat dit in unraid ook te maken is maar ik kan niet vinden hoe, Ook kan het zijn dat ik niet op de juiste woorden zoek en het hierdoor niet kan vinden.
Ik kan me voorstellen dat er gedacht wordt dat dit onveilig kan zijn maar er heeft niemand toegang tot de serverkast / ruimte. Daarbij moet je dan ook nog maar net weten dat dit ingesteld zou zijn. Hierdoor wil ik dit risco nemen.
Wie kan mij op weg helpen?
Ik maak gebruik van de Wireguard VPN verbinding tussen beide systemen.
Op de Unraid server heb ik LuckyBackup draaien die volgens een schema de backup taken uitvoert richting de QNap nas.
Tot nu toe zeer tevreden hier over!
Nog wel heb ik een andere vraag.
Ik zoek een oplossing voor het automatisch kopiëren van een usb stick naar een specifieke map.
Ik zou dit het liefste zien dat dit alleen werkt bij een vooraf gespecificeerde usb poort. Als hier dan een USB stick op aangesloten wordt wil ik dat deze inhoud gekopieerd word naar een vooaf gespecificeerde map in de array. Daarna mag de usb stick veilig verwijderd / unmount worden.
De data komt dat in een soort van dump map terecht waardoor ik deze later naar de juist mappen kan zetten.
Mijn oude Qnap heeft deze functie onder de naam One Touche Copy.
Nu verwacht ik dat dit in unraid ook te maken is maar ik kan niet vinden hoe, Ook kan het zijn dat ik niet op de juiste woorden zoek en het hierdoor niet kan vinden.
Ik kan me voorstellen dat er gedacht wordt dat dit onveilig kan zijn maar er heeft niemand toegang tot de serverkast / ruimte. Daarbij moet je dan ook nog maar net weten dat dit ingesteld zou zijn. Hierdoor wil ik dit risco nemen.
Wie kan mij op weg helpen?
'Cloud' is internet connected.K!K schreef op dinsdag 25 april 2023 @ 09:26:
...maar ik vind het een nadeel dat de gegevens in een cloud staan en niet locaal veilig offline van het internet.
Jou NAS/fileserver hangt aan jou netwerk, welke weer aan het internet hangt. Als iemand maar hard genoeg wil, kunnen ze bij jou NAS komen via jou internet verbinding.
Ik ben van mening dat iemand makkelijker bij jou de NAS kan stelen dan remote kan inbreken op een goed beveiligde backup oplossing in de 'cloud'... Als je backuped naar een NAS op dezelfde locatie is die net zo makkelijk mee te nemen. Als het op een andere locatie staat dan wordt het meteen al heel wat moeilijker.
Over het algemeen heeft men het dan ook over "1 backup is geen backup", meerdere locaties, meerdere methodes. Een sync met de 'cloud' is dan ook geen backup.
Alles backuppen is ook al vaak niet meer te doen, ik zou dan ook adviseren dat je data te klassificeren naar belangrijkheid en muteerbaarheid. Voor velen zijn (digitale) familie foto's erg belangrijk en nemen niet TBs aan data in beslag, ze veranderen ook niet meer. Je zou bv. kunnen overgaan naar opslag op bv. M-DISC en ipv. of wellicht naast een 'cloud' backup, opslaan in een kluisje bij een 'kluishuis' (banken doen dit kennelijk niet meer). Als backup data in de 'cloud' problematisch is, encrypt het en zorg voor een fysiek copy van die sleutel op papier in een kluisje.
Ik ben zelf ook nog bezig een (voor mij) gedegen backup strategie te maken.M-DISCs met de helft besteed aan parity files gaat in ieder geval gebruikt worden. Waarschijnlijk ook iets van 'cloud' opslag, backblaze, AWS glacier, etc. voor bepaalde data. Naast de NASen.
Ik ben sinds kort gemigreert van TrueNas naar Unraid en wat een heerlijk verschil zeg. Unraid is echt zoveel makkelijker in vergelijking met TrueNas. Alles draait nu naar tevredenheid. Enige wat ik nu probeer voor elkaar te krijgen is het volgende:
Ik heb een linux_raid_member schijf liggen welke ik niet kan mounten in unassigned devices. Nu wil ik deze via passthrough naar mijn Ubuntu VM op de Unraid server doorgeven. Heeft iemand een idee hoe je dat kan doen? Ik had iets gelezen dat spaceinvaderone een video heeft over een ata-id method maar ik kan die niet vinden. Het doel is om de linux_raid_member te mounten in Ubuntu en de data te kunnen uitlezen. Ik heb helaas niet de opslag om een image of iets te maken.
Ik heb een linux_raid_member schijf liggen welke ik niet kan mounten in unassigned devices. Nu wil ik deze via passthrough naar mijn Ubuntu VM op de Unraid server doorgeven. Heeft iemand een idee hoe je dat kan doen? Ik had iets gelezen dat spaceinvaderone een video heeft over een ata-id method maar ik kan die niet vinden. Het doel is om de linux_raid_member te mounten in Ubuntu en de data te kunnen uitlezen. Ik heb helaas niet de opslag om een image of iets te maken.
Bedankt voorntje duidelijke uitleg!Cergorach schreef op donderdag 27 april 2023 @ 14:32:
[...]
'Cloud' is internet connected.
Jou NAS/fileserver hangt aan jou netwerk, welke weer aan het internet hangt. Als iemand maar hard genoeg wil, kunnen ze bij jou NAS komen via jou internet verbinding.
Ik ben van mening dat iemand makkelijker bij jou de NAS kan stelen dan remote kan inbreken op een goed beveiligde backup oplossing in de 'cloud'... Als je backuped naar een NAS op dezelfde locatie is die net zo makkelijk mee te nemen. Als het op een andere locatie staat dan wordt het meteen al heel wat moeilijker.
Over het algemeen heeft men het dan ook over "1 backup is geen backup", meerdere locaties, meerdere methodes. Een sync met de 'cloud' is dan ook geen backup.
Alles backuppen is ook al vaak niet meer te doen, ik zou dan ook adviseren dat je data te klassificeren naar belangrijkheid en muteerbaarheid. Voor velen zijn (digitale) familie foto's erg belangrijk en nemen niet TBs aan data in beslag, ze veranderen ook niet meer. Je zou bv. kunnen overgaan naar opslag op bv. M-DISC en ipv. of wellicht naast een 'cloud' backup, opslaan in een kluisje bij een 'kluishuis' (banken doen dit kennelijk niet meer). Als backup data in de 'cloud' problematisch is, encrypt het en zorg voor een fysiek copy van die sleutel op papier in een kluisje.
Ik ben zelf ook nog bezig een (voor mij) gedegen backup strategie te maken.M-DISCs met de helft besteed aan parity files gaat in ieder geval gebruikt worden. Waarschijnlijk ook iets van 'cloud' opslag, backblaze, AWS glacier, etc. voor bepaalde data. Naast de NASen.
Zoals je het hier beschrijft zou een extra cloud optie nog niet zo gek zijn. Deze dan naast de backup naar een ander apparaat op een externe locatie.
Duidelijk stof om over na te denken.
hdd kun je koppelen aan je vm met '/dev/disk/by-id/'Tripwire999 schreef op zondag 30 april 2023 @ 10:14:
Ik ben sinds kort gemigreert van TrueNas naar Unraid en wat een heerlijk verschil zeg. Unraid is echt zoveel makkelijker in vergelijking met TrueNas. Alles draait nu naar tevredenheid. Enige wat ik nu probeer voor elkaar te krijgen is het volgende:
Ik heb een linux_raid_member schijf liggen welke ik niet kan mounten in unassigned devices. Nu wil ik deze via passthrough naar mijn Ubuntu VM op de Unraid server doorgeven. Heeft iemand een idee hoe je dat kan doen? Ik had iets gelezen dat spaceinvaderone een video heeft over een ata-id method maar ik kan die niet vinden. Het doel is om de linux_raid_member te mounten in Ubuntu en de data te kunnen uitlezen. Ik heb helaas niet de opslag om een image of iets te maken.
het hdd id kun je achterhalen met commando: ls -l /dev/disk/by-id/
en anders heb je hier nog wat meer info:
https://forums.unraid.net...through-hard-drive-to-vm/
Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.
Voor mijn server ben ik op zoek naar een nieuwe cache disk.
Momenteel zit er een Crucial disk in van 500 GB.
Het probleem hierbij is dat Unraid niet altijd evengoed overweg kan met deze schijf.
Met name dan deze error:
Voor de werking kon dit geen kwaad.
Nu krijg ik hier dagelijks tientallen meldingen over en wil ik toch graag eens overschakelen naar een andere disk.
Om niet terug hetzelfde probleem te krijgen wil ik dus vragen welke schijf jullie gebruiken?
Momenteel zit er een Crucial disk in van 500 GB.
Het probleem hierbij is dat Unraid niet altijd evengoed overweg kan met deze schijf.
Met name dan deze error:
Dat is algemeen bekend bij Unraid maar tot nu toe kreeg ik dagelijks daar maar één melding over.Unraid Cache disk SMART health [197]: 04-05-2023 17:56
Warning [SERVER] - current pending ecc cnt is 1
CT500MX500SSD1_2014E29A4DC5 (sdd)
Voor de werking kon dit geen kwaad.
Nu krijg ik hier dagelijks tientallen meldingen over en wil ik toch graag eens overschakelen naar een andere disk.
Om niet terug hetzelfde probleem te krijgen wil ik dus vragen welke schijf jullie gebruiken?
Ik zelf gebruikte eerst nog de Samsung evo 860 ssd 1tb, maar ben vanwege de hogere TBW's en de lage prijs momenteel, overgegaan op deze intell ssd
Misschien een beetje overkill, maar ik zit wel goed voor wat betreft de TBW's, de aankomende tijd...
Misschien een beetje overkill, maar ik zit wel goed voor wat betreft de TBW's, de aankomende tijd...
[ Voor 17% gewijzigd door gekkenhuis1900 op 05-05-2023 17:24 ]
Ziet er idd best goed uit!gekkenhuis1900 schreef op vrijdag 5 mei 2023 @ 17:21:
Ik zelf gebruikte eerst nog de Samsung evo 860 ssd 1tb, maar ben vanwege de hogere TBW's en de lage prijs momenteel, overgegaan op deze intell ssd
Misschien een beetje overkill, maar ik zit wel goed voor wat betreft de TBW's, de aankomende tijd...
1 TB is voor mij wat overkill maar de 480 GB is ook leuk geprijsd.
Thanks voor de tip!
Uitsluitend Samsung, 980 als cache en 2 x 870 als Array, allen 1TB.
Meer schijven passen niet in mijn low-energy-consumption server (Asrock H310). Ik kwam van een HP DL360p Gen8 pizzadoos die idle al 100W deed, dus was tijd om te besparen op stroomkosten, waarbij ik dus consessies heb gedaan vwb opslagmogelijkheden (en geen cache-pool meer)
Meer schijven passen niet in mijn low-energy-consumption server (Asrock H310). Ik kwam van een HP DL360p Gen8 pizzadoos die idle al 100W deed, dus was tijd om te besparen op stroomkosten, waarbij ik dus consessies heb gedaan vwb opslagmogelijkheden (en geen cache-pool meer)
[ Voor 69% gewijzigd door MisteRMeesteR op 05-05-2023 18:15 ]
www.google.nl
dacht dat het niet zozeer een unRAID ding is maar eerder een firmware van de ssd, de MX500 heeft dit ook.Asterion schreef op vrijdag 5 mei 2023 @ 16:32:
Voor mijn server ben ik op zoek naar een nieuwe cache disk.
Momenteel zit er een Crucial disk in van 500 GB.
Het probleem hierbij is dat Unraid niet altijd evengoed overweg kan met deze schijf.
Met name dan deze error:
[...]
Dat is algemeen bekend bij Unraid maar tot nu toe kreeg ik dagelijks daar maar één melding over.
Voor de werking kon dit geen kwaad.
Nu krijg ik hier dagelijks tientallen meldingen over en wil ik toch graag eens overschakelen naar een andere disk.
Om niet terug hetzelfde probleem te krijgen wil ik dus vragen welke schijf jullie gebruiken?
heb zelf in unRAID deze smart melding uitgezet (bij betreffende disk, bij smart settings, Attribute = 197 uitgevinkt) gaat al een aantal jaar prima zo
Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.
Heel late reactie.. Maar waarom gebruik je de usg niet rechtsstreeks op je kpn aansluiting? Ben je die hele serie ervoor kwijt.. Misschien niet goed gelezen, maar zag deze oplossing verder nergens genoemd worden. Draai dat al jaren zo en alleen voor de tv zou je wat anders moeten instellen, behalve als je dus niet de oude iptv omgeving gebruikt.Asterion schreef op donderdag 13 april 2023 @ 11:23:
Hoi Tweakers,
Ik zit met het volgende probleem:
Sinds ik verhuisd ben ondervind ik vaak problemen dat het internet/netwerk compleet wegvalt.
Na verschillende oplossingen te proberen ben ik tot de vaststelling gekomen dat het waarschijnlijk te maken zal hebben met Docker op Unraid.
Mijn vroeger situatie bestond uit een modem met daarachter een USG van Uqibuity. Vandaaruit ging het verder naar een switch en AP. Allemaal van hetzelfde merk.
Toen ondervond ik geen problemen of ze waren alleszins toch niet duidelijk.
Nu ben ik verhuisd en deel ik het internet met een zaak.
Er is dus één en ander veranderd.
Hieronder hoe de situatie is voordat ik begon te troubleshooten:
[Afbeelding]
- Nu zit mijn USG achter een modem/router van kpn met daarachter een managed switch die ook dhcp uitdeelde aan de apparaten.
- Sinds enkele maanden gaf de Unifi software ook aan dat ik een apparaten had met een gedeeld IP-adres. Dat bleek dus mijn server te zijn.
Na wat troubleshooten zijn volgende zaken veranderd:
- Unifi stond ingesteld dat de managed switch ingesteld stond als gateway. Die switch is veranderd naar een gewone switch en de gateway staat nu ingesteld op de modem van de ISP (192.168.1.254)
- De instellingen "Host access to custom networks:" bij Docker settings in unraid staat op Disabled. Dat zorgt ervoor dat ik geen dubbel ip-adres meer heb. Hierdoor valt het netwerk ook niet meer weg voor zover bekend.
Hierdoor ontstaat er een volgend probleem:
Docker kan nu niet meer updaten omdat het geen verbinding meer heeft met het internet.
Heeft iemand hier een gepaste oplossing voor?
Ohja: al mijn containers maken gebruiken van het 192.168.1.x ip-adres door middel van custom:br0
Goeie tip.geenwindows schreef op zaterdag 6 mei 2023 @ 12:33:
[...]
dacht dat het niet zozeer een unRAID ding is maar eerder een firmware van de ssd, de MX500 heeft dit ook.
heb zelf in unRAID deze smart melding uitgezet (bij betreffende disk, bij smart settings, Attribute = 197 uitgevinkt) gaat al een aantal jaar prima zo
Zover had ik nog helemaal niet gedacht.
Ik bekijk het even!
De schijf doet wat ie moet doen, alleen die meldingen steeds wegdoen is al een dagtaak op zichzelf.

Het netwerk moet in 2 gescheiden worden.Camiel schreef op zaterdag 6 mei 2023 @ 12:39:
[...]
Heel late reactie.. Maar waarom gebruik je de usg niet rechtsstreeks op je kpn aansluiting? Ben je die hele serie ervoor kwijt.. Misschien niet goed gelezen, maar zag deze oplossing verder nergens genoemd worden. Draai dat al jaren zo en alleen voor de tv zou je wat anders moeten instellen, behalve als je dus niet de oude iptv omgeving gebruikt.
De zaak (niet mijn bedrijf) maakt gebruik van de router van kpn met bijhorende configuratie en mijn netwerk bevindt zih daarachter.
Als ik kon had ik heel het netwerk op de schop genomen. Ik mag en kan aan het netwerk niks veranderen.
Vandaar de gemakkelijkste maar minst mooie oplossing
Vanmorgen had ik een melding dat versie 6.12.0 uitgebracht is.
Iemand deze al foutloos geinstaleerd?
Ik persoonlijk wil wel gaan update maar ik wil eens een week of 2 wachten kijken wat er over de update geschreven gaat worden.
Iemand deze al foutloos geinstaleerd?
Ik persoonlijk wil wel gaan update maar ik wil eens een week of 2 wachten kijken wat er over de update geschreven gaat worden.
Ik heb m gewoon erop geyolo'd. So far so good, geen issues gezien nog. Cache ook gelijk omgezet naar ZFS
Share and Enjoy!
Geen problemen.
Ook van de cache een zfs gemaakt. Had enkel wat problemen bij het moven van shares van cache naar array dat deze niet alles had gemoved. Ook al stond de share naar de array en docker en vm uitgeschakeld. Na 2e keer was het ok.
Ook van de cache een zfs gemaakt. Had enkel wat problemen bij het moven van shares van cache naar array dat deze niet alles had gemoved. Ook al stond de share naar de array en docker en vm uitgeschakeld. Na 2e keer was het ok.
ik wacht meestal even tot de .1 of .2 versie. Dan zijn vaak de kleine bugs met updaten er wel uitgehaald. Elke keer als ik de release pagina op het unraid forum lees zijn er altijd wel mensen waarbij de update opeens misgaat (en wat gelukkig opgelost wordt in een latere sub-versie)
hey guys, ik wil eigenlijk gewoon even wat feedback,
voorheen had ik altijd een een leuk thuisservertje, waar ik vanalles op draaien, lees: truenass, xigma nas en ook een kort poosje unraid. dat werkte eigenlijk allemaal wel leuk, hardware: amd A10 7850K (quadcore amd (pre- zen dus), met 16gb ddr3. daarop draaide unraid natuurlijk dikke prima.
trieste feit hardware gaat stuk en ik heb eigenlijk geen geld (of zin) om een heel duur nieuw systeem te kopen,
bovendien verwacht ik niet meer al te veel verschillende plugins of dockers te gaan draaien, en zo wel dan overweeg ik zelfs om een deel van mijn nas als SAN in te zeggen (bijvboorbeeld voor een raspberry-pi achtig dingetje.
https://www.amazon.nl/TER...b&pd_rd_i=B07JMWT9TQ&th=1
https://www.amazon.nl/TER...d=pla-1652280086571&psc=1
als ik dat vergelijk met een zelfbouw systeempje,
enkele puntjes ter overweging:
wat ik weet is dat
• de kant-en-klaar nasjes zijn wat duurder, (vooral de quacore), maar ze zijn wat betreft ruimte ech een flink stuk compacter en ruimtegebrek is wel echt een ding hier...
• de aangegegeven limiet van de 5disk dual core is 10gb ram omdat er 2gb is vast gesoldeerd en je maximaal een 8gb stickje kunt toevoegen. van de 4bay quadcore nas ben ik niet zeker...
• zelfbouw heeft geen 2.5gbit, en het pci-e slot zou dat ook niet aankunnen, om dit wel te kunnen zou ik minimaal 100 euro meer uit moeten geven aan een véél duurder moederbord,
• zelfbouw heeft geen NVME-slots, en een adapter gaat vermoedelijk niet werken/passen. beide nasjes hebben dat wel in de verm van pcie-gen3
dingen die ik nog niet helemaal zeker weet:
• booten deze nasjes permanent van usb (vereiste voor unraid),
• gaat deze hardware en dan vooral ook de lan drivers, wel werken onder unraid,
• (vooral in het geval van de dualcore optie): wordt dit niet een beetje te veel op het randje...
• in het geval van zelfbouw, flink verouderde cpu, heeft iemand ervaring met dit soort hardware en unraid..
use case:
• een 2 persoons huishouden,
• hier en daar soms een download als iets niet meer makkelijk te streamen is. of als er bijvoorbeeld updates zijn van enkele opensource games die ik speel kortom hooguit 10 actieve torrents op piek momenten (meestal veel minder).
• dus ook geen eigen plex server...
• wel misschien home-assistant,
• misschien nextcloud
• of zo-nodig dus één of merdere sbc-computertjes waar dergelijke apps op kunnen draaien, maar met storage (of databases) op de nas.
wat zouden jullie doen? en op basis van welk gebruik baseer je dat.
ik ben dus vooral op zoek naar real-world voorbeelden. / persoonlijke ervaring.
voorheen had ik altijd een een leuk thuisservertje, waar ik vanalles op draaien, lees: truenass, xigma nas en ook een kort poosje unraid. dat werkte eigenlijk allemaal wel leuk, hardware: amd A10 7850K (quadcore amd (pre- zen dus), met 16gb ddr3. daarop draaide unraid natuurlijk dikke prima.
trieste feit hardware gaat stuk en ik heb eigenlijk geen geld (of zin) om een heel duur nieuw systeem te kopen,
bovendien verwacht ik niet meer al te veel verschillende plugins of dockers te gaan draaien, en zo wel dan overweeg ik zelfs om een deel van mijn nas als SAN in te zeggen (bijvboorbeeld voor een raspberry-pi achtig dingetje.
https://www.amazon.nl/TER...b&pd_rd_i=B07JMWT9TQ&th=1
https://www.amazon.nl/TER...d=pla-1652280086571&psc=1
als ik dat vergelijk met een zelfbouw systeempje,
# | Category | Product | Prijs | Subtotaal |
1 | Moederborden | ASRock J3455-ITX | € 87,11 | € 87,11 |
1 | Behuizingen | Inter-Tech IPC SC-4004 | € 88,90 | € 88,90 |
1 | Geheugen intern | OWC 1600DDR3S16P | € 41,75 | € 41,75 |
1 | Voedingen | Inter-Tech MINI-ITX PSU 160W | € 16,67 | € 16,67 |
1 | externe voeding | amazon 150w voeding | € 42,00 | € 42,00 |
Totaal | € 276,43 |
enkele puntjes ter overweging:
wat ik weet is dat
• de kant-en-klaar nasjes zijn wat duurder, (vooral de quacore), maar ze zijn wat betreft ruimte ech een flink stuk compacter en ruimtegebrek is wel echt een ding hier...
• de aangegegeven limiet van de 5disk dual core is 10gb ram omdat er 2gb is vast gesoldeerd en je maximaal een 8gb stickje kunt toevoegen. van de 4bay quadcore nas ben ik niet zeker...
• zelfbouw heeft geen 2.5gbit, en het pci-e slot zou dat ook niet aankunnen, om dit wel te kunnen zou ik minimaal 100 euro meer uit moeten geven aan een véél duurder moederbord,
• zelfbouw heeft geen NVME-slots, en een adapter gaat vermoedelijk niet werken/passen. beide nasjes hebben dat wel in de verm van pcie-gen3
dingen die ik nog niet helemaal zeker weet:
• booten deze nasjes permanent van usb (vereiste voor unraid),
• gaat deze hardware en dan vooral ook de lan drivers, wel werken onder unraid,
• (vooral in het geval van de dualcore optie): wordt dit niet een beetje te veel op het randje...
• in het geval van zelfbouw, flink verouderde cpu, heeft iemand ervaring met dit soort hardware en unraid..
use case:
• een 2 persoons huishouden,
• hier en daar soms een download als iets niet meer makkelijk te streamen is. of als er bijvoorbeeld updates zijn van enkele opensource games die ik speel kortom hooguit 10 actieve torrents op piek momenten (meestal veel minder).
• dus ook geen eigen plex server...
• wel misschien home-assistant,
• misschien nextcloud
• of zo-nodig dus één of merdere sbc-computertjes waar dergelijke apps op kunnen draaien, maar met storage (of databases) op de nas.
wat zouden jullie doen? en op basis van welk gebruik baseer je dat.
ik ben dus vooral op zoek naar real-world voorbeelden. / persoonlijke ervaring.
unraid 6.12.1 en 6.12.2 zijn binnen twee weken na de release van 6.12 uitgebracht. In de release note van 6.12.2 wordt er zelfs gesproken over het reverten naar een oude versie van docker.kevi-n1 schreef op maandag 19 juni 2023 @ 10:15:
ik wacht meestal even tot de .1 of .2 versie. Dan zijn vaak de kleine bugs met updaten er wel uitgehaald. Elke keer als ik de release pagina op het unraid forum lees zijn er altijd wel mensen waarbij de update opeens misgaat (en wat gelukkig opgelost wordt in een latere sub-versie)
Heeft iemand het al aangedurfd?
Negatief hier! Mede door het terug draaien van de oude docker v20, wil ik nog wachten gezien de update naar v23 van docker toch moet plaats vinden, doe ik het liever in een keer als ook deze stabiel is.
Bij mij draait de boel nu 8 dagen op Version 6.12.2 2023-06-29. Dit zonder problemen alle dockers & VM's werken prima.
Ik ben een beetje aan het testen of unraid wat voor mij is maar er is 1 ding wat ik maar niet snap.
Ik heb een 3 disk array met 1 parity disk.
Alle disks zijn 4 TB.
Ik kan dus 1 disk verliezen en dan is mijn data er nog steeds?
Maar ik heb nu dus een kleine 500 GB naar de array geschreven en zie dat er maar 2 disks echt gevuld worden.
Disk 1 en de parity disk.
/f/image/LBQvibhrHvgiqde0Q3OKAiDb.png?f=fotoalbum_large)
Als ik nu disk 1 verlies dan is de data er nog wel gewoon?
En als ik nu bijvoorbeeld 7 gig heb weggeschreven en verlies disk 1 of disk 2 zijn dan die bestanden weg op die schijf?
Kortom is dit nu eigenlijk hetzelfde als een raid5 of kan ik dat niet zo vergelijken?
Ik heb een 3 disk array met 1 parity disk.
Alle disks zijn 4 TB.
Ik kan dus 1 disk verliezen en dan is mijn data er nog steeds?
Maar ik heb nu dus een kleine 500 GB naar de array geschreven en zie dat er maar 2 disks echt gevuld worden.
Disk 1 en de parity disk.
/f/image/LBQvibhrHvgiqde0Q3OKAiDb.png?f=fotoalbum_large)
Als ik nu disk 1 verlies dan is de data er nog wel gewoon?
En als ik nu bijvoorbeeld 7 gig heb weggeschreven en verlies disk 1 of disk 2 zijn dan die bestanden weg op die schijf?
Kortom is dit nu eigenlijk hetzelfde als een raid5 of kan ik dat niet zo vergelijken?
Unraid zit qua concept meer tegen raid 4 aan. Het grote verschil is dat je bij unraid geen stripes hebt, maar iedere data disk bevat een zelfstandig filesystem. Dus als je de data disks uit het unraid systeem haalt en aan een andere pc hangt, heb je gewoon al je data nog.ComTech schreef op zondag 5 november 2023 @ 19:31:
Kortom is dit nu eigenlijk hetzelfde als een raid5 of kan ik dat niet zo vergelijken?
En mocht een van de data disks stuk gaan, dan simuleert unraid de missende disk met behulp van de parity.
[ Voor 10% gewijzigd door anboni op 05-11-2023 19:57 ]
De naam zegt het al Unraid.ComTech schreef op zondag 5 november 2023 @ 19:31:
Kortom is dit nu eigenlijk hetzelfde als een raid5 of kan ik dat niet zo vergelijken?
Het idee is dus echt anders dan RAID. Bij raid striping (met evt. parity) worden de blocks verdeeld over de disks. Bij unraid worden bestanden verdeeld over de schijven, en dat volgens de instelling van je share.
Als er een disk uit valt, dan ben je alleen de bestanden op die disk kwijt. De bestanden op je andere disks zijn gewoon nog beschikbaar.
Tenzij je ook nog parity disk hebt. Maar Spaceinvader kan het een stuk beter uitleggen dan ik.
YouTube: How Disk Arrays and Parity work - Raid and Unraid
Zelf heb ik helemaal geen parity disk. Belangrijke data staat bij mij op meedere cache pools, welke mirrored zijn. En worden dagelijks gebackupped.
Wat hierboven word gezegd.ComTech schreef op zondag 5 november 2023 @ 19:31:
[...]
Ik kan dus 1 disk verliezen en dan is mijn data er nog steeds?
Maar ik heb nu dus een kleine 500 GB naar de array geschreven en zie dat er maar 2 disks echt gevuld worden.
Disk 1 en de parity disk.
[...]
De 'echte data' word maar naar 1 data disk weg geschreven. Door deze wijziging moet parity ook geschreven worden.
Hierdoor kan je dus 1 disk verliezen, want de parity heb je als beveiliging.
Stel je verliest disk1, dan word adhv disk2 en de parity de disk1 'gesimuleerd'.
Het grootste verschil met raid is dat je data niet gestripped is, zoals hierboven gezegd en iedere schijf heeft zijn eigen bestand-systeem.
Stel dat je dus 5 disks er in hebt hangen met 1 parity. En er gaan 2 schijven stuk. Ben je niet alle data kwijt. (Zoals met raid)
Maar ben je alleen de data kwijt die op de kapotte disks stond.
it's something

Aha het is nu een stuk duidelijker geworden.
Dat filmpje van spaceinvader-one had ik ook al eens bekeken.
Als ik het goed begrijp is dus een array met 1 parity disk dus altijd beveiligd voor 1 disk verlies, maakt niet uit welke disk alle bestanden zijn nog beschikbaar.
Enige verschil is als je een 2e disk verliest niet alle data weg is maar de data van de overgebleven disk(en) nog beschikbaar is.
Dat filmpje van spaceinvader-one had ik ook al eens bekeken.
Als ik het goed begrijp is dus een array met 1 parity disk dus altijd beveiligd voor 1 disk verlies, maakt niet uit welke disk alle bestanden zijn nog beschikbaar.
Enige verschil is als je een 2e disk verliest niet alle data weg is maar de data van de overgebleven disk(en) nog beschikbaar is.
[ Voor 5% gewijzigd door ComTech op 05-11-2023 22:29 ]
Klopt, en zelfs zonder dat de disk in een array zit, zijn alle schijven ook los van elkaar uit te lezen. Dus je kan ze gewoon in een andere bak stoppen en uitlezen alsof het een schijf is die nooit in wat voor array dan ook gezeten heeftComTech schreef op zondag 5 november 2023 @ 22:28:
Aha het is nu een stuk duidelijker geworden.
Dat filmpje van spaceinvader-one had ik ook al eens bekeken.
Als ik het goed begrijp is dus een array met 1 parity disk dus altijd beveiligd voor 1 disk verlies, maakt niet uit welke disk alle bestanden zijn nog beschikbaar.
Enige verschil is als je een 2e disk verliest niet alle data weg is maar de data van de overgebleven disk(en) nog beschikbaar is.
Share and Enjoy!
Ganse tijd geleden dat ik dit onderwerp nog gevolgd heb. Gebruik zelf nog altijd dezelfde opstelling als toen ik deze dik twee jaar terug geplaatst heb hier maar nu wel 18TB schijf als parity en er nog een andere van 10 en 18TB bij voor data.
Afgelopen week wel één en ander veranderd.
Eerste wat ik gedaan heb.
Voor het eerst een ZFS pool gemaakt en één en andere ingesteld, kwestie van nog eens iets bij te leren
Omdat ik maar één cache drive heb en mijn appdata, domains en system alleen leven op de cache—dus geen secondary storage op de array—na aanpassing van die shares moest er iets gebeuren om die data toch veilig te stellen.
Want dit wil je natuurlijk niet meemaken
Om dit op te lossen heb ik alles van de kleinste 4TB schijf verplaatst naar de andere schijven met de Unbalance plugin. Daarna kon deze als ZFS geformatteerd worden. Ook geen raidz pool, maar aangezien de schijf in de array zit wordt deze beschermd door de parity schijf.
Wat er nu gebeurd is dat er scripts zijn opgezet die elke nacht een backup maken van de cache ZFS pool naar de HDD ZFS pool, dus die data staat nu nog wat veiliger.
In appdata zijn ook alle container folders ZFS datasets wat het voordeel geeft dat als er een container gek doet na een update deze héél gemakkelijk kan terug gezet worden van een snapshot.

Het eerste kostte dus geen euro, maar het tweede zal dat wel doen.
Ik speel namelijk met het idee om een server rack build te maken, wellicht een 4U 24 bay server. Momenteel nog aan het orienteren wat de case zelf betreft want dat lijkt met het belangrijkste om dan later de andere hardware componenten te verzamelen.
De huidige unraid server zou dan draaien als altijd aan server met docker containers zoals Nextcloud, Bitwarden beide via reserve proxy met cloudflared, Pihole en nog wat zaken. Met een i3-9100 in deze is dat zat snel genoeg en idle ook nog eens lekker stil. Misschien zelfs op te vatten met 2 SSD's erin in raidz pool zodat er geen spinners meer inzitten.
De nieuwe server zou dan tijdens vooral werkweek vooral in S3 slaap staan om zo tot niet te veel de energie rekening te doen stijgen.
Afijn vooruitzichten dus
Heb nu reeds een tijdelijke wenslijst gemaakt. Denk niet dat er dingen inzitten welke niet met elkaar passen, maar ben altijd benieuwd naar jullie input.
Afgelopen week wel één en ander veranderd.
Eerste wat ik gedaan heb.
Voor het eerst een ZFS pool gemaakt en één en andere ingesteld, kwestie van nog eens iets bij te leren
Omdat ik maar één cache drive heb en mijn appdata, domains en system alleen leven op de cache—dus geen secondary storage op de array—na aanpassing van die shares moest er iets gebeuren om die data toch veilig te stellen.
Want dit wil je natuurlijk niet meemaken

Om dit op te lossen heb ik alles van de kleinste 4TB schijf verplaatst naar de andere schijven met de Unbalance plugin. Daarna kon deze als ZFS geformatteerd worden. Ook geen raidz pool, maar aangezien de schijf in de array zit wordt deze beschermd door de parity schijf.
Wat er nu gebeurd is dat er scripts zijn opgezet die elke nacht een backup maken van de cache ZFS pool naar de HDD ZFS pool, dus die data staat nu nog wat veiliger.
In appdata zijn ook alle container folders ZFS datasets wat het voordeel geeft dat als er een container gek doet na een update deze héél gemakkelijk kan terug gezet worden van een snapshot.

Het eerste kostte dus geen euro, maar het tweede zal dat wel doen.
Ik speel namelijk met het idee om een server rack build te maken, wellicht een 4U 24 bay server. Momenteel nog aan het orienteren wat de case zelf betreft want dat lijkt met het belangrijkste om dan later de andere hardware componenten te verzamelen.
De huidige unraid server zou dan draaien als altijd aan server met docker containers zoals Nextcloud, Bitwarden beide via reserve proxy met cloudflared, Pihole en nog wat zaken. Met een i3-9100 in deze is dat zat snel genoeg en idle ook nog eens lekker stil. Misschien zelfs op te vatten met 2 SSD's erin in raidz pool zodat er geen spinners meer inzitten.
De nieuwe server zou dan tijdens vooral werkweek vooral in S3 slaap staan om zo tot niet te veel de energie rekening te doen stijgen.
Afijn vooruitzichten dus
Heb nu reeds een tijdelijke wenslijst gemaakt. Denk niet dat er dingen inzitten welke niet met elkaar passen, maar ben altijd benieuwd naar jullie input.
# | Category | Product | Prijs | Subtotaal |
---|---|---|---|---|
1 | Processors | Intel Core i5-13500 Boxed | € 258,99 | € 258,99 |
1 | Moederborden | Gigabyte Z790 AERO G | € 326,80 | € 326,80 |
1 | Behuizingen | Inter-Tech 19" IPC 4U-4424 | € 548,43 | € 548,43 |
1 | Processorkoeling | Noctua NH-U9S chromax.black | € 74,90 | € 74,90 |
2 | Geheugen intern | Corsair Vengeance CMK64GX5M2B5600C40 | € 174,90 | € 349,80 |
1 | Voedingen | Corsair HX1000i ATX3.0 | € 227,79 | € 227,79 |
2 | Solid state drives | WD Black SN850X (zonder heatsink) 2TB | € 139,- | € 278,- |
Totaal | € 2.064,71 |
Ik heb een unraid installatie met een cache pool van 2 ssd's.
Ik had origineel 2X 120 GB.
Maar met een heel aantal docker installaties te installeren die bestanden verplaatsen wilde ik deze vervangen.
Aangezien het een cach pool is heb ik zoals bij de gewone hdd's 1 exemplaar eruit gehaald en vervangen door een nieuwe van 1TB.
En nu is deze dus aan het heropbouwen.
Echter is dit al 8 dagen en 16uur bezig en vraag me wel af of dat normaal is of dat ik iets verkeerd heb gedaan.
Want intussen kan mijn systeem mijn andere server niet mounten en kunnen de dockers niet doen waar ze voor ingesteld zijn ...
Iemand dit eerder gedaan? Moet ik de dockers tijdelijk stilleggen om dit proces te versnellen?
Ik had origineel 2X 120 GB.
Maar met een heel aantal docker installaties te installeren die bestanden verplaatsen wilde ik deze vervangen.
Aangezien het een cach pool is heb ik zoals bij de gewone hdd's 1 exemplaar eruit gehaald en vervangen door een nieuwe van 1TB.
En nu is deze dus aan het heropbouwen.
Echter is dit al 8 dagen en 16uur bezig en vraag me wel af of dat normaal is of dat ik iets verkeerd heb gedaan.
Want intussen kan mijn systeem mijn andere server niet mounten en kunnen de dockers niet doen waar ze voor ingesteld zijn ...
Iemand dit eerder gedaan? Moet ik de dockers tijdelijk stilleggen om dit proces te versnellen?
Op welk moment heb je de cache drive eruit getrokken? Het is namelijk wel de bedoeling dat je alle dockers en vm's stopt. De Unraid server uitzet en dan de swap van je cache drive doet...
Volgens mij ging het zo ongeveer, tis voor mij ook alweer even geleden dat ik dat proces doorstaan heb..
Google anders even op "unraid replace ssd cache drive"
Bijv:
https://forums.unraid.net...sds-with-new-larger-ssds/
Volgens mij ging het zo ongeveer, tis voor mij ook alweer even geleden dat ik dat proces doorstaan heb..
Google anders even op "unraid replace ssd cache drive"
Bijv:
https://forums.unraid.net...sds-with-new-larger-ssds/
Ik heb al een aantal keren gegoogled maar kon niets vinden hoe lang de hersteltijd nodig heeft... of iets in die richting.gekkenhuis1900 schreef op zaterdag 6 januari 2024 @ 12:49:
Op welk moment heb je de cache drive eruit getrokken? Het is namelijk wel de bedoeling dat je alle dockers en vm's stopt. De Unraid server uitzet en dan de swap van je cache drive doet...
Volgens mij ging het zo ongeveer, tis voor mij ook alweer even geleden dat ik dat proces doorstaan heb..
Google anders even op "unraid replace ssd cache drive"
Bijv:
https://forums.unraid.net...sds-with-new-larger-ssds/
Ik had de server uitgezet, en dan de disk vervangen.
Dan terug aangezet en bij begon na het toewijzen van de drive aan de pool automatisch met het herstelproces.
De dockers had ik idd wel niet uitgezet.
Deze heb ik nu uitgezet en ga maar weer wachten tot wanneer ik hopelijk weer snel alles kan mounten.
Dan de volgende drive vervangen ^^.
Bij vervangen van de cache ssd volg ik zelf altijd de volgorde van: Alles qua VM's en dockers stoppen. Alle shares aanpassen en op array only zetten. Daarna de mover draaien zodat de hele cache ssd leeg is.
Dan heb je in feite gewoon een lege schijf dus eruit halen en nieuwe (Nu kan ook meer tegelijk) erin doen.
Daarna array starten en shares weer aanpassen.
Geen gedoe met heropbouwen etc.. En de server is ook direct weer volledig bruikbaar.
Dan heb je in feite gewoon een lege schijf dus eruit halen en nieuwe (Nu kan ook meer tegelijk) erin doen.
Daarna array starten en shares weer aanpassen.
Geen gedoe met heropbouwen etc.. En de server is ook direct weer volledig bruikbaar.
Ik heb vanmorgen elke dir in de SHARES tab op Array gezet.Muerte.Diablo schreef op zaterdag 6 januari 2024 @ 22:59:
Bij vervangen van de cache ssd volg ik zelf altijd de volgorde van: Alles qua VM's en dockers stoppen. Alle shares aanpassen en op array only zetten. Daarna de mover draaien zodat de hele cache ssd leeg is.
Dan heb je in feite gewoon een lege schijf dus eruit halen en nieuwe (Nu kan ook meer tegelijk) erin doen.
Daarna array starten en shares weer aanpassen.
Geen gedoe met heropbouwen etc.. En de server is ook direct weer volledig bruikbaar.
Als ik bij de Main tab kijk en op de mover knop klik lijkt er niets te gebeuren. (Vanmorgen wat schrijfacties op een hdd, maar bij Pool Devices blijft hij bij used 119 GB aangeven...
Klik ik op de link bij Device om de inhoud te zien dan staan daar inderdaad nog de mappen op.
Als ik nogmaals op de MOVE knop klik springt de weergave gewoon naar boven maar lijkt er niets te gebeuren...
Ik begrijp niet wat er nu aan de hand is.
Normaal zou ik toch schrijfacties verwachten en dat de content van de cache pool naar de hdd's moeten gaan nu ...
Momenteel maak ik gebruik van Proxmox waar 2 containers op draaien
- Adguard
- Unifi Controller
Daarnaast draaien er 2 VM's;
- Home Assistant
- Xpenology
Ik wil eigenlijk wel af van Xpenology en ben zodoende aan het kijken naar een andere setup en zoals het lijkt moet dit Unraid gaan worden. Hier een aantal vragen over;
- Momenteel heb ik 2x 2TB SSD in mirror draaien. Deze SSD's wil ik graag vervangen door een Nvme van 2TB. Installeer ik op deze Nvme dan ook Unraid of "moet" dat apart op een ssd/hdd of draait dit volledig vanaf de USB stick?
- Ik heb hier nog een 4TB 2.5 HDD liggen. Kan ik deze gebruiken als "Parity drive en dan op de Nvme drive de data zetten? De werking van de parity drive is mij nog niet helemaal duidelijk maar klopt het dat deze drive dan fungeert als een mirror? Met andere woorden; als de Nvme drive crasht, kan ik deze dan vervangen en met behulp van de parity drive alle data weer terug plaatsen?
Een van de 2 2TB ssd's wil ik dan gebruik als cache schijf.
Is deze setup verstandig?
- Draai ik Home Assistant vervolgens in een VM en wordt de data hiervan ook weggeschreven naar deze parity drive?
Dank alvast voor de antwoorden!
- Adguard
- Unifi Controller
Daarnaast draaien er 2 VM's;
- Home Assistant
- Xpenology
Ik wil eigenlijk wel af van Xpenology en ben zodoende aan het kijken naar een andere setup en zoals het lijkt moet dit Unraid gaan worden. Hier een aantal vragen over;
- Momenteel heb ik 2x 2TB SSD in mirror draaien. Deze SSD's wil ik graag vervangen door een Nvme van 2TB. Installeer ik op deze Nvme dan ook Unraid of "moet" dat apart op een ssd/hdd of draait dit volledig vanaf de USB stick?
- Ik heb hier nog een 4TB 2.5 HDD liggen. Kan ik deze gebruiken als "Parity drive en dan op de Nvme drive de data zetten? De werking van de parity drive is mij nog niet helemaal duidelijk maar klopt het dat deze drive dan fungeert als een mirror? Met andere woorden; als de Nvme drive crasht, kan ik deze dan vervangen en met behulp van de parity drive alle data weer terug plaatsen?
Een van de 2 2TB ssd's wil ik dan gebruik als cache schijf.
Is deze setup verstandig?
- Draai ik Home Assistant vervolgens in een VM en wordt de data hiervan ook weggeschreven naar deze parity drive?
Dank alvast voor de antwoorden!
unRAID boot van usb stick en staat verder alleen in het werkgeheugen van de pc , zeer weinig schrijf acties, alleen als er een configuratie wijzigingen zijn.
Je kan een pool maken van verschillende harddisk grote, mits de parity harddisk gelijk is aan de grootste uit de Array.
Verder zou je je app data (docker) en VMs in een cash pool draaien van de 2tb ssds die je hebt in mirror.
Je kan een pool maken van verschillende harddisk grote, mits de parity harddisk gelijk is aan de grootste uit de Array.
Verder zou je je app data (docker) en VMs in een cash pool draaien van de 2tb ssds die je hebt in mirror.
[ Voor 14% gewijzigd door BlaBla1973 op 04-02-2024 19:00 ]
Computer nr 486 denk ik..
Als ik een cache ssd toevoeg en die crasht (zijn cheap ass schijven) ben ik die data die daar dan op staat kwijt?
Ik wil die schijf alleen maar gebruiken als cache schijf en niet voor actuele data.
Ik wil die schijf alleen maar gebruiken als cache schijf en niet voor actuele data.
Ja. Tenzij je je pool/cache als raid uitvoert.
De pool van Unraid is geen kopie maar een snelle opslaglocatie. Hij heeft geen slimmigheid die er voor zorgt dat de cache voorzien is van vaak geopende bestanden bijvoorbeeld.
De pool van Unraid is geen kopie maar een snelle opslaglocatie. Hij heeft geen slimmigheid die er voor zorgt dat de cache voorzien is van vaak geopende bestanden bijvoorbeeld.
Ik heb vandaag mijn server uitgezet. Nieuwe nvme erin en Unraid erop.
Hierna mijn usb apparaten aangesloten. Licentie gekocht en de boel gestart.
Een van de eerste dingen was het maken van een VM met daarin Home Assistant en hierbij heb ik gebruik gemaakt van deze video;
YouTube: Installing Home Assistant On Your UNRAID Server. Dit is goed gegaan en hierna heb ik mijn backup terug geplaatst.
Probleem waar ik nu tegenaan loop is dat mijn zigbee2mqtt stick niet werkend te krijgen is. Deze lijkt in Unraid zichtbaar als:
Bus 001 Device 002 Port 1-1 ID 1a86:7523 QinHeng Electronics CH340 serial converter
Maar mijn waterlezer en slimme meter worden ook op deze wijze herkend. Alleen dan op een andere bus.
Ik heb usb manager geinstalleerd binnen Unraid en kan op die manier de usb doorlussen naar HA. Ik zie mijn apparaten ook weer maar kan ze niet bedienen want dan krijg ik een timeout command.
Kan iemand mij helpen met dit? De lampjes e.d. willen graag weer wat liefde. (En ik wil van het gedoe af zijn)
Hierna mijn usb apparaten aangesloten. Licentie gekocht en de boel gestart.
Een van de eerste dingen was het maken van een VM met daarin Home Assistant en hierbij heb ik gebruik gemaakt van deze video;
YouTube: Installing Home Assistant On Your UNRAID Server. Dit is goed gegaan en hierna heb ik mijn backup terug geplaatst.
Probleem waar ik nu tegenaan loop is dat mijn zigbee2mqtt stick niet werkend te krijgen is. Deze lijkt in Unraid zichtbaar als:
Bus 001 Device 002 Port 1-1 ID 1a86:7523 QinHeng Electronics CH340 serial converter
Maar mijn waterlezer en slimme meter worden ook op deze wijze herkend. Alleen dan op een andere bus.
Ik heb usb manager geinstalleerd binnen Unraid en kan op die manier de usb doorlussen naar HA. Ik zie mijn apparaten ook weer maar kan ze niet bedienen want dan krijg ik een timeout command.
Kan iemand mij helpen met dit? De lampjes e.d. willen graag weer wat liefde. (En ik wil van het gedoe af zijn)
- Wordt de Zigbee stick nu wel of niet gezien en doorgegeven door HA?
- Hoe kan het dat je waterlezer en slimme meter over een usb poort gezien worden door je server? Zijn dat geen zigbee apparaten?
- Heb je een backup gemaakt van je 'oude' zigbee netwerk?
Daarna is dit in het kort het stappenplan om je zigbee netwerk te migreren, https://community.home-as...a-different-device/440294
Robbie T schreef op zaterdag 10 februari 2024 @ 19:29:
Ik heb vandaag mijn server uitgezet. Nieuwe nvme erin en Unraid erop.
Hierna mijn usb apparaten aangesloten. Licentie gekocht en de boel gestart.
Een van de eerste dingen was het maken van een VM met daarin Home Assistant en hierbij heb ik gebruik gemaakt van deze video;
YouTube: Installing Home Assistant On Your UNRAID Server. Dit is goed gegaan en hierna heb ik mijn backup terug geplaatst.
Probleem waar ik nu tegenaan loop is dat mijn zigbee2mqtt stick niet werkend te krijgen is. Deze lijkt in Unraid zichtbaar als:
Bus 001 Device 002 Port 1-1 ID 1a86:7523 QinHeng Electronics CH340 serial converter
Maar mijn waterlezer en slimme meter worden ook op deze wijze herkend. Alleen dan op een andere bus.
Ik heb usb manager geinstalleerd binnen Unraid en kan op die manier de usb doorlussen naar HA. Ik zie mijn apparaten ook weer maar kan ze niet bedienen want dan krijg ik een timeout command.
Kan iemand mij helpen met dit? De lampjes e.d. willen graag weer wat liefde. (En ik wil van het gedoe af zijn)
:fill(white):strip_exif()/f/image/uS6iXDYJMrL2tN8ZBrFAFZad.png?f=user_large)
Hij staat hier tussen, en je hebt hem aangevinkt?
Hij zou dan na een herstart in HA zichtbaar moeten worden als "ttyUSB0" of iets vergelijkbaars.
En probeer anders een andere usb-poort. (niet de usb poort die er onder zit. Maar een andere usb-poort die op een andere wijzen is verbonden met je CPU.
Na lang proberen vanacht (het werd een latertje) ben ik er om 2 uur maar mee opgehouden. Vanochtend nog maar eens een andere USB poort geprobeerd en de optie "serial" aangeklikt in de USB Manager plugin. Hierna de usb gemount binnen de VM en eindelijk werkte het!
Hier heb ik in het verleden ook veel problemen mee gehad en dit was voor mij telkens de juiste oplossing. Als je de USB Manager plugin gebruikt moet je overigens niet de USB toewijzing in de VM configuratie gebruiken. Ik ben uiteindelijk naar Home Assistant (en Zigbee2MQTT) in Docker overgestapt. Mede omdat dat ook iets zuiniger was.Robbie T schreef op zondag 11 februari 2024 @ 14:38:
Na lang proberen vanacht (het werd een latertje) ben ik er om 2 uur maar mee opgehouden. Vanochtend nog maar eens een andere USB poort geprobeerd en de optie "serial" aangeklikt in de USB Manager plugin. Hierna de usb gemount binnen de VM en eindelijk werkte het!
Ja in Docker is een stuk eenvoudiger maar als ik het in docker doe dan mis ik de addon optie en de hacs mogelijk toch?alex3305 schreef op zondag 11 februari 2024 @ 14:42:
[...]
Hier heb ik in het verleden ook veel problemen mee gehad en dit was voor mij telkens de juiste oplossing. Als je de USB Manager plugin gebruikt moet je overigens niet de USB toewijzing in de VM configuratie gebruiken. Ik ben uiteindelijk naar Home Assistant (en Zigbee2MQTT) in Docker overgestapt. Mede omdat dat ook iets zuiniger was.
Je mist de add-ons ja, maar HACS niet. Maar aangezien de add-ons verijdelde Docker containers zijn, mis ik daar eigenlijk vrij weinig aan. De enige functie die ik echt mis, is het eenvoudig syncen van mijn configuratie vanuit Git naar Home Assistant. Ik heb daar nu een shell_script voor geschreven, maar dat is IMHO een beetje brak.Robbie T schreef op zondag 11 februari 2024 @ 14:49:
[...]
Ja in Docker is een stuk eenvoudiger maar als ik het in docker doe dan mis ik de addon optie en de hacs mogelijk toch?
Ik heb Home Assistant in Docker Compose draaien die ik met Dockge beheer, maar wel de unRAID labels heb meegegeven zodat het er nog een beetje fatsoenlijk uitziet in de unRAID UI. Ik had het graag allemaal vanuit unRAID beheert, maar ik vond Docker Compose echt niet lekker werken vanuit de web UI.
Verwijderd
[ Voor 105% gewijzigd door K!K op 15-02-2024 19:14 ]
Op dit moment zitten er 7 10TB schijven in mijn server, 2x parity dus 50TB aan schijf ruimte. Ik was/ben aan het kijken om deze schijven te vervangen omdat de schijven er al een tijd in zitten. Om het stroomverbruik wat terug te brengen zit ik te kijken naar 20TB-ish schijven.
Ik heb al het nodige gevonden over het vervangen van schijven in Unraid. Eerst één parity opnieuw opbouwen and so on.
Heef iemand hier ervaring mee en het al een keer gedaan? Ik ben benieuwd naar de ervaringen en misschien wat do's en don'ts.
Ik heb al het nodige gevonden over het vervangen van schijven in Unraid. Eerst één parity opnieuw opbouwen and so on.
Heef iemand hier ervaring mee en het al een keer gedaan? Ik ben benieuwd naar de ervaringen en misschien wat do's en don'ts.
Toen ik van 8tb naar 22tb Schijven ben gegaan zat ik tussen de 24-28u rebuild tijd per schijf.Flans schreef op vrijdag 2 augustus 2024 @ 10:48:
Op dit moment zitten er 7 10TB schijven in mijn server, 2x parity dus 50TB aan schijf ruimte. Ik was/ben aan het kijken om deze schijven te vervangen omdat de schijven er al een tijd in zitten. Om het stroomverbruik wat terug te brengen zit ik te kijken naar 20TB-ish schijven.
Ik heb al het nodige gevonden over het vervangen van schijven in Unraid. Eerst één parity opnieuw opbouwen and so on.
Heef iemand hier ervaring mee en het al een keer gedaan? Ik ben benieuwd naar de ervaringen en misschien wat do's en don'ts.
Vermoedelijk kan het makkelijker en sneller. Maar ik wilde de server tussendoor nog blijven gebruiken en had de tijd.
Niet verder naar gezocht indertijd.
Ben al bijna 12 jaar tevreden unraid gebruiker. Machine is een Supermicro X9SCM met een Xeon E3-1230 op 3.3Ghz, 9x 4TB harddisks + 1TB SSD. Van de week maar eens geupgrade naar 6.12.10 (kwam van 6.9).
Ik krijg nu meldingen dat ReiserFS vanaf 2025 niet meer ondersteund wordt. Uiteraard heb ik alles 12 jaar geleden op ReiserFS gezet, want er was niks anders.
Aangezien ik een aantal schijven er al bijna 12 jaar in heb zitten, waarvan er een stuk of 3 inmiddels de 100.000 uur gepasseerd zijn, is het denk ik geen gek idee om wat van die 4TB schijven te vervangen voor 8TB. (de 4TB parity disk die ik had is vorig jaar vervangen door een 8TB parity disk, die begon kuren te vertonen).
Wat is nu de beste procedure? Ik denk het simpelst is om een oude data disk er na een shutdown uit te trekken, nieuwe in de plaats, en dan een rebuild te laten doen?
Maar waar in die stappen kan ik de schijf op XFS formatten?
Of kan ik de nieuwe disk gewoon toevoegen, wordt het dan een 'unassigned' disk en kan ik hem dan formatteren/preclearen (of andersom?) en als dat gedaan is, hem op de plek van een oude schijf zetten?
Ik krijg nu meldingen dat ReiserFS vanaf 2025 niet meer ondersteund wordt. Uiteraard heb ik alles 12 jaar geleden op ReiserFS gezet, want er was niks anders.
Aangezien ik een aantal schijven er al bijna 12 jaar in heb zitten, waarvan er een stuk of 3 inmiddels de 100.000 uur gepasseerd zijn, is het denk ik geen gek idee om wat van die 4TB schijven te vervangen voor 8TB. (de 4TB parity disk die ik had is vorig jaar vervangen door een 8TB parity disk, die begon kuren te vertonen).
Wat is nu de beste procedure? Ik denk het simpelst is om een oude data disk er na een shutdown uit te trekken, nieuwe in de plaats, en dan een rebuild te laten doen?
Maar waar in die stappen kan ik de schijf op XFS formatten?
Of kan ik de nieuwe disk gewoon toevoegen, wordt het dan een 'unassigned' disk en kan ik hem dan formatteren/preclearen (of andersom?) en als dat gedaan is, hem op de plek van een oude schijf zetten?
Misschien een gekke gedachte maar volgens mij kan je tegenwoordig meerdere pools hebben. Zou je niet 2 disken omzetten naar 8tb zodat je de extra ruimte hebt. Nu kan je de data van de twee oude 4tb disks verplaatsen naar de andere schijven via unbalance om ze er daarna uit te halen en twee nieuwe 8tb disks erin plaatsen. Deze stel je in als een nieuwe xfs pool. Vervolgens kan je data van je oude pool naar je nieuwe pool verplaatsen. Met unBalance kan je telkens weer een 4tb disks leeghalen zodat je telkens weer een schijf eruit kan halen. Wanneer je een disk pre-cleared zou het toevoegen van die disk aan de nieuwe pool, vrij snel moeten zijn.Borisvkr schreef op zaterdag 3 augustus 2024 @ 12:42:
Ben al bijna 12 jaar tevreden unraid gebruiker. Machine is een Supermicro X9SCM met een Xeon E3-1230 op 3.3Ghz, 9x 4TB harddisks + 1TB SSD. Van de week maar eens geupgrade naar 6.12.10 (kwam van 6.9).
Ik krijg nu meldingen dat ReiserFS vanaf 2025 niet meer ondersteund wordt. Uiteraard heb ik alles 12 jaar geleden op ReiserFS gezet, want er was niks anders.
Aangezien ik een aantal schijven er al bijna 12 jaar in heb zitten, waarvan er een stuk of 3 inmiddels de 100.000 uur gepasseerd zijn, is het denk ik geen gek idee om wat van die 4TB schijven te vervangen voor 8TB. (de 4TB parity disk die ik had is vorig jaar vervangen door een 8TB parity disk, die begon kuren te vertonen).
Wat is nu de beste procedure? Ik denk het simpelst is om een oude data disk er na een shutdown uit te trekken, nieuwe in de plaats, en dan een rebuild te laten doen?
Maar waar in die stappen kan ik de schijf op XFS formatten?
Of kan ik de nieuwe disk gewoon toevoegen, wordt het dan een 'unassigned' disk en kan ik hem dan formatteren/preclearen (of andersom?) en als dat gedaan is, hem op de plek van een oude schijf zetten?
Ik heb het nog nooit gedaan maar het lijkt me wel een makkelijke methode zeker omdat je van filesystem wilt veranderen.
@Borisvkr Ik zou voor veel grotere schijven gaan, zoals @Flans terecht opmerkt brengt dat het stroomverbruik enorm terug. Alhoewel je dat misschien niet zo interesseert met je Xeon setup
. Stroomverbruik per spinnende disk moet je rekenen op ongeveer 7.5W. Dus als je van 9 naar 3 disks gaat bespaar je 0,0075*6*365*24*0,3 dus ~118€ per jaar.
Parity rebuild tijd is wel relatief lang bij grotere disks. Dat is voor mij de reden om geen parity te gebruiken, maar te backuppen en bij verlies het op een andere manier te vervangen. Wel zou ik oppassen met disks die zo'n lange runtime hebben. Die willen nog weleens plots bad sectors hebben als je die veel gaat gebruiken
.
Toen ik overigens van server wisselde vorig jaar heb ik ervoor gezorgd dat mijn grootste disk leeg was. Toen die in de array gezet en mijn bestaande disk als unassigned drive aan Unraid toegevoegd en alles gekopieerd. Vervolgens de tweede en daarna de rest. Dat heeft twee dagen geduurd, maar was redelijk eenvoudig en zonder echte problemen.
Parity rebuild tijd is wel relatief lang bij grotere disks. Dat is voor mij de reden om geen parity te gebruiken, maar te backuppen en bij verlies het op een andere manier te vervangen. Wel zou ik oppassen met disks die zo'n lange runtime hebben. Die willen nog weleens plots bad sectors hebben als je die veel gaat gebruiken

Toen ik overigens van server wisselde vorig jaar heb ik ervoor gezorgd dat mijn grootste disk leeg was. Toen die in de array gezet en mijn bestaande disk als unassigned drive aan Unraid toegevoegd en alles gekopieerd. Vervolgens de tweede en daarna de rest. Dat heeft twee dagen geduurd, maar was redelijk eenvoudig en zonder echte problemen.
Ik weet nog steeds niet waar in het proces de formatteer stap zit...
Het formatteren zit - net als in bijvoorbeeld windows - op het moment dat je de schijf toevoegt aan Unraid. Dan zal de schijf moeten worden toegevoegd en daar zit ook de stap om te formatteren. Of eigenlijk een leeg filesystem op de schijf te zetten, in jou geval xfs. (Edit: zfs is tegenwoordig ook beschikbaar voor Unraid, daar zou je nog eens een onderzoek(je) naar kunnen doen)Borisvkr schreef op zaterdag 3 augustus 2024 @ 12:42:
Maar waar in die stappen kan ik de schijf op XFS formatten?
Of kan ik de nieuwe disk gewoon toevoegen, wordt het dan een 'unassigned' disk en kan ik hem dan formatteren/preclearen (of andersom?) en als dat gedaan is, hem op de plek van een oude schijf zetten?
Deze twee links zouden je verder moeten helpen, met het omzetten:
- https://forums.unraid.net...ing-reiserfs-disk-to-xfs/
- https://www.reddit.com/r/..._from_all_reiserfs_array/
Oh, goede info, in die eerste link staat dus dat wat ik dacht te gaan doen, niet werkt.
Ik wilde een nieuwe disk plaatsen, preclearen en formatteren, en dan de oude disk er uit trekken, de nieuwe op die plek, en dan rebuild. Dat rebuild werkt dus niet als het filesystem veranderd is, je moet de data dus inderdaad eerst ergens veilig stellen.
Ik wilde een nieuwe disk plaatsen, preclearen en formatteren, en dan de oude disk er uit trekken, de nieuwe op die plek, en dan rebuild. Dat rebuild werkt dus niet als het filesystem veranderd is, je moet de data dus inderdaad eerst ergens veilig stellen.
https://github.com/ccmorris/unraid-gui-responsive
Waarschuwing: vrij broken, maar toch wel net wat beter dan de standaardlayout.
Deze custom CSS maakt de unraid gui responsive op kleinere apparaten. Het is verre van perfect: sommige tabellen passen niet en het is wat krampachtig allemaal. Maar het zorgt wel voor een stuk betere bruikbaarheid.
Waarschuwing: vrij broken, maar toch wel net wat beter dan de standaardlayout.
Deze custom CSS maakt de unraid gui responsive op kleinere apparaten. Het is verre van perfect: sommige tabellen passen niet en het is wat krampachtig allemaal. Maar het zorgt wel voor een stuk betere bruikbaarheid.
Share and Enjoy!
Kickje... Sinds een week hier ook een Unraid machine draaien die de Synology + een NUC moet gaan vervangen. Inmiddels alles draaien en alle docker containers die over moesten draaien weer naar behoren, op 1 container na.
In de oude situatie had ik Caddy draaien op mijn homeserver als reverse proxy. Op cloudflare de dns voor abc.domein.nl ingesteld op 192.168.68.255 (interne IP adres van mijn homeserver) en dat werkte prima, zowel intern zonder vpn verbinding als buiten de deur met vpn verbinding en ik hoefde dus niets aan poorten open te zetten op mijn router.
Certificaten gingen via DNS verificatie dus ook dat was geregeld en ik had dus adguard.domein.nl, plex.domein.nl, homeassistant.domein.nl etc etc.
Op Unraid krijg ik het echter niet lekker voor elkaar, als eerste de poorten 80 en 443 die al in gebruik zijn. Ik dacht dat probleem op te lossen door als netwerk interface BR0 te kiezen in Docker en die een ander IP te geven (192.168.68.254)... wat werkt en ik zie de requests binnen komen maar vervolgens het verkeer doorsturen naar 192.168.68.255 wil niet echt lukken.
Misschien iemand hier die een soortgelijke setup heeft maar hem wel werkend heeft gekregen?
Het liefst houd ik de boel zo simpel mogelijk en het is ook niet de bedoeling dat zaken buiten het netwerk zonder een vpn te benaderen zijn.
In de oude situatie had ik Caddy draaien op mijn homeserver als reverse proxy. Op cloudflare de dns voor abc.domein.nl ingesteld op 192.168.68.255 (interne IP adres van mijn homeserver) en dat werkte prima, zowel intern zonder vpn verbinding als buiten de deur met vpn verbinding en ik hoefde dus niets aan poorten open te zetten op mijn router.
Certificaten gingen via DNS verificatie dus ook dat was geregeld en ik had dus adguard.domein.nl, plex.domein.nl, homeassistant.domein.nl etc etc.
Op Unraid krijg ik het echter niet lekker voor elkaar, als eerste de poorten 80 en 443 die al in gebruik zijn. Ik dacht dat probleem op te lossen door als netwerk interface BR0 te kiezen in Docker en die een ander IP te geven (192.168.68.254)... wat werkt en ik zie de requests binnen komen maar vervolgens het verkeer doorsturen naar 192.168.68.255 wil niet echt lukken.
Misschien iemand hier die een soortgelijke setup heeft maar hem wel werkend heeft gekregen?
Het liefst houd ik de boel zo simpel mogelijk en het is ook niet de bedoeling dat zaken buiten het netwerk zonder een vpn te benaderen zijn.
Ik weet niet exact hoe je het hebt, maar wat ik heb is swagletsencrypt als rev-proxy (zit in de appstore van unraid als standaard docker container), deze kan ook certificaten aanvragen en update.R2D2 schreef op dinsdag 5 november 2024 @ 08:07:
Misschien iemand hier die een soortgelijke setup heeft maar hem wel werkend heeft gekregen?
voor intern heb ik dan nog wel op mijn router nat-hairpinging gedaan zodat ik ze ook op het publieke addres kan benaderen vanuit intern, maar dat zou je ook anders kunnen oplossen.
[ Voor 21% gewijzigd door canonball op 05-11-2024 10:50 ]
@canonball heb het even anders opgelost.
De Unraid poorten van de webinterface aangepast zodat 80 en 443 weer vrij komen, vervolgens Caddy container de lucht in getrapt met de Cloudflare DNS verificatie optie voor de SSL certificaten. In Cloudflare *.domein.nl naar 192.168.68.255.
Lijkt allemaal prima te werken zodra ik verbonden ben met VPN buiten de deur en zodra ik verbonden ben met het netwerk thuis ook zonder VPN. Volgens mij de meest "veilige" oplossing om toch alles bereikbaar te maken met een domeinnaam zonder (op de VPN poort na) poorten op de router open te hoeven zetten.
Enige "nadeel" is dat wanneer ik de VPN verbinding nog open heb staan EN op mijn eigen netwerk zit de boel niet werkt maar daar kom ik wel overheen
De Unraid poorten van de webinterface aangepast zodat 80 en 443 weer vrij komen, vervolgens Caddy container de lucht in getrapt met de Cloudflare DNS verificatie optie voor de SSL certificaten. In Cloudflare *.domein.nl naar 192.168.68.255.
Lijkt allemaal prima te werken zodra ik verbonden ben met VPN buiten de deur en zodra ik verbonden ben met het netwerk thuis ook zonder VPN. Volgens mij de meest "veilige" oplossing om toch alles bereikbaar te maken met een domeinnaam zonder (op de VPN poort na) poorten op de router open te hoeven zetten.
Enige "nadeel" is dat wanneer ik de VPN verbinding nog open heb staan EN op mijn eigen netwerk zit de boel niet werkt maar daar kom ik wel overheen
[ Voor 11% gewijzigd door R2D2 op 05-11-2024 11:06 ]
@R2D2 Ja, ik heb zoiets wel werkend. Maar allereerst, kan ik je afraden om .255 in de range te gebruiken. .255 wordt nagenoeg altijd gebruikt als broadcast adres en dan kun je hele rare problemen krijgen. Het kan best werken, maar het is af te raden.
Ik heb mijn reverse proxy op het br0 netwerk (ipvlan) draaien. Om Unraid te kunnen bereiken via de reverse proxy moest ik wel in Unraid onder Settings > Docker > Advanced View > Host access to custom networks aanzetten. Dit werkt ook soms niet na een reboot, maar is helaas een bekend probleem. Ook andere containers zoals Adguard Home draaien op het br0 netwerk met een eigen IP-adres.
Caddy staat bij mij via poort 443 naar buiten open, ook in mijn router. Daarbij filter ik overigens ook op origin IP adres zodat alleen HTTPS verkeer vanuit Cloudflare erbij kan. Tevens heb ik een VPN server op mijn router draaien. En overschrijf ik de DNS entry van mijn eigen domein in Adguard Home zodat verkeer lokaal ook lokaal gerouteerd wordt.
Ik heb mijn reverse proxy op het br0 netwerk (ipvlan) draaien. Om Unraid te kunnen bereiken via de reverse proxy moest ik wel in Unraid onder Settings > Docker > Advanced View > Host access to custom networks aanzetten. Dit werkt ook soms niet na een reboot, maar is helaas een bekend probleem. Ook andere containers zoals Adguard Home draaien op het br0 netwerk met een eigen IP-adres.
Caddy staat bij mij via poort 443 naar buiten open, ook in mijn router. Daarbij filter ik overigens ook op origin IP adres zodat alleen HTTPS verkeer vanuit Cloudflare erbij kan. Tevens heb ik een VPN server op mijn router draaien. En overschrijf ik de DNS entry van mijn eigen domein in Adguard Home zodat verkeer lokaal ook lokaal gerouteerd wordt.
Ik heb het nog weer anders opgelost.
Via Cloudflare kom je met een (argo) tunnel (cloudflare tunnel met crowdsec) uit bij de reverse proxy. Via de referse proxy regel ik vervolgens welke apps wel of niet te benaderen zijn via het web.
Op deze manier heb ik geen enkele poort openstaan en toch de vrijheid die ik graag wil hebben.
Via Cloudflare kom je met een (argo) tunnel (cloudflare tunnel met crowdsec) uit bij de reverse proxy. Via de referse proxy regel ik vervolgens welke apps wel of niet te benaderen zijn via het web.
Op deze manier heb ik geen enkele poort openstaan en toch de vrijheid die ik graag wil hebben.
FTFY. Cloudflare tunnel is 'gewoon' een gefaciliteerde VPN dienst.Flans schreef op dinsdag 5 november 2024 @ 14:57:
Ik heb het nog weer anders opgelost.
Via Cloudflare kom je met een (argo) tunnel (cloudflare tunnel met crowdsec) uit bij de reverse proxy. Via de referse proxy regel ik vervolgens welke apps wel of niet te benaderen zijn via het web een VPN.
Ik snap alleen niet waarom je ook nog Crowdsec hebt
Ik wil ook zonder client-side software bij bepaalde diensten kunnen.Op deze manier heb ik geen enkele poort openstaan en toch de vrijheid die ik graag wil hebben.
Meteen even aangepast, had ik niet aan gedacht.alex3305 schreef op dinsdag 5 november 2024 @ 12:37:
@R2D2 Ja, ik heb zoiets wel werkend. Maar allereerst, kan ik je afraden om .255 in de range te gebruiken. .255 wordt nagenoeg altijd gebruikt als broadcast adres en dan kun je hele rare problemen krijgen. Het kan best werken, maar het is af te raden.
Ja ik heb alles op mijn Wireguard poort na dicht zitten, de BR0 optie was ik gister ook mee aan de gang geweest maar laat, te lang mee bezig e.d. dus had toen de Host access to custom networks even gemist.Ik heb mijn reverse proxy op het br0 netwerk (ipvlan) draaien. Om Unraid te kunnen bereiken via de reverse proxy moest ik wel in Unraid onder Settings > Docker > Advanced View > Host access to custom networks aanzetten. Dit werkt ook soms niet na een reboot, maar is helaas een bekend probleem. Ook andere containers zoals Adguard Home draaien op het br0 netwerk met een eigen IP-adres.
Caddy staat bij mij via poort 443 naar buiten open, ook in mijn router. Daarbij filter ik overigens ook op origin IP adres zodat alleen HTTPS verkeer vanuit Cloudflare erbij kan. Tevens heb ik een VPN server op mijn router draaien. En overschrijf ik de DNS entry van mijn eigen domein in Adguard Home zodat verkeer lokaal ook lokaal gerouteerd wordt.
Maar inmiddels werkt alles naar behoren, misschien Caddy nog even voorzien van een extra handle dat alleen adressen in de range 192.168.68.xxx geproxy'ed moeten worden al zou er helemaal geen enkel verkeer van buitenaf terecht moeten kunnen komen in de huidige setup.
Nu eerst maar eens wat schijven bij gaan prikken en alles nog eens na lopen voor ik alles over ga pompen van de Synology naar de Unraid oplossing.
En Unraid 7 is uit! https://unraid.net/blog/unraid-7
Ik draaide al een tijdje de laatste RC versie en had voor zover ik weet geen problemen hiermee.Dacuuu schreef op vrijdag 10 januari 2025 @ 14:15:
En Unraid 7 is uit! https://unraid.net/blog/unraid-7
Gisteren had ik net 7.0 RC2 geïnstalleerd
. Vandaag upgrade naar 7.0. Beide keren zonder problemen
.
zijn er nog breaking changes of andere dingen die je moet fixen voor je upgrade?
Hier juist wel problemen met een upgrade. 2x geprobeerd en 2 keer komt de unraid sever niet meer online.
Het lijkt erop dat je dit met de network.cfg op de usb moet fixen. Dit lukte mij niet op unraid V7.0 maar wel onder V6.X.X waar ik gewoonweg een backup van had.
Verder lijkt wel alles gewoon op te starten maar is de weginterface niet te bereiken. Heb zelfs een keer gehad dat de VM wel te bereiken was maar de webinterface uit bleef. Natuurlijk adres gecontroleerd dit was 100% juist.
Meer mensen met dit probleem?
Gezien ik toch wel graag een keer naar 7 wil zou ik ook graag willen weten waarom het juist nu mis gaat, en alle update vooraf nooit problemen hier mee gehad heb.
Ps. heb een kontron K3843-B dus een intel nic dus het probleem wat met Realtek is valt hier niet onder.
Het lijkt erop dat je dit met de network.cfg op de usb moet fixen. Dit lukte mij niet op unraid V7.0 maar wel onder V6.X.X waar ik gewoonweg een backup van had.
Verder lijkt wel alles gewoon op te starten maar is de weginterface niet te bereiken. Heb zelfs een keer gehad dat de VM wel te bereiken was maar de webinterface uit bleef. Natuurlijk adres gecontroleerd dit was 100% juist.
Meer mensen met dit probleem?
Gezien ik toch wel graag een keer naar 7 wil zou ik ook graag willen weten waarom het juist nu mis gaat, en alle update vooraf nooit problemen hier mee gehad heb.
Ps. heb een kontron K3843-B dus een intel nic dus het probleem wat met Realtek is valt hier niet onder.
[ Voor 26% gewijzigd door K!K op 12-01-2025 15:54 ]
Hier een probleemloze update van 6.12.x vanuit het OS menu, wel eerst een backup gemaakt van de flash drive.
Na een reboot draait het weer als vanouds. Ik heb mij nog niet verdiept in de vernieuwingen in 7.
Onlangs wel geëxperimenteerd met tailscale en deze kan kan je nu native in docker instellen, daar ben ik wel benieuwd naar.
Ik draaide nog een reversed proxy met open poorten in de router en openbaar beschikbare URLs op het web, daar wilde ik sowieso vanaf.
Na een reboot draait het weer als vanouds. Ik heb mij nog niet verdiept in de vernieuwingen in 7.
Onlangs wel geëxperimenteerd met tailscale en deze kan kan je nu native in docker instellen, daar ben ik wel benieuwd naar.
Ik draaide nog een reversed proxy met open poorten in de router en openbaar beschikbare URLs op het web, daar wilde ik sowieso vanaf.
Hoe draait 7.0 bij iedereen die heeft geupdate?
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
[ Voor 15% gewijzigd door MisteRMeesteR op 16-01-2025 19:38 ]
www.google.nl
Ik wacht eigenlijk altijd bij Unraid tot de eerste bugfixes zijn gedaan. Wacht wel tot 7.0.x of 7.x. Binnenkort maar eerst eens updaten naar de laatste 6.12 x versie.MisteRMeesteR schreef op donderdag 16 januari 2025 @ 19:37:
Hoe draait 7.0 bij iedereen die heeft geupdate?
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
Ik heb nog geen problemen ervaren. Dag van release al geupdatetMisteRMeesteR schreef op donderdag 16 januari 2025 @ 19:37:
Hoe draait 7.0 bij iedereen die heeft geupdate?
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
Share and Enjoy!
Zojuist voor de 3e keer de update geprobeerd. Nu vooraf de network.cfg al gecontroleerd en ervoor gezorgd dat deze juist is. Hierna werkte V7.0.0 gewoon zoals verwacht.
Voorheen deed ik nooit iets met deze file maar blijkbaar is er op de achtergrond iets veranderd wat dit noodzakelijk maakt om te hebben. Anders kwam de server telkens niet meer online in mijn vorige update pogingen.
Voorheen deed ik nooit iets met deze file maar blijkbaar is er op de achtergrond iets veranderd wat dit noodzakelijk maakt om te hebben. Anders kwam de server telkens niet meer online in mijn vorige update pogingen.
Best asap updaten naar de meest recente versie.
Vanmorgen een mail ontvangen dat er beveiligingsissues zijn met oudere versies: https://newsletter.unraid...-vulnerability-disclosure
Vanmorgen een mail ontvangen dat er beveiligingsissues zijn met oudere versies: https://newsletter.unraid...-vulnerability-disclosure
:no_upscale():strip_icc():strip_exif()/f/image/Pc57QJvTKoDK6Ytz58iVfq1a.jpg?f=user_large)
Iemand enig idee?
Is kort na de 7.0 update begonnen maar vermoed niet dat het gerelateerd is.
De installatie/config heb ik al op een andere usb stick omgezet maar blijf het dus nog krijgen.
Server draait maar loopt vast en bij reboot krijg ik dit dus.
Iemand al gelijkaardig meegemaakt?

Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.
[ Voor 6% gewijzigd door masauri op 30-01-2025 19:53 ]
@masauri Welke usb poorten heb je geprobeerd? Een USB2.0 poort pakken als je moederbord die heeft wilt nog wel eens helpen.
Beide, USB 2.0 en USB 3.0.Hedgy schreef op donderdag 30 januari 2025 @ 20:25:
@masauri Welke usb poorten heb je geprobeerd? Een USB2.0 poort pakken als je moederbord die heeft wilt nog wel eens helpen.
Weet je zeker dat de stick bootable is?masauri schreef op donderdag 30 januari 2025 @ 19:24:
[...]
Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.
Gemaakt met de unraid usb creation software
Weet je zeker dat je systeem van de Unraid flash wil booten? Heb zelf weleens gehad dat er op het moederbord nog een SD kaartje zat welke als first boot device stond ingesteld. Kun je booten via het boot-menu en daar de 100% juiste USB flash selecteren?masauri schreef op donderdag 30 januari 2025 @ 19:24:
[Afbeelding]
Iemand enig idee?
Is kort na de 7.0 update begonnen maar vermoed niet dat het gerelateerd is.
De installatie/config heb ik al op een andere usb stick omgezet maar blijf het dus nog krijgen.
Server draait maar loopt vast en bij reboot krijg ik dit dus.
Iemand al gelijkaardig meegemaakt?![]()
Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.
www.google.nl
Draait sinds sept. 2021 zonder problemen.MisteRMeesteR schreef op donderdag 30 januari 2025 @ 21:17:
[...]
Weet je zeker dat je systeem van de Unraid flash wil booten? Heb zelf weleens gehad dat er op het moederbord nog een SD kaartje zat welke als first boot device stond ingesteld. Kun je booten via het boot-menu en daar de 100% juiste USB flash selecteren?
Indertijd ingesteld door ed (space invader youtube kanaal)
Heeft vorig jaar nog alle configs bijgewerkt.
Draaide als een zonnetje tot vorige week na de 7.0 update.
Edit: kan morgen nogmaals proberen in de bios te kijken dat hij goed ingesteld staat.
Maar vind t zo frappant dat hij er ineens uit klapt.
Hij was gewoon een bestand via sonar aan het binnen halen...
[ Voor 14% gewijzigd door masauri op 30-01-2025 21:35 ]
"In theorie" doordat unraid in het geheugen draait zou je de usb stick eruit moeten kunnen halen en zou unraid moeten blijven draaien. Dat is waarschijnlijk ook de reden waarom de usb sticks vaak falen tijdens of na een update.masauri schreef op donderdag 30 januari 2025 @ 21:34:
[...]
Draait sinds sept. 2021 zonder problemen.
Indertijd ingesteld door ed (space invader youtube kanaal)
Heeft vorig jaar nog alle configs bijgewerkt.
Draaide als een zonnetje tot vorige week na de 7.0 update.
Edit: kan morgen nogmaals proberen in de bios te kijken dat hij goed ingesteld staat.
Maar vind t zo frappant dat hij er ineens uit klapt.
Hij was gewoon een bestand via sonar aan het binnen halen...
Als je meerdere usb stick heb geprobeerd dan zou ik niet verwachten dat alle usb sticks stuk zijn maar dat er iets anders fouten geeft?
Als het eerst goed draaide en na de update naar 7.0.0 fout lijkt te gaan, kan je toch downgraden naar de vorige versie? Dan kan je al je hardware uitsluiten... Usb stick wordt alleen gelezen bij opstarten en geschreven bij config aanpassingen/update van unRAID.
Computer nr 486 denk ik..
@masauri , lijkt erop dat je USB stick geen GUID meer heeft als ik het scherm zo zie?
Zelf nog niet bijgewerkt naar 7.0.0 want verbouwingen aan het doen en NAS staat bij mijn ouders en niet meteen een netwerk aansluiting waar deze nu staat. Als de server terug op zijn plaats staat zullen de bugs er vast en zeker wel uit zijn, hoewel heb zelf nog nooit problemen gehad met updates, hout vasthouden
Ben zelf nog altijd aan het spelen met idee om een nieuwe server te bouwen, dit keer in een rack mount case met een Intel Core i5-13500 op een Z690 mobo. Een LSI 9300-16i heb ik reeds liggen en getest gehad in de huidige server om te zien of deze werkte, wat het geval was. Die HBA wordt wel serieus warm op de heatsink dus gaan we een fan shroud erop monteren + Noctua fan om het zaakje koel te houden.
Alleen de server case is nog een vraagstuk, eventueel een Inter-Tech 4U-4724 (24 bays) maar de afwerking van deze is minder dan bijvoorbeeld de Silverstone RM43-320-RS (20 bays) die wel €250 duurder is dan de Inter-Tech. De Silverstone is wel een stuk beter afgewerkt (minder scherpe randen) en waar de rack rails ook reeds bij zijn, niet dat dit de grote kost is.
Maar een ander voordeel, lijkt me toch want nog geen ervaring met rack mount cases, van de Silverstone is dat er per rij van schijven een backplane is, dus 5 in totaal voor de 20 bays. Terwijl er bij de Inter-Tech maar 2 backplanes zijn, dus als er eentje uitvalt ben je meteen 12 schijven kwijt en moet je maar zien aan een nieuwe backplane te komen.
Zijn er mensen die gebruik maken van een rack mount case, zo ja welke hebben jullie en wat zijn de ervaringen hiermee?
Zelf nog niet bijgewerkt naar 7.0.0 want verbouwingen aan het doen en NAS staat bij mijn ouders en niet meteen een netwerk aansluiting waar deze nu staat. Als de server terug op zijn plaats staat zullen de bugs er vast en zeker wel uit zijn, hoewel heb zelf nog nooit problemen gehad met updates, hout vasthouden
Ben zelf nog altijd aan het spelen met idee om een nieuwe server te bouwen, dit keer in een rack mount case met een Intel Core i5-13500 op een Z690 mobo. Een LSI 9300-16i heb ik reeds liggen en getest gehad in de huidige server om te zien of deze werkte, wat het geval was. Die HBA wordt wel serieus warm op de heatsink dus gaan we een fan shroud erop monteren + Noctua fan om het zaakje koel te houden.
Alleen de server case is nog een vraagstuk, eventueel een Inter-Tech 4U-4724 (24 bays) maar de afwerking van deze is minder dan bijvoorbeeld de Silverstone RM43-320-RS (20 bays) die wel €250 duurder is dan de Inter-Tech. De Silverstone is wel een stuk beter afgewerkt (minder scherpe randen) en waar de rack rails ook reeds bij zijn, niet dat dit de grote kost is.
Maar een ander voordeel, lijkt me toch want nog geen ervaring met rack mount cases, van de Silverstone is dat er per rij van schijven een backplane is, dus 5 in totaal voor de 20 bays. Terwijl er bij de Inter-Tech maar 2 backplanes zijn, dus als er eentje uitvalt ben je meteen 12 schijven kwijt en moet je maar zien aan een nieuwe backplane te komen.
Zijn er mensen die gebruik maken van een rack mount case, zo ja welke hebben jullie en wat zijn de ervaringen hiermee?
Om op deze 2 dingen in te haken:StefaanDG schreef op zaterdag 8 februari 2025 @ 11:33:
@masauri , lijkt erop dat je USB stick geen GUID meer heeft als ik het scherm zo zie?
Zijn er mensen die gebruik maken van een rack mount case, zo ja welke hebben jullie en wat zijn de ervaringen hiermee?
1) bij unraid connect zie ik de guid wel staan en herkent hij die ook.
Vannacht is ergens mijn server weer down gegaan met tzelfde issue.
Bij een testing gebeurde het toen ik een flash backup wilde laten maken.
Daar zit vermoedelijk ergens een issue in.
In die richting zit ik nu te denken.
2) ik gebruik zelf een server rack. Met hotswap bays.
In principe kan je op een schap ook een normale pc case droppen.
Ja het is minder mooi maar kan wel goedkoper zijn.
En dan zit je met makkelijker gebruik van onderdelen.
Dat is wel bizar dan.
Welke case heb je dan precies?
Welke case heb je dan precies?
https://www.fantec.de/pro.../2161_fantec_src_2012x07/StefaanDG schreef op zaterdag 8 februari 2025 @ 13:12:
Dat is wel bizar dan.
Welke case heb je dan precies?
De rest staat in men wenslijst openbaar.
als ik in unraid een foundryVTT docker installeer vraagt deze om een locatie voor de gamedata
dus ik maak een default share
- datadir = foundrydata
- export = yes
- type = public
hierna wordt de docker netjes aangemaakt, de gameserver gedownload etc.
echter wil ik hierna in de share foundrydata/data/worlds een backup van mijjn game plaatsen (via samba)
en dan geeft windows (11) de fout dat de dir aan iemand anders is gegeven en dat ik de map eerst moet vrijgeven om toegang te krijgen
nou kreeg je vroeger tenminste korte (en duidelijke) foutcodes waarop je kon google'n maar met zo'n vage omschrijving krijg ik werkelijk NULL nuttige hits.
mijn eerste gedachte is natuurlijk dat het hier op permissions of locked files gaat.
de docker is echter niet gestart dus optie nr 2 zou ik niet helemaal begrijpen.
en volgens de filemanager van unraid zou permission voor die files op nobody staan
iemand een idee hoe / waar ik moet beginnen met zoeken?
dus ik maak een default share
- datadir = foundrydata
- export = yes
- type = public
hierna wordt de docker netjes aangemaakt, de gameserver gedownload etc.
echter wil ik hierna in de share foundrydata/data/worlds een backup van mijjn game plaatsen (via samba)
en dan geeft windows (11) de fout dat de dir aan iemand anders is gegeven en dat ik de map eerst moet vrijgeven om toegang te krijgen
nou kreeg je vroeger tenminste korte (en duidelijke) foutcodes waarop je kon google'n maar met zo'n vage omschrijving krijg ik werkelijk NULL nuttige hits.
mijn eerste gedachte is natuurlijk dat het hier op permissions of locked files gaat.
de docker is echter niet gestart dus optie nr 2 zou ik niet helemaal begrijpen.
en volgens de filemanager van unraid zou permission voor die files op nobody staan
iemand een idee hoe / waar ik moet beginnen met zoeken?
De map is nu toegewezen aan de user van Docker (uid 99 of 100?)
Jij hebt een ander uid in unraid. Vandaar dat het niet lukt.
Dat kan je door bij instellingen de permissies van de mappen of schijven te herstellen.
Waar het staat weet ik zo niet even vanbuiten.
Als je met MobaXterm gebruikt heb je dat issue niet.
Daarmee log je in als root.
Zelf gebruik ik dat om bestanden over te zetten als ik het niet via verkenner kan doen.
Jij hebt een ander uid in unraid. Vandaar dat het niet lukt.
Dat kan je door bij instellingen de permissies van de mappen of schijven te herstellen.
Waar het staat weet ik zo niet even vanbuiten.
Als je met MobaXterm gebruikt heb je dat issue niet.
Daarmee log je in als root.
Zelf gebruik ik dat om bestanden over te zetten als ik het niet via verkenner kan doen.
Gisterenavond is dus de server wéér plots vastgelopen, is er een mogelijkheid om logs na te kijken zodat ik misschien kan zien wat de trigger was?
Gruwelijk, maar dit probleem heb ik ook een tijd gehad en syslog staat in RAM dus na een crash is het weg. Je kunt syslog server aanzetten en dan elders je logs opslaan. Echter mogelijk kan je ook een monitor aansluiten en kijken of er een kernel panic in beeld is.masauri schreef op dinsdag 11 februari 2025 @ 10:57:
Gisterenavond is dus de server wéér plots vastgelopen, is er een mogelijkheid om logs na te kijken zodat ik misschien kan zien wat de trigger was?
ik heb een monitor aangesloten , maar die laat gewoon een bevroren beeld zien...DieterKoblenz schreef op dinsdag 11 februari 2025 @ 11:37:
[...]
Gruwelijk, maar dit probleem heb ik ook een tijd gehad en syslog staat in RAM dus na een crash is het weg. Je kunt syslog server aanzetten en dan elders je logs opslaan. Echter mogelijk kan je ook een monitor aansluiten en kijken of er een kernel panic in beeld is.
Syslog laten opslaan op een cache disk (of array) om te zien of een je aanwijzing kan vinden. Nooit laten opslaan op je usb-stick. Daardoor degradeert je USB te snel.masauri schreef op dinsdag 11 februari 2025 @ 11:53:
[...]
ik heb een monitor aangesloten , maar die laat gewoon een bevroren beeld zien...
Op de monitor je syslog openen. dan kan je op de monitor de laatste meldingen zien.masauri schreef op dinsdag 11 februari 2025 @ 11:53:
[...]
ik heb een monitor aangesloten , maar die laat gewoon een bevroren beeld zien...
code:
1
| tail -f /var/log/syslog |
Zijn er hier nog mensen die een mail gekregen hebben van unraid?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.Hello there,
We’re reaching out to let you know that the price to upgrade your Basic or Plus license will be increasing on June 2nd, 2025 (in 2 weeks).
Basic ➡️ Plus will increase by $30.
Basic ➡️ Pro & Plus ➡️ Pro will increase by $40.
Don’t worry—you’ll still save over $50 compared to buying our comparable Lifetime license at full price, while Unraid Plus remains an accessible intermediate option with support for up to 12 devices.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Ik heb ook snel nog een upgrade gedaan naar Unlitmited voordat zij dit verwijderen. Ben ik nog tenminste futureproof.Asterion schreef op zaterdag 24 mei 2025 @ 12:18:
Zijn er hier nog mensen die een mail gekregen hebben van unraid?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
[...]
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Heb deze ook gekregen in men spam. Momenteel heb ik een plus. Ik denk niet dat ik ga upgraden met 8/12 devicesAsterion schreef op zaterdag 24 mei 2025 @ 12:18:
Zijn er hier nog mensen die een mail gekregen hebben van unraid?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
[...]
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Na al eens op magische wijze een licentie te zijn kwijtgeraakt omdat ik hem een jaar of 2 niet gebruikt had, nu dit weer, ik weet al zeker dat ik ruim voordat unraid verlengt moet worden ik ga overstappen naar iets anders.
vooral nu ik van een andere tweaker las dat freenas van k8s is afgestapt ten behoeve van docker, en er in principe ook altijd nog mediavault is dat je zou kunnen gebruiken (al vind ik mediavault eigenlijk best wel een *K*U*T* systeem met een teleurstellende interface...) ik ga gewoon niet jaar op jaar op jaar meer betalen vooor deze software zoveel voegt het gewoon niet toe...
vooral nu ik van een andere tweaker las dat freenas van k8s is afgestapt ten behoeve van docker, en er in principe ook altijd nog mediavault is dat je zou kunnen gebruiken (al vind ik mediavault eigenlijk best wel een *K*U*T* systeem met een teleurstellende interface...) ik ga gewoon niet jaar op jaar op jaar meer betalen vooor deze software zoveel voegt het gewoon niet toe...
.. Kwijt geraakt?i-chat schreef op zondag 25 mei 2025 @ 21:45:
Na al eens op magische wijze een licentie te zijn kwijtgeraakt omdat ik hem een jaar of 2 niet gebruikt had, nu dit weer, ik weet al zeker dat ik ruim voordat unraid verlengt moet worden ik ga overstappen naar iets anders.
vooral nu ik van een andere tweaker las dat freenas van k8s is afgestapt ten behoeve van docker, en er in principe ook altijd nog mediavault is dat je zou kunnen gebruiken (al vind ik mediavault eigenlijk best wel een *K*U*T* systeem met een teleurstellende interface...) ik ga gewoon niet jaar op jaar op jaar meer betalen vooor deze software zoveel voegt het gewoon niet toe...
Heb je contact opgenomen? Ik heb al jaren een ongebruikte lifetime license (oude pro) die nog steeds actief is. Dus wat is er precies gebeurd?
ooit een licentie gekregen van iemand die het voor mij had gekocht, destijds had ik nog een janlul@gmail-acount zeg maar dus toen ik over ging naar me@domain.nl heb ik in de licentie mij mail veranderd, toen een tijdje unraid geprobeert op een oude desktop nooit heel serieus maar toen ik een paar maanden terug de usb-stick pakte uit de oude spullen lade, bleek deze niet meer te werken en was mijn account verdwenen (iig niet meer te vinden via me@domain (oude mail-account heb ik geen toegang meer toe). all in all ben ik die gewoon kwijt (natuurlijk ook gewoon ergens wel een flink deel eigen schuld - dat snap ik, maar als ik dan een nieuwe licentie koop die nu ineens jaarlijks is om dan na een paar maanden al te lezen dat dat prijsplan gewoon een gevalletje ieder-jaar-inflatie-correct-van-20% wordt dan ben ik daar heel snel klaar mee. het geeft me ook niet het vertrouwen om dan nu te zeggen: ik koop het wel af (eenmalig) voordat de prijs gaat stijgen.