• geenwindows
  • Registratie: November 2015
  • Niet online
dat is gek, dit staat er namelijk wel als alles op auto staat, het enige wat ik nu handmatig heb aan gepast is de dns server...
Afbeeldingslocatie: https://tweakers.net/i/p90aYIfEufY_PWths6zEULR57wg=/800x/filters:strip_exif()/f/image/sgi8mV1qUjEhzcbCCywXij9p.png?f=fotoalbum_large

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
root@LMFSv3:~# ip -6 route
::1 dev lo proto kernel metric 256 pref medium
2001:XXX:XXX:XXX::/64 dev br0 proto ra metric 366 mtu 1500 pref medium
fe80::/64 dev br-f3943ab84152 proto kernel metric 256 linkdown pref medium
fe80::/64 dev br0 proto kernel metric 256 pref medium
fe80::/64 dev eth0 proto kernel metric 256 pref medium
fe80::/64 dev vnet0 proto kernel metric 256 pref medium
fe80::/64 dev docker0 proto kernel metric 256 linkdown pref medium
fe80::/64 dev vnet1 proto kernel metric 256 pref medium
ff00::/8 dev br-f3943ab84152 metric 256 linkdown pref medium
ff00::/8 dev br0 metric 256 pref medium
ff00::/8 dev eth0 metric 256 pref medium
ff00::/8 dev vnet0 metric 256 pref medium
ff00::/8 dev docker0 metric 256 linkdown pref medium
ff00::/8 dev vnet1 metric 256 pref medium
default via fe80::215:XXXX:XXXX:XXXX dev br0 proto ra metric 366 mtu 1500 pref medium

(Docker containers staan uit)

ik heb het idee dat unraid helemaal geen ipv6 adres krijgt, wat gek is want ik zie 'm wel staan bij de dhcp server lease...
(beetje het zelfde als bij ipv4 met het 192.169. adres.)

[ Voor 11% gewijzigd door geenwindows op 03-05-2020 11:21 ]

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


  • bonienl
  • Registratie: Maart 2018
  • Laatst online: 15-10-2025
Configuratie ziet er goed uit en de Unraid server heeft ook een IPv6 adres.

Je schreef eerder:

1. wel kan ik met ping6 google.nl reactie krijgen
2. maar kan niet met ipv6 het net op.
3. wel kan ik unraids IPv6 adres op unraid zelf, gebruiken
4. echter niet als ik unraid via de laptop benader

Ad 1 - Dit houdt in dat DNS werkt en dat je naar buiten kan het internet op
Ad 2 - Wat kan je niet bereiken?
Ad 3 - Bevestiging dat Unraid een IPv6 adres heeft
Ad 4 - Doe http://[ipv6-adres] -- dus IPv6 adres tussen [] opgeven

Ik heb mijn Unraid server ook op IPv4 + IPv6 draaien, zonder problemen.
Ik heb ook een Firefox browser als container op de server staan met IPv4 en IPv6 (custom network br0).

Een screenshot van een IPv6 test gedaan met Firefox op mijn Unraid server

Afbeeldingslocatie: https://tweakers.net/i/j6Yuu6YsdLtT223uk5Y_ShWRQh8=/800x/filters:strip_exif()/f/image/F2JkGudBFymBonTQwN40hRUW.png?f=fotoalbum_large

  • geenwindows
  • Registratie: November 2015
  • Niet online
@bonienl schijt mij maar lek. nu kan ik in eens op de laptop unraid via ipv6 benaderen...
ik heb even de firefox container geïnstalleerd, daar heb ik exact het zelfde probleem, Geen bereik met ipv6 bij ipv6-test.com
ik heb de extra parameters toegevoegd: "--sysctl net.ipv6.conf.all.disable_ipv6=0 --sysctl net.ipv6.conf.eth0.use_tempaddr=2", en zie ik in eens dat ik ook via ipv6 ipv6-test.com kan benaderen.
(16 van de 20 punten)
kan het dan kloppen dat als ik via de gui boot het net op ga dat ik dan bewust geen ipv6 bereik heb?
(ik ben me er van bewust dat de gui boot niet bedoelt is om mee het web op te gaan)

als ik ipv6 op unraid (en docker) nou goed begrijp dien ik bij elke container die ik ook via ipv6 wil bereiken dat ik dan de extra parameter "--sysctl net.ipv6.conf.all.disable_ipv6=0 --sysctl net.ipv6.conf.eth0.use_tempaddr=2" dien te gebruiken?

edit: of deze: "--mac-address xx:xx:xx:xx:xx:xx --sysctl net.ipv6.conf.all.disable_ipv6=0"

docker config panel zegt me dit:
Afbeeldingslocatie: https://tweakers.net/i/cBrXIK5SZGHAleJG6B4ba7zYJZU=/800x/filters:strip_exif()/f/image/UePaG5nTvfKhKrgBP2iOz5KA.png?f=fotoalbum_large

valt me trouwens op dat wanneer ik de handmatige dns toevoegen weg haal en deze ook weer op auto zet dan ik dan geen ipv6 dns server meer heb, cat /etc/resolv.conf heeft dan enkel ipv4 dns server. (zelfs naar een reboot.)

[ Voor 3% gewijzigd door geenwindows op 03-05-2020 15:55 ]

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


  • Muerte.Diablo
  • Registratie: April 2008
  • Laatst online: 17-04 08:44
Beste dames en heren,
Hierbij presenter ik u Charon!

Vanaf de voorkant gezien
Afbeeldingslocatie: https://tweakers.net/i/WQVZZGZFguKj64HarEoMlfVu7aU=/234x176/filters:strip_icc():strip_exif()/f/image/sQhqnLXpfp09tQMjVTc3KcLk.jpg?f=fotoalbum_medium

Binnenkant
Afbeeldingslocatie: https://tweakers.net/i/GY2qYhVqt2iXXiKNrqAJ1dqgZZM=/234x176/filters:strip_icc():strip_exif()/f/image/opK0pNNPhO2t86KtFmCffzRa.jpg?f=fotoalbum_medium

In januari ben ik overgestapt naar Unraid na een aantal jaren op Windows Server te hebben gedraaid in een JBOD zonder parity of iets. Het was dus tijd om een upgrade te doen. In januari 4x de 10TB schijven aangeschaft. Oude server uit elkaar gehaald (zat ook in deze case) en de nieuwe gebouwd. Unraid installeren was super simpel. En daarna elke schijf over gekopieerd en de schijven die ik wou hergebruiken later aan de array toegevoegd. Ik ben toen van 28TB jbod naar 38TB met dual parity gegaan. Afgelopen week 2 extra 10tb schijven toegevoegd aan de array voor 58TB met dual parity.

De naam had ik achteraf gezien beter niet kunnen kiezen. Tijdens het uit elkaar halen is 1 oude hdd (wd black 1tb) overleden toen hij op de grond viel (stom ook). Tijdens het overzetten van de data is een 2e schijf (wd red 4tb) ten onder gegaan aan smart errors. Van de 1e schijf wat onbelangrijke data verloren en wat data die ik nog analoog heb. En van de 2e niks verloren.

De hardware specificaties:
  • Kast: Antec Twelvehundred
  • CPU: Intel i5-8400
  • Moederbord: Asrock Z370 Extreme4
  • RAM: Corsair Vengeance RGB 16gb 3000mhz
  • Voeding: Seasonic Platinum series 660 Watt
  • LG Blu-ray lezer/branderli]
  • SSDs 2.5” Samsung 750 evo en 850 evo 500gb, PM961 256gb NVMe
  • HDD: 6x HGST Ultrastar He10 10TB
  • HDD: 1x WD Red 6TB
  • HDD: 2x WD Red 4TB
  • HDD: 1x HGST Deskstar NAS 4TB
Softwarematig:
Het hele systeem draait op Unraid.
2 van de 10TB schijven zijn parity. De overige 8 zijn data. Dit levert netto 58TB aan storage op.
De 2 2.5” SSDs zitten in een cache pool. Nu nog geformatteerd als btrfs.
De NVMe SSD is unassigned, geformat als XFS en wordt gebruikt voor VM’s, transcoding (tijdelijk) en (tijdelijk) docker.img storage.

Transcoding wil ik nog naar het ram verplaatsen in de toekomst. Alleen wil ik dan eigenlijk meer ram erin hebben eerst. Docker.img blijft op de NVMe staan totdat de bug van ENORM veel schrijven opgelost wordt. (Mijn arme 750 evo heeft al 70TB geschreven in zijn 6 maanden power-on tijd.)

Dan het antwoord op de vraag die ik vaak krijg als ik mensen vertel dat ik een server thuis heb: Wat doe je er mee?

Naast natuurlijk opslag van data draait het volgende op de server:
  • bazarr
  • binhex-krusader
  • bitwardenrs
  • bookstack
  • Collabora
  • Firefox
  • Grafana
  • HDDTemp
  • Influxdb
  • mariadb
  • monica
  • nextcloud
  • NginxProxyManager
  • nzbget
  • NzbHydra2
  • phpmyadmin
  • pihole-template
  • PlexMediaServer
  • radarr
  • sonarr
  • tautulli
  • telegraf
  • unifi-controller
De meeste namen kent iedereen wel. Even kort wat (mogelijk) onbekendere:
Monica is een open source personal CRM. Zoals ze zelf zeggen een persoonlijke rolodex.
Bookstack is een open source wikipedia wat een boekenkast als uitgangspunt heeft. Je maakt dus een bookshelf aan en daarin weer boeken en daarin weer hoofdstukken. Moderne interface en werkt heel simpel.
En Firefox is de firefox browser. Ik gebruik deze voor Epic Idle Quest. Een simpele idle game.

En het volgende staat erop maar staat niet standaard aan of werkt niet (goed) of ben ik nog mee bezig of is voor test.
  • heimdall
  • MakeMKV
  • MinecraftBasicServer
  • speedtest (librespeed)
  • splunk
  • poste
  • QDirStat
  • UniFi-Poller
Ik loop ondanks de grote (groeiende) lijst aan dockers nergens tegen performance problemen aan. Gemiddeld RAM-gebruik is 4-5gb. Tenzij ik de Minecraft docker aanzet. Die pakt gelijk 1.5gb aan ram erbij. CPU-gebruik is gemiddeld ~3-4% dit komt voornamelijk door de firefox docker die continu toch wat doet.

De toekomst voor hardware is mogelijk een 10gbit upgrade in de toekomst en van 16 naar 32gb ram. Opslagruimte kom ik nu niet tekort. Heel ver in de toekomst zal waarschijnlijk een nieuwe case zijn omdat als ik deze verder ga uitbreiden met meer hdd bays de airflow te veel wordt beperkt en de temps dus te hoog.

Voor software is de planning om alles goed te gaan documenteren voor er dingen bijkomen en alles ordenen op een eigen docker netwerk bridge zodat het elkaar niet te veel in de weg zit.

Heb je vragen vraag maar raak! Ik vindt het altijd leuk te vertellen of mensen te helpen 😊

  • Freakster86
  • Registratie: September 2009
  • Niet online
@gekkenhuis1900 Dat zijn installatie handleidingen voor Nextcloud. Dit gaat specifiek voor het runnen van de app "Preview Generator" en daarbij dus het activeren van het meenemen van videobestanden bij het genereren van previews.

EDIT: Gelukt! Voeg aan het einde van het config.php bestand dit toe:
'enable_previews' => true,
'enabledPreviewProviders' =>
array (
0 => 'OC\Preview\TXT',
1 => 'OC\Preview\MarkDown',
2 => 'OC\Preview\OpenDocument',
3 => 'OC\Preview\PDF',
4 => 'OC\Preview\MSOffice2003',
5 => 'OC\Preview\MSOfficeDoc',
6 => 'OC\Preview\PNG',
7 => 'OC\Preview\Image',
8 => 'OC\Preview\Photoshop',
9 => 'OC\Preview\TIFF',
10 => 'OC\Preview\SVG',
11 => 'OC\Preview\Font',
12 => 'OC\Preview\MP3',
13 => 'OC\Preview\Movie',
14 => 'OC\Preview\MKV',
15 => 'OC\Preview\MP4',
16 => 'OC\Preview\AVI',
17 => 'OC\Preview\BMP',
18 => 'OC\Preview\HEIC',
19 => 'OC\Preview\GIF',
20 => 'OC\Preview\JPEG',
21 => 'OC\Preview\3GP',
22 => 'OC\Preview\MSOffice2007',
),
*Lijst kun je naar eigen wensen aanpassen.

Daarna restart je Nextcloud en open je een console in de container van Nextcloud en run je:
code:
1
sudo -u abc php /config/www/nextcloud/occ preview:generate-all -vvv

Duurt even, maar dan heb je ook iets. Blijkbaar is het installeren van ffmpeg o.i.d. niet nodig. Nu zie je tenminste welk videobestand het is. De app werkt hierdoor ook een héél stuk vlotter. Dus een aanrader voor de mensen die Nextcloud gebruiken.
EINDE EDIT

Even iets anders; hebben jullie de grootte van je docker image aangepast? Of andere tweaks aan docker? Misschien dat ik al (te) veel heb geïnstalleerd, maar vannacht constant meldingen gekregen over
Warning: docker high image disk utilization
En dat tikt dus de 80+ % aan. SABnzbd was de hele nacht actief, maar los van de config (admin/logs) staat alles goed ingesteld qua folders. Ik heb Home Assistant (nog niet ingesteld) maar even verwijderd en dat brengt het weer naar beneden tot ~70%
Afbeeldingslocatie: https://tweakers.net/i/sYUASfRqR2h9MWswl2DkJPiDPHg=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/g7Nk9juB8W7Jn67FvHt5lBHe.jpg?f=user_large

Heb al met een script proberen te achterhalen of er een docker verkeerd ingesteld is, maar de logs lopen niet vol en alles lijkt normaal op een paar 'grote' docker images na (wat volgens mij hoort?).
Afbeeldingslocatie: https://tweakers.net/i/IDOpgv49CFOQfyWhx0yqaTyf9kE=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/UlL3pm5zOOhHKNxokXP8rN8k.jpg?f=user_large

OODS leek me wel erg groot, maar die heb ik ingesteld volgens de handleiding van Spaceinvader One bij de installatie van Nextcloud. Zie ook niets apparts in de docker zelf. Dus gewoon een kwestie van veel geïnstalleerd en dus docker stoppen en wijzigen naar 30GB?

[ Voor 32% gewijzigd door Freakster86 op 29-05-2020 16:33 . Reden: Oplossing gevonden voor Nextcloud probleem ]


  • geenwindows
  • Registratie: November 2015
  • Niet online
Freakster86 schreef op zaterdag 20 juni 2020 @ 18:55:
[...]


Misschien een screenshot van je instellingen?

Als ik jouw error google dan kom ik een paar mogelijke opties tegen:
  • 2FA ingesteld?
  • Tekens in je wachtwoord die blijkbaar door Linux niet gewaardeerd worden (spatie of #)
  • Less secure app (i.c.m. gmail)
  • Apart app password (gmail) via https://myaccount.google.com/apppasswords
  • Simpel delete instellingen - reboot - en opnieuw instellen
Afbeeldingslocatie: https://tweakers.net/i/kPGhAZJJlhAmsq0-IOgPMynajJQ=/800x/filters:strip_exif()/f/image/6nKD61QJ3vydmLlehUVjGrJD.png?f=fotoalbum_large

Gmail ga ik niet verder testen, daar zit 2fa etc. op en daarbij ik gebruik standaard hotmail.
maakt overigens niet uit of ik hotmail, outlook of 365 selecteer, allemaal resulteert het in Authorization failed.
vermoedelijk is dat probleem ontstaan nadat ik naar v6.8.3 ben gegaan (dit heb ik 2 weken terug pas gedaan) met v6.8.2 werkte het prima. verder betreft dit enkel unraid, overige zaken werken nog steeds prima! (ombi/sabnzbd etc. draaien hier in dockercontainers wat merendeel ubuntu based zijn.)
en daarbij, dit probleem was er al voordat ik het wachtwoord aanpaste, ik merkte het pas op nadat ik de wijziging ging doorvoeren in unraid.

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


  • Freakster86
  • Registratie: September 2009
  • Niet online
Ik heb een nogal vaag probleem met de "mover" in unraid. Telkens als deze opstart verlamt het mijn hele server. Hij stond in eerste instantie ingesteld op 1x per dag in de nacht, maar sinds ik hem afgelopen week op 1x per 3 uur heb gezet merk ik het in het gebruik. De UI is nog net te besturen, maar alle dockers lopen gewoonweg vast. Sabnzbd, Plex etc. niks reageert meer.

Ik heb al gegoogled en de instellingen van de mover aangepast, maar het probleem blijft aanhouden. Geen enkele docker verbruikt op het moment van dit screenshot meer dan 3% (velen vrijwel nihil):
Afbeeldingslocatie: https://tweakers.net/i/l6Rc1N3bzKdc8BukOXphr8FgZBU=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/SIFyaWqfoDzAbOZQBlUkdYxw.jpg?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/2v2mhwE9Wyo4_4jVUzEC8Abyt_s=/800x/filters:strip_icc():strip_exif()/f/image/OFamTnGlDVitTE1J1zxIAKvW.jpg?f=fotoalbum_large

Iemand hier die dit ook ervaart en/of misschien een oplossing weet?

  • Krypt
  • Registratie: April 2000
  • Laatst online: 08:30
Sinds een tijdje ook aan de unraid op mijn server. En moet zeggen dat ik er erg tevreden over ben.

Na dit topic ook lekker doorgelezen te hebben, en met een kennis van mij over Homeassistant, mariadb en influx te hebben gebabbeld, kwamen uiteindelijk ook op SSD belasting icm Cache disk en unraid.

Toen ben ik ook even gaan kijken naar mijn nieuwe Crucial SSD die in mn unraid bakkie zit. En schrok toch ook wel dat ik al 2TB write had op dat dingetje terwijl die amper nog in mijn unraid zat als cache disk.

Toen wilde ik toch wel even weten hoeveel er telkens bij kwam. Na wat gepuzzel,eigenljk amper bash script kennis te hebben en nooit buitenaf sensor data heb aangepast met Hass is het me uiteindelijk toch gelukt :D
Zal wel niet helemaal netjes zijn, maar het werkt.. En wilde het toch even delen.

code:
1
2
3
4
5
6
7
8
9
10
#!/bin/bash
Token="<hass token>"

smartctl --scan | awk '{print $1}' | while read devdisk
do
    disk=`echo ${devdisk} |cut -d/ -f 3`
    TBW=`/usr/sbin/smartctl -A ${devdisk} | awk '$0~/LBAs/' | awk '{x=10; printf ($x * 512 / 1024^3)}'`
    URL="https://<hassurl>/api/states/sensor.tbw_$disk"
    [ ! -z "$TBW" ] && curl -X POST -H "Authorization: Bearer $Token" -H "Content-Type: application/json" -d '{"state": "'"$TBW"'","attributes": {"unit_of_measurement":"TBW"}}' $URL
done


Token maak je in Hass onder je profiel; kun je een long-life token aanmaken. Deze vul je in de Token variable in.
Bij URL variable zet je je Hass url er in.
En vervolgens zet je deze in een userscript in unraid. Ik laat 'm elk uur draaien. Dit script leest smart status van elke disk uit, en als er TBW info beschikbaar is, dan pompt ie m in Hass.
Ik heb 1024^3 gebuikt, zodat het eigenlijk GB written is ipv TB written. Dan is de stijging wat beter te zien in de grafiekjes.

Afbeeldingslocatie: https://tweakers.net/i/MhXRBtUBtnsPkXFVb8oTxkhzCX4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/QahkZxeWHddpxSDQDWIo9HCU.png?f=user_large
Afbeeldingslocatie: https://tweakers.net/i/QcHoxwFjvR77sjpLUMrgWmYu52s=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/qQEVNrPhiUStpYeh4Zu4lUl9.png?f=user_large

Pvouput live


  • nAffie
  • Registratie: Januari 2002
  • Laatst online: 20-04 16:19

nAffie

...

Draai het nu 10 jaar tot volle tevredenheid. Af en toe wat hiccups gehad in de loop de jaren, maar zou niets anders willen.

Toen ik net opzocht hoe lang geleden het was dat ik unRAID ging gebruiken kwam ik m'n eerste post/buildlog weer tegen. Aah the memories :')

Dit was m'n eerste build, 12-bay tower model, heeft 8 jaar gedraaid.
Afbeeldingslocatie: https://tweakers.net/i/PL-5-7T28dHQaK4Rz4UERvkOwAM=/800x/filters:strip_icc():strip_exif()/f/image/HQie5jIdnhLDug1eX0PbzQnB.jpg?f=fotoalbum_large

Dit is m'n huidige beestje, 24-bay rackmount case die ik als een 'tower' heb neergezet... ;)
Afbeeldingslocatie: https://tweakers.net/i/7th3iVjx-Iqu9CJeoIa2tkwsUp4=/800x/filters:strip_icc():strip_exif()/f/image/QCd0tncu2DbDGc7NUkVmngql.jpg?f=fotoalbum_large

[ Voor 57% gewijzigd door nAffie op 09-09-2020 14:24 ]

meh.


  • EValentino
  • Registratie: Januari 2009
  • Niet online
demonic schreef op zondag 22 november 2020 @ 09:40:
@EValentino zelf gebruik ik geen SAB. je zou evt. op de docker pagina kunnen kijken voor support.

40-50% load zal echt liggen aan je belasting. rechtsbovenin kan je console openen.
Als je daar dan "top" intypt. (zonder de ") dan kan je zien wat voor de belasting zorgt.

Wat je ook kan doen is grafana en bijbehorende spullen installeren, kan je netjes een dashboard zien :)
Grafana ga ik eens induiken, bedankt!

Dit zie ik met het top commando:

Afbeeldingslocatie: https://tweakers.net/i/rYnNLi0XjbrswWqv206AnP8bu4U=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/kVZR4evu3z4FgqwQtbOXf4C8.png?f=user_large

Ik zie mono bovenaan staan, maar geen idee wat dit is >:)

[ Voor 21% gewijzigd door EValentino op 22-11-2020 14:50 ]


  • StefaanDG
  • Registratie: Juni 2009
  • Laatst online: 19-04 18:58
Mijn unRAID server dus, draait hier nu net iets meer dan een jaar en héél tevreden over. Vroeger altijd Synology NASsen gehad (DS1010+ en DS2413+) maar wou toen ik mijn DS2413+ verkocht wel iets anders proberen dan Synology. Ook vooral door het feit dat RAID me niet meer beviel, omdat ik tweemaal drie disken had die uitvielen in RAID6 op de Syno en je date dus foetsie is. De eerste keer wel kunnen herstellen met mdadm en dergelijke commando's maar de tweede keer bleek dat vies tegen te vallen. Jaja 'k weet dat RAID geen backup is, verloren zaken waren vooral films en series dus dat valt nog te overzien.

Omdat op een Vlaams forum waar ik ook vertoef ook twee gebruikers zijn die unRAID eerder hadden opgezet en tevreden waren dan ook maar de stap gezet om zelf een server te bouwen.
Hardware
Afbeeldingslocatie: https://i.ibb.co/FhX0pb0/IMG-0055-thumb.jpg

Een 'foutje' gemaakt in mijn build dat ik niet meteen voor een NVMe drive ben gegaan voor de cache drive ipv een SATA model, te verklaren dat het dik vijftien jaar geleden was dat ik nog eens een PC in elkaar had gezet.

Nu nog geen probleem want nog één SATA poort over voor een extra HDD maar als er dan nog één bij moet dan wordt het ofwel een extra kaart of die SATA SSD vervangen door een NVMe exemplaar. Dat is toekomstmuziek.

Case: Fractal Design Node 804
Moederbord: Gigabyte H370 D3H GSM
CPU: Intel Core i3-9100
PSU: be Quiet! Pure Power 11 CM 400W
Geheugen: 2 x 8GB Corsair Vengeance LPX 2400 MHz unbuffered
Cache: Gigabyte UD Pro 512GB
Parity: HGST HE 10TB 'geshucked' uit een WD Elements
Data (20TB)
  • WD RED 4TB de enige overgeblevene uit mijn Synology
  • Seagate Ironwolf 6TB
  • HGST HE 10TB ook 'geshucked' uit een WD Elements
Enige puntje waar ik nu tegenaan loop is dat een via eBay aangekochte Fujitsu Siemens D3045-A11 GS 1 Quad Port netwerk kaart niet wordt herkend door unRAID. Die kaart gebruikt de Intel I350-AM4 controller dus het zou in principe gewoon moeten werken in unRAID.
Aangezien ik hier geen PC heb om die kaart daar eens in te proberen zal ik wellicht eens een dual boot optie maken met unRAID en bare metal Windows 10 om te zien of Windows die kaart herkent, of dat die kaart gewoon een dood vogeltje is.
Dockers
Niet véél verrassingen hier, heb wat ik denk ik het merendeel wel heeft draaien, maar misschien wel met een paar eigen twists.

DelugeVPN (binhex)
SABnzbd (binhex)
Sonarr (binhex)
Radarr (binhex)
Bazarr (linuxserver)
NZBhydra2 (binhex)
PlexMediaServer (officiële Plex docker)
duckdns
Swag
Bitwarden
Krusader (binhex)
Duplicati
Syncthing
HOOBS
Heimdall
Pihole
Unbound

Alle stoute kindertjes (vijf in totaal) gaan via de DelugeVPN container, want mijn ISP heeft geen zaken met wat ik doe.
Heimdall is mijn dashboard.
duckdns en Swag werken samen om Bitwarden (en na herinstallatie Nextcloud) beschikbaar te maken van buitenaf. Voor Swag maakt ik gebruik van Cloudflare DNS zodat certificatie controle en vernieuwing via DNS ipv HTTP kan lopen zodat op mijn router poort 80 dicht kan gezet worden. Bijkomend voordeel is dat ik voor mijn domein naam dan een wildcard voor het certificaat kan gebruiken.

Geen Unifi controller op de unRAID omdat ik vorige week mijn USG-3P/CK vervangen heb door een UDM Pro dus de controller draait daarop.

Duplicati voor encrypted backup van mijn lokale Mac (via TimeMachine naar de unRAID) + appdata en zelfs de flash drive naar een Wasabi bucket.
Syncthing doet synchronisatie van mijn Documents folder naar iMac en ook nog eens van de flash drive.
Dus die flash drive is wel goed gebackuped zo :*)

Pihole en Unbound om zo van Pihole een Recursive DNS Server te maken. Zal later eens de Pihole DoT DoH template gebruiken zodat DNS verkeer ook encrypted is. Niet strikt noodzakelijk, maar gewoon leuk om te doen.

Dat was het zo een beetje, best een lange lap tekst geworden zo :)

  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 09:32
GoVegan schreef op vrijdag 19 maart 2021 @ 21:54:
[...]


Misschien dat je op de twee netwerken dezelfde subnetten gebruikt?
Dat het op van een docker ook al word gebruikt door andere apparaat op het netwerk waarvan je met VPN verbinding maakt?
Alles zit eigenlijk op dezelfde ip-reeks (192.168.x.x). Voor de docker containers gebruik ik ip-adressen die niet uitgedeeld worden door dhcp.
Er kan geen ander apparaat eenzelfde ip-adres krijgen.


Nu ben ik al een stapje verder in het probleem zoeken.
Wireguard maakt een eigen ip-range aan.
Ik zou dus een static route moeten aanmaken van de ip-range van wireguard naar het ip-range van de server?

Afbeeldingslocatie: https://tweakers.net/i/jjZmyhcNwVF3J24Z2wSWwvT4K5o=/800x/filters:strip_exif()/f/image/Lgqj4SxSecVADhS1SH1w7muc.png?f=fotoalbum_large

  • demonic
  • Registratie: November 2009
  • Laatst online: 21-04 18:39
Kopernikus.1979 schreef op donderdag 19 augustus 2021 @ 08:32:
Hallo,

Ik heb net mijn nieuwe Unraid server gebouwd, heb eerst mijn harde schijven pre-cleared, geformatteerd, twee cache pools aangemaakt, array gestart en gewacht tot de parity check klaar was. Maar zelfs na het rebooten als ik naar de docker of VM tab ga staat er failed to start.

Als ik naar de docker/VM instellingen ga staat er "path does not exist", ook appdata --> zou Unraid deze niet moeten hebben aangemaakt?

Onderstaand mijn diagnostic.

https://1drv.ms/u/s!ArQhL4LigQi2kMtvaMdf629sZBI6Hw?e=e43hoA
Bij Docker zou je dit path moeten hebben staan:
Afbeeldingslocatie: https://tweakers.net/i/7gerPxnAJh2cgIDl_fk8u2PXCZ8=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/YfknzVxKs1hKUpP1wxnVFsw3.png?f=user_large

Dit is het standaard path en zou moeten bestaan. Dit kan je controleren in je shares.

Voor VM's is de standaard locatie "/mnt/user/domains/".

  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 09:32
demonic schreef op donderdag 19 augustus 2021 @ 14:00:


[...]

via die dynamix kan je dat dus inderdaad heel makkelijk volgen. (ter plekke) maar niet de oorzaak.
Met grafana (En alle bijbehorende zaken wel)
Om hier nog even op terug te komen. Via Grafana dus enkele dagen gelogd en dit komt voort uit het ram geheugen.

Afbeeldingslocatie: https://tweakers.net/i/Q6LbJUkMQXRIHAWuH3KptFA14gk=/800x/filters:strip_exif()/f/image/Vu3To69u0QJT8PGpRuzOCREN.png?f=fotoalbum_large

Volgens dat ik kan zien is dus de Unifi-controller de grote boosdoener?

  • masauri
  • Registratie: Juli 2005
  • Laatst online: 15:26

masauri

aka qwybyte

WCA schreef op vrijdag 3 september 2021 @ 22:21:
[...]


Een sas naar sata kabel? Die kan maar 1 kant op. Je moederbord SAS en je schijf SATA. Andersom gaat dus niet. Je kan geen SAS schijf op een SATA poort gebruiken, andersom wel.
Sorry voor de onduidelijkheid, licht frustratie probleempje :)
Ik heb het over zo'n kabel die aangesloten is op de drive bay van de server kast:
Afbeeldingslocatie: https://c1.neweggimages.com/ProductImageCompressAll1280/ACJF_131693144905782705Gf8nOBJDHu.jpg
Is dat dan ook nog van toepassing?

De Grote GoT FG Kettingbrief - Deel 12 (Spinoff Resultaat)


  • masauri
  • Registratie: Juli 2005
  • Laatst online: 15:26

masauri

aka qwybyte

WCA schreef op vrijdag 3 september 2021 @ 22:27:
[...]


Zitten de SATA stekkers aan de moederbord kant ingeprikt of aan de hardeschijfbay kant? Indien dat tweede, die SAS connector stop je in een HBA/RAID kaart oid? Of hoe moet ik dat zien
SATA kant zit op het moederbord ingeprikt, die sas connector gaat in de drive bay.
De 2 andere sas verbindingen op de drive bay, zijn op de raid kaart aangesloten en kan ik wel via unraid uitlezen.
Afbeeldingslocatie: https://tweakers.net/i/AkBXxcK9DMkNtueJ9LGgU_CEBoc=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/6Faknm5ZZpipsB9M55ngZfYb.jpg?f=user_large

[ Voor 17% gewijzigd door masauri op 03-09-2021 22:36 ]

De Grote GoT FG Kettingbrief - Deel 12 (Spinoff Resultaat)


  • geenwindows
  • Registratie: November 2015
  • Niet online
iwolke schreef op dinsdag 30 november 2021 @ 15:45:
Inmiddels is mijn setje besteld en geleverd (met hier en daar wat extra Black Friday korting ;-)) en draait heel behoorlijk. Op dit moment heb ik eigenlijk 2 open vragen:
  • Ik heb mijn 2 NVME SSD schijven van 500Gb als een cache pool geconfigureerd en zie nu dat dat op basis van RAID 1 gebeurt. Volgens mij niet nodig, is er een eenvoudige manier om daar een RAID 0 van te maken? Ik vind wel wat beschrijvingen op internet maar die lijken van toepassing te zijn op eerdere versies en beschrijven allemaal procedures met CLI commando's, starten en weer stoppen van de array etc. Is dat inderaad de manier?
[...]
het klopt dat unRAID voor cache standaard BTRFS RAID 1 toepast, dit is eenvoudig aan te passen:
Afbeeldingslocatie: https://tweakers.net/i/zsO9qmwTSW5jOCfHQ7IKIwbGCHQ=/800x/filters:strip_exif()/f/image/SdVU8gHHrdiiNn4FSWEBzvS6.png?f=fotoalbum_large
te vinden via: MAIN -> en dan op de eerste ssd (Cache) klikken en daar vind je deze setting.
array hoeft er niet voor worden gestopt, heb echter geen idee of er met deze actie data wordt verloren...
(zorg er dus voor dat je een backup hebt!)

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


  • DieterKoblenz
  • Registratie: November 2013
  • Laatst online: 06:33
geenwindows schreef op zaterdag 4 december 2021 @ 16:08:
[...]


1st gen Threadrippers heeft net zoveel allende gehad als de Ryzen series, al zijn de meeste kwalen inmiddels wel verholpen.
Afbeeldingslocatie: https://tweakers.net/i/Az48N_qtAI24wRox7Hbf96_LRvU=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/CuLtOysFG0qtpn7s1qGv6bd8.jpg?f=user_large

Och, >24u

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 14:37

MisteRMeesteR

Is Gek op... :)

kevi-n1 schreef op woensdag 18 mei 2022 @ 21:52:
Ik wacht wel even tot deze bugs eruit zijn gehaald in de volgende update.
Afbeeldingslocatie: https://tweakers.net/i/o9O-ZhZQ7gvi1elg0FxcT1oJNew=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/UytVuyGVjKfRHMgxeYOCCiVX.jpg?f=user_large

Ik wacht ook nog even :P

www.google.nl


  • Dacuuu
  • Registratie: Maart 2009
  • Laatst online: 12:23
Unraid in de aanbieding.
https://unraid.net/cyber-weekend-2022
Afbeeldingslocatie: https://i.imgur.com/EEPmN32.png

  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 09:32
Hoi Tweakers,

Ik zit met het volgende probleem:
Sinds ik verhuisd ben ondervind ik vaak problemen dat het internet/netwerk compleet wegvalt.

Na verschillende oplossingen te proberen ben ik tot de vaststelling gekomen dat het waarschijnlijk te maken zal hebben met Docker op Unraid.

Mijn vroeger situatie bestond uit een modem met daarachter een USG van Uqibuity. Vandaaruit ging het verder naar een switch en AP. Allemaal van hetzelfde merk.
Toen ondervond ik geen problemen of ze waren alleszins toch niet duidelijk.

Nu ben ik verhuisd en deel ik het internet met een zaak.
Er is dus één en ander veranderd.
Hieronder hoe de situatie is voordat ik begon te troubleshooten:
Afbeeldingslocatie: https://tweakers.net/i/eOLw3bVMO06kWpEQEflTRbFsBXo=/800x/filters:strip_exif()/f/image/YVhSyu2AdVp8rh6gs4TCSvek.png?f=fotoalbum_large

- Nu zit mijn USG achter een modem/router van kpn met daarachter een managed switch die ook dhcp uitdeelde aan de apparaten.
- Sinds enkele maanden gaf de Unifi software ook aan dat ik een apparaten had met een gedeeld IP-adres. Dat bleek dus mijn server te zijn.

Na wat troubleshooten zijn volgende zaken veranderd:
- Unifi stond ingesteld dat de managed switch ingesteld stond als gateway. Die switch is veranderd naar een gewone switch en de gateway staat nu ingesteld op de modem van de ISP (192.168.1.254)
- De instellingen "Host access to custom networks:" bij Docker settings in unraid staat op Disabled. Dat zorgt ervoor dat ik geen dubbel ip-adres meer heb. Hierdoor valt het netwerk ook niet meer weg voor zover bekend.

Hierdoor ontstaat er een volgend probleem:
Docker kan nu niet meer updaten omdat het geen verbinding meer heeft met het internet.
Heeft iemand hier een gepaste oplossing voor?

Ohja: al mijn containers maken gebruiken van het 192.168.1.x ip-adres door middel van custom:br0

  • ComTech
  • Registratie: November 2002
  • Laatst online: 21-04 23:26
Ik ben een beetje aan het testen of unraid wat voor mij is maar er is 1 ding wat ik maar niet snap.
Ik heb een 3 disk array met 1 parity disk.
Alle disks zijn 4 TB.
Ik kan dus 1 disk verliezen en dan is mijn data er nog steeds?
Maar ik heb nu dus een kleine 500 GB naar de array geschreven en zie dat er maar 2 disks echt gevuld worden.
Disk 1 en de parity disk.

Afbeeldingslocatie: https://tweakers.net/i/hX4_dkVPlonGNRnBrlq0LkJK_A4=/800x/filters:strip_exif()/f/image/LBQvibhrHvgiqde0Q3OKAiDb.png?f=fotoalbum_large

Als ik nu disk 1 verlies dan is de data er nog wel gewoon?
En als ik nu bijvoorbeeld 7 gig heb weggeschreven en verlies disk 1 of disk 2 zijn dan die bestanden weg op die schijf?
Kortom is dit nu eigenlijk hetzelfde als een raid5 of kan ik dat niet zo vergelijken?

  • StefaanDG
  • Registratie: Juni 2009
  • Laatst online: 19-04 18:58
Ganse tijd geleden dat ik dit onderwerp nog gevolgd heb. Gebruik zelf nog altijd dezelfde opstelling als toen ik deze dik twee jaar terug geplaatst heb hier maar nu wel 18TB schijf als parity en er nog een andere van 10 en 18TB bij voor data.

Afgelopen week wel één en ander veranderd.

Eerste wat ik gedaan heb.

Voor het eerst een ZFS pool gemaakt en één en andere ingesteld, kwestie van nog eens iets bij te leren :)

Omdat ik maar één cache drive heb en mijn appdata, domains en system alleen leven op de cache—dus geen secondary storage op de array—na aanpassing van die shares moest er iets gebeuren om die data toch veilig te stellen.

Want dit wil je natuurlijk niet meemaken |:(



Om dit op te lossen heb ik alles van de kleinste 4TB schijf verplaatst naar de andere schijven met de Unbalance plugin. Daarna kon deze als ZFS geformatteerd worden. Ook geen raidz pool, maar aangezien de schijf in de array zit wordt deze beschermd door de parity schijf.

Wat er nu gebeurd is dat er scripts zijn opgezet die elke nacht een backup maken van de cache ZFS pool naar de HDD ZFS pool, dus die data staat nu nog wat veiliger.

In appdata zijn ook alle container folders ZFS datasets wat het voordeel geeft dat als er een container gek doet na een update deze héél gemakkelijk kan terug gezet worden van een snapshot.

Afbeeldingslocatie: https://i.ibb.co/34ZLb7D/Schermafbeelding-2023-12-28-om-14-08-42.png

Het eerste kostte dus geen euro, maar het tweede zal dat wel doen.

Ik speel namelijk met het idee om een server rack build te maken, wellicht een 4U 24 bay server. Momenteel nog aan het orienteren wat de case zelf betreft want dat lijkt met het belangrijkste om dan later de andere hardware componenten te verzamelen.

De huidige unraid server zou dan draaien als altijd aan server met docker containers zoals Nextcloud, Bitwarden beide via reserve proxy met cloudflared, Pihole en nog wat zaken. Met een i3-9100 in deze is dat zat snel genoeg en idle ook nog eens lekker stil. Misschien zelfs op te vatten met 2 SSD's erin in raidz pool zodat er geen spinners meer inzitten.

De nieuwe server zou dan tijdens vooral werkweek vooral in S3 slaap staan om zo tot niet te veel de energie rekening te doen stijgen.

Afijn vooruitzichten dus :D

Heb nu reeds een tijdelijke wenslijst gemaakt. Denk niet dat er dingen inzitten welke niet met elkaar passen, maar ben altijd benieuwd naar jullie input.


#CategoryProductPrijsSubtotaal
1ProcessorsIntel Core i5-13500 Boxed€ 258,99€ 258,99
1MoederbordenGigabyte Z790 AERO G€ 326,80€ 326,80
1BehuizingenInter-Tech 19" IPC 4U-4424€ 548,43€ 548,43
1ProcessorkoelingNoctua NH-U9S chromax.black€ 74,90€ 74,90
2Geheugen internCorsair Vengeance CMK64GX5M2B5600C40€ 174,90€ 349,80
1VoedingenCorsair HX1000i ATX3.0€ 227,79€ 227,79
2Solid state drivesWD Black SN850X (zonder heatsink) 2TB€ 139,-€ 278,-
Totaal€ 2.064,71

  • demonic
  • Registratie: November 2009
  • Laatst online: 21-04 18:39
Robbie T schreef op zaterdag 10 februari 2024 @ 19:29:
Ik heb vandaag mijn server uitgezet. Nieuwe nvme erin en Unraid erop.
Hierna mijn usb apparaten aangesloten. Licentie gekocht en de boel gestart.

Een van de eerste dingen was het maken van een VM met daarin Home Assistant en hierbij heb ik gebruik gemaakt van deze video;
YouTube: Installing Home Assistant On Your UNRAID Server. Dit is goed gegaan en hierna heb ik mijn backup terug geplaatst.

Probleem waar ik nu tegenaan loop is dat mijn zigbee2mqtt stick niet werkend te krijgen is. Deze lijkt in Unraid zichtbaar als:
Bus 001 Device 002 Port 1-1 ID 1a86:7523 QinHeng Electronics CH340 serial converter

Maar mijn waterlezer en slimme meter worden ook op deze wijze herkend. Alleen dan op een andere bus.
Ik heb usb manager geinstalleerd binnen Unraid en kan op die manier de usb doorlussen naar HA. Ik zie mijn apparaten ook weer maar kan ze niet bedienen want dan krijg ik een timeout command.

Kan iemand mij helpen met dit? De lampjes e.d. willen graag weer wat liefde. (En ik wil van het gedoe af zijn)
Afbeeldingslocatie: https://tweakers.net/i/7JVN0LwaHfoVQXtMqC9Lm-CE3fo=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/uS6iXDYJMrL2tN8ZBrFAFZad.png?f=user_large

Hij staat hier tussen, en je hebt hem aangevinkt?
Hij zou dan na een herstart in HA zichtbaar moeten worden als "ttyUSB0" of iets vergelijkbaars.

En probeer anders een andere usb-poort. (niet de usb poort die er onder zit. Maar een andere usb-poort die op een andere wijzen is verbonden met je CPU.

  • masauri
  • Registratie: Juli 2005
  • Laatst online: 15:26

masauri

aka qwybyte

Afbeeldingslocatie: https://tweakers.net/i/_z7vBekHs5kMhx7_7nTrpO4nWeI=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/Pc57QJvTKoDK6Ytz58iVfq1a.jpg?f=user_large
Iemand enig idee?

Is kort na de 7.0 update begonnen maar vermoed niet dat het gerelateerd is.
De installatie/config heb ik al op een andere usb stick omgezet maar blijf het dus nog krijgen.
Server draait maar loopt vast en bij reboot krijg ik dit dus.

Iemand al gelijkaardig meegemaakt? |:( :?

Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.

[ Voor 6% gewijzigd door masauri op 30-01-2025 19:53 ]

De Grote GoT FG Kettingbrief - Deel 12 (Spinoff Resultaat)


  • alex3305
  • Registratie: Januari 2004
  • Laatst online: 17-04 11:13
Ik vind de Appdata backup echt de meest onzinnige plugin die er bestaat. Welke aardappel verzint het om de Docker service daarvoor te stoppen 8)7 ? Ik snap best dat dat het veiligste is, maar regel dan als je bezig bent je backups gewoon correct in.

Ik gebruik nu al enkele jaren Kopia voor mijn backups. Dat is een deduplicerende backup tool. Ook als container te installeren via de apps store. De initiële opzet is niet bijster complex, maar wel even iets waar je op moet letten. Daarna heb je eigenlijk geen omkijken meer naar.

Mijn appdata en flash drive worden elke 4 / 6 uur gebackupt naar een externe disk:

Afbeeldingslocatie: https://tweakers.net/i/UEhSYMQgFcd-PtL97iELYYAEKcI=/800x/filters:strip_exif()/f/image/9fzF903yM0EClus1iGWhJ1UM.png?f=fotoalbum_large

Deze backup schrijf ik daarna ook weg naar twee remote locaties.

Met mijn retentie policy heb ik eveneens genoeg mogelijkheden om bij problemen nog zaken te restoren:
Afbeeldingslocatie: https://tweakers.net/i/zzYIdg2jxOyIrdvrcfrqJJOCPDI=/800x/filters:strip_exif()/f/image/PZ3YBD4QOeWP2bVEdAY83C2R.png?f=fotoalbum_large

En de backup is via de webinterface benaderbaar en browsebaar:

Afbeeldingslocatie: https://tweakers.net/i/Ge6WqmXTRjcDCv44fl6z8R2CU_M=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/oThuxZLHMEBaOdE00pVGpHHT.png?f=user_large

Omdat Kopia comprimerend én deduplicerend werkt is mijn backup 'maar' 440GB. Terwijl 1 snapshot al 530GB zou moeten zijn.

Bovenstaand heeft natuurlijk geen zin als de configuratie niet wordt weggeschreven :X.

@Asterion Veel werk verloren valt ook wel weer mee. Daarnaast, als het zo belangrijk was, had je wellicht ook de tijd moeten nemen om het te documenteren ;).

  • alex3305
  • Registratie: Januari 2004
  • Laatst online: 17-04 11:13
Sinds Unraid 7 heb ik eigenlijk een beetje een gek probleem. Ik ben niet 100% zeker of het door Unraid 7 komt, maar het is wel toevallig dat het sinds toen is gaan spelen. Af en toe is mijn server niet meer bereikbaar. Of eigenlijk heel traag. Het komt vast door een proces die helemaal uit de klauwen loopt, maar als ik mijn Beszel monitoring ga bekijken zie ik niets geks:

Afbeeldingslocatie: https://tweakers.net/i/ONPsz54gr_Fx5Tqm1Y1HozJfAtM=/800x/filters:strip_exif()/f/image/uyv96D7KghULQc7eO8r6FI76.png?f=fotoalbum_large

Wat ik wel zie op zo'n moment is dat kswapd0 en kcompactd0 nagenoeg alle CPU cycles opsnoepen. Als ik een of meerdere containers stop (bijv. Plex of Paperless-ngx) dan normaliseert het weer. Een reboot lost het sowieso op.

Ik heb geen swap ingesteld en volgens free of top heb ik op zo'n moment ook voldoende geheugen:
root@LeeTower:~# free -h
               total        used        free      shared  buff/cache   available
Mem:            31Gi        17Gi       2.6Gi       4.1Gi        15Gi        13Gi
Swap:             0B          0B          0B


Als ik echter een stress test draai dan gaat dit ook goed:
root@LeeTower:~# docker run -ti --rm polinux/stress stress --cpu 1 --io 1 --vm 4 --vm-bytes 4G --timeout 10s
stress: info: [1] dispatching hogs: 1 cpu, 1 io, 4 vm, 0 hdd
stress: info: [1] successful run completed in 10s

En doe ik hetzelfde met 'teveel' geheugen krijg ik ook netjes een fail:
root@LeeTower:~# docker run -ti --rm polinux/stress stress --cpu 1 --io 1 --vm 8 --vm-bytes 4G --
timeout 10s
stress: info: [1] dispatching hogs: 1 cpu, 1 io, 8 vm, 0 hdd
stress: FAIL: [1] (415) <-- worker 11 got signal 9
stress: WARN: [1] (417) now reaping child worker processes
stress: FAIL: [1] (451) failed run completed in 3s

Gek genoeg is daarna de buff/cache wel een heel stuk leger, maar volgens mij betekend dat niets.
root@LeeTower:~# free -h
               total        used        free      shared  buff/cache   available
Mem:            31Gi        14Gi        15Gi       4.1Gi       5.6Gi        16Gi
Swap:             0B          0B          0B

Het enige echte aanknopingspunt of iets wat echt heel vreemd is, is dat mijn Caddy setup met caddy-docker-proxy compleet stopt met werken. Het is dus net of Docker API / Socket niet meer bereikbaar is :S. Maar ik zie daar verder niets geks terug. Ook niet in de Unraid logging.

Vergelijkbare problemen heb ik ook gevonden op het Unraid forum, maar zonder resultaat. Ik vind het wel jammer want Unraid 6 was enorm stabiel.

  • alex3305
  • Registratie: Januari 2004
  • Laatst online: 17-04 11:13
@canonball Ik moest googlen wat Krusader is :9. Dus nee, die gebruik ik niet :+.

Ik gebruikte eerder ook veelvuldig /dev/shm maar daar ben ik ook maar mee gestopt om dit probleem te tacklen. Dat hielp overigens wel, maar uiteindelijk komt het toch terug.

Ik heb het vermoeden dat er iets misgaat in de berekening van het beschikbare geheugen. Het swappen gebeurt als ik circa 50% van het beschikbare geheugen daadwerkelijk in gebruik heb. Als ik de Beszel stats mag geloven ligt het ook niet aan de Docker containers, want daar veranderd niets, of weinig.

Afbeeldingslocatie: https://tweakers.net/i/mzI1PZf6PNBu6KXM_z6TNAT6B3o=/800x/filters:strip_exif()/f/image/41Ye9OIyoyfygNS71GldtzD9.png?f=fotoalbum_large

Wat ik voornamelijk zo gek vind is dat de OOM killer niet getriggerd wordt, maar dat het systeem wel als een malloot gaat swappen. Bij Debian / Ubuntu systemen gaat dat in mijn ervaring toch aardig hand in hand.

Overigens post een user hier ongeveer hetzelfde en als ik dus de sysctl commando's overneem, kalmeert het systeem direct. Super vaag :|

  • alex3305
  • Registratie: Januari 2004
  • Laatst online: 17-04 11:13
@ErikRedbeard Goede gedachte, maar die vlieger gaat bij mij niet op. Ik heb door middel van taskset de Unraid processen op andere (E-)cores draaien ;). Tegelijkertijd is het ook niet één core die belast wordt. Ik kijk uiteraard niet alleen in Beszel, maar dat snap jij natuurlijk wel. kswapd0 en kcompactd0 pakken ergens tussen de 4 en 8 cores met een belasting van rond de 80-120 8)7. Dat heurt niet zo. De Unraid processen komen niet eens voor in de top (pun intended).

De hoge IOPS gedachte is eveneens een goede poging die snel strandt. De meeste van mijn processen draaien langs shfs heen omdat deze inderdaad niet erg geoptimaliseerd is. Ook niet verwonderlijk aangezien het volgens mij door middel van FUSE gaat.

Het systeem vermoed ergens uit geheugen te zijn of de behoefte krijgen om geheugen te compacten. Maar dat raakt kant noch wal omdat ik - bijvoorbeeld vorige week - nog zo'n 30-50% geheugen vrij heb, al dan niet in shared/buffers. De kernel is het hier blijkbaar ook mee eens aangezien er eveneens geen oom-killer getriggerd wordt. Dan moet er iets gaar zijn. Of dat dan een Unraid proces is, een configuratie of mijn hardware, dat weet ik niet. Maar het klopt niet.

Sinds ik vorige week het compacten en swappiness heb uitgezet met ...

sysctl -w vm.swappiness=0
sysctl -w vm.compaction_proactiveness=0
sysctl -w vm.extfrag_threshold=1000

... draait het systeem alweer een week (zonder reboot) als een zonnetje.

Afbeeldingslocatie: https://tweakers.net/i/takESYxG_ABcyGSR20kU-K7Ucyc=/800x/filters:strip_exif()/f/image/rNBU8IwWUSNVUJ8oISMoalOo.png?f=fotoalbum_large

Toen ik echter als test de bovenstaande sysctl instellingen terugzette op de oorspronkelijke waardes ging het weer mis. Maar in ieder geval werkt het nu.

  • alex3305
  • Registratie: Januari 2004
  • Laatst online: 17-04 11:13
Nadat ik relatief recent naar Unifi ben overgestapt heb ik vandaag eindelijk de moeite genomen om ook VLANs in te regelen op mijn Unraid machine. Ik zag hier een beetje tegen op door de enorm moeizame ervaring van een kennis van me, maar die zorgen waren uiteindelijk onterecht.

In Unifi heb ik allereerst een VLAN aangemaakt met ID 40:
Afbeeldingslocatie: https://tweakers.net/i/lxXatWvrUi26cxtRqrLAgyHH6R8=/800x/filters:strip_exif()/f/image/t3YYmvCAK4biL1ULAIMIjhLf.png?f=fotoalbum_large

Ik heb daarna dat VLAN toegevoegd met dezelfde instellingen in Unraid's Network Settings:
Afbeeldingslocatie: https://tweakers.net/i/wy5YfjhylAMBjz61zb4ja9Cw-04=/800x/filters:strip_exif()/f/image/FO68ZhVoFZLACBVgoqo0wAqx.png?f=fotoalbum_large

EDIT Ik had hier eerder staan dat IPv4 Address Assignment op None moest staan, maar dat klopt niet. Dit moet Automatic zijn. De None optie werkt maar maakt geen bridge of shims aan waardoor container <> container communicatie niet werkt. De Static optie is ook mogelijk, maar ik houd het liever dynamisch.

En vervolgens ook toegewezen in Docker Settings:
Afbeeldingslocatie: https://tweakers.net/i/OzXSuBL0w1joRY6uTh52AWXy_So=/800x/filters:strip_exif()/f/image/sObIAgXP3QkWa3a6EO3rOGbs.png?f=fotoalbum_large

Dat was het eigenlijk 8)7.

Na het aanpassen van het netwerk in de Compose definitie, werkte dit out of the box.

[ Voor 14% gewijzigd door alex3305 op 04-08-2025 16:24 ]


  • alex3305
  • Registratie: Januari 2004
  • Laatst online: 17-04 11:13
kevi-n1 schreef op zaterdag 4 oktober 2025 @ 11:50:
Je hebt gelijk! Excuus, ik draai inderdaad ook de oude opstelling met de combinatie HDD's + 2 cache ssd's in raid1 voor de applicaties.
Geen probleem joh :). Ik wist wel wat je bedoelde, maar wellicht dat het verwarrend is voor gebruikers die wat minder bekend zijn met Unraid :9.
Als je toch een nieuwe setup gaat bouwen met enkel SSD's zou ik ook gelijk overgaan naar ZFS met Unraid 7.
Dat snap ik wel. Ik merk sinds Unraid 7 vooral dat mijn systeem minder goed beschikbaar is bij disk intensieve zaken. Ik heb ook mijn Docker volumes op disk staan (dus geen image zoals het standaard zit) en het lijkt erop dat de Unraid software zich daar toch wat agressiever mee bezig houdt dan bij Unraid 6. Ik heb het dan over de software die de shared mounts doet. Er is dan iets gaars aan de hand met o.a. Docker

Afbeeldingslocatie: https://tweakers.net/i/uuE4OV6b1SDIpkMzXgZuFVsLeQY=/x800/filters:strip_exif()/f/image/py3y4ia3KyTlVJK8sXzlWNxF.png?f=fotoalbum_large

Ik vermoed dat je daar met een wat modernere setup misschien wat minder last van hebt.

  • StefaanDG
  • Registratie: Juni 2009
  • Laatst online: 19-04 18:58
Hier had ik nog niet zitten spoileren, zoals ik wel deed op een ander forum, dat er iets aan kwam om mijn huidige Unraid server in te verbouwen en de spullen zijn deze morgen geleverd door de verkoper.

Eerst even wat duiding. Ik speelde al een tijdje, zeg maar twee jaar, om een nieuwe Unraid server te bouwen in een rackmount case, maar grondige verbouwingen hier thuis hadden deze plannen on-hold gezet. Begin dit jaar terug beginnen kijken en al snel tot de conclusie gekomen dat een nieuw platform (moederbord, CPU en geheugen) niet meteen aan de orde was door de gigantische stijging van de geheugen prijzen (dank u AI ... you're welcome).

Dan maar op zoek naar een rackmount case om mijn bestaande platform in over te bouwen. Had eerst de Silverstone RM43-320-RS op het oog maar helaas zijn deze cases niet meer gemakkelijk te vinden. Dan maar naar een Inter-Tech IPC 4U-4424 of de recentere 4U-4724 gekeken en deze zijn ook wat aanschaf betreft een stuk prijsvriendelijker dan de Silverstone case maar ook qua afwerking wellicht een stuk minder.

Maar toen zag ik een advertentie voor een tweedehands Supermicro CSE-846TQ-R920B op Tweakers voor een mooie prijs en 'k kwam snel tot een akkoord met de verkoper.

Voor wie dat modelnummer niets zegt de CSE-846 is een populaire server rackmount case bij de homelabbers of nog meer bij de datahoarders :-)

Hoewel het modelnummer 846TQ opgeeft wat slaat op de backplane zit er een BPN-SAS2-846EL backplane is wat een SAS2 expander is. Kort gezegd betekent dit dat ik twee SFF-8087 kabels aansluit tussen mijn bestaande IBM M1015 HBA kaart en de SAS2 backplane en zo toegang heb tot alle 24 schijven.

De verkoper had er ook PWS-920P-SQ PSU in geplaatst waarbij de SQ in dat modelnummer staat voor Super Quiet en dat is zeker zo vergeleken met de standaard PSU's. Het zijn hot-swappable PSU's.

Verder heb ik ook vijf Noctua 80mm fans erbij gekregen om de luidruchtige standaard krengen te vervangen.

Genoeg geluld, foto's of het is niet gebeurd. 😁

Afbeeldingslocatie: https://i.ibb.co/v9XJTjJ/IMG-1391.jpg
Afbeeldingslocatie: https://i.ibb.co/7drjqkfM/IMG-1392.jpg
Afbeeldingslocatie: https://i.ibb.co/5XdQc4mq/IMG-1393.jpg
Afbeeldingslocatie: https://i.ibb.co/yFsr38MB/IMG-1394.jpg
Afbeeldingslocatie: https://i.ibb.co/fdfcFvL9/IMG-1395.jpg
Afbeeldingslocatie: https://i.ibb.co/bM0kD5rd/IMG-1396.jpg


Oh zoals Steve Jobs vroeger zei gedurend de Apple Events op het einde "There's one more thing".

De verkoper had ook een rack-mount UPS te koop en deze heb ik eveneens overgenomen. Dit is een Eaton 5PX1500iRT dat is een 1350 Watt UPS en heb er ook nog een backup batterij bijgekregen, dat is het zwaarste kreng met zijn 40kg. Zat genoeg ruimte dus om genoeg tijd te hebben om zaken netjes af te sluiten. Ga deze eerst eens testen hoeveel stroom deze verbruikt, mijn APC tafel model gebruikt nu zelf constant 15 Watt, hoop dat het voor deze Eaton een beetje redelijk is.

Afbeeldingslocatie: https://i.ibb.co/KxTQF33y/IMG-1397.jpg
Afbeeldingslocatie: https://i.ibb.co/sv5Q2B0Q/IMG-1398.jpg


Zo nu kan de transplantatie doorgaan. En later kijken we wel eens voor een server moederbord met IPMI als de geheugenprijzen terug een beetje normaal zijn, dat zal helaas niet zo snel zijn.

  • StefaanDG
  • Registratie: Juni 2009
  • Laatst online: 19-04 18:58
@Stefuit , tja een nieuwe server bouwen was ook mijn initiële plan zelfs halfweg vorig jaar toen de prijzen nog 'normaal' waren. Maar door renovatie werken in huis kwam het er niet van. Begin jaar pakte ik dit terug op en was het even schrikken met de RAM, SSD, HDD prijsstijgingen.

Dan maar de route van tweedehands gekozen en eigenlijk alles wat ik nu gebruik, Supermicro chassis en moederbord + CPU en koeler overgenomen van een mede-tweaker. Alleen het RAM kwam van een andere leverancier, refurbished en 8GB latjes ipv hogere capaciteit want de prijzen daarvan zijn 8)7

Nu heb zelf nog wat verdere progressie gemaakt met mijn eigen server. Omdat het moederbord maar één NVME slot heeft en ik twee van dergelijke ssd's heb voor een cache pool in mirror, heb ik een Asrock Hyper Quad M.2 PCIe kaart tweedehands overgenomen. Op dergelijke kaart kunnen 4 NVME's geïnstalleerd worden maar je moederbord moet natuurlijk bifurcatie ondersteunen en dat doet een Supermicro bord natuurlijk zodat ik een 16x slot kan opdelen in 4x4x4x4 PCIe lanes zodat elke NVME apart wordt gezien.

Was wel even prutsen want had in de boot syslinux.cfg ook wat ASPM commando's staan voor lager stroomverbruik, en dat speelt niet lekker samen met PCIe sloten op het Supermicro moederbord blijkbaar. Hierdoor werd alleen de eerste NVME gezien in Unraid hoewel ze wel alle twee zichtbaar waren via command line (lspci -tv).

Afijn is eindelijk gelukt en het resultaat ziet er zo uit momenteel.

Afbeeldingslocatie: https://i.postimg.cc/wj6s8rwy/IMG-1457.jpg
Pagina: 1