Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 01:15
HellStorm666 schreef op donderdag 19 juni 2025 @ 06:16:
[...]

Draai je (jullie) dan nog wel iets als truenas of unraid, of gewoon een linux distro?
En hoe doen jullie de storage laag (raid oid) dan?
En de config, alles dan via cli of een of andere web gui?
Ik heb alma linux 9 draaien gewoon cli. Onderliggend os maakt niet zoveel uit aangezien je snel terug opgestart kan zijn op een andere machine.
Als servertje gebruik ik een optiplex mff 3060 i5 met 32GB ram en 2TB ssd.
Ik heb alles draaien in aparte dockers met docker-compose.
Er kan nog veel verbeterd worden zoals betere netwerking binnen mijn containers maar dat is voor later.
Vroeger ook esxi, proxmox , truenas gedraaid maar nu is het keep it simple en stable.

Acties:
  • 0 Henk 'm!

  • jelknab
  • Registratie: Oktober 2010
  • Laatst online: 22-06 13:36
rsvmark schreef op woensdag 18 juni 2025 @ 15:51:
[...]


Hoi GioStyle,

Mijn WTR PRO (amd) is ook onderweg en net als jou wil ik Truenas op proxmox gaan draaien.
Nu lees ik echter problemen met de passthrough van de sata controller zoals hier beschreven.
Herken jij dit ?
Ik was hier tot heden niet van op de hoogte, goede find, ik zie dat mijn systeem dit inderdaad ook doet. Ik ga zelf nog even kijken of ik hier wat mee ga doen, maar wellicht is wat de anderen zeggen, geen virtualisatie, de meest makkelijke optie.

Acties:
  • 0 Henk 'm!
HellStorm666 schreef op donderdag 19 juni 2025 @ 09:08:
[...]

Nice.
Hoe bevalt dat? hoe is t qua performance? (ervaring met ZFS?)
Ach. Met MergerFS niks te klagen. Maar dat is ook voornamelijk statische data of data waar elke dag een beetje aan wordt toegevoegd. Niks dat een backup (Crashplan) en SnapRaid niet eenvoudig aankan.

Alle zaken die performance vragen staan op SSD.

ZFS gebruik ik niet meer. Ik zag het nut ook niet meer en had onvoldoede SATA aansluitingen.

Ik kan nog één NVME SSD toevoegen en dan zit het Kontron mobo vol qua aansluitingen, tenzij ik PCIe kaarten ga toevoegen, maar dat is nu niet nodig en zal het verbruik ook flink omhoog gooien.

Mijn 13900K staat overigens per core teruggeklokt, zodat ik op een TDP van rond de 100-125W uitkom. E-cores op 3Ghz max en P-Cores wisselend op 4-4.5Ghz. De laatste Ghz kost onnodig veel kWhs.

Elke docker container is toewegezen aan een cluster cores. Dus zelfs al gaat 1 container over de zeik, dan kan ik altijd nog ingrijpen omdat er voldoende CPU over is om interactief te werken.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
Mars Warrior schreef op donderdag 19 juni 2025 @ 11:11:
ZFS gebruik ik niet meer. Ik zag het nut ook niet meer en had onvoldoede SATA aansluitingen.
Ik denk niet dat het aantal SATA poorten uit maakt voor ZFS vs iets anders? :p Bij snapraid heb je immers AFAIK nog steeds hetzelfde? Bv een RAID5 / RAIDZ1 / "x data disks met 1x parity", dus dat kost net zoveel poorten.
Ik kan nog één NVME SSD toevoegen en dan zit het Kontron mobo vol qua aansluitingen, tenzij ik PCIe kaarten ga toevoegen, maar dat is nu niet nodig en zal het verbruik ook flink omhoog gooien.
Gezien je begint met "nog een NVME kan". Als je meer NVME wilt toevoegen, met een PCIe / M.2 adapter, dan zal dat geen / nauwelijks extra verbruik toevoegen. NVME is gewoon bovenop PCIe direct en M.2 is puur een andere form factor dan PCIe x4. Zo'n adapter is dus vrij letterlijk 2 aansluitingen (PCIe + M.2) die direct aan elkaar gesoldeerd zitten. Er zitten verder dus geen stroom verbruikende componenten op zo'n bordje. Hoogstens dat iets van een power ledje op zo'n bordje zit dat een eigen verbruik heeft.
Wil je extra SATA poorten gaat het uiteraard wel met een extra SATA chip met een eigen verbruik. Waarbij zuinige wel ergens in de 1W zitten dus relatief absoluut zuinig zijn. Maar bij een systeem dat idle 4W verbruikt is 1W extra natuurlijk wel meteen 25% extra dus relatief veel :+.

Acties:
  • 0 Henk 'm!
RobertMe schreef op donderdag 19 juni 2025 @ 11:57:
[...]

Ik denk niet dat het aantal SATA poorten uit maakt voor ZFS vs iets anders? :p Bij snapraid heb je immers AFAIK nog steeds hetzelfde? Bv een RAID5 / RAIDZ1 / "x data disks met 1x parity", dus dat kost net zoveel poorten.
Ik doelde op de mix van ZFS en MergerFS/SnapRaid. Daardoor kwam ik SATA poorten te kort.
Aangezien al het echte werk op SSD staat, en de disken voornamelijk statische data bevatten (foto's, films, backups) vond ik MerferFS/SnapRaid een combi die beter voldeed en voor mij eenvoudiger was.
[...]
Gezien je begint met "nog een NVME kan". Als je meer NVME wilt toevoegen, met een PCIe / M.2 adapter, dan zal dat geen / nauwelijks extra verbruik toevoegen. NVME is gewoon bovenop PCIe direct en M.2 is puur een andere form factor dan PCIe x4. Zo'n adapter is dus vrij letterlijk 2 aansluitingen (PCIe + M.2) die direct aan elkaar gesoldeerd zitten. Er zitten verder dus geen stroom verbruikende componenten op zo'n bordje. Hoogstens dat iets van een power ledje op zo'n bordje zit dat een eigen verbruik heeft.
Wil je extra SATA poorten gaat het uiteraard wel met een extra SATA chip met een eigen verbruik. Waarbij zuinige wel ergens in de 1W zitten dus relatief absoluut zuinig zijn. Maar bij een systeem dat idle 4W verbruikt is 1W extra natuurlijk wel meteen 25% extra dus relatief veel :+.
Je hebt gelijk. Ik was in de war met SATA SSD aansluitingen. Daar heb je altijd een contoller voor nodig.
Kontron heeft standaard 2x M.2 80 aansluitingen. 1 is nu in gebruik door een Intel SSD op PCIe 3, dus niet eens het snelste wat je kunt krijgen.

Maar het voldoet, zelfs met zo'n berg containers.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
Mars Warrior schreef op donderdag 19 juni 2025 @ 12:33:
Kontron heeft standaard 2x M.2 80 aansluitingen. 1 is nu in gebruik door een Intel SSD op PCIe 3, dus niet eens het snelste wat je kunt krijgen.

Maar het voldoet, zelfs met zo'n berg containers.
Zowel mijn TopTon "zachte router" als no name Chinese mini PC (in dienst als respectievelijk router en servertje) hebben beiden een Intel N5105 CPU, en door het beperkte aantal PCIe lanes op de CPU zit het M.2 slot maar met 1 of 2 lanes aangesloten (+ is maar PCIe 3) en ook dat voldoet an zich prima.

Maar ook niet perse heel gek. We hebben het hier over zuinige thuisservers, en niet over workstations :p Dus de zwaarste I/O zal vaak uit NAS (achtige) toepassingen komen. En dan zit de bottleneck eerder in het netwerk. Immers doet een lekker ouderwetse 3,5" HDD ook minimaal iets van rond de 200MByte/s, maal 8 is 1600Mbit/s. Toch wel ietjes hoger dan de ~940Mbit/s die je maximaal over een gigabit netwerk behaald. En met een vorm van RAID (/striping / mirroring) halen meerdere schijven ook alweer hogere snelheden. Laat staan wat SATA SSDs doen (die kunnen gewoon de 6GBit/s link speed dicht trekken? Voldoende dus voor een 5Gbit/s netwerk). De snelheden van NVME zijn dan ook eigenlijk zwaar overdreven (sowieso voor een NAS /thuisserver, maar ook al voor 99% van de normale ("consumenten") PCs, alleen gaming kan het merkbaar zijn in laadtijden wellicht? En andere toepassingen gaat al weer sneller richting "werk").

Enige waarin ik hogere snelheden zelf zou merken in mijn systemen is een ZFS scrub. De 400GB op de NVME drive doet die nu ~15 minuten over. Met een gewoon x4 slot zou daar potentieel maar de helft of een kwart voor nodig zijn.
En vorige week was een 14TB schijf (in "NAS", Fujitsu bord met i3-9100) overleden. Die resilver duurde dan wel 19 uur, en zou met SSDs sneller zijn geweest. Maar natuurlijk ook doordat SSDs in die capaciteit niet bestaan / onbetaalbaar zijn en daardoor bij één overleden SSD er maar 4 of 8 TB geresilverd hoefde te worden :+

Acties:
  • 0 Henk 'm!

  • Gu357
  • Registratie: Februari 2012
  • Laatst online: 23:00
Misschien is het al genoemd maar aan de hand van de toepassing kan een NAS (Qnap/Synology) met Docker ook een goedkope en zuinige oplossing zijn.

Acties:
  • +4 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 23:10
andru123 schreef op zondag 15 juni 2025 @ 16:20:
@daansan kan je ook het verbruik aan je post toevoegen?
Ik lijk mijn post niet meer te kunnen aanpassen, maar ik heb het verbruik gemeten.

Hardware:
- Kontron K3842-Q2
- i5 13500 met Noctua NH-L12S CPU cooler
- Noctua NF-A8 PWM case fan
- Be Quiet Pure Power 12M 550W voeding
- 2 x 32GB DDR5 5200 Corsair Vengeance
- Samsung PM991a M2 2242 SSD in M2 E+A key slot.
- PNY CS3040 1TB M2 2280 SSD in het PCH M2 slot

Configuratie:
- Proxmox 8.4 zonder VM's draaiend
- Powertop 2.15 gecompileerd met alle tunables op good
- 1GBe verbinding met de onboard i219LM netwerk controller (met AMT aan)
- Onboard audio, serial en tweede ethernet controller i226LM disabled
- PL2 en PL4 beperkt tot 75 watt
- Geen display aangesloten

Stroomverbruik gemeten met de bekende Brennenstuhl PM 231 E DE 3655 kWh meter

Absoluut laagste idle verbruik: 5,6 watt

I love it when a plan comes together!


Acties:
  • +1 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 18:13

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Mars Warrior schreef op woensdag 18 juni 2025 @ 16:00:
[...]

Allemaal geen schokkende zaken dus voor een gemiddelde zuinige Intel CPU. Dus dat is het probleem niet om dit op een server te draaien die 4W idle doet.

Echter je hebt nu wel een systeem met enorm veel dubbelingen qua schijven enzo. En dat enkel voor de bertrouwbaarheid begrijp ik?

Met 1 NVME SSD van 2 of 4TB en wat schijven moet je toch makkelijk functioneel uitkomen.
Zaken als Proxmox, ZFS etc. zijn allemaal keuzes.

Ik draai zelf geen VM's meer: alles in Docker containers (50 in totaal) op een Kontron mobo, 2TB Intel SSD, 13900K CPU en 128GB RAM. Netwerk is gewoon 1Gbit.
Idle zonder 2.5" schijven rond de 4W. Met de 4 schijven (3x data + 1x Snapraid parity) is dat wat meer.

Het is maar net wat je wilt.

Hoeveel verbruikt de server zelf nu? Want dat getal van 330W is toch totaal?


[...]

3 tot 5 jaar maar? Ik doe meestal 10 jaar met mijn hardware :*)
In overleg toch een watt meter er tussen kunnen drukken.
Van de 320W totaal verbruik is 177W puur en alleen de server tijdens normaal "idle" gebruik.
Wordt nu niet iets binnen gehaald, bekeken of gebackupped.
Dat is dus met alle 9 drives aan (zfs kent geen poweroff), 2x sata ssd en 2x nvme ssd.

Alles naar zo'n Aoostar WTR Max en 6 disks + 2nvme zal wel flink schelen denk ik zo. En dan TrueNAS, OMV of Proxmox er op. (Of Hexos of Unraid ;) )

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!
HellStorm666 schreef op donderdag 19 juni 2025 @ 20:43:
[...]

In overleg toch een watt meter er tussen kunnen drukken.
Van de 320W totaal verbruik is 177W puur en alleen de server tijdens normaal "idle" gebruik.
Wordt nu niet iets binnen gehaald, bekeken of gebackupped.
Dat is dus met alle 9 drives aan (zfs kent geen poweroff), 2x sata ssd en 2x nvme ssd.

Alles naar zo'n Aoostar WTR Max en 6 disks + 2nvme zal wel flink schelen denk ik zo. En dan TrueNAS, OMV of Proxmox er op. (Of Hexos of Unraid ;) )
Help. Dat is meer dan mijn hele huis met ingeschakelde Amerikaanse koelkast 😳

Die Aoostar is een aardig beest en doet zonder schijven al 20W. Voor een zuinige server veel, maar het verschil met die 177W is natuurlijk gigantisch.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

HellStorm666 schreef op donderdag 19 juni 2025 @ 20:43:
[...]

Dat is dus met alle 9 drives aan (zfs kent geen poweroff), 2x sata ssd en 2x nvme ssd.
Spindown is dan ook iets wat de schijven (kunnen) doen na een tijdje inactiviteit, daar heeft het filesystem niet zo veel mee te maken. Wat wel kan uitmaken is hoe veel de pools gebruikt worden, want als er regelmatig wat opgevraagd of geschreven wordt moet wel de hele pool (weer) aan staan. Zo gaan de schijven van mijn pool voor de backups na 20 minuten (dacht ik) inactiviteit uit, en daarmee bespaar ik het grootste deel van de dag weer 15W.

Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 18:13

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Aoostar WTR Max is besteld ;)
Plan voor nu:
1x SSD voor OS
2x NVMe 2TB in mirror voor Fast Storage
5x 14TB in Raid-Z1 of MargerFS met SnapRAID voor storage
1x 14TB als PBS en backup van foto's (1x per dag)
En dan 1x per week de oude NAS laten opspinnen voor een backup van de backup disk.

Gezien PMS ook Proxmox adviseert en ik daar al bekend mee ben, die maar weer gebruiken.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • +2 Henk 'm!

  • Ankh
  • Registratie: Mei 2001
  • Laatst online: 22:04

Ankh

|true

Jeetje, dit is toch wel top van hardkernel. De Type 3 case voor de odroid H4 generatie is aangepast zodat er nu 4x 2,5" disken in passen: https://www.hardkernel.com/shop/odroid-h4-case-type-3/
Ik had dit verzoek op het forum gedaan: https://forum.odroid.com/viewtopic.php?f=168&t=49560
Nu nog alleen zorgen voor een aangepaste versie...

-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8


Acties:
  • 0 Henk 'm!

  • roedi06
  • Registratie: Mei 2006
  • Laatst online: 21-06 23:29
daansan schreef op donderdag 19 juni 2025 @ 19:10:
[...]


Ik lijk mijn post niet meer te kunnen aanpassen, maar ik heb het verbruik gemeten.

Hardware:
- Kontron K3842-Q2
- i5 13500 met Noctua NH-L12S CPU cooler
- Noctua NF-A8 PWM case fan
- Be Quiet Pure Power 12M 550W voeding
- 2 x 32GB DDR5 5200 Corsair Vengeance
- Samsung PM991a M2 2242 SSD in M2 E+A key slot.
- PNY CS3040 1TB M2 2280 SSD in het PCH M2 slot

Configuratie:
- Proxmox 8.4 zonder VM's draaiend
- Powertop 2.15 gecompileerd met alle tunables op good
- 1GBe verbinding met de onboard i219LM netwerk controller (met AMT aan)
- Onboard audio, serial en tweede ethernet controller i226LM disabled
- PL2 en PL4 beperkt tot 75 watt
- Geen display aangesloten

Stroomverbruik gemeten met de bekende Brennenstuhl PM 231 E DE 3655 kWh meter

Absoluut laagste idle verbruik: 5,6 watt
Ben in verwarring door je laatste zin. Is 5.6w het idle verbruik of niet 😊 of schommelt het erg?

[ Voor 3% gewijzigd door roedi06 op 21-06-2025 11:51 ]


Acties:
  • +1 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 23:22
daansan schreef op donderdag 19 juni 2025 @ 19:10:
[...]


Ik lijk mijn post niet meer te kunnen aanpassen, maar ik heb het verbruik gemeten.

Hardware:
- Kontron K3842-Q2
- i5 13500 met Noctua NH-L12S CPU cooler
- Noctua NF-A8 PWM case fan
- Be Quiet Pure Power 12M 550W voeding
- 2 x 32GB DDR5 5200 Corsair Vengeance
- Samsung PM991a M2 2242 SSD in M2 E+A key slot.
- PNY CS3040 1TB M2 2280 SSD in het PCH M2 slot

Configuratie:
- Proxmox 8.4 zonder VM's draaiend
- Powertop 2.15 gecompileerd met alle tunables op good
- 1GBe verbinding met de onboard i219LM netwerk controller (met AMT aan)
- Onboard audio, serial en tweede ethernet controller i226LM disabled
- PL2 en PL4 beperkt tot 75 watt
- Geen display aangesloten

Stroomverbruik gemeten met de bekende Brennenstuhl PM 231 E DE 3655 kWh meter

Absoluut laagste idle verbruik: 5,6 watt
Mooi resultaat. Voor verbruik maakt het niet meer uit bij kontron en wellicht andere partijen. Of je het CPU M2 slot gebruikt of de pch. Wellicht geeft CPU slot wel betere prestaties.

Acties:
  • 0 Henk 'm!

  • Videopac
  • Registratie: November 2000
  • Laatst online: 23:44

Videopac

Rommelt wat aan.

Mars Warrior schreef op donderdag 12 juni 2025 @ 17:02:
[...]
Zelfs met 50 actieve containers
[…]
Uit interesse en voor inspiratie: wat heb je zoal in containers draaien?
[..]
VMs gebruik ik dan weer niet: volstrekt onnodig tot nu toe.
[…]
Gebruik je Home Assistant?

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)


Acties:
  • +1 Henk 'm!

  • eymey
  • Registratie: Februari 2000
  • Laatst online: 00:23
Videopac schreef op zaterdag 21 juni 2025 @ 18:09:
[...]

Uit interesse en voor inspiratie: wat heb je zoal in containers draaien?

[...]

Gebruik je Home Assistant?
Ben ik ook benieuwd naar :)

Home Assistant kan ook allemaal in dockers, maar het fijne aan Home Assistant als 'all in one' OS (en dus op een VM) vind ik dan weer dat ik er amper omkijken naar heb. Addons en andere zaken worden gewoon makkelijk geïnstalleerd en ook automatisch bijgewerkt.

Als ik naar een server zonder VMs zou willen, dan zou ik ook voor m'n OPNSense een alternatief moeten gaan bedenken (dedicated chinees kastje, of toch een Unifi Cloud gateway, maar bij die laatste wordt het nog heel erg afwachten wat die in mijn situatie zou gaan verbruiken. Weet niet of dat efficienter wordt dan wat een OPNSense VM doet :)

Ik zit zelf ook nog steeds na te denken over een upgrade van m'n huidige Shuttle DH310 met i3-8100 die nu al 6 jaar 24/7 draait en altijd rond de 15w idle zit, met uitschieters naar boven.

De nieuwe config van @daansan lijkt me ook heel interessant. Zuinig Kontron bord en een Intel i5, die E en P cores heeft :). Alleen wel mATX, dus een behuizing daarvoor zal sowieso een stuk groter worden dan mijn huidige Shuttle....

Maar een Shuttle XH510G2 met i3 of i5 staat ook nog op mijn lijst met te overwegen configs.....

Marstek Venus 5.12kWh v151, CT003 V114 DSMR4, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk


Acties:
  • +2 Henk 'm!
eymey schreef op zaterdag 21 juni 2025 @ 21:17:
Home Assistant kan ook allemaal in dockers, maar het fijne aan Home Assistant als 'all in one' OS (en dus op een VM) vind ik dan weer dat ik er amper omkijken naar heb. Addons en andere zaken worden gewoon makkelijk geïnstalleerd en ook automatisch bijgewerkt.
HA addons zijn ook gewoon Docker containers. En binnen het Docker ecosysteem zijn er ook opties tot auto update (watchtower bv).
Als ik naar een server zonder VMs zou willen, dan zou ik ook voor m'n OPNSense een alternatief moeten gaan bedenken (dedicated chinees kastje, of toch een Unifi Cloud gateway, maar bij die laatste wordt het nog heel erg afwachten wat die in mijn situatie zou gaan verbruiken. Weet niet of dat efficienter wordt dan wat een OPNSense VM doet :)
Velen zullen denk ik sowieso een gesplitste router hebben. Is ook makkelijker in onderhoud omdat je de server kunt rebooten zonder dat je internet kwijt bent (want internet is een losse doos).
* RobertMe heeft dan weer een router wat gewoon een TopTon doosje met Debian is. Met dan standaard Linux tools om "router" te regelen (firewall, DHCP, IPv6 router advertisements etc). daarnaast draait ook Docker er op met wat services. En met deze opzet overweg ik om wellicht alsnog later naar één systeem te gaan, i.p.v. nu de TopTon als router en nog een no name mini PCtje als server. Hoe ik de opzet nu heb zou dat prima te combineren moeten zijn, zonder VMs.

Acties:
  • +2 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:26
Ik ben HA niet anders gewend dan in Docker. Je maakt een Docker Compose file aan, je geeft aan wat je wil hebben en je doet 'docker compose up -d' en klaar.

Up to date houden doe ik door middel van een simpel bash script in plaats van een container (Watchtower).

Acties:
  • +2 Henk 'm!

  • eymey
  • Registratie: Februari 2000
  • Laatst online: 00:23
@RobertMe @GioStyle Ik ben me er inderdaad van bewust dat HA addons ook gewoon docker containers zijn. Maar toch, bij HA (OS) heb ik gewoon geen omkijken naar de deployment, configuratie, etc. Natuurlijk zijn er opties als Watchtower, maar dat (of werken met bash scripts) is en blijft weer iets 'extra's'

Maar goed, iedereen moet daarin zijn eigen keuze maken :). Ik sluit ook niet uit dat ik het ooit ook een keer zo ga doen.

Maar voor nu hebben VM's toch mijn voorkeur.

De standaard Linux tools gebruiken om de router op te zetten zou inderdaad natuurlijk ook gewoon kunnen (en zo heb ik eind 90's tot 2006 ook zowel bij mijn ouders thuis als bij mijn eerste baan routers en firewalls gedraaid). Maar ik ben inmiddels lui geworden :+

Marstek Venus 5.12kWh v151, CT003 V114 DSMR4, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk


Acties:
  • 0 Henk 'm!
GioStyle schreef op zaterdag 21 juni 2025 @ 21:36:
Up to date houden doe ik door middel van een simpel bash script in plaats van een container (Watchtower).
Bash script niet nodig. docker compose up -d --pull always is alles dat je nodig hebt :) (er vanuit gaande dat je een tag gebruikt die "mee beweegt" met nieuwe releases. Dus bv latest, en niet 1.2.3 als specifieke versie).

Acties:
  • +2 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:26
RobertMe schreef op zaterdag 21 juni 2025 @ 22:25:
[...]

Bash script niet nodig. docker compose up -d --pull always is alles dat je nodig hebt :) (er vanuit gaande dat je een tag gebruikt die "mee beweegt" met nieuwe releases. Dus bv latest, en niet 1.2.3 als specifieke versie).
Dat is een manier. Ik heb het als volgt: ik heb twee servers en om de dag laat ik ze via systemd door middel van een bash script updaten. Simpel gezegd kijkt het script of er nieuwe images beschikbaar zijn. Zo ja, updaten, zo niet, dan is het klaar. Voor de ene server laat ik gelijk de systeemupdates meepakken, en als er updates zijn uitgevoerd krijg ik netjes een mailtje met het resultaat. Oh ja, en het script ruimt ook even de oude images op. Zo heb ik er ook geen omkijken naar. :P

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 23:10
roedi06 schreef op zaterdag 21 juni 2025 @ 11:50:
[...]


Ben in verwarring door je laatste zin. Is 5.6w het idle verbruik of niet 😊 of schommelt het erg?
Het schommelt, 5.6 is wat ik als laagste gezien heb maar gemiddeld is het meer 7 watt denk ik.

I love it when a plan comes together!


Acties:
  • +1 Henk 'm!

  • ilm
  • Registratie: April 2014
  • Laatst online: 23:46

ilm

GioStyle schreef op zaterdag 21 juni 2025 @ 22:39:
[...]


Dat is een manier. Ik heb het als volgt: ik heb twee servers en om de dag laat ik ze via systemd door middel van een bash script updaten. Simpel gezegd kijkt het script of er nieuwe images beschikbaar zijn. Zo ja, updaten, zo niet, dan is het klaar. Voor de ene server laat ik gelijk de systeemupdates meepakken, en als er updates zijn uitgevoerd krijg ik netjes een mailtje met het resultaat. Oh ja, en het script ruimt ook even de oude images op. Zo heb ik er ook geen omkijken naar. :P
Podman auto-update! Werkt wel goed, met rollback etc.

Wel tegen alle (verstandige) internet adviezen om geen auto update te gebruiken en met specifieke docker tags te werken (om problemen bij grote veranderingen te vermijden). We zijn een beetje lui.

Acties:
  • 0 Henk 'm!
daansan schreef op zaterdag 21 juni 2025 @ 23:19:
[...]


Het schommelt, 5.6 is wat ik als laagste gezien heb maar gemiddeld is het meer 7 watt denk ik.
Maar wat ik zo zie is dat je geen optimalisaties van Proxmox gedaan hebt? Zo draait Proxmox bv een daemon die elke X seconden statistieken verzameld en opslaat (voor het dashboard dus) dat een redelijke aanslag op het verbruik geeft. Die 5,6W vs 7W kan dus zomaar daar door komen. En zo zijn er ook meerdere services die alleen relevant zijn in een clusterd opzet. Een deel weet ik van dat die vervolgens een opstart conditie hebben op het bestaan van een (/het) config bestand van die service, dat standaard niet het geval is, maar ik weet niet of dat voor alle geldt.

Daarnaast draait Proxmox by default ook op het performance profile, switchen naar powersafe kan dus ook nog een verschil maken.

Acties:
  • 0 Henk 'm!

  • manusjevanalles
  • Registratie: Januari 2009
  • Laatst online: 01:19
RobertMe schreef op zondag 22 juni 2025 @ 11:15:
[...]

Maar wat ik zo zie is dat je geen optimalisaties van Proxmox gedaan hebt? Zo draait Proxmox bv een daemon die elke X seconden statistieken verzameld en opslaat (voor het dashboard dus) dat een redelijke aanslag op het verbruik geeft. Die 5,6W vs 7W kan dus zomaar daar door komen. En zo zijn er ook meerdere services die alleen relevant zijn in een clusterd opzet. Een deel weet ik van dat die vervolgens een opstart conditie hebben op het bestaan van een (/het) config bestand van die service, dat standaard niet het geval is, maar ik weet niet of dat voor alle geldt.

Daarnaast draait Proxmox by default ook op het performance profile, switchen naar powersafe kan dus ook nog een verschil maken.
Hoe stel je die daemon goed in op powersave?

☀️ 6440 Wp zuid | 🌡️ Stiebel Eltron WPL 15 ACS, HM Trend | Home Assistant


Acties:
  • 0 Henk 'm!

  • Church of Noise
  • Registratie: April 2006
  • Laatst online: 16:43

Church of Noise

Drive it like you stole it

Heeft hier iemand toevallig ooit metingen gedaan op hetzelfde systeem met enerzijds Debian + Home Assistant supervised (met de nodige tweaks zoals in dit topic veelvuldig beschreven) en anderzijds HAOS?

Gezien de recente aankondiging dat HA Supervised deprecated en unsupported wordt (...), lijkt het interessant dat te weten. Ik heb wat opzoekwerk gedaan en hoorde dat er toch 'behoorlijk' wat verschil op zat (in absolute termen niet veel , maar in relatieve termen wel.
Eventueel doe ik het zelf ook eens, maar dat zal enkele weken moeten wachten.

Acties:
  • 0 Henk 'm!
manusjevanalles schreef op zondag 22 juni 2025 @ 11:43:
[...]


Hoe stel je die daemon goed in op powersave?
Powersave staat los van de daemon. V.w.b. daemons heb ik ooit deze geplaatst in dit topic:
systemctl disable --now pve-daily-update pve-ha-{crm,lrm} corosync spiceproxy


Evt daar nog "pvestatd" aan toevoegen om ook geen statistieken meer te verzamelen (waarmee je dus wel informatie gaat missen in de webui, maar ook de grootste invloed op het verbruik zal hebben).

Acties:
  • 0 Henk 'm!

  • manusjevanalles
  • Registratie: Januari 2009
  • Laatst online: 01:19
RobertMe schreef op zondag 22 juni 2025 @ 11:53:
[...]

Powersave staat los van de daemon. V.w.b. daemons heb ik ooit deze geplaatst in dit topic:
systemctl disable --now pve-daily-update pve-ha-{crm,lrm} corosync spiceproxy


Evt daar nog "pvestatd" aan toevoegen om ook geen statistieken meer te verzamelen (waarmee je dus wel informatie gaat missen in de webui, maar ook de grootste invloed op het verbruik zal hebben).
Dank! Moet je dit eenmalig invoeren of bij elke reboot opnieuw?

☀️ 6440 Wp zuid | 🌡️ Stiebel Eltron WPL 15 ACS, HM Trend | Home Assistant


Acties:
  • +1 Henk 'm!
manusjevanalles schreef op zondag 22 juni 2025 @ 11:56:
[...]


Dank! Moet je dit eenmalig invoeren of bij elke reboot opnieuw?
Eenmalig. "disable" schakelt (het automatisch opstarten van) de services uit, door "--now" worden ze ook onmiddellijk gestopt (dus "geen reboot nodig voordat je het merkt).

Als test puur stoppen (maar dan starten ze dus weer automatisch op tijdens boot) kun je "disable --now" vervangen door "stop". Dus "systemctl stop <lijst van services>".

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 23:10
RobertMe schreef op zondag 22 juni 2025 @ 11:15:
[...]

Maar wat ik zo zie is dat je geen optimalisaties van Proxmox gedaan hebt? Zo draait Proxmox bv een daemon die elke X seconden statistieken verzameld en opslaat (voor het dashboard dus) dat een redelijke aanslag op het verbruik geeft. Die 5,6W vs 7W kan dus zomaar daar door komen. En zo zijn er ook meerdere services die alleen relevant zijn in een clusterd opzet. Een deel weet ik van dat die vervolgens een opstart conditie hebben op het bestaan van een (/het) config bestand van die service, dat standaard niet het geval is, maar ik weet niet of dat voor alle geldt.

Daarnaast draait Proxmox by default ook op het performance profile, switchen naar powersafe kan dus ook nog een verschil maken.
Dat klopt, zover ben ik nog niet gekomen (powersave profile al wel ingesteld, maar de rest nog niet). Eerste issue wat ik nu heb is dat de i226LM 2.5gbe nic helemaal niet aan ASPM doet onder proxmox. Nog geen idee hoe ik dat gefikst krijg.

I love it when a plan comes together!


Acties:
  • +2 Henk 'm!
Videopac schreef op zaterdag 21 juni 2025 @ 18:09:
[...]

Uit interesse en voor inspiratie: wat heb je zoal in containers draaien?

[...]

Gebruik je Home Assistant?
eymey schreef op zaterdag 21 juni 2025 @ 21:17:
[...]


Ben ik ook benieuwd naar :)
Vanzelfsprekend gebruik ik Home Assistant: maar dan dus de core container versie.

Ik gebruik oa:
  • Dawarich (dawarich-app, dawarich-db, dawarich-photon, dawarich-redis en dawarich-sidekiq)
  • Diverse Javascript Dev Containers
  • Diverse Static file servers (om de apps te servicen uit de Dev Containers)
  • Adguard (dns-adguard, dns-unbound en dns-adguard-sync)
  • Diverse Documentatie (Material for MkDocs tbv Dev Container documentatie)
  • Wikijs (docs-wikidb, docs-wikijs)
  • Home Assistant (ha-dsmr, ha-dsmrdb, ha-homeassistant, ha-mosquitto, ha-zigbee2mqtt)
  • Diverse Aapanel voor Website hosting (is eigenlijk bedoeld voor VPS of VM, maar doet het gewoon in Docker)
  • Immich (immich_postgres, immich_redis, immich_server)
  • CrateDB
  • Cribl (master en worker)
  • n8n
  • Redis
  • Tableau Server (eigenlijk bedoeld voor VPS/VM, 100 processen, draait dus toch in Docker)
  • Caddy
  • Crashplan
  • Fail2Ban
  • Gotify / Pushtify
  • sftpgo
  • WireGuard
  • InfluxDb
  • Telegraf
  • Jupyter
  • TabPy
  • Plugsy
  • Portainer
  • Splunk
  • Vaultwarden
Een aantal containers zijn dus eigenlijk VMs, of bedoeld als VM, maar die dus ook in docker containers kunnen draaien. Zonder enig probleem. Ik maak dus ook regelmatig eigen containers.

n8n levert gewoon een container, maar ik wil Python scripts / Machine learning kunnen aanroepen, en dus heb ik de standaard container uitgebreid met Python en ML libs om maar een voorbeeld te noemen.

[ Voor 10% gewijzigd door Mars Warrior op 22-06-2025 18:15 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
Mars Warrior schreef op zondag 22 juni 2025 @ 16:15:
[...]


[...]

Vanzelfsprekend gebruik ik Home Assistant: maar dan dus de core versie.
offtopic:
container niet core. Core versie is rechtstreeks de Python code zelf downloaden en uitvoeren. Waarbij core ook een van de opties is die binnenkort niet meer ondersteund wordt (maar wel is wat de developers zelf gebruiken als programmeer omgeving).


Heb je wel eens VictoriaMatrics overwogen i.p.v. Influx? Die schijnt lichter (lager resources verbruik) te zijn dan zowel Prometheus als Influx. En ondersteund qua ingestion de protocollen van beiden. Alleen queryen kan alleen via "MetricQL", dat dan weer een spin op "PromQL" is oftewel "van Prometheus". Maar met Influx die niet weet welke query methode ze willen hebben (beginnen met SQL in v1, later flux toevoegen, v2 uitbrengen met alleen flux support en vervolgens in v3 weer alleen SQL) wil je mogelijk toch al niet vast zitten aan Influx voor het weer ophalen van de data.

Acties:
  • 0 Henk 'm!
RobertMe schreef op zondag 22 juni 2025 @ 16:44:
[...]

offtopic:
container niet core. Core versie is rechtstreeks de Python code zelf downloaden en uitvoeren. Waarbij core ook een van de opties is die binnenkort niet meer ondersteund wordt (maar wel is wat de developers zelf gebruiken als programmeer omgeving).
Ik haal ze altijd door de war :X
Heb je wel eens VictoriaMatrics overwogen i.p.v. Influx? Die schijnt lichter (lager resources verbruik) te zijn dan zowel Prometheus als Influx. En ondersteund qua ingestion de protocollen van beiden. Alleen queryen kan alleen via "MetricQL", dat dan weer een spin op "PromQL" is oftewel "van Prometheus". Maar met Influx die niet weet welke query methode ze willen hebben (beginnen met SQL in v1, later flux toevoegen, v2 uitbrengen met alleen flux support en vervolgens in v3 weer alleen SQL) wil je mogelijk toch al niet vast zitten aan Influx voor het weer ophalen van de data.
Ik gebruik InfluxDB voor zowel opslag als presentatie, dus ff geen idee of ik veel te maken heb met het taaltje. Omdat het zowel db als presentatie is, vond ik dat lekker handig. Ik kijk namelijk voornamelijk naar het verbruik van de CPU Package. Veel meer verzamel ik niet, omdat ik met andere dingen toch niks doe.

VictoriaMetrics ken ik ook niet overigens. Prometheus is een waterhoofd qua resources, dus die gebruik ik sowieso niet.

Bij mijn testen in 2023 kwam Influx/Telegraf eruit als diegene met de laagste CPU load: 600MB RAM en 0.1% CPU volgens Portainer. Telegraf voegt daar nog 45MB RAM aan toe en wederom 0.1% CPU.

Ik vermoed niet dat daar dus heel veel te winnen valt in kWhs.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 23:10
Heeft iemand hier ervaring met het zuinig aan de praat krijgen van een Intel i226lm nic onder linux?

Ik ben onder Ubuntu aan het testen, ASPM staat volgens lspci -vvv gewoon aan op deze nic maar toch schiet het idle verbruik omhoog van 5,4w naar 17,4w op het moment dat ik er een kabel in stop. Ik haal met de ethernet kabel in de i226lm aangesloten ook alleen nog maar C2 states volgens powertop.

eee stond uit maar aanzetten heeft geen zin, hij geeft dan aan "EEE status: enabled - inactive" en het verbruik blijft dan 17,4w.

Iemand een idee?

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 23:22
daansan schreef op maandag 23 juni 2025 @ 15:36:
Heeft iemand hier ervaring met het zuinig aan de praat krijgen van een Intel i226lm nic onder linux?

Ik ben onder Ubuntu aan het testen, ASPM staat volgens lspci -vvv gewoon aan op deze nic maar toch schiet het idle verbruik omhoog van 5,4w naar 17,4w op het moment dat ik er een kabel in stop. Ik haal met de ethernet kabel in de i226lm aangesloten ook alleen nog maar C2 states volgens powertop.

eee stond uit maar aanzetten heeft geen zin, hij geeft dan aan "EEE status: enabled - inactive" en het verbruik blijft dan 17,4w.

Iemand een idee?
Ik heb een pci-x i226 netwerkkaart. Hiermee haal ik c6 of c8 (weet ik even niet zeker) in proxmox. Hem limiteren op 100mbit verhoogde de c-state met 1 stap (maar dit wil je normaliter niet). Eee werkt alleen als de ander kant van de lijn dit ook ondersteund.

Draait je poort op 2.5gb of 1gb?

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 23:10
Mich schreef op maandag 23 juni 2025 @ 20:20:
[...]


Ik heb een pci-x i226 netwerkkaart. Hiermee haal ik c6 of c8 (weet ik even niet zeker) in proxmox. Hem limiteren op 100mbit verhoogde de c-state met 1 stap (maar dit wil je normaliter niet). Eee werkt alleen als de ander kant van de lijn dit ook ondersteund.

Draait je poort op 2.5gb of 1gb?
Hij draait op 2.5gbe.

Als ik de kabel over prik naar de i219lm die ook op het moederbord zit gaat ie meteen naar c6 tot c10. Het is dus echt gerelateerd aan de i226

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 23:22
daansan schreef op maandag 23 juni 2025 @ 22:25:
[...]


Hij draait op 2.5gbe.

Als ik de kabel over prik naar de i219lm die ook op het moederbord zit gaat ie meteen naar c6 tot c10. Het is dus echt gerelateerd aan de i226
Met linux command line commando ethtool kan je de netwerk snelheid forceren naar 1gbit en 100 Mbit. Kijk eens wat dit met het verbruik doet. Bij mij draait hij op 1 Gbit. En is het verbruik +-1W
Pagina: 1 ... 108 109 Laatste