Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 03:16
HellStorm666 schreef op donderdag 19 juni 2025 @ 06:16:
[...]

Draai je (jullie) dan nog wel iets als truenas of unraid, of gewoon een linux distro?
En hoe doen jullie de storage laag (raid oid) dan?
En de config, alles dan via cli of een of andere web gui?
Ik heb alma linux 9 draaien gewoon cli. Onderliggend os maakt niet zoveel uit aangezien je snel terug opgestart kan zijn op een andere machine.
Als servertje gebruik ik een optiplex mff 3060 i5 met 32GB ram en 2TB ssd.
Ik heb alles draaien in aparte dockers met docker-compose.
Er kan nog veel verbeterd worden zoals betere netwerking binnen mijn containers maar dat is voor later.
Vroeger ook esxi, proxmox , truenas gedraaid maar nu is het keep it simple en stable.

Acties:
  • 0 Henk 'm!

  • jelknab
  • Registratie: Oktober 2010
  • Laatst online: 20:42
rsvmark schreef op woensdag 18 juni 2025 @ 15:51:
[...]


Hoi GioStyle,

Mijn WTR PRO (amd) is ook onderweg en net als jou wil ik Truenas op proxmox gaan draaien.
Nu lees ik echter problemen met de passthrough van de sata controller zoals hier beschreven.
Herken jij dit ?
Ik was hier tot heden niet van op de hoogte, goede find, ik zie dat mijn systeem dit inderdaad ook doet. Ik ga zelf nog even kijken of ik hier wat mee ga doen, maar wellicht is wat de anderen zeggen, geen virtualisatie, de meest makkelijke optie.

Acties:
  • 0 Henk 'm!
HellStorm666 schreef op donderdag 19 juni 2025 @ 09:08:
[...]

Nice.
Hoe bevalt dat? hoe is t qua performance? (ervaring met ZFS?)
Ach. Met MergerFS niks te klagen. Maar dat is ook voornamelijk statische data of data waar elke dag een beetje aan wordt toegevoegd. Niks dat een backup (Crashplan) en SnapRaid niet eenvoudig aankan.

Alle zaken die performance vragen staan op SSD.

ZFS gebruik ik niet meer. Ik zag het nut ook niet meer en had onvoldoede SATA aansluitingen.

Ik kan nog één NVME SSD toevoegen en dan zit het Kontron mobo vol qua aansluitingen, tenzij ik PCIe kaarten ga toevoegen, maar dat is nu niet nodig en zal het verbruik ook flink omhoog gooien.

Mijn 13900K staat overigens per core teruggeklokt, zodat ik op een TDP van rond de 100-125W uitkom. E-cores op 3Ghz max en P-Cores wisselend op 4-4.5Ghz. De laatste Ghz kost onnodig veel kWhs.

Elke docker container is toewegezen aan een cluster cores. Dus zelfs al gaat 1 container over de zeik, dan kan ik altijd nog ingrijpen omdat er voldoende CPU over is om interactief te werken.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
Mars Warrior schreef op donderdag 19 juni 2025 @ 11:11:
ZFS gebruik ik niet meer. Ik zag het nut ook niet meer en had onvoldoede SATA aansluitingen.
Ik denk niet dat het aantal SATA poorten uit maakt voor ZFS vs iets anders? :p Bij snapraid heb je immers AFAIK nog steeds hetzelfde? Bv een RAID5 / RAIDZ1 / "x data disks met 1x parity", dus dat kost net zoveel poorten.
Ik kan nog één NVME SSD toevoegen en dan zit het Kontron mobo vol qua aansluitingen, tenzij ik PCIe kaarten ga toevoegen, maar dat is nu niet nodig en zal het verbruik ook flink omhoog gooien.
Gezien je begint met "nog een NVME kan". Als je meer NVME wilt toevoegen, met een PCIe / M.2 adapter, dan zal dat geen / nauwelijks extra verbruik toevoegen. NVME is gewoon bovenop PCIe direct en M.2 is puur een andere form factor dan PCIe x4. Zo'n adapter is dus vrij letterlijk 2 aansluitingen (PCIe + M.2) die direct aan elkaar gesoldeerd zitten. Er zitten verder dus geen stroom verbruikende componenten op zo'n bordje. Hoogstens dat iets van een power ledje op zo'n bordje zit dat een eigen verbruik heeft.
Wil je extra SATA poorten gaat het uiteraard wel met een extra SATA chip met een eigen verbruik. Waarbij zuinige wel ergens in de 1W zitten dus relatief absoluut zuinig zijn. Maar bij een systeem dat idle 4W verbruikt is 1W extra natuurlijk wel meteen 25% extra dus relatief veel :+.

Acties:
  • 0 Henk 'm!
RobertMe schreef op donderdag 19 juni 2025 @ 11:57:
[...]

Ik denk niet dat het aantal SATA poorten uit maakt voor ZFS vs iets anders? :p Bij snapraid heb je immers AFAIK nog steeds hetzelfde? Bv een RAID5 / RAIDZ1 / "x data disks met 1x parity", dus dat kost net zoveel poorten.
Ik doelde op de mix van ZFS en MergerFS/SnapRaid. Daardoor kwam ik SATA poorten te kort.
Aangezien al het echte werk op SSD staat, en de disken voornamelijk statische data bevatten (foto's, films, backups) vond ik MerferFS/SnapRaid een combi die beter voldeed en voor mij eenvoudiger was.
[...]
Gezien je begint met "nog een NVME kan". Als je meer NVME wilt toevoegen, met een PCIe / M.2 adapter, dan zal dat geen / nauwelijks extra verbruik toevoegen. NVME is gewoon bovenop PCIe direct en M.2 is puur een andere form factor dan PCIe x4. Zo'n adapter is dus vrij letterlijk 2 aansluitingen (PCIe + M.2) die direct aan elkaar gesoldeerd zitten. Er zitten verder dus geen stroom verbruikende componenten op zo'n bordje. Hoogstens dat iets van een power ledje op zo'n bordje zit dat een eigen verbruik heeft.
Wil je extra SATA poorten gaat het uiteraard wel met een extra SATA chip met een eigen verbruik. Waarbij zuinige wel ergens in de 1W zitten dus relatief absoluut zuinig zijn. Maar bij een systeem dat idle 4W verbruikt is 1W extra natuurlijk wel meteen 25% extra dus relatief veel :+.
Je hebt gelijk. Ik was in de war met SATA SSD aansluitingen. Daar heb je altijd een contoller voor nodig.
Kontron heeft standaard 2x M.2 80 aansluitingen. 1 is nu in gebruik door een Intel SSD op PCIe 3, dus niet eens het snelste wat je kunt krijgen.

Maar het voldoet, zelfs met zo'n berg containers.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
Mars Warrior schreef op donderdag 19 juni 2025 @ 12:33:
Kontron heeft standaard 2x M.2 80 aansluitingen. 1 is nu in gebruik door een Intel SSD op PCIe 3, dus niet eens het snelste wat je kunt krijgen.

Maar het voldoet, zelfs met zo'n berg containers.
Zowel mijn TopTon "zachte router" als no name Chinese mini PC (in dienst als respectievelijk router en servertje) hebben beiden een Intel N5105 CPU, en door het beperkte aantal PCIe lanes op de CPU zit het M.2 slot maar met 1 of 2 lanes aangesloten (+ is maar PCIe 3) en ook dat voldoet an zich prima.

Maar ook niet perse heel gek. We hebben het hier over zuinige thuisservers, en niet over workstations :p Dus de zwaarste I/O zal vaak uit NAS (achtige) toepassingen komen. En dan zit de bottleneck eerder in het netwerk. Immers doet een lekker ouderwetse 3,5" HDD ook minimaal iets van rond de 200MByte/s, maal 8 is 1600Mbit/s. Toch wel ietjes hoger dan de ~940Mbit/s die je maximaal over een gigabit netwerk behaald. En met een vorm van RAID (/striping / mirroring) halen meerdere schijven ook alweer hogere snelheden. Laat staan wat SATA SSDs doen (die kunnen gewoon de 6GBit/s link speed dicht trekken? Voldoende dus voor een 5Gbit/s netwerk). De snelheden van NVME zijn dan ook eigenlijk zwaar overdreven (sowieso voor een NAS /thuisserver, maar ook al voor 99% van de normale ("consumenten") PCs, alleen gaming kan het merkbaar zijn in laadtijden wellicht? En andere toepassingen gaat al weer sneller richting "werk").

Enige waarin ik hogere snelheden zelf zou merken in mijn systemen is een ZFS scrub. De 400GB op de NVME drive doet die nu ~15 minuten over. Met een gewoon x4 slot zou daar potentieel maar de helft of een kwart voor nodig zijn.
En vorige week was een 14TB schijf (in "NAS", Fujitsu bord met i3-9100) overleden. Die resilver duurde dan wel 19 uur, en zou met SSDs sneller zijn geweest. Maar natuurlijk ook doordat SSDs in die capaciteit niet bestaan / onbetaalbaar zijn en daardoor bij één overleden SSD er maar 4 of 8 TB geresilverd hoefde te worden :+

Acties:
  • 0 Henk 'm!

  • Gu357
  • Registratie: Februari 2012
  • Laatst online: 12-09 12:28
Misschien is het al genoemd maar aan de hand van de toepassing kan een NAS (Qnap/Synology) met Docker ook een goedkope en zuinige oplossing zijn.

Acties:
  • +5 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 14:46
andru123 schreef op zondag 15 juni 2025 @ 16:20:
@daansan kan je ook het verbruik aan je post toevoegen?
Ik lijk mijn post niet meer te kunnen aanpassen, maar ik heb het verbruik gemeten.

Hardware:
- Kontron K3842-Q2
- i5 13500 met Noctua NH-L12S CPU cooler
- Noctua NF-A8 PWM case fan
- Be Quiet Pure Power 12M 550W voeding
- 2 x 32GB DDR5 5200 Corsair Vengeance
- Samsung PM991a M2 2242 SSD in M2 E+A key slot.
- PNY CS3040 1TB M2 2280 SSD in het PCH M2 slot

Configuratie:
- Proxmox 8.4 zonder VM's draaiend
- Powertop 2.15 gecompileerd met alle tunables op good
- 1GBe verbinding met de onboard i219LM netwerk controller (met AMT aan)
- Onboard audio, serial en tweede ethernet controller i226LM disabled
- PL2 en PL4 beperkt tot 75 watt
- Geen display aangesloten

Stroomverbruik gemeten met de bekende Brennenstuhl PM 231 E DE 3655 kWh meter

Absoluut laagste idle verbruik: 5,6 watt

I love it when a plan comes together!


Acties:
  • +1 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Mars Warrior schreef op woensdag 18 juni 2025 @ 16:00:
[...]

Allemaal geen schokkende zaken dus voor een gemiddelde zuinige Intel CPU. Dus dat is het probleem niet om dit op een server te draaien die 4W idle doet.

Echter je hebt nu wel een systeem met enorm veel dubbelingen qua schijven enzo. En dat enkel voor de bertrouwbaarheid begrijp ik?

Met 1 NVME SSD van 2 of 4TB en wat schijven moet je toch makkelijk functioneel uitkomen.
Zaken als Proxmox, ZFS etc. zijn allemaal keuzes.

Ik draai zelf geen VM's meer: alles in Docker containers (50 in totaal) op een Kontron mobo, 2TB Intel SSD, 13900K CPU en 128GB RAM. Netwerk is gewoon 1Gbit.
Idle zonder 2.5" schijven rond de 4W. Met de 4 schijven (3x data + 1x Snapraid parity) is dat wat meer.

Het is maar net wat je wilt.

Hoeveel verbruikt de server zelf nu? Want dat getal van 330W is toch totaal?


[...]

3 tot 5 jaar maar? Ik doe meestal 10 jaar met mijn hardware :*)
In overleg toch een watt meter er tussen kunnen drukken.
Van de 320W totaal verbruik is 177W puur en alleen de server tijdens normaal "idle" gebruik.
Wordt nu niet iets binnen gehaald, bekeken of gebackupped.
Dat is dus met alle 9 drives aan (zfs kent geen poweroff), 2x sata ssd en 2x nvme ssd.

Alles naar zo'n Aoostar WTR Max en 6 disks + 2nvme zal wel flink schelen denk ik zo. En dan TrueNAS, OMV of Proxmox er op. (Of Hexos of Unraid ;) )

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!
HellStorm666 schreef op donderdag 19 juni 2025 @ 20:43:
[...]

In overleg toch een watt meter er tussen kunnen drukken.
Van de 320W totaal verbruik is 177W puur en alleen de server tijdens normaal "idle" gebruik.
Wordt nu niet iets binnen gehaald, bekeken of gebackupped.
Dat is dus met alle 9 drives aan (zfs kent geen poweroff), 2x sata ssd en 2x nvme ssd.

Alles naar zo'n Aoostar WTR Max en 6 disks + 2nvme zal wel flink schelen denk ik zo. En dan TrueNAS, OMV of Proxmox er op. (Of Hexos of Unraid ;) )
Help. Dat is meer dan mijn hele huis met ingeschakelde Amerikaanse koelkast 😳

Die Aoostar is een aardig beest en doet zonder schijven al 20W. Voor een zuinige server veel, maar het verschil met die 177W is natuurlijk gigantisch.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

HellStorm666 schreef op donderdag 19 juni 2025 @ 20:43:
[...]

Dat is dus met alle 9 drives aan (zfs kent geen poweroff), 2x sata ssd en 2x nvme ssd.
Spindown is dan ook iets wat de schijven (kunnen) doen na een tijdje inactiviteit, daar heeft het filesystem niet zo veel mee te maken. Wat wel kan uitmaken is hoe veel de pools gebruikt worden, want als er regelmatig wat opgevraagd of geschreven wordt moet wel de hele pool (weer) aan staan. Zo gaan de schijven van mijn pool voor de backups na 20 minuten (dacht ik) inactiviteit uit, en daarmee bespaar ik het grootste deel van de dag weer 15W.

Acties:
  • +1 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Aoostar WTR Max is besteld ;)
Plan voor nu:
1x SSD voor OS
2x NVMe 2TB in mirror voor Fast Storage
5x 14TB in Raid-Z1 of MargerFS met SnapRAID voor storage
1x 14TB als PBS en backup van foto's (1x per dag)
En dan 1x per week de oude NAS laten opspinnen voor een backup van de backup disk.

Gezien PMS ook Proxmox adviseert en ik daar al bekend mee ben, die maar weer gebruiken.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • +2 Henk 'm!

  • Ankh
  • Registratie: Mei 2001
  • Laatst online: 16:14

Ankh

|true

Jeetje, dit is toch wel top van hardkernel. De Type 3 case voor de odroid H4 generatie is aangepast zodat er nu 4x 2,5" disken in passen: https://www.hardkernel.com/shop/odroid-h4-case-type-3/
Ik had dit verzoek op het forum gedaan: https://forum.odroid.com/viewtopic.php?f=168&t=49560
Nu nog alleen zorgen voor een aangepaste versie...

-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8


Acties:
  • 0 Henk 'm!

  • roedi06
  • Registratie: Mei 2006
  • Laatst online: 15-09 21:49
daansan schreef op donderdag 19 juni 2025 @ 19:10:
[...]


Ik lijk mijn post niet meer te kunnen aanpassen, maar ik heb het verbruik gemeten.

Hardware:
- Kontron K3842-Q2
- i5 13500 met Noctua NH-L12S CPU cooler
- Noctua NF-A8 PWM case fan
- Be Quiet Pure Power 12M 550W voeding
- 2 x 32GB DDR5 5200 Corsair Vengeance
- Samsung PM991a M2 2242 SSD in M2 E+A key slot.
- PNY CS3040 1TB M2 2280 SSD in het PCH M2 slot

Configuratie:
- Proxmox 8.4 zonder VM's draaiend
- Powertop 2.15 gecompileerd met alle tunables op good
- 1GBe verbinding met de onboard i219LM netwerk controller (met AMT aan)
- Onboard audio, serial en tweede ethernet controller i226LM disabled
- PL2 en PL4 beperkt tot 75 watt
- Geen display aangesloten

Stroomverbruik gemeten met de bekende Brennenstuhl PM 231 E DE 3655 kWh meter

Absoluut laagste idle verbruik: 5,6 watt
Ben in verwarring door je laatste zin. Is 5.6w het idle verbruik of niet 😊 of schommelt het erg?

[ Voor 3% gewijzigd door roedi06 op 21-06-2025 11:51 ]


Acties:
  • +1 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 16:15
daansan schreef op donderdag 19 juni 2025 @ 19:10:
[...]


Ik lijk mijn post niet meer te kunnen aanpassen, maar ik heb het verbruik gemeten.

Hardware:
- Kontron K3842-Q2
- i5 13500 met Noctua NH-L12S CPU cooler
- Noctua NF-A8 PWM case fan
- Be Quiet Pure Power 12M 550W voeding
- 2 x 32GB DDR5 5200 Corsair Vengeance
- Samsung PM991a M2 2242 SSD in M2 E+A key slot.
- PNY CS3040 1TB M2 2280 SSD in het PCH M2 slot

Configuratie:
- Proxmox 8.4 zonder VM's draaiend
- Powertop 2.15 gecompileerd met alle tunables op good
- 1GBe verbinding met de onboard i219LM netwerk controller (met AMT aan)
- Onboard audio, serial en tweede ethernet controller i226LM disabled
- PL2 en PL4 beperkt tot 75 watt
- Geen display aangesloten

Stroomverbruik gemeten met de bekende Brennenstuhl PM 231 E DE 3655 kWh meter

Absoluut laagste idle verbruik: 5,6 watt
Mooi resultaat. Voor verbruik maakt het niet meer uit bij kontron en wellicht andere partijen. Of je het CPU M2 slot gebruikt of de pch. Wellicht geeft CPU slot wel betere prestaties.

Acties:
  • 0 Henk 'm!

  • Videopac
  • Registratie: November 2000
  • Laatst online: 19:54

Videopac

Rommelt wat aan.

Mars Warrior schreef op donderdag 12 juni 2025 @ 17:02:
[...]
Zelfs met 50 actieve containers
[…]
Uit interesse en voor inspiratie: wat heb je zoal in containers draaien?
[..]
VMs gebruik ik dan weer niet: volstrekt onnodig tot nu toe.
[…]
Gebruik je Home Assistant?

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)


Acties:
  • +1 Henk 'm!

  • eymey
  • Registratie: Februari 2000
  • Nu online
Videopac schreef op zaterdag 21 juni 2025 @ 18:09:
[...]

Uit interesse en voor inspiratie: wat heb je zoal in containers draaien?

[...]

Gebruik je Home Assistant?
Ben ik ook benieuwd naar :)

Home Assistant kan ook allemaal in dockers, maar het fijne aan Home Assistant als 'all in one' OS (en dus op een VM) vind ik dan weer dat ik er amper omkijken naar heb. Addons en andere zaken worden gewoon makkelijk geïnstalleerd en ook automatisch bijgewerkt.

Als ik naar een server zonder VMs zou willen, dan zou ik ook voor m'n OPNSense een alternatief moeten gaan bedenken (dedicated chinees kastje, of toch een Unifi Cloud gateway, maar bij die laatste wordt het nog heel erg afwachten wat die in mijn situatie zou gaan verbruiken. Weet niet of dat efficienter wordt dan wat een OPNSense VM doet :)

Ik zit zelf ook nog steeds na te denken over een upgrade van m'n huidige Shuttle DH310 met i3-8100 die nu al 6 jaar 24/7 draait en altijd rond de 15w idle zit, met uitschieters naar boven.

De nieuwe config van @daansan lijkt me ook heel interessant. Zuinig Kontron bord en een Intel i5, die E en P cores heeft :). Alleen wel mATX, dus een behuizing daarvoor zal sowieso een stuk groter worden dan mijn huidige Shuttle....

Maar een Shuttle XH510G2 met i3 of i5 staat ook nog op mijn lijst met te overwegen configs.....

Marstek Venus 5.12kWh v151, CT002 V118, CT003 V116 DSMR5.5, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk.


Acties:
  • +2 Henk 'm!
eymey schreef op zaterdag 21 juni 2025 @ 21:17:
Home Assistant kan ook allemaal in dockers, maar het fijne aan Home Assistant als 'all in one' OS (en dus op een VM) vind ik dan weer dat ik er amper omkijken naar heb. Addons en andere zaken worden gewoon makkelijk geïnstalleerd en ook automatisch bijgewerkt.
HA addons zijn ook gewoon Docker containers. En binnen het Docker ecosysteem zijn er ook opties tot auto update (watchtower bv).
Als ik naar een server zonder VMs zou willen, dan zou ik ook voor m'n OPNSense een alternatief moeten gaan bedenken (dedicated chinees kastje, of toch een Unifi Cloud gateway, maar bij die laatste wordt het nog heel erg afwachten wat die in mijn situatie zou gaan verbruiken. Weet niet of dat efficienter wordt dan wat een OPNSense VM doet :)
Velen zullen denk ik sowieso een gesplitste router hebben. Is ook makkelijker in onderhoud omdat je de server kunt rebooten zonder dat je internet kwijt bent (want internet is een losse doos).
* RobertMe heeft dan weer een router wat gewoon een TopTon doosje met Debian is. Met dan standaard Linux tools om "router" te regelen (firewall, DHCP, IPv6 router advertisements etc). daarnaast draait ook Docker er op met wat services. En met deze opzet overweg ik om wellicht alsnog later naar één systeem te gaan, i.p.v. nu de TopTon als router en nog een no name mini PCtje als server. Hoe ik de opzet nu heb zou dat prima te combineren moeten zijn, zonder VMs.

Acties:
  • +2 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 20:41
Ik ben HA niet anders gewend dan in Docker. Je maakt een Docker Compose file aan, je geeft aan wat je wil hebben en je doet 'docker compose up -d' en klaar.

Up to date houden doe ik door middel van een simpel bash script in plaats van een container (Watchtower).

Acties:
  • +2 Henk 'm!

  • eymey
  • Registratie: Februari 2000
  • Nu online
@RobertMe @GioStyle Ik ben me er inderdaad van bewust dat HA addons ook gewoon docker containers zijn. Maar toch, bij HA (OS) heb ik gewoon geen omkijken naar de deployment, configuratie, etc. Natuurlijk zijn er opties als Watchtower, maar dat (of werken met bash scripts) is en blijft weer iets 'extra's'

Maar goed, iedereen moet daarin zijn eigen keuze maken :). Ik sluit ook niet uit dat ik het ooit ook een keer zo ga doen.

Maar voor nu hebben VM's toch mijn voorkeur.

De standaard Linux tools gebruiken om de router op te zetten zou inderdaad natuurlijk ook gewoon kunnen (en zo heb ik eind 90's tot 2006 ook zowel bij mijn ouders thuis als bij mijn eerste baan routers en firewalls gedraaid). Maar ik ben inmiddels lui geworden :+

Marstek Venus 5.12kWh v151, CT002 V118, CT003 V116 DSMR5.5, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk.


Acties:
  • 0 Henk 'm!
GioStyle schreef op zaterdag 21 juni 2025 @ 21:36:
Up to date houden doe ik door middel van een simpel bash script in plaats van een container (Watchtower).
Bash script niet nodig. docker compose up -d --pull always is alles dat je nodig hebt :) (er vanuit gaande dat je een tag gebruikt die "mee beweegt" met nieuwe releases. Dus bv latest, en niet 1.2.3 als specifieke versie).

Acties:
  • +2 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 20:41
RobertMe schreef op zaterdag 21 juni 2025 @ 22:25:
[...]

Bash script niet nodig. docker compose up -d --pull always is alles dat je nodig hebt :) (er vanuit gaande dat je een tag gebruikt die "mee beweegt" met nieuwe releases. Dus bv latest, en niet 1.2.3 als specifieke versie).
Dat is een manier. Ik heb het als volgt: ik heb twee servers en om de dag laat ik ze via systemd door middel van een bash script updaten. Simpel gezegd kijkt het script of er nieuwe images beschikbaar zijn. Zo ja, updaten, zo niet, dan is het klaar. Voor de ene server laat ik gelijk de systeemupdates meepakken, en als er updates zijn uitgevoerd krijg ik netjes een mailtje met het resultaat. Oh ja, en het script ruimt ook even de oude images op. Zo heb ik er ook geen omkijken naar. :P

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 14:46
roedi06 schreef op zaterdag 21 juni 2025 @ 11:50:
[...]


Ben in verwarring door je laatste zin. Is 5.6w het idle verbruik of niet 😊 of schommelt het erg?
Het schommelt, 5.6 is wat ik als laagste gezien heb maar gemiddeld is het meer 7 watt denk ik.

I love it when a plan comes together!


Acties:
  • +1 Henk 'm!

  • ilm
  • Registratie: April 2014
  • Laatst online: 18:18

ilm

GioStyle schreef op zaterdag 21 juni 2025 @ 22:39:
[...]


Dat is een manier. Ik heb het als volgt: ik heb twee servers en om de dag laat ik ze via systemd door middel van een bash script updaten. Simpel gezegd kijkt het script of er nieuwe images beschikbaar zijn. Zo ja, updaten, zo niet, dan is het klaar. Voor de ene server laat ik gelijk de systeemupdates meepakken, en als er updates zijn uitgevoerd krijg ik netjes een mailtje met het resultaat. Oh ja, en het script ruimt ook even de oude images op. Zo heb ik er ook geen omkijken naar. :P
Podman auto-update! Werkt wel goed, met rollback etc.

Wel tegen alle (verstandige) internet adviezen om geen auto update te gebruiken en met specifieke docker tags te werken (om problemen bij grote veranderingen te vermijden). We zijn een beetje lui.

Acties:
  • 0 Henk 'm!
daansan schreef op zaterdag 21 juni 2025 @ 23:19:
[...]


Het schommelt, 5.6 is wat ik als laagste gezien heb maar gemiddeld is het meer 7 watt denk ik.
Maar wat ik zo zie is dat je geen optimalisaties van Proxmox gedaan hebt? Zo draait Proxmox bv een daemon die elke X seconden statistieken verzameld en opslaat (voor het dashboard dus) dat een redelijke aanslag op het verbruik geeft. Die 5,6W vs 7W kan dus zomaar daar door komen. En zo zijn er ook meerdere services die alleen relevant zijn in een clusterd opzet. Een deel weet ik van dat die vervolgens een opstart conditie hebben op het bestaan van een (/het) config bestand van die service, dat standaard niet het geval is, maar ik weet niet of dat voor alle geldt.

Daarnaast draait Proxmox by default ook op het performance profile, switchen naar powersafe kan dus ook nog een verschil maken.

Acties:
  • 0 Henk 'm!

  • manusjevanalles
  • Registratie: Januari 2009
  • Nu online
RobertMe schreef op zondag 22 juni 2025 @ 11:15:
[...]

Maar wat ik zo zie is dat je geen optimalisaties van Proxmox gedaan hebt? Zo draait Proxmox bv een daemon die elke X seconden statistieken verzameld en opslaat (voor het dashboard dus) dat een redelijke aanslag op het verbruik geeft. Die 5,6W vs 7W kan dus zomaar daar door komen. En zo zijn er ook meerdere services die alleen relevant zijn in een clusterd opzet. Een deel weet ik van dat die vervolgens een opstart conditie hebben op het bestaan van een (/het) config bestand van die service, dat standaard niet het geval is, maar ik weet niet of dat voor alle geldt.

Daarnaast draait Proxmox by default ook op het performance profile, switchen naar powersafe kan dus ook nog een verschil maken.
Hoe stel je die daemon goed in op powersave?

☀️ 6440 Wp zuid | 🌡️ Stiebel Eltron WPL 15 ACS, HM Trend | Home Assistant


Acties:
  • 0 Henk 'm!

  • Church of Noise
  • Registratie: April 2006
  • Laatst online: 11:09

Church of Noise

Drive it like you stole it

Heeft hier iemand toevallig ooit metingen gedaan op hetzelfde systeem met enerzijds Debian + Home Assistant supervised (met de nodige tweaks zoals in dit topic veelvuldig beschreven) en anderzijds HAOS?

Gezien de recente aankondiging dat HA Supervised deprecated en unsupported wordt (...), lijkt het interessant dat te weten. Ik heb wat opzoekwerk gedaan en hoorde dat er toch 'behoorlijk' wat verschil op zat (in absolute termen niet veel , maar in relatieve termen wel.
Eventueel doe ik het zelf ook eens, maar dat zal enkele weken moeten wachten.

Acties:
  • 0 Henk 'm!
manusjevanalles schreef op zondag 22 juni 2025 @ 11:43:
[...]


Hoe stel je die daemon goed in op powersave?
Powersave staat los van de daemon. V.w.b. daemons heb ik ooit deze geplaatst in dit topic:
systemctl disable --now pve-daily-update pve-ha-{crm,lrm} corosync spiceproxy


Evt daar nog "pvestatd" aan toevoegen om ook geen statistieken meer te verzamelen (waarmee je dus wel informatie gaat missen in de webui, maar ook de grootste invloed op het verbruik zal hebben).

Acties:
  • 0 Henk 'm!

  • manusjevanalles
  • Registratie: Januari 2009
  • Nu online
RobertMe schreef op zondag 22 juni 2025 @ 11:53:
[...]

Powersave staat los van de daemon. V.w.b. daemons heb ik ooit deze geplaatst in dit topic:
systemctl disable --now pve-daily-update pve-ha-{crm,lrm} corosync spiceproxy


Evt daar nog "pvestatd" aan toevoegen om ook geen statistieken meer te verzamelen (waarmee je dus wel informatie gaat missen in de webui, maar ook de grootste invloed op het verbruik zal hebben).
Dank! Moet je dit eenmalig invoeren of bij elke reboot opnieuw?

☀️ 6440 Wp zuid | 🌡️ Stiebel Eltron WPL 15 ACS, HM Trend | Home Assistant


Acties:
  • +1 Henk 'm!
manusjevanalles schreef op zondag 22 juni 2025 @ 11:56:
[...]


Dank! Moet je dit eenmalig invoeren of bij elke reboot opnieuw?
Eenmalig. "disable" schakelt (het automatisch opstarten van) de services uit, door "--now" worden ze ook onmiddellijk gestopt (dus "geen reboot nodig voordat je het merkt).

Als test puur stoppen (maar dan starten ze dus weer automatisch op tijdens boot) kun je "disable --now" vervangen door "stop". Dus "systemctl stop <lijst van services>".

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 14:46
RobertMe schreef op zondag 22 juni 2025 @ 11:15:
[...]

Maar wat ik zo zie is dat je geen optimalisaties van Proxmox gedaan hebt? Zo draait Proxmox bv een daemon die elke X seconden statistieken verzameld en opslaat (voor het dashboard dus) dat een redelijke aanslag op het verbruik geeft. Die 5,6W vs 7W kan dus zomaar daar door komen. En zo zijn er ook meerdere services die alleen relevant zijn in een clusterd opzet. Een deel weet ik van dat die vervolgens een opstart conditie hebben op het bestaan van een (/het) config bestand van die service, dat standaard niet het geval is, maar ik weet niet of dat voor alle geldt.

Daarnaast draait Proxmox by default ook op het performance profile, switchen naar powersafe kan dus ook nog een verschil maken.
Dat klopt, zover ben ik nog niet gekomen (powersave profile al wel ingesteld, maar de rest nog niet). Eerste issue wat ik nu heb is dat de i226LM 2.5gbe nic helemaal niet aan ASPM doet onder proxmox. Nog geen idee hoe ik dat gefikst krijg.

I love it when a plan comes together!


Acties:
  • +2 Henk 'm!
Videopac schreef op zaterdag 21 juni 2025 @ 18:09:
[...]

Uit interesse en voor inspiratie: wat heb je zoal in containers draaien?

[...]

Gebruik je Home Assistant?
eymey schreef op zaterdag 21 juni 2025 @ 21:17:
[...]


Ben ik ook benieuwd naar :)
Vanzelfsprekend gebruik ik Home Assistant: maar dan dus de core container versie.

Ik gebruik oa:
  • Dawarich (dawarich-app, dawarich-db, dawarich-photon, dawarich-redis en dawarich-sidekiq)
  • Diverse Javascript Dev Containers
  • Diverse Static file servers (om de apps te servicen uit de Dev Containers)
  • Adguard (dns-adguard, dns-unbound en dns-adguard-sync)
  • Diverse Documentatie (Material for MkDocs tbv Dev Container documentatie)
  • Wikijs (docs-wikidb, docs-wikijs)
  • Home Assistant (ha-dsmr, ha-dsmrdb, ha-homeassistant, ha-mosquitto, ha-zigbee2mqtt)
  • Diverse Aapanel voor Website hosting (is eigenlijk bedoeld voor VPS of VM, maar doet het gewoon in Docker)
  • Immich (immich_postgres, immich_redis, immich_server)
  • CrateDB
  • Cribl (master en worker)
  • n8n
  • Redis
  • Tableau Server (eigenlijk bedoeld voor VPS/VM, 100 processen, draait dus toch in Docker)
  • Caddy
  • Crashplan
  • Fail2Ban
  • Gotify / Pushtify
  • sftpgo
  • WireGuard
  • InfluxDb
  • Telegraf
  • Jupyter
  • TabPy
  • Plugsy
  • Portainer
  • Splunk
  • Vaultwarden
Een aantal containers zijn dus eigenlijk VMs, of bedoeld als VM, maar die dus ook in docker containers kunnen draaien. Zonder enig probleem. Ik maak dus ook regelmatig eigen containers.

n8n levert gewoon een container, maar ik wil Python scripts / Machine learning kunnen aanroepen, en dus heb ik de standaard container uitgebreid met Python en ML libs om maar een voorbeeld te noemen.

[ Voor 10% gewijzigd door Mars Warrior op 22-06-2025 18:15 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
Mars Warrior schreef op zondag 22 juni 2025 @ 16:15:
[...]


[...]

Vanzelfsprekend gebruik ik Home Assistant: maar dan dus de core versie.
offtopic:
container niet core. Core versie is rechtstreeks de Python code zelf downloaden en uitvoeren. Waarbij core ook een van de opties is die binnenkort niet meer ondersteund wordt (maar wel is wat de developers zelf gebruiken als programmeer omgeving).


Heb je wel eens VictoriaMatrics overwogen i.p.v. Influx? Die schijnt lichter (lager resources verbruik) te zijn dan zowel Prometheus als Influx. En ondersteund qua ingestion de protocollen van beiden. Alleen queryen kan alleen via "MetricQL", dat dan weer een spin op "PromQL" is oftewel "van Prometheus". Maar met Influx die niet weet welke query methode ze willen hebben (beginnen met SQL in v1, later flux toevoegen, v2 uitbrengen met alleen flux support en vervolgens in v3 weer alleen SQL) wil je mogelijk toch al niet vast zitten aan Influx voor het weer ophalen van de data.

Acties:
  • 0 Henk 'm!
RobertMe schreef op zondag 22 juni 2025 @ 16:44:
[...]

offtopic:
container niet core. Core versie is rechtstreeks de Python code zelf downloaden en uitvoeren. Waarbij core ook een van de opties is die binnenkort niet meer ondersteund wordt (maar wel is wat de developers zelf gebruiken als programmeer omgeving).
Ik haal ze altijd door de war :X
Heb je wel eens VictoriaMatrics overwogen i.p.v. Influx? Die schijnt lichter (lager resources verbruik) te zijn dan zowel Prometheus als Influx. En ondersteund qua ingestion de protocollen van beiden. Alleen queryen kan alleen via "MetricQL", dat dan weer een spin op "PromQL" is oftewel "van Prometheus". Maar met Influx die niet weet welke query methode ze willen hebben (beginnen met SQL in v1, later flux toevoegen, v2 uitbrengen met alleen flux support en vervolgens in v3 weer alleen SQL) wil je mogelijk toch al niet vast zitten aan Influx voor het weer ophalen van de data.
Ik gebruik InfluxDB voor zowel opslag als presentatie, dus ff geen idee of ik veel te maken heb met het taaltje. Omdat het zowel db als presentatie is, vond ik dat lekker handig. Ik kijk namelijk voornamelijk naar het verbruik van de CPU Package. Veel meer verzamel ik niet, omdat ik met andere dingen toch niks doe.

VictoriaMetrics ken ik ook niet overigens. Prometheus is een waterhoofd qua resources, dus die gebruik ik sowieso niet.

Bij mijn testen in 2023 kwam Influx/Telegraf eruit als diegene met de laagste CPU load: 600MB RAM en 0.1% CPU volgens Portainer. Telegraf voegt daar nog 45MB RAM aan toe en wederom 0.1% CPU.

Ik vermoed niet dat daar dus heel veel te winnen valt in kWhs.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 14:46
Heeft iemand hier ervaring met het zuinig aan de praat krijgen van een Intel i226lm nic onder linux?

Ik ben onder Ubuntu aan het testen, ASPM staat volgens lspci -vvv gewoon aan op deze nic maar toch schiet het idle verbruik omhoog van 5,4w naar 17,4w op het moment dat ik er een kabel in stop. Ik haal met de ethernet kabel in de i226lm aangesloten ook alleen nog maar C2 states volgens powertop.

eee stond uit maar aanzetten heeft geen zin, hij geeft dan aan "EEE status: enabled - inactive" en het verbruik blijft dan 17,4w.

Iemand een idee?

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 16:15
daansan schreef op maandag 23 juni 2025 @ 15:36:
Heeft iemand hier ervaring met het zuinig aan de praat krijgen van een Intel i226lm nic onder linux?

Ik ben onder Ubuntu aan het testen, ASPM staat volgens lspci -vvv gewoon aan op deze nic maar toch schiet het idle verbruik omhoog van 5,4w naar 17,4w op het moment dat ik er een kabel in stop. Ik haal met de ethernet kabel in de i226lm aangesloten ook alleen nog maar C2 states volgens powertop.

eee stond uit maar aanzetten heeft geen zin, hij geeft dan aan "EEE status: enabled - inactive" en het verbruik blijft dan 17,4w.

Iemand een idee?
Ik heb een pci-x i226 netwerkkaart. Hiermee haal ik c6 of c8 (weet ik even niet zeker) in proxmox. Hem limiteren op 100mbit verhoogde de c-state met 1 stap (maar dit wil je normaliter niet). Eee werkt alleen als de ander kant van de lijn dit ook ondersteund.

Draait je poort op 2.5gb of 1gb?

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 14:46
Mich schreef op maandag 23 juni 2025 @ 20:20:
[...]


Ik heb een pci-x i226 netwerkkaart. Hiermee haal ik c6 of c8 (weet ik even niet zeker) in proxmox. Hem limiteren op 100mbit verhoogde de c-state met 1 stap (maar dit wil je normaliter niet). Eee werkt alleen als de ander kant van de lijn dit ook ondersteund.

Draait je poort op 2.5gb of 1gb?
Hij draait op 2.5gbe.

Als ik de kabel over prik naar de i219lm die ook op het moederbord zit gaat ie meteen naar c6 tot c10. Het is dus echt gerelateerd aan de i226

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 16:15
daansan schreef op maandag 23 juni 2025 @ 22:25:
[...]


Hij draait op 2.5gbe.

Als ik de kabel over prik naar de i219lm die ook op het moederbord zit gaat ie meteen naar c6 tot c10. Het is dus echt gerelateerd aan de i226
Met linux command line commando ethtool kan je de netwerk snelheid forceren naar 1gbit en 100 Mbit. Kijk eens wat dit met het verbruik doet. Bij mij draait hij op 1 Gbit. En is het verbruik +-1W

Acties:
  • +1 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
In de hoop dat hier misschien iemand raad weet, maak ik hier even een bericht. Ik ben er al een tijd mee aan het sukkelen...

Even kort mijn samenstelling:
inventaris: Server
  • Intel Core i3 14100
  • Gigabyte B760M DS3H DDR4 + 32GB RAM
  • Cooler Master MWE 400 White 230V V2
  • 1x SSD & 6x HDD (SATA)
  • Zigbee usb-adapter
  • M.2 naar SATA (ASM1166) - verbonden met chipset M.2 slot
  • TP-Link TX201 PCI-e (RTL8125, zelfde als onboard), dus 2x 2.5 Gbps - de onboard is WAN, de PCI-e is LAN
  • Proxmox + OPNsense in VM (en wat andere dingen)
Verbruik met de HDD's draaiende: 60 W
Verbruik met de HDD's spundown:
- PC3: 30-35 W
- PC10: 24-25 W

Alles van ASPM en dergelijke is geactiveerd in BIOS. Powertop, ... Om alles uit te sluiten draait enkel de OPNsense VM.

Ik behaal PC10 indien:
- HDD's zijn spundown
- ik de r8169 driver gebruik en L1 ASPM forceer via `echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_2_aspm` voor beide NIC's

Maar dan valt mijn downloadsnelheid terug van +-2300 Mbps (fiber) naar 70-150 Mbps, effectief op de WAN. Upload blijft wél volle snelheid. EEE uitschakelen leek hier niet te helpen. Als ik terug 0 schrijf naar l1_2_aspm dan heb ik terug volle snelheid, maar val ik terug op PC3.

Ik heb al geprobeerd:
  • r8125 driver gebruiken van Realtek zelf, maar dan geraak ik niet verder dan PC3 (dan is /sys/bus/pci/drivers/r8125/0000:0x:00.0/link/l1_2_aspm standaard al 1)
  • S0ixSelftestTool gedraaid, die helpt bij het vinden van de boosdoener. Bij het gebruik van de r8125 driver, geeft die de schuld aan de ASM1166 M.2 naar SATA adapter. Ook als ik de r8169 driver gebruik zonder L1 ASPM te forceren. Dat terwijl als ik wel L1 ASPM forceer, dan is er volgens de tool geen probleem want dan behaal ik natuurlijk PC10
  • verschillende firmwares van ASM1166 getest (ook in combinatie r8125 vs r8169). Blijkbaar werkt die van Silverstone het beste voor energiezuinigheid, maar dit lijkt me geen verschil te maken met mijn probleem. Met de allerlaatste generieke firmware behaal ik ook PC10 icm r8169
  • zowel kernel 6.8.12-11-pve als 6.14.5-1-bpo12-pve geprobeerd
Zegt dit iemand iets, of heeft iemand hetzelfde voorgehad? Ik ben een beetje ten einde raad. Ik ga binnenkort nog eens van een live-usb booten zonder de ASM1166 adapter (zonder boot Proxmox niet meer), maar nog geen tijd voor gevonden. Mij lijken de boosdoeners toch echt de Realtek NIC's.

[ Voor 7% gewijzigd door dwizsel op 26-06-2025 10:27 ]


Acties:
  • +1 Henk 'm!
dwizsel schreef op dinsdag 24 juni 2025 @ 11:28:
In de hoop dat hier misschien iemand raad weet, maak ik hier even een bericht. Ik ben er al een tijd mee aan het sukkelen...

Even kort mijn samenstelling:
  • Intel Core i3 14100
  • Gigabyte B760M DS3H DDR4 + 32GB RAM
  • 1x SSD & 6x HDD (SATA)
  • M.2 naar SATA (ASM1166) - verbonden met chipset M.2 slot
  • TP-Link TX201 PCI-e (RTL8125, zelfde als onboard), dus 2x 2.5 Gbps - de onboard is WAN, de PCI-e is LAN
  • Proxmox + OPNsense in VM (en wat andere dingen)
Alles van ASPM en dergelijke is geactiveerd in BIOS. Powertop, ... Om alles uit te sluiten draait enkel de OPNsense VM.

Ik behaal PC10 indien:
- HDD's zijn spundown
- ik de r8169 driver gebruik en L1 ASPM forceer via `echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_2_aspm` voor beide NIC's

Maar dan valt mijn downloadsnelheid terug van +-2300 Mbps (fiber) naar 70-150 Mbps, effectief op de WAN. Upload blijft wél volle snelheid. EEE uitschakelen leek hier niet te helpen. Als ik terug 0 schrijf naar l1_2_aspm dan heb ik terug volle snelheid, maar val ik terug op PC3.

Ik heb al geprobeerd:
  • r8125 driver gebruiken van Realtek zelf, maar dan geraak ik niet verder dan PC3 (dan is /sys/bus/pci/drivers/r8125/0000:0x:00.0/link/l1_2_aspm standaard al 1)
  • S0ixSelftestTool gedraaid, die helpt bij het vinden van de boosdoener. Bij het gebruik van de r8125 driver, geeft die de schuld aan de ASM1166 M.2 naar SATA adapter. Ook als ik de r8169 driver gebruik zonder L1 ASPM te forceren. Dat terwijl als ik wel L1 ASPM forceer, dan is er volgens de tool geen probleem want dan behaal ik natuurlijk PC10
  • verschillende firmwares van ASM1166 getest (ook in combinatie r8125 vs r8169). Blijkbaar werkt die van Silverstone het beste voor energiezuinigheid, maar dit lijkt me geen verschil te maken met mijn probleem. Met de allerlaatste generieke firmware behaal ik ook PC10 icm r8169
  • zowel kernel 6.8.12-11-pve als 6.14.5-1-bpo12-pve geprobeerd
Zegt dit iemand iets, of heeft iemand hetzelfde voorgehad? Ik ben een beetje ten einde raad. Ik ga binnenkort nog eens van een live-usb booten zonder de ASM1166 adapter (zonder boot Proxmox niet meer), maar nog geen tijd voor gevonden. Mij lijken de boosdoeners toch echt de Realtek NIC's.
Had je al op RTL8125 gezocht in dit topic? Er zijn veel mensen met problemen, maar ook mensen zonder problemen.

Ik zie wel verschillen tussen de RTL8125B en RTL8125BG bijv. zonder ff te weten wat het verschil is.

Een Live CD (Ubuntu/Debian) is altijd een goed idee om een basis te vinden.

Ik zie ook dat mensen afhankelijk van het OS een andere driver hebben geprobeerd.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • SaN
  • Registratie: September 2002
  • Laatst online: 19-09 23:21

SaN

Ik ben de afgelopen dagen samen met chatgpt bezig geweest met het installeren van een Debian servertje op een thin client met wat Docker containers voor home assistant, Adguard, arrs, plex etc.

Ik draaide al heel lang met een htpc op basis van een 7e generatie i5 cpu. Deze staat niet altijd aan, maar gaat aan als de nvidia Shield aangaat zodat de plex server met alle hdds bereikbaar is. Dan gaan de arrs ook draaien.

Dit heeft goed gewerkt, maar ik wilde nu eigenlijk toch iets zuinigers en het geheel continu laten draaien. Mijn plan was om een nas naast de server te zetten, maar nu lijkt het me eigenlijk veel efficiënter om meteen maar een nas te bouwen met nieuwe hardware en de server op diezelfde hardware te draaien ipv op de thin client. Ik heb het liever iets visueler, dus ik was uitgekomen op een TrueNAS of OpenMediaVault OS met daarachter de verschillende applicaties in Docker.

Ik dacht aan een n100 bordje, maar ik lees hier mensen dat afraden. Ik kan ze ook lastig vinden met voldoende sata aansluitingen (liefst 6, maar 4 is voorlopig ook prima) en ik heb niet veel zin in een merkloos AliExpress bordje.

Ik wilde het een beetje betaalbaar houden, transcoden is niet heel erg belangrijk, maar het zou leuk zijn als hij 1 of 2 plex streams remote aan zou kunnen.

Wat zouden jullie aanraden? Toch een systeem op basis van een wat recentere i3 cpu? En zo ja, welke?

Acties:
  • +1 Henk 'm!

  • bjp
  • Registratie: Januari 2010
  • Laatst online: 17:25

bjp

dwizsel schreef op dinsdag 24 juni 2025 @ 11:28:
In de hoop dat hier misschien iemand raad weet, maak ik hier even een bericht. Ik ben er al een tijd mee aan het sukkelen...

Even kort mijn samenstelling:
  • Intel Core i3 14100
  • Gigabyte B760M DS3H DDR4 + 32GB RAM
  • 1x SSD & 6x HDD (SATA)
  • M.2 naar SATA (ASM1166) - verbonden met chipset M.2 slot
  • TP-Link TX201 PCI-e (RTL8125, zelfde als onboard), dus 2x 2.5 Gbps - de onboard is WAN, de PCI-e is LAN
  • Proxmox + OPNsense in VM (en wat andere dingen)
Alles van ASPM en dergelijke is geactiveerd in BIOS. Powertop, ... Om alles uit te sluiten draait enkel de OPNsense VM.

Ik behaal PC10 indien:
- HDD's zijn spundown
- ik de r8169 driver gebruik en L1 ASPM forceer via `echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_2_aspm` voor beide NIC's

Maar dan valt mijn downloadsnelheid terug van +-2300 Mbps (fiber) naar 70-150 Mbps, effectief op de WAN. Upload blijft wél volle snelheid. EEE uitschakelen leek hier niet te helpen. Als ik terug 0 schrijf naar l1_2_aspm dan heb ik terug volle snelheid, maar val ik terug op PC3.

Ik heb al geprobeerd:
  • r8125 driver gebruiken van Realtek zelf, maar dan geraak ik niet verder dan PC3 (dan is /sys/bus/pci/drivers/r8125/0000:0x:00.0/link/l1_2_aspm standaard al 1)
  • S0ixSelftestTool gedraaid, die helpt bij het vinden van de boosdoener. Bij het gebruik van de r8125 driver, geeft die de schuld aan de ASM1166 M.2 naar SATA adapter. Ook als ik de r8169 driver gebruik zonder L1 ASPM te forceren. Dat terwijl als ik wel L1 ASPM forceer, dan is er volgens de tool geen probleem want dan behaal ik natuurlijk PC10
  • verschillende firmwares van ASM1166 getest (ook in combinatie r8125 vs r8169). Blijkbaar werkt die van Silverstone het beste voor energiezuinigheid, maar dit lijkt me geen verschil te maken met mijn probleem. Met de allerlaatste generieke firmware behaal ik ook PC10 icm r8169
  • zowel kernel 6.8.12-11-pve als 6.14.5-1-bpo12-pve geprobeerd
Zegt dit iemand iets, of heeft iemand hetzelfde voorgehad? Ik ben een beetje ten einde raad. Ik ga binnenkort nog eens van een live-usb booten zonder de ASM1166 adapter (zonder boot Proxmox niet meer), maar nog geen tijd voor gevonden. Mij lijken de boosdoeners toch echt de Realtek NIC's.
try this: https://github.com/awesometic/realtek-r8125-dkms/

8.3kW Oost-West PV en 7.7kWh thuisbatterij | WP EcoForest 1-6 PRO en dWTW | Stromer ST1 & ST3


Acties:
  • 0 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
Dank je voor de suggesties. Die realtek-r8125-dkms is inderdaad de r8125 driver die ik al geprobeerd heb, maar daarmee geraak ik niet verder dan PC3.
Mars Warrior schreef op dinsdag 24 juni 2025 @ 11:52:
[...]

Had je al op RTL8125 gezocht in dit topic? Er zijn veel mensen met problemen, maar ook mensen zonder problemen.

Ik zie wel verschillen tussen de RTL8125B en RTL8125BG bijv. zonder ff te weten wat het verschil is.

Een Live CD (Ubuntu/Debian) is altijd een goed idee om een basis te vinden.

Ik zie ook dat mensen afhankelijk van het OS een andere driver hebben geprobeerd.
Ja inderdaad, al gezocht en er zijn mensen die met r8125 dan inderdaad diepe C-states behalen, dus ik snap niet wat er bij mij anders is. Ik denk dat de volgende stap een live-usb proberen is.
SaN schreef op dinsdag 24 juni 2025 @ 13:06:

Wat zouden jullie aanraden? Toch een systeem op basis van een wat recentere i3 cpu? En zo ja, welke?
Ik heb voor een i3 gekozen ipv een N100, vooral omwille van performantie en uitbreidbaarheid naar de toekomst toe. Zoveel scheelt het niet in prijs. Maar als performantie en uitbreidbaarheid voor jou minder belangrijk zijn, lijkt een N100 qua energieverbruik een betere keuze. Veel mensen draaien hier met gemak een Plex-server (of Jellyfin, ...) op

[ Voor 24% gewijzigd door dwizsel op 24-06-2025 14:01 ]


Acties:
  • 0 Henk 'm!

  • SaN
  • Registratie: September 2002
  • Laatst online: 19-09 23:21

SaN

dwizsel schreef op dinsdag 24 juni 2025 @ 13:56:
Ik heb voor een i3 gekozen ipv een N100, vooral omwille van performantie en uitbreidbaarheid naar de toekomst toe. Zoveel scheelt het niet in prijs. Maar als performantie en uitbreidbaarheid voor jou minder belangrijk zijn, lijkt een N100 qua energieverbruik een betere keuze. Veel mensen draaien hier met gemak een Plex-server (of Jellyfin, ...) op
Bedankt! Ik was er in eerste instantie ook op uitgekomen, maar helaas hebben de meeste bordjes slechts 2 sata aansluitingen en lees ik al weer allemaal horrorverhalen over PCIe uitbreidingskaart jes die niet werken. Er zijn wel bordjes met meerdere sata aansluitingen, maar dat is dan weer merkloos Ali spul.. Dus misschien toch maar een systeem op basis van een i3. Tenzij iemand een n100 bordje kent wat zonder problemen werkt en 4 a 6 sata poorten heeft. Ik kan ze helaas niet vinden.

Acties:
  • 0 Henk 'm!
@dwizsel
Om alles uit te sluiten draait enkel de OPNsense VM.
Dat draait op FreeBSD en dat kan ASPM beinvloeden omdat *BSD er niet mee overweg kan zoals het bedoeld is. Als het hoofdbesturingssysteem kun je het beste Debian draaien. Als je nog ergens een (SATA) SSD hebt liggen kun je daarop een vers besturingssysteem installeren en daarop optimaliseren. Je kan het beste kaal beginnen, dus geen extra hardware onderdelen.

Acties:
  • 0 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
Het hoofdbesturingssysteem is Proxmox, wat op Debian gebaseerd is. Dan lijkt me dat wel oké of niet? Ik ga sowieso binnenkort eens experimenteren met een kale installatie. Het is echt frustrerend.

Acties:
  • +1 Henk 'm!
@dwizsel Debian is geschikt als referentie, zonder beinvloeding van verschillen in distributies, extra hardware e.d. Als het ook niet werkt onder Debian is er misschien iets aan de hand in de BIOS of met de hardware/firmware.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 01:10
dwizsel schreef op dinsdag 24 juni 2025 @ 11:28:
Maar dan valt mijn downloadsnelheid terug van +-2300 Mbps (fiber) naar 70-150 Mbps, effectief op de WAN. Upload blijft wél volle snelheid. EEE uitschakelen leek hier niet te helpen. Als ik terug 0 schrijf naar l1_2_aspm dan heb ik terug volle snelheid, maar val ik terug op PC3.

Zegt dit iemand iets, of heeft iemand hetzelfde voorgehad? Ik ben een beetje ten einde raad. Ik ga binnenkort nog eens van een live-usb booten zonder de ASM1166 adapter (zonder boot Proxmox niet meer), maar nog geen tijd voor gevonden. Mij lijken de boosdoeners toch echt de Realtek NIC's.
Ja. Zelfde probleem hier (eerder al gepost in dit topic). Ik heb om die reden ASPM uit moeten zetten. Ik heb er nooit de vinger op kunnen leggen wat het precies is. Ik heb overigens Intel I226 controllers met een N305 cpu, dus dit lijkt geen realtek probleem. Zelf hou ik het op een ongelukkig geval van timing -> NIC gaat in sleep/PCI-e ASPM is actief. Er komt verkeer. NIC moet van L1 naar actief en dat kost (enige) tijd. Ik zie tijden tussen de 4ns en tientallen ns. op het internet voorbij komen (met uitschieters naar unlimited). Met lspci kun je de latency voor de wakeup inzien (lspci -vv). Voor mijn i226 is de L1 waketime maximaal 64us (ofwel: ongeveer 15.000 keer per seconde). Dat kan er behoorlijk inhakken. Ik zou nog moeten testen (maar dat is er niet van gekomen) om de NIC te beperken tot L0 ipv. L1. Ik verwacht (omdat dat in mijn geval max. 512ns is) dat de performance impact dan meevalt.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 01:10
mrmrmr schreef op woensdag 25 juni 2025 @ 00:18:
[...]


Heb je daar een bron voor?
Lspci -vv geeft de ranges van je eigen hardware aan. Ik neem aan dat deze onderdeel zijn van de device-setup/device-informatie.
Een wat completer beeld:
...and is designed to work on larger period of inactivity on the link. L2 power state gives the most power savings, but it comes with largest exit latency. The exit latency for L0s is in the order of ns (several hundred ns). The exit latency for L1 is in the order of us, and the exit latency for L2 is in the order of ms.

Acties:
  • 0 Henk 'm!
Ik heb geen 226v of lm.

Als ik kijk naar een i219lm dan zie ik:
LnkCap: Port #0, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <16us
ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+


Dat zijn doorgaans waarden die alleen een indicatief zijn, zoals bij SSD's. Het besturingssysteem kiest zelf.

Ik vind dergelijke waarden normaal. Je hebt te maken met entry latency en exit latency. Helaas noemen teksten vaak maar een van de twee. Als een device actief blijft gaat het niet in een lagere power stand. Dat gebeurt pas na een periode van inactiviteit die door het besturingssysteem wordt bepaald. Het aantal entry en exits blijft relatief beperkt. Er zijn dus geen 15.600 schakelingen per seconde, daar zorgt het besturingssysteem voor.

PCI SIG geeft aan voor PCIe 3.0:

L0 – a link which is operating normally
L1 – a link state where no data is being transferred so key portions of the PCIe transceiver logic can be turned off
L2 – a link state identical to L3 but in which power has not (yet) been removed
L3 – when the device is powered off
L0s – a link state where data may be being transferred in one direction but not the other, so the two devices on a link can each independently idle their transmitter


Het verschil tussen L1 en L2 was te groot, daarom kwamen L1.1 en L1.2. L2 en hoger zien we weinig of zelden in lspci -vvv.

Vanzelfsprekend merk je weinig van zo'n overgang omdat het veel te snel gaat voor mensen. Pas bij een langdurige meting en zeer veel schakelingen ga je het merken. Ik vind dat daarom een non-issue voor een thuisserver met weinig clients. Bij een professionele server met 1000 concurrent clients zou een low power stand tamelijk nutteloos zijn, daarom staat het vaak uit. Daarom verbruiken die servers zoveel.

Naarmate je snellere onderdelen in een zuinige server zou willen gebruiken ontstaan er mogelijk problemen met timing. Zeker als die timings nog gebaseerd is op het vorige model (i210/i211/i219lm) met een snelheid die 60% lager lag. Ze hebben zich kennelijk niet gerealiseerd dat ze alles opnieuw moesten testen. Dat probleem heeft Intel gehad met i225 en i226. Dit hebben ze opgelost met nieuwere drivers. Ik zie ook dat mensen EEE uit hebben gezet toen dit speelde ca. 2023. EEE zorgt voor lager verbruik omdat er weinig vermogen wordt verspild aan korte kabels. Het is dus op zich geen goed plan om dat uit te zetten. Misschien kun je in de Linux kernel source code zien of er aanpassingen zijn geweest aan specifieke netwerkdrivers in Linux.

Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 18:02
Gisteren toevallig ook m'n i226-v binnen gekregen. Heb 'm geprikt in een Lenovo m720q.
Heb er ondertussen al veel uren op stukgeslagen maar ik krijg de Pkg(HW) C state niet dieper dan C3 met de i226 NIC.

Gemeten aan de stekker met een verse proxmox install met powertop (handmatig, de NIC's op "Good" zetten laat de boel crashen) en cpu governer op powersave:

C9: 3.1-3.5W met onboard i219 NIC (1 ethernet kabel aangesloten, i226 uit pci-e slot gehaald)
C3: 8-8.5W met dual port i226 NIC (1 ethernet kabel aangesloten)

snelheid van de bedraadde poort staat op 1gb/s ipv de 2.5gb/s die het uiteindelijk moet gaan doen.

ethtool:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
root@pve3:/# ethtool enp4s0
Settings for enp4s0:
        Supported ports: [ TP ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
                                2500baseT/Full
        Supported pause frame use: Symmetric
        Supports auto-negotiation: Yes
        Supported FEC modes: Not reported
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
                                2500baseT/Full
        Advertised pause frame use: Symmetric
        Advertised auto-negotiation: Yes
        Advertised FEC modes: Not reported
        Speed: 1000Mb/s
        Duplex: Full
        Auto-negotiation: on
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        MDI-X: off (auto)
        Supports Wake-on: pumbg
        Wake-on: d
        Current message level: 0x00000007 (7)
                               drv probe link
        Link detected: yes


lspci -vvv:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
root@pve3:/# lspci -s 04:00.0 -vvv
04:00.0 Ethernet controller: Intel Corporation Ethernet Controller I226-V (rev 04)
        Subsystem: Intel Corporation Ethernet Controller I226-V
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 19
        IOMMU group: 2
        Region 0: Memory at b1100000 (32-bit, non-prefetchable) [size=1M]
        Region 3: Memory at b1200000 (32-bit, non-prefetchable) [size=16K]
        Expansion ROM at b1000000 [disabled] [size=1M]
        Capabilities: [40] Power Management version 3
                Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=1 PME-
        Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
                Address: 0000000000000000  Data: 0000
                Masking: 00000000  Pending: 00000000
        Capabilities: [70] MSI-X: Enable+ Count=5 Masked-
                Vector table: BAR=3 offset=00000000
                PBA: BAR=3 offset=00002000
        Capabilities: [a0] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 512 bytes, PhantFunc 0, Latency L0s <512ns, L1 <64us
                        ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 0W
                DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
                        RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr+ TransPend-
                LnkCap: Port #7, Speed 5GT/s, Width x1, ASPM L1, Exit Latency L1 <4us
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range ABCD, TimeoutDis+ NROPrPrP- LTR+
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- TPHComp- ExtTPHComp-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR+ 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [100 v2] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Capabilities: [140 v1] Device Serial Number 00-e2-59-ff-ff-02-31-d2
        Capabilities: [1c0 v1] Latency Tolerance Reporting
                Max snoop latency: 71680ns
                Max no snoop latency: 71680ns
        Capabilities: [1f0 v1] Precision Time Measurement
                PTMCap: Requester:+ Responder:- Root:-
                PTMClockGranularity: 4ns
                PTMControl: Enabled:- RootSelected:-
                PTMEffectiveGranularity: Unknown
        Capabilities: [1e0 v1] L1 PM Substates
                L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
                          PortCommonModeRestoreTime=55us PortTPowerOnTime=70us
                L1SubCtl1: PCI-PM_L1.2- PCI-PM_L1.1- ASPM_L1.2- ASPM_L1.1-
                           T_CommonMode=0us LTR1.2_Threshold=0ns
                L1SubCtl2: T_PwrOn=70us
        Kernel driver in use: igc
        Kernel modules: igc
Iemand inmiddels al meer succes met diepere c states icm de i226?

Acties:
  • 0 Henk 'm!
HowsMyApple schreef op woensdag 25 juni 2025 @ 13:59:
Gisteren toevallig ook m'n i226-v binnen gekregen. Heb 'm geprikt in een Lenovo m720q.
Heb er ondertussen al veel uren op stukgeslagen maar ik krijg de Pkg(HW) C state niet dieper dan C3 met de i226 NIC.

Gemeten aan de stekker met een verse proxmox install met powertop (handmatig, de NIC's op "Good" zetten laat de boel crashen) en cpu governer op powersave:

C9: 3.1-3.5W met onboard i219 NIC (1 ethernet kabel aangesloten, i226 uit pci-e slot gehaald)
C3: 8-8.5W met dual port i226 NIC (1 ethernet kabel aangesloten)

Snelheid van de bedraadde poort staat op 1gb/s ipv de 2.5gb/s die het uiteindelijk moet gaan doen.
Het gebruikt de igc driver.

ASPM L1 is disabled. Dat kan gedaan zijn door 3 elementen: moederbord (BIOS, EC chip, netwerkchip), besturingssysteem, gebruiker.

code:
1
2
3
4
                LnkCap: Port #7, Speed 5GT/s, Width x1, [b]ASPM L1, Exit Latency L1 <4us
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-

code:
1
2
3
4
5
6
        Capabilities: [1e0 v1] L1 PM Substates
                L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
                          PortCommonModeRestoreTime=55us PortTPowerOnTime=70us
                L1SubCtl1: PCI-PM_L1.2[b]- PCI-PM_L1.1[b]- ASPM_L1.2[b]- ASPM_L1.1[b]-
                           T_CommonMode=0us LTR1.2_Threshold=0ns
                L1SubCtl2: T_PwrOn=70us

L1 substates staan ook uit. Niet vreemd als ASPM uit staat.

De code van de driver staat op github.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 01:10
HowsMyApple schreef op woensdag 25 juni 2025 @ 13:59:


C3: 8-8.5W met dual port i226 NIC (1 ethernet kabel aangesloten)
Dual port i226 op een pci-e x1 bus: daar moet dan toch iets van een pci-e switch-chip bijzitten vermoed ik. De i226 is normal single-port. Dus 2 chips op een pci-e slot zal niet zomaar werken (of heeft intel ook een dualport versie gemaakt die ik gemist heb?)
Als er dus zo'n pci-e switch chip opzit dan snap ik wel dat ASPM lastiger wordt.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 01:10
mrmrmr schreef op woensdag 25 juni 2025 @ 01:48:
Ik heb geen 226v of lm.

Als ik kijk naar een i219lm dan zie ik:
LnkCap: Port #0, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <16us
ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+


Dat zijn doorgaans waarden die alleen een indicatief zijn, zoals bij SSD's. Het besturingssysteem kiest zelf.
Wel voor het 'wanneer moet je gaan slapen', de exit latency is de tijd die nodig is voor de hardware om weer op normale PCI-e snelheid te komen (syncen met de kloksignalen enzo).
Ik vind dergelijke waarden normaal. Je hebt te maken met entry latency en exit latency. Helaas noemen teksten vaak maar een van de twee. Als een device actief blijft gaat het niet in een lagere power stand. Dat gebeurt pas na een periode van inactiviteit die door het besturingssysteem wordt bepaald. Het aantal entry en exits blijft relatief beperkt. Er zijn dus geen 15.600 schakelingen per seconde, daar zorgt het besturingssysteem voor.
De PCI-e spec spreekt alleen over exit latency omdat die bepaald wordt door het device. De tijd die het OS vind dat een device idle mag zijn voordat die mag slapen is inderdaad OS bepaald. Ik zal eens zoeken of ik daarvoor op Linux iets kan vinden. En die 15.600 was een beetje worst-case als inslapen 0ns kost en dan weer wakker worden. Ik mag hopen dat OS/hardware iets slimmer en sneller zijn. Maar in mijn zoektocht naar een performance probleem met 1Gbe netwerksnelheid op mijn router waarbij ASPM uitzetten het oplost, is dit de enigste 'smoking gun' die ik heb.
Dat probleem heeft Intel gehad met i225 en i226. Dit hebben ze opgelost met nieuwere drivers. Ik zie ook dat mensen EEE uit hebben gezet toen dit speelde ca. 2023. EEE zorgt voor lager verbruik omdat er weinig vermogen wordt verspild aan korte kabels. Het is dus op zich geen goed plan om dat uit te zetten. Misschien kun je in de Linux kernel source code zien of er aanpassingen zijn geweest aan specifieke netwerkdrivers in Linux.
De andere user melde een soortgelijk probleem (lage internetsnelheid) met een realtek 2.5Gbe kaart. Die staan standaard niet op ASPM en moet je wat moeite voor doen zover ik weet. Wellicht dat het daarom niet zo breed speelt.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 01:10
mrmrmr schreef op woensdag 25 juni 2025 @ 01:48:
Ik vind dergelijke waarden normaal. Je hebt te maken met entry latency en exit latency. Helaas noemen teksten vaak maar een van de twee. Als een device actief blijft gaat het niet in een lagere power stand. Dat gebeurt pas na een periode van inactiviteit die door het besturingssysteem wordt bepaald.
Ik ben even de ASPM driver van linux in gedoken en het OS speelt voor L0/L1 een beperkte rol: tijdens de setup van het device geeft deze zijn exit latency terug en het OS geeft aan wat de maximale acceptabele latency is. Als die twee elkaar niet in de weg zitten wordt L0/L1 geactiveerd: het OS speelt hierna geen rol meer dit loopt in de hardware pci-e controller.

L2 loopt wel via het OS en mag een stuk langer duren. Bij L2 is het alsof het device er fysiek niet meer is en moet er een in-place hotswap gedaan worden om het device weer actief te krijgen. Dat verklaart iig. wel het grote verschil in latency exit van L1 en L2.

Acties:
  • 0 Henk 'm!
HowsMyApple schreef op woensdag 25 juni 2025 @ 13:59:
Gisteren toevallig ook m'n i226-v binnen gekregen. Heb 'm geprikt in een Lenovo m720q.
Heb er ondertussen al veel uren op stukgeslagen maar ik krijg de Pkg(HW) C state niet dieper dan C3 met de i226 NIC.

Gemeten aan de stekker met een verse proxmox install met powertop (handmatig, de NIC's op "Good" zetten laat de boel crashen) en cpu governer op powersave:

C9: 3.1-3.5W met onboard i219 NIC (1 ethernet kabel aangesloten, i226 uit pci-e slot gehaald)
C3: 8-8.5W met dual port i226 NIC (1 ethernet kabel aangesloten)

snelheid van de bedraadde poort staat op 1gb/s ipv de 2.5gb/s die het uiteindelijk moet gaan doen.

ethtool:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
root@pve3:/# ethtool enp4s0
Settings for enp4s0:
        Supported ports: [ TP ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
                                2500baseT/Full
        Supported pause frame use: Symmetric
        Supports auto-negotiation: Yes
        Supported FEC modes: Not reported
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
                                2500baseT/Full
        Advertised pause frame use: Symmetric
        Advertised auto-negotiation: Yes
        Advertised FEC modes: Not reported
        Speed: 1000Mb/s
        Duplex: Full
        Auto-negotiation: on
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        MDI-X: off (auto)
        Supports Wake-on: pumbg
        Wake-on: d
        Current message level: 0x00000007 (7)
                               drv probe link
        Link detected: yes


lspci -vvv:

[...]


Iemand inmiddels al meer succes met diepere c states icm de i226?
En met een gewoon OS als Debian of Ubuntu? Dus een Live CD?

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 18:02
latka schreef op woensdag 25 juni 2025 @ 17:53:
[...]

Dual port i226 op een pci-e x1 bus: daar moet dan toch iets van een pci-e switch-chip bijzitten vermoed ik. De i226 is normal single-port. Dus 2 chips op een pci-e slot zal niet zomaar werken (of heeft intel ook een dualport versie gemaakt die ik gemist heb?)
Als er dus zo'n pci-e switch chip opzit dan snap ik wel dat ASPM lastiger wordt.
Spijker en kop.


Had eerder vandaag op alle mogelijke manieren geprobeerd ASPM te forceren op de NIC, maar nooit zag ik het magische "enabled" tevoorschijn komen. Kon het niet forceren op de NIC maar ook niet op z'n parent/root.
setpci -s 04:00.0 0x50.B=42
Dit deed dus helemaal niets.

Na zoekpoging #zoveel kwam ik uiteindelijk bij dit script terecht. "Adres" van 1 van m'n NIC poorten erin gezet. Script gedraaid. En wat zie ik tot m'n grote verbazing:
04:00.0 Ethernet controller: Intel Corporation Ethernet Controller I226-V (rev 04)
LnkCap: Port #7, Speed 5GT/s, Width x1, ASPM L1, Exit Latency L1 <4us
LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
Het deed alleen nog niets voor m'n c-state. Maar dat lag er dus blijkbaar aan dat aspm in de gehele keten enabled moet zijn. Ook de "switch chip" moest ik dmv het script forceren naar "enabled".

En voila: C7 (pc7) 93.9%
Verbruik nu tussen de 4-5watt. Af en toe vreemde uitschieters naar 9-10 voor een enkele seconde, maar dat is voor een andere keer.

Nu uitzoeken hoe ik het script over alle nodige poorten kan laten loopen en bij booten automatisch kan laten draaien.




Nog wat toelichting:

Om de devices + 'poortadressen' in kaart te brengen:
code:
1
2
3
4
root@pve3:~# lspci -t
-[0000:00]-+-00.0
           +-01.0-[01-04]----00.0-[02-04]--+-03.0-[03]----00.0
           |                               \-07.0-[04]----00.0


Om dit te snappen heb ik Copilot gevraagd het te verwoorden:
- 0000:00 is de root bus — dit is de PCIe-controller van je CPU of chipset.
- 00.0 is het host bridge device (bijv. geheugencontroller).
- 01.0 is een PCIe root port op de CPU die een PCIe bridge aanstuurt.
- [01-04] betekent dat deze bridge bus 01 t/m 04 beheert.
- 00.0 op bus 01 is een ASMedia PCIe switch
- [02-04] betekent dat deze switch op zijn beurt weer sub-bussen 02 t/m 04 beheert.
- 03.0 en 07.0 zijn downstream poorten van de ASMedia switch:
- 03.0-[03]----00.0 → hier hangt een I226-V NIC aan op bus 03.
- 07.0-[04]----00.0 → en hier hangt de tweede I226-V aan op bus 04.


Je kan het ook van bovenstaande afleiden, maar om iets makkelijker te achterhalen waar ik ASPM allemaal voor aan zou kunnen zetten het volgende cmd gebruikt
code:
1
lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )'


Alle poortadressen hier in het eerdergenoemde script gezet (script aangepast zodat het erover heen loopt ipv 1 poort per keer).
In mijn geval laat dat (nu) zien
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
root@pve3:~# lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )'
00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 07) (prog-if 00 [Normal decode])
                LnkCap: Port #2, Speed 8GT/s, Width x8, ASPM L0s L1, Exit Latency L0s <256ns, L1 <8us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
01:00.0 PCI bridge: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 unlimited
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
02:03.0 PCI bridge: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch (prog-if 00 [Normal decode])
                LnkCap: Port #3, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 unlimited
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
02:07.0 PCI bridge: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch (prog-if 00 [Normal decode])
                LnkCap: Port #7, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 unlimited
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
03:00.0 Ethernet controller: Intel Corporation Ethernet Controller I226-V (rev 04)
                LnkCap: Port #3, Speed 5GT/s, Width x1, ASPM L1, Exit Latency L1 <4us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
04:00.0 Ethernet controller: Intel Corporation Ethernet Controller I226-V (rev 04)
                LnkCap: Port #7, Speed 5GT/s, Width x1, ASPM L1, Exit Latency L1 <4us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+



@mrmrmr
lspci -vvv van de hele mikmak:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
root@pve3:~# lspci -vvv
00:00.0 Host bridge: Intel Corporation 8th Gen Core Processor Host Bridge/DRAM Registers (rev 07)
        DeviceName: Onboard - Other
        Subsystem: Lenovo 8th Gen Core Processor Host Bridge/DRAM Registers
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz- UDF- FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        IOMMU group: 1
        Capabilities: [e0] Vendor Specific Information: Len=10 <?>
        Kernel driver in use: skl_uncore
        Kernel modules: ie31200_edac

00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 07) (prog-if 00 [Normal decode])
        Subsystem: Lenovo 6th-10th Gen Core Processor PCIe Controller (x16)
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 122
        IOMMU group: 2
        Bus: primary=00, secondary=01, subordinate=04, sec-latency=0
        I/O behind bridge: f000-0fff [disabled] [16-bit]
        Memory behind bridge: b1000000-b15fffff [size=6M] [32-bit]
        Prefetchable memory behind bridge: 00000000fff00000-00000000000fffff [disabled] [64-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort+ <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16+ MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: [88] Subsystem: Lenovo 6th-10th Gen Core Processor PCIe Controller (x16)
        Capabilities: [80] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [90] MSI: Enable+ Count=1/1 Maskable- 64bit-
                Address: fee00218  Data: 0000
        Capabilities: [a0] Express (v2) Root Port (Slot+), MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0
                        ExtTag- RBE+
                DevCtl: CorrErr- NonFatalErr- FatalErr- UnsupReq-
                        RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop-
                        MaxPayload 256 bytes, MaxReadReq 128 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr- TransPend-
                LnkCap: Port #2, Speed 8GT/s, Width x8, ASPM L0s L1, Exit Latency L0s <256ns, L1 <8us
                        ClockPM- Surprise- LLActRep- BwNot+ ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive- BWMgmt+ ABWMgmt+
                SltCap: AttnBtn- PwrCtrl- MRL- AttnInd- PwrInd- HotPlug- Surprise-
                        Slot #1, PowerLimit 75W; Interlock- NoCompl+
                SltCtl: Enable: AttnBtn- PwrFlt- MRL- PresDet- CmdCplt- HPIrq- LinkChg-
                        Control: AttnInd Unknown, PwrInd Unknown, Power- Interlock-
                SltSta: Status: AttnBtn- PowerFlt- MRL- CmdCplt- PresDet+ Interlock-
                        Changed: MRL- PresDet+ LinkState-
                RootCap: CRSVisible-
                RootCtl: ErrCorrectable- ErrNon-Fatal- ErrFatal- PMEIntEna+ CRSVisible-
                RootSta: PME ReqID 0000, PMEStatus- PMEPending-
                DevCap2: Completion Timeout: Not Supported, TimeoutDis- NROPrPrP- LTR+
                         10BitTagComp- 10BitTagReq- OBFF Via WAKE#, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- LN System CLS Not Supported, TPHComp- ExtTPHComp- ARIFwd-
                         AtomicOpsCap: Routing- 32bit+ 64bit+ 128bitCAS+
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR+ 10BitTagReq- OBFF Via WAKE#, ARIFwd-
                         AtomicOpsCtl: ReqEn- EgressBlck-
                LnkCap2: Supported Link Speeds: 2.5-8GT/s, Crosslink- Retimer- 2Retimers- DRS-
                LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -3.5dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [100 v1] Virtual Channel
                Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
                Arb:    Fixed- WRR32- WRR64- WRR128-
                Ctrl:   ArbSelect=Fixed
                Status: InProgress-
                VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
                        Arb:    Fixed+ WRR32- WRR64- WRR128- TWRR128- WRR256-
                        Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=ff
                        Status: NegoPending- InProgress-
        Capabilities: [140 v1] Root Complex Link
                Desc:   PortNumber=02 ComponentID=01 EltType=Config
                Link0:  Desc:   TargetPort=00 TargetComponent=01 AssocRCRB- LinkType=MemMapped LinkValid+
                        Addr:   00000000fed19000
        Capabilities: [d94 v1] Secondary PCI Express
                LnkCtl3: LnkEquIntrruptEn- PerformEqu-
                LaneErrStat: 0
        Kernel driver in use: pcieport

00:02.0 VGA compatible controller: Intel Corporation CoffeeLake-S GT2 [UHD Graphics 630] (prog-if 00 [VGA controller])
        DeviceName: Onboard - Video
        Subsystem: Lenovo CoffeeLake-S GT2 [UHD Graphics 630]
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 144
        IOMMU group: 0
        Region 0: Memory at b0000000 (64-bit, non-prefetchable) [size=16M]
        Region 2: Memory at a0000000 (64-bit, prefetchable) [size=256M]
        Region 4: I/O ports at 3000 [size=64]
        Expansion ROM at 000c0000 [virtual] [disabled] [size=128K]
        Capabilities: [40] Vendor Specific Information: Len=0c <?>
        Capabilities: [70] Express (v2) Root Complex Integrated Endpoint, MSI 00
                DevCap: MaxPayload 128 bytes, PhantFunc 0
                        ExtTag- RBE+ FLReset+
                DevCtl: CorrErr- NonFatalErr- FatalErr- UnsupReq-
                        RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop- FLReset-
                        MaxPayload 128 bytes, MaxReadReq 128 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr- TransPend-
                DevCap2: Completion Timeout: Not Supported, TimeoutDis- NROPrPrP- LTR-
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
        Capabilities: [ac] MSI: Enable+ Count=1/1 Maskable- 64bit-
                Address: fee00018  Data: 0000
        Capabilities: [d0] Power Management version 2
                Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
                Status: D0 NoSoftRst- PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [100 v1] Process Address Space ID (PASID)
                PASIDCap: Exec- Priv-, Max PASID Width: 14
                PASIDCtl: Enable- Exec- Priv-
        Capabilities: [200 v1] Address Translation Service (ATS)
                ATSCap: Invalidate Queue Depth: 00
                ATSCtl: Enable+, Smallest Translation Unit: 00
        Capabilities: [300 v1] Page Request Interface (PRI)
                PRICtl: Enable- Reset-
                PRISta: RF- UPRGI- Stopped+
                Page Request Capacity: 00008000, Page Request Allocation: 00000000
        Kernel driver in use: i915
        Kernel modules: i915

00:08.0 System peripheral: Intel Corporation Xeon E3-1200 v5/v6 / E3-1500 v5 / 6th/7th/8th Gen Core Processor Gaussian Mixture Model
        DeviceName: Onboard - Other
        Subsystem: Lenovo Xeon E3-1200 v5/v6 / E3-1500 v5 / 6th/7th/8th Gen Core Processor Gaussian Mixture Model
        Control: I/O- Mem- BusMaster- SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Interrupt: pin A routed to IRQ 255
        IOMMU group: 3
        Region 0: Memory at b1619000 (64-bit, non-prefetchable) [disabled] [size=4K]
        Capabilities: [90] MSI: Enable- Count=1/1 Maskable- 64bit-
                Address: 00000000  Data: 0000
        Capabilities: [dc] Power Management version 2
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
                Status: D0 NoSoftRst- PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [f0] PCI Advanced Features
                AFCap: TP+ FLR+
                AFCtrl: FLR-
                AFStatus: TP-

00:14.0 USB controller: Intel Corporation Cannon Lake PCH USB 3.1 xHCI Host Controller (rev 10) (prog-if 30 [XHCI])
        DeviceName: Onboard - Other
        Subsystem: Lenovo Cannon Lake PCH USB 3.1 xHCI Host Controller
        Control: I/O- Mem+ BusMaster- SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B+ ParErr- DEVSEL=medium >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Interrupt: pin A routed to IRQ 126
        IOMMU group: 4
        Region 0: Memory at b1600000 (64-bit, non-prefetchable) [size=64K]
        Capabilities: [70] Power Management version 2
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=375mA PME(D0-,D1-,D2-,D3hot+,D3cold+)
                Status: D3 NoSoftRst+ PME-Enable+ DSel=0 DScale=0 PME-
        Capabilities: [80] MSI: Enable+ Count=8/8 Maskable- 64bit+
                Address: 00000000fee00318  Data: 0000
        Capabilities: [90] Vendor Specific Information: Len=14 <?>
        Kernel driver in use: xhci_hcd
        Kernel modules: xhci_pci

00:14.2 RAM memory: Intel Corporation Cannon Lake PCH Shared SRAM (rev 10)
        DeviceName: Onboard - Other
        Subsystem: Lenovo Cannon Lake PCH Shared SRAM
        Control: I/O- Mem- BusMaster- SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        IOMMU group: 4
        Region 0: Memory at b1612000 (64-bit, non-prefetchable) [disabled] [size=8K]
        Region 2: Memory at b1618000 (64-bit, non-prefetchable) [disabled] [size=4K]
        Capabilities: [80] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-

00:16.0 Communication controller: Intel Corporation Cannon Lake PCH HECI Controller (rev 10)
        DeviceName: Onboard - Other
        Subsystem: Lenovo Cannon Lake PCH HECI Controller
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 143
        IOMMU group: 5
        Region 0: Memory at b1617000 (64-bit, non-prefetchable) [size=4K]
        Capabilities: [50] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot+,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [8c] MSI: Enable+ Count=1/1 Maskable- 64bit+
                Address: 00000000fee004f8  Data: 0000
        Capabilities: [a4] Vendor Specific Information: Len=14 <?>
        Kernel driver in use: mei_me
        Kernel modules: mei_me

00:17.0 SATA controller: Intel Corporation Cannon Lake PCH SATA AHCI Controller (rev 10) (prog-if 01 [AHCI 1.0])
        DeviceName: Onboard - SATA
        Subsystem: Lenovo Cannon Lake PCH SATA AHCI Controller
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz+ UDF- FastB2B+ ParErr- DEVSEL=medium >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 125
        IOMMU group: 6
        Region 0: Memory at b1610000 (32-bit, non-prefetchable) [size=8K]
        Region 1: Memory at b1616000 (32-bit, non-prefetchable) [size=256]
        Region 2: I/O ports at 3090 [size=8]
        Region 3: I/O ports at 3080 [size=4]
        Region 4: I/O ports at 3060 [size=32]
        Region 5: Memory at b1615000 (32-bit, non-prefetchable) [size=2K]
        Capabilities: [80] MSI: Enable+ Count=1/1 Maskable- 64bit-
                Address: fee00298  Data: 0000
        Capabilities: [70] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot+,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [a8] SATA HBA v1.0 BAR4 Offset=00000004
        Kernel driver in use: ahci
        Kernel modules: ahci

00:1f.0 ISA bridge: Intel Corporation 300 Series Chipset Family LPC Controller (rev 10)
        DeviceName: Onboard - Other
        Subsystem: Lenovo 300 Series Chipset Family LPC Controller
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        IOMMU group: 7

00:1f.4 SMBus: Intel Corporation Cannon Lake PCH SMBus Controller (rev 10)
        DeviceName: Onboard - Other
        Subsystem: Lenovo Cannon Lake PCH SMBus Controller
        Control: I/O+ Mem+ BusMaster- SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B+ ParErr- DEVSEL=medium >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Interrupt: pin A routed to IRQ 16
        IOMMU group: 7
        Region 0: Memory at b1614000 (64-bit, non-prefetchable) [size=256]
        Region 4: I/O ports at efa0 [size=32]
        Kernel driver in use: i801_smbus
        Kernel modules: i2c_i801

00:1f.5 Serial bus controller: Intel Corporation Cannon Lake PCH SPI Controller (rev 10)
        DeviceName: Onboard - Other
        Subsystem: Lenovo Cannon Lake PCH SPI Controller
        Control: I/O- Mem+ BusMaster- SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        IOMMU group: 7
        Region 0: Memory at fe010000 (32-bit, non-prefetchable) [size=4K]
        Kernel driver in use: intel-spi
        Kernel modules: spi_intel_pci

01:00.0 PCI bridge: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch (prog-if 00 [Normal decode])
        Subsystem: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 16
        IOMMU group: 2
        Bus: primary=01, secondary=02, subordinate=04, sec-latency=0
        I/O behind bridge: 0000f000-00000fff [disabled] [32-bit]
        Memory behind bridge: b1000000-b15fffff [size=6M] [32-bit]
        Prefetchable memory behind bridge: 00000000fff00000-00000000000fffff [disabled] [64-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16+ MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: [50] MSI: Enable- Count=1/1 Maskable- 64bit+
                Address: 0000000000000000  Data: 0000
        Capabilities: [78] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [80] Express (v2) Upstream Port, MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0
                        ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ SlotPowerLimit 75W
                DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
                        RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr+ TransPend-
                LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 unlimited
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Not Supported, TimeoutDis- NROPrPrP- LTR-
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS-
                         AtomicOpsCap: Routing-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: EgressBlck-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -3.5dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [c0] Subsystem: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch
        Capabilities: [100 v1] Virtual Channel
                Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
                Arb:    Fixed- WRR32- WRR64- WRR128-
                Ctrl:   ArbSelect=Fixed
                Status: InProgress-
                VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
                        Arb:    Fixed+ WRR32- WRR64- WRR128- TWRR128- WRR256-
                        Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=ff
                        Status: NegoPending- InProgress-
        Capabilities: [200 v1] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 1f, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Capabilities: [300 v1] Vendor Specific Information: ID=0000 Rev=0 Len=c00 <?>
        Kernel driver in use: pcieport

02:03.0 PCI bridge: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch (prog-if 00 [Normal decode])
        Subsystem: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 123
        IOMMU group: 2
        Bus: primary=02, secondary=03, subordinate=03, sec-latency=0
        I/O behind bridge: 0000f000-00000fff [disabled] [32-bit]
        Memory behind bridge: b1300000-b15fffff [size=3M] [32-bit]
        Prefetchable memory behind bridge: 00000000fff00000-00000000000fffff [disabled] [64-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16+ MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: [50] MSI: Enable+ Count=1/1 Maskable- 64bit+
                Address: 00000000fee00258  Data: 0000
        Capabilities: [78] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [80] Express (v2) Downstream Port (Slot+), MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0
                        ExtTag+ RBE+
                DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
                        RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- NonFatalErr+ FatalErr- UnsupReq+ AuxPwr+ TransPend-
                LnkCap: Port #3, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 unlimited
                        ClockPM- Surprise- LLActRep+ BwNot+ ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive+ BWMgmt+ ABWMgmt+
                SltCap: AttnBtn- PwrCtrl- MRL- AttnInd- PwrInd- HotPlug- Surprise-
                        Slot #3, PowerLimit 26W; Interlock- NoCompl-
                SltCtl: Enable: AttnBtn- PwrFlt- MRL- PresDet- CmdCplt- HPIrq- LinkChg-
                        Control: AttnInd Unknown, PwrInd Unknown, Power- Interlock-
                SltSta: Status: AttnBtn- PowerFlt- MRL- CmdCplt- PresDet- Interlock-
                        Changed: MRL- PresDet- LinkState+
                DevCap2: Completion Timeout: Not Supported, TimeoutDis- NROPrPrP- LTR-
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- ARIFwd-
                         AtomicOpsCap: Routing-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- 10BitTagReq- OBFF Disabled, ARIFwd-
                         AtomicOpsCtl: EgressBlck-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-, Selectable De-emphasis: -6dB
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [c0] Subsystem: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch
        Capabilities: [100 v1] Virtual Channel
                Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
                Arb:    Fixed- WRR32- WRR64- WRR128-
                Ctrl:   ArbSelect=Fixed
                Status: InProgress-
                VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
                        Arb:    Fixed+ WRR32- WRR64- WRR128- TWRR128- WRR256-
                        Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=ff
                        Status: NegoPending- InProgress-
        Capabilities: [200 v1] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 1f, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Kernel driver in use: pcieport

02:07.0 PCI bridge: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch (prog-if 00 [Normal decode])
        Subsystem: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 124
        IOMMU group: 2
        Bus: primary=02, secondary=04, subordinate=04, sec-latency=0
        I/O behind bridge: 0000f000-00000fff [disabled] [32-bit]
        Memory behind bridge: b1000000-b12fffff [size=3M] [32-bit]
        Prefetchable memory behind bridge: 00000000fff00000-00000000000fffff [disabled] [64-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16+ MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: [50] MSI: Enable+ Count=1/1 Maskable- 64bit+
                Address: 00000000fee00278  Data: 0000
        Capabilities: [78] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [80] Express (v2) Downstream Port (Slot+), MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0
                        ExtTag+ RBE+
                DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
                        RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- NonFatalErr+ FatalErr- UnsupReq+ AuxPwr+ TransPend-
                LnkCap: Port #7, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 unlimited
                        ClockPM- Surprise- LLActRep+ BwNot+ ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive+ BWMgmt+ ABWMgmt+
                SltCap: AttnBtn- PwrCtrl- MRL- AttnInd- PwrInd- HotPlug- Surprise-
                        Slot #7, PowerLimit 26W; Interlock- NoCompl-
                SltCtl: Enable: AttnBtn- PwrFlt- MRL- PresDet- CmdCplt- HPIrq- LinkChg-
                        Control: AttnInd Unknown, PwrInd Unknown, Power- Interlock-
                SltSta: Status: AttnBtn- PowerFlt- MRL- CmdCplt- PresDet- Interlock-
                        Changed: MRL- PresDet- LinkState+
                DevCap2: Completion Timeout: Not Supported, TimeoutDis- NROPrPrP- LTR-
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- ARIFwd-
                         AtomicOpsCap: Routing-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- 10BitTagReq- OBFF Disabled, ARIFwd-
                         AtomicOpsCtl: EgressBlck-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-, Selectable De-emphasis: -6dB
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [c0] Subsystem: ASMedia Technology Inc. ASM1182e 2-Port PCIe x1 Gen2 Packet Switch
        Capabilities: [100 v1] Virtual Channel
                Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
                Arb:    Fixed- WRR32- WRR64- WRR128-
                Ctrl:   ArbSelect=Fixed
                Status: InProgress-
                VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
                        Arb:    Fixed+ WRR32- WRR64- WRR128- TWRR128- WRR256-
                        Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=ff
                        Status: NegoPending- InProgress-
        Capabilities: [200 v1] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 1f, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Kernel driver in use: pcieport

03:00.0 Ethernet controller: Intel Corporation Ethernet Controller I226-V (rev 04)
        Subsystem: Intel Corporation Ethernet Controller I226-V
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 19
        IOMMU group: 2
        Region 0: Memory at b1400000 (32-bit, non-prefetchable) [size=1M]
        Region 3: Memory at b1500000 (32-bit, non-prefetchable) [size=16K]
        Expansion ROM at b1300000 [disabled] [size=1M]
        Capabilities: [40] Power Management version 3
                Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=1 PME-
        Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
                Address: 0000000000000000  Data: 0000
                Masking: 00000000  Pending: 00000000
        Capabilities: [70] MSI-X: Enable+ Count=5 Masked-
                Vector table: BAR=3 offset=00000000
                PBA: BAR=3 offset=00002000
        Capabilities: [a0] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 512 bytes, PhantFunc 0, Latency L0s <512ns, L1 <64us
                        ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 0W
                DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
                        RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr+ TransPend-
                LnkCap: Port #3, Speed 5GT/s, Width x1, ASPM L1, Exit Latency L1 <4us
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range ABCD, TimeoutDis+ NROPrPrP- LTR+
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- TPHComp- ExtTPHComp-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR+ 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [100 v2] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Capabilities: [140 v1] Device Serial Number 00-e2-59-ff-ff-02-31-d1
        Capabilities: [1c0 v1] Latency Tolerance Reporting
                Max snoop latency: 71680ns
                Max no snoop latency: 71680ns
        Capabilities: [1f0 v1] Precision Time Measurement
                PTMCap: Requester:+ Responder:- Root:-
                PTMClockGranularity: 4ns
                PTMControl: Enabled:- RootSelected:-
                PTMEffectiveGranularity: Unknown
        Capabilities: [1e0 v1] L1 PM Substates
                L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
                          PortCommonModeRestoreTime=55us PortTPowerOnTime=70us
                L1SubCtl1: PCI-PM_L1.2- PCI-PM_L1.1- ASPM_L1.2- ASPM_L1.1-
                           T_CommonMode=0us LTR1.2_Threshold=0ns
                L1SubCtl2: T_PwrOn=70us
        Kernel driver in use: igc
        Kernel modules: igc

04:00.0 Ethernet controller: Intel Corporation Ethernet Controller I226-V (rev 04)
        Subsystem: Intel Corporation Ethernet Controller I226-V
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 19
        IOMMU group: 2
        Region 0: Memory at b1100000 (32-bit, non-prefetchable) [size=1M]
        Region 3: Memory at b1200000 (32-bit, non-prefetchable) [size=16K]
        Expansion ROM at b1000000 [disabled] [size=1M]
        Capabilities: [40] Power Management version 3
                Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=1 PME-
        Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
                Address: 0000000000000000  Data: 0000
                Masking: 00000000  Pending: 00000000
        Capabilities: [70] MSI-X: Enable+ Count=5 Masked-
                Vector table: BAR=3 offset=00000000
                PBA: BAR=3 offset=00002000
        Capabilities: [a0] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 512 bytes, PhantFunc 0, Latency L0s <512ns, L1 <64us
                        ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 0W
                DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
                        RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr+ TransPend-
                LnkCap: Port #7, Speed 5GT/s, Width x1, ASPM L1, Exit Latency L1 <4us
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range ABCD, TimeoutDis+ NROPrPrP- LTR+
                         10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- TPHComp- ExtTPHComp-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR+ 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [100 v2] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Capabilities: [140 v1] Device Serial Number 00-e2-59-ff-ff-02-31-d2
        Capabilities: [1c0 v1] Latency Tolerance Reporting
                Max snoop latency: 71680ns
                Max no snoop latency: 71680ns
        Capabilities: [1f0 v1] Precision Time Measurement
                PTMCap: Requester:+ Responder:- Root:-
                PTMClockGranularity: 4ns
                PTMControl: Enabled:- RootSelected:-
                PTMEffectiveGranularity: Unknown
        Capabilities: [1e0 v1] L1 PM Substates
                L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
                          PortCommonModeRestoreTime=55us PortTPowerOnTime=70us
                L1SubCtl1: PCI-PM_L1.2- PCI-PM_L1.1- ASPM_L1.2- ASPM_L1.1-
                           T_CommonMode=0us LTR1.2_Threshold=0ns
                L1SubCtl2: T_PwrOn=70us
        Kernel driver in use: igc
        Kernel modules: igc

[ Voor 96% gewijzigd door HowsMyApple op 25-06-2025 22:32 ]


Acties:
  • 0 Henk 'm!
Mooi dat het nu wel werkt! Kun je wat details geven in je bericht over welk pci onderdeel je precies waar op enabled hebt gezet (en hoe)? Graag met bijbehorende lspci -vvv outpout.

[ Voor 5% gewijzigd door mrmrmr op 25-06-2025 20:34 ]


Acties:
  • +1 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 16:15
Dual port i226 is officieel niet van Intel. De enkele port pci kaart van Intel ondersteund aspm out of the box. Kan best zijn dat er wat extra chips op jou kaart zitten om die 2 poorten te laten samenwerken. Ik zie ze vooral op Ali express voorbij komen ook.

Acties:
  • 0 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
andru123 schreef op dinsdag 24 juni 2025 @ 22:15:
@dwizsel wat is je verbruik? Met en zoonder pc10) kan je je post bijwerken, graag.
Ik heb dit nu toegevoegd aan het bericht.
latka schreef op dinsdag 24 juni 2025 @ 21:30:
[...]

Ja. Zelfde probleem hier (eerder al gepost in dit topic). Ik heb om die reden ASPM uit moeten zetten. Ik heb er nooit de vinger op kunnen leggen wat het precies is. Ik heb overigens Intel I226 controllers met een N305 cpu, dus dit lijkt geen realtek probleem. Zelf hou ik het op een ongelukkig geval van timing -> NIC gaat in sleep/PCI-e ASPM is actief. Er komt verkeer. NIC moet van L1 naar actief en dat kost (enige) tijd. Ik zie tijden tussen de 4ns en tientallen ns. op het internet voorbij komen (met uitschieters naar unlimited). Met lspci kun je de latency voor de wakeup inzien (lspci -vv). Voor mijn i226 is de L1 waketime maximaal 64us (ofwel: ongeveer 15.000 keer per seconde). Dat kan er behoorlijk inhakken. Ik zou nog moeten testen (maar dat is er niet van gekomen) om de NIC te beperken tot L0 ipv. L1. Ik verwacht (omdat dat in mijn geval max. 512ns is) dat de performance impact dan meevalt.
Oké, goed om te weten dat hier nog iemand met hetzelfde probleem zit. Online vind ik bitterweinig hierover, of ik zoek niet goed.

Als ik L1.2 activeer, dan behaal ik echt maar 70 Mbps. Met enkel L1 wordt dat 220 Mbps, maar nog altijd veel te laag...

Is één van deze waarden hetgeen je bedoelt voor wakeup?

code:
1
LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s unlimited, L1 <64us


64us ook dan. Het zou leuk zijn mochten we de ASPM minder agressief kunnen instellen zodat die niet telkens moet wisselen bij hoge throughput, maar ik vermoed dat dat zo simpel niet is :9
HowsMyApple schreef op woensdag 25 juni 2025 @ 20:13:
[...]

Nu uitzoeken hoe ik het script over alle nodige poorten kan laten loopen en bij booten automatisch kan laten draaien.
Misschien kan je dit eens bekijken? Dit gebruik ik en ik laat dit automatisch bij het opstarten uitvoeren. Die zoekt automatisch alle ASPM-capabele devices.

https://github.com/notthebee/AutoASPM

[ Voor 21% gewijzigd door dwizsel op 25-06-2025 22:10 ]


Acties:
  • 0 Henk 'm!
Dus als de snelheid zwaar terugvalt zonder naar 1000Base of lager terug te keren, zet je kennelijk met setpci de kaart vast op een bepaalde ASPM L stand?

Als het besturingssysteem bepaalt wanneer een pcie device in en uit een lagere powerstand gaat zou dat niet moeten gebeuren tenzij de entry/exit latency extreem lang is.

Zou het kunnen dat in de ASPM stand de netwerkkaart steeds gereset wordt? Dat zou je moeten zien in dmesg.

Acties:
  • 0 Henk 'm!
@dwizsel je hebt zigbee usb adapter en toch behaalt C10? Huh, ik dacht dat onmogelijk was.
Ik zou met windows proberen, dan weet je of het aan de hw ligt, of toch de driver/os.
Je kan ook de voeding info toevoegen. Tip: maak het inventaris aan, dan hoeft je dat maar een keer te doen. Dat kan in paar minuten.

[ Voor 38% gewijzigd door andru123 op 26-06-2025 01:53 ]


Acties:
  • +2 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
andru123 schreef op donderdag 26 juni 2025 @ 01:44:
@dwizsel je hebt zigbee usb adapter en toch behaalt C10? Huh, ik dacht dat onmogelijk was.
Ik zou met windows proberen, dan weet je of het aan de hw ligt, of toch de driver/os.
Je kan ook de voeding info toevoegen. Tip: maak het inventaris aan, dan hoeft je dat maar een keer te doen. Dat kan in paar minuten.
Ja klopt, de Zigbee-adapter zorgt niet voor problemen (SONOFF Zigbee 3.0 USB Dongle Plus V2).

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
PowerTOP 2.15     Overview   Idle stats   Frequency stats   Device stats   Tunables   WakeUp                            


              Usage     Device name
             13.4%        CPU misc
             13.4%        CPU core
            100.0%        PCI Device: Intel Corporation Raptor Lake PCI Express Root Port
            100.0%        PCI Device: Intel Corporation Raptor Lake SATA AHCI Controller
            100.0%        PCI Device: Realtek Semiconductor Co., Ltd. RTL8125 2.5GbE Controller
            100.0%        PCI Device: Intel Corporation Raptor Point-S PCH - PCI Express Root Port 3
            100.0%        PCI Device: Intel Corporation Raptor Lake PCI Express Root Port
            100.0%        PCI Device: Intel Corporation Device 7a39
            100.0%        PCI Device: Realtek Semiconductor Co., Ltd. RTL8125 2.5GbE Controller
            100.0%        PCI Device: Intel Corporation Raptor Lake SPI (flash) Controller
            100.0%        PCI Device: ASMedia Technology Inc. ASM1166 Serial ATA Controller
             60.8%        PCI Device: Intel Corporation Alder Lake-S GT1 [UHD Graphics 730]
             56.8%        PCI Device: Intel Corporation Raptor Lake USB 3.2 Gen 2x2 (20 Gb/s) XHCI Host Controller
             56.3%        USB device: xHCI Host Controller
             50.1%        USB device: SONOFF Zigbee 3.0 USB Dongle Plus V2 (ITEAD)
             19.8 pkts/s  Network interface: enp3s0 (r8169)


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
PowerTOP 2.15     Overview   Idle stats   Frequency stats   Device stats   Tunables   WakeUp                            


           Pkg(HW)  |            Core(HW) |            CPU(OS) 0   CPU(OS) 1
                    |                     | C0 active   0.6%        0.5%
                    |                     | POLL        0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C1_ACPI     1.8%    0.2 ms  0.9%    0.2 ms
C2 (pc2)    8.1%    |                     | C2_ACPI     6.2%    0.7 ms  3.9%    0.7 ms
C3 (pc3)    0.0%    | C3 (cc3)    0.0%    | C3_ACPI    89.9%    9.9 ms 93.3%    9.3 ms
C6 (pc6)    6.0%    | C6 (cc6)    4.1%    |
C7 (pc7)    0.0%    | C7 (cc7)   76.1%    |
C8 (pc8)    0.0%    |                     |
C9 (pc9)    0.0%    |                     |
C10 (pc10) 57.0%    |                     |


Inventaris aangemaakt: inventaris: Server
mrmrmr schreef op donderdag 26 juni 2025 @ 00:17:
Dus als de snelheid zwaar terugvalt zonder naar 1000Base of lager terug te keren, zet je kennelijk met setpci de kaart vast op een bepaalde ASPM L stand?

Als het besturingssysteem bepaalt wanneer een pcie device in en uit een lagere powerstand gaat zou dat niet moeten gebeuren tenzij de entry/exit latency extreem lang is.

Zou het kunnen dat in de ASPM stand de netwerkkaart steeds gereset wordt? Dat zou je moeten zien in dmesg.
Ik gebruik setpci niet, maar schrijf naar files van de driver:
echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_aspm
echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_1_aspm
echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_2_aspm
echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_1_pcipm
echo 1 | tee /sys/bus/pci/drivers/r8169/0000:0x:00.0/link/l1_2_pcipm

Daarmee kan ik de substates beheren:
code:
1
2
3
4
5
6
        Capabilities: [20c v1] L1 PM Substates
                L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
                          PortCommonModeRestoreTime=150us PortTPowerOnTime=150us
                L1SubCtl1: PCI-PM_L1.2- PCI-PM_L1.1- ASPM_L1.2+ ASPM_L1.1-
                           T_CommonMode=0us LTR1.2_Threshold=306176ns
                L1SubCtl2: T_PwrOn=150us

Zoals hier te zien heb ik enkel naar l1_2_aspm 1 weggeschreven (de rest staat op -).


In dmesg staat er niets speciaals denk ik.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
...
[   30.258930] vmbr1: port 4(veth103i0) entered blocking state
[   30.258935] vmbr1: port 4(veth103i0) entered forwarding state
[   31.434949] tap110i0: entered promiscuous mode
[   31.443644] vmbr1: port 5(tap110i0) entered blocking state
[   31.443647] vmbr1: port 5(tap110i0) entered disabled state
[   31.443663] tap110i0: entered allmulticast mode
[   31.444043] vmbr1: port 5(tap110i0) entered blocking state
[   31.444044] vmbr1: port 5(tap110i0) entered forwarding state
[   31.638465] x86/split lock detection: #AC: CPU 1/KVM/3132 took a split_lock trap at address: 0xbff4b050
[   35.475068] EXT4-fs (dm-18): mounted filesystem 39022745-ca6c-4750-a171-bc64fd60dfa8 r/w with ordered data mode. Quota mode: none.
[   35.683303] audit: type=1400 audit(1750879734.708:30): apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-114_</var/lib/lxc>" pid=3162 comm="apparmor_parser"
[   36.059656] vmbr1: port 6(veth114i0) entered blocking state
[   36.059663] vmbr1: port 6(veth114i0) entered disabled state
[   36.059679] veth114i0: entered allmulticast mode
[   36.059703] veth114i0: entered promiscuous mode
[   36.133167] eth0: renamed from veth1odMSE
[   36.551309] vmbr1: port 6(veth114i0) entered blocking state
[   36.551314] vmbr1: port 6(veth114i0) entered forwarding state
[  136.627839] vmbr1: port 4(veth103i0) entered disabled state
[  136.628626] veth103i0 (unregistering): left allmulticast mode
[  136.628628] veth103i0 (unregistering): left promiscuous mode
[  136.628629] vmbr1: port 4(veth103i0) entered disabled state
[  136.808951] audit: type=1400 audit(1750879835.969:31): apparmor="STATUS" operation="profile_remove" profile="/usr/bin/lxc-start" name="lxc-103_</var/lib/lxc>" pid=4909 comm="apparmor_parser"
[  137.162680] EXT4-fs (dm-22): unmounting filesystem 531cc693-6208-4e21-9044-dbea9a1600ad.
[  138.294315] EXT4-fs (dm-22): mounted filesystem 531cc693-6208-4e21-9044-dbea9a1600ad r/w with ordered data mode. Quota mode: none.
[  138.483288] audit: type=1400 audit(1750879837.644:32): apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-103_</var/lib/lxc>" pid=4942 comm="apparmor_parser"
[  138.817937] vmbr1: port 4(veth103i0) entered blocking state
[  138.817940] vmbr1: port 4(veth103i0) entered disabled state
[  138.817972] veth103i0: entered allmulticast mode
[  138.818015] veth103i0: entered promiscuous mode
[  138.873391] eth0: renamed from vethAMoz9C
[  139.084245] vmbr1: port 4(veth103i0) entered blocking state
[  139.084248] vmbr1: port 4(veth103i0) entered forwarding state

Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 16:15
andru123 schreef op donderdag 26 juni 2025 @ 01:44:
@dwizsel je hebt zigbee usb adapter en toch behaalt C10? Huh, ik dacht dat onmogelijk was.
Ik zou met windows proberen, dan weet je of het aan de hw ligt, of toch de driver/os.
Je kan ook de voeding info toevoegen. Tip: maak het inventaris aan, dan hoeft je dat maar een keer te doen. Dat kan in paar minuten.
Dat was het ook. Zou een 14th gen het fixen? Of is het een typisch chipset dingetje.

Acties:
  • 0 Henk 'm!

  • bjp
  • Registratie: Januari 2010
  • Laatst online: 17:25

bjp

Mich schreef op donderdag 26 juni 2025 @ 11:52:
[...]


Dat was het ook. Zou een 14th gen het fixen? Of is het een typisch chipset dingetje.
ik heb een 14th gen en toch het probleem. Ligt aan de chipset, is hier al in het verleden aan bod gekomen.

8.3kW Oost-West PV en 7.7kWh thuisbatterij | WP EcoForest 1-6 PRO en dWTW | Stromer ST1 & ST3


Acties:
  • 0 Henk 'm!
bjp schreef op donderdag 26 juni 2025 @ 13:30:
ik heb een 14th gen en toch het probleem. Ligt aan de chipset, is hier al in het verleden aan bod gekomen.
@dwizsel heeft dezelfde B760 chipset , en USB dongle werkt prima in C10, blijkbaar.
In welke USB port precies zit de dongle?

[ Voor 6% gewijzigd door andru123 op 26-06-2025 15:02 ]


Acties:
  • 0 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
Die naast de PS/2-poort (de meest rechtse)

Acties:
  • +1 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
Valt te zien langs welke kant je kijkt natuurlijk, hehe.

Afbeeldingslocatie: https://tweakers.net/i/v4b4pzLCUkrIoTDmdcKYMOuMaww=/800x/filters:strip_exif()/f/image/wa8yZbypUEBnKOP1ftZqz3IZ.png?f=fotoalbum_large

Ik gebruik Zigbee2MQTT (ember). Zigbee2MQTT draait in een LXC in Proxmox.

Ik heb de laatste firmware van hier geflasht: https://github.com/xsp198...e3.0_Dongle-NoSigned/EZSP
ncp-uart-sw_7.4.5.0_115200.gbl

[ Voor 16% gewijzigd door dwizsel op 26-06-2025 16:17 ]


Acties:
  • 0 Henk 'm!

  • bjp
  • Registratie: Januari 2010
  • Laatst online: 17:25

bjp

hum interessant om te weten... ik dacht dat het niet op te lossen viel (zit met een B760 chipset ook).

Ik had toen zigbee2mqtt in mijn HAOS VM.

[ Voor 17% gewijzigd door bjp op 26-06-2025 16:50 ]

8.3kW Oost-West PV en 7.7kWh thuisbatterij | WP EcoForest 1-6 PRO en dWTW | Stromer ST1 & ST3


Acties:
  • +1 Henk 'm!

  • jelknab
  • Registratie: Oktober 2010
  • Laatst online: 20:42
jelknab schreef op donderdag 19 juni 2025 @ 09:50:
[...]


Ik was hier tot heden niet van op de hoogte, goede find, ik zie dat mijn systeem dit inderdaad ook doet. Ik ga zelf nog even kijken of ik hier wat mee ga doen, maar wellicht is wat de anderen zeggen, geen virtualisatie, de meest makkelijke optie.
Om hier nog even op terug te komen @rsvmark, ik heb mijn zfs-pools geëxporteerd uit TrueNAS en geïmporteerd op de Proxmox PVE, deze mount ik in LXC containers voor het faciliteren van Samba en andere zaken. Lijkt goed te werken, ik weet niet of het best practice is, misschien kan iemand hier met meer verstand een mening over geven.

In ieder geval is het boost clock probleem opgelost.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
root@pve:~# zpool status
  pool: tank
  state: ONLINE
  scan: scrub repaired 0B in 01:21:23 with 0 errors on Sun Jun 15 01:21:25 2025
  config:
        NAME       STATE     READ WRITE CKSUM
        store         ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            <id>      ONLINE       0     0     0
            <id>      ONLINE       0     0     0
            <id>      ONLINE       0     0     0
            <id>      ONLINE       0     0     0

errors: No known data errors
root@pve:~# cat /proc/cpuinfo | grep "MHz"
cpu MHz         : 2892.940
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 3726.583
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 4491.384
cpu MHz         : 4491.407
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 4491.309
cpu MHz         : 3302.607
cpu MHz         : 400.000
cpu MHz         : 3327.936


Ik moet zeggen dat ik de interface voor het beheer van TrueNAS wel mis, maar het is voor mij set and forget.

Acties:
  • 0 Henk 'm!

  • LeBrun
  • Registratie: November 2010
  • Laatst online: 15-09 21:31
Ik heb een optiplex 7020 kunnen overnemen, Intel Core i7 14700 :9
16gb DDR5
512gb nvme 4.0
Uitbreidings sloten:
Pcie en Pcie 16x
3 x nvme (totaal)
1 x wifi
Sata

Nu probeer ik te bedenken wat mogelijk en wenselijk is qua opslag. Begrijp ik goed dat ik 2x 2230 en 1x 2280 kan plaatsen? Ik dacht eraan om 2x 2280 ssd's van 2 of 4 tb te plaatsen, en de 500gb die er al in zit te gebruiken voor proxmox en mijn docker containers. Maar dat gaat volgens mij niet lukken. Op de twee grotere ssd's wilde ik media en backups zetten. Wat zouden jullie doen? Wat fotos van de binnenkant: Afbeeldingslocatie: https://tweakers.net/i/d9R0683GHv2zL22DVymIaaRW-4A=/x800/filters:strip_icc():strip_exif()/f/image/9ZhJ8S8ZsYlMxSoPpZvXGQPi.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/6WVL7esGdKlTtJM5YphIrjNipDM=/800x/filters:strip_icc():strip_exif()/f/image/irfU3TKwWwe8yqRbTUwDd8fq.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

Heeft iemand deze voeding wel eens gebruikt in een zuinig systeem?
Afbeeldingslocatie: https://m.media-amazon.com/images/I/71ENJly+ozL._AC_SL1500_.jpg
Die ligt hier sinds vandaag klaar voor een nieuw 24/7 draaiend systeem, maar de voedingstester (Recom T12) en multimeter (Extech EX330) geven een iets te hoge 5VSB aan (5.4V op de tester, 5.38V op multimeter), dit met alleen de tester aangesloten. Enkele specificaties terug was dat prima (+/-10%) maar tegenwoordig moet dat 5% zijn las ik.

Kent iemand deze voeding toevallig? Zag net wel in dit topic dat @Woodski een vorige versie heeft/had? Had die dat ook?

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • +1 Henk 'm!
Raven schreef op vrijdag 27 juni 2025 @ 14:09:
Heeft iemand deze voeding wel eens gebruikt in een zuinig systeem?
[Afbeelding]
Die ligt hier sinds vandaag klaar voor een nieuw 24/7 draaiend systeem, maar de voedingstester (Recom T12) en multimeter (Extech EX330) geven een iets te hoge 5VSB aan (5.4V op de tester, 5.38V op multimeter), dit met alleen de tester aangesloten. Enkele specificaties terug was dat prima (+/-10%) maar tegenwoordig moet dat 5% zijn las ik.

Kent iemand deze voeding toevallig? Zag net wel in dit topic dat @Woodski een vorige versie heeft/had? Had die dat ook?
Ik heb een analyse uit 2023 hier. Het is een DC-DC voeding met een Ricktek synchronous buck PWM controller. Het is geen zuinige voeding (fabrikant lcdx noemt 85%).

Het levert volgens specs 96W op 12V, 30W op 5V en 19,8W op 3,3V.

De spanning kan zijn geregeld door een combinatie van 2 weerstanden op de feedback pin. Vout = Vref * (1 + (R3/R2)). Bron. Vin is 12V.

Je kan de weerstanden meten (Ohm) en zien of ze voldoen aan het referentieontwerp.

Ik weet niet of op de huidige geleverde modellen nog deze chip aanwezig is.

5% is de marge, dus tussen 4,75 en 5,25W. Als de kabels lang zijn kan er vanzelf een spanningsval optreden, ook bij een last. Een iets te hoge spanning is beter dan een te lage spanning, ik zou me daar niet teveel zorgen over maken.

Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

@mrmrmr Vin 12V? Deze verwacht 19V, daar zocht ik specifiek naar, mijn DIY DC-UPS output 19V voor 2 Shuttle pc's (waarvan er 1 vervangen gaat worden).

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • +1 Henk 'm!

  • Loft
  • Registratie: Augustus 2000
  • Laatst online: 15:17
LeBrun schreef op vrijdag 27 juni 2025 @ 10:07:
Ik heb een optiplex 7020 kunnen overnemen, Intel Core i7 14700 :9
16gb DDR5
512gb nvme 4.0
Uitbreidings sloten:
Pcie en Pcie 16x
3 x nvme (totaal)
1 x wifi
Sata

Nu probeer ik te bedenken wat mogelijk en wenselijk is qua opslag. Begrijp ik goed dat ik 2x 2230 en 1x 2280 kan plaatsen? Ik dacht eraan om 2x 2280 ssd's van 2 of 4 tb te plaatsen, en de 500gb die er al in zit te gebruiken voor proxmox en mijn docker containers. Maar dat gaat volgens mij niet lukken. Op de twee grotere ssd's wilde ik media en backups zetten. Wat zouden jullie doen? Wat fotos van de binnenkant: [Afbeelding]

[Afbeelding]
Je hebt 4 M2 aansluitingen.

1 is al in gebruik, 2 en 3 zijn nog vrij. De 4e is voor wifi.
Ik zou uitzeken welke de snelste bus heeft, en die als master opslag gebruiken(ik vermoed dat 1 dat is.)

De 2 anderen voor data.

Je hebt overigens 2 x ruimte voor 2230 en maar 1 keer voor 2280 zover ik zie.

If I agreed with you, we'd both be wrong.


Acties:
  • 0 Henk 'm!
Raven schreef op vrijdag 27 juni 2025 @ 18:11:
@mrmrmr Vin 12V? Deze verwacht 19V, daar zocht ik specifiek naar, mijn DIY DC-UPS output 19V voor 2 Shuttle pc's (waarvan er 1 vervangen gaat worden).
De fabrikant geeft aan 16-24V input voor de AC/DC adapter. Ik vermoed dat er eerst een step down van 19V naar 12V plaatsvindt. Ik heb geen schema van de DC-DC voeding, dus ik kan het niet controleren.

Kun je een superscherpe goedbelichte hogeresolutiefoto maken? Dan kunnen de opschriften worden gelezen.

Acties:
  • +1 Henk 'm!
Raven schreef op vrijdag 27 juni 2025 @ 18:11:
@mrmrmr Vin 12V? Deze verwacht 19V, daar zocht ik specifiek naar, mijn DIY DC-UPS output 19V voor 2 Shuttle pc's (waarvan er 1 vervangen gaat worden).
Dat PSU is Wide Input (WI), volgens de Amazon link (dat is nauwelijks te vertrouwen, trouwens) dus kan alles tussen 16-24V. WI is trouwens minder efficient. Waarom zou je kiezen voor een no-name chinees spul van onbekende kwaliteit terwijl er zijn brand name geteste pico-PSU, met alle keurmerken (dus zeker binnen de specs) voor minder geld? :/

Acties:
  • +1 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

mrmrmr schreef op vrijdag 27 juni 2025 @ 20:36:
[...]


De fabrikant geeft aan 16-24V input voor de AC/DC adapter. Ik vermoed dat er eerst een step down van 19V naar 12V plaatsvindt. Ik heb geen schema van de DC-DC voeding, dus ik kan het niet controleren.

Kun je een superscherpe goedbelichte hogeresolutiefoto maken? Dan kunnen de opschriften worden gelezen.
Een aantal van de IC-tjes laten zich niet makkelijk fotograferen :/ , kun je hier wat mee?
Afbeeldingslocatie: https://www.ravenslair.nl/GoT2/LD-200W19VDC1.jpg
Afbeeldingslocatie: https://www.ravenslair.nl/GoT2/LD-200W19VDC2.jpg
andru123 schreef op vrijdag 27 juni 2025 @ 20:42:
[...]

Dat PSU is Wide Input (WI), volgens de Amazon link (dat is nauwelijks te vertrouwen, trouwens) dus kan alles tussen 16-24V. WI is trouwens minder efficient. Waarom zou je kiezen voor een no-name chinees spul van onbekende kwaliteit terwijl er zijn brand name geteste pico-PSU, met alle keurmerken (dus zeker binnen de specs) voor minder geld? :/
De meeste hebben 12V input, niet 19V of WI. Laat die 19V / WI varianten van PicoPSU nou niet zo gauw tevoorschijn komen tijdens zoeken bij webshops naar voedingen met DC-in en die van PicoPSU zijn niet goedkoper ;) Zie bijv. M4-ATX-HV 6-34V DC/DC (220 Watt) die ik net bij de oosterburen tegenkwam.

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • +1 Henk 'm!
@Raven M4 is voor automotive, die moet extra werk doen om bij onstabiele accuspanning toch een stabiele output te maken. Daarom niet zo zuinig als bij een stabiele voeding.

Bedankt voor de foto's. Ik kan zo een aantal ic's makkelijk lezen.

Richtek RT8105 5V/12V Synchronous Buck PWM DC-DC Controller
fixed 300 kHz, feedback voor output.
Power dissipation (verlies) 0.625W.
Vcc tussen 4,75V en 13,25V.
+
MagnaChip MDD093E SS14
Schottky diode

Techcode TD7590 5A 240KHZ PWM Buck Converter
fixed 240 KHz, 3.6V to 36V input, 90% efficient vanaf 650 mA, typische drop rondom 250 mA onder 80%.
Feedback voor output, Vout = (1+R1/R2)*1.222V.
Output tussen 1.222V to 34V.
Maximaal 36W output.
+
SS54
Schotky diode/rectifier

Aan de hand van deze componenten en de spec sheets kun je concluderen dat bij lage belasting de efficiëntie laag is, zoals bij een doorsnee ATX voeding. Bij een wat hogere belasting kan het rondom 90% zijn.

Elna RVT 35V 330pF polymeercondensator
Elna RVT 16V 660pF polymeercondensator

KS 3309 G39FSU?
Shenzhen Kingsense Electronics (Kingsense)? Sensor?

A9=87X?

Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

@mrmrmr Ok :)

Hmm, vraag mij nu wel af wat te doen, ook vanwege de 5VSB die buiten (huidige ATX-)spec is. Heb 'm vanwege de 5VSB nog niet aan een pc gehangen (alleen tester en multimeter).

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!
Raven schreef op zaterdag 28 juni 2025 @ 12:05:
@mrmrmr Ok :)

Hmm, vraag mij nu wel af wat te doen, ook vanwege de 5VSB die buiten (huidige ATX-)spec is. Heb 'm vanwege de 5VSB nog niet aan een pc gehangen (alleen tester en multimeter).
Je kan kijken naar de weerstanden van de feedback om te zien wat de bedoeling is van de spanning. Bijvoorbeeld bij de TD7590 zouden er twee weerstanden aan pin 4 verbonden zijn. Weerstanden kun je herkennen aan 'R'. Voor 5V is dat R1=6,2kOhm, R2=2kOhm. Voor 3.3V is dat R1=6,2kOhm, R2=3.6kOhm.
Ik zie er een in beeld met 30B aan pin 4, dat kan 2 kOhm zijn. De andere is niet helemaal in beeld, dus die kan ik niet controleren. Je kan de verbinding op de pcb volgen. Je kan de weerstand ook meten (voorzichtig).

Als je geen SMD componenten wil vervangen kan en je er per se iets aan wil doen kan je een weerstand tussenvoegen of iets anders dat de spanning laat dalen. Ik zou het zelf niet doen.

Acties:
  • +1 Henk 'm!

  • Woodski
  • Registratie: Maart 2006
  • Laatst online: 13:59
Raven schreef op vrijdag 27 juni 2025 @ 14:09:
Heeft iemand deze voeding wel eens gebruikt in een zuinig systeem?
[Afbeelding]
Die ligt hier sinds vandaag klaar voor een nieuw 24/7 draaiend systeem, maar de voedingstester (Recom T12) en multimeter (Extech EX330) geven een iets te hoge 5VSB aan (5.4V op de tester, 5.38V op multimeter), dit met alleen de tester aangesloten. Enkele specificaties terug was dat prima (+/-10%) maar tegenwoordig moet dat 5% zijn las ik.

Kent iemand deze voeding toevallig? Zag net wel in dit topic dat @Woodski een vorige versie heeft/had? Had die dat ook?
Zeker, al jaren in gebruik zonder problemen en ben een fan.
In gebruik hem met een 130 watt voeding van een Dell Docking station.

Wel een adaptertje gemaakt voor de voedingsstekker.
En wat extra SATA voedings stekers erbij gemaakt.
Gebruikt met een Asus prime en 2 verschillende Kontron borden.

[ Voor 5% gewijzigd door Woodski op 02-07-2025 10:15 ]


Acties:
  • +1 Henk 'm!

  • rsvmark
  • Registratie: Juli 2007
  • Laatst online: 16-09 15:56
jelknab schreef op donderdag 26 juni 2025 @ 17:21:
[...]


Om hier nog even op terug te komen @rsvmark, ik heb mijn zfs-pools geëxporteerd uit TrueNAS en geïmporteerd op de Proxmox PVE, deze mount ik in LXC containers voor het faciliteren van Samba en andere zaken. Lijkt goed te werken, ik weet niet of het best practice is, misschien kan iemand hier met meer verstand een mening over geven.

In ieder geval is het boost clock probleem opgelost.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
root@pve:~# zpool status
  pool: tank
  state: ONLINE
  scan: scrub repaired 0B in 01:21:23 with 0 errors on Sun Jun 15 01:21:25 2025
  config:
        NAME       STATE     READ WRITE CKSUM
        store         ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            <id>      ONLINE       0     0     0
            <id>      ONLINE       0     0     0
            <id>      ONLINE       0     0     0
            <id>      ONLINE       0     0     0

errors: No known data errors
root@pve:~# cat /proc/cpuinfo | grep "MHz"
cpu MHz         : 2892.940
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 3726.583
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 4491.384
cpu MHz         : 4491.407
cpu MHz         : 400.000
cpu MHz         : 400.000
cpu MHz         : 4491.309
cpu MHz         : 3302.607
cpu MHz         : 400.000
cpu MHz         : 3327.936


Ik moet zeggen dat ik de interface voor het beheer van TrueNAS wel mis, maar het is voor mij set and forget.
Bedankt voor je terugkoppeling _/-\o_

Ik heb de WTR PRO inmiddels draaiend op Truenas en dat bevalt eigenlijk prima als NAS en ARR achtige zaken 8) . Heb hier proxmox niet meer voor nodig :)
Wel is het een heethoofd met constante temperaturen tussen de 70 en 95 graden en vind ik het verbruik nog wat tegenvallen.
Wat heb ik er nu in:
- 1x 500Gb bootdrive in het wifi slot
- 2 nvme ssd van 2Tb in mirror voor de Apps pool
- 1x oude seagate hd van 2Tb erin om wat te testen tot ik mijn 2x 12TB Seagate ironwolf pro's binnen krijg.

Ik ben dus van plan de heatsink van de processor opnieuw te monteren met koelpasta en heb de aanpassing naar een 140 fan al klaar liggen (3d geprint). Kijken of ik daar de temp wat mee omlaag kan krijgen.

Acties:
  • 0 Henk 'm!

  • jvwou123
  • Registratie: Maart 2002
  • Laatst online: 18:04
rsvmark schreef op woensdag 2 juli 2025 @ 10:56:
[...]

Ik heb de WTR PRO inmiddels draaiend op Truenas
….

en vind ik het verbruik nog wat tegenvallen.
Wat is het huidige verbruik? Tegenvallend is nog al relatief begrip. Ik heb nu als test een supermicro draaien en dat valt ook iets tegen. K kom niet lager dan 10 watt. Maar dat komt met name omdat de ipmi chip iets van 3-4 watt verbruikt.
Mijn vorige server die er spontaan mee gestopt is: deskmini met amd cpu, had een minimaal verbruik van 9 watt. En dat is voor AMD best netjes, want AMD is dan in idle weer minder zuinig

Acties:
  • 0 Henk 'm!

  • baan123
  • Registratie: Augustus 2023
  • Laatst online: 02-07 11:35
Ik ben al een tijdje aan het kijken voor een vervanging van mijn 12 jaar oude servertje met 4th gen i5. De hardware is nog snel genoeg, maar ik begin wat onvoorspelbare integriteit errors te krijgen, en ik wil gewoon iets dat werkt :)

Toevallig kwam er gisteren een nieuwsbericht over de nieuwe N5 (pro) nas systemen van miniforums, maar ik knijp 'm een beetje voor longevity, power supply en bios support van de fabrikant.

Zodoende lijkt het me misschien beter om zoiets te gaan bouwen:

#CategorieProductPrijsSubtotaal
1ProcessorsAMD Ryzen 5 9600X Boxed€ 209,80€ 209,80
1MoederbordenGigabyte B650M D3HP AX€ 121,88€ 121,88
1BehuizingenInter-Tech IM-1 Pocket€ 69,09€ 69,09
1ProcessorkoelingGelid Solutions Tranquillo REV. 5€ 29,90€ 29,90
1Geheugen internG.Skill Flare X5 F5-6000J3636F16GX2-FX5€ 91,06€ 91,06
1Voedingenbe quiet! Pure Power 11 400W€ 59,38€ 59,38
Totaal€ 581,11



Wat me alleen opvalt, is dat er geen modulaire 300W power supplies zijn. Een server zal niet zo veel gebruiken, dus een 400W power supply zal dan waarschijnlijk een stuk minder efficient presteren. Pico power supplies zouden evt een optie zijn, maar dan moet ik alsnog een externe supply kopen, waar ik dan ook weer onderzoek naar moet doen :p

Een tweede hands optiplex oid is leuk, maar die kosten ook snel 400, en dan heb ik geen mogelijkheden om hardeschijven te plaatsen. In de toekomst wil ik misschien naar SSD only, maar op dit moment heb ik nog wat 3.5" schijven, waarvan ik het zonde zou vinden om ze weg te doen.

Acties:
  • 0 Henk 'm!

  • dwizsel
  • Registratie: Oktober 2012
  • Laatst online: 15-07 00:11
Ik heb diezelfde behuizing en kan enkel maar zeggen dat ik hem top vind, zeker voor de prijs! Super veelzijdig.

Je kan er zelfs nog meer hdd-ruimte in krijgen door zo'n aparte bracket te kopen:
https://nl.aliexpress.com/item/1005006907353405.html

Ik heb die op de bodem geplaatst voor 2 extra plaatsen. Enkel moet je opletten met de temperatuur dan, maar die van mij draaien niet constant.

Acties:
  • 0 Henk 'm!

  • rsvmark
  • Registratie: Juli 2007
  • Laatst online: 16-09 15:56
jvwou123 schreef op woensdag 2 juli 2025 @ 11:17:
[...]


Wat is het huidige verbruik? Tegenvallend is nog al relatief begrip. Ik heb nu als test een supermicro draaien en dat valt ook iets tegen. K kom niet lager dan 10 watt. Maar dat komt met name omdat de ipmi chip iets van 3-4 watt verbruikt.
Mijn vorige server die er spontaan mee gestopt is: deskmini met amd cpu, had een minimaal verbruik van 9 watt. En dat is voor AMD best netjes, want AMD is dan in idle weer minder zuinig
Idle tussen de 15 en 20 watt.

Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

Woodski schreef op woensdag 2 juli 2025 @ 10:13:
[...]

Zeker, al jaren in gebruik zonder problemen en ben een fan.
In gebruik hem met een 130 watt voeding van een Dell Docking station.

Wel een adaptertje gemaakt voor de voedingsstekker.
En wat extra SATA voedings stekers erbij gemaakt.
Gebruikt met een Asus prime en 2 verschillende Kontron borden.
:) , dus de voeding was niet de reden van
andru123 schreef op maandag 30 juni 2025 @ 01:41:
Ik zou me ook geen zorgen maken over een iets hogere 5Vsb, maar na de ervaring van Woodski begrijp ik nu waarom je het toch wilt controleren. Het kan natuurlijk puur toeval zijn.
?

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 15-09 21:36
Ik heb mijn Home Assistant met (Plex en Zigbee USB Stick) al een aantal jaren op een oude Dell Latitude 7480 (i5-7300U/8GB/256GB) draaien, niet bijzonder getuned voor stroomverbruik en stond zelfs vaak nog met het scherm aan. Volgens mijn TP-Link HS110 zou deze gemiddeld 8W verbruiken.

Omdat ik dit systeem wou vrij maken voor een Proxmox setup en ik hoopte nog iets te kunnen zakken in stroomverbruik, heb ik een Dell OptiPlex 3060 (i5-8100T 2.1GHZ 8GB 256GB) gekocht.

Het stroomverbruik is licht gestegen naar 9.5W met veel meer pieken, wat me een beetje verbaasd. Bij de Dell Latitude stond WIFI, Bluetooth en het LCD scherm aan, en bij de Optiplex heb ik WIFI en Bluetooth uitgezet en zit er sowieso geen monitor aan gekoppeld

Links de Latitude, rechts de Optiplex.
Afbeeldingslocatie: https://tweakers.net/i/8lYZ7uFxHIsA8zOzQ0LPPZ1ZMhY=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/wPUsJAKmbRw0KsjJTPIW5XLF.png?f=user_large

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

Ik heb de CPU type van HAOS in Proxmox omgezet van x86-64-v2-AES naar host.
Het lijkt dat dit nogal een verschil maakt.

Afbeeldingslocatie: https://tweakers.net/i/wVkqW9wILre9ygTX5E1V6u2glNQ=/232x232/filters:strip_exif()/f/image/EwwLnX23uJm380DU8lpqoVJX.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/ezwgu6uCXQez1g7lvFS2fA0vdUs=/232x232/filters:strip_exif()/f/image/fUqL3kkjoS5UTDrChcX1vsJq.png?f=fotoalbum_tile

Links CPU verbruik van de PVE host, rechts stroomverbruik van de PVE host.
Ik vind het nog steeds aan de hoge kant, maar op zich niet heel gek met 2 zigbee, 1 Z-Wave, 1 BT, 1 Coral USB en 5 camera streams in Frigate (kost sowieso 5W).

Gebruikte smartsocket is een Athom plug v3 met Tasmota.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
Quad schreef op vrijdag 4 juli 2025 @ 23:22:
Ik heb de CPU type van HAOS in Proxmox omgezet van x86-64-v2-AES naar host.
Het lijkt dat dit nogal een verschil maakt.

[Afbeelding][Afbeelding]

Links CPU verbruik van de PVE host, rechts stroomverbruik van de PVE host.
Ik vind het nog steeds aan de hoge kant, maar op zich niet heel gek met 2 zigbee, 1 Z-Wave, 1 BT, 1 Coral USB en 5 camera streams in Frigate (kost sowieso 5W).

Gebruikte smartsocket is een Athom plug v3 met Tasmota.
Heb je toevallig een redelijk recente CPU met AVX512 ondersteuning? Misschien dat Frigate (of iets anders in je VM) deze nu wel aan het gebruiken is, en het voorheen moest doen met minder efficiënte instructies.

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

Frigate verbruikt sowieso weinig CPU omdat ik een coral TPU gebruik.

Host CPU is een i5 10th gen trouwens.

[ Voor 23% gewijzigd door Quad op 04-07-2025 23:49 ]

Alles went behalve een Twent.
PVOutput☀️

Pagina: 1 ... 109 ... 115 Laatste