Acties:
  • 0 Henk 'm!

  • jocd
  • Registratie: Maart 2007
  • Laatst online: 18-09 19:11
FireDrunk schreef op donderdag 22 mei 2025 @ 08:59:
Voor de mensen die net als ik de nieuwste versie van PowerTOP willen gebruiken op Debian 12, maar geen zin hebben in gekke crosscompilatie, of van source compilen, PowerTOP werkt prima vanuit een Docker container :)

code:
1
2
3
FROM debian:testing
RUN apt update && apt install powertop -y
ENTRYPOINT ["/usr/sbin/powertop"]


code:
1
docker build -t powertop:latest .


code:
1
docker run -it --pid=host --privileged powertop:latest
Goed voor in de openingspost tips denk ik! Heb zelf ook redelijk lang moeten klooien om het op een andere manier werkend te krijgen op debian 12

Acties:
  • +1 Henk 'm!
Ik heb Trixie (Debian 13, nu in een status "hard freeze") heel kort getest. Op een D3643-B met 2 netwerkkaarten meet ik nu 3,8W. Het verbruikt ongeveer 0,1W meer dan de laatste versie van Debian 12.

Upgraden kan door dit toe te voegen aan de apt conf:
deb https://deb.debian.org/debian trixie main contrib.
De oude verwijzingen naar bookworm kun je disablen met '#'.

apt update
apt dist-upgrade
:q


q beëindigt de editor zodat de installatie doorgaat.

Acties:
  • 0 Henk 'm!
andru123 schreef op donderdag 22 mei 2025 @ 18:26:
[...]
En dat is niet gek? ;) Werkt het op host systeem niveau, of alleen in dat container? Na herstart?
Je kan het niet zo makkelijk als service draaien, kan ik wel een keer een scriptje voor maken als je wil.

Even niets...


Acties:
  • +4 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Een stuk langzamer dan 10Gb/s, maar ik denk erover om een 2,5Gbit nu er een switch is die 1,1w gebruikt wanneer geen van de geen poorten aangesloten zijn en 6,8w met alle vijf poorten op maximale snelheid.

Bron (abbo nodig, Duits: C't)

NB deze switch heeft problemen met 1Gb SPF modules, niet kopen als je die nodig hebt

Specs van de overige geteste modellen, watt bij: geen poorten - alle poorten - aantal poorten 2,5Gb/s

Keeplink KP 9000 6XHML2 1,4 - 6,7 - 4
Mokerlink 2G04210GSMX 2,0 - 9,7 - 4
Sodula SL-SWTGW215AS 1,6 - 6,8 - 5
Yulinka 2G06210GSMN 1,4 - 7,0 - 4
Zyxel XMG1915-10E 5,4 - 13,6 - 8

[ Voor 31% gewijzigd door spoor12b op 24-05-2025 17:28 ]

spoor12b


Acties:
  • +1 Henk 'm!

  • N8w8
  • Registratie: Mei 2000
  • Niet online
@spoor12b, tnx, hier kan men t gratis lezen.
Servethehome heeft enorm veel vergelijkbare switches getest, ook op verbruik.
Bijv deze lijkt op die Vimin qua basis specs, en is ook zuinig.
Al testen ze anders dus is lastiger vergelijken.

Acties:
  • +2 Henk 'm!

  • Yariva
  • Registratie: November 2012
  • Laatst online: 19-09 17:32

Yariva

Moderator Internet & Netwerken

Power to the people!

Yariva schreef op dinsdag 1 oktober 2024 @ 11:48:
Ik denk dat ik eruit ben. Nu is deze maand een beetje krap met de financiën maar mogelijk voor volgende maand of ergens na januari wil ik 3 systemen vervangen door 1. Ik heb hier in het verleden al een post over geschreven maar heb nu een opstelling waar ik wel blij van word. In het kort:
  1. Systeem waarop EVE-NG draait kan sowieso weg, deze gebruik ik nog amper.
  2. Systeem waar al mijn VM's en containers op draaien kan uit, infra verplaatsen naar nieuw te bouwen NAS / server
  3. Huidige NAS vervangen met nieuw te bouwen NAS
Mocht ik aan de slag gaan met een nieuw systeem en alle onderdelen kopen betekend dit het volgende voor mijn setup:
  1. Bespaart stroom: zuinigere chip in nieuwe NAS en i.p.v. 3 systemen maar 1 aan. En dus maandelijks minder geld naar de energieboer
  2. Bespaart ruimte: Leuk want dan kan ik mijn NAS naar mijn krappe meterkast verplaatsen. Dit opent de weg om iets luidere maar goedkopere schijven te gebruiken. Dit zou niet handig zijn in mijn kantoor waar hij nu in staat.
  3. Speelt geld vrij: bij de verkoop van de 3 machines welke toch wel leuke specs hebben maar simpelweg overkill zijn voor mijn situatie, te veel stroom vreten en ruimte in mijn appartement innemen.
  4. Toekomstbestendiger: Nieuwe zuinige Intel chip is behoorlijk efficiënter en zal meer resources kunnen dragen dan bijvoorbeeld de Ryzen 3200G welke ik nu heb draaien in mijn NAS.
Wat heb ik bij elkaar gesprokkeld:

ProducttypeNaamPrijsAantalTotaal
Mobo + CPU Intel N305ODROID - H4 Ultra€259,951€259,95
GeheugenCrucial CT48G56C46S5€116,501€116,50
SSDWD Blue SN580 1TB€61,571€61,57
PSUODROID Voedingsadapter - 19V / 7A€451€45
USB Stick als bootable mediumWillekeurige USB 3.0 stick van 32GB. Waarschijnlijk iets van Sandisk€101€10
SATA data en stroomkabelsODROID SATA Data en Power Kabel voor H Serie - 200mm€4,954€19,8
StroomknopODROID LED Power Knop€10,951€10,95
FanMogelijk Noctua, afhankelijk van grootte (120 / 140)€151€15

Totaal (exclusief verzendkosten) ~€538,77

Voor schijven denk ik voor nu aan 2x deze 16TB schijven: uitvoering: Seagate Exos X18 (SATA, Standard model), 16TB. Nog wel even opletten naar deze schijven en hoe ze lekker energie efficient kunnen draaien met Linux. Daar zijn al een aantal artikelen over gemaakt: https://forums.unraid.net...shutdowns-or-read-errors/.

Waarom deze combi: De N305 lijkt mij een fijne processor voor mijn applicaties. O.a. home assistant, plex, een download straat met de nodige *Arrrrs, unifi controller en natuurlijk in de core dataopslag. Ook biedt het Mobo genoeg toekomstperspectief met 2,5gb/s connectiviteit en 4 SATA poorten.

Ik draai nu 4x4TB en wil migreren naar 2x16TB. Ik vermoed dat dit an-sich niet zeer veel energie gaat besparen (je gaat van 4 naar 2 schijven maar die 2 schijven zijn wel wat moderner en moeten mogelijk sneller spinnen voor die extra TB's etc.) maar het levert wel 4TB extra op. En dan heb ik nog ruimte over voor nog 2x 16TB schijven om later bij te prikken mocht dit nodig zijn. Vandaar ook de 4x SATA kabels in de build. Verder een 1TB SSD voor de nodige applicatie opslag (alle containers en VM's) zodat deze de schijven niet belasten en deze in ruststand kunnen gaan. Mocht ik ooit naar 4x16TB gaan lijkt mij de 48GB dan ook voldoende voor de setup + applicaties / containers / VM's.

Gezien ik nu jaarlijks enkel al aan stroomkosten 100 euro kwijt ben en ik verwacht dat deze build serieus veel minder gaat verbruiken lijkt mij 80 euro winst per jaar niet onrealistisch. Dat betekend dat deze build zich na ~7 zichzelf al zou hebben terug verdient. En dat is nog los van alle flexibiliteit, eenvoud, minder ruimte en toekomstbestendigheid wat voor mij ook waarde is.

Met een berekening op een bierviltje kom ik voor het systeem ongeveer uit op 14 a 15 watt idle met 2 schijven. Dat zou een besparing van 85% moeten zijn onder idle verbruik op de energierekening.

Nu ontbreekt er nog wel iets: het lijkt mij erg leuk om samen met een maatje een case te 3D printen :) Vandaar ook de stroomknop! Lekker compact zodat ik hem gemakkelijk kan bevestigen in mijn meterkast. Vierkante box, bovenin het moederboard met kabels naar beneden naar een 4 bay HDD ruimte (non hot-swap.) Aan de zijkant een ventilator om het bordje en de harde schijven te koelen en dan zou alles in een compact, goed geventileerde box moeten werken met enkel een 133 watt voedingsadapter :*) Ik heb nog geen idee hoeveel dit mij gaat kosten (waarschijnlijk kwa grondstoffen zal het nog wel mee vallen. Tijd en energie daarin tegen... Maar het moet vooral een leuk projectje zijn.)

Ik ben benieuwd wat jullie ervan vinden :) Voor mij is dit een heel mooi pakketje welke energie zuinig / efficient en CPU kracht (voor die Plex 4K transcoding CPU taken met bijv. obscure ) combineert met een compacte vormfactor en mogelijkheden tot uitbreiding in de toekomst.
Hey beste Tweakers, inmiddels heb ik een aparte post hierover geschreven gezien het wat meer raakvlakken heeft dan enkel een zuinige server. Al met al erg tevreden met het eindresultaat! Yariva's compacte zuinige 3D-print 4-bay Unraid NAS build. Dank voor jullie tips en top's gedurende deze rit!

Mensen zijn gelijk, maar sommige zijn gelijker dan andere | Humans need not apply


Acties:
  • +1 Henk 'm!
Er is een vergelijking gepubliceerd op Youtube tussen een "silicon" AC/DC switched power supply en een GaN power supply.

GaN = Gallium Nitride (gallium en stikstof)

YouTube: Everything is Better: GaN vs Silicon Power Supplies

Opmerkelijk is dat bij deze Cosel TECS45-F12 (45W, 12V) ook bij relatief lage belasting nog efficiënt blijft in tegenstelling tot andere GaN adapters. Met 45W is het wel een relatief kleine adapter.

Gelukkig heeft de tester metingen gedaan ook bij zeer lage belasting. Dat verduidelijkt veel ten opzichte van grafieken elders die pas beginnen bij belasting hoger dan de idle belasting van een zuinige computer.

Afbeeldingslocatie: https://tweakers.net/i/tFpizv-0udOi2N7J4vOLtHj11ao=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/tVNoXvB5O4vT9tg4WdKzJoy3.jpg?f=user_large
De verdeling op de x-as is logaritmisch. Bijvoorbeeld de eerstvolgende vertikale lijn na 1W is 1,1W, op flinke afstand van de dikke lijn bij 1W.

Opmerking: het is duidelijk dat de tester niet veel ervaring heeft of niet teveel kan zeggen omdat hij gesponsord wordt door de fabrikanten. Hij merkt zelf op dat het op sommige punten eerder een vergelijking tussen twee producten dan tussen silicon en GaN. Er zijn veel zuinigere silicon adapters verkrijgbaar die ook bij lage belasting nog goed presteren.

De video toont ook dat het no load verbruik bij deze GaN de silicon adapter tamelijk hoog is: ~1,25W (AC). Iets dergelijks zien we ook bij de DC-DC PicoPSU voeding die bij lage belasting iets minder verbruikt. Dat ontwerp is 15 à 20 jaar oud. In die tijd was een laag verbruik in standby nog niet verplicht. Dat kan ongetwijfeld worden verbeterd in de PicoPSU ontwerpen.

Acties:
  • 0 Henk 'm!
andru123 schreef op zondag 1 juni 2025 @ 14:20:
@mrmrmr 1.25W idle is bij silicon supply, de GaN exemplaar heeft 110 mW idle.
Het is een niet beste silicon adapter. Ik denk het punt van de video is dat GaN = altijd beter.
Bedankt, gecorrigeerd! Ik was nog niet helemaal wakker.

In de praktijk is GaN zeker niet altijd beter omdat GaN bij lage belasting vaak niet zuinig is, maar deze GaN adapter maakt gebruik van moderne technologie. Het is nogal avant garde.

Veel GaN adapters (met name nonames uit China, goedkope labelplakkende merken) hebben een miserable efficiëntie bij lage belasting. De zuinige "silicon" adapters zijn dan nog steeds beter. Pas bij hoge belasting worden dergelijke GaN adapters wel zuinig.

Die 45W is strategisch gekozen, want dan is er nog geen power factor correctie (pfc). Dat zou de efficiëntie omlaag brengen. Met name bij de wat hogere belasting. Adapters schakelen pfc dan automatisch in.

[ Voor 21% gewijzigd door mrmrmr op 01-06-2025 14:54 ]


Acties:
  • 0 Henk 'm!

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 08:19
Hey allemaal,

Ik heb een Intel NUC 10 met een Intel i7-10710U CPU.

Ik draai proxmox, maar merkte dat ik niet lager kwam dan C2 in powertop.

Na de low power mode etc in de bios te activeren zie ik dit:

Afbeeldingslocatie: https://tweakers.net/i/EB_F1swIbThVdIBnKbW0ikduvGk=/800x/filters:strip_exif()/f/image/r6Txr9W8UYaPZGCLyDXneFjk.png?f=fotoalbum_large

Is dit ok zo? Ik begin pas net mijn voetjes nat te maken in power efficiency etc :)

Acties:
  • +1 Henk 'm!
@dotcom87 De package C state (links) komt in C9. Dat is goed. C2 betekent doorgaans dat er actieve processen zijn die de package uit de hoge C states houdt. Er kan een achtergrond proces zijn, of misschien powertop zelf. Als het powertop zelf is, kun je simpel even wachten na het startscherm en daarna nog eens kijken met een keer tab indrukken.

De ACPI C states (rechts) zijn een weergave van powertop van cpu core C-states. Powertop valt terug naar de standaard ACPI C states als de processor niet herkend wordt. In werkelijkheid kan het C8-C10 zijn.

Je kan een nieuwere versie van powertop proberen, versie 2.15 is er al geruime tijd. Het lost misschien dit cosmetische probleem op. Bij sommige Linux distributies zoals Debian 12 is 2.14 de laatste versie, als je een nieuwere versie wil kun je die zelf compileren of lenen uit een gerelateerde distributie (Ubuntu). Er zijn verschillen in libraries die foutmeldingen kunnen geven.

[ Voor 3% gewijzigd door mrmrmr op 03-06-2025 12:40 ]


Acties:
  • 0 Henk 'm!

  • LeBrun
  • Registratie: November 2010
  • Laatst online: 15-09 21:31
Na en hele tijd lurken en twijfelen over mijn eerste server, zie ik nu op Marktplaats een Dell optiplex 7010 SFF met een Intel Core i5 13500, 32GB Ram en 256 SSD voor 299€. Vinden jullie dat een ok prijs, en is het geschikt om als zuinige server te dienen voor deze beginner?

Ik heb nu op een pi 4b docker draaien met home assistant, pi hole, grafana en teslamate. Ik zou graag willen beginnen met jellyfin en experimenteren met vm's

Ik overwoog eerst odroid h4+, maar dat is alles bij elkaar ook niet goedkoop. En een kant en klare mini pc uit China vind ik toch een beetje de luie optie :-)

Acties:
  • +1 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:31
De MFF varianten zullen nog beter zijn qua zuinigheid dan de SFF varianten. De SFF biedt wel meer uitbreiding opties. Voor de rest mooie toestellen van Dell.

[ Voor 14% gewijzigd door GoBieN-Be op 04-06-2025 21:55 ]


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 03:16
Enige voordeel van een SFF is dat je er een extra 3.5 HDD in kan steken.
De MFF varianten zijn zuiniger en je kan er een M2 en gewone SSD in kwijt.
Verbruik bij mij is met 20 docker containers tussen de 6,9 - 9w met natuurlijk soms uitschieters als een docker actief wordt. Gemiddeld zal ik rond de 8w zitten schat ik.
Ik heb er hier 3 in gebruik en zijn fantastisch.
Zie dat je wel niet de 3080 mff versies koopt. Daar staat de fan op een te hoog toerental ingesteld wat je niet kan aanpassen en die maken een scherp geluid.

Acties:
  • 0 Henk 'm!

  • LeBrun
  • Registratie: November 2010
  • Laatst online: 15-09 21:31
Ik zou graag ook de mogelijkheid willen hebben om er ook een NAS/jellyfin server van te maken. Dan lijkt mij de ruimte voor minstens 2 HDD's wel het minimum?

Goed om te weten dat er in die SFF ook maar 1 3.5HDD bij kan.

Acties:
  • +1 Henk 'm!

  • Bontje Blauw
  • Registratie: Februari 2003
  • Laatst online: 19-09 12:26
LeBrun schreef op donderdag 5 juni 2025 @ 08:28:
Ik zou graag ook de mogelijkheid willen hebben om er ook een NAS/jellyfin server van te maken. Dan lijkt mij de ruimte voor minstens 2 HDD's wel het minimum?

Goed om te weten dat er in die SFF ook maar 1 3.5HDD bij kan.
Ik heb ook een Dell SFF (3470) in gebruik, met een vergelijkbare usecase. Dat bevalt mij prima.
Ik draai alles soepel op een i5-8600 (6 core) met 32GB l, 1x 512mb sata ssd en 1x 10TB hdd.
Oa. minecraft server, immich, homeassistant, windows VM, Nextcloud, ESPhome en wat linux distro's om mee te spelen.

Die Dell Optiplex 7010 met een i5-13500 heeft echt power en cores zat en 32 GB is wel een fijn startpunt. Daar kun je heel wat dockers op draaien incl VM's. Ook zijn deze office PC's al erg zuinig.
Er zit een 3.5" hdd case in, daar kan je vaak ook wel 2 x een 2.5" ssd in zetten.
Enige is dat je dan denk ik wat powerkabels te kort hebt en een bracket nodig hebt. Vaak zit er maar een 1x sata en 1x molex powerkabel in zulke DELL SFF's. Maar dat is makkelijk op te lossen. Wellicht heeft de verkoper daar iets voor.
Er zitten ook al 3 m.2 slots op het moederbord zag ik, 2x 2230 en 1x 2280. Check of deze alle 3 samen kunnen of alleen een combinatie van 2.
Ssd's kunnen nog wel eens low powerstates tegenhouden, omdat ASPM niet goed wordt ondersteund. De betere merken doen dat vaak beter in dat opzicht.
De PCIe slots kun je ook nog gebruiken voor m.2 ssd adapters of een low profile, single slot GPU <75W.
De koeling is vaak wel wat beperkt, cpu, m.2 ssd gaat allemaal prima maar een 3.5" hdd die flink aan de bak moet voor een langere tijd krijgt het wel warm, want die zit opgesloten en heeft weinig vrije lucht. (bij mij wordt die dan z'n 46 graden zonder enige casefans, alleen cpu koeler)
De afmetingen zijn wellicht ook wat groot voor in een kleine meterkast.

Ik gebruik Unraid 7.1 met 1 sata ssd (cache pool) als locatie voor docker en VM's en een 3.5" hdd (array) voor opslag data en foto's. Wil je data integriteit, dan heb je meerdere ssd' of hdd's nodig in een pool/array.
En dat is goed te realiseren met deze Dell Optiplex.

De prijs vind ik netjes, daar kan je deze specs niet zelf voor in elkaar zetten. En bij die refurbished aanbieders op marktplaats betaal je zeker meer :-)

[ Voor 3% gewijzigd door Bontje Blauw op 05-06-2025 10:24 ]

COTE!


Acties:
  • 0 Henk 'm!

  • Ankh
  • Registratie: Mei 2001
  • Laatst online: 11:32

Ankh

|true

Ik loop nu al uit mijn storage (5TB) en moet dus toch mijn mergerfs+snapraid gaan uitbreiden. Nu zoek ik een mini-ITX kast waar ik 4x 2,5" (15m) disken in kunnen. Ik heb er een paar op het oog (o.a. inwin MS04), maar misschien dat jullie nog een goede en vooral kleine oplossing hebben?

-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8


Acties:
  • +1 Henk 'm!

  • _Apache_
  • Registratie: Juni 2007
  • Laatst online: 10:49

_Apache_

For life.

Ik heb een oude Optiplex in mijn handen gedrukt gekregen, heb even gekeken wat deze idle verbruikt.
Een core i5 10th gen met 8GB. En dat was zo een 30W, maar daar staat nog Windows 10 op, hingen toetsenbord/muis en displayport aan, en de GPU stond nog aan.
Dus verwacht dat dat nog wel een beetje kan zakken.

Heb er nu ubuntu24 op gezet, en zal de gpu eens uitzetten, wat het dan doet.

Om een beetje vlotte storage op te zetten overweet ik een PCI-e kaart met 2 m2's erop.

[ Voor 21% gewijzigd door _Apache_ op 05-06-2025 11:35 ]

Zero SR/S 17.3kWh / 2700WP PV / HRSolar zonneboiler


Acties:
  • +1 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 03:16
LeBrun schreef op donderdag 5 juni 2025 @ 08:28:
Ik zou graag ook de mogelijkheid willen hebben om er ook een NAS/jellyfin server van te maken. Dan lijkt mij de ruimte voor minstens 2 HDD's wel het minimum?

Goed om te weten dat er in die SFF ook maar 1 3.5HDD bij kan.
De HP elitedesk SFF series hebben normaal gezien plaats voor 2 3.5 HDD's. Soms komen die wel is langs op tweakers 2dehands.
Zelfbouw kan je ook doen natuurlijk.

Acties:
  • +1 Henk 'm!
andru123 schreef op vrijdag 6 juni 2025 @ 14:50:
@Ankh node 304 heeft ruimte voor 4 hdds, maar hoe zuinig het is tov je huidige systeem? Beter een grotere HDD. maak een inventaris van je systeem, dan wordt het makkelijker.
Je bedoelt 6 :9 Maar dat hangt wel af van de koeler die je op de CPU zet.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Ankh
  • Registratie: Mei 2001
  • Laatst online: 11:32

Ankh

|true

andru123 schreef op vrijdag 6 juni 2025 @ 14:50:
@Ankh node 304 heeft ruimte voor 4 hdds, maar hoe zuinig het is tov je huidige systeem? Beter een grotere HDD. maak een inventaris van je systeem, dan wordt het makkelijker.
Ik heb 2,5" disken erin zitten met de spindown optie geselecteerd. Is dus zeer zuinig.
Alleen wanneer er data wordt weggeschreven op de disk dan gaat ie aan.

Zo'n kast is wel wat overkill, ik heb max 4 SATA poorten.

-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8


Acties:
  • 0 Henk 'm!
@Ankh zeer zuinig is een relatief.. wat is je meting?
@Mars Warrior huh inderdaad 6. Ik ben helemaal vergeten, jaren niet open gemaakt. Opvallend weinig goede miniITX kleine kasten. 10 jaar geleden, en nu nog steeds.

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 07:58
Weet hier iemand of in een Kontron K3842-Q2 middels een converter een nvme ssd geplaatst kan worden in de M.2 2230 ((Key-E, WLAN/Bluetooth modules, incl. CNVi support) connector?

Als dat zou kunnen zou ik daarvan willen kunnen booten om de 2xnvme vrij te houden voor een mirror voor applicatie data.


Ik vond al wel de f5000-m004 adapter van kontron die voor dit slot gemaakt is en via een asmedia asm1061 twee extra sata poorten biedt. Of hij daarvan kan booten kan ik niet vinden.

[ Voor 23% gewijzigd door daansan op 08-06-2025 23:36 ]

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Mijn OMV / Odroid H4+ NAS build is afgerond en zojuist heb ik de brennenstuhl meter gebruikt om naar het energieverbruik te kijken. Ik kom uit op een verbruik in idle van 27 watt en onder load 32.

Ik had gehoopt dat dit flink lager zou zijn want volgens mij zou de H4+ in idle maar een paar watt moeten gebruiken als je hem goed configureert. Maar volgens mij zijn de instellingen in orde want ik zie in powertop dat hij voor 71% in C10 draait.

Dan blijft over: tweemaal een HC550 18TB hdd a 5,5watt zonder te schrijven, tijdens schrijven 6,5 , 32GB geheugen, een Samsung 980 512GB (zou in idle ook zeer zuinig moeten zijn <1 watt).

Ik kom dan uit op 13 watt voor de harddisks, voeding 19v (2 watt?) en dan blijft er ca. 12 watt over voor het geheugen, de SSD en de Odroid H4+.

Dat lijkt me aan de hoge kant of zie ik ander verbruik over het hoofd? Ik heb de powerlimit in de BIOS op 30.000 laten staan, volgens mij heeft het weinig zin om deze te verlagen (ivm race to idle). Verder is er geen toetsenbord en beeldscherm aangesloten en wordt er één netwerkport gebruikt.

Het energieverbruik van de harddisks wordt ook bevestigd in de documentatie van WD.

[ Voor 3% gewijzigd door spoor12b op 09-06-2025 11:02 ]

spoor12b


Acties:
  • 0 Henk 'm!
@spoor12b Een doorsnee adapter is ongeveer voor 80-85% efficient. Een level VI voeding is minstens 87% efficient.

Een 1 Gbps netwerkverbinding is veel zuiniger dan 2.5Gbps, en een 100 Mbps is tamelijk zuinig en kan 0,2-0,6W verbruiken (Intel I210/I211). Een switch zou idealiter EEE moeten ondersteunen, dat is energy efficient ethernet.

Ik denk dat je het best kunt kijken naar draaiende processen. Misschien is het niet idle en draait er iets. Bijvoorbeeld beeldverwerking.

Kijk je naar de juiste waarde (Watts, niet kWh)?

De instellingen voor Linux staan in de topic start inclusief details. Als je geen xset (GUI) gebruikt kun je consoleblank als kernelparameter instellen. Heb je powertop --auto-tune gedraaid ? Bij elke herstart gaan de instellingen verloren tenzij je powertop --auto-tune als service draait of in een script de instellingen uitvoerd.

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
@mrmrmr Ik gebruik de voeding van Odroid zelf, volgens mij zag ik in diverse posts staan dat hij zuinig is maar ik weet dan nog niet het verbruik.

De ethernet verbinding loopt op 1Gb/s en de Odroid H4+ gebruikt de zuinige chips van Intel (I211 volgens mij).

Ik draai een aantal docker containers en geen VMs, er is één container die redelijk wat load geeft en als ik die stop dan daalt het gebruikt met 0,5 - 1 watt.

De xset GUI ben ik niet mee bekend, ik draai OMV en de GUI gebruik ik wel.

Powertop --auto-tune draait wordt inderdaad bij iedere reboot gestart. Ik zie bij powertop onder tunables alles op Good staan.

Als ik in top kijk dan lijkt het CPU gebruik zo rond de 10% te liggen, ik heb niet het idee dat daar nog veel te halen valt? Ook volgens powertop zitten alle cores voor rond de 90% in C10.

spoor12b


Acties:
  • 0 Henk 'm!
@spoor12b Je kan met behulp van top, een voor een de veeleisende processen beëindigen en kijken welk effect dat heeft (wel even wachten tot het zich stabiliseert).

xset is een command line tool waarmee monitor/gpu settings kunnen worden gedaan. Maar meestal wordt dat al gedaan in en via de grafische interface. Misschien kun je zoeken bij instellingen wat daar is ingesteld. Er zijn 2 belangrijke onderdelen: het aansturen van de monitor naar slaapstand (DPMS) en het in slaapstand zetten van de gpu.

Hangt er nog iets anders aan de computer, bijvoorbeeld via USB3?

De BIOS instellingen laat ik over aan de (ervarings-)deskundigen met Odroid.

Acties:
  • 0 Henk 'm!
daansan schreef op zondag 8 juni 2025 @ 22:44:
Weet hier iemand of in een Kontron K3842-Q2 middels een converter een nvme ssd geplaatst kan worden in de M.2 2230 ((Key-E, WLAN/Bluetooth modules, incl. CNVi support) connector?

Als dat zou kunnen zou ik daarvan willen kunnen booten om de 2xnvme vrij te houden voor een mirror voor applicatie data.


Ik vond al wel de f5000-m004 adapter van kontron die voor dit slot gemaakt is en via een asmedia asm1061 twee extra sata poorten biedt. Of hij daarvan kan booten kan ik niet vinden.
In de technotes staat:
Supports PCIe x1 and USB 2.0 for WLAN and Bluetooth modules
en
This M.2 2230 socket cannot be used for M.2 2230 SSD modules!
De interface heeft USB data '+' en '-' pinnen en pinnen voor het uitschakelen van WLAN en Bluetooth en diverse CNV pinnen.

De snelheid is maximaal x1 Gen3 (1 GB/s).

Een schema voor M.2 key E staat in dit document.

Of NVMe werkt en boot weet ik niet. Wie het weet mag het zeggen.

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
@mrmrmr Ik heb ook top gebruikt voor analyse en daar kwam dan enkel een container uit die wat meer gebruikt. Voor de rest lijkt de load heel laag te zijn.

xset heb ik niet gebruikt omdat het een headless systeem is, heeft dat alsnog zin?

Verder zit er niets aangesloten op het systeem (geen monitor, toetsenbord, USB sticks etc.).

spoor12b


Acties:
  • +1 Henk 'm!
spoor12b schreef op maandag 9 juni 2025 @ 12:55:
xset heb ik niet gebruikt omdat het een headless systeem is, heeft dat alsnog zin?
Ah, dat verandert de zaak. Ik zou wel een monitor aansluiten voor testdoeleinden. Daarna in de X GUI (als die aanwezig is) de instellingen optimaliseren. Dat is het makkelijkste. xset op de command line is niet erg gebruiksvriendelijk. Verder kun je consoleblank toepassen onder het mom van "baat het niet, dan schaad het niet". Dat is specifiek voor systemen zonder X.

Dit alles om zeker te weten dat de gpu in slaapstand komt of staat.

Zie de link die ik gaf voor details.
Verder zit er niets aangesloten op het systeem (geen monitor, toetsenbord, USB sticks etc.).
Ik zou dan ook eens booten zonder hard disks (computer uit, SATA voedingstekkers losmaken), zodoende kun je zien hoeveel de hard disks nu echt aan de stekker verbruiken.

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
mrmrmr schreef op maandag 9 juni 2025 @ 13:13:
Ik zou dan ook eens booten zonder hard disks (computer uit, SATA voedingstekkers losmaken), zodoende kun je zien hoeveel de hard disks nu echt aan de stekker verbruiken.
Goed idee, meten is weten :)

Het verbruik zonder de harddisks is zo'n 13 watt dus het opgegeven verbruik van WD lijkt aardig te kloppen.

Dit is een groot verschil met de, in theorie, haalbare 4,4 watt.

Hardkernel spreekt zelf over een TDP van 12watt en ik neem aan dat dit het maximum is. Zonder de harddisks heeft de CPU nu een temperatuur van 48 graden en is de load,zoals verwacht laag:

Afbeeldingslocatie: https://tweakers.net/i/Oyol-8sKMa2ys1WtsZqmxFfJUTs=/x800/filters:strip_exif()/f/image/nCW5xm2ssi5X4rtXQCCCOyDM.png?f=fotoalbum_large

[ Voor 9% gewijzigd door spoor12b op 09-06-2025 15:59 ]

spoor12b


Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Mars Warrior schreef op maandag 9 juni 2025 @ 17:06:
@spoor12b duidelijk is dat je GPU fully powered is. Dat zal de nodige watjes kosten 🤨

Die moet eigenlijk in RC6p komen.
@Mars Warrior Daar had ik helemaal overheen gekeken, da's natuurlijk niet de bedoeling!

Ik heb nu de aanpassing uitgevoerd in grub, in de BIOS onder GT power management control RC6 render standby enabled en de max GT frequency teruggebracht. Het verbruik is nu met 2 watt gedaald maar in powertop staat GPU powered on nog steeds op 100%

Het is me niet helemaal duidelijk wat ik nu moet doen:

setterm --powerdown 0

en

setterm --powersave on

lijkt hierop geen invloed te hebben (OMV/Debian)?

edit:

Ook lspci -vv | grep ASPM gedraaid en in de output staat bij alle items ASPM Enabled (L0/L1)

Andere aanpassing in de BIOS boot perf mode: max battery

Maximum GT frequency naar 100mHz

idle verbruik nu 26 watt

[ Voor 14% gewijzigd door spoor12b op 09-06-2025 17:31 ]

spoor12b


Acties:
  • +1 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 07:58
mrmrmr schreef op maandag 9 juni 2025 @ 12:54:
[...]


In de technotes staat:


[...]


en


[...]


De interface heeft USB data '+' en '-' pinnen en pinnen voor het uitschakelen van WLAN en Bluetooth en diverse CNV pinnen.

De snelheid is maximaal x1 Gen3 (1 GB/s).

Een schema voor M.2 key E staat in dit document.

Of NVMe werkt en boot weet ik niet. Wie het weet mag het zeggen.
Ik ga het proberen. Als Kontron zelf een SATA (ASM1061) controller verkoopt die in dat slot past (staat ook in de datasheet) dan denk ik dat er een goede kans is dat een SSD ook gaat werken. Booten blijft de vraag. Ik laat het weten als ik de spullen binnen heb en kan testen. Voor booten is X1 Gen3 meer als genoeg.

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Mars Warrior schreef op maandag 9 juni 2025 @ 18:05:
@spoor12b

En in Grub dit toevoegen?
i915.enable_rc6=1

En daarna:

sudo update-grub
reboot
@Mars Warrior Ik krijg de volgende foutmelding als ik sudo update-grub draai:

/usr/sbin/grub-mkconfig: 12: /etc/default/grub: i915.enable_rc6=1: not found

Als ik hier op zoek lees ik dat dit sinds de 4.16 kernel niet meer ondersteund zou worden?

cat /sys/class/drm/card0/power/rc6_enable geeft een 0 als resultaat dus het staat inderdaad uit.

Ook geprobeert: sudo sh -c 'echo auto > /sys/bus/pci/devices/0000:02:00.0/power/control'

[ Voor 16% gewijzigd door spoor12b op 09-06-2025 21:54 ]

spoor12b


Acties:
  • 0 Henk 'm!
spoor12b schreef op maandag 9 juni 2025 @ 21:45:
[...]

@Mars Warrior Ik krijg de volgende foutmelding als ik sudo update-grub draai:

/usr/sbin/grub-mkconfig: 12: /etc/default/grub: i915.enable_rc6=1: not found

Als ik hier op zoek lees ik dat dit sinds de 4.16 kernel niet meer ondersteund zou worden?

cat /sys/class/drm/card0/power/rc6_enable geeft een 0 als resultaat dus het staat inderdaad uit.

Ook geprobeert: sudo sh -c 'echo auto > /sys/bus/pci/devices/0000:02:00.0/power/control'
Ok. dat is vreemd, maar het staat dus in Debian/OMV wel uit.

Werken in Grub één van de volgende opties voor display states (slechts 1 kiezen hè):
  • i915.enable_dc=1
  • i915.enable_dc=2
Wat zegt:
cat /proc/cmdline ??

Staat daar iets van i915 in?

UIteindelijk moet
cat /sys/class/drm/card0/power/rc6_enable op 1 komen te staan...

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
@Mars Warrior

Beide opties werken niet... lijkt me een vreemde keuze van Debian/OMV om dit uit te schakelen idd.

Er staat geen i915 in de commandline output.

Ik heb zojuist wel een post gevonden op het OMV forum waar iemand schrijft dat RC6 op 100% staat.

Ik begin nu toch weer te denken aan een BIOS optie maar nog even geen idee welke dat zou moeten zijn.

spoor12b


Acties:
  • 0 Henk 'm!

  • N8w8
  • Registratie: Mei 2000
  • Niet online
@spoor12b, het is je gewoon niet goed uitgelegd.
De bedoeling is dat je zoiets niet zomaar ergens toevoegt aan /etc/default/grub, maar in bijvoorbeeld de "GRUB_CMDLINE_LINUX" variabele.
In /etc/default/grub (of /etc/default/grub.d/iets) staat meestal al een regel die daarmee begint, bijv:
GRUB_CMDLINE_LINUX="blabla nogmeerbla enzovoort"
Dat verander je dan in bijvoorbeeld:
GRUB_CMDLINE_LINUX="blabla nogmeerbla enzovoort i915.enable_rc6=1"

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
@N8w8

bedankt voor de tip, dit was het origineel:

GRUB_DEFAULT=0
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
#GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX_DEFAULT="quiet consoleblank=15"
GRUB_CMDLINE_LINUX=""

(die remark is een eerdere actie van mij), en nu staat er:

GRUB_DEFAULT=0
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
#GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX_DEFAULT="quiet consoleblank=15 i915.enable_rc6=1"
GRUB_CMDLINE_LINUX=""

update-grub werkt nu wel :)

Helaas maakt het geen verschil in powertop maar dat zal ongetwijfeld komen doordat de parameter niet meer ondersteund wordt omdat de kernel dit vanaf 4.16 zelf zou moeten regelen.

spoor12b


Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 07:39
RC6 sleep modes (enable_rc6):

You can experiment with higher values for enable_rc6, but your GPU may not support them or the activation of the other options:

The available enable_dc values are a bitmask with bit values RC6=1, RC6p=2, RC6pp=4[4] - where "RC6p" and "RC6pp" are lower power states.

To confirm the current running RC6 level, you can look in sysfs:

# cat /sys/class/drm/card0/power/rc6_enable
If the value read is a lower number than expected, the other RC6 level are probably not supported. Passing drm.debug=0xe to the kernel boot options will add DRM debugging information to the kernel log - possibly including a line like this:

[drm:sanitize_rc6_option] Adjusting RC6 mask to 1 (requested 7, valid 1)

You can also add this to: /etc/modprobe.d/i915.conf

In the following syntax:

options i915 enable_dc=4


Gevolgd door

sudo update-initramfs

Acties:
  • +1 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 19-09 20:38
spoor12b schreef op maandag 9 juni 2025 @ 11:00:
Mijn OMV / Odroid H4+ NAS build is afgerond en zojuist heb ik de brennenstuhl meter gebruikt om naar het energieverbruik te kijken. Ik kom uit op een verbruik in idle van 27 watt en onder load 32.

Ik had gehoopt dat dit flink lager zou zijn want volgens mij zou de H4+ in idle maar een paar watt moeten gebruiken als je hem goed configureert. Maar volgens mij zijn de instellingen in orde want ik zie in powertop dat hij voor 71% in C10 draait.

Dan blijft over: tweemaal een HC550 18TB hdd a 5,5watt zonder te schrijven, tijdens schrijven 6,5 , 32GB geheugen, een Samsung 980 512GB (zou in idle ook zeer zuinig moeten zijn <1 watt).

Ik kom dan uit op 13 watt voor de harddisks, voeding 19v (2 watt?) en dan blijft er ca. 12 watt over voor het geheugen, de SSD en de Odroid H4+.

Dat lijkt me aan de hoge kant of zie ik ander verbruik over het hoofd? Ik heb de powerlimit in de BIOS op 30.000 laten staan, volgens mij heeft het weinig zin om deze te verlagen (ivm race to idle). Verder is er geen toetsenbord en beeldscherm aangesloten en wordt er één netwerkport gebruikt.

Het energieverbruik van de harddisks wordt ook bevestigd in de documentatie van WD.
Ik zie dat je powertop 2.14 gebruikt. Ik heb 2.15 draaien. Uiteindelijk hebben we dan alsnog niet de oorzaak. (Proxmox, OMV in een VM)

Als je op mijn nickname zoekt in dit topic heb ik de setup van mijn Odroid H4+ gedocumenteerd. Misschien staat daar nog iets tussen.

Ik blijf je volgen. Want door werk en gezin heb ik te weinig tijd om mijn server project op basis van Proxmox uit te bouwen. Ik denk om over te stappen naar Truenas Scale.

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
RedRayMann schreef op dinsdag 10 juni 2025 @ 00:35:
[...]

Ik zie dat je powertop 2.14 gebruikt. Ik heb 2.15 draaien. Uiteindelijk hebben we dan alsnog niet de oorzaak. (Proxmox, OMV in een VM)

Als je op mijn nickname zoekt in dit topic heb ik de setup van mijn Odroid H4+ gedocumenteerd. Misschien staat daar nog iets tussen.

Ik blijf je volgen. Want door werk en gezin heb ik te weinig tijd om mijn server project op basis van Proxmox uit te bouwen. Ik denk om over te stappen naar Truenas Scale.
@RedRayMann
Ik ga zeker eens kijken naar powertop 2.15, er is genoeg info te vinden hoe deze zelf te compileren .

De BIOS settings die je eerder hebt gepost zijn zeker interessant, ik ga vandaag even spelen met de powerlimits want daar had ik nog niets mee gedaan.

Wat me wel opviel dat je in je BIOS settings RC6(render standby) op disabled hebt gezet. Ik neem aan dat proxmox dit uiteindelijk gewoon overneemt.

Het valt me trouwens op dat mijn systeem volgens de powermeter maar 0,8 watt verbruikt wanneer uitgeschakeld met WOL aan.

edit1:

Zojuist de volgende instellingen aangepast: DMI link ASPM control van auto naar L0sL1
Turbo Mode: disabled
Power Limit 1 Override=Enabled
Power Limit 1=6000
Power Limit 2 Override=Enabled
Power Limit 2=12000
Platform PL1=Enable
Platform PL1 Power=5000

Het gebruik is nu ca. 0,5 lager en zit vrijwel continu in de 26 watt.

[ Voor 13% gewijzigd door spoor12b op 10-06-2025 11:57 ]

spoor12b


Acties:
  • +1 Henk 'm!
spoor12b schreef op dinsdag 10 juni 2025 @ 10:01:
[...]

@RedRayMann
Ik ga zeker eens kijken naar powertop 2.15, er is genoeg info te vinden hoe deze zelf te compileren .

De BIOS settings die je eerder hebt gepost zijn zeker interessant, ik ga vandaag even spelen met de powerlimits want daar had ik nog niets mee gedaan.

Wat me wel opviel dat je in je BIOS settings RC6(render standby) op disabled hebt gezet. Ik neem aan dat proxmox dit uiteindelijk gewoon overneemt.

Het valt me trouwens op dat mijn systeem volgens de powermeter maar 0,8 watt verbruikt wanneer uitgeschakeld met WOL aan.
Je zou nog een Live CD/USB stick kunnen proberen om te zien of een ander OS, bijv. Ubuntu, wel RC6 doet en op welk wattage je dan uitkomt. Dat zou al schelen om te zien wat haalbaar is.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Shorty365
  • Registratie: Augustus 2013
  • Laatst online: 10:50
Ik ben nu een maand of 4 aan het meelezen in dit topic en ben nu zover dat ik mijn huidige server wil vervangen voor een nieuwe, energie zuinige.

Ik draai nu met een HP Microserver N54L met 10GB intern geheugen, 250GB SSD en 2x WD Red 4TB HD's. De machine draait nu een paar jaar prima onder Proxmox met een aantal VM's en CT's voor oa Home Assistant, Samba, Zabbix, Wireguard VPN, DHCP, DNS en aan aantal andere zaken. Het wordt ondertussen allemaal krap op het gebied van CPU-power en beschikbaar geheugen. Daarnaast trekt deze machine ongeveer 40W, met powertop terug te brengen tot 35W.

Ik heb nog nooit zelf een computer gebouwd maar op basis van jullie ervaringen heb ik onderstaande configuratie bij elkaar geklikt;

#CategorieProductPrijsSubtotaal
1ProcessorsIntel Core i5-14400 (SRN46) Boxed€ 157,76€ 157,76
1MoederbordenKontron K3843-B€ 194,80€ 194,80
1Interne harde schijvenWD Red Plus (256MB cache, 5.640rpm), 8TB€ 187,04€ 187,04
1BehuizingenCooler Master Silencio S600€ 97,17€ 97,17
1Externe harde schijvenWD Elements Desktop Storage 10TB Zwart€ 218,41€ 218,41
1Geheugen internCrucial CT2K32G48C40U5€ 154,90€ 154,90
1Voedingenbe quiet! Pure Power 12 M 550W€ 87,20€ 87,20
1SSD'sSamsung 990 Pro (zonder heatsink) 1TB€ 102,90€ 102,90
Totaal€ 1.200,18


Deze nieuwe server wil ik meer als HomeLab inzetten waarbij de huidige functionaliteiten beschikbaar blijven maar daarnaast ruimte is voor experimenteren met andere VM's, software etc. Ik blijf wel draaien onder Proxmox want dat is fantastisch. De genoemde externe HD gaat gebruikt worden als back-up, ook voor de andere systemen binnen ons huishouden.

Ik ben benieuwd wat jullie vinden van deze configuratie. Ik vind het belangrijk dat deze machine stil en zuinig is maar weet niet zeker of alles bij elkaar past en of er niet meer waar voor mijn geld is te halen. Ik doe best lang met mijn spullen en ik zet in op een levensduur van minimaal 5 jaar maar met mijn huidige server heb ik 10 jaar gedaan. Kortom; elke suggestie is welkom.

Ik heb zelf mijn twijfels over de voeding maar kan nergens een goede voeding vinden met een lager wattage en goede efficiëntie onder lage belasting. De behuizing is vrij groot maar wel lekker stil en kan eventueel een 2e 3,5" HDD kwijt. De SSD die ik heb gekozen is snel maar neemt het dubbele aan stoom ten opzichte van een Samsung 980, die ook ongeveer de helft langzamer is.

Gelukkig hoe ik niet op een paar tientjes te kijken maar wil wel graag een machine die in 1x goed is.

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Nog even verder gekeken in Powertop, is een gebruik van 100% voor deze devices normaal?

Afbeeldingslocatie: https://tweakers.net/i/TXNDT69KgGaGmdHeGboOOKAfGKs=/800x/filters:strip_exif()/f/image/wO5ye7Qriz1QMEB8OzUXw7jh.png?f=fotoalbum_large

spoor12b


Acties:
  • +1 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 07:39
spoor12b schreef op dinsdag 10 juni 2025 @ 12:00:
Nog even verder gekeken in Powertop, is een gebruik van 100% voor deze devices normaal?

[Afbeelding]
Ja

Acties:
  • 0 Henk 'm!
@Shorty365 De hard disk is een relatieve grootverbruiker met ~4W. Minder verbruik is realiseerbaar met 2.5" (Seagate 4 of 5 TB: 0,18W idle) disk drives of met SSD (ideaal is <50 mW). Een hard disk kan worden stilgezet (spindown, zie topic start).

VM's kun je het beste niet continu laten draaien vanwege de overhead van de emulatie van een compleet besturingssysteem.

Je kan met 1-2 harddisks ook kiezen voor een PicoPSU-160XT en een zuinige 120W adapter. Dat is zuiniger dan een ATX voeding. Het is wel wat duurder, maar dat verdien je op termijn terug. Als het goed is zou je in idle minder dan 6W kunnen gaan verbruiken (Debian, geen VM's, zonder hard disks). In plaats van 2 hard disks is één grote disk ook veel zuiniger in idle (draaiend).

Als je dingen gaat doen die de computer continu belasten, zoals beeldverwerking, dan is het niet meer zo zinvol om een zuinigere voeding te selecteren. Dan stijgt het verbruik misschien naar boven 20W. Zuinige adapters zijn goed in het op peil houden van efficientie bij lage belasting, en bij 40W is het verschil er niet meer in vergelijking met een relatief zuinige ATX voeding.

Als de kast koeling nodig heeft is het misschien nodig om betere 120 of 140 mm ventilatoren te kiezen dan de standaard ventilatoren die met de kast mee komen. De kast die je hebt uitgezocht is ondanks de naam niet de stilste, het is een middenmoter. Zie de tests van tweakers (Pricewatch -> reviews).

Verder geen opmerkingen over de onderdelen qua zuinigheid, ziet er goed uit.

Acties:
  • +1 Henk 'm!

  • Shorty365
  • Registratie: Augustus 2013
  • Laatst online: 10:50
@mrmrmr Bedankt voor je snelle reactie. Ik heb nog even naar de behuizingen gekeken en heb nu de Fractal Design Pop Mini Silent Black Solid gekozen. Ook wat compacter dan de behuizing die ik eerder geselecteerd had.

Je opmerking over de 3.5" HDD heeft mij ook puzzelwerk geleverd maar ik heb die 8TB wel nodig en wil die graag op 1 disk hebben. Het is inderdaad de bedoeling om die disk wel zoveel mogelijk in spindown te hebben.

VM's draaien bij mij alleen als ze nodig zijn maar je ontkomt er niet aan om bv je HomeAssistant 24/7 te laten draaien en ook DHCP met DNS en filtering moeten 24/7draaien. Dit energieverbruik neem ik op de koop toe. Zuinigheid is leuk maar voor mij niet het allerhoogste doel. Gemak dient de mens en gemak kost geld.

Op de voeding ga ik nog even broeden omdat ik daar graag wat ruimte houd voor uitbreidingen in storage en wellicht koeling.

Acties:
  • 0 Henk 'm!
Shorty365 schreef op dinsdag 10 juni 2025 @ 16:29:
@mrmrmr Bedankt voor je snelle reactie. Ik heb nog even naar de behuizingen gekeken en heb nu de Fractal Design Pop Mini Silent Black Solid gekozen. Ook wat compacter dan de behuizing die ik eerder geselecteerd had.

Je opmerking over de 3.5" HDD heeft mij ook puzzelwerk geleverd maar ik heb die 8TB wel nodig en wil die graag op 1 disk hebben. Het is inderdaad de bedoeling om die disk wel zoveel mogelijk in spindown te hebben.

VM's draaien bij mij alleen als ze nodig zijn maar je ontkomt er niet aan om bv je HomeAssistant 24/7 te laten draaien en ook DHCP met DNS en filtering moeten 24/7draaien. Dit energieverbruik neem ik op de koop toe. Zuinigheid is leuk maar voor mij niet het allerhoogste doel. Gemak dient de mens en gemak kost geld.

Op de voeding ga ik nog even broeden omdat ik daar graag wat ruimte houd voor uitbreidingen in storage en wellicht koeling.
Een hoop van die dingen kunnen gewoon in Docker containers draaien ipv een VM. En die zijn hoe dan ook en tik zuiniger doordat ze minder resources in beslag nemen. Je kunt Docker containers ook moeiteloos aan de E-cores toewijzen en deze vervolgens in max. freq beperken: dat scheelt gewoon kWhs op jaarbasis.

AdGuard draait bij mij bijv. op de E-cores en krijgt ca 30.000 requests per dag voor zijn kiezen.
Andere containers draaien weer zo'n 100 processen. Dat lijkt op een VM, maar dan zonder alle overhead.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Mars Warrior schreef op dinsdag 10 juni 2025 @ 11:07:
[...]

Je zou nog een Live CD/USB stick kunnen proberen om te zien of een ander OS, bijv. Ubuntu, wel RC6 doet en op welk wattage je dan uitkomt. Dat zou al schelen om te zien wat haalbaar is.
Zojuist Ubuntu gedraaid van een live stick gestart <SNIP> ben opnieuw aan het testen.


Vreemd genoeg geeft powertop onder Ubuntu niet aan of RC6 in gebruik is of niet, echter,

cat /sys/class/drm/card1/power/rc6_enable geeft als resultaat 1 en het verbruik is 1 watt lager.

Zojuist op het OMV forum de vraag gesteld, lijkt toch echt iets te zijn wat in OMV zit.

[ Voor 57% gewijzigd door spoor12b op 10-06-2025 20:08 ]

spoor12b


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 19-09 20:38
spoor12b schreef op dinsdag 10 juni 2025 @ 19:19:
[...]

Zojuist Ubuntu gedraaid van een live stick gestart <SNIP> ben opnieuw aan het testen.


Vreemd genoeg geeft powertop onder Ubuntu niet aan of RC6 in gebruik is of niet, echter,

cat /sys/class/drm/card1/power/rc6_enable geeft als resultaat 1 en het verbruik is 1 watt lager.

Zojuist op het OMV forum de vraag gesteld, lijkt toch echt iets te zijn wat in OMV zit.
Bij mij staan in powertop ook diverse items op 100%
En de BIOS settings heb ik bij elkaar gesprokkeld van diverse fora en tutorials. Dus als men verbetering ziet, hoor ik het graag :-)
Op welke versie draai jij? Ik uit mijn hoofd op 1.06 ofzo. (1.08 is d recentste)

Bijzonder dat je zelfs via een usb stick zo'n verbruik hebt. Is dit zonder hdd's?

Heb zelf 1x nvme, 2x ssd, 1x 2,5" hdd.
Dus geen grote 3,5" verbruikers.

Acties:
  • 0 Henk 'm!

  • blackmage2v
  • Registratie: Januari 2006
  • Laatst online: 16-09 23:06
spoor12b schreef op dinsdag 10 juni 2025 @ 19:19:
[...]

Zojuist Ubuntu gedraaid van een live stick gestart <SNIP> ben opnieuw aan het testen.


Vreemd genoeg geeft powertop onder Ubuntu niet aan of RC6 in gebruik is of niet, echter,

cat /sys/class/drm/card1/power/rc6_enable geeft als resultaat 1 en het verbruik is 1 watt lager.

Zojuist op het OMV forum de vraag gesteld, lijkt toch echt iets te zijn wat in OMV zit.
Staat in de bios alles nog correct? Ik had zelf dit geconstateerd bij mijn setup

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
blackmage2v schreef op dinsdag 10 juni 2025 @ 21:35:
[...]


Staat in de bios alles nog correct? Ik had zelf dit geconstateerd bij mijn setup
Ik ga er daar wel vanuit, heb deze gisteren nog nagelopen.

Helaas (nog) geen reactie gekregen op mijn post in het OMV forum. Ben benieuwd of er nog mede tweakers zijn met dezelfde setup.

Ga nog aan de slag om powertop 2.15 te compileren maar die gaat dit niet oplossen.

Wellicht ga ik nog de nieuwere proxmox kernel te installeren.

spoor12b


Acties:
  • 0 Henk 'm!

  • Shorty365
  • Registratie: Augustus 2013
  • Laatst online: 10:50
@Mars Warrior Bedankt voor je reactie. Docker is inderdaad iets waar ik mee aan de slag wil maar ik heb daar wat dubbele gevoelens bij. Ik weet dat Docker werkt met applicatie-containers wat betekent dat je voor bv. een webapplicatie een docker moet hebben voor een webserver, een voor een databaseserver en een voor de applicatie. Die moet je dan eerst aan elkaar knopen om het geheel te laten samenwerken. Met een OS-container zoals LXD, zoals Proxmox dat ondersteund blijf je meer op bekend terrein en dichter bij Linux. Onbekend maakt hier ook onbemind maar ik ga er nog eens mee aan de slag.

Op dit moment gebruik ik al zoveel mogelijk CT's in Proxmox want die zijn een stuk lichter dan een volledige VM maar een VM heeft een voordeel dat die hardware passthrough ondersteunen voor bijvoorbeeld een HDD of USB-device. Daarnaast gebruik ik VM's voor het experimenteren met andere operating systems en soms zelfs Windows, deze machines draaien niet continue.

Acties:
  • +6 Henk 'm!

  • BounceCloud
  • Registratie: Juni 2007
  • Laatst online: 19-09 21:45
Onlangs heb ik voor het eerst zelf een server geassembleerd. Tot nu toe kocht ik altijd kant-en-klare systemen, maar deze keer wilde ik de uitdaging aangaan om alles zelf in elkaar te zetten.

Ik heb geen idee of iemand iets eraan heeft en wellicht denken Tweakers "duhh", maar hieronder mijn ervaringen. De meeste informatie heb ik hier uit het topic gehaald (waarvoor dank!), dus wellicht is het e.a.a.
herkenbaar.

Componenten
Ik heb besloten om dezelfde build als Nick1816 te bouwen. Er zijn wel meer van dit soort builds in dit topic te vinden met een K3843B, i5-13500 en de Inter-Tech IM-1 Pocket als behuizing. Overwegingen voor mij om voor extra ventilatie te kiezen is dat de server in eerste instantie in de meterkast komt te staan. Qua ventilatie niet ideaal, maar totdat hier thuis wat kamers zijn geschoven/verbouwd, voorlopig de enige plek.

De XP Power VES120PS12 kon ik niet bij een Nederlandse webshop vinden. Deze heb ik uiteindelijk bij RS Components besteld en was met 2 werkdagen in huis.

Assemblage
Vond ik goed te doen in de IM-1 pocket. Ik heb de Toshiba schijf onderin gebouwd. Vanwege de SATA/behuizing kabels paste de Toshiba alleen richting de achterkant. Ik heb 1 fan als intake in de zijkant gezet en 1 fan als outtake in de bovenkant, zodat warme lucht bovenaf wordt afgevoerd.

Beginnersfout: ik had de processorvoeding niet aangesloten, dus ik kreeg geen beeld toen ik de eerste keer de server startte. De Pico PSU heeft een 4-pins CPU-voeding, terwijl de CPU-voeding op het moederbord een 8-pins aansluiting heeft. Ik had daarom niet direct de relatie gelegd en las op internet dat een CPU-voeding niet altijd noodzakelijk was. Dat is bij de K3843B/i5-13500 dus wel het geval.
De 4-pins aansluiting van de Pico PSU past gewoon in de 8-pin aansluiting op de K3843B. Dat kun je niet fout doen, want die past er maar op 1 manier in.

De voedingskabel Pico PSU <> CPU-voeding op de K3843 is wel aan de korte kant en past maar net. Deze had voor het mooie nog wel 10-20cm langer mogen zijn.

Ook goed om te weten: de i5-13500 wordt met een processorkoeler van Intel geleverd. De koeler is af fabriek al met koelpasta geleverd.

OS - Proxmox
Ik had al Proxmox op mijn NUC-server draaien en heb opnieuw gekozen voor Proxmox. Dus Proxmox 8.4.1 geïnstalleerd op de SSD.

In Proxmox heb ik een Ubuntu 24.4 VM gecreëerd en ook op de SSD geïnstalleerd. Hier heb ik de Toshiba schijf in gemount. Daarna ben ik begonnen met alle docker volumes over te kopiëren van mijn NUC en weer op te starten in de nieuwe VM.

Ik gebruik de SSD voor alle docker-volumes. Grote data-collecties, zoals de media-bibliotheek en de Immich-foto's heb ik op de HDD gezet.

Met Jellyfin wilde ik, net als op mijn NUC, de onboard GPU gebruiken voor transcoding. Deze guide legt dit prima uit.

Ik liep toen echter tegen een blokkade aan: ik had de Ubuntu VM gecreerd met behulp van een Proxmox helper script. Deze maakt in Proxmox een VM met Machine type "i440fx". Met i440fx kreeg ik het niet voor elkaar om de GPU-passtrough te doen en ik las op internet dat de Machine hiervoor op Q35 moet staan.

Je kunt het machine-type veranderen onder Proxmox, maar bij Q35 kreeg ik geen netwerk/IP. Van alles geprobeerd (hernoemen network interfaces naar Q35-compatibel format zoals ens18), maar na een middag klooien de handoek in de ring gegooid.

Ik heb toen zelf een Ubuntu VM in Proxmox gecreëerd (zonder script) en direct vanaf de start het Machine type op Q35 gezet. Daarna alle docker volumes overgezet en 15 minuten later was ook Jellyfin met GPU-passtrough werkend.

Verbruik
Idle draai ik nu met de Ubuntu 24.04 VM en een Adguard LXC op 20-21W. Als beide containers uitstaan (dus plain Proxmox) dan zit ik Idle op 14-15W. Ik vermoed op basis van reacties in dit topic dat dit nog wel iets zuiniger kan. Vooral de 14-15W kale Proxmox lijkt wat hoog.

In de Ubuntu VM draai ik circa 40 docker containers. De meeste containers draaien enkel op de E-cores om het verbruik te optimaliseren. In een .env file heb ik het volgende opgenomen:

code:
1
2
3
4
# CPU Sets voor verschillende doeleinden
ECORES_ONLY=12-19     # Alleen E-cores (energiezuinig)
PCORES_ONLY=0-11      # Alleen P-cores (hoge performance)
ALL_CORES=0-19        # Alle cores


Vervolgens kun je in de compose files hier eenvoudig naar verwijzen met cpuset. Zie hieronder een voorbeeld van een compose file:
code:
1
2
3
4
5
6
7
8
services:
  apprise-api:
    image: lscr.io/linuxserver/apprise-api:latest
    container_name: apprise-api
    cpuset: ${ECORES_ONLY} <--- hier limiteer je de container mee om op de E-cores te draaien
    ports:
      - 8057:8000
    restart: unless-stopped

Acties:
  • 0 Henk 'm!
BounceCloud schreef op donderdag 12 juni 2025 @ 16:47:
Onlangs heb ik voor het eerst zelf een server geassembleerd. Tot nu toe kocht ik altijd kant-en-klare systemen, maar deze keer wilde ik de uitdaging aangaan om alles zelf in elkaar te zetten.

Ik heb geen idee of iemand iets eraan heeft en wellicht denken Tweakers "duhh", maar hieronder mijn ervaringen. De meeste informatie heb ik hier uit het topic gehaald (waarvoor dank!), dus wellicht is het e.a.a.
herkenbaar.

Componenten
Ik heb besloten om dezelfde build als Nick1816 te bouwen. Er zijn wel meer van dit soort builds in dit topic te vinden met een K3843B, i5-13500 en de Inter-Tech IM-1 Pocket als behuizing. Overwegingen voor mij om voor extra ventilatie te kiezen is dat de server in eerste instantie in de meterkast komt te staan. Qua ventilatie niet ideaal, maar totdat hier thuis wat kamers zijn geschoven/verbouwd, voorlopig de enige plek.

De XP Power VES120PS12 kon ik niet bij een Nederlandse webshop vinden. Deze heb ik uiteindelijk bij RS Components besteld en was met 2 werkdagen in huis.

Assemblage
Vond ik goed te doen in de IM-1 pocket. Ik heb de Toshiba schijf onderin gebouwd. Vanwege de SATA/behuizing kabels paste de Toshiba alleen richting de achterkant. Ik heb 1 fan als intake in de zijkant gezet en 1 fan als outtake in de bovenkant, zodat warme lucht bovenaf wordt afgevoerd.

Beginnersfout: ik had de processorvoeding niet aangesloten, dus ik kreeg geen beeld toen ik de eerste keer de server startte. De Pico PSU heeft een 4-pins CPU-voeding, terwijl de CPU-voeding op het moederbord een 8-pins aansluiting heeft. Ik had daarom niet direct de relatie gelegd en las op internet dat een CPU-voeding niet altijd noodzakelijk was. Dat is bij de K3843B/i5-13500 dus wel het geval.
De 4-pins aansluiting van de Pico PSU past gewoon in de 8-pin aansluiting op de K3843B. Dat kun je niet fout doen, want die past er maar op 1 manier in.

De voedingskabel Pico PSU <> CPU-voeding op de K3843 is wel aan de korte kant en past maar net. Deze had voor het mooie nog wel 10-20cm langer mogen zijn.

Ook goed om te weten: de i5-13500 wordt met een processorkoeler van Intel geleverd. De koeler is af fabriek al met koelpasta geleverd.

OS - Proxmox
Ik had al Proxmox op mijn NUC-server draaien en heb opnieuw gekozen voor Proxmox. Dus Proxmox 8.4.1 geïnstalleerd op de SSD.

In Proxmox heb ik een Ubuntu 24.4 VM gecreëerd en ook op de SSD geïnstalleerd. Hier heb ik de Toshiba schijf in gemount. Daarna ben ik begonnen met alle docker volumes over te kopiëren van mijn NUC en weer op te starten in de nieuwe VM.

Ik gebruik de SSD voor alle docker-volumes. Grote data-collecties, zoals de media-bibliotheek en de Immich-foto's heb ik op de HDD gezet.

Met Jellyfin wilde ik, net als op mijn NUC, de onboard GPU gebruiken voor transcoding. Deze guide legt dit prima uit.

Ik liep toen echter tegen een blokkade aan: ik had de Ubuntu VM gecreerd met behulp van een Proxmox helper script. Deze maakt in Proxmox een VM met Machine type "i440fx". Met i440fx kreeg ik het niet voor elkaar om de GPU-passtrough te doen en ik las op internet dat de Machine hiervoor op Q35 moet staan.

Je kunt het machine-type veranderen onder Proxmox, maar bij Q35 kreeg ik geen netwerk/IP. Van alles geprobeerd (hernoemen network interfaces naar Q35-compatibel format zoals ens18), maar na een middag klooien de handoek in de ring gegooid.

Ik heb toen zelf een Ubuntu VM in Proxmox gecreëerd (zonder script) en direct vanaf de start het Machine type op Q35 gezet. Daarna alle docker volumes overgezet en 15 minuten later was ook Jellyfin met GPU-passtrough werkend.

Verbruik
Idle draai ik nu met de Ubuntu 24.04 VM en een Adguard LXC op 20-21W. Als beide containers uitstaan (dus plain Proxmox) dan zit ik Idle op 14-15W. Ik vermoed op basis van reacties in dit topic dat dit nog wel iets zuiniger kan. Vooral de 14-15W kale Proxmox lijkt wat hoog.

In de Ubuntu VM draai ik circa 40 docker containers. De meeste containers draaien enkel op de E-cores om het verbruik te optimaliseren. In een .env file heb ik het volgende opgenomen:

code:
1
2
3
4
# CPU Sets voor verschillende doeleinden
ECORES_ONLY=12-19     # Alleen E-cores (energiezuinig)
PCORES_ONLY=0-11      # Alleen P-cores (hoge performance)
ALL_CORES=0-19        # Alle cores


Vervolgens kun je in de compose files hier eenvoudig naar verwijzen met cpuset. Zie hieronder een voorbeeld van een compose file:
code:
1
2
3
4
5
6
7
8
services:
  apprise-api:
    image: lscr.io/linuxserver/apprise-api:latest
    container_name: apprise-api
    cpuset: ${ECORES_ONLY} <--- hier limiteer je de container mee om op de E-cores te draaien
    ports:
      - 8057:8000
    restart: unless-stopped
Zonder schijven, containers en VM's moet dit bord rond de 3-4W idle uitkomen. Dus er gaat bij jou nog wat mis, want zelfs een actieve Toshiba schijf zal zoveel niet verbruiken hoop ik.

Die 3-4W idle is dan ook nog met een ATX voeding, 2TB SSD, 128GB RAM en 13900K CPU, dus met een Pico en goede adapter moet je dat helemaal op je sloffen halen.

Zelfs met 50 actieve containers en 3x2.5 HDD in sleep kom ik nog lager uit: 13W gemiddeld namelijk.
VMs gebruik ik dan weer niet: volstrekt onnodig tot nu toe.
Dit isd wel onder Ubuntu Desktop. Mogelijk moet je onder Proxmox nog wat services uitschakelen om verbruik te beperken.

Je draait wel powertop om alle settings goed te krijgen bij opstarten?

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Met Powertop gebruiken en een andere scaling governor dan performance (standaard in Proxmox) instellen zou dat verbruik inderdaad iets lager moeten kunnen, als de HDD niet draait dan.

Acties:
  • 0 Henk 'm!
dcm360 schreef op donderdag 12 juni 2025 @ 17:09:
Met Powertop gebruiken en een andere scaling governor dan performance (standaard in Proxmox) instellen zou dat verbruik inderdaad iets lager moeten kunnen, als de HDD niet draait dan.
Ik zie nu pas dat die Toshiba schijf ca 4W idle doet (DC) en ruim 8W bij lezen/schrijven. Als deze schijf dus actief was tijdens de meting dan wordt die 8W zomaar 10W uit het stopcontact en zit je inderdaad op 14W als de bodem rond de 4W ligt.

Dus ik vraag me af hoeveel er met uitzetten Proxmox services en de juiste scaling governer nog te halen valt.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!
@BounceCloud Wat als je geen passthrough gebruikt maar de benodigde instellingen doet op het basisbesturingssysteem?

i440fx is een antieke chipset (1996). Daar zul je niet veel powermanagement in aantreffen.

Ik zou altijd eerst testen in de basis, d.w.z. zonder fancy inrichting, maar met alleen de focus op zuinigheid. Dan weet je waar je aan toe bent en waar je het kan zoeken als het gaandeweg niet naar wens gaat.

Probeer eens Debian, te optimaliseren zoals in de topic start. Als je een image maakt van de huidige installatie, kun je die later weer terugzetten.

Screenprints van powertop tabs kunnen meer informatie geven (powertop --auto-tune als service, consoleblank=15 activatie in grub). Meten kan na 1 minuut of langer.

Kun je de output van lspci -vvv ergens online posten?

Gebruik je draadloze muis of toetsenbord of WiFi of andere toegevoegde of gekoppelde apparaten?

Acties:
  • 0 Henk 'm!

  • BounceCloud
  • Registratie: Juni 2007
  • Laatst online: 19-09 21:45
mrmrmr schreef op donderdag 12 juni 2025 @ 18:04:
@BounceCloud Wat als je geen passthrough gebruikt maar de benodigde instellingen doet op het basisbesturingssysteem?

i440fx is een antieke chipset (1996). Daar zul je niet veel powermanagement in aantreffen.

Ik zou altijd eerst testen in de basis, d.w.z. zonder fancy inrichting, maar met alleen de focus op zuinigheid. Dan weet je waar je aan toe bent en waar je het kan zoeken als het gaandeweg niet naar wens gaat.

Probeer eens Debian, te optimaliseren zoals in de topic start. Als je een image maakt van de huidige installatie, kun je die later weer terugzetten.

Screenprints van powertop tabs kunnen meer informatie geven (powertop --auto-tune als service, consoleblank=15 activatie in grub). Meten kan na 1 minuut of langer.

Kun je de output van lspci -vvv ergens online posten?

Gebruik je draadloze muis of toetsenbord of WiFi of andere toegevoegde of gekoppelde apparaten?
De server staat headless in de meterkast. Er zijn geen USB-apparaten op aangesloten zoals een muis, toetsenbord of een Zigbee-stick. Ik las dat USB-apparaten kunnen voorkomen dat je in hogere C-states komt.

Daarnaast draai ik ook Powertop --auto-tune op zowel de Proxmox host als in de VM.

lspci -vvv output
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
00:00.0 Host bridge: Intel Corporation 82G33/G31/P35/P31 Express DRAM Controller
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0

00:01.0 VGA compatible controller: Device 1234:1111 (rev 02) (prog-if 00 [VGA controller])
        Subsystem: Red Hat, Inc. Device 1100
        Control: I/O- Mem- BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Region 0: Memory at 80000000 (32-bit, prefetchable) [disabled] [size=16M]
        Region 2: Memory at 8304b000 (32-bit, non-prefetchable) [disabled] [size=4K]
        Expansion ROM at 000c0000 [disabled] [size=128K]
        Kernel driver in use: bochs-drm
        Kernel modules: bochs

00:1a.0 USB controller: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #4 (rev 03) (prog-if 00 [UHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 4: I/O ports at 9100 [size=32]
        Kernel driver in use: uhci_hcd

00:1a.1 USB controller: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #5 (rev 03) (prog-if 00 [UHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin B routed to IRQ 17
        Region 4: I/O ports at 90e0 [size=32]
        Kernel driver in use: uhci_hcd

00:1a.2 USB controller: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #6 (rev 03) (prog-if 00 [UHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin C routed to IRQ 18
        Region 4: I/O ports at 90c0 [size=32]
        Kernel driver in use: uhci_hcd

00:1a.7 USB controller: Intel Corporation 82801I (ICH9 Family) USB2 EHCI Controller #2 (rev 03) (prog-if 20 [EHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin D routed to IRQ 19
        Region 0: Memory at 8304a000 (32-bit, non-prefetchable) [size=4K]
        Kernel driver in use: ehci-pci

00:1b.0 Audio device: Intel Corporation 82801I (ICH9 Family) HD Audio Controller (rev 03)
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 103
        Region 0: Memory at 83040000 (32-bit, non-prefetchable) [size=16K]
        Capabilities: <access denied>
        Kernel driver in use: snd_hda_intel
        Kernel modules: snd_hda_intel

00:1c.0 PCI bridge: Red Hat, Inc. QEMU PCIe Root port (prog-if 00 [Normal decode])
        Subsystem: Red Hat, Inc. QEMU PCIe Root port
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 0: Memory at 83049000 (32-bit, non-prefetchable) [size=4K]
        Bus: primary=00, secondary=01, subordinate=01, sec-latency=0
        I/O behind bridge: 8000-8fff [size=4K] [16-bit]
        Memory behind bridge: 81000000-81ffffff [size=16M] [32-bit]
        Prefetchable memory behind bridge: 380000000000-3807ffffffff [size=32G] [32-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA+ VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>
        Kernel driver in use: pcieport

00:1c.1 PCI bridge: Red Hat, Inc. QEMU PCIe Root port (prog-if 00 [Normal decode])
        Subsystem: Red Hat, Inc. QEMU PCIe Root port
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 0: Memory at 83048000 (32-bit, non-prefetchable) [size=4K]
        Bus: primary=00, secondary=02, subordinate=02, sec-latency=0
        I/O behind bridge: 1000-1fff [size=4K] [16-bit]
        Memory behind bridge: 82e00000-82ffffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 380800000000-380fffffffff [size=32G] [32-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>
        Kernel driver in use: pcieport

00:1c.2 PCI bridge: Red Hat, Inc. QEMU PCIe Root port (prog-if 00 [Normal decode])
        Subsystem: Red Hat, Inc. QEMU PCIe Root port
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 0: Memory at 83047000 (32-bit, non-prefetchable) [size=4K]
        Bus: primary=00, secondary=03, subordinate=03, sec-latency=0
        I/O behind bridge: 2000-2fff [size=4K] [16-bit]
        Memory behind bridge: 82c00000-82dfffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 381000000000-3817ffffffff [size=32G] [32-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>
        Kernel driver in use: pcieport

00:1c.3 PCI bridge: Red Hat, Inc. QEMU PCIe Root port (prog-if 00 [Normal decode])
        Subsystem: Red Hat, Inc. QEMU PCIe Root port
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 0: Memory at 83046000 (32-bit, non-prefetchable) [size=4K]
        Bus: primary=00, secondary=04, subordinate=04, sec-latency=0
        I/O behind bridge: 3000-3fff [size=4K] [16-bit]
        Memory behind bridge: 82a00000-82bfffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 381800000000-381fffffffff [size=32G] [32-bit]
        Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>
        Kernel driver in use: pcieport

00:1d.0 USB controller: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #1 (rev 03) (prog-if 00 [UHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 4: I/O ports at 90a0 [size=32]
        Kernel driver in use: uhci_hcd

00:1d.1 USB controller: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #2 (rev 03) (prog-if 00 [UHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin B routed to IRQ 17
        Region 4: I/O ports at 9080 [size=32]
        Kernel driver in use: uhci_hcd

00:1d.2 USB controller: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #3 (rev 03) (prog-if 00 [UHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin C routed to IRQ 18
        Region 4: I/O ports at 9060 [size=32]
        Kernel driver in use: uhci_hcd

00:1d.7 USB controller: Intel Corporation 82801I (ICH9 Family) USB2 EHCI Controller #1 (rev 03) (prog-if 20 [EHCI])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin D routed to IRQ 19
        Region 0: Memory at 83045000 (32-bit, non-prefetchable) [size=4K]
        Kernel driver in use: ehci-pci

00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev 92) (prog-if 01 [Subtractive decode])
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz+ UDF- FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Bus: primary=00, secondary=05, subordinate=09, sec-latency=0
        I/O behind bridge: 6000-7fff [size=8K] [16-bit]
        Memory behind bridge: 82000000-828fffff [size=9M] [32-bit]
        Prefetchable memory behind bridge: 382000000000-383fffffffff [size=128G] [32-bit]
        Secondary status: 66MHz+ FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B+
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>

00:1f.0 ISA bridge: Intel Corporation 82801IB (ICH9) LPC Interface Controller (rev 02)
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Kernel driver in use: lpc_ich
        Kernel modules: lpc_ich

00:1f.2 SATA controller: Intel Corporation 82801IR/IO/IH (ICH9R/DO/DH) 6 port SATA Controller [AHCI mode] (rev 02) (prog-if 01 [AHCI 1.0])
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 102
        Region 4: I/O ports at 9040 [size=32]
        Region 5: Memory at 83044000 (32-bit, non-prefetchable) [size=4K]
        Capabilities: <access denied>
        Kernel driver in use: ahci
        Kernel modules: ahci

00:1f.3 SMBus: Intel Corporation 82801I (ICH9 Family) SMBus Controller (rev 02)
        Subsystem: Red Hat, Inc. QEMU Virtual Machine
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap- 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 16
        Region 4: I/O ports at 9000 [size=64]
        Kernel driver in use: i801_smbus
        Kernel modules: i2c_i801

01:00.0 VGA compatible controller: Intel Corporation AlderLake-S GT1 (rev 0c) (prog-if 00 [VGA controller])
        Subsystem: Intel Corporation AlderLake-S GT1
        Physical Slot: 0
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 104
        Region 0: Memory at 81000000 (64-bit, non-prefetchable) [size=16M]
        Region 2: Memory at 380000000000 (64-bit, prefetchable) [size=256M]
        Region 4: I/O ports at 8000 [size=64]
        Expansion ROM at <ignored> [disabled]
        Capabilities: <access denied>
        Kernel driver in use: i915
        Kernel modules: i915, xe

05:01.0 PCI bridge: Red Hat, Inc. QEMU PCI-PCI bridge (prog-if 00 [Normal decode])
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz+ UDF- FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 21
        Region 0: Memory at 82800000 (64-bit, non-prefetchable) [size=256]
        Bus: primary=05, secondary=06, subordinate=06, sec-latency=0
        I/O behind bridge: 7000-7fff [size=4K] [16-bit]
        Memory behind bridge: 82600000-827fffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 383800000000-383fffffffff [size=32G] [32-bit]
        Secondary status: 66MHz+ FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>

05:02.0 PCI bridge: Red Hat, Inc. QEMU PCI-PCI bridge (prog-if 00 [Normal decode])
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz+ UDF- FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 22
        Region 0: Memory at 82801000 (64-bit, non-prefetchable) [size=256]
        Bus: primary=05, secondary=07, subordinate=07, sec-latency=0
        I/O behind bridge: f000-0fff [disabled] [16-bit]
        Memory behind bridge: 82400000-825fffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 383000000000-3837ffffffff [size=32G] [32-bit]
        Secondary status: 66MHz+ FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>

05:03.0 PCI bridge: Red Hat, Inc. QEMU PCI-PCI bridge (prog-if 00 [Normal decode])
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz+ UDF- FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 23
        Region 0: Memory at 82802000 (64-bit, non-prefetchable) [size=256]
        Bus: primary=05, secondary=08, subordinate=08, sec-latency=0
        I/O behind bridge: f000-0fff [disabled] [16-bit]
        Memory behind bridge: 82200000-823fffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 382800000000-382fffffffff [size=32G] [32-bit]
        Secondary status: 66MHz+ FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>

05:04.0 PCI bridge: Red Hat, Inc. QEMU PCI-PCI bridge (prog-if 00 [Normal decode])
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
        Status: Cap+ 66MHz+ UDF- FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 20
        Region 0: Memory at 82803000 (64-bit, non-prefetchable) [size=256]
        Bus: primary=05, secondary=09, subordinate=09, sec-latency=0
        I/O behind bridge: 6000-6fff [size=4K] [16-bit]
        Memory behind bridge: 82000000-821fffff [size=2M] [32-bit]
        Prefetchable memory behind bridge: 382000000000-3827ffffffff [size=32G] [32-bit]
        Secondary status: 66MHz+ FastB2B+ ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
        BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16- MAbort- >Reset- FastB2B-
                PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
        Capabilities: <access denied>

06:08.0 Communication controller: Red Hat, Inc. Virtio console
        Subsystem: Red Hat, Inc. Virtio console
        Physical Slot: 8-2
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 21
        Region 0: I/O ports at 7000 [size=64]
        Region 1: Memory at 82601000 (32-bit, non-prefetchable) [size=4K]
        Region 4: Memory at 383800004000 (64-bit, prefetchable) [size=16K]
        Capabilities: <access denied>
        Kernel driver in use: virtio-pci

06:12.0 Ethernet controller: Red Hat, Inc. Virtio network device
        Subsystem: Red Hat, Inc. Virtio network device
        Physical Slot: 18-2
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 23
        Region 0: I/O ports at 7040 [size=32]
        Region 1: Memory at 82600000 (32-bit, non-prefetchable) [size=4K]
        Region 4: Memory at 383800000000 (64-bit, prefetchable) [size=16K]
        Expansion ROM at 82640000 [disabled] [size=256K]
        Capabilities: <access denied>
        Kernel driver in use: virtio-pci

09:01.0 SCSI storage controller: Red Hat, Inc. Virtio SCSI
        Subsystem: Red Hat, Inc. Virtio SCSI
        Physical Slot: 1-4
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 21
        Region 0: I/O ports at 6080 [size=64]
        Region 1: Memory at 82002000 (32-bit, non-prefetchable) [size=4K]
        Region 4: Memory at 382000008000 (64-bit, prefetchable) [size=16K]
        Capabilities: <access denied>
        Kernel driver in use: virtio-pci

09:02.0 SCSI storage controller: Red Hat, Inc. Virtio SCSI
        Subsystem: Red Hat, Inc. Virtio SCSI
        Physical Slot: 2-4
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 22
        Region 0: I/O ports at 6040 [size=64]
        Region 1: Memory at 82001000 (32-bit, non-prefetchable) [size=4K]
        Region 4: Memory at 382000004000 (64-bit, prefetchable) [size=16K]
        Capabilities: <access denied>
        Kernel driver in use: virtio-pci

09:03.0 SCSI storage controller: Red Hat, Inc. Virtio SCSI
        Subsystem: Red Hat, Inc. Virtio SCSI
        Physical Slot: 3-4
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0
        Interrupt: pin A routed to IRQ 23
        Region 0: I/O ports at 6000 [size=64]
        Region 1: Memory at 82000000 (32-bit, non-prefetchable) [size=4K]
        Region 4: Memory at 382000000000 (64-bit, prefetchable) [size=16K]
        Capabilities: <access denied>
        Kernel driver in use: virtio-pci


Powertop
Meting: 60 seconden, output in een HTML-report

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
Processor Idle State Report
Package 0
     
     
     
C2 (pc2)    8.9%
C3 (pc3)    1.8%
C6 (pc6)    3.9%
C7 (pc7)    0.0%
C8 (pc8)    23.8%
C9 (pc9)    0.0%
C10 (pc10)  0.0%
Core 0
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    6.3%
C7 (cc7)    69.2%
     
     
     
Core 4
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    5.1%
C7 (cc7)    74.1%
     
     
     
Core 8
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    4.9%
C7 (cc7)    73.5%
     
     
     
Core 12
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    4.5%
C7 (cc7)    70.8%
     
     
     
Core 16
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    4.3%
C7 (cc7)    77.0%
     
     
     
Core 20
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    3.9%
C7 (cc7)    77.9%
     
     
     
Core 24
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    91.7%
C7 (cc7)    0.0%
     
     
     
Core 25
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    92.5%
C7 (cc7)    0.0%
     
     
     
Core 26
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    93.7%
C7 (cc7)    0.0%
     
     
     
Core 27
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    94.4%
C7 (cc7)    0.0%
     
     
     
Core 28
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    95.9%
C7 (cc7)    0.0%
     
     
     
Core 29
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    96.5%
C7 (cc7)    0.0%
     
     
     
Core 30
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    96.7%
C7 (cc7)    0.0%
     
     
     
Core 31
     
     
     
     
C3 (cc3)    0.0%
C6 (cc6)    97.3%
C7 (cc7)    0.0%
     
     
     
    CPU 0
CPU 1   C0 active
1.4%        1.7%
    POLL    0.0%
0.0 ms  0.0%    0.0 ms
C1_ACPI 2.0%    0.2 ms
1.5%    0.2 ms  C2_ACPI
9.5%    0.8 ms  4.5%
0.7 ms  C3_ACPI 84.3%
4.7 ms  90.5%   12.5 ms
     
        
         
         
         
     
        
         
         
        CPU
2   CPU 3
C0 active   2.2%     
0.6%        POLL
0.0%    0.0 ms  0.0%
0.0 ms  C1_ACPI 2.4%
0.2 ms  1.1%    0.2 ms
C2_ACPI 8.0%    0.8 ms
2.2%    0.6 ms  C3_ACPI
83.8%   10.6 ms 95.4%
21.9 ms      
         
     
        
         
         
         
     
         
         
CPU 4   CPU
5   C0 active   2.2%
    0.8%     
POLL    0.0%    0.0 ms
0.0%    0.0 ms  C1_ACPI
2.6%    0.2 ms  1.0%
0.2 ms  C2_ACPI 7.2%
0.7 ms  2.2%    0.7 ms
C3_ACPI 85.1%   10.7 ms
95.0%   20.1 ms 
         
         
         
     
        
         
         
         
         
    CPU 6
CPU 7   C0 active
2.2%        0.9%
    POLL    0.0%
0.0 ms  0.0%    0.0 ms
C1_ACPI 2.6%    0.2 ms
1.2%    0.2 ms  C2_ACPI
6.3%    0.7 ms  3.7%
0.7 ms  C3_ACPI 86.2%
11.1 ms 92.9%   12.7 ms
     
        
         
         
         
     
        
         
         
        CPU
8   CPU 9
C0 active   2.8%     
0.6%        POLL
0.0%    0.0 ms  0.0%
0.0 ms  C1_ACPI 2.2%
0.2 ms  0.8%    0.2 ms
C2_ACPI 6.3%    0.7 ms
2.0%    0.7 ms  C3_ACPI
85.7%   11.1 ms 95.5%
22.3 ms      
         
     
        
         
         
         
     
         
         
CPU 10  CPU
11  C0 active   1.9%
    0.8%     
POLL    0.0%    0.0 ms
0.0%    0.0 ms  C1_ACPI
2.2%    0.2 ms  0.9%
0.1 ms  C2_ACPI 5.9%
0.7 ms  2.0%    0.7 ms
C3_ACPI 87.3%   12.0 ms
95.3%   22.3 ms 
         
         
         
     
        
         
         
         
         
    CPU 12
C0 active   0.7%     
POLL    0.0%    0.0 ms
C1_ACPI 1.3%    0.2 ms
C2_ACPI 3.0%    0.7 ms
C3_ACPI 93.8%   24.5 ms
     
     
     
     
     
    CPU 13
C0 active   0.6%     
POLL    0.0%    0.0 ms
C1_ACPI 1.2%    0.2 ms
C2_ACPI 2.9%    0.7 ms
C3_ACPI 94.5%   33.7 ms
     
     
     
     
     
    CPU 14
C0 active   0.5%     
POLL    0.0%    0.0 ms
C1_ACPI 1.0%    0.2 ms
C2_ACPI 2.1%    0.7 ms
C3_ACPI 95.8%   40.2 ms
     
     
     
     
     
    CPU 15
C0 active   0.4%     
POLL    0.0%    0.0 ms
C1_ACPI 1.0%    0.2 ms
C2_ACPI 2.0%    0.7 ms
C3_ACPI 96.1%   58.6 ms
     
     
     
     
     
    CPU 16
C0 active   0.4%     
POLL    0.0%    0.0 ms
C1_ACPI 0.5%    0.2 ms
C2_ACPI 1.4%    0.7 ms
C3_ACPI 97.3%   71.4 ms
     
     
     
     
     
    CPU 17
C0 active   0.3%     
POLL    0.0%    0.0 ms
C1_ACPI 0.5%    0.2 ms
C2_ACPI 1.6%    0.7 ms
C3_ACPI 97.2%   73.8 ms
     
     
     
     
     
    CPU 18
C0 active   0.3%     
POLL    0.0%    0.0 ms
C1_ACPI 0.4%    0.2 ms
C2_ACPI 1.7%    0.8 ms
C3_ACPI 97.2%   113.1 ms
     
     
     
     
     
    CPU 19
C0 active   0.2%     
POLL    0.0%    0.0 ms
C1_ACPI 0.3%    0.2 ms
C2_ACPI 1.5%    0.8 ms
C3_ACPI 97.7%   116.6 ms

Acties:
  • 0 Henk 'm!

  • spitsv
  • Registratie: November 2011
  • Laatst online: 11:14
Goedenavond, Ik heb Proxmox draaien op een Intel I3-8100 en 1 onboard Intel I219 network controller. Standaard is het verbruik (met powertop) +/- 5W. Maar als ik een VM met PFsense aanzet stijgt het verbruik naar +/-8W. Dit verbruik is aan de stekker gemeten (zie afbeelding). 1 netwerkpoort hangt aan LAN, de andere aan een intern netwerk (zonder gebruikers). Ik heb 2 cores en 2GB geheugen toegewezen aan PFsense.
In PFsense heb ik PowerD aanstaan met alle spanningsopties op minimum.
In Powertop valt het mij op dat ik bij pkg(HW) normaal op 66% C9 state zit, en als PFsense aanstaat kom ik niet lager dan C6 state. Heeft iemand een idee hoe ik dit energieverbruik kan verminderen?Afbeeldingslocatie: https://tweakers.net/i/2aF02Wye5GoOUJx97gKXBerG6Nw=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/qVFVt6AMrbrHsPmBJ4sGNbal.png?f=user_large

[ Voor 10% gewijzigd door spitsv op 12-06-2025 20:56 ]


Acties:
  • 0 Henk 'm!
lspci moet als root draaien (sudo ervoor zetten, of eerst su -).
Zie "<access denied>".

C2 (pc2) 8.9%
C3 (pc3) 1.8%
C6 (pc6) 3.9%
C7 (pc7) 0.0%
C8 (pc8) 23.8%
C9 (pc9) 0.0%
C10 (pc10) 0.0%

Hier ontbreekt een groot deel (~61%) van de package C state residency. Is dit het hoofdbesturingssysteem?
Wat je hier graag wilt zien is bijna 100% C8-C10.

Ik zie ook ACPI core C states, dit betekent niet noodzakelijk dat de C states daadwerkelijk laag zijn. Waarschijnlijk gebruik je niet versie 2.15 van powertop. Die kun je compileren of de apt package updaten.

Acties:
  • +1 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
spitsv schreef op donderdag 12 juni 2025 @ 20:56:
Heeft iemand een idee hoe ik dit energieverbruik kan verminderen?
Niet. Je zet pfSense (gebaseerd op FreeBSD) in een VM op Proxmox. VM's voegen nu eenmaal overhead toe en FreeBSD staat niet bepaald bekend om zuinig te zijn.

Acties:
  • 0 Henk 'm!

  • spoor12b
  • Registratie: Februari 2004
  • Laatst online: 13-09 12:00
Uiteindelijk toch maar de proxmox kernel geïnstalleerd om te kijken of die helpt. en zowaar, RC6 wordt nu wel gebruikt :)

Afbeeldingslocatie: https://tweakers.net/i/_7nGKMmEmUPV4kK3GoFaNYEzjCk=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/hI1TetCzKrYr8ouipJoBuIVs.png?f=user_large

Het verbruik ligt nu rond de 21 watt dus dat is een grote verbetering.

Ik had overigens al ergens gelezen dat er iets in deze kernel verbeterd zou zijn met de Intel drivers o.i.d. dus dat lijkt aardig te kloppen.

[ Voor 3% gewijzigd door spoor12b op 12-06-2025 21:48 ]

spoor12b


Acties:
  • 0 Henk 'm!

  • spitsv
  • Registratie: November 2011
  • Laatst online: 11:14
GioStyle schreef op donderdag 12 juni 2025 @ 21:46:
[...]
Niet. Je zet pfSense (gebaseerd op FreeBSD) in een VM op Proxmox. VM's voegen nu eenmaal overhead toe en FreeBSD staat niet bepaald bekend om zuinig te zijn.
Is er een zuiniger alternatief?

Acties:
  • 0 Henk 'm!
spitsv schreef op donderdag 12 juni 2025 @ 22:42:
[...]


Is er een zuiniger alternatief?
Gewoon lekker zelf doen.

* RobertMe heeft een TopTon doosje als router in gebruik. Helaas is een kale Debian al niet heel zuinig op dit systeem (8W). Maar Debian als router maakt het niet veel onzuiniger zeg maar. Maar uiteraard heb ik dan wel echt alles zelf gedaan, en geen fancy UI (wat het andersom ook weer zuiniger maakt :Y) ). Gaat dus om systemd-networkd waarmee ik de interfaces (/VLANs) aan maak, die Wireguard tunnels opzet, die als DHCP server dienst doet en die IPv6 router advertisements stuurt incl. DHCPv6-PD etc.. En dan nftables als firewall (ook weer gewoon de config file zelf schrijven). En Unbound in een Docker container als DNS server.

Acties:
  • +1 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
spitsv schreef op donderdag 12 juni 2025 @ 22:42:
[...]


Is er een zuiniger alternatief?
Dat is lastig te zeggen. Je hebt voor pfSense gekozen en daar zal vast bepaalde redenen of logica achter zitten. Enkele watts erbij is toch niet geen ramp? Ik persoonlijk zou er niet voor kiezen om ook je server in te zetten als router. Alleen een fysieke router verbruikt ook stroom en vaak ook net wat meer dan jouw VM.

Acties:
  • 0 Henk 'm!

  • spitsv
  • Registratie: November 2011
  • Laatst online: 11:14
GioStyle schreef op donderdag 12 juni 2025 @ 22:51:
[...]

Dat is lastig te zeggen. Je hebt voor pfSense gekozen en daar zal vast bepaalde redenen of logica achter zitten. Enkele watts erbij is toch niet geen ramp? Ik persoonlijk zou er niet voor kiezen om ook je server in te zetten als router. Alleen een fysieke router verbruikt ook stroom en vaak ook net wat meer dan jouw VM.
PfSense draait nog niet, ik was bezig met het configureren. Maar dit doe ik ook voor het eerst, dus overstappen kan nog makkelijk.
Het idee is dat ik alleen het verkeer naar het interne netwerk binnen proxmox hoeft te routeren. En ik wil een vpn verbinding naar de server kunnen opzetten.
Dit is mijn eerste proxmox based systeem, die nog lang niet volledig operationeel is. Dus mogelijk kan het allemaal simpeler en energiezuiniger.
Een paar watt erbij kan wel, maar van 5w naar 8w is procentueel toch een grote stap.

Acties:
  • +1 Henk 'm!

  • tuxie6
  • Registratie: Juli 2013
  • Laatst online: 11:02
spitsv schreef op vrijdag 13 juni 2025 @ 07:11:
[...]


PfSense draait nog niet, ik was bezig met het configureren. Maar dit doe ik ook voor het eerst, dus overstappen kan nog makkelijk.
Het idee is dat ik alleen het verkeer naar het interne netwerk binnen proxmox hoeft te routeren. En ik wil een vpn verbinding naar de server kunnen opzetten.
Dit is mijn eerste proxmox based systeem, die nog lang niet volledig operationeel is. Dus mogelijk kan het allemaal simpeler en energiezuiniger.
Een paar watt erbij kan wel, maar van 5w naar 8w is procentueel toch een grote stap.
Pfsense heeft een optie om de processor in performance of Hi-adaptive, adaptive, of powersave te zetten. Even zoeken.
Ik weet niet of dit wat doet in een vm maar op een pc kan het behoorlijk schelen.

Standaart staan proxmox en esxi en xcp-ng ook op performance en dat is niet zuinig!

Acties:
  • +1 Henk 'm!
Ik kwam dit tegen over power management bij FreeBSD:

https://vermaden.wordpres...freebsd-power-management/

Pfsense draait op een BSD variant, anders kan het geen pf (packetfilter) gebruiken.

Ik heb recent geen ervaring meer met power management onder BSD, maar in het algemeen was het verbruik circa 3 à 5W hoger dan onder Debian voor een zuinig systeem. BSD ondersteunt wel C states voor de procoessor, maar power management in drivers is beperkt.

Je kan misschien wel ongebruikte onderdelen in suspend zetten met devctl. Het krijgt dan bijvoorbeeld een D3 device power state in plaats van D0 (actief).

Acties:
  • +1 Henk 'm!

  • decramy
  • Registratie: December 2001
  • Laatst online: 19-09 13:11

decramy

root@birdie:~#

nog een kleine tip voor de proxmox-gebruikers onder ons...

Om powertop --auto-tune te draaien bij iedere reboot, kun je de service gewoon enablen binnen systemd:

code:
1
root@pve:~# systemctl enable powertop.service

20*375Wp met Enphase IQ7+ micro's | Stiebel Eltron HGE Water/Water WP 9kW | Tesla M3, powered by SmartEVSE | Servertje @ www.coloclue.net


Acties:
  • +2 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 07:58
daansan schreef op maandag 9 juni 2025 @ 18:15:
[...]
Ik ga het proberen. Als Kontron zelf een SATA (ASM1061) controller verkoopt die in dat slot past (staat ook in de datasheet) dan denk ik dat er een goede kans is dat een SSD ook gaat werken. Booten blijft de vraag. Ik laat het weten als ik de spullen binnen heb en kan testen. Voor booten is X1 Gen3 meer als genoeg.
Net geprobeerd: booten met een M2 2242 SSD in het M2 E+A key wifi slot werkt.

Gebruikte hardware:
- Kontron K3842-Q2
- M.2 A+E key to M key converter
- Samsung PM991a M2 2242 SSD

Afbeeldingslocatie: https://tweakers.net/i/Be7qdbdkXsviipfTm_Xb0DGWkbg=/800x/filters:strip_icc():strip_exif()/f/image/w27UOIQmsaqvZdEr7d1Qmlze.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/jYbG1K0mpcSvrCXbvqSXHqOpSVI=/800x/filters:strip_icc():strip_exif()/f/image/WM0aXMQP2Kn2RlOQK2VC4rxm.jpg?f=fotoalbum_large

I love it when a plan comes together!


Acties:
  • 0 Henk 'm!

  • BounceCloud
  • Registratie: Juni 2007
  • Laatst online: 19-09 21:45
mrmrmr schreef op donderdag 12 juni 2025 @ 21:05:
lspci moet als root draaien (sudo ervoor zetten, of eerst su -).
Zie "<access denied>".
Ik heb dit in de Proxmox Shell uitgevoerd en die draait standaard als root. Ik heb het net nog een keer gedraaid, met eerst "su -". Resultaten: pastebin linkje
mrmrmr schreef op donderdag 12 juni 2025 @ 21:05:
C2 (pc2) 8.9%
C3 (pc3) 1.8%
C6 (pc6) 3.9%
C7 (pc7) 0.0%
C8 (pc8) 23.8%
C9 (pc9) 0.0%
C10 (pc10) 0.0%

Hier ontbreekt een groot deel (~61%) van de package C state residency. Is dit het hoofdbesturingssysteem?
Wat je hier graag wilt zien is bijna 100% C8-C10.

Ik zie ook ACPI core C states, dit betekent niet noodzakelijk dat de C states daadwerkelijk laag zijn. Waarschijnlijk gebruik je niet versie 2.15 van powertop. Die kun je compileren of de apt package updaten.
Proxmox komt standaard met Powertop 2.14, dus ik heb dat bij het inrichten van de server al ge-update door te compileren. Als ik Powertop met --version aanroep, dan geeft deze aan dat het 2.15 is:

code:
1
2
root@pve:~# powertop --version
PowerTOP version 2.15


Ik heb ook een aantal andere zaken nagelopen, zoals de "GRUB_CMDLINE_LINUX_DEFAULT="quiet consoleblank=15", maar dat staat goed.

Ik heb net de VM en LXC's gestopt en gekeken waar ik dan op uitkom en dan blijft Proxmox (hostsysteem) kaal op 15W hangen.

Acties:
  • 0 Henk 'm!
@BounceCloud Ik heb de lspci output nagelopen; ik vond niet iets dat mij opviel in vergelijking met een ouder systeem (D3643-B), met een SATA SSD device.

VGA staat in D3 (device power states). Dat betekent waarschijnlijk dat de gpu echt uit staat. Voordat een grub aanpassing actief is moet de wijziging zijn verwerkt. Bij Debian kan dat met de sudo update-grub opdracht.

Welke BIOS versie heb je en gebruik je default instellingen of is er iets gewijzigd?

Acties:
  • 0 Henk 'm!
@BounceCloud

Misschien helpt een update van de Embedded Controller (EC). Die wordt net als bij een BIOS geprogrammeerd met code en data. Bij Kontron K384x en vorige modellen is er een chip on board voor management van de computer, waaronder waarschijnlijk ook power management. Een EC kan corrupt raken waardoor een computer zich vreemd gaat gedragen. Dat is ook zo bij laptops.

Ik zou zeker gewoon Debian installeren om mee te testen met alleen een SSD, toetsenbord, muis. Dat is de beste manier om andere oorzaken van een onverwacht hoog verbruik weg te nemen.

Je kan aan de voeding en het moederbord (chips, condensatoren, kleine smd componenten) voelen of meten (temperatuurmeter of IR camera) of die warm of heet wordt. Met name als die koud gestart is. Energie wordt omgezet in warmte.



Anders onderwerp: uit een ervaring vermoed ik dat een EC (dan wel een BIOS) update helpt op een K3843-B, als de versie vroeg is, in geval van problemen met USB (de rode connectoren), zoals een spontane reboot. Misschien lag de oorzaak bij een niet eerder aangesloten oplaadbaar USB apparaat en een instelling in de BIOS die opladen uitschakelt.

Acties:
  • 0 Henk 'm!

  • rsvmark
  • Registratie: Juli 2007
  • Laatst online: 16-09 15:56
**vraag was eigenlijk niet erg op zuinigheid gebasseerd.....**

[ Voor 96% gewijzigd door rsvmark op 17-06-2025 12:23 ]


Acties:
  • 0 Henk 'm!

  • BounceCloud
  • Registratie: Juni 2007
  • Laatst online: 19-09 21:45
@mrmrmr @Mars Warrior Allereerst dank voor jullie reacties :)

BIOS: ik dacht dat ik goed had gekeken, maar er blijkt nog R2.12 op te staan. Die ga ik dit weekend eerst eens upgraden naar 2.16.
code:
1
2
root@pve:~# dmidecode -s bios-version
V5.0.0.27 R2.12.0 for K3843-B1x


Als dit geen effect heeft, dan ga ik het volgende doen:
Ik heb nog een kleine (128GB) M2.SSD liggen.
1. De huidige M2.SSD met Proxmox erop uitbouwen;
2. De andere M2.SSD inbouwen om hier kaal Debian op te zetten;
3. De SATA/power van de Toshiba HDD halen, zodat deze niet meedraait.

En dan kijken wat het verbruik is met Debian kaal en zonder de Toshiba HDD. Daarna de Toshiba HDD toevoegen / mounten en kijken wat het verbruik dan is.

Acties:
  • 0 Henk 'm!

  • daansan
  • Registratie: Maart 2000
  • Laatst online: 07:58
andru123 schreef op zondag 15 juni 2025 @ 16:20:
@daansan kan je ook het verbruik aan je post toevoegen?
Zodra ik dat duidelijk heb dan zeker, maar ben nog aan het stoeien met powertop.

I love it when a plan comes together!


Acties:
  • +1 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Heej mede-Tweakers,

Het is al weer een tijdje geleden dat ik met een zuinige server bezig was.
Omdat ik de remote backups van de zaak thuis ging opslaan, en wat services daarvoor HA draaide, was mijn zuinige server niet voldoende meer. Daardoor een nieuwe server gebouwd waarbij het verbruik etc. niet echt uit maakte, zolang het maar snel en betrouwbaar was.
Nu zo'n 3 jaar later is die remote backup niet meer nodig en draai ik de server dus alleen nog voor mijzelf.
Dat betekend ook weer zelf de energierekening er voor betalen.... Dus tijd om naar het verbruik te kijken.
Het gehele rack gebruikt nu zo'n 330W (Server, UPS, oude NAS voor backups, Wifi, Camera's, Switch en GW).
Hiervan is alleen de Server hetgene dat aangepast gaat worden.

Graag jullie advies.
A. Huidige hardware laten voor wat het is.
B. Huidige hardware aanpassen/deels vervangen, vervangen hardware verkopen.
C. Hele server verkopen en nieuw systeem kopen.

Waarvoor ga ik het systeem gebruiken:
  • NAS functie (Opslaan van foto's, video's, documenten)
  • HAOS met ong 600 devices en 2000 entities
  • Backup van HAOS, Docker, IMAP email, etc. (alleen de config, alle films etc. worden niet gebackuped).
  • DSMR (energiemeters uitlezen)
  • Docker stacks
    • *arr stack
    • Jellyfin - Jellyseerr (max 5 kijkers tegelijk van 4k Dolby Atmos/Vision films) vooralsnog zonder transcoding, want afspelers zijn ChromecastGoogleTV of Shield TV Pro's).
    • Immich incl. gezicht en beeldherkenning voor 8 gebruikers.
    • NextCloud
    • rclone voor maken van kopie immich foto's etc.
    • Notificatie systeem
    • arcane/portainer/dockge container beheer
    • Minecraft servertje
    • Traefik
Op dit moment heb ik alles via Proxmox draaien, want ZFS want spul moest betrouwbaar zijn.
Opzich vind ik het wel prettig kan ik met PBS backup kan maken en oa een VM kan opspinnen om HAOS te draaien.
Maar nu heb ik maar 3 VM's (PBS, HAOS en Ubuntu voor Docker) en 1 LXC (Cockpit om NFS te doen voor Docker).
Dus qua OS heb ik nog geen besluit genomen.
Proxmox, TrueNas, HexOS, Unraid of puur Debian.

Gebruikte/Benodigde storage:
  • 2TB voor backups PBS (Lang leve dedup van PBS
  • 200GB Fast storage (db, HAOS, AI, Docker zelf)
  • 4TB foto's
  • 15TB Films/Series
Huidige Hardware:
  • UDM Pro Max (doet ook Unifi Protect met 2x 10TB)
  • US 24 PoE 250W
  • 3x UAP
  • 3x Unifi Cam
  • 4x non-PoE cam
  • Synology 413J (backup plek voor de foto's)
  • APC UPS 1500VA
  • Server
    • Fantec SRC-3168X07 behuizing
    • Seasonic Prime TX-650
    • Supermicro H12SSL-C
    • AMD Epyc 7302P
    • 4x Samsung M393A4K40DB3-CWE (32GB DDR4 3200MT Registered ECC)
    • 2x Crucial MX500 Sata (OS op ZFS Mirror)
    • 2x Gigabyte AORUS NVMe Gen4 2TB (ZFS Mirror voor snelle storage)
    • 3x WD Ultrastar DC HC520 12TB (RAID-Z1 voor Foto's en PBS)
    • 2x Toshiba MG07 14TB, 1x Toshiba MG08 14TB, 2x Seagate Exos X16 14TB, 1x Toshiba MG09 18TB (RAID-Z2 voor remote-backup en Films)
    • 1x dual SFP+ (1x uplink naar UDM Pro Max)
    • 1x LSI SAS 9300 16-I (de onboard 8i werd te weinig).
Zoals je kun zien is de huidige hardware overdreven en onzuinig.
Een winst is al te behalen door sommige HDD's niet meer te gebruiken (1 snelle NVMe pool en 1 grote HDD pool is zat). en de LSI 9300 16i er uit te halen.

Mocht ik opnieuw gaan samenstellen (met zoveel mogelijk behoud van componenten) of opniew bouwen, dan valt mij kennis op dit moment qua beschikbare MB/CPU etc, wat te kort.
Dus mocht dat nodig zijn, dan graag advies.

Een optie die ik ook zie is een Unifi NAS aanschaffen en een miniPC.
NVMe opslag samen met TrueNAS of docker ofzo op de miniPC en de grote storage op de Unifi NAS via NFS.

Ook kwam ik de AOOSTAR WTR MAX tegen, die lijkt ook alles te kunnen wat ik zoek. Al is de CPU misch wat overdreven?
Geen idee hoeveel CPU/RAM ik precies nodig heb. Maar dat hangt er ook van af of ik (weer) ZFS ga doen, of dat ik btrfs ofzo ga gebruiken (wel sowieso iet met bitrot detectie, mogelijk ook winst met dedup? al zal dat met films etc. wel meevallen).

Zoals je merk, nogal wat vragen.
Huidige aanpassen? zo ja, met wat.
Huidige verkopen en nieuw systeem bouwen, zo ja, met wat?
Nieuw systeem aanschaffen? zo ja, welke.

Dus graag advies ;)
Aanschafprijs moet natuurlijk wel een beetje in verhouding staan met het energieverbruik over de komende 3 tot 5 jaar.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • rsvmark
  • Registratie: Juli 2007
  • Laatst online: 16-09 15:56
jelknab schreef op dinsdag 28 januari 2025 @ 12:18:
Ik lees al een tijdje mee, lijkt me leuk om mijn setup te delen.

Sinds kort run ik een Aoostar WTR PRO AMD, hierop draait Proxmox met een aantal vm's waaronder een Truenas core VM. De vier HDD bays zijn gevuld met WD Ultrastar DC HC320 (8TB) disks https://tweakers.net/pricewatch/1442900 in raidz1. De disks doen een spindown na lange inactiviteit, ze hebben een vrij hoog idleverbruik ongeveer 7.5W per stuk en worden maximaal 2 à 3 keer per dag opgestart.

Het systeem gebruikt doorgaans 20W, met de disks dus in spindown. Naast het aanpassen van de fan-curve is niet aan energie management gesjoemeld.
Met de disks actief loopt het gebruik op naar 50W.

Verbruik wordt gemonitord met een Shelly Plug S Gen3 https://tweakers.net/pricewatch/2115402.
Zie hier een spindown/spinup en idle [Afbeelding]

@GioStyle Ik zie geen problemen met scrubs.
Hoi GioStyle,

Mijn WTR PRO (amd) is ook onderweg en net als jou wil ik Truenas op proxmox gaan draaien.
Nu lees ik echter problemen met de passthrough van de sata controller zoals hier beschreven.
Herken jij dit ?

Acties:
  • +1 Henk 'm!
HellStorm666 schreef op woensdag 18 juni 2025 @ 15:29:
Waarvoor ga ik het systeem gebruiken:
  • NAS functie (Opslaan van foto's, video's, documenten)
  • HAOS met ong 600 devices en 2000 entities
  • Backup van HAOS, Docker, IMAP email, etc. (alleen de config, alle films etc. worden niet gebackuped).
  • DSMR (energiemeters uitlezen)
  • Docker stacks
    • *arr stack
    • Jellyfin - Jellyseerr (max 5 kijkers tegelijk van 4k Dolby Atmos/Vision films) vooralsnog zonder transcoding, want afspelers zijn ChromecastGoogleTV of Shield TV Pro's).
    • Immich incl. gezicht en beeldherkenning voor 8 gebruikers.
    • NextCloud
    • rclone voor maken van kopie immich foto's etc.
    • Notificatie systeem
    • arcane/portainer/dockge container beheer
    • Minecraft servertje
    • Traefik
Allemaal geen schokkende zaken dus voor een gemiddelde zuinige Intel CPU. Dus dat is het probleem niet om dit op een server te draaien die 4W idle doet.

Echter je hebt nu wel een systeem met enorm veel dubbelingen qua schijven enzo. En dat enkel voor de bertrouwbaarheid begrijp ik?

Met 1 NVME SSD van 2 of 4TB en wat schijven moet je toch makkelijk functioneel uitkomen.
Zaken als Proxmox, ZFS etc. zijn allemaal keuzes.

Ik draai zelf geen VM's meer: alles in Docker containers (50 in totaal) op een Kontron mobo, 2TB Intel SSD, 13900K CPU en 128GB RAM. Netwerk is gewoon 1Gbit.
Idle zonder 2.5" schijven rond de 4W. Met de 4 schijven (3x data + 1x Snapraid parity) is dat wat meer.

Het is maar net wat je wilt.

Hoeveel verbruikt de server zelf nu? Want dat getal van 330W is toch totaal?
Dus graag advies ;)
Aanschafprijs moet natuurlijk wel een beetje in verhouding staan met het energieverbruik over de komende 3 tot 5 jaar.
3 tot 5 jaar maar? Ik doe meestal 10 jaar met mijn hardware :*)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Mars Warrior schreef op woensdag 18 juni 2025 @ 16:00:
[...]

Allemaal geen schokkende zaken dus voor een gemiddelde zuinige Intel CPU. Dus dat is het probleem niet om dit op een server te draaien die 4W idle doet.

Echter je hebt nu wel een systeem met enorm veel dubbelingen qua schijven enzo. En dat enkel voor de bertrouwbaarheid begrijp ik?

Met 1 NVME SSD van 2 of 4TB en wat schijven moet je toch makkelijk functioneel uitkomen.
Zaken als Proxmox, ZFS etc. zijn allemaal keuzes.

Ik draai zelf geen VM's meer: alles in Docker containers (50 in totaal) op een Kontron mobo, 2TB Intel SSD, 13900K CPU en 128GB RAM. Netwerk is gewoon 1Gbit.
Idle zonder 2.5" schijven rond de 4W. Met de 4 schijven (3x data + 1x Snapraid parity) is dat wat meer.

Het is maar net wat je wilt.

Hoeveel verbruikt de server zelf nu? Want dat getal van 330W is toch totaal?


[...]

3 tot 5 jaar maar? Ik doe meestal 10 jaar met mijn hardware :*)
RAID-Z2 (6-disk waarvan er 2 redundant) is voor de betrouwbaarheid. Maar die is niet meer nodig.
OS op een mirror is wel fijn, 1 disk kapot is nog geen OS kapot ;)
Maar dat zou prima op dezelfde (NVMe) SSD kunnen als de snelle storage.

Opzich zou een HDD met 1 parrity (of snapraid) nu wel voldoende zijn.
De 3x 12TB zou daarmee kunnen vervallen. en ipv 6x 14TB kan ik ook 5x 14TB draaien en 1x 14TB voor backups.

Hoeveel de server zelf los verbruikt weet ik niet (daarvoor moet de stekker er uit, wat de nu nog 30dgn te gaan remote backup liever niet heeft).

Zo'n Intel N100 gaat dit alles toch niet trekken? (vooral beeldherkenning foto's of het uitpakken/parren van grote bestanden).
Ik heb een 1Gbit glasvezellijn, die wil ik wel maximaal kunnen gebruiken met de *arr stack.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
rsvmark schreef op woensdag 18 juni 2025 @ 15:51:
[...]


Hoi GioStyle,

Mijn WTR PRO (amd) is ook onderweg en net als jou wil ik Truenas op proxmox gaan draaien.
Nu lees ik echter problemen met de passthrough van de sata controller zoals hier beschreven.
Herken jij dit ?
Ik heb het probleem voorbij zien komen, maar ik behoor in het kamp 'niet virtualiseren', dus ik heb er geen last van. Volgens mij zit het zo: op het moment dat jij je sata controller doorgeeft in Proxmox aan een VM, dan werkt turboboost niet meer, waardoor je processor op een lagere kloksnelheid gaat draaien. Is volgens mij niet te verhelpen.

Ik zie dat ie nu te koop is voor €300. Voor dat geld is het echt een koopje.

Acties:
  • 0 Henk 'm!

  • rsvmark
  • Registratie: Juli 2007
  • Laatst online: 16-09 15:56
GioStyle schreef op woensdag 18 juni 2025 @ 16:38:
[...]


Ik heb het probleem voorbij zien komen, maar ik behoor in het kamp 'niet virtualiseren', dus ik heb er geen last van. Volgens mij zit het zo: op het moment dat jij je sata controller doorgeeft in Proxmox aan een VM, dan werkt turboboost niet meer, waardoor je processor op een lagere kloksnelheid gaat draaien. Is volgens mij niet te verhelpen.

Ik zie dat ie nu te koop is voor €300. Voor dat geld is het echt een koopje.
Ja dat leek mij inderdaad een goede aanbieding (samen met 2x 12tb seagate schijven).
Hoe heb jij dan de schijven doorgegeven aan Truenas?

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
rsvmark schreef op woensdag 18 juni 2025 @ 17:55:
[...]


Ja dat leek mij inderdaad een goede aanbieding (samen met 2x 12tb seagate schijven).
Hoe heb jij dan de schijven doorgegeven aan Truenas?
Ik gebruik Debian (+ ZFS en Docker). Ik maak geen gebruik van VM's. Als jij TrueNAS rechtstreeks installeert, dan heb je niet te maken met bovenstaand probleem.

Acties:
  • 0 Henk 'm!
HellStorm666 schreef op woensdag 18 juni 2025 @ 16:07:
[...]

RAID-Z2 (6-disk waarvan er 2 redundant) is voor de betrouwbaarheid. Maar die is niet meer nodig.
OS op een mirror is wel fijn, 1 disk kapot is nog geen OS kapot ;)
Maar dat zou prima op dezelfde (NVMe) SSD kunnen als de snelle storage.

Opzich zou een HDD met 1 parrity (of snapraid) nu wel voldoende zijn.
De 3x 12TB zou daarmee kunnen vervallen. en ipv 6x 14TB kan ik ook 5x 14TB draaien en 1x 14TB voor backups.

Hoeveel de server zelf los verbruikt weet ik niet (daarvoor moet de stekker er uit, wat de nu nog 30dgn te gaan remote backup liever niet heeft).

Zo'n Intel N100 gaat dit alles toch niet trekken? (vooral beeldherkenning foto's of het uitpakken/parren van grote bestanden).
Ik heb een 1Gbit glasvezellijn, die wil ik wel maximaal kunnen gebruiken met de *arr stack.
Zo'n N100 zou ik niet nemen nee hiervoor. Een normale Intel CPU (13/14500 bijv) moet daar geen problemen mee hebben. Dan kun je ook flink wat RAM gebruiken namelijk.

Je opmerking over 1Gbit glas snap ik niet: dan heb je toch ruim voldoende aan een 1GBit aansluiting op je mobo? Ik in ieder geval wel. Ik trek namelijk lang niet altijd de volle 930Mbit volgens de statistieken.

Als verder alles lokaal draait op de server heb je ook helemaal geen netwerk nodig meer.

Ik draai Immich overigens volledig op de CPU. Dat geeft bij mij geen enkel probleem met herkenning enzo, zelfs niet op de E-cores, immers daarmee beperk ik het aantal kWh's nogal.

[ Voor 6% gewijzigd door Mars Warrior op 18-06-2025 20:28 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • rsvmark
  • Registratie: Juli 2007
  • Laatst online: 16-09 15:56
jelknab schreef op dinsdag 28 januari 2025 @ 12:18:
Ik lees al een tijdje mee, lijkt me leuk om mijn setup te delen.

Sinds kort run ik een Aoostar WTR PRO AMD, hierop draait Proxmox met een aantal vm's waaronder een Truenas core VM. De vier HDD bays zijn gevuld met WD Ultrastar DC HC320 (8TB) disks https://tweakers.net/pricewatch/1442900 in raidz1. De disks doen een spindown na lange inactiviteit, ze hebben een vrij hoog idleverbruik ongeveer 7.5W per stuk en worden maximaal 2 à 3 keer per dag opgestart.

Het systeem gebruikt doorgaans 20W, met de disks dus in spindown. Naast het aanpassen van de fan-curve is niet aan energie management gesjoemeld.
Met de disks actief loopt het gebruik op naar 50W.

Verbruik wordt gemonitord met een Shelly Plug S Gen3 https://tweakers.net/pricewatch/2115402.
Zie hier een spindown/spinup en idle [Afbeelding]

@GioStyle Ik zie geen problemen met scrubs.
Ik zie ook dat ik de 'verkeerde' Aoostar gebruiker heb gequote GioStyle...... 8)7
Hoop dat @jelknab dezelfde vraag wil beantwoorden.

Ik heb nu namelijk 2 computers met daarop proxmox die samen onderstaande hebben draaien:
- HAOS
- Z2M
- Frigate
- Cockpit (nas)
- Arr stack
- Plex
- Pi-hole

DIe wil ik gaan combineren op de wtr pro.
Heb mij een beetje verdiept in Truenas en denk dat ik deze alles kan draaien wat ik nodig heb maar zo niet wil ik het onder proxmox gaan draaien. Vandaar mijn vraag :)

Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Mars Warrior schreef op woensdag 18 juni 2025 @ 20:27:
[...]

Zo'n N100 zou ik niet nemen nee hiervoor. Een normale Intel CPU (13/14500 bijv) moet daar geen problemen mee hebben. Dan kun je ook flink wat RAM gebruiken namelijk.

Je opmerking over 1Gbit glas snap ik niet: dan heb je toch ruim voldoende aan een 1GBit aansluiting op je mobo? Ik in ieder geval wel. Ik trek namelijk lang niet altijd de volle 930Mbit volgens de statistieken.

Als verder alles lokaal draait op de server heb je ook helemaal geen netwerk nodig meer.

Ik draai Immich overigens volledig op de CPU. Dat geeft bij mij geen enkel probleem met herkenning enzo, zelfs niet op de E-cores, immers daarmee beperk ik het aantal kWh's nogal.
Ik begreep dat een hoop systemen nog niet goed om kunnen gaan met de E-cores, niet dan?

De opmerking over 1gbit glasvezel internet is dat sabnzbd wel met 1gbit moet kunnen downloaden, dat vergt redelijk wat cpu kracht.
De 10gbit (sfp+) is nodig omdat meerdere devices binnen het netwerk verbinding kunnen maken. (En heb ik nu al als nic)
Daarbij is hier al 8gbit internet beschikbaar, dan wil ik niet nu al een bottleneck hebben mocht dat betaalbaarder worden.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • +1 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 03:16
GioStyle schreef op woensdag 18 juni 2025 @ 16:38:
[...]


Ik heb het probleem voorbij zien komen, maar ik behoor in het kamp 'niet virtualiseren', dus ik heb er geen last van. Volgens mij zit het zo: op het moment dat jij je sata controller doorgeeft in Proxmox aan een VM, dan werkt turboboost niet meer, waardoor je processor op een lagere kloksnelheid gaat draaien. Is volgens mij niet te verhelpen.

Ik zie dat ie nu te koop is voor €300. Voor dat geld is het echt een koopje.
Ik ben ook kamp "niet virtualiseren". Praktisch alles is dockerized te draaien tegenwoordig en backup is zo eenvoudigL Mijn server thuis verbruikt tussen de 6.9 -9 watt met soms pieken als een container iets aan het doen is.
Zeker voor thuisgebruik heeft virtualisatie wel zijn beste tijd gehad ... mijn mening.
Draai een stuk of 30 containers hier.

Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Yarisken schreef op woensdag 18 juni 2025 @ 23:37:
[...]


Ik ben ook kamp "niet virtualiseren". Praktisch alles is dockerized te draaien tegenwoordig en backup is zo eenvoudigL Mijn server thuis verbruikt tussen de 6.9 -9 watt met soms pieken als een container iets aan het doen is.
Zeker voor thuisgebruik heeft virtualisatie wel zijn beste tijd gehad ... mijn mening.
Draai een stuk of 30 containers hier.
Draai je (jullie) dan nog wel iets als truenas of unraid, of gewoon een linux distro?
En hoe doen jullie de storage laag (raid oid) dan?
En de config, alles dan via cli of een of andere web gui?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!
HellStorm666 schreef op donderdag 19 juni 2025 @ 06:16:
[...]

Draai je (jullie) dan nog wel iets als truenas of unraid, of gewoon een linux distro?
En hoe doen jullie de storage laag (raid oid) dan?
En de config, alles dan via cli of een of andere web gui?
Ik draai Ubuntu Desktop 22.04 LTS. Moet nog upgraden naar 24.04 😊

Qua disken dus 3x data en 1x parity voor SnapRaid. That’s it.

Verder 1 grote compose file voor die berg containers.

Meer heb ik niet nodig. Ik zou ook niet weten wat ik moet configureren. Immers alles zit in docker…

[ Voor 6% gewijzigd door Mars Warrior op 19-06-2025 08:41 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Mars Warrior schreef op donderdag 19 juni 2025 @ 08:39:
[...]

Ik draai Ubuntu Desktop 22.04 LTS. Moet nog upgraden naar 24.04 😊

Qua disken dus 3x data en 1x parity voor SnapRaid. That’s it.

Verder 1 grote compose file voor die berg containers.

Meer heb ik niet nodig. Ik zou ook niet weten wat ik moet configureren. Immers alles zit in docker…
Het ging mij inderdaad vooral om de raid config. Maar die doe je dus via de desktop gui.
Verder nog iets als MergeFS? of heb je maar 1 grote storage laag over die 3 (4) disks heen?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!
HellStorm666 schreef op donderdag 19 juni 2025 @ 08:47:
[...]

Het ging mij inderdaad vooral om de raid config. Maar die doe je dus via de desktop gui.
Verder nog iets als MergeFS? of heb je maar 1 grote storage laag over die 3 (4) disks heen?
Yep. MergerFS icm SnapRaid.

Ik heb destijds de https://perfectmediaserver.com/02-tech-stack/snapraid/ opzet gevolgd.

Daar zie je de setup maar ook de mix met ZFS. Dus van alle markten thuis.

[ Voor 8% gewijzigd door Mars Warrior op 19-06-2025 09:03 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 17-09 16:44

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Mars Warrior schreef op donderdag 19 juni 2025 @ 09:02:
[...]

Yep. MergerFS icm SnapRaid.

Ik heb destijds de https://perfectmediaserver.com/02-tech-stack/snapraid/ opzet gevolgd.

Daar zie je de setup maar ook de mix met ZFS. Dus van alle markten thuis.
Nice.
Hoe bevalt dat? hoe is t qua performance? (ervaring met ZFS?)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1

Pagina: 1 ... 108 ... 114 Laatste