Het gaat niet zo vaak gebeuren dat een RTX 2060 effectief hetzelfde werk verricht als een GTX 1650. Een videokaart wordt in de eerste plaats gebruikt om frames te renderen (zowel in games als in veel applicaties), en een RTX 2060 kan gewoon veel meer frames per seconde renderen maar gebruikt daar ook meer energie voor.
Je zou dan wel het aantal FPS kunnen limiteren tot iets wat voor beide kaarten haalbaar is, en dan zal het verbruik meer bij elkaar in de buurt komen, maar dan nog zal de RTX 2060 meer verbruiken want is een ingewikkelder kaart met gewoon meer elektronica zoals geheugenchips die ook altijd wat verbruiken. Voor de rest hangt verbruik ook af van de spanning op de GPU, die zal verschillend zijn van model tot model, kun je gewoon niet vergelijken. Niet het beste voorbeeld, maar bv het idle vermogen van een GTX 1650 en RTX 2060 verschilt ook een paar Watt, terwijl die dan technisch hetzelfde aan het doen zijn (bv
reviews: AMD's Radeon RX 5500 XT en Nvidia's GTX 1650 Super en getest, hier is het nu wel maar 0,5W). Onder een belasting wordt dat verschil verveelvoudigd.
Neemt niet weg dat een GPU undervolten, frames limiteren en eventueel de kloksnelheid wat verlagen een GPU wel een stuk zuiniger kan maken.
Maar ik ben benieuwd waarom je dit nu vraagt, lijkt me dat je ofwel echt gewoon begaan bent over je verbruik, of dat je van plan een videokaart met een te zwakke voeding te koppelen. Dat laatste zou ik niet doen, het systeem moet opgestart geraken om de videokaart te kunnen undervolten etc, dus voorzie toch een voeding die berekend is op het TDP.
De term applicatie in je vraag is ook heel vaag, mjjn verhaal gaat op voor games of 3D ontwerpen, maar als jij me nu gaat vertellen dat je de videokaart wilt gebruiken voor videodecoding bij 24 fps, dan zouden ze elkaar waarschijnlijk niet veel ontlopen, maar dan moet je ook geen RTX 2060 hebben.
[
Voor 8% gewijzigd door
MacPoedel op 17-09-2020 09:22
]