PCIe vs GPU stroomgebruik?

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • oef!
  • Registratie: Februari 2011
  • Niet online
Als bezitter van een pc met een "kleine" voeding van 350 watt en een Nvidia GTX 950 (een model dat per design weinig stroom gebruikt) en iemand die niet sterk is in de theorie achter deze elektronica vraag ik me het volgende af:

- Er wordt gesteld dat de grafische kaart een TDP van 75 watt heeft (ik weet dat TDP niet hetzelfde is als het daadwerkelijke verbruik)
- En dat vanwege deze TDP de PCIe poort voldoende "vermogen" heeft om de kaart correct te laten werken
- Maar als er naar stroomverbruik gekeken wordt tijdens een game, dan blijkt dit 160 watt te zijn.

Dit is voor mij voodoo, hoe kan die 75 watt 160 watt worden? Ik heb even gekeken naar wikipedia maar daar word ik niet wijzer van.

En qua "stroombudget", moet ik het verbruik van 160 watt van het totaal van 350 watt aftrekken?

Beste antwoord (via oef! op 11-09-2017 11:29)


  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 27-09 22:07

MAX3400

XBL: OctagonQontrol

Denk dat lezen een uitdaging is; de grafiekjes op HWi laten duidelijk zien Stroomverbruik systeem

Op https://www.techspot.com/...eforce-gtx-950/page9.html zie je andere waarden staan; ook voor het hele systeem.

In elk geval: GPU's zonder extra voedingskabels komen niet boven de 75W uit, elke extra 6-pin kabel levert 75W, een 8-pin is maximaal 150W

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof

Alle reacties


Acties:
  • +1 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 10-10 22:58

Tijgert

Let the Zen flow. Shit a leak!

Je geeft niet alle benodigde informatie.
Je stelt dat 75 Watt 160 Watt wordt, hoe stel je dit vast?
Op het eerste gezicht denk ik nu dat die 160 Watt het totale systeem is en niet enkel de videokaart.

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 27-09 22:07

MAX3400

XBL: OctagonQontrol

De GTX950 heeft helemaal geen stelling dat er maar 75W verbruikt wordt. Als ik pricewatch: Gigabyte GV-N950WF2OC-2GD bekijk, zit er gewoon een 6-pins connector op dus dat houdt in dat er 75W door het moederbord geleverd kan worden en 75W over de extra kabel voor een totaal van 150W.

Zoals @Tijgert aangeeft; waar haal je nu welke waarden vandaan, welke kabels heb je waar aangesloten, hoe meet je het totale verbruik (stopcontact) en welke marge heeft jouw meting?

Ter info: een PSU van 350W of 900W trekt absoluut niet de hele tijd 350W of 900W uit het stopcontact; iets zegt me dat je niet helemaal snapt hoe voedingen (in zijn algemeenheid) werken. Het is niet anders dan een gloeilamp op een dimmer; een gloeilamp van 150W trekt geen 150W als je de lamp niet 100% belast.

[ Voor 21% gewijzigd door MAX3400 op 11-09-2017 10:58 ]

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


Acties:
  • 0 Henk 'm!

  • oef!
  • Registratie: Februari 2011
  • Niet online
De getallen haal ik hier en hier vandaan.

quote:
Waar de referentiekaart nog een TDP van 90 watt had en een 6-pins stroomconnector benodigde, heeft deze ASUS voldoende aan de stroom uit het PCI-Express x16-slot.

De kaart heeft geen extra kabels, alles gaat via het mobo.

Acties:
  • Beste antwoord
  • 0 Henk 'm!

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 27-09 22:07

MAX3400

XBL: OctagonQontrol

Denk dat lezen een uitdaging is; de grafiekjes op HWi laten duidelijk zien Stroomverbruik systeem

Op https://www.techspot.com/...eforce-gtx-950/page9.html zie je andere waarden staan; ook voor het hele systeem.

In elk geval: GPU's zonder extra voedingskabels komen niet boven de 75W uit, elke extra 6-pin kabel levert 75W, een 8-pin is maximaal 150W

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


Acties:
  • 0 Henk 'm!

  • oef!
  • Registratie: Februari 2011
  • Niet online
Stom, dan heb ik daar altijd overheen gekeken. Ik ging er eigenlijk altijd vanuit dat het stroomverbruik van de kaart gemeten zou worden (lijkt me ook logischer, maar goed).

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Logischer, maar moeilijker. Systeemverbruik meten ze gewoon met een standaard verbruiksmeter die ze bij Conrad hebben gehaald, voor een GPU enkel te meten moet je wat speciale hardware ertussen doen. De laatste Tweakers reviews hebben dit, maar hiervoor waren ook op Tweakers verbruikscijfers altijd van het hele systeem.

Acties:
  • 0 Henk 'm!

  • SA007
  • Registratie: Oktober 2002
  • Laatst online: 11-10 16:24

SA007

Moderator Tweaking
Move naar Videokaarten & Beeldschermen.
Pagina: 1