Als bezitter van een pc met een "kleine" voeding van 350 watt en een Nvidia GTX 950 (een model dat per design weinig stroom gebruikt) en iemand die niet sterk is in de theorie achter deze elektronica vraag ik me het volgende af:
- Er wordt gesteld dat de grafische kaart een TDP van 75 watt heeft (ik weet dat TDP niet hetzelfde is als het daadwerkelijke verbruik)
- En dat vanwege deze TDP de PCIe poort voldoende "vermogen" heeft om de kaart correct te laten werken
- Maar als er naar stroomverbruik gekeken wordt tijdens een game, dan blijkt dit 160 watt te zijn.
Dit is voor mij voodoo, hoe kan die 75 watt 160 watt worden? Ik heb even gekeken naar wikipedia maar daar word ik niet wijzer van.
En qua "stroombudget", moet ik het verbruik van 160 watt van het totaal van 350 watt aftrekken?
- Er wordt gesteld dat de grafische kaart een TDP van 75 watt heeft (ik weet dat TDP niet hetzelfde is als het daadwerkelijke verbruik)
- En dat vanwege deze TDP de PCIe poort voldoende "vermogen" heeft om de kaart correct te laten werken
- Maar als er naar stroomverbruik gekeken wordt tijdens een game, dan blijkt dit 160 watt te zijn.
Dit is voor mij voodoo, hoe kan die 75 watt 160 watt worden? Ik heb even gekeken naar wikipedia maar daar word ik niet wijzer van.
En qua "stroombudget", moet ik het verbruik van 160 watt van het totaal van 350 watt aftrekken?