[Discussie] GPU vs CPU temps

Pagina: 1
Acties:

  • Leetness
  • Registratie: November 2009
  • Laatst online: 13:07
Hoi allemaal,
Al een tijdje zit ik met een vraag in m'n hoofd, op internet kan ik niet echt een passend antwoord vinden.

Waarom kunnen GPU's veel hogere temperaturen weerstaan dan CPU's?
Als iemand's videokaart 90-100 graden wordt (onder load), is dat 'vrij normaal', en is er eigenlijk niks aan de hand.
Wanneer een hedendaagse CPU die temperaturen behaalt, maakt alles en iedereen zich zorgen en dit zou dan slecht voor de CPU zijn.

Heeft iemand hier een verklaring voor?

Ps, ik hoop dat ik dit in het goede Forum begin. :)

  • Roy-91
  • Registratie: December 2008
  • Laatst online: 16-01 09:34
Misschien ander matriaal gebruik? :P

PSN: Roy-1991


  • phpn3rd
  • Registratie: April 2008
  • Laatst online: 14:45
Dit komt waarschijnlijk gewoon door het feit dat de architectuur van de hele chips anders is. De ene chip is de andere niet.

  • Admiral Freebee
  • Registratie: Februari 2004
  • Niet online
Ik denk dat het ergens mee te maken heeft dat een CPU met een hogere nauwkeurigheid rekent dan een GPU. Daar zijn kleine afrondingsfoutjes dus kritieker dan bij een GPU. Langs de andere kant weet ik dan weer niet hoe het zit met de berekeningen die tegenwoordig vaak op GPU's worden uitgevoerd. Mogelijk zijn dit ook berekeningen die niet zo gevoelig zijn aan kleine foutjes?

Natuurlijk kan het ook zijn dat een CPU eigenlijk ook een hogere tolerantie heeft, maar dat de CPU fabrikanten conservatiever zijn in het stellen van limieten voor hun processoren.

Verder bedenk ik mij net dat een CPU doorgaans een grote (letterlijk) cache heeft op de die. Mogelijk is dat geheugen gevoeliger voor warmte dan de "rest" van de CPU?

Dit is bijvoorbeeld de die van een Core 2 Quad. Heel het linkse gedeelte is cachegeheugen.
Afbeeldingslocatie: http://www.gearfuse.com/wp-content/uploads/nik/07_jan/core2extreme_quad_die.jpg

[ Voor 24% gewijzigd door Admiral Freebee op 17-05-2010 11:31 ]


  • Cheezus
  • Registratie: Februari 2001
  • Nu online

Cheezus

Luiaard

Een chip rekent niet met 'ongeveer x' als uitkomst, ook een GPU niet. Het feit dat de ene chip onstabiel of defect raakt bij een relatief lage temperatuur en de andere chip bij 100 graden nog vrolijk werkt ligt gewoon puur aan het ontwerp en de gebruikte materialen (fabricage proces).

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03-2025

Xenomorphh

Soep met Ballen

Admiral Freebee schreef op maandag 17 mei 2010 @ 11:28:
Ik denk dat het ergens mee te maken heeft dat een CPU met een hogere nauwkeurigheid rekent dan een GPU. Daar zijn kleine afrondingsfoutjes dus kritieker dan bij een GPU. Langs de andere kant weet ik dan weer niet hoe het zit met de berekeningen die tegenwoordig vaak op GPU's worden uitgevoerd. Mogelijk zijn dit ook berekeningen die niet zo gevoelig zijn aan kleine foutjes?

Natuurlijk kan het ook zijn dat een CPU eigenlijk ook een hogere tolerantie heeft, maar dat de CPU fabrikanten conservatiever zijn in het stellen van limieten voor hun processoren.

Verder bedenk ik mij net dat een CPU doorgaans een grote (letterlijk) cache heeft op de die. Mogelijk is dat geheugen gevoeliger voor warmte dan de "rest" van de CPU?

Dit is bijvoorbeeld de die van een Core 2 Quad. Heel het linkse gedeelte is cachegeheugen.
[afbeelding]
Een CPU moet precies reken waarbij een GPU dat niet doet. Een pixel die perongelijk een andere kleur krijgt is niet erg. Daarom zie je dus ook nog weinig GPU's terug in super computers. Zodra GPU's met de zelfde snelheid precies kunnen berekenen zal het aantal supercomputrs met GPU's sterk toenemen. Teminste dit is wat ergens gelezen heb hoor.

Overigens die temperaturen komt door architecturen, materialen en productie processen. Waarschijnlijk heeft de 1ne architectuur meer last van ruis bij hogen temperaturen dan de andere.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Cheezus
  • Registratie: Februari 2001
  • Nu online

Cheezus

Luiaard

Xenomorphh schreef op dinsdag 18 mei 2010 @ 16:20:

Een CPU moet precies reken waarbij een GPU dat niet doet. Een pixel die perongelijk een andere kleur krijgt is niet erg. Daarom zie je dus ook nog weinig GPU's terug in super computers. Zodra GPU's met de zelfde snelheid precies kunnen berekenen zal het aantal supercomputrs met GPU's sterk toenemen. Teminste dit is wat ergens gelezen heb hoor.
De ene chip kan wel nauwkeuriger rekenen dan de andere (64-bits ipv 32 bits bijvoorbeeld) maar dat wil niet zeggen dat de uitkomst van een minder nauwkeurige chip regelmatig wat afwijkt. Het zou bijzonder vervelend zijn als de pixels continue verkleuren bij een stilstaand beeld, als je 2 screenshots van een game neemt zul je ook zien dat deze _exact_ gelijk zijn.
Bij een instabiele videokaart zul je dit ook meteen zien (artefacts) en is dit absoluut niet acceptabel.

Bij sommige toepassingen worden juist wel GPU's toegepast in supercomputers, voornamelijk omdat ze heel veel taken parallel kunnen uitvoeren.

  • Thandor
  • Registratie: Juni 2002
  • Laatst online: 12:45

Thandor

SilverStreak

Volgens mij komt het door de heatspreader (nouja, het materiaal onder de heatspreader). Een GPU heeft doorgaans geen heatspreader en een CPU wel. Bij de Intel CPU's is de die verbonden met de heatspreader, door een soort van tin te gebruiken. Dit tin wordt zacht bij hoge(re) temperaturen waarbij het uitvloeien van het tin een risico wordt. Kijk maar eens naar het verschil tussen de max. temp van een Core 2 Duo E6600 (60.1C) en een Mobile Core 2 Duo T5500 (100C); de laatste heeft geen heatspreader :).

[ Voor 4% gewijzigd door Thandor op 18-05-2010 22:05 ]

Profiel | https://thandor.net - hardware
And the rest of us would be carousing the aisles, stuffing baloney.


  • Admiral Freebee
  • Registratie: Februari 2004
  • Niet online
Dat klopt ook niet helemaal, want de goedkopere Core 2 Duo's zijn niet gesoldeerd aan de heatspreader. Daar zit alleen maar een soort koelpasta tussen. Bovendien zal die tin allicht ook een legering zijn die wat hogere temperaturen aankan.

Mobiele CPU's zijn vaak wel van betere kwaliteit zodat ze kunnen werken op een lagere spanning en aldus minder verbruiken dan hun desktop broertjes.

[ Voor 46% gewijzigd door Admiral Freebee op 18-05-2010 23:19 ]


  • D.oomah
  • Registratie: Februari 2010
  • Laatst online: 22-01 22:34
Heeft het niet iets te maken met dat GPU's gemaakt zijn van half-node-transistors en CPU's van full-node-transistors.

  • InfinityG35
  • Registratie: Oktober 2005
  • Laatst online: 25-01 16:03
Interessante discussie; vraag het me ook al een tijdje af.
Zou het ook iets te maken kunnen hebben met de verwachte levensduur van een product? Ik heb namelijk een vermoeden dat deze voor een GPU veel lager ligt dan voor een CPU.

5800X3D - X570 Elite - 32Gb 3600C16 - 6700XT - 990PRO 2TB - RM750X


  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06-2025

Fid3lity

Spectre X

Thandor schreef op dinsdag 18 mei 2010 @ 21:58:
Volgens mij komt het door de heatspreader (nouja, het materiaal onder de heatspreader). Een GPU heeft doorgaans geen heatspreader en een CPU wel. Bij de Intel CPU's is de die verbonden met de heatspreader, door een soort van tin te gebruiken. Dit tin wordt zacht bij hoge(re) temperaturen waarbij het uitvloeien van het tin een risico wordt. Kijk maar eens naar het verschil tussen de max. temp van een Core 2 Duo E6600 (60.1C) en een Mobile Core 2 Duo T5500 (100C); de laatste heeft geen heatspreader :).
IHS?

Verwijderd

Thandor schreef op dinsdag 18 mei 2010 @ 21:58:
Volgens mij komt het door de heatspreader (nouja, het materiaal onder de heatspreader). Een GPU heeft doorgaans geen heatspreader en een CPU wel. Bij de Intel CPU's is de die verbonden met de heatspreader, door een soort van tin te gebruiken. Dit tin wordt zacht bij hoge(re) temperaturen waarbij het uitvloeien van het tin een risico wordt. Kijk maar eens naar het verschil tussen de max. temp van een Core 2 Duo E6600 (60.1C) en een Mobile Core 2 Duo T5500 (100C); de laatste heeft geen heatspreader :).
Heatspreaders zijn gebruikt om pletten/chrushen van core's te voorkomen. Zie de Athlon XP / AMD Athlon tijd nog maar eens terug. Een heatspreader heeft ook nadelen, de temperatuur stijgt met gemiddeld 10 graden. Daarnaast wordt met een heatspreader de ' druk ' van menig CPU koeler gebalanceerd. Niet elke core kan een heatsink van bijv 1100 gram aan. Is namelijk een heel klein contact puntje waar flink wat gewicht op komt te hangen.
Pagina: 1