M-spec schreef op donderdag 29 oktober 2020 @ 18:56:
[...]
Hier zit m de kneep waar veel mensen zich met de huidige GPU's op verkijken. Vooral de reden achter de standaard hoge power draw. Om dan nog maar niet te spreken over overclocken. Daarom maak ik bij deze weer een bewust overdreven CPU vergelijking; We hebben niet meer te maken met quad- of octacore(-tjes) waarbij een beetje meer prik erop voor een OC nog prima te koelen is, en een veel hoger verbruik relatief beperkt blijft. Nu zijn het naar verhouding ineens 32/64-core Threadrippers die standaard al extra power nodig zijn om die prestaties te kunnen leveren, maar alsnog efficient zijn omdat alle rekenkernen op een lagere spanning werken. Dat is ook de huidige trend. Een flinke schaalvergroting, net als de prijzen voor het 'middensegment' trouwens, want '4K'.
Voorbeeldje om het idee te geven waar we inmiddels mee te maken hebben. (Ik weet de load spanning niet van een 6000 kaart en getallen zijn uit de grote duim)
Twee kaarten:
40CU GPU 2400MHz 1.15V OC 225W 60FPS
80CU GPU 2000MHz 1.0V 300W 100FPS
Hier gaat je analogie al in eerste instantie spaak, de 72CU 6800XT krijgt dezelfde TDP als de 80CU 6900XT, dit lijkt dus juist te suggereren dat de CU's niet het grootste probleem zijn, of op zijn minst dat er anders in de 6800XT extreem veel ruimte zit.
De 80CU kaart is met het dubbele aantal kernen 66% sneller tegen 33% meer verbruik. Dan is die 300W ineens zo gek niet meer. Het laat zich vervolgens raden wat er gaat gebeuren als we de 80CU kaart op een zelfde manier willen gaan overclocken op een manier zoals we min of meer gewend waren. Dan hebben we ineens te maken met een enorme power draw en dat voor bijvoorbeeld 100 of 200MHz meer. De bijna lineaire power draw verhoging van kloksnelheid , x80CU ipv 40CU, en daarbovenop de extra benodigde spanning in het kwadraat. Meer verliezen van de VRM's etc en gaan de prestaties per Watt heel hard onderuit. 400W levert misschien 5 tot 10% FPS op, naar 500W wordt dat al rap minder.
Klinkt bijna onderbouwd, behalve dat het dat absoluut niet is, als je met een 33% toename (75watt), 66% performance erbij krijgt, is dat alles behalve linear, in het door jou geschetste scenario zou je dan met 400w (33% toename van power) op 166FPS uitkomen (66% toename in performance).
Nou is dat natuurlijk net zo min waar als jouw statement, maar je wiskunde gaat spaak.
https://candytech.in/amd-rx-6800-6800xt-6900xt/
Als je voor het gemak even uitgaat dat zowel de oude 40CU op een slechtere node, en de nieuwe 80CU op hetzelfde voltage draaien, wat heel goed mogelijk is, en ook een beetje de standaard V voor AMD, dus kunnen we voor het makkelijk rekenen V=1.0 aanhouden, en we stellen ook dat de 80CU 66% sneller is dan 40CU voor 33% meer power consumptie. Laat ik dan even heel optimistisch zijn dat de rest van het bord 10% van de totale power gebruikt.
Dan heb je dus een 40CU kaart die 202,5W verbruikt voor 66FPS, en een 80CU die 270W verbruikt voor 100FPS.
202.5/66=3.07W/FPS. (Wat neerkomt op 0.07675W per CU/FPS)
270/100=2.70W/FPS. (Wat neerkomt op 0.03375W per CU/FPS, dat moet je dan nog verdubbelen omdat hij 2x zoveel CU's nodig heeft om dat resultaat neer te zetten, maar dan kom je nog steeds maar op 0.03375*2=0.0675W per CU
2/FPS.
Dat maakt de nieuwe kaart dus uiteindelijk zuiniger om over te klokken dan de oude kaart.
Verder undervolten als het procedé het toelaat zou veel mooier zijn met heel veel rekenkernen.
En dan iets van 80CU GPU 1850MHz 0,9V 240W 92FPS.
(even simpel 300Wx0,9², er zijn veel meer factoren)
Dan leveren we bijvoorbeeld 8% prestaties in voor 25% minder energieverbruik. Maar dan is ie niet zo snel meer als de concurrent.. nee dat klopt. Dus zowel AMD als Nvidia zal de top GPU's nu op max 1V willen afstellen met bijbehorende max clock. Dus nog zonder dat de spanning voor kwadratische verhoging van de power gaat zorgen. Daarom ben ik ook benieuwd naar de TBP en spanning van de 6900XT vs 3090 FE (zit er dik in) slide. Echt geen 300W meer, dat is zeker.
Kortom, overclocken of undervolten kan nog altijd. Alleen met de huidige schaalvergroting in rekenkernen zal het effect van wijzigingen in de spanning en clock ook veel groter zijn op het verbruik en temperatuur.
Nou geef ik grif toe dat mijn bovenstaande berekening veel te simplistisch is, maar zonder extra specificaties kan noch jij, noch ik er een fatsoenlijke uitspraak over doen.