Blaat schreef op woensdag 27 november 2019 @ 11:16:
[...]
Een toverwoord: Tile Based Rendering. Dat is wat Maxwell zo gruwelijk power efficient maakte, en is ook de techniek die gebruikt wordt om het verbruik van mobiele GPU's in te perken.
Alleen AMD verdomd het om dat te doen.

Ik denk dat het wel wat meer is.

Eigenlijk denk ik dat Nvidia meer haalt uit betere utilisatie van haar hardware, tenminste voor RDNA want ik denk dat dit voordeel weg is en het binnenkort wel eens om kan gaan draaien. Kijk naar een BF5 op 1080P. Turing loopt daar tegen een bottleneck aan want anders zou de RX5700XT niet zo snel zijn. Ik vermoed dat het de veruit superieure compute capaciteit van RDNA is. Een generatie terug zag je het ook met Pascal vs. Vega. Het is enigszins bekent dat Pascal ronduit slecht was in compute, vergeleken met Vega. Nou wat was een van de weinige games waar Vega zo extreem goed ging? Battlefield games zijn ook al jaren technisch zeer toonaangevend
(als ze werken
) en enigszins trendzetters. Dat kan nog wat gaan worden.
Maar er is denk ik nog wel meer. Nvidia lijkt altijd zeer specifiek anticiperen en toespitsen op hardware de vereisten voor de twee a drie jaar na release. Dat kunnen ze ook al jaren doen, want dominant. Gaat ook interessant worden als je ziet wat voor theoretische TFLOP getallen er worden rond gegooid voor de consoles. Ik twijfel er eigenlijk niet aan dat beide een sterkere RNDA GPU zullen hebben dan een RX5700XT. Dat is zeer high end en potentieel ook dominant genoeg om de balans de andere kant op te laten slaan. De huidige consoles hadden zeker niet zulke relatieve prestatiepunten toen die werden gelanceerd. Verder gaat het ook leuk worden als consoles volgend jaar, mensen hun €1500+ "master race" PC's gaan slopen.
Daarnaast denk ik dat Nvidia zeer agressief gebruik maakt van delen van hun GPU uitschakelen. Kijk naar een block diagram van Turing. Zoveel fixed function hardware die maar een ding kan. Ik kan me goed voorstellen dat Nvidia hele rekenclusters binnen hun SM's kan uitschakelen en inschakelen wanneer nodig. Ook denk ik dat Nvidia haar veel ruimere R&D budgetten ergens naartoe gaan. Nvidia is altijd gericht geweest op OEM's en die vragen om laag verbruik. Ik zie Nvidia wel budget vrijmaken voor agressieve clock gating technieken om nog net iets meer te kunnen besparen. Als laatste zijn Nvidia GPU's tegenwoordig verbonden aan een sterke limieten en zit Nvidia in de regel juist niet meer op een cutting edge node zodat ze met betere kwaliteit wafers werken die waarschijnlijk ook consistenter zijn en dus nauwer geclockt kunnen worden met kleinere variaties in voltage per chip. Daar zullen ze ook wat efficiëntie uit halen. AMD kan dat waarschijnlijk niet in dezelfde mate met 7nm. Een van de vele redenen waarom de 7nm vs. 16/12nm vergelijking zo enorm krom is.
Maar dit is denk ik offtopic genoeg.
In het algemeen doet het me ook zo weinig. Als je een RDNA en een Turing naast elkaar zet met identieke aantal ALU's, de RX5700 en de RTX2070 dus, dan is de RX5700 al net iets sneller per clock. Dat was dan met release drivers, combinatie van nieuwe en oudere games waar Nvidia in de regel een voordeel heeft en de blower zal ook niet geholpen hebben. Verschil in verbruik is minder dan een lamp aandoen.
Dat de XT nu over haar efficiëntiecurve is geclockt, tja. Dat zei ik al een maand voor de release want het was overduidelijk toen de TBP's van 180W en 225W bekend werden. De RX5500 series lijken niet anders te zijn. Er bestaan ook gewoon een Navi 14 chips die minder dan 75W verbruiken zoals de Radeon Pro 5500M en Radeon Pro 5300M die Apple gebruikt. Het gaat verder interessant worden waar de RX5300M nu precies uit gaat komen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.