Ha. Excuses, ik kijk nooit naar PT en heb ook 0,0 interesse in AW in z'n algemeen, dus ik heb me nooit verdiept in die resultaten.napata schreef op donderdag 5 juni 2025 @ 14:36:
[...]
Hier. Excuses, die link had ik in m'n eerste post er al aan toe moeten voegen. Het is zonder framegen. Zo'n kromme vergelijking ga je normaal niet vinden bij PCGH zonder dat het staat aangegeven.
3% sneller in raster, 18% in RT en 31% in PT. Hangt wel sterk af van resolutie. Op 4K met DLSS Q is de 4070Ti Super zelfs 43% sneller. Voor beiden is het wel onspeelbaar maar dat maakt voor dit argument weinig uit. Ik zie gelijkaardige % bij PT in andere games. Die gebruiken natuurlijk allemaal SER wat waarschijnlijk gedeeltelijk verantwoordelijk is voor de vooruitgang maar dat is ook deels hardware. In pure RT benchmarks zie je ook redelijke verschillen. Niet heel relevant voor games maar wel voor het argument dat ze er niet op vooruitgaan. Als ik zo eens kijk dan moet ik toch stellen dat je het niet bij het rechte eind hebt.
AW is eindelijk een voorbeeld waar SER impact heeft (zou eens tijd worden), maar de 4070 Ti Super is dan niet eens het beste voorbeeld. De 4070 en 4080 zitten beide ruim 35-40% boven waar ze zouden moeten zitten; de 4090 wint juist zo goed als niets. En ik zie ook meteen waarom. Het is evenredig met de verhouding tussen L2$ en aantal SM's. De 4070 Ti Super en 4090 komen L2$ tekort. Ook eindelijk een geval waar de L2$ nuttig blijkt.
Overigens niet echt een hardware wijziging, in de zin dat er iets heel erg nieuws is is. SER is een opt-in shader (vereist dus software implementatie) die een hit flag op true/false zet. En op basis daarvan herordent de scheduler de threads binnen een SM. Dat herordenen (sorteren) deed de scheduler al (is een kerntaak van die dingen
Neemt ook niet weg dat Nvidia's claims omtrent RT core performance nog steeds bullshit zijn. Een Ampère RT core zou 2x ray/tri doen ten opzichte van Turing; Ada zou daar wéér 2x op doen (en Blackwell nóg eens 2x). Maar in de praktijk zie je dat niet. SER _zou_ dat misschien wel kunnen laten zien, maar met het gigantische kloksnelheidsverschil is dat lastig te zien en de kloksnelheid doet er waarschijnlijk meer toe. Je zou al een clock-for-clock test moeten doen; GPU's met vergelijkbare aantallen SM's (en L2$ verhouding op Ada/Blackwell!), allemaal op 1500 MHz laten draaien ofzo en dan kijken wat er uit komt.
Game en resolutie doen er uiteraard toe, maar je ziet bij Nvidia weldegelijk vrij consistent dat RT 1080p en 1440p meer verbruikt. Is ook niet vreemd, omdat ze op die resoluties de bredere GPU's niet bezig kunnen houden met raster workloads, met RT wel omdat we daar een harde bottleneck hebben. Op 2160p is het wisselend, daar loop je met veel GPU's inderdaad altijd tegen de limiet aan. Bij AMD is dat een stuk minder, omdat die hun WGP's over het algemeen meer aan het werk hebben.Dit geldt zowel voor AMD als Nvidia en hangt tevens af van game tot game alsook resolutie.
Overigens niet op TPU gebaseerd. Hun nieuwste methode ben ik ook geen fan van.
Een 5070 Ti draait al licht trager dan een 5070 en draait maar net even efficiëntSissors schreef op vrijdag 6 juni 2025 @ 12:46:
Meer transistoren voor extra functies (die actief gebruikt worden) is idd nadelig voor het stroomverbruik. Maar transistoren voor de primaire functie is positief normaal voor het stroomverbruik. Een 5070Ti die je op 5070 snelheid laat draaien, zal minder stroom verbruiken. Een cache hit is een stuk zuiniger dan memory access.
IC hits zullen inderdaad wat besparen, maar dat zal in verhouding niet veel zijn. De belangrijkste reden voor IC is juist performance. Memory access is traag, IC is minder traag.
Oneens. Nvidia's CPU overhead brengt al wat problemen met zich mee waardoor hun GPU's niet lekker schalen qua grootte. En juist voor RT willen we minder afhankelijk van de CPU worden dan nu het geval is. Alle scheduling en dergelijke in de driver doen maakt het geheel ook foutgevoelig en vereist een gigantisch software team. Je hardware scheduler kun je met je GPU mee schalen, een driver is afhankelijk van de onderliggende CPU. Er zijn wel meer dingen die één van beide ooit in een driver deed, wat toch echt beter in hardware kon.Als AMD echt een niet verwaarloosbaar gedeelte van hun power en area budget gebruiken voor iets wat Nvidia in de drivers doet, dan zouden ze moeten overwegen dat ook in hun drivers te doen.

/f/image/nOctv1LngWR6N53CGeQxrgzT.png?f=fotoalbum_large)
:strip_exif()/f/image/OFFRM8qst1NxTrkHY55cldUj.jpg?f=fotoalbum_large)