Excuses voor wat late reacties, ben een paar dagen in het buitenland geweest voor werk en het werk gaat nu gewoon door, dus ik heb nog geen tijd gehad alles te lezen en verwerken

Sissors schreef op maandag 31 oktober 2022 @ 17:03:
[...]
Wat we daar bedoelde was zaken als DLSS, wat uiteraard absoluut niet hetzelfde is als de handel bruteforcen. Gewoon alles bruteforce renderen, of nog erger, bruteforce raytracen, zie ik niet als realistisch toekomst perspectief voor midrange.
Daadwerkelijk renderen is echter niet bruteforce, zelfs niet voor RT. Er worden nu al vele optimalisaties toegepast, wat betekent dat het geen bruteforce is. Wiskundig gezien is het dat als je élke berekening 100% uit voert - wat niet zo is. Enkel culling zorgt er al voor dat het al lang geen bruteforce meer is.
Dingen als DLSS zijn echter erger dan bruteforce, want dat zijn benaderingen. Wat daar uit komt zijn geen exacte uitkomsten, maar benaderingen van wat het moet zijn. Het is alsof je voor y = 1.62x x niet in vult, maar een geplotte grafiek hebt hebt waar je "ongeveer" de juiste uitkomst probeert te lezen. Voor x = 50 of 100 zul je dat perfect af kunnen lezen, maar voor bijvoorbeeld x = 74 ga je dat niet correct kunnen zien. De aanpak zelf is geen bruteforce, maar het gebruik van die aanpak om je beperkingen te omzeilen is dat wel.
Ik ben het met je eens dat op dit moment zo'n aanpak de voorkeur heeft voor de midrange omdat die correct berekenen niet altijd kunnen behapstukken...echter is de midrange ook juist waar met name Nvidia tekort schiet, omdat ze daar simpelweg nauwelijks aanbod hebben. De gigantische groep mensen die een 1060 kochten gaan nu (6 jaar na dato!) pas mondjesmaat over naar een 3060, omdat dat kreng nu pas enigszins betaalbaar begint te worden. Een Ada-equivalent gaan we minstens een jaar niet zien, als hij er überhaupt al komt. En het zou me niets verbazen als FG dan ook op half-rate werkt (dus om de twee frames ipv om het frame). Diezelfde groep mensen koopt echter ook de goedkopere monitors met hogere resoluties en/of refreshrates en zou dus veel meer baat hebben bij dit soort technieken.
DLSS, FG, FSR en XeSS zijn lapmiddelen, geen verbeteringen in rendersnelheid en -kwaliteit, wat het uiteindelijke doel hoort te zijn van graphics. Nvidia's micro-meshes en opacity micro-maps zijn wel verbeteringen (RT in dit geval). Dát is vooruitgang.
En tot overmaat van ramp schaalt Nvidia hun architectuur (die al inefficiënt is op meerdere vlakken) dan ook gewoon op om op die manier tot de benodigde performance te komen voor al deze benaderingen...en tegelijkertijd een hoop transistors verspilt. Dat is wat ik bedoelde: de vooruitgang komt puur door er lomp meer units tegenaan te gooien. Met alle gevolgen van dien.
Niet zo lastig, simpel rekenwerk
Ik zei ook het volgende:
Werelds schreef op zondag 30 oktober 2022 @ 14:20:
AMD heeft ongeveer even veel transistors gebruikt voor Navi 21 als Nvidia voor GA102, maar het grote verschil is dat AMD's transistors voor een groot deel in de gigantische caches zitten. Die caches hoefden ze sowieso al niet groter te maken voor RDNA3 - maar volgens Angstronomics worden ze zelfs iets kleiner. Dus waar AD102 ~2,7x zo veel transistors als GA102 heeft, zal dat voor AMD vrijwel zeker niet het geval zijn, omdat bij AMD de helft van de RDNA2 die even groot blijft als voorheen (en gesplitst wordt in losse, kleinere dies). Sterker nog, AMD zou zelfs onder de 50 miljard kunnen blijven, maar ze zullen vast meer transistors spenderen aan RT en dergelijke.
Zat ik ook wel redelijk goed mee
Ik heb dit inmiddels op meerdere plekken gezien en nee, dit is je reinste onzin.
Met de 4080 12GB en 4080 16GB wekte de naamgeving de indruk dat het enige verschil het geheugen was. Het zijn twee compleet verschillende dies (geen cuts, maar echt een andere die), dus dat is simpelweg niet waar.
Tussen XT en XTX zie je aan de naam al meteen dat het niet dezelfde configuratie is. Wel dezelfde die, maar de XT krijgt een geknepen variant. Dat is niet anders dan een 3090 en 3090 Ti. En wat mij betreft is het ook nog steeds beter dan de 980/980 Ti, 1080/1080 Ti en 2080(S)/2080 Ti, waarbij de non-Ti's een volstrekt andere die hebben, hoewel de naamgeving de indruk wekt dat ze vergelijkbaar zijn. Als je hier een probleem mee hebt, dan heb je vast ook problemen met al die non-Ti vs Ti's, 2070 (GA106) vs 2070 Super (GA104), enzovoort.
De reden dat het geen 7950 is en dat we die hoogstwaarschijnlijk ook niet zullen zien, alsmede een 7850 en 7750 is omdat we die 10 jaar geleden al hadden
sunsmountain schreef op vrijdag 4 november 2022 @ 00:48:
[...]
Dit is wel jammer om te lezen en verklaart deels de mindere performance. Om het schalen van de SMs van de RTX 4090 tov de RTX 3080 Ti recht te trekken met de daadwerkelijke performance (1,8) moest ik een factor van 67% toepassen. Maar voor RX 7900 XTX moet ik aangenomen dezelfde 1,8 maar liefst 50% toepassen...

ben benieuwd wat @
Werelds hier van vindt.
Formule CU / SM schaling: ((nieuwe CU/SM / oude CU/SM) * (nieuwe frequentie / oude frequentie) -1)* factor + 1.
Je formule werkt toevallig, maar dat is omdat je de formule gemaakt hebt om bij de resultaten te passen.
Ada's schaling probleem is niet zo simpel als jij het stelt, want met het aantal SM's heb je ook een hoger aantal RT cores. Dat schaalt echter beter dan raster. Hun raster probleem is ook op te lossen met betere scheduling dus in theorie zou Nvidia een magische driver kunnen maken waarmee dat ding ineens een stuk beter schaalt. Gaat niet gebeuren (te complex), maar het is
in theorie mogelijk
AMD's schaling nu is ook een ander probleem dan Nvidia heeft, hoewel het vergelijkbaar lijkt te zijn. Ik heb nog niet hun claims af kunnen zetten tegenover oude resultaten om een schatting te maken (doe ik over het weekend wel), maar ik ben wel wat teleurgesteld. Dat gezegd hebbende: AMD's aanpak is sowieso efficiënter dan Nvidia's. Het eenvoudigste voorbeeld waar dit bij Nvidia volledig mis gaat en AMD juist 100% rendement haalt, is branching. Als jij een shader hebt met twee paden, kan AMD die twee paden nu in één cycle
parallel uitvoeren - en de verdeling maakt daarbij niet eens iets uit in wave32, want ze kunnen in beide paden tot 32 breed gaan. Bij Nvidia gaat dat enkel gelijktijdig (
concurrent). Neem een "nette" split van 16/16: AMD zet SIMD1 aan de ene branch, SIMD2 aan de ander, klaar. 100% winst, hele wavefront nog steeds in 1 clock gescheduled - zelfs het datatype maakt geen reet uit (met andere woorden, Nvidia's 36 INT voor elke 100 FP32 kan AMD sneller doen

). Nvidia heeft sowieso 2 clocks nodig: eerst het ene pad aan de "pure" kant, dan het andere pad aan de "mixed" kant. Heb je aan één kant INT32 komt dat ook uit; maar heb je aan beide kanten INT32, dan hebben ze 4 clocks nodig om het te schedulen.
AMD doet ook niet alsof ze dit kunnen garanderen. De 7900 XTX heeft volgens hun specificaties 6144 ALU's, ze zijn daar gewoon eerlijk over. De extra 6144 ALU's zijn wel aanwezig, maar kunnen niet gegarandeerd gebruikt worden, dus dat claimen ze ook niet. In tegenstelling tot de groene concurrent.
Ik ben er verder nog niet helemaal over uit wat ik er van vind. De geclaimde performance moet ik eerst eens in Excel gaan gooien en af zetten tegenover de veranderingen in opzet, hoewel ik intuïtief zeg dat ze ongeveer op 4090 niveau uit komen qua raster. RT zal nog veel meer van de titel af hangen, maar m'n intuïtie zegt daar in het ergste geval ~3090 Ti, in sommige titels ergens halverwege richting de 4090 maar absoluut niet op 4090 niveau. Het ligt allemaal wel ongeveer waar ik het verwacht had, wellicht iets eronder omdat ik had gehoopt dat AMD iets meer zou kunnen met de extra SIMD's dan nu het geval lijkt te zijn.
Dat gezegd hebbende, zijn de gekozen resultaten ook wel apart. Of ze cherrypicked zijn qua resultaat weet ik niet, maar de games zelf zijn dat absoluut niet, sommige van die titels doen ze het juist niet goed in vergelijking met de concurrentie. Foutje van de marketing afdeling, of misschien willen ze juist laten ze zien dat ze zelfs in die titels flink vooruit gaan?
Aan de andere kant: 2x8-pin, 355W, een vrij normaal formaat kaart en $999 voor de top SKU. Helaas betekent dat voor ons in Europa nog steeds dik 4 cijfers, maar €1250 tegenover €2000 na conversie + BTW is gewoon een heel groot verschil. En in de praktijk zie je dat de 4090 meer dan dat kost. Ik weet niet of dat voor AMD ook gaat gelden, 2 jaar geleden ging alles van Nvidia veel meer de lucht in.
Voor mij persoonlijk ziet het er echter wel naar uit dat ik eindelijk weer eens terug naar AMD ga voor m'n GPU