Acties:
  • 0 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 08-10 12:00

Jumpiefox

Hoi ?

jody2k schreef op dinsdag 13 december 2022 @ 20:50:
Best wel een stevige overklok :) indrukwekkend maar ik ben beetje sceptisch het gaat dan toch om rasterization performance voor deze cyberpunk benchmark zonder raytracing als ik mij niet vergis?

Edit:
https://www.guru3d.com/ar...x-7900-xtx-review,18.html
Daar komt de 7900XTX maar in de buurt van een RTX 3090 met raytracing aan.
Tel daar 20% overklok bij kom je nog belange niet in de buurt van een 4090.

Techpowerup is wat aan het knoeien met hun results...cyberpunk draaien zonder raytracing doet toch niemand?
Niemand kan cyberpunk met RT normaal draaien..behalve als je een 4090 hebt. DLSS op max gooien. RT aan gooien en dan gamen met sub 60fps? Dat is wat niemand doet hehe. DLSS op max is ook gewoon lelijk. Heb zelf ook altijd RT uit. DLSS op Qualityi en zelfs dan trek ik met miujn 3090 Cyberpunk niet lekkern (Daarom ook niet verder gespeeld..wacht tot ik een kaart heb die wel 140fps kan halen op 3840x1600 met alles wijd open hehe.

The first casualty in war is always the truth...


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 00:37
Vanmiddag heb ik in een opwelling toch een XFX 7900XTX reference (jaja meer x-en ^^) aangeschaft, maar heb daar nu al eigenlijk spijt van.
Ik had namelijk geen tijd om de reviews goed te bekijken en als 3 daarvan aangeven dat de coilwhine nogal aanwezig is, dan is dat voor mij zeer zeker ondraaglijk.

Eigenlijk is de reference 7900XTX ook maar een magere verbetering, wanneer het vermogen gelijk wordt getrokken met een reference 6900XT.
Dan zie ik maar een prestatie toename/verbetering rond de 25-35%. Veels te weinig voor de meerprijs die je ervoor moet betalen.

Ik heb inmiddels al een mail gestuurd in de hoop dat ze de bestelling nog kunnen annuleren. Maar anders kan ik misschien wel even kijken naar de powerscaling @Astennu

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 23:16

Thomg

Aww yiss

CMT schreef op woensdag 14 december 2022 @ 00:53:
Vanmiddag heb ik in een opwelling toch een XFX 7900XTX reference (jaja meer x-en ^^) aangeschaft, maar heb daar nu al eigenlijk spijt van.
Ik had namelijk geen tijd om de reviews goed te bekijken en als 3 daarvan aangeven dat de coilwhine nogal aanwezig is, dan is dat voor mij zeer zeker ondraaglijk.

Eigenlijk is de reference 7900XTX ook maar een magere verbetering, wanneer het vermogen gelijk wordt getrokken met een reference 6900XT.
Dan zie ik maar een prestatie toename/verbetering rond de 25-35%. Veels te weinig voor de meerprijs die je ervoor moet betalen.

Ik heb inmiddels al een mail gestuurd in de hoop dat ze de bestelling nog kunnen annuleren. Maar anders kan ik misschien wel even kijken naar de powerscaling @Astennu
In plaats van annuleren kan je anders ook kijken of een medetweaker het van je over wilt nemen.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 00:37
Daar zit ik ook aan te denken, het komt uit Duitsland namelijk en moet via een ander hiernaartoe gebracht worden. Vandaar dat ik in eerste instantie de order probeer te annuleren.
Maar als dat niet gaat, dan kan ik wel een balletje opgooien op VA voor een betrokken tweaker die al lang op een kaart zit te wachten.

Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
Jumpiefox schreef op woensdag 14 december 2022 @ 00:44:
[...]

Niemand kan cyberpunk met RT normaal draaien..behalve als je een 4090 hebt. DLSS op max gooien. RT aan gooien en dan gamen met sub 60fps? Dat is wat niemand doet hehe. DLSS op max is ook gewoon lelijk. Heb zelf ook altijd RT uit. DLSS op Qualityi en zelfs dan trek ik met miujn 3090 Cyberpunk niet lekkern (Daarom ook niet verder gespeeld..wacht tot ik een kaart heb die wel 140fps kan halen op 3840x1600 met alles wijd open hehe.
Nee alles maxed out op 4K met dlss op quality haal ik met een RTX 4090 144fps+ en sommige stukken zoals in de steden dropt hij eens naar de 100fps wegens cpu limitatie :) DlSS3 update die binnenkort komt zal dit probleem met cpu bottleneck ook oplossen.

[ Voor 5% gewijzigd door jody2k op 14-12-2022 07:45 ]


Acties:
  • 0 Henk 'm!

  • Evernote
  • Registratie: Januari 2012
  • Laatst online: 09-10 19:57
jody2k schreef op woensdag 14 december 2022 @ 07:36:
[...]
Nee alles maxed out op 4K met dlss op quality haal ik met een RTX 4090 144fps+ en sommige stukken zoals in de steden dropt hij eens naar de 100fps wegens cpu limitatie :) DlSS3 update die binnenkort komt zal dit probleem met cpu bottleneck ook oplossen.
Als je CPU nu bottlenecked zal DLSS 3.0 geen wonderen verrichten lijkt me aangezien DLSS/FSR juist meer van de CPU vraagt.

On-topic:
Ik ben benieuwd wat de ervaring gaat zijn van mede Tweakers die een 7900XTX hebben kunnen bemachtigen en vandaag al kunnen gebruiken.

Ben dan vooral benieuwd naar coil whine en undervolten, ook of erg enige verbetering is wanneer de kaart ge-undervolt wordt qua coil whine.

Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
Evernote schreef op woensdag 14 december 2022 @ 08:04:
[...]

Als je CPU nu bottlenecked zal DLSS 3.0 geen wonderen verrichten lijkt me aangezien DLSS/FSR juist meer van de CPU vraagt.

On-topic:
Ik ben benieuwd wat de ervaring gaat zijn van mede Tweakers die een 7900XTX hebben kunnen bemachtigen en vandaag al kunnen gebruiken.

Ben dan vooral benieuwd naar coil whine en undervolten, ook of erg enige verbetering is wanneer de kaart ge-undervolt wordt qua coil whine.
Opnieuw verkeerde info doe wat meer je research DLSS3 (frame generation) haalt de CPU bottlenecks weg daar zijn al genoeg voorbeelden voor bijv bij A plague tale requiem. Je verward dlss2 met dlss3 denk ik :)

[ Voor 3% gewijzigd door jody2k op 14-12-2022 08:16 ]


Acties:
  • 0 Henk 'm!

  • Evernote
  • Registratie: Januari 2012
  • Laatst online: 09-10 19:57
jody2k schreef op woensdag 14 december 2022 @ 08:12:
[...]
Opnieuw verkeerde info doe wat meer je research DLSS3 (frame generation) haalt de CPU bottlenecks weg daar zijn al genoeg voorbeelden voor bijv bij A plague tale requiem. Je verward dlss2 met dlss3 denk ik :)
Met frame generation vanaf de GPU heb je inderdaad gelijk, in ieder ander scenario zonder deze technologie is het wel een stuk ontlasting van de GPU.

Acties:
  • +2 Henk 'm!

  • MailMan
  • Registratie: Juni 2002
  • Laatst online: 23:36
Ik snap nog steeds niet dat mensen graag het duurste model kaart kopen om 4K & met max RT te spelen, maar dan wel consessies in beeldkwaliteit willen doen door met FSR/DLSS te spelen.

Alsof je een Supercar koopt die alleen 350km/h kan als je de snelheidsmeter gaat lopen aanpassen zodat het lijkt alsof je 350 gaat.

Wat is de logica? Speel dan gewoon 1440p maar wel haarscherp beeld. Of zet de quality options ietsje lager.


Ik ben benieuwd of de volgende driver update mogelijk wat zaken recht kan trekken want het voelt, zoals anderen ook zeggen, alsof AMD wat tegenslagen had richting de release die niet tijdig gefixed konden worden.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
jody2k schreef op woensdag 14 december 2022 @ 08:12:
[...]
Opnieuw verkeerde info doe wat meer je research DLSS3 (frame generation) haalt de CPU bottlenecks weg daar zijn al genoeg voorbeelden voor bijv bij A plague tale requiem. Je verward dlss2 met dlss3 denk ik :)
Zucht. Jij bent degene met de verkeerde informatie.

Als er een CPU bottleneck op treedt waardoor de CPU niet meer op tijd een frame klaar kan zetten, verandert FG daar nul komma nul niks noppes aan. Die bottleneck is en blijft aanwezig, maar wordt verborgen doordat de GPU nu 2-3ms extra spendeert aan het interpoleren van een extra frame om er bij te plakken. De CPU frametime van het echte frame is echter nog steeds hetzelfde. De GPU frametime blijft ook hetzelfde voor het frame zelf, met dus die 2-3ms er bovenop. Er worden nog steeds slechts 100 frames gerenderd, maar er worden er meer gepresenteerd.

Daarnaast loop jij dus ook helemaal niet tegen een CPU bottleneck "op 4K" aan. Je gebruikt DLSS, dus je loopt tegen een CPU bottleneck van 1440p aan, 44% van 2160p.

Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 20:19
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Ik snap nog steeds niet dat mensen graag het duurste model kaart kopen om 4K & met max RT te spelen, maar dan wel consessies in beeldkwaliteit willen doen door met FSR/DLSS te spelen.

Alsof je een Supercar koopt die alleen 350km/h kan als je de snelheidsmeter gaat lopen aanpassen zodat het lijkt alsof je 350 gaat.

Wat is de logica? Speel dan gewoon 1440p maar wel haarscherp beeld. Of zet de quality options ietsje lager.


Ik ben benieuwd of de volgende driver update mogelijk wat zaken recht kan trekken want het voelt, zoals anderen ook zeggen, alsof AMD wat tegenslagen had richting de release die niet tijdig gefixed konden worden.
Marketing. Hoger nummer beter, maakt niet hoe dat dan hoger wordt.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

YoupS schreef op dinsdag 13 december 2022 @ 21:54:
[...]


Maar in de standaard-bios niet zo luid als de stock-kaart :)
[Afbeelding]
Hoe kan het dat de 6900XT tot één van de stilste kaarten behoorde, maar de 7900 zo'n herriebak is?

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@MailMan

1440p is ook een concessie aan de beeldkwaliteit. 4k/RT/DLSS heeft als voordeel boven 1440p/RT/native dat alles scherper is bij relatief statische content en je ook meer detail ziet, maar zorgt voor artifacts bij beweging.

Het hangt van het (type) spel af hoe veel beter het er uit ziet en ook hoe storend de artifacts zijn. Daarnaast verschilt de gevoeligheid voor die artifacts nogal. Dus het is ook gewoon persoonlijke voorkeur.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Nelus
  • Registratie: November 2022
  • Laatst online: 03-02-2023
Jeroenneman schreef op woensdag 14 december 2022 @ 09:32:
[...]

Hoe kan het dat de 6900XT tot één van de stilste kaarten behoorde, maar de 7900 zo'n herriebak is?
Ik was verbijsterd toen m'n Asrock 6900xt in de pc zat. Gewoon echt veel minder herrie dan m'n 6700xt en geen coil whine. Is als iemand met tinnitus wel echt een plus.

Mocht ik ooit upgraden (deze sprong vind ik echt niet groot genoeg) ga ik wel weer echt voor een stille kaart. Van die 6700 werd ik echt gillend gek. Jammer dat AMD z'n zaakjes niet op orde heeft met deze serie kaarten. Ik had echt gehoopt/ verwacht dat AMD de sterke lijn die ingezet is met de 60xx serie voort zou zetten.

Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
Werelds schreef op woensdag 14 december 2022 @ 09:26:
[...]

Zucht. Jij bent degene met de verkeerde informatie.

Als er een CPU bottleneck op treedt waardoor de CPU niet meer op tijd een frame klaar kan zetten, verandert FG daar nul komma nul niks noppes aan. Die bottleneck is en blijft aanwezig, maar wordt verborgen doordat de GPU nu 2-3ms extra spendeert aan het interpoleren van een extra frame om er bij te plakken. De CPU frametime van het echte frame is echter nog steeds hetzelfde. De GPU frametime blijft ook hetzelfde voor het frame zelf, met dus die 2-3ms er bovenop. Er worden nog steeds slechts 100 frames gerenderd, maar er worden er meer gepresenteerd.

Daarnaast loop jij dus ook helemaal niet tegen een CPU bottleneck "op 4K" aan. Je gebruikt DLSS, dus je loopt tegen een CPU bottleneck van 1440p aan, 44% van 2160p.
Sorry maar das absolute onzin deze theorie is al lang debunked + de latency issues zijn ook al opgelost intussen met de nieuwste nvidia drivers. Maar ga je gang ik ben hier niet om je te overtuigen om een nvidia kaart te kopen, alleen vind ik desinformatie erg storend.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Ik snap nog steeds niet dat mensen graag het duurste model kaart kopen om 4K & met max RT te spelen, maar dan wel consessies in beeldkwaliteit willen doen door met FSR/DLSS te spelen.

Alsof je een Supercar koopt die alleen 350km/h kan als je de snelheidsmeter gaat lopen aanpassen zodat het lijkt alsof je 350 gaat.

Wat is de logica? Speel dan gewoon 1440p maar wel haarscherp beeld. Of zet de quality options ietsje lager.


Ik ben benieuwd of de volgende driver update mogelijk wat zaken recht kan trekken want het voelt, zoals anderen ook zeggen, alsof AMD wat tegenslagen had richting de release die niet tijdig gefixed konden worden.
Het is gewoon de voordelen afwegen tegen de nadelen. Voor velen ziet RT+DLSS/FSR er ook beter uit dan geen RT+native dus dan is de keuze snel gemaakt. Dit is niet anders dan TAA , dat ook een concessie is in beeldkwaliteit, gebruiken waarbij de voordelen ook de nadelen overwegen. In sommige games met slechte TAA implementaties zou ik sowieso DLSS/FSR gebruiken over TAA zelfs zonder winst in prestaties.

Sommigen gamen op een 4K TV en dan heb je vaak geen keuze want native 4K is gewoon enorm zwaar en zeker met een OLED wil je hoge frames halen. Ikzelf heb een OLED 4K HDR TV en een 1080p scherm en games op de TV zien er gewoon veel beter uit vanwege de kwaliteit van het beeldscherm. Dankzij DLSS/FSR kan je eigenlijk al met een 3060Ti/6700xt een dergelijk scherm gebruiken terwijl je anders eigenlijke een 4090 nodig hebt en elke generatie naar de volgende overmoet.

Sinds ik CBR op de PS4 Pro heb geprobeerd zit ik al te roepen om dergelijke technieken ook op PC te implementeren omdat native 4K gewoon zeer verspillend is in hoeveel prestaties het kost. Op consoles hadden ze al langer efficiente manieren om op hogere resoluties te renderen terwijl wij op PC maar alles zaten te bruteforcen. Native 4K is vaak nog erger dan RT qua prestatieskost terwijl er weinig tegenover staat.

Acties:
  • +2 Henk 'm!

Verwijderd

jody2k schreef op woensdag 14 december 2022 @ 10:24:
[...]

Sorry maar das absolute onzin deze theorie is al lang debunked + de latency issues zijn ook al opgelost intussen met de nieuwste nvidia drivers. Maar ga je gang ik ben hier niet om je te overtuigen om een nvidia kaart te kopen, alleen vind ik desinformatie erg storend.
Wat is er volgens jou debunked?

Frame interpolatie levert per definitie extra latency op, je laatste echte frame moet wachten op de interpolatie berekening en de weergave van de geinterpoleerd frame.

Die geinterpoleerd frame bevat per definitie geen info die niet in de laatste echte frame bekend was.

En ik heb het inmiddels in levende lijve kunnen bekijken, juist bij lagere framerates waar je het zou willen gebruiken voor vloeiend beeld, zijn de artefacts het meest storend.

Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
jody2k schreef op woensdag 14 december 2022 @ 10:24:
[...]

Sorry maar das absolute onzin deze theorie is al lang debunked + de latency issues zijn ook al opgelost intussen met de nieuwste nvidia drivers. Maar ga je gang ik ben hier niet om je te overtuigen om een nvidia kaart te kopen, alleen vind ik desinformatie erg storend.
Verkeerde topic hiervoor maar: theorie "debunked"? Hè? Het is geen theorie, zo werkt het. Zo werken graphics nu eenmaal.

Een CPU bottleneck is wanneer de CPU niet meer frames aan kan leveren dan de GPU kan renderen (dat kan zijn omdat de CPU te traag is, de engine slecht geoptimaliseerd, van alles). Dus met andere woorden, als de GPU bijvoorbeeld slechts 1ms (1000 FPS) nodig heeft om een frame te renderen, maar de CPU 10ms (100 FPS) nodig heeft om een frame voor te bereiden, dan krijg jij 100 FPS op je scherm en ben je CPU limited, basta.

Frame Generation werkt door Frame A, dat al gerenderd en gepresenteerd is, in het geheugen te houden samen met wat vectors omtrent beweging en dergelijke. Vervolgens wordt frame B gerenderd en als dat klaar is, wordt er vanuit A, samen met die vectors, geinterpoleerd richting B. Dat zijn de extra frames die je krijgt en dat draait 100% op de GPU, daar komt de CPU niet aan te pas; dat is waar die "Optical Flow Accelerator" voor gebruikt wordt (samen met wat andere rekeneenheden in de GPU).

In het voorbeeld hierboven, waar de GPU slechts 1ms nodig zou hebben maar simpelweg niet genoeg frames krijgt omdat de CPU langer nodig heeft, vindt dat hele proces dus ruim binnen de CPU frametime plaats en heeft het geen invloed op wat de CPU doet.

Zelfs in de gevallen waar de GPU voor een frame + FG langer nodig zou hebben dan de CPU voor een nieuw frame, heeft het geen invloed op de render snelheid van de CPU. Die heeft gewoon X tijd nodig om een frame voor te bereiden, zo simpel is het. En als ik me niet vergis (maar dan zou ik de documentatie weer even moeten lezen) is FG niet eens gebonden aan een barrier, waardoor de CPU dus niet eens wacht totdat FG klaar is en gewoon z'n normale gang gaat. Dus ja, jij krijgt misschien 150 frames op je scherm te zien, maar de CPU rendert er nog steeds maar 100; de overige 50 komen volledig vanuit de GPU.

Leg jij nu maar eens uit wat er "debunked" kan worden aan deze "theorie". Ik denk eerder dat het probleem is dat jij naar de hogere framerate kijkt en denkt dat de CPU bottleneck weg is, maar zo werkt dat niet.

[ Voor 4% gewijzigd door Werelds op 14-12-2022 11:38 ]


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Ik snap nog steeds niet dat mensen graag het duurste model kaart kopen om 4K & met max RT te spelen, maar dan wel consessies in beeldkwaliteit willen doen door met FSR/DLSS te spelen.

Alsof je een Supercar koopt die alleen 350km/h kan als je de snelheidsmeter gaat lopen aanpassen zodat het lijkt alsof je 350 gaat.

Wat is de logica? Speel dan gewoon 1440p maar wel haarscherp beeld. Of zet de quality options ietsje lager.


Ik ben benieuwd of de volgende driver update mogelijk wat zaken recht kan trekken want het voelt, zoals anderen ook zeggen, alsof AMD wat tegenslagen had richting de release die niet tijdig gefixed konden worden.
De logica is dat de beeldkwaliteit niet echt zichtbaar verslechterd en juist iets verbeterd met RT aan. Vandaar mijn keuze dus dat ik DLSS gebruik om met RT aan te kunnen gamen op 4k.

Vandaag ook The Witcher 3 getest met frame generation zonder DLSS en de game loopt veel soepeler dan native zonder dat ik extra lag opmerk.

[ Voor 7% gewijzigd door ItalianStyle op 14-12-2022 11:53 ]


Acties:
  • 0 Henk 'm!

  • sikkwittet
  • Registratie: Oktober 2013
  • Laatst online: 09-10 15:26
Als er iemand van zijn 7900xtx af wilt, om wat voor reden. Als het geen scalper prijs word. Houd ik mij aanbevolen

Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
Werelds schreef op woensdag 14 december 2022 @ 11:36:
[...]

Verkeerde topic hiervoor maar: theorie "debunked"? Hè? Het is geen theorie, zo werkt het. Zo werken graphics nu eenmaal.

Een CPU bottleneck is wanneer de CPU niet meer frames aan kan leveren dan de GPU kan renderen (dat kan zijn omdat de CPU te traag is, de engine slecht geoptimaliseerd, van alles). Dus met andere woorden, als de GPU bijvoorbeeld slechts 1ms (1000 FPS) nodig heeft om een frame te renderen, maar de CPU 10ms (100 FPS) nodig heeft om een frame voor te bereiden, dan krijg jij 100 FPS op je scherm en ben je CPU limited, basta.

Frame Generation werkt door Frame A, dat al gerenderd en gepresenteerd is, in het geheugen te houden samen met wat vectors omtrent beweging en dergelijke. Vervolgens wordt frame B gerenderd en als dat klaar is, wordt er vanuit A, samen met die vectors, geinterpoleerd richting B. Dat zijn de extra frames die je krijgt en dat draait 100% op de GPU, daar komt de CPU niet aan te pas; dat is waar die "Optical Flow Accelerator" voor gebruikt wordt (samen met wat andere rekeneenheden in de GPU).

In het voorbeeld hierboven, waar de GPU slechts 1ms nodig zou hebben maar simpelweg niet genoeg frames krijgt omdat de CPU langer nodig heeft, vindt dat hele proces dus ruim binnen de CPU frametime plaats en heeft het geen invloed op wat de CPU doet.

Zelfs in de gevallen waar de GPU voor een frame + FG langer nodig zou hebben dan de CPU voor een nieuw frame, heeft het geen invloed op de render snelheid van de CPU. Die heeft gewoon X tijd nodig om een frame voor te bereiden, zo simpel is het. En als ik me niet vergis (maar dan zou ik de documentatie weer even moeten lezen) is FG niet eens gebonden aan een barrier, waardoor de CPU dus niet eens wacht totdat FG klaar is en gewoon z'n normale gang gaat. Dus ja, jij krijgt misschien 150 frames op je scherm te zien, maar de CPU rendert er nog steeds maar 100; de overige 50 komen volledig vanuit de GPU.

Leg jij nu maar eens uit wat er "debunked" kan worden aan deze "theorie". Ik denk eerder dat het probleem is dat jij naar de hogere framerate kijkt en denkt dat de CPU bottleneck weg is, maar zo werkt dat niet.
Klopt allemaal theoretisch en al veel discussie over geweest op het internet oa. "fake frames" topics en andere blabla... maar wat betekent dit in the real world? Helemaal niets want de meeste gamers ervaren geen issues met frame generation (inclusief mij). Daarbovenop wordt dit grotendeels gecompenseerd met nvidia reflex technologie en zal dit ook verder refined worden met toekomstige updates. Ik prefereer 150fps in the witcher3 met framegeneration aan dan 80fps en ik heb dit daarnet blindelings getest. Maar goed einde discussie hier je hebt gelijk geniet van je AMD kaart :)
Modbreak:Respecteer dat anderen jouw mening niet hoeven te delen. Je komt sowieso niet erg overtuigend over als je andermans onderbouwing "andere blabla" noemt en zelf niets meer dan een link naar een filmpje in een andere post neerzet.

[ Voor 6% gewijzigd door dion_b op 14-12-2022 22:28 ]


Acties:
  • 0 Henk 'm!

  • DAMAGE
  • Registratie: December 2001
  • Laatst online: 07-10 17:07

DAMAGE

a.k.a. Rice_NL

Ik vind DLSS niets omdat het in mijn optiek alles te blurry maakt. Ik erger mij daar aan. Maar een leuke techniek voor mensen die er wel van kunnen genieten. Raytracing gebruik ik ook niet. Leuk om eens gezien te hebben maar voor mij persoonlijk voegt het niets toe. Geef mij die extra frames maar :)

[ Voor 31% gewijzigd door DAMAGE op 14-12-2022 11:59 ]

Lian Li O11 Dynamic EVO | Corsair HX1500i | Intel i9 13900K | ASUS Maximus HERO Z790 | 32GB GSkill Trident Z5 7200 DDR5 | Samsung 980 Pro 2TB | RTX 4080 | Simucube 2 Pro wheel


Acties:
  • 0 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Ik snap nog steeds niet dat mensen graag het duurste model kaart kopen om 4K & met max RT te spelen, maar dan wel consessies in beeldkwaliteit willen doen door met FSR/DLSS te spelen.

Alsof je een Supercar koopt die alleen 350km/h kan als je de snelheidsmeter gaat lopen aanpassen zodat het lijkt alsof je 350 gaat.

Wat is de logica? Speel dan gewoon 1440p maar wel haarscherp beeld. Of zet de quality options ietsje lager.


Ik ben benieuwd of de volgende driver update mogelijk wat zaken recht kan trekken want het voelt, zoals anderen ook zeggen, alsof AMD wat tegenslagen had richting de release die niet tijdig gefixed konden worden.
Heel simpel. 4K max settings met FSR/DLSS ziet er grafisch veel beter, en scherper uit, dan 1440p max settings. Op een relatief klein scherm oogt het verschil klein. Op een groot scherm is het verschil dag en nacht. Mensen die op 4K gamen doen dat doorgaans niet op een 27 inch schermpje. En dan is 1440p afschuwelijk.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DAMAGE schreef op woensdag 14 december 2022 @ 11:59:
Ik vind DLSS niets omdat het in mijn optiek alles te blurry maakt. Ik erger mij daar aan. Maar een leuke techniek voor mensen die er wel van kunnen genieten. Raytracing gebruik ik ook niet. Leuk om eens gezien te hebben maar voor mij persoonlijk voegt het niets toe. Geef mij die extra frames maar :)
Op 4k met quality mode word het voor het oog niet meer blurry, misschien als je op screenshots gaat inzoomen.

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
jody2k schreef op woensdag 14 december 2022 @ 11:56:
[...]
Klopt allemaal theoretisch maar wat betekent dit in the real world? Helemaal niets want de meeste gamers ervaren geen issues met frame generation (inclusief mij). Daarbovenop wordt dit grotendeels gecompenseerd met nvidia reflex technologie en zal dit ook verder refined worden met toekomstige updates. Maar goed einde discussie hier je hebt gelijk geniet van je AMD kaart :)
Dat is het punt niet. Het punt is dat jij het volgende stelde:
jody2k schreef op woensdag 14 december 2022 @ 08:12:
Opnieuw verkeerde info doe wat meer je research DLSS3 (frame generation) haalt de CPU bottlenecks weg
jody2k schreef op woensdag 14 december 2022 @ 10:24:
alleen vind ik desinformatie erg storend.
Die eerste stelling is simpelweg onjuist, waardoor je jezelf in de weg zit met je tweede opmerking.

Waar ik op draai heeft er verder ook geen reet mee te maken, ik probeer je enkel duidelijk te maken dat jouw informatie onjuist is. Ik heb het nergens over AMD vs Nvidia gehad, of dat FG goed of slecht is, dat is wat jij er van maakt. Je moet me geen woorden in de mond leggen.

Het besef dat FG een CPU bottleneck niet op lost, is ook weldegelijk van belang, want het betekent dat stotteren dat veroorzaakt wordt door een CPU bottleneck óók niet verdwijnt door FG. Het valt misschien minder op als het langdurig genoeg is, want dan kunnen de gegenereerde frames dat enigszins verbloemen. Maar microstuttering blijft, dat gegenereerde frames microstutteren dan gewoon mee.

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Ik snap nog steeds niet dat mensen graag het duurste model kaart kopen om 4K & met max RT te spelen, maar dan wel consessies in beeldkwaliteit willen doen door met FSR/DLSS te spelen.
Interessante stelling gezien (Frame Generation daargelaten) ik voldoende reviews heb zien langskomen waar het beeld juist prima uitziet en ik zelf geen geld durf in te zetten of ik in een blinde test native van upscaling eruit weet te pikken. Als jij dat wel kunt (heb je FSR en DLSS allebei zelf door een blinde test gehaald?), balen voor jou helaas, want dat maakt je gaming leven onnodig duurder dan als je er niet zo gevoelig voor zou zijn.
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Alsof je een Supercar koopt die alleen 350km/h kan als je de snelheidsmeter gaat lopen aanpassen zodat het lijkt alsof je 350 gaat.
Deze vergelijking raakt kant nog wal. Een vergelijking over de snelheid waarmee je een bestemming weet te bereiken (meetbaar) vs perceptie van speelervaring. Gelukkig waren auto vergelijkingen altijd al sterke voorbeelden om aan te halen in de wereld van videokaarten, niet dus.
MailMan schreef op woensdag 14 december 2022 @ 09:01:
Wat is de logica? Speel dan gewoon 1440p maar wel haarscherp beeld. Of zet de quality options ietsje lager.
Ik speel hoofdzakelijk met Dynamic Super Resolution op 8K die dan downscaled wordt naar 4K en anders met DLSS waardoor je op 1.25x zit en dan downscaled en ik moet al die moderne spellen nog opstarten waar ik DLSS nodig heb om op 4K een degelijke framerate te behaen (4090), maar ik vind het interessant dat jij het afschrijft zonder alle varianten en combinaties zelf getest te hebben, want er zijn voldoende reviewers die in het algemeen sceptisch zijn ingesteld, die toch behoorlijk positieve reviews hierover schrijven of opnemen. FSR (niet door mij getest, maar alleen reviewer beelden bekeken) lijkt het eveneens niet slecht te doen in zulke tests, al helemaal met de recente versies scoren ze gewoon goed.

Verder praat je over features omlaag zetten, ik zou in dat geval zeker eens aanraden een blinde test te doen wat er beter uit gaat zien op 4K....

[ Voor 3% gewijzigd door Paprika op 14-12-2022 12:11 ]


Acties:
  • +2 Henk 'm!

Verwijderd

jody2k schreef op woensdag 14 december 2022 @ 11:56:
[...]
Klopt allemaal theoretisch en al veel discussie over geweest op het internet oa. "fake frames" topics en andere blabla... maar wat betekent dit in the real world? Helemaal niets want de meeste gamers ervaren geen issues met frame generation (inclusief mij). Daarbovenop wordt dit grotendeels gecompenseerd met nvidia reflex technologie en zal dit ook verder refined worden met toekomstige updates. Ik prefereer 150fps in the witcher3 met framegeneration aan dan 80fps en ik heb dit daarnet blindelings getest. Maar goed einde discussie hier je hebt gelijk geniet van je AMD kaart :)
Voor professioneel gamers is het wel degelijk een issue dat de latency hoger is.

Reflex lost dat niet op, want met reflex verlaag je net zo goed de latency zonder DLSS 3, die gamers
die een competitief voordeel zullen dan dus met reflex, zonder DLSS 3 op een adaptive/Gsync scherm spelen.

Voor Solo games, zeker als ze voor 60of zelfs 30fps ontworpen zijn is dat inderdaad geen issue.

Maar jij bent blijkbaar ook gevoeliger als ik, ik merk op mijn adaptive sync scherm echt geen verschil tussen een game die gemiddeld iets van 90fps haal of de maximale 144 fps die mijn scherm aankan. Zonder adaptive sync zie ik het verschil dan weer wel.

Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
Werelds schreef op woensdag 14 december 2022 @ 11:36:
[...]
Zelfs in de gevallen waar de GPU voor een frame + FG langer nodig zou hebben dan de CPU voor een nieuw frame, heeft het geen invloed op de render snelheid van de CPU. Die heeft gewoon X tijd nodig om een frame voor te bereiden, zo simpel is het. En als ik me niet vergis (maar dan zou ik de documentatie weer even moeten lezen) is FG niet eens gebonden aan een barrier, waardoor de CPU dus niet eens wacht totdat FG klaar is en gewoon z'n normale gang gaat. Dus ja, jij krijgt misschien 150 frames op je scherm te zien, maar de CPU rendert er nog steeds maar 100; de overige 50 komen volledig vanuit de GPU.
Ik denk dat we wel met zekerheid kunnen stellen dat er geen barrier zal zijn (oftewel dat je gelijk hebt) en dat zonder de technische documentatie door te spitten:
Afbeeldingslocatie: https://tweakers.net/i/PjLxbsuO3bonTdeixbuUXClhJrU=/800x/filters:strip_exif()/f/image/LJy1aD8a9p7bokb7B5igGk1l.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/H7LWrB_whHNIfRXPdYER_vNCUeQ=/800x/filters:strip_exif()/f/image/hhga7kGIoKuWcl639wvHxCZJ.png?f=fotoalbum_large

Als het bovenste scenario geen goede weergave is van een CPU bottleneck, dan weet ik het ook niet meer.

Acties:
  • 0 Henk 'm!

  • Erkel
  • Registratie: Mei 2006
  • Laatst online: 07-10 20:53
jody2k schreef op woensdag 14 december 2022 @ 11:56:
[...]
Klopt allemaal theoretisch en al veel discussie over geweest op het internet oa. "fake frames" topics en andere blabla... maar wat betekent dit in the real world? Helemaal niets want de meeste gamers ervaren geen issues met frame generation (inclusief mij). Daarbovenop wordt dit grotendeels gecompenseerd met nvidia reflex technologie en zal dit ook verder refined worden met toekomstige updates. Ik prefereer 150fps in the witcher3 met framegeneration aan dan 80fps en ik heb dit daarnet blindelings getest. Maar goed einde discussie hier je hebt gelijk geniet van je AMD kaart :)
Hoe kun je dit nou zelf blindelings testen dan? Je zet het toch zelf aan / uit en dan weet je toch wat de settings zijn en waar je naar kijkt? 8)7

En misschien is het een goed idee om ook eens met bronnen te komen, je roept een hoop dingen, maar onderbouwing behalve het standaard "ik en vele anderen" zie ik niet.

[ Voor 9% gewijzigd door Erkel op 14-12-2022 12:33 ]

C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E


Acties:
  • +3 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
DaniëlWW2 schreef op dinsdag 13 december 2022 @ 19:35:
[...]


Ik had die gisteravond al gezien, maar bewust even niks gezegd omdat ik er eens over wou nadenken en wat meer wou zien. Nog steeds bij lange na niet genoeg gezien maar dit wel.

Hoe krijg je het voor elkaar een videokaart te krijgen die in de ene game de 2400MHz niet eens haalt en de andere over de 2900MHz kan gaan? De RX7900XTX lijkt tegen een vermogensmuur te lopen en het is ook nog eens 2800MHz die eigenlijk de grens lijkt te vormen voor AIB modellen, precies hoe de geruchten over een hardwarebug begonnen.

[Afbeelding]

Kan eigenlijk nog verder gaan. Je kan ook onder de 2000MHz komen. Maar ik wil ook eens demonstreren wat er nu gebeurd als vermogen omhoog gaat. Let op de voltages en de clock speed distributie. Sinds wanneer zit AMD rond de 1V, laat staan onder de 1V? Al deze RX7090XTX exemplaren lijken zich constant terug te clocken omdat ze vermogen missen en hogere voltages zinloos zijn. En met meer vermogen gaan clock speeds en voltages omhoog.

AMD referentie (355W)
[Afbeelding]
[Afbeelding]

ASUS (393W)
[Afbeelding]
[Afbeelding]

XFX (406W)
[Afbeelding]
[Afbeelding]

Niet alleen voltages maar ook consistentie gaat omhoog. Dat is op zich niet zo raar, maar deze GPU laat constant zien echt veel hoger te willen clocken dan die 2500-2600MHz gemiddelden. En dan het laatste puzzelstukje voor nu. Want gisteravond begreep ik het nog niet helemaal, maar nu wel. Die andere videokaarten lopen over de 70 graden celcius omdat ze normale fan curves hebben. Deze test is gedaan met een RX7900XT, dus niet een XTX die veel grotere problemen heeft, 400W wat 100W meer is en een temperatuur net boven de 40 graden celcius. Resultaat is 3,5GHz en 3,37GHz font clock.

[Afbeelding]

Ik wil echt eens een RX7900XTX zien onder een waterblok op 300W, 355W en 400W. Want wat ik vermoed is dat AMD last heeft van enorme resistentie in de GPU zelf. Ergens lijkt veel vermogen te lekken waardoor deze GPU niet genoeg meer overhoud voor de berekeningen en gaat terug clocken omdat die tegen de power limiet en temperatuurlimieten aanloopt.

Wat precies durf ik niet te zeggen maar hier lijkt het wel heel erg op. Het is ook niks nieuws voor AMD, we zien dit eigenlijk al jaren. We zien al sinds Zen 2/RDNA1 dat eigenlijk elk AMD product heel snel warm kan worden en toch opvallende winst in clock speeds vertoond met waterkoeling. Het was steeds net dat beetje extra dat je er nooit uit zou halen met luchtkoeling en daar adverteerde ze zelfs een tijdje mee. Dat komt omdat hitte die weerstand alleen maar erger omdat die hitte voor extra weerstand zorgt naarmate de GPU heter word. Dat is ook het hele principe van LN2 overclocking.

Het verschil is dat we tot dusver eigenlijk altijd zagen dat waterkoeling het laatste beetje extra eruit haalde. Nu lijkt het erop dat die GPU haar ontwerptarget gemist heeft. Want N31 lijkt veel sneller te kunnen clocken zo lang als de temperaturen maar in orde blijven. Er lijkt dus geen beperking qua architectuur te zijn om tenminste die 3GHz te halen. Je kan zo te zien iets van 200MHz foceren door er vermogen tegenaan te gooien, maar alsnog lijkt er veel meer in te zitten. Ondertussen lijkt de GPU ook vermogen tekort te komen waardoor frequentie zo erratisch word en het per game zoveel kan verschillen. Het lijkt er namelijk ook op dat games die de GPU net wat anders of lichter belasten opeens betere clock speeds eruit halen. En dat is niet 50MHz, nee dat is een paar honderd megahertz en dat lijkt gepaard te gaan met hogere voltages.
Allereerst, ik deel de teleurstelling van een wederom overhyped AMD GPU lancering. -O-

Het interessante zit hem denk ik in het nieuwe design, van zowel chiplets, als de nieuwe CU.


Chiplets
https://www.computerbase....900-xtx-xt-review-test/3/
Navi 31 taktet durchaus sehr hoch – mit mehr als 3,1 GHz

Und bei geringer, sehr kurzfristiger Last zeigt die Radeon RX 7900 XTX dann auch eindrucksvoll, welches Taktpotenzial Navi 31 beziehungsweise RDNA 3 eigentlich hat.
Dus bij een korte belasting kan de GCD hoog klokken, 3+ GHz easy. Maar hoe weet de MCD dat het met deze snelheid mee moet? Je ziet dan ook een terugval. Ik denk niet zozeer een stroomlek, maar meer een coördinatie probleem in het nieuwe design.

En kunnen de MCD's wel op 3+ GHz draaien, ze zijn immers N6, geen N5?


Compute unit
Dan de compute unit:
https://wccftech.com/amd-...ock-3-5-ghz-shader-clock/
0x22h also reports that the biggest problem of AMD's RDNA 3 architecture is that the SIMD32 units have no supporting measures for registers and the two FMA instructions in WAVE32 units can only use one source per operand register and one shared immediate value.
Corrigeer me als ik het niet goed begrijp @Werelds , maar het lijkt er op dat de dual instructions op dezelfde FP32 of INT32 data toepasbaar moeten zijn, klopt dat? En natuurlijk onafhankelijke instructies, die niet afhankelijk zijn van een andere instructie uit de wave.

Het lijkt me dat dit een #me2 is van AMD ingenieurs tegenover de Nvidia Ampere SM. Zij willen ook de "128 FP32 in 1 cycle", maar dan beter inclusief INT32. Terwijl RDNA een gaming architecture zou moeten zijn/blijven, niet dus. De verleiding van compute performance voor simulaties is kennelijk te groot.


Performance
7900XTX:
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/clock-vs-voltage.png

Deze frequenties van 7900 XTX zijn "all over the place" en totaal niet zoals het hoort.^^ Dit heeft een sterke negatieve impact op performance, en is nauwelijks beter dan de gemiddelde frequentie van een 6950XT.

6950XT:
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/clock-vs-voltage.png

De frequenties van 7900 XT zijn iets beter, maar ook nog niet goed.
7900XT
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-7900-xt/images/clock-vs-voltage.png

Van 80 CU naar 96 CU, met 1,174 IPC increase (AMD's eigen claim voor hun nieuwe CU's), en dezelfde 2500MHz , geeft:

Praktijk, 4k performance, tech power up, 6950XT en 7900 XTX review cijfers:
93,3 128,7 1,06506849315068 1,45423728813559 1,36539320943921
87,6 88,5
is +36,5% 7900 XTX vs 6950 XT.

Theorie, performance:
96 1,2 1,174 1,4088
80
is +40,8% 7900 XTX vs 6950 XT.


Voorlopige conclusie
Los van de frequentie die te winnen is, lijkt er veel meer te winnen qua frequentie stabiliteit tussen GCD en MCD's. De top kan naar 3,3 of 3,6 GHz, maar is nutteloos als het onder de 2 GHz kan blijven zakken. Een chip is zo goed als de zwakste schakel. Hier is veel te halen en ik hoop dat een re-spin gaat helpen, maar niet eerder dan Q3 2023, en waarschijnlijk een nieuwe naamgeving.

De drivers kunnen de nieuwe CU's beter aansturen, maar de dubbele TFLOP performance zal in games zeker niet worden gehaald. Verwacht hier niet meer dan 10% van.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
Erkel schreef op woensdag 14 december 2022 @ 12:31:
[...]

Hoe kun je dit nou zelf blindelings testen dan? Je zet het toch zelf aan / uit en dan weet je toch wat de settings zijn en waar je naar kijkt? 8)7

En misschien is het een goed idee om ook eens met bronnen te komen, je roept een hoop dingen, maar onderbouwing behalve het standaard "ik en vele anderen" zie ik niet.
YouTube: DLSS 3 - What I think of it

Acties:
  • +1 Henk 'm!

  • darkpluisje
  • Registratie: November 2006
  • Laatst online: 03-10 08:04
Dacht vorige week nog even een goeie aankoop te hebben gedaan met een 6800 voor 599 bij Azerty (+-80 stuks op voorraad bij de leverancier) Volgende dag stond de kaart voor 750 te koop met nog 8 stuks op voorraad. Na het weekend was hij van de site en omdat ik dinsdag nog niks gehoord had dacht ik, ik zal. even bellen. Nee hij zou morgen aankomen en donderdag geleverd worden. Krijg ik vandaag een mailtje, product is niet meer leverbaar, of ik mijn geld terug wil of een vervangend product. Inmiddels zijn op Azerty de 6700XT's zo in prijs gestegen dat ik zelfs daarvoor bij zou moeten betalen als "vervangend product". Ook de 6800XT (die in November nog 630 euro was) mag niet als vervanging worden gegeven, ook niet met 30 euro bijbetalen, want "we hebben kleine marges op de videokaarten".

Was jaren lang met plezier klant bij Azerty maar dit is toch bagger. Voelt een beetje alsof je in een lokkertje gestonken bent.

/endrant

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
@Paprika dat dus. En beide scenario's laten de bottleneck zien. Mét FG liggen de absolute minima rond het maximum zónder (dat is immers wat de CPU kan leveren). Naar mate je meer upscaled (en de GPU dus sneller klaar is) zie je dat er wel meer frames gepresenteerd worden, maar niet in de mate die je zou verwachten qua render resolutie.

Of het een barrier is of simpelweg framepacing weet ik niet, maar van 1080p (Performance) naar 720p (Ultra Performance) levert nauwelijks iets op; en vanaf Balanced (zo'n gare net-niet-1440p resolutie) levert het ook niet bijster veel op. Maar de CPU wacht duidelijk op de hele cyclus en de bottleneck is nog steeds aanwezig. Van Quality (1440p) naar UP (720p, kwart van de resolutie) is van 5,07ms naar 4,46ms, of pakweg 0,5ms winst. En dat komt doordat FG iets minder tijd nodig heeft om een 720p frame te genereren dan een 1440p frame. Gezien Nvidia stelde dat FG tussen de 2ms en 3ms kost (3ms enkel in uitzonderlijke gevallen, 2-2,5 is de norm), zal die 0,5ms winst dus ook uit FG komen en is de rest hetzelfde als daarvoor.

Genoeg over FG nu, verkeerde topic...althans tot AMD met FSR3 komt :p
sunsmountain schreef op woensdag 14 december 2022 @ 12:38:
Corrigeer me als ik het niet goed begrijp @Werelds , maar het lijkt er op dat de dual instructions op dezelfde FP32 of INT32 data toepasbaar moeten zijn, klopt dat? En natuurlijk onafhankelijke instructies, die niet afhankelijk zijn van een andere instructie uit de wave.

Het lijkt me dat dit een #me2 is van AMD ingenieurs tegenover de Nvidia Ampere SM. Zij willen ook de "128 FP32 in 1 cycle", maar dan beter inclusief INT32. Terwijl RDNA een gaming architecture zou moeten zijn/blijven, niet dus. De verleiding van compute performance voor simulaties is kennelijk te groot.
Andersom juist. AMD's tweede SIMD doet enkel INT8 en kleiner (de meest voorkomende INT instructies werken dus al niet) en FP; en dan ook nog eens op een beperkte set instructies.

Als het klopt wat hij zegt dan is het probleem inderdaad dat ze simpelweg geen input hebben voor de tweede SIMD. Whitepaper nodig ;)

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 20:51

Kuusj

Ofwel varken in 't Limburgs

De pushback die ik hier kreeg toen ik enkele weken geleden verwachtingen aan het managen was wat betreft de performance van de nieuwe kaarten begrijp ik wel. Maar dit is precies waarom ik het probeerde te doen haha. Ik wil niet zeggen dat ik een glazen bol heb, maar het is helaas heel voorspelbaar ondertussen. Oversellen en underdeliveren.

Laat ik zeggen dat ik geen seconde spijt heb van de aanschaf van een Asrock 6900XT OC Formula voor 789,- 2 weken geleden. Met die 6900XTXH chip zit je makkelijk op 6950XT niveau en dan is het nog maar 0-20% afstand tot de 7900XT die *minimaal* 300,- duurder is. Dat was overigens meer een principekwestie dingetje, 1000+ uitgeven voor een GPU vind ik echt gekkenwerk. Maar het is blijkbaar nog niet crisis genoeg of zo haha.

En als ik dan alweer merk hoe veel zooi nog steeds niet in orde is op driverniveau... 8)7

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
Verwijderd schreef op woensdag 14 december 2022 @ 12:12:
[...]

Voor professioneel gamers is het wel degelijk een issue dat de latency hoger is.

Reflex lost dat niet op, want met reflex verlaag je net zo goed de latency zonder DLSS 3, die gamers
die een competitief voordeel zullen dan dus met reflex, zonder DLSS 3 op een adaptive/Gsync scherm spelen.

Voor Solo games, zeker als ze voor 60of zelfs 30fps ontworpen zijn is dat inderdaad geen issue.

Maar jij bent blijkbaar ook gevoeliger als ik, ik merk op mijn adaptive sync scherm echt geen verschil tussen een game die gemiddeld iets van 90fps haal of de maximale 144 fps die mijn scherm aankan. Zonder adaptive sync zie ik het verschil dan weer wel.
Professionele gamers geven geen fluit om graphics dus ik snap je punt niet helemaal. Professionele gamers verdienen hun geld met gamen. Het is hun werk. Hun rig of de rig die ze in competities mogen gebruiken zijn zo ingericht dat de grafische instellingen zo min mogelijk invloed hebben op hun prestaties. En dat betekent geen max settings.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
XWB schreef op dinsdag 13 december 2022 @ 21:54:
[...]

Wat een vreemde werkelijkheid dat AMD minder efficiënt is dan Nvidia :X
Dat is hoe het altijd al geweest is? Enige uitzondering afaik was de RTX 3xxx serie omdat die op een inferieur procede werd gebakken.

Zo is het ook jaaaaren geweest bij de CPU tak. Pas sinds AMD daar het betere productieprocede heeft zie je dat AMD daarin heerscht.

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
eL_Jay schreef op woensdag 14 december 2022 @ 12:53:
[...]

Dat is hoe het altijd al geweest is? Enige uitzondering afaik was de RTX 3xxx serie omdat die op een inferieur procede werd gebakken.
Altijd is wel erg overdreven.

40nm:
https://www.techpowerup.com/gpu-specs/geforce-gtx-480.c268
https://www.techpowerup.com/gpu-specs/radeon-hd-5870.c253

Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-gtx-480-fermi/images/perfwatt_2560.gif

En er zijn nog wel wat voorbeelden te bedenken, maar dit is waarschijnlijk de meeste extreme vergelijking die je gaat vinden.

Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
Werelds schreef op woensdag 14 december 2022 @ 12:46:

Genoeg over FG nu, verkeerde topic...althans tot AMD met FSR3 komt :p
En wat bedoel je hiermee precies dat AMD's FSR3 wel de moeite waard zal zijn of over te discussieren? gaje dan ook 3 pagina's schrijven hoe slecht het wel niet werkt? 8)7
Modbreak:Niet op de man spelen. En check je mail.

[ Voor 7% gewijzigd door dion_b op 14-12-2022 22:26 ]


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
eL_Jay schreef op woensdag 14 december 2022 @ 12:53:
[...]

Dat is hoe het altijd al geweest is? Enige uitzondering afaik was de RTX 3xxx serie omdat die op een inferieur procede werd gebakken.

Zo is het ook jaaaaren geweest bij de CPU tak. Pas sinds AMD daar het betere productieprocede heeft zie je dat AMD daarin heerscht.
Met Hawaii (R9 290(X)) viel AMD pas licht terug; GCN1 en Kepler waren ook vrijwel identiek tussen Tahiti en GK104; de kleinere chips deed AMD het toen beter mee. Polaris was ook niets mis mee (los van power delivery balancing :P), perf/W was daar vergelijkbaar met Maxwell. Probleem toen was dat ze niet mee deden in de high-end.

Dus zo lang is dat nog niet nee :p
jody2k schreef op woensdag 14 december 2022 @ 13:14:
[...]


En wat bedoel je hiermee precies dat AMD's FSR3 wel de moeite waard zal zijn of over te discussieren? gaje dan ook 3 pagina's schrijven hoe slecht het wel niet werkt? 8)7
Nogmaals, waar heb ik in deze laatste posts in vredesnaam gezegd dat FG het niet waard zou zijn? Ik stelde enkel dat jouw technische "feiten" onjuist waren, wat ze ook zijn. Over subjectieve waarde heb ik het nooit gehad. Ik heb nergens gesteld dat het "slecht werkt", dat is wederom iets wat jij er van probeert te maken.

En ja, als AMD inderdaad iets soortgelijks gaat doen, zal ik dat uitpluizen op technisch vlak.

En als je dan toch m'n persoonlijke mening wilt: nee, ik zal er dan ook geen fan van zijn. Het is hier denk ik algemeen bekend dat ik niets moet hebben van FXAA, TAA, DLSS, FSR of FG. Ik denk dat de meesten hier wel genoeg posts van me hebben gezien de afgelopen 15 jaar om dat te weten. Dat steek ik ook niet onder stoelen of banken, maar dat weerhoudt me er niet van om de technische kant te bekijken en eventueel te bewonderen. Dat ik het verder lapmiddelen vind maakt niet uit, lapmiddelen kunnen technisch nog steeds heel boeiend zijn.

Acties:
  • 0 Henk 'm!

  • MailMan
  • Registratie: Juni 2002
  • Laatst online: 23:36
Paprika schreef op woensdag 14 december 2022 @ 12:08:
[...]

Interessante stelling gezien (Frame Generation daargelaten) ik voldoende reviews heb zien langskomen waar het beeld juist prima uitziet en ik zelf geen geld durf in te zetten of ik in een blinde test native van upscaling eruit weet te pikken. Als jij dat wel kunt (heb je FSR en DLSS allebei zelf door een blinde test gehaald?), balen voor jou helaas, want dat maakt je gaming leven onnodig duurder dan als je er niet zo gevoelig voor zou zijn.
Als ik FSR Quality op mijn 4K scherm gebruik dan ziet het er blurrier/minder scherp uit dan 4K zonder FSR. Dus er zit voor mij merkbaar verschil op dat onderdeel van beeldkwaliteit. Aangezien dat het hele beeld beïnvloedt, zet ik dan liever bv water reflections in een spel als RDR2 lager.

DLSS heb ik niet in de echte praktijk gezien, maar als ik de reviews mag geloven is dat vergelijkbaar qua scherpte met FSR op quality, hoewel sharpening filters dat kunnen beinvloeden en dat bij NVidia sterker staat ingesteld.

Maar nog liever speel ik op 1440p op mijn native 1440p paneel omdat ik daar geen upscaling hoef te doen en alles wel op max kan zetten. Afhankelijk van de beeldafstand en een fatsoenlijke AA optie ziet dat er net zo goed uit.
Deze vergelijking raakt kant nog wal. Een vergelijking over de snelheid waarmee je een bestemming weet te bereiken (meetbaar) vs perceptie van speelervaring. Gelukkig waren auto vergelijkingen altijd al sterke voorbeelden om aan te halen in de wereld van videokaarten, niet dus.
De vergelijking is dat men doet alsof men 4k speelt/350kmh gaat, maar onder de motorkap de boel faked.

“Mijn auto gaat 350 op de teller (maar 320 op GPS) / Ik speel op 4k (maar render op 2k)
Ik speel hoofdzakelijk met Dynamic Super Resolution op 8K die dan downscaled wordt naar 4K en anders met DLSS waardoor je op 1.25x zit en dan downscaled en ik moet al die moderne spellen nog opstarten waar ik DLSS nodig heb om op 4K een degelijke framerate te behaen (4090), maar ik vind het interessant dat jij het afschrijft zonder alle varianten en combinaties zelf getest te hebben, want er zijn voldoende reviewers die in het algemeen sceptisch zijn ingesteld, die toch behoorlijk positieve reviews hierover schrijven of opnemen. FSR (niet door mij getest, maar alleen reviewer beelden bekeken) lijkt het eveneens niet slecht te doen in zulke tests, al helemaal met de recente versies scoren ze gewoon goed.

Verder praat je over features omlaag zetten, ik zou in dat geval zeker eens aanraden een blinde test te doen wat er beter uit gaat zien op 4K....
Ik snap het als je alleen een 4K monitor hebt en dat je dan ook op die resolutie wil spelen en niet op 1440p. Bovendien zijn er genoeg spellen die op de snelste kaarten makkelijk 4K met 100+ fps kunnen halen. Daar kan ik de logica van een dure kaart volgen.

Waar ik het niet volg is in willen boeten op renderresolutie met een top of the line kaart. Renderresolutie op native is bij mij stap 1 van de grafische instellingen. Net als vroeger 32 ipv 16 bits kleuren.

Ik ben er mogelijk ook gevoeliger voor dan de gemiddelde persoon anders had ik geen onderzoek gedaan naar esthetiek :P

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 10-10 15:08
https://wccftech.com/amd-...ock-3-5-ghz-shader-clock/


Overclocked naar 3.5 Ghz op air met 400 watt power draw. Doet mij denken aan de eerste geruchten dat hij 400 watt zou gaan gebruiken.
Denk wel dat het gewoon heel erg sample to sample zal verschillen waardoor ze dus voor flink minder gegaan zijn.
Ik zie alleen geen game tests dus of dit echt stable is...

[ Voor 25% gewijzigd door computerjunky op 14-12-2022 14:32 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@sunsmountain Ik zie werkelijk nergens iets over MCD's staan of dat daar een probleem in zit.
Je maakt het jezelf denk ik ook veel te moeilijk omdat het werkelijke antwoord een stuk simpeler lijkt te zijn.

N31 doet me helaas denken aan Vega 10...
Vega 10 was waarschijnlijk de meest kapotte GPU sinds GF100/Fermi. Fermi blijft die nog wel voor omdat die GPU relatief gezien nog slechter was en het een andere tijd was met minder complexe GPU's die minder energie verbruikte. Neemt niet weg hoe slecht Vega 10 eigenlijk was als GPU. Vega werd gered door de prijs, als je er een goedkoop kon krijgen.

Vega 10 schreeuwde zowat dat die ontworpen was voor 1700MHz+ maar dat kon je er alleen uithalen met 400W+. En dat deden die chips ook gewoon. Het was nog 14nm, verbruik lag voor de meeste videokaarten nog een stuk lager en koelingsvereisten waren niet ook zo scherp als ze nu zijn. Als je wou dan kon je heel ver gaan. Ventilatoren moesten alleen wel naar het standje opstijgende straaljager.

Het probleem met Vega 10 was zeer waarschijnlijk dat die chip enorm veel last van stroomlekkage. Nu heeft elke chip daar wel last van, maar bij Vega 10 was het extreem. Die chip was ontworpen om veel hoger te clocken dan voorgaande chips zoals Polaris of Fiji, maar had daar tegelijkertijd ook veel moeite mee omdat die zoveel van dat vermogen lekte. Hierom kon je een Vega 56 of 64 ook van 1200mv naar rond de 900mv undervolten. Je verlaagde immers ook het maximale verbruik van de GPU waardoor die minder lekte en hogere clock speeds kon behalen. 1200mv was in ieder geval niet nodig om stabiel te opereren. 1400MHz+ kon eigenlijk elke chip wel met 900mv. Pas als je echt over de 1500MHz ging, liep benodigd voltage voor stabiliteit en dus ook het vermogen ook fors op. Vega 10 heeft uiteindelijk ook meer dan alleen een respin gekregen in Vega 20 op 7nm. En opeens deed de GPU 1800MHz+ en presteerde die op zich niet eens zo slecht tegenover de GTX1080Ti of RTX2080.


N31 lijkt iets anders te zijn. Ook hier lijkt het stroomlekkage te zijn, maar het manifesteert zich waarschijnlijk op een andere manier. Het is een veel kleiner oppervlakte waar de rekeneenheden zich bevinden, transistordichtheid is fors toegenomen en er zit ook veel meer vermogen in dat kleinere oppervlakte. De gevoeligheid lijkt hier te manifesteren in utilisatie. Want wat er namelijk lijkt te gebeuren is dat de GPU tegen een vermogenslimiet aanloopt en dan gaat terugclocken omdat er niet genoeg vermogen beschikbaar is om die hogere clock speed vast te houden. Daarbij speelt resistentie een grote rol omdat die zeer geavanceerde nodes zoals N7 en N5 met dusdanig kleine transistoren en interconnecties werken dat er meer weerstand plaatsvind dan voorheen. Los daarvan speelt temperatuur ook een rol. We zien al tijden dat dergelijke chips een stuk warmer worden en tegelijkertijd meer baad hebben bij lagere temperaturen.

Waar ik een beetje bang voor ben met N31 is dat de stroomlekkage dusdanig groot is dat de extra SIMD32 eenheden nauwelijks iets kunnen doen. Die gebruiken lijkt de GPU al over haar vermogenslimiet te duwen en dan worden ze niet aangesproken en zijn ze dus nutteloos. Dat zou verklaren waarom er geen uplift te bekennen is van die extra capaciteit bovenop de toch al erg fluctuerende clock speeds en opvallend lage voltages. N31 lijkt zichzelf constant te moeten downclocken om maar stabiel en binnen vermogenslimieten te blijven te blijven i.p.v. clock speed te verhogen om beter te presteren.

Hierom wil ik N31 eens zien onder een waterblok met 300/350400W. Want ik vermoed dat het probleem zit in opbouwende resistentie met oplopende temperaturen ergens in die GCD zelf. Klopt mijn vermoeden dan zou met een waterblok de clock speed wel eens een stuk beter kunnen zijn en ook beter lineair schalen met meer vermogen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
DaniëlWW2 schreef op woensdag 14 december 2022 @ 15:49:
@sunsmountain Ik zie werkelijk nergens iets over MCD's staan of dat daar een probleem in zit.
Je maakt het jezelf denk ik ook veel te moeilijk omdat het werkelijke antwoord een stuk simpeler lijkt te zijn.

<knip>


N31 lijkt iets anders te zijn. Ook hier lijkt het stroomlekkage te zijn, maar het manifesteert zich waarschijnlijk op een andere manier. Het is een veel kleiner oppervlakte waar de rekeneenheden zich bevinden, transistordichtheid is fors toegenomen en er zit ook veel meer vermogen in dat kleinere oppervlakte. De gevoeligheid lijkt hier te manifesteren in utilisatie. Want wat er namelijk lijkt te gebeuren is dat de GPU tegen een vermogenslimiet aanloopt en dan gaat terugclocken omdat er niet genoeg vermogen beschikbaar is om die hogere clock speed vast te houden. Daarbij speelt resistentie een grote rol omdat die zeer geavanceerde nodes zoals N7 en N5 met dusdanig kleine transistoren en interconnecties werken dat er meer weerstand plaatsvind dan voorheen. Los daarvan speelt temperatuur ook een rol. We zien al tijden dat dergelijke chips een stuk warmer worden en tegelijkertijd meer baad hebben bij lagere temperaturen.

Waar ik een beetje bang voor ben met N31 is dat de stroomlekkage dusdanig groot is dat de extra SIMD32 eenheden nauwelijks iets kunnen doen. Die gebruiken lijkt de GPU al over haar vermogenslimiet te duwen en dan worden ze niet aangesproken en zijn ze dus nutteloos. Dat zou verklaren waarom er geen uplift te bekennen is van die extra capaciteit bovenop de toch al erg fluctuerende clock speeds en opvallend lage voltages. N31 lijkt zichzelf constant te moeten downclocken om maar stabiel en binnen vermogenslimieten te blijven te blijven i.p.v. clock speed te verhogen om beter te presteren.
Het terugvallen van de kloksnelheid GCD's kàn als reden hebben de vermogenslimiet, maar kàn ook als reden hebben de MCD die niet of niet snel genoeg mee-schakelt. Een ingestelde vermogenslimiet betekent nog niet direct stroomlekkage, of dat weerstand extra impact zou hebben, hetzelfde voor temperatuur.

Dus we zijn het eens over het terugvallen van de GCD kloksnelheid, maar we hebben een ander perspectief op de oorzaak. En waarschijnlijk weten alleen de AMD ingenieurs het op dit moment, de rest is speculatie.
:)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 22:16
Er is een drop op AMD.com
Net een XTX kunnen bestellen

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
sunsmountain schreef op woensdag 14 december 2022 @ 16:10:
[...]
Dus we zijn het eens over het terugvallen van de GCD kloksnelheid, maar we hebben een ander perspectief op de oorzaak. En waarschijnlijk weten alleen de AMD ingenieurs het op dit moment, de rest is speculatie.
Wat ik nu steeds blijf lezen is dat de 2.5 slot koeler eigenlijk niet genoeg is voor de XTX; en dat er eigenlijk gewoon een betere/grotere koeler op had moeten zitten. Even ongeacht van de clockspeed van de GPU lijkt de koeler niet om te kunnen gaan met de hitteproductie bij de reference kaart. Een kaart die misschien wel 400W 'nodig heeft' in een te krap jasje (wattage en koeler) levert gewoon problemen op zo lijkt; want de kaart in met een AIB cooler en 400W+ best wel op z'n gemak en kruipt dichter tegen de 4090 aan.

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
computerjunky schreef op woensdag 14 december 2022 @ 14:31:
https://wccftech.com/amd-...ock-3-5-ghz-shader-clock/


Overclocked naar 3.5 Ghz op air met 400 watt power draw. Doet mij denken aan de eerste geruchten dat hij 400 watt zou gaan gebruiken.
Denk wel dat het gewoon heel erg sample to sample zal verschillen waardoor ze dus voor flink minder gegaan zijn.
Ik zie alleen geen game tests dus of dit echt stable is...
Dit is alleen voor theoretische compute performance check, of het maximum aantal TFLOPS bereikt kan worden. Dus voor simulaties, etc. niet voor games.

Wel een interessante limiet gevonden qua registers, die niet volledig kunnen mee-switchen met de workload en daarmee wat lagere TFLOPS halen. Het kan best zijn dat de maximale TFLOPS een ideale compute workload nodig heeft.

Net zoals bij Nvidia eigenlijk (zowel Ampere als Lovelace), maar die hebben de caveat van concurrency (single instruction per cycle, dus FP32 en INT32 naast elkaar runnen, maar niet beide kunnen aansturen in 1 cyle, Nvidia doet dat in 2 losse cycles). Die voorbehouden heeft AMD RDNA3 niet (dual instruction, dus wèl FP32 èn INT32 naast elkaar gelijktijdig kunnen aansturen, maar niet helemaal, misschien alleen voor ideale workloads).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
zzzzz schreef op woensdag 14 december 2022 @ 16:13:
[...]

Wat ik nu steeds blijf lezen is dat de 2.5 slot koeler eigenlijk niet genoeg is voor de XTX; en dat er eigenlijk gewoon een betere/grotere koeler op had moeten zitten. Even ongeacht van de clockspeed van de GPU lijkt de koeler niet om te kunnen gaan met de hitteproductie bij de reference kaart. Een kaart die misschien wel 400W 'nodig heeft' in een te krap jasje (wattage en koeler) levert gewoon problemen op zo lijkt; want de kaart in met een AIB cooler en 400W+ best wel op z'n gemak en kruipt dichter tegen de 4090 aan.
Een beter koeler zal zeker helpen, maar dit soort rond/terug-springende klokfrequenties als dat we zien ga je met een koeler niet echt verhelpen. Er is iets anders aan de hand wat impact heeft op de stabiliteit van het chiplet design als geheel.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

N31 zou A0 stepping zijn. A0 in AMD spraak bekent ook echt vroeg silicium sample en er is waarschijnlijk wel iets kapot. Ik heb het net gecheckt en heel wat RDNA1/2 GPU's waren stepping C0/C1. Die hebben dus A stepping(s) gehad en toen wat B stepping(s) en zijn gelanceerd met C toen de meeste bugs eruit gehaald zijn. Deze niet...

https://pbs.twimg.com/med...-?format=png&name=900x900
https://threadreaderapp.com/thread/1602783266335080449.html

En er zit al een bekende bug in de shader prefetch HW.
[embed] https://twitter.com/Kepler_L2/status/1603146626067046401[/]


Ik begin eigenlijk te vermoeden dat de RX7900 series/N31 alleen gelanceerd zijn omdat AMD meermaals belooft heeft dat RDNA3 dit jaar beschikbaar zou komen. Waarschijnlijk zijn dergelijke geloften ook gemaakt tegen investeerders waardoor ze zichzelf indekken door deze half kapotte chip te lanceren...


Nee laat maar. Ik had hier wat beter over kunnen nadenken want hier kloppen ook wat dingen niet aan.

[ Voor 6% gewijzigd door DaniëlWW2 op 15-12-2022 16:51 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • The Chosen One
  • Registratie: Juni 2007
  • Laatst online: 23:17

The Chosen One

Zie signature!

Klinkt alsof de 7950 XTX XT en dan natuurlijk de eXtreme (aib kaart) de kaart wordt om te kopen. :+

Ben erg benieuwd welke sites/youtubes hier nog verder induiken en of er nog wat gehakt/spaanders gevallen komen.
En hoeveel/hoesnel welke problemen software matig opgelost kunnen worden. En dan moeten ze blijkbaar nog doorwerken met de feestdagen ook nog. Misschien wel in afgeslankte vorm maar toch.

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op donderdag 15 december 2022 @ 10:46:
|:( 8)7 |:( 8)7 |:( 8)7

N31 zou A0 stepping zijn. A0 in AMD spraak bekent ook echt vroeg silicium sample en er is waarschijnlijk wel iets kapot. Ik heb het net gecheckt en heel wat RDNA1/2 GPU's waren stepping C0/C1. Die hebben dus A stepping(s) gehad en toen wat B stepping(s) en zijn gelanceerd met C toen de meeste bugs eruit gehaald zijn. Deze niet...

[Afbeelding]
https://threadreaderapp.com/thread/1602783266335080449.html
Vreemd, TechPowerUp had een C8 revisie:

Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/gpuz-overclocking.gif
https://www.techpowerup.c...adeon-rx-7900-xtx/39.html

March of the Eagles


  • raymondw
  • Registratie: November 2000
  • Laatst online: 22:16
Vanochtend wilde ik een voorbereiding doen voor mijn 7900XTX door alvast de laatste drivers te installeren.
Onder Ubuntu kon ik gewoon de driver pakken en deze draait nu met de huidige 6800XT

Voor Windows mag dat blijkbaar niet en krijg ik een error
Even de details/INF ingedoken en er zijn wel verwijzingen naar oude producten
AMD999A.1 = "AMD Radeon HD 8410G"
AMD999B.1 = "AMD Radeon HD 8310G"
AMD999C.1 = "AMD Radeon HD 8650D"
AMD999D.1 = "AMD Radeon HD 8550D"
AMD99A0.1 = "AMD Radeon HD 7520G"
AMD99A2.1 = "AMD Radeon HD 7420G"
AMD99A4.1 = "AMD Radeon HD 7400G"

Maar niet de 6000 serie
Vreemd...

Vraag is welke revisie er word uitgelezen er zitten meerdere chips op en kan het verschillen tussen review en consumer versie?

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • +3 Henk 'm!

  • Xentor
  • Registratie: Maart 2007
  • Laatst online: 10-10 15:59
Die C8 wordt terug gerapporteerd uit de driver.
De onderliggende BIOS file geeft een A0 aan.

Zie de tweet van David;
https://twitter.com/davidbepo/status/1603105379814371328

- iRacing profiel | Ryzen 7700x | 4070 | 32GB DDR5 | -


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Xentor schreef op donderdag 15 december 2022 @ 11:04:
Die C8 wordt terug gerapporteerd uit de driver.
De onderliggende BIOS file geeft een A0 aan.

Zie de tweet van David;
https://twitter.com/davidbepo/status/1603105379814371328
Is het gebruikelijk dat de driver een andere revisie aangeeft dan de bios, of probeert AMD iets te verdoezelen?

[ Voor 7% gewijzigd door XWB op 15-12-2022 11:07 ]

March of the Eagles


  • Thomg
  • Registratie: September 2010
  • Laatst online: 23:16

Thomg

Aww yiss

Aha, dus AMD chicanery.

  • Musho
  • Registratie: Februari 2008
  • Laatst online: 13-02 22:19
Shader prefetch is in 2017 geïmplementeerd in de opensource vulkan driver, en leverde toen een ~2% performance improvement op. Zie hier: https://www.phoronix.com/news/RADV-Shader-Prefetch

Een 2% performance gap lijkt me ook niet voldoende om maanden uit te stellen. Nou zegt dit natuurlijk niet perse iets over eventueel andere bugs. Maar een eventueel niet werkende shader prefetch is nou niet schokkend te noemen.

Acties:
  • +1 Henk 'm!

  • Xentor
  • Registratie: Maart 2007
  • Laatst online: 10-10 15:59
XWB schreef op donderdag 15 december 2022 @ 11:06:
[...]


Is het gebruikelijk dat de driver een andere revisie aangeeft dan de bios, of probeert AMD iets te verdoezelen?
Verdoezelen wil ik het niet noemen. Als ik het goed begreep is de C8 die je ziet de revisie die terug komt uit de software, maar dus niet zozeer de GPU in dit geval. In de vBIOS zelf staat de revisie van de GPU, dat zie je namelijk terug in die tweet van David.

Ter info;
https://twitter.com/davidbepo/status/1603145507488014336

Onder die tweet staat meer informatie waar je doorheen kunt scrollen.

- iRacing profiel | Ryzen 7700x | 4070 | 32GB DDR5 | -


Acties:
  • +2 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Die C8 is dan board revision, blijkbaar heeft hij dat nagevraagd bij de maker(s) van GPU-Z. Vraag mij dan wel af welke GPU stepping RDNA2 en RDNA1 hadden bij introductie, want blijkbaar is het niet voldoende om uitsluitend naar GPU-Z te kijken.





Het zou mooi zijn als GPU-Z beide revisies zou kunnen weergeven, of in elk geval de huidige revisie niet bij 'GPU' zetten.

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het is veel makkelijk om een board revisie te maken dan een revisie van de chip, dus normaliter is die eerste hoger.

Trouwens wel erg misleidend hoe dit nu wordt gepresenteerd in GPU-Z.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • MrDucky
  • Registratie: Juli 2008
  • Laatst online: 09-10 12:37
DaniëlWW2 schreef op donderdag 15 december 2022 @ 10:46:
|:( 8)7 |:( 8)7 |:( 8)7

N31 zou A0 stepping zijn. A0 in AMD spraak bekent ook echt vroeg silicium sample en er is waarschijnlijk wel iets kapot. Ik heb het net gecheckt en heel wat RDNA1/2 GPU's waren stepping C0/C1. Die hebben dus A stepping(s) gehad en toen wat B stepping(s) en zijn gelanceerd met C toen de meeste bugs eruit gehaald zijn. Deze niet...
In de bios file van mijn 6900XT van AMD staat AMD_NAVI21_D4120100_XTX_A0_GDDR6_16GB

Ben wel benieuwd hoe dit bij anderen is :)

AMD Ryzen 9 5800X3D, 2x16 GB G.Skill Ripjaws V 3600MHZ CL16 DDR4, Gigabyte B550i Aorus Pro AX, AMD Radeon RX 6900 XT, 1x Samsung PM9A1 1TB nvme SSD, 1x Crucial C300 256 GB, 1x Crucial MX500 1TB, 1x WD 2.5 Inch 1TB, SSUPD Meshlicious, Corsair SF-750


  • Jesaul
  • Registratie: Oktober 2015
  • Laatst online: 10-10 17:13
Beta-testing :)

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10-10 17:19
Ik zou hier nog niet te hard conclusies gaan trekken, dit zijn zaken die snel een eigen leven gaat leiden, net als bijv. dat Nvidia PosCAP verhaal. Ik wacht wel even rustig af tot alle info beschikbaar is dit keer :P

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
MrDucky schreef op donderdag 15 december 2022 @ 13:55:
[...]


In de bios file van mijn 6900XT van AMD staat AMD_NAVI21_D4120100_XTX_A0_GDDR6_16GB

Ben wel benieuwd hoe dit bij anderen is :)
Mijn RX 6800 XT heeft ook een A0 revisie:
@AMD_NAVI21_D4120500_XT_A0_GDDR6_16GB
Lijkt mij dus inderdaad te voorbarig om conclusies te trekken.

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Een C of zelfs B spin is 100% niet het geval. Een C-spin heb ik volgens mij nog nooit gezien en B-spins zijn bijna altijd refreshes. G92, GT218, GK208, GK110 (sorry, allemaal Nvidia chips maar dat is omdat het daar makkelijker te zien is :P). Die laatste is de enige waarvan we zowel de A- (Titan) als B-spin (780 Ti, Titan Black) gezien hebben.

A0 is de eerste revisie van een productierun. De functionele bugs zijn er dan al uit gehaald. Als er al meerdere spins komen (wat vrijwel nooit gebeurt), dan is het doorgaans hooguit A1 die op de markt komt. De enige uitzondering daarop die ik me nu kan herinneren, is Fermi. Dat was A3. En dat was ook een hardware bug, in de zin dat hun materiaalkeuze simpelweg niet werkte en ze hun beoogde kloksnelheden niet haalden. Functioneel verder wel correct.

Acties:
  • +1 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 22:16
XWB schreef op donderdag 15 december 2022 @ 14:34:
Mijn RX 6800 XT heeft ook een A0 revisie:
Hier een Navi 21, revisie C1 met idd dezelfde waarde, kaart is op dag 1 gekocht bij AMD.
Op PEBKAC issues na nooit problemen mee gehad.
Maar dat is meestal op Zondag ochtend O-)

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • +3 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 09-10 22:40
DaniëlWW2 schreef op donderdag 15 december 2022 @ 10:46:
|:( 8)7 |:( 8)7 |:( 8)7

N31 zou A0 stepping zijn. A0 in AMD spraak bekent ook echt vroeg silicium sample en er is waarschijnlijk wel iets kapot. Ik heb het net gecheckt en heel wat RDNA1/2 GPU's waren stepping C0/C1. Die hebben dus A stepping(s) gehad en toen wat B stepping(s) en zijn gelanceerd met C toen de meeste bugs eruit gehaald zijn. Deze niet...

[Afbeelding]
https://threadreaderapp.com/thread/1602783266335080449.html

En er zit al een bekende bug in de shader prefetch HW.
[Embed]


Ik begin eigenlijk te vermoeden dat de RX7900 series/N31 alleen gelanceerd zijn omdat AMD meermaals belooft heeft dat RDNA3 dit jaar beschikbaar zou komen. Waarschijnlijk zijn dergelijke geloften ook gemaakt tegen investeerders waardoor ze zichzelf indekken door deze half kapotte chip te lanceren...
Dus AMD heeft een onafgemaakt product gelanceerd om investeerders tevreden te houden? Sorry, maar dit klinkt wel een beetje als desperate bs onderhand. Het product is af en presteert niet naar wens, end of story. Als een respin echt gaat helpen dan kost dat tijd, maar als men overtuigd is dat het gaat helpen, dan doen ze dat eerder dan maar gewoon releasen om te releasen. Als het product kapot is en je gaat er toch 1000 MSRP voor vragen, dan gaat je reputatie een flink dreun krijgen

De load of crap die men nu weer op internet loopt te trollen om het goed te praten is gewoon hilarisch aan het worden. :+

Nu het product zelf want ik was best druk de afgelopen dagen en net een beetje bij met de reviews die er zijn. Ik ben geheel niet verrast met de uitkomst en de prestaties + prestaties per watt. Feit dat Nvidia al eerder vrij gunstig was op performance per watt en dat nu weer is sinds ze bij TSMC is geen nieuws. We wisten al dat Samsung niet gunstig was op dit vlak. AMD zit gelukkig wel in dezelfde regio en heeft dus wel de grootste schade echt ingehaald met RDNA.

Dat AMD moeite heeft met chiplet is zat er dik in. Waarschijnlijk komt dit wel goed over 1 to 2 generaties net als bij Zen, maar je kunt geen wonderen verwachten van het eerste product die radicaal anders is opgebouwd. Dat is de leerfase in praktijk. Met chiplets ga je hoe dan ook nadelen ondervinden met overhead en dat was precies wat ik had verwacht. Hier had ik al voor gewaarschuwd na alle kruiwagens vol beloftes die rond gingen over RDNA3 (beter dan, betere prestaties per watt en goedkoper dan Nvidia).

Ik ben verder heel sceptisch over de keuze van de naam die AMD heeft gebruikt. Als je vooraf al weet dat je geen 9 serie killer hebt en je concureert met een 8 serie op bijna alles, dan ga je niet de 7900 als naam gebruiken. De enige reden waarom je dit wel doet is om te verbloemen dat je product te duur is en meer wilt vangen. Je geeft daarmee eigenlijk ook al cadeau aan de markt dat er geen flinke verbetering gaat komen op korte termijn. Een 7950 serie binnen 6 maanden die even +50% gaat doen geloof ik echt niet in. Daarmee zouden ze ook mensen alleen maar harder mee pakken die wel een 7900 kopen voor die tijd.

Hadden ze dit nou de 7800 serie genoemd en geen euro over de 900 MSRP gegaan, dan was dit product prima gepositioneerd. Nu is het product eigenlijk net zo slecht als een 4080, maar met een duurdere naam. Als Nvidia nu de MSRP zou verlagen met 200 euro is het game over voor de 7900. Gelukkig is dat nog niet het geval want ik gun AMD echt wel wat meer succes dan dit.

Ik was nog niet van plan om iets te kopen, maar na de huidige inzichten ga ik de hele generatie lekker overslaan met een goed gevoel. Slechter dan dit gaat het vast niet worden :)
PS videokaarten zijn te duur aan het worden.

  • Damic
  • Registratie: September 2003
  • Laatst online: 02:37

Damic

Tijd voor Jasmijn thee

raymondw schreef op donderdag 15 december 2022 @ 11:00:
Vanochtend wilde ik een voorbereiding doen voor mijn 7900XTX door alvast de laatste drivers te installeren.
Onder Ubuntu kon ik gewoon de driver pakken en deze draait nu met de huidige 6800XT

Voor Windows mag dat blijkbaar niet en krijg ik een error
Even de details/INF ingedoken en er zijn wel verwijzingen naar oude producten
AMD999A.1 = "AMD Radeon HD 8410G"
AMD999B.1 = "AMD Radeon HD 8310G"
AMD999C.1 = "AMD Radeon HD 8650D"
AMD999D.1 = "AMD Radeon HD 8550D"
AMD99A0.1 = "AMD Radeon HD 7520G"
AMD99A2.1 = "AMD Radeon HD 7420G"
AMD99A4.1 = "AMD Radeon HD 7400G"

Maar niet de 6000 serie
Vreemd...

Vraag is welke revisie er word uitgelezen er zitten meerdere chips op en kan het verschillen tussen review en consumer versie?
Verkeerd forum en dat zijn de HD series niet de RX series.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
sjekneck schreef op donderdag 15 december 2022 @ 14:52:
[...]

Dus AMD heeft een onafgemaakt product gelanceerd om investeerders tevreden te houden? Sorry, maar dit klinkt wel een beetje als desperate bs onderhand. Het product is af en presteert niet naar wens, end of story. Als een respin echt gaat helpen dan kost dat tijd, maar als men overtuigd is dat het gaat helpen, dan doen ze dat eerder dan maar gewoon releasen om te releasen. Als het product kapot is en je gaat er toch 1000 MSRP voor vragen, dan gaat je reputatie een flink dreun krijgen

De load of crap die men nu weer op internet loopt te trollen om het goed te praten is gewoon hilarisch aan het worden. :+

Nu het product zelf want ik was best druk de afgelopen dagen en net een beetje bij met de reviews die er zijn. Ik ben geheel niet verrast met de uitkomst en de prestaties + prestaties per watt. Feit dat Nvidia al eerder vrij gunstig was op performance per watt en dat nu weer is sinds ze bij TSMC is geen nieuws. We wisten al dat Samsung niet gunstig was op dit vlak. AMD zit gelukkig wel in dezelfde regio en heeft dus wel de grootste schade echt ingehaald met RDNA.

Dat AMD moeite heeft met chiplet is zat er dik in. Waarschijnlijk komt dit wel goed over 1 to 2 generaties net als bij Zen, maar je kunt geen wonderen verwachten van het eerste product die radicaal anders is opgebouwd. Dat is de leerfase in praktijk. Met chiplets ga je hoe dan ook nadelen ondervinden met overhead en dat was precies wat ik had verwacht. Hier had ik al voor gewaarschuwd na alle kruiwagens vol beloftes die rond gingen over RDNA3 (beter dan, betere prestaties per watt en goedkoper dan Nvidia).

Ik ben verder heel sceptisch over de keuze van de naam die AMD heeft gebruikt. Als je vooraf al weet dat je geen 9 serie killer hebt en je concureert met een 8 serie op bijna alles, dan ga je niet de 7900 als naam gebruiken. De enige reden waarom je dit wel doet is om te verbloemen dat je product te duur is en meer wilt vangen. Je geeft daarmee eigenlijk ook al cadeau aan de markt dat er geen flinke verbetering gaat komen op korte termijn. Een 7950 serie binnen 6 maanden die even +50% gaat doen geloof ik echt niet in. Daarmee zouden ze ook mensen alleen maar harder mee pakken die wel een 7900 kopen voor die tijd.

Hadden ze dit nou de 7800 serie genoemd en geen euro over de 900 MSRP gegaan, dan was dit product prima gepositioneerd. Nu is het product eigenlijk net zo slecht als een 4080, maar met een duurdere naam. Als Nvidia nu de MSRP zou verlagen met 200 euro is het game over voor de 7900. Gelukkig is dat nog niet het geval want ik gun AMD echt wel wat meer succes dan dit.

Ik was nog niet van plan om iets te kopen, maar na de huidige inzichten ga ik de hele generatie lekker overslaan met een goed gevoel. Slechter dan dit gaat het vast niet worden :)
PS videokaarten zijn te duur aan het worden.
Een overgeklockte 7900xtx kan een 4090 prima bijhouden, en in meerdere games voorbij streven met rasterization. Het is een uitstekende kaart. En zeker voor de prijs die ze vragen in verhouding tot de concurrentie. Is het een 4090 killer op performance gebied? Nope. Heeft de kaart een betere prijs prestatie verhouding hell yeah. Zullen custom kaarten van fabrikanten het vuur aan de schenen van de 4090 leggen? Dat denk ik wel.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 09-10 22:40
Seth_Chaos schreef op donderdag 15 december 2022 @ 17:09:
[...]


Een overgeklockte 7900xtx kan een 4090 prima bijhouden, en in meerdere games voorbij streven met rasterization.
In welke games wint de 7900 dan? Een overclockte 7900XTX gaat niet een verschil van 25 tot 30% overall overbruggen naar een 4090, dat is wel het verschil waar we het over hebben. Er is één uitschieter en dat is COD MW waar de 7900 in de buurt kan komen. Dat is eerder slecht optimalisatie werk van Nvidia dan een win voor AMD.
Het is een uitstekende kaart. En zeker voor de prijs die ze vragen in verhouding tot de concurrentie.
Let agree to disagree op dat vlak dan. Zelfs in verhouding vind ik de verhouding prut en wel hierom:
Ze zijn 3% sneller dan een 4080, maar die heeft dan ook weer meer features en een veel betere prestatie als het gaat om bv raytracing etc.
Als ik dan 1000 of meer ga uitgeven aan een videokaart, dan ga ik geen compromissen sluiten voor dat geld. En dat is nu juist de crux bij de 7900, want daar lever je veel in in om 3% te claimen voor een lagerer prijs zoals coilwhine, verbruik + lawaai etc.

En tuurlijk kun je dat deels oplossen met AIB versie van de 7900, maar die zijn ook weer duurder. Dan is het prijsverschil met de FE van Nvidia ook minder groot, waardoor het nog aannemelijker is om voor Nvidia te gaan. Daarom zei ik een MSRP van 900 max was ok, maar geen cent meer dan dat.
Is het een 4090 killer op performance gebied? Nope. Heeft de kaart een betere prijs prestatie verhouding hell yeah.
En daar maak je gelijk de fout die AMD je wil laten geloven. Je vergelijkt 2 verschillende tiers met elkaar nu. Een 6700xt heeft een veel betere prijs kwaliteit ten opzichte van een 6900xt, maar dan vergelijk je dus appels met peren.
Zullen custom kaarten van fabrikanten het vuur aan de schenen van de 4090 leggen? Dat denk ik wel.
Geen enkele aib gaat een gat dichten van 25-30% met een opgefokte versie. En als je zo gaat vergelijken, dan moet je de 4090 ook gaan clocken. Dan moeten ze namelijk al gauw 35% verschil overbruggen. ;)

Verwijderd

@sjekneck En die 4080 heeft zon slechte naam dat hij voor bijna msrp te krijgen is terwijl de AMD kaarten alleen voor meer verkocht wordt.

Twee keer uit de queue gestapt omdat alleen nog XT en niet XTX verkrijgbaar was en dik 1500 als ik een aib versie wil kopen.

Dan ziet een 4090 voor 2100 euro er opeens ook redelijk uit. Zeker als ik, maar dat is persoonlijk, meeneem dat ik dan geen tweede PC nodig heb om nieuwe cuda versies op te testen voor ik ze voor mijn werk inzet. In sommige games heeft die 4090 zelfs een vergelijkbare prijs prestatie verhouding.

Als ik bij de volgende AMD drop weer mis grijp dan wordt het met gezonde tegenzin een 4090.

  • meljor
  • Registratie: November 2004
  • Laatst online: 10-10 19:19
Twijfel ook. Wilde heel graag de reference ook al is het gat t.o.v. de rx 6900xt niet zo groot als ik had gehoopt.

Na het zien van de AIB versies met 3x 8 pin lijkt me dat een veel betere keus met aardig wat meer headroom..

Echter, ik zie op ldlc een 4080 voor 1350 en de rx 7900xtx AIB versies zijn voorlopig nog flink duurder verwacht ik. Wachten tot het wat kalmeert denk ik en dan een keuze maken tussen beide kaarten voor 1200 max. (Denkt ie hoopvol).

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op dinsdag 13 december 2022 @ 21:02:
[...]


Precies dat. Waarom zou je het aan zetten ziet er amper mooier uit en FPS klapt op bijna alle kaarten onderuit.
Hier wou ik toch nog op antwoorden en nu heb ik ook een uitstekend voorbeeld. :)
Ik splits RT eigenlijk al een hele tijd bewust uit in het volgende: Global Illumination aan de ene kant en shadows, reflections en path tracing aan de andere kant. Om maar even te demonstreren. Hieronder wat je meteen op het scherm ziet is 95%+ GI en de rest is shadows en reflections. In het bijzonder in gebouwen is GI echt indrukwekkend.


Het leuke is dat GI in principe de minst intensieve vorm van RT is. Je bent namelijk niet noodzakelijkerwijs bezig om objecten tot in fijne details in kaart te brengen voor minimale effecten. Je hebt eigenlijk alleen de grote kaders nodig. En dit kan je ook combineren met rasterisation technieken om de impact nog verder te verlagen.

Maar omdat een bepaalde GPU maker werkelijk geen gelegenheid onbenut laat om het over shadows, reflections en path tracing te hebben en met name die eerste twee technieken constant in gesponsorde games aan het pushen is. Hierom ligt de focus ook heel erg daarop. Je moet immers altijd die twee laten zien als je RT demonstreert. Het resultaat wat we vaak krijgen zijn shadows die nauwelijks beter zijn dan je kan doen met rasterisation technieken en uiteraard ook de plassen water die voornamelijk (bijna) perfecte spiegels zijn omdat ze nooit niet afdoende ray intersection tests kunnen uitvoeren om het een beetje neutraal te houden. Oh en natuurlijk path tracing demo's zoals Portal of Quake die voor geen ene meter draaien voor wat je terugkrijgt.

Een ander probleem is dat werkelijk niemand dit consequent test. Als er al RT testen worden gedaan, dan is het alleen maar presets die uit verschillende technieken bestaan. Je hebt er helemaal niks aan. Je hebt eigenlijk ook helemaal niks aan de eindeloze 4K focus van RT testen. Weinig mensen die een 4K scherm hebben en nog veel minder die een GPU hebben waarbij RT aanzetten überhaupt een zinvolle stap zal zijn. 1440p is al anders. Die monitoren beginnen steeds beter betaalbaar te worden en met een beetje videokaart zit je tegenwoordig al snel in de erg hoge framerates. Juist daar kan het interessant zijn om tientallen frames op te geven + FSR2/DLSS2 aan te zetten om die gigantische sprong in belichting te behalen die je uit GI haalt. Want kijk alleen al naar Witcher 3 hierboven. Ze hebben eigenlijk niet zoveel echt grote grafische verbeteringen geïmplementeerd. Maar het verschil is enorm met RT aan. Dat is een zeven jaar oude game.

En dit neem ik AMD hun marketingafdeling ook kwalijk. RDNA2 RT was misschien niet geweldig, maar een N21 GPU op 1440p kon best wel iets. N31 mag verder een forse teleurstelling zijn in rasterisation, maar in RT is die zeker niet slecht. Ze doen er alleen helemaal niks mee. Waarom kunnen ze daar niet eens wat game demonstraties doen waar ze alles behalve GI uitzetten en laten zien hoeveel dat kan schelen in framerate alsmede wat het oplevert? Zo kan je ook eindelijk Nvidia hun verstikkende narratief van shadows, reflections en path tracing een beetje gaan doorbreken. Daar wint AMD het niet van omdat hun RT capaciteiten beperkter zijn. Nvidia is heel erg zwaar op ray intersection testing en die pushen dan ook meer van die testen. Ultieme voorbeeld is wederom path tracing zoals in Quake of Portal. AMD zou zich ertegen moeten wapenen door te wijzen op wat daadwerkelijk je visuele kwaliteit verbeterd. Ze zouden juist baad kunnen hebben van een focus op GI en 1440p.

Het viel mij immers al vrij snel op dat Nvidia hun voordeel met de RTX4090 in RT op 4K, behoorlijk gereduceerd werd met eerst FSR2/DLSS2 aan en vervolgens ook nog eens naar 1440p. Ze gaan van meer dan 70% naar 45% met FSR/DLSS op 4K. Natuurlijk stalt de RTX4090 op een lagere resolutie, maar dat is een Nvidia probleem en niet een AMD probleem.
https://www.computerbase....und_ohne_rt_in_3840__2160

Vervolgens in specifiek Witcher 3 gaat het gat met de RTX4080 van 50% naar 36%.
https://www.computerbase....marks_mit_preset_rt_ultra

Laatste is dat RDNA3 is nog steeds erg goed op 1440p is. Het voordeel lijkt kleiner te zijn geworden in rasterisation omdat er een nieuwe generatie aan processoren zijn die Nvidia hun problemen wat verzachten (buiten RTX4090 om). Maar in RT hebben ze wel eens forse inhaalslag gemaakt. Nu zal zo ongeveer elke gamer met enige budgettaire limiet die een nieuwe monitor wil zich wel hebben afgevraagd: 1440p high refresh of 4K? Als je het toch niet gaat winnen op 4K, speel dan de 1440p kaart waar je wel goed in bent. Nota bene omdat 1440p een stuk betaalbaarder, veelzijdiger en populairder is als optie omdat je high refresh krijgt. Daarbovenop kan je de "acceptabele RT" kaart spelen. Maar nee, ze moesten het over 4K hebben en hun cijfers fors oppoetsen waardoor ze nu dat beetje opgebouwde goodwill hebben weggegooid. :X |:(

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Mooi filmpje. (y) Durf het bijna niet te zeggen maar ik vind RTX ON zeker niet bij elk voorbeeld mooier. Misschien is het ook wel wennen.

M.n. de kleuren vind ik regelmatig wel erg warm/verzadigd maar ook is de belichting dan misschien wel realistischer, het wordt ook vaak wel aardig donker waardoor de hoeveelheid detail die je ziet afneemt. Ik vind "donkere" games vaak vermoeiend spelen.

Heb de Witcher ook weer geinstalleerd, kort rondgelopen. Hopelijk binnenkort wat tijd om een stukje te spelen.

[ Voor 4% gewijzigd door Help!!!! op 15-12-2022 21:18 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op donderdag 15 december 2022 @ 20:49:
[...]
Maar nee, ze moesten het over 4K hebben
Sterker nog, ze hebben het over 8K. :F

Laten we wel wezen, ze willen allemaal de beste zijn (inclusief Intel, die nog steeds doet alsof ze met deze generatie kaarten voor de ultra-enthusiasts hebben afgeleverd). Niemand wil prat gaan op de beste deal voor de mainstream.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 03:21
Help!!!! schreef op donderdag 15 december 2022 @ 21:15:
^
Mooi filmpje. (y) Durf het bijna niet te zeggen maar ik vind RTX ON zeker niet bij elk voorbeeld mooier. Misschien is het ook wel wennen.
Dat idee heb ik ook wel, soms ziet RT off er gewoon hetzelfde of beter uit, in andere shots is RT wel duidelijk beter... Maar of het die hit op de framerate waard is? Wat mij betreft niet.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Lumen in UE5 is wat dat betreft misschien wel de oplossing, want daar lijkt RT wel op een relatief zuinige, maar nuttige manier toegepast te worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op donderdag 15 december 2022 @ 23:06:
[...]


Sterker nog, ze hebben het over 8K. :F

Laten we wel wezen, ze willen allemaal de beste zijn (inclusief Intel, die nog steeds doet alsof ze met deze generatie kaarten voor de ultra-enthusiasts hebben afgeleverd). Niemand wil prat gaan op de beste deal voor de mainstream.
Wat zinloos is omdat iedereen zou moeten weten dat die "ultra enthousiasten" toch gewoon de RTX4090 kopen. Dat marktsegment is door Nvidia uitgevonden en geschapen. Nvidia proberen te verslaan met hun eigen spelletje gaat pas als je GPU's daadwerkelijk een stuk sneller zijn en tenminste gelijkwaardig qua features. :z

Nu speelde AMD de perf/watt en perf/cost kaarten zonder echt te leveren op beiden. Intel leverde überhaupt niks noemenswaardigs. Maar in plaats van realiteit te onderkennen is er bij AMD wederom gekozen voor net niet zo slecht als Nvidia zijn. Ze lijken ondertussen compleet niet in staat te zijn om hun product aan te prijzen. Nu is er voor N31 in haar huidige staat maar een oplossing en dat is een forse prijsverlaging. Dat zullen ze wel niet willen waardoor ze deze compleet inspiratieloze positie hebben ingenomen door hetzelfde proberen te doen wat Nvidia doet, maar niet zo ver gaan en het bij lange na niet zo goed te doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • JoeB2C
  • Registratie: Juni 2011
  • Laatst online: 22:17
Nja gezien de 7900xt gewoon totaal niet verkoopt (is nog in stock op moment van dit typen) zal die in ieder geval snel in prijs moeten gaan dalen. Ik verwacht dat die vanaf januari toch wel zal zakken naar leukere bedragen. de xtx vanaf februari?

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
Heeft iemand dit al gezien?

Afbeeldingslocatie: https://tpucdn.com/review/asus-radeon-rx-7900-xtx-tuf-oc/images/oc-cyberpunk.png

Geen reference design, maar speelt een ASUS overlocked 7900 XTX nou bijna gelijk met een reference RTX 4090?

Dat is toch niet slecht voor 300 mm2 N5 met wat N6 grut versus 600 mm2 N4.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op donderdag 15 december 2022 @ 20:49:
[...]


Hier wou ik toch nog op antwoorden en nu heb ik ook een uitstekend voorbeeld. :)
Ik splits RT eigenlijk al een hele tijd bewust uit in het volgende: Global Illumination aan de ene kant en shadows, reflections en path tracing aan de andere kant. Om maar even te demonstreren. Hieronder wat je meteen op het scherm ziet is 95%+ GI en de rest is shadows en reflections. In het bijzonder in gebouwen is GI echt indrukwekkend.
[YouTube: The Witcher 3 Next-Gen - RTX On vs Off | Graphics/Performance Comparison]
MAar de FPS is vaak maar 1/3 of 1/4e en ik meer dan de helft van de gevallen vind ik het niet eens mooier dan is het to much of veranderd het de sfeer van het spel te veel. Dus ja er zitten wat mooie voorbeelden tussen maar het is de performance hit gewoon echt niet waard. Het eerste beeld als voorbeeld de reflecties zijn al weer te veel maar hoe het licht op de stenen valt is wel mooi. Het kaars licht in de tent was wel een van de weinige scenes waar ik het veel meer sfeer vond geven meestal was het andersom.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op vrijdag 16 december 2022 @ 00:50:
[...]


MAar de FPS is vaak maar 1/3 of 1/4e en ik meer dan de helft van de gevallen vind ik het niet eens mooier dan is het to much of veranderd het de sfeer van het spel te veel. Dus ja er zitten wat mooie voorbeelden tussen maar het is de performance hit gewoon echt niet waard. Het eerste beeld als voorbeeld de reflecties zijn al weer te veel maar hoe het licht op de stenen valt is wel mooi. Het kaars licht in de tent was wel een van de weinige scenes waar ik het veel meer sfeer vond geven meestal was het andersom.
Ik vind het eigenlijk altijd een stuk beter. :)
Wat ik namelijk een beetje heb is dat we zo gewend zijn geraakt aan slechte belichting in games dat we nauwelijks doorhebben hoe slecht het is totdat je iets goeds ziet. En dat goede ziet er dan vreemd uit. Verder zijn dit soort GI implementaties nog vooral handmatig. UE5 games met Lumen zouden nog een heel ander niveau moeten halen. Ik vind het ook typerend dat Epic juist zo inzet op hybride raster + RT GI, eigenlijk het tegenovergestelde van wat Nvidia doet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sikkwittet
  • Registratie: Oktober 2013
  • Laatst online: 09-10 15:26
Dat gehele raytracing heb ik nog niet "live" bekeken...ben ook aan twijfelen of ik nu voor kamp groen ga en voor sp games rt aan smijt. En voor mp games het uit laat.


Of kamp rood kies en gewoon genieten van kaart en niet over rt eigenlijk na denken?

Ik zal deels op 4k oled tv spelen, en deels op oude pc monitor...lekkere 1080p unit die aan vervanging toe is
..maar word dit 4k of de 1440p?

Deels afhankelijk van keuze voor 4090 of 7900xtx...keuzes keuzes

Maar mijn vraag, ik lees veel negatieve dingen over nieuwe amd launch...echter kom dit nergens in reviews tegen. Wat mis ik?

Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23:55
Help!!!! schreef op donderdag 15 december 2022 @ 21:15:
^
Mooi filmpje. (y) Durf het bijna niet te zeggen maar ik vind RTX ON zeker niet bij elk voorbeeld mooier. Misschien is het ook wel wennen.

M.n. de kleuren vind ik regelmatig wel erg warm/verzadigd maar ook is de belichting dan misschien wel realistischer, het wordt ook vaak wel aardig donker waardoor de hoeveelheid detail die je ziet afneemt. Ik vind "donkere" games vaak vermoeiend spelen.

Heb de Witcher ook weer geinstalleerd, kort rondgelopen. Hopelijk binnenkort wat tijd om een stukje te spelen.
Het oogt een beetje als Skyrim vis Oblivion wat kleurtemperatuur betreft in sommige shots. Overigens ben ik het niet met je eens betreffende hoe het donkerder wordt. Zeker bij vele buitenshots zie je toch echt met RT flink meer detail in donkere delen, daar waar de schaduwen zijn, juist omdat er nu indirect licht schijnt.

Anyway, voor mij persoonlijk is RT geen reden om m’n FPS te crashen. Ik ben naar PC gegaan omdat ik de FPS en de resolutie van een PS3 niet uit kon staan, dan zou ik daar nu weer bewust voor kiezen? Ik vind het prachtige techniek voor realistischere belichting maar tegelijkertijd geeft het ook aan hoe goed de alternatieven zijn waardoor we met benadering dus onder de streep een minder accurate, maar fijner speelbare versie hebben.

Ik was overigens van Spiderman RT op de PS5 meer onder de indruk. Maar snap ook dat die game vooral als tech demo gedacht was met als z’n glazen oppervlakten. M’n broertje die vier keer zo veel games speelt als ik, moest ik overigens expliciet op de verschillen wijzen omdat het hem niet eens opviel. Hij kijkt dan weer wat minder digital foundry… enfin, RT Performance was z’n voorkeur, want sub-60 was zelfs voor hem toch niet meer te doen, ondanks 25 jaar exclusief console gamer te zijn.

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
sunsmountain schreef op vrijdag 16 december 2022 @ 00:44:
Heeft iemand dit al gezien?

[Afbeelding]

Geen reference design, maar speelt een ASUS overlocked 7900 XTX nou bijna gelijk met een reference RTX 4090?

Dat is toch niet slecht voor 300 mm2 N5 met wat N6 grut versus 600 mm2 N4.
In Cyberpunk wel ja. Althans de plek waar ze getest hebben want zelfs dit kan soms afwijken in games.

Het gevaarlijk is om algemene uitspraken te doen op basis van een enkele game of resultaaat. Ik kan ook wel een voorbeeldje vinden waar de 3090Ti de 7900 XTX verslaat maar ik ga dit dan natuurlijk niet algemeen stellen dat "een 3090Ti sneller is dan de 7900 XTX".

Afbeeldingslocatie: https://tweakers.net/i/ndcYcXp_5Y494HNLZ6xyzN2oPZg=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/gENfx134ODKH0fsonMuyLpPx.png?f=user_large

Over het algemeen is de 4090 25-35% sneller en dat is niet te overbruggen met een AIB overklok. Je zou beter COD als cherry pick gebruiken want daar verslaat zelfs een stock 7900 XTX een 4090.

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10-10 17:19
sunsmountain schreef op vrijdag 16 december 2022 @ 00:44:
Heeft iemand dit al gezien?

[Afbeelding]

Geen reference design, maar speelt een ASUS overlocked 7900 XTX nou bijna gelijk met een reference RTX 4090?

Dat is toch niet slecht voor 300 mm2 N5 met wat N6 grut versus 600 mm2 N4.
Wat was het verbruik van beide kaarten in deze specifieke test? toch ook geen onbelangrijk gegeven. Als die 7900XTX een zware overklok heeft en boven de 400W gaat, terwijl een stock 4090 volgens mij in Cyberpunk 2077 zonder RT zelfs ruim onder de 400W blijft van wat ik volgens mij zag in eerdere reviews.

Sowieso natuurlijk nogal slecht wanneer je een OC nodig hebt om de concurrentie op stock te benaderen. Nee, indrukwekkend vind ik dit echt niet ga alle geruchten vooraf. Ik zie dit meer als strohalmpjes grijpen om maar iets positiefs te zien....

Acties:
  • +1 Henk 'm!

  • Brontosaurus99
  • Registratie: Oktober 2014
  • Laatst online: 08-10 13:17
Sowieso natuurlijk nogal slecht wanneer je een OC nodig hebt om de concurrentie op stock te benaderen. Nee, indrukwekkend vind ik dit echt niet ga alle geruchten vooraf. Ik zie dit meer als strohalmpjes grijpen om maar iets positiefs te zien....
Een OC om een product in een hogere prijsklasse te benaderen voor dus een veel lagere prijs is inderdaad niet indrukwekkend.
Beetje alsof een i5 overklokken om een stock i9 te benaderen niet indrukwekkend is.

Het is niet indrukwekkend omdat het maar een enkele outlier is, en de meeste dit waarschijnlijk niet gaan halen met een overclock.

Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dennism schreef op vrijdag 16 december 2022 @ 09:39:
[...]


Wat was het verbruik van beide kaarten in deze specifieke test? toch ook geen onbelangrijk gegeven. Als die 7900XTX een zware overklok heeft en boven de 400W gaat, terwijl een stock 4090 volgens mij in Cyberpunk 2077 zonder RT zelfs ruim onder de 400W blijft van wat ik volgens mij zag in eerdere reviews.

Sowieso natuurlijk nogal slecht wanneer je een OC nodig hebt om de concurrentie op stock te benaderen. Nee, indrukwekkend vind ik dit echt niet ga alle geruchten vooraf. Ik zie dit meer als strohalmpjes grijpen om maar iets positiefs te zien....
Die Asus TUF OC tikte 450 watt aan:
I just made an account here because I was really surprised with OC results. It pulls really hard with OC. Did you have to raise power limits for such OC? If so, do you recall how much watts the card needed?
Yes power limits are at maximum (+15). The card pulls around 450 W in that state

March of the Eagles


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10-10 17:19
Brontosaurus99 schreef op vrijdag 16 december 2022 @ 09:59:
[...]

Een OC om een product in een hogere prijsklasse te benaderen voor dus een veel lagere prijs is inderdaad niet indrukwekkend.
Beetje alsof een i5 overklokken om een stock i9 te benaderen niet indrukwekkend is.

Het is niet indrukwekkend omdat het maar een enkele outlier is, en de meeste dit waarschijnlijk niet gaan halen met een overclock.
Ik denk dat die vergelijking wat krom is, een i5 die overklokt kan worden tot i7 zoals vroeger* (en dan vaak niet meer verbruikte dan die i7) is natuurlijk, afhankelijk van de methode wel indrukwekkend.

Hier hebben we het echter over producten uit eenzelfde performance klasse (of die in ieder geval in een zelfde performance klasse op stock zouden moeten zitten), dat AMD dit nu ineens downplayed tot 'ja we concurreren eigenlijk met de 4080 :+ ' omdat er, zoals het lijkt, bij AMD ergens iets misgegaan is doet daar niet imho niets aan af. Vandaar dat ik het dus ook niet indrukwekkend vind, immers kijkende naar de specs moet deze kaart het simpelweg op stock (dus zonder OC) al net zo goed, of beter doen dan de 4090.

* tegenwoordig zie je eigenlijk niet meer dat je van een i5 een i7 (of hoger) kan maken accross the board, vanwege core aantal en nu vaak veel grotere caches. In een aantal workloads kan je nog in de buurt komen, maar in andere zul je nooit in de buurt komen.

[ Voor 9% gewijzigd door Dennism op 16-12-2022 10:18 ]


Acties:
  • 0 Henk 'm!

  • Brontosaurus99
  • Registratie: Oktober 2014
  • Laatst online: 08-10 13:17
Hier hebben we het echter over producten uit eenzelfde performance klasse (of die in ieder geval in een zelfde performance klasse op stock zouden moeten zitten), dat AMD dit nu ineens downplayed tot 'ja we concurreren eigenlijk met de 4080 :+ ' omdat er, zoals het lijkt, bij AMD ergens iets misgegaan is doet daar niet imho niets aan af.
Dat er iets wel of niet fout is gegaan bij AMD is nog altijd niet bevestigd. Los daarvan, goedkoper dan een 4080, prestaties rond een 4080, maar volgens jou zit het dus in klasse 4090, met bijna de dubbele prijs? Beetje rare redenatie hoor.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 09-10 22:40
sunsmountain schreef op vrijdag 16 december 2022 @ 00:44:
Dat is toch niet slecht voor 300 520 mm2 N5 met wat N6 grut versus 600 mm2 N4.
Fixed that for ya. Zonder die MCD's heb je namelijk geen volle GPU ;)

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10-10 17:19
Brontosaurus99 schreef op vrijdag 16 december 2022 @ 10:23:
[/quote]
Hier hebben we het echter over producten uit eenzelfde performance klasse (of die in ieder geval in een zelfde performance klasse op stock zouden moeten zitten), dat AMD dit nu ineens downplayed tot 'ja we concurreren eigenlijk met de 4080 :+ ' omdat er, zoals het lijkt, bij AMD ergens iets misgegaan is doet daar niet imho niets aan af.
[quote]
Dat er iets wel of niet fout is gegaan bij AMD is nog altijd niet bevestigd. Los daarvan, goedkoper dan een 4080, prestaties rond een 4080, maar volgens jou zit het dus in klasse 4090, met bijna de dubbele prijs? Beetje rare redenatie hoor.
Ik kijk er als AMD aandeelhouder denk ik anders naar dan jij.

Wat ik hier zie is een product dat duidelijk, kijkende naar de specs, had moeten concurreren met de 4090, en deze eigenlijk in raster had moeten verslaan. Om een of andere reden is dat niet gelukt, wat jammer is. Maar dit had gewoon een klasse 90 klasse product moeten zijn inderdaad, en niet alleen in naam, zoals nu het geval is.

Dat ze nu amper de 4080 verslaan, heeft uiteraard ook invloed op de prijs. Die zal, vanwege de tegenvallende prestaties, een stuk lager zijn dan ze hadden kunnen vragen waren de prestaties wel op orde. Ik ben dan ook van deze prijs niet onder de indruk, voor dit product (had die al ik er als consument naar kijk, nog lager moeten zijn), kijk ik er als aandeelhouder naar ben ik blij dat er mensen zijn die dit betalen :+ AMD kan simpelweg niet de prijzen vragen die Nvidia kan vragen door een gebrek aan mindshare maar een vanwege het feit dat ze niet alles kunnen bieden qua support dat Nvidia wel kan leveren.

Voor mij is dat simpelweg overpromised (mede ook door gehype in de media dat AMD niet afdoende gemanaged heeft) en (zwaar) underdelivered. Dat er dan ergens een overklok lukt die het wel op het niveau laat presteren dat eigenlijk stock behaald had moeten worden, zodat deze kaarten tegen betere marges verkocht hadden kunnen worden vind ik nog steeds niet indrukwekkend....

Het is gewoon tot nu toe allemaal wederom net niet, terwijl Nvidia de deur wagenwijd openzette voor AMD om een klapper van een generatie neer te zetten. Nu kan dit natuurlijk altijd nog, maar de eerste klap is een daalder waard en die deelt AMD niet uit...

[ Voor 5% gewijzigd door Dennism op 16-12-2022 10:36 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
sjekneck schreef op vrijdag 16 december 2022 @ 10:32:
[...]

Fixed that for ya. Zonder die MCD's heb je namelijk geen volle GPU ;)
What if I told you... die 6 MCD'tjes kosten maar $38? ;)

Ok, met packaging is het $238 Navi31 vs $283 van AD102, 84% van de kosten van Nvidia. En toch (soms) gelijk spelen. Niet slecht.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10-10 17:19
sunsmountain schreef op vrijdag 16 december 2022 @ 10:35:
[...]

What if I told you... die 6 MCD'tjes kosten maar $38? ;)

Ok, met packaging is het $238 Navi31 vs $283 van AD102, 84% van de kosten van Nvidia. En toch (soms) gelijk spelen. Niet slecht.
Maar wat die MCD's kosten is toch niet relevant als je kijkt naar een metric als performance per mm2 die space waar je zelf naar hint?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01:31
Dennism schreef op vrijdag 16 december 2022 @ 10:39:
[...]


Maar wat die MCD's kosten is toch niet relevant als je kijkt naar een metric als performance per mm2 die space waar je zelf naar hint?
mm2 en kosten houden wel verband natuurlijk, maar inderdaad performance per mm2 staat strikt genomen los van kosten. Eigenlijk kunnen we performance per mm2 niet direct vergelijken omdat we niet weten hoeveel ruimte er op "N4" gaat naar de L2 cache voor AD102, maar het lijkt er op alsof AMD toch iets geproduceerd heeft dat potentieel heeft.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 09-10 22:40
sunsmountain schreef op vrijdag 16 december 2022 @ 10:35:
[...]

What if I told you... die 6 MCD'tjes kosten maar $38? ;)

Ok, met packaging is het $238 Navi31 vs $283 van AD102, 84% van de kosten van Nvidia. En toch (soms) gelijk spelen. Niet slecht.
Wat maakt ons de prijs van die MCD's uit op de afmeting van de GPU? Juist, helemaal niks! Je bent nu om de hete brij aan het draaien om een punt te maken die je niet hebt. Ik zou eerder zeggen dat AMD ons naait met een te hoge prijs, want die MCD's kosten dus geen drol en je mag er wel het volle pond voor betalen. Nvidia praktijken, boe!

Zelfde non argument als het gaat om hoe actief een chip is versus een andere. Al ligt de 4090 voor 90% stil, dan is dat in de praktijk nog steeds meer dan genoeg om de 7900XTX volledig te outperformen. Met RT loopt dit op tot 70%, wat je dan ook van RT vindt dat is een enorm verschil. Alleen de prijs van de 4090 is idioot hoog.

We kunnen rustig stellen dat AMD in theorie iets leuks heeft gemaakt, maar het in de praktijk lang niet zo spectaculair is als men al maanden loopt te preachen op het web.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
sunsmountain schreef op vrijdag 16 december 2022 @ 10:35:
[...]

Ok, met packaging is het $238 Navi31 vs $283 van AD102, 84% van de kosten van Nvidia. En toch (soms) gelijk spelen. Niet slecht.
Ik denk dat die conclusie te voorbarig is, TechPowerUp heeft tenslotte maar twee benchmarks uitgevoerd met die Asus TUF OC. De stock XTX is sowieso al sneller dan de RTX 4080 in Cyberpunk, een andere game zou zomaar een ander resultaat kunnen geven.

March of the Eagles


Acties:
  • +2 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op vrijdag 16 december 2022 @ 01:18:
[...]


Ik vind het eigenlijk altijd een stuk beter. :)
Wat ik namelijk een beetje heb is dat we zo gewend zijn geraakt aan slechte belichting in games dat we nauwelijks doorhebben hoe slecht het is totdat je iets goeds ziet. En dat goede ziet er dan vreemd uit. Verder zijn dit soort GI implementaties nog vooral handmatig. UE5 games met Lumen zouden nog een heel ander niveau moeten halen. Ik vind het ook typerend dat Epic juist zo inzet op hybride raster + RT GI, eigenlijk het tegenovergestelde van wat Nvidia doet.
Mwah dat is het niet. Ik kijk genoeg series en films met hele goede CGI dus dan weet je echt wel hoe dingen er uit moeten zien.
Het is gewoon dat het de sfeer van het spel te veel veranderd wat ik er niet bij vind passen. Sommige waren duidelijk beter andere niet.
En nogmaals het is de FPS drop totaal niet waard. Gaat naar een onspeelbare FPS toe.

Wat EPIC tot nu toe heeft laten zien met UE5 vind ik wel indrukwekkend ben benieuwd hoe de prestaties daar van zijn vooral na de nieuwe 5.1 update.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
sjekneck schreef op vrijdag 16 december 2022 @ 10:50:
[...]
We kunnen rustig stellen dat AMD in theorie iets leuks heeft gemaakt, maar het in de praktijk lang niet zo spectaculair is als men al maanden loopt te preachen op het web.
Nee klopt vraag me af of ze dit wisten of dat het ze zelf ook tegen valt. De staat van de drivers en bv power draw bugs laten mij denken dat ze nog niet klaar waren.
En het zou mij niet verbazen als N32 het in verhouding een heel stuk beter doet omdat ze daar wat dingen in de hardware beter gedaan hebben. Tegen die tijd zijn de drivers ook meer op orde en dan kan je denk ik beter zien wat de architectuur kan.

Maar tot die tijd moet je het product beoordelen op wat nu kost en laat zien en dat is niet echt super goed nee. Het is niet verkeerd voor de prijs als je RT niet belangrijk vind is het zelfs goed. Maar overall had ik wel meer verwacht. Nu is het hopen op FineWine voor deze kaart.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cid Highwind schreef op vrijdag 16 december 2022 @ 07:42:
[...]
Het oogt een beetje als Skyrim vis Oblivion wat kleurtemperatuur betreft in sommige shots. Overigens ben ik het niet met je eens betreffende hoe het donkerder wordt. Zeker bij vele buitenshots zie je toch echt met RT flink meer detail in donkere delen, daar waar de schaduwen zijn, juist omdat er nu indirect licht schijnt.
Donkerder speelt voor mij meer in de binnenruimtes dan in de buitenruimtes.

Maar mijn eerste indruk obv dit filmpje is simpelweg dat een meer realistische belichting dmv RT technieken niet perse tot een betere/prettigere game ervaring hoeft te leiden.

In het geval vd Witcher, en dat baseer ik dan ook op de korte tijd die ik zelf in de nieuwe versie heb doorgebracht, vind ik dat in ieder geval opgaan. Mijn eerste indruk was zonder dat ik het filmpje heb gezien dat het een een te overdadige/verzadigde indruk maakte.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift

Pagina: 1 ... 82 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.