Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cid Highwind schreef op maandag 10 april 2023 @ 23:03:
[...]
Een laatste stuiptrekking wellicht? 550€ voor een 6800 non-XT is op het moment ook niet per sé de super deal meer, tenzij het een Sapphire Nitro kaart is. Maar ik gok eerder de Pulse, als ik naar de Duitse prijzen kijk (529, bij MF).

Een maand of twee geleden hadden ze daar overigens ruimschoots XFX en Asrock kaarten maar op het moment niks meer. Behalve dan een goed geprijsd Merc 6800 XT. Voor die 60€ meer zou dat mijn keuze zijn, dat is immers het topmodel van XFX vs de instapper van Sapphire.

Als je het mij vraagt is de spoeling nu dus echt dun en lijkt het er eerder op alsof de prijzen amper verder willen zakken, juist om die reden. Maar ik gun het iedereen dat er nog een batch komt voor een leuke prijs!
Ik weet het dus echt niet.
Aan de ene kant denk ik dat voor deze prijzen er waarschijnlijk nauwelijks nog wat verdiend zal worden op N21. Veel lager verwacht ik ook niet. Maar of dit nu komt omdat ze gewoon nog steeds niet verkopen of omdat nu echt de chips gedumpt moeten worden voor N32 komt, is mij totaal onduidelijk.

Zeker omdat N32 zelf zo ongewis is. Als die namelijk ook tegen een powerwall rond de 2600MHz loopt en de dual issue capaciteit niet gaat verbeteren, dan weet ik niet of die wel zoveel beter gaat presteren dan N21. Ik weet niet eens of die dan de RX6950XT zelfs kan benaderen. In dat scenario is nu een N21 kopen dan waarschijnlijk de betere keuze. Maar doet die wel 3000MHz of zelfs nog meer, dan is het een potentiële winnaar. Want dan ga je de RX7900XT benaderen in FP throughput. Prijs is dan wel een factor, maar onder de €800 lijkt me wel zeker met hoe de RX7900XT nu al aan het zakken is.

Verder heeft RDNA3 op zich best redelijk capabele RT hardware (tenminste in meer realistische RT implementaties met niet al te veel ray casts) van RDNA3 waarvan ik vermoed dat die ook relatief iets beter zal werken met hogere clock speeds omdat dan ook zaken zoals je caches sneller werken. Verder is de VRAM er in ieder geval omdat het vrijwel zeker een 256 bit bus is en dus 16GB. Blijft die dual issue capaciteit de grote wildcard. Want als, als dat een beetje gaat werken, tja ze doen in principe alleen maar een zeer basale zet aan FP instructies, maar dat zijn wel een aantal van je meest belangrijke instructies. Uiteindelijk zijn het wel nog eens 3840 ALUs. En met wat eraan zit te komen qua texture en object polygon count verbeteringen mede door het inscannen van 3D objecten, is dat wel een dingetje. Het gaat er zeker niet om dat ze altijd in gebruik moeten zijn, maar 20% zou al een forse winst zijn.

Maar het is gewoon zo onduidelijk omdat N31 zo vreemd presteert. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 04-06 23:30
Ik heb het idee dat er nog steeds wel wat aan het schuiven is met prijzen. Weliswaar ongeveer een tientje iedere twee weken, maar beweging is beweging. Al weet ik niet hoe het AMD-pakhuis er momenteel bij staat.

Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
@DaniëlWW2 Misschien begrijp ik je verkeerd, maar het lijkt me onwaarschijnlijk dat men er niét op verdient. Uiteraard is het een grote chip aan het einde van z'n levensspanne, dus met waarschijnlijk weinig uitval, maar ze worden nog altijd voor de adviesprijs verkocht.

Het meeste pijn doen wellicht de 6800's en mogelijk 6800XT's, dat zijn toch eigenlijk alles afgekeurde 6900's? Als men daar met de laser doorheen moet om goede chips gedeeltelijk onklaar te maken, is dat natuurlijk zonde.

Persoonlijk denk ik dat men er alles aan doet juist om het prijspeil niet te laten zakken, omdat het anders wel eens een heel grote domper zou kunnen worden wanneer de nieuwe generatie aanklopt en deze nauwelijk beter blijkt te zijn. Het gat tussen de 6800(XT) en de 7900XT is reeds erg klein om een generatie aan verbetering in te prakken die ook daadwerkelijk een gelijke of hogere adviesprijs aan te hangen, zeker nu de 7900XT al flink aan het zakken is. Een 6800XT voor 400€ en 6950XT voor zeg €500, wat in een gezonde markt best reëel zou zijn geweest, zouden de positie van N32 volledig ondermijnen wanneer men die voor 600€/USD op de markt wil zetten.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cid Highwind schreef op dinsdag 11 april 2023 @ 14:14:
@DaniëlWW2 Misschien begrijp ik je verkeerd, maar het lijkt me onwaarschijnlijk dat men er niét op verdient. Uiteraard is het een grote chip aan het einde van z'n levensspanne, dus met waarschijnlijk weinig uitval, maar ze worden nog altijd voor de adviesprijs verkocht.
Dat betwijfel ik een beetje. N21 is een best grote chip en gezien de complete instorting van GPU leveringen vanuit AMD aan AIBs, iets dat Jon Peddy liet zien, denk ik dat N21 productie al uiterlijk afgelopen zomer gestaakt zal zijn. Die chips zijn dan waarschijnlijk nog gemaakt toen N7 duurder was en er meer vraag naar was. Onder de streep word er denk ik nog wel wat verdiend, maar erg ruime marges zijn het denk ik niet meer. Zeker niet omdat we nu ook de inflatieproblematiek erbij hebben gekregen, bovenop de stapel met andere problemen.
Het meeste pijn doen wellicht de 6800's en mogelijk 6800XT's, dat zijn toch eigenlijk alles afgekeurde 6900's? Als men daar met de laser doorheen moet om goede chips gedeeltelijk onklaar te maken, is dat natuurlijk zonde.
Zeker, maar RX6800XT is eigenlijk gewoon vier WGP's uitschakelen. Het lijkt redelijk vrij te zijn welke dat zijn. En het zal ook wel voorkomen dat als eentje kapot is, er nog drie uitgaan en dan is het een RX6800XT. RX6800 is een Shader Engine uitgezet. Het zijn redelijk rationele cuts die waarschijnlijk vrij goed werken om meer chips te verkopen. :)
Persoonlijk denk ik dat men er alles aan doet juist om het prijspeil niet te laten zakken, omdat het anders wel eens een heel grote domper zou kunnen worden wanneer de nieuwe generatie aanklopt en deze nauwelijk beter blijkt te zijn. Het gat tussen de 6800(XT) en de 7900XT is reeds erg klein om een generatie aan verbetering in te prakken die ook daadwerkelijk een gelijke of hogere adviesprijs aan te hangen, zeker nu de 7900XT al flink aan het zakken is. Een 6800XT voor 400€ en 6950XT voor zeg €500, wat in een gezonde markt best reëel zou zijn geweest, zouden de positie van N32 volledig ondermijnen wanneer men die voor 600€/USD op de markt wil zetten.
Ik weet niet wat AMD nu precies aan het doen is.
Dat ze prijzen laten dalen is wel duidelijk. Verder is het ook maar de vraag of AMD het aandurft om de hoofdprijs te vragen voor hun midrange GPU. N32 zou 200mm2 zijn + 4x MCD. Dat ding is gewoon klein.
In ieder geval denk ik niet dat €400-€500 redelijk is voor N21. Wafer kosten zijn zo gigantisch toegenomen de afgelopen jaren. Verder maakte Nvidia enorme winsten, maar bij AMD lijkt de omzet uit hun gaming divisie, toch vooral uit consoles te zijn gekomen en niet uit de videokaarten. Het verklaard in ieder geval waarom AMD niet een dramatische inzakking van hun omzet heeft.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op zaterdag 1 april 2023 @ 10:47:


edit: Wat een verrassing. Nvidia claimt 16fps met een RTX4090 op 4K zonder DLSS3...
Natuurlijk ziet het er goed uit, maar we zijn niet eens in de buurt van GPUs krachtig genoeg om dit te kunnen doen.
[YouTube: Cyberpunk 2077 | Ray Tracing: Overdrive Mode - 4K Technology Preview Reveal]


Jemig, ik weet dat we als tweakers skeptisch (horen te?) zijn, maar er mag wel iets meer stil gestaan worden bij het feit dat dit er prachtig uit ziet. Het gaat van Psycho Ray Tracing mode = "mwah, wel aardige ray tracing gimmick", naar (Path Tracing) Overdrive Ray Tracing mode = "wow, dat is bijna net echt".

Aan een paar mensen laten zien vandaag, ook zij die geen gamer zijn, en die bleven langer staan kijken dan ze normaal zouden doen bij een "spelletje". Nou is dit wel een tech demo, maar toch...

Na de RTX 4000 en RX 7000 GPU skip generatie, zou een mooie RTX 5000 / RX 8000 kaart wel eens beloond kunnen worden met meer Path Tracing spellen. Weer een mooi vooruitzicht :*)

[ Voor 4% gewijzigd door sunsmountain op 11-04-2023 21:11 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Wat ik erg zie is dat 'vlakke' textures veel meer opvallen met ray tracing. En de raytracing variant vond ik ook niet zoveel slechter. In elk geval niet zo erg dat het de RT de moeite waard maakt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 11 april 2023 @ 21:10:
[...]


[YouTube: Cyberpunk 2077 Ray Tracing: Overdrive Technology Preview on RTX 4090]

Jemig, ik weet dat we als tweakers skeptisch (horen te?) zijn, maar er mag wel iets meer stil gestaan worden bij het feit dat dit er prachtig uit ziet. Het gaat van Psycho Ray Tracing mode = "mwah, wel aardige ray tracing gimmick", naar (Path Tracing) Overdrive Ray Tracing mode = "wow, dat is bijna net echt".

Aan een paar mensen laten zien vandaag, ook zij die geen gamer zijn, en die bleven langer staan kijken dan ze normaal zouden doen bij een "spelletje". Nou is dit wel een tech demo, maar toch...

Na de RTX 4000 en RX 7000 GPU skip generatie, zou een mooie RTX 5000 / RX 8000 kaart wel eens beloond kunnen worden met meer Path Tracing spellen. Weer een mooi vooruitzicht :*)
Tja ik heb mijn positie over RT volgens mij wel duidelijk gemaakt, dus dat ga ik niet nogmaals doen.
Verder gaat dit niet over een generatie opeens beter speelbaar zijn voor veel meer mensen. Je hebt nu een RTX4090 + DLSS2 nodig om op 1440p je 60fps te halen. Op 4K heb je ook nog eens DLSS3 nodig om dat te halen. Hierbij plaats ik meteen al de grote vraag. Waarom moet ik enthousiast worden van geavanceerde RT effecten als ik ook de render resolutie moet verlagen en moet vertrouwen op een of twee lagen van reconstructie die juist de details die RT brengt, verminderd worden in scherpte? Wat je namelijk doet is eerst tegen minder pixels testen en vervolgens kan je ook nog frames interpoleren.

Tweede is dat de bron nu alweer Digital Foundry is. Want alweer hebben ze voor de andere media outlets, toegang gekregen tot een exclusieve demonstratie van Nvidia technologie die ze wederom voor die andere media outlets mochten presenteren met een louter positieve presentatie. En ik hoor ze al vrij snel een duidelijk contrast creëren tussen rasterisation based lightning en PT waarbij de oude RT technieken bij Cyberpunk al gedeeltelijk word weggeschoven als mixed en minder. En dat was het zeker ook. Maar dan moeten ze niet bijvoorbeeld Lumen wel in de nieuwe groep gooien als ray tracing based lightning. Lumen is mixed om te kunnen optimaliseren, dat is het hele punt van Lumen.


Onder de streep is dit vooral hoe Nvidia dit niveau aan belichting wil bereiken op een manier die Nvidia bevoordeeld omdat alle stappen van het proces hier voor Nvidia geoptimaliseerd zijn of zelfs exclusief zijn voor niet alleen Nvidia, maar specifiek RTX40. Dat maakt dit tot een techdemo van Nvidia. Iets dat nota bene benadrukt word door zowel CD Project Red als Nvidia.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op dinsdag 11 april 2023 @ 23:23:
[...]


Tja ik heb mijn positie over RT volgens mij wel duidelijk gemaakt, dus dat ga ik niet nogmaals doen.
Verder gaat dit niet over een generatie opeens beter speelbaar zijn voor veel meer mensen. Je hebt nu een RTX4090 + DLSS2 nodig om op 1440p je 60fps te halen. Op 4K heb je ook nog eens DLSS3 nodig om dat te halen. Hierbij plaats ik meteen al de grote vraag. Waarom moet ik enthousiast worden van geavanceerde RT effecten als ik ook de render resolutie moet verlagen en moet vertrouwen op een of twee lagen van reconstructie die juist de details die RT brengt, verminderd worden in scherpte? Wat je namelijk doet is eerst tegen minder pixels testen en vervolgens kan je ook nog frames interpoleren.

Tweede is dat de bron nu alweer Digital Foundry is. Want alweer hebben ze voor de andere media outlets, toegang gekregen tot een exclusieve demonstratie van Nvidia technologie die ze wederom voor die andere media outlets mochten presenteren met een louter positieve presentatie. En ik hoor ze al vrij snel een duidelijk contrast creëren tussen rasterisation based lightning en PT waarbij de oude RT technieken bij Cyberpunk al gedeeltelijk word weggeschoven als mixed en minder. En dat was het zeker ook. Maar dan moeten ze niet bijvoorbeeld Lumen wel in de nieuwe groep gooien als ray tracing based lightning. Lumen is mixed om te kunnen optimaliseren, dat is het hele punt van Lumen.


Onder de streep is dit vooral hoe Nvidia dit niveau aan belichting wil bereiken op een manier die Nvidia bevoordeeld omdat alle stappen van het proces hier voor Nvidia geoptimaliseerd zijn of zelfs exclusief zijn voor niet alleen Nvidia, maar specifiek RTX40. Dat maakt dit tot een techdemo van Nvidia. Iets dat nota bene benadrukt word door zowel CD Project Red als Nvidia.
Het is niet gelijk speelbaar voor iedereen, maar dat was Crysis in het begin ook niet.

Digital Foundry heeft later de nuance aangebracht voor DLSS 3, ik ben met je eens dat frame interpolatie niet helpt, wat je "wint" aan frames, verlies je met input lag. Maar DLSS 2.x en FSR 2.x helpen wel, en Nvidia doet dit gewoon beter, daar ben je het toch wel mee eens?

Ray tracing Lumen of andere truckjes, eens, Nvidia probeert het allemaal op een hoop te gooien. Maar path tracing is path tracing. Misschien moet je het zelf zien om het te kunnen waarderen, ook al is het team groen. Overigens zegt niks dat team rood RDNA4 niet zou kunnen optimaliseren voor path tracing, sterker nog ik denk dat zelfs team blauw dat zal proberen.

Het is een tech demo, maar tech demo's zijn niet per se alleen maar advertenties en slecht. Soms zijn het ook gewoon, weet je wel, technologie demonstraties van, in dit geval, path tracing. Als je nou de marketing truckjes van Nvidia negeert, wat blijft er dan over? Iets moois, met potentieel. Er zullen vast path tracing games komen die niet gesponsord zijn door Nvidia, ben benieuwd wat je er tegen die tijd van vindt.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

sunsmountain schreef op dinsdag 11 april 2023 @ 23:56:
[...]

Het is niet gelijk speelbaar voor iedereen, maar dat was Crysis in het begin ook niet.

Digital Foundry heeft later de nuance aangebracht voor DLSS 3, ik ben met je eens dat frame interpolatie niet helpt, wat je "wint" aan frames, verlies je met input lag. Maar DLSS 2.x en FSR 2.x helpen wel, en Nvidia doet dit gewoon beter, daar ben je het toch wel mee eens?

Ray tracing Lumen of andere truckjes, eens, Nvidia probeert het allemaal op een hoop te gooien. Maar path tracing is path tracing. Misschien moet je het zelf zien om het te kunnen waarderen, ook al is het team groen. Overigens zegt niks dat team rood RDNA4 niet zou kunnen optimaliseren voor path tracing, sterker nog ik denk dat zelfs team blauw dat zal proberen.

Het is een tech demo, maar tech demo's zijn niet per se alleen maar advertenties en slecht. Soms zijn het ook gewoon, weet je wel, technologie demonstraties van, in dit geval, path tracing. Als je nou de marketing truckjes van Nvidia negeert, wat blijft er dan over? Iets moois, met potentieel. Er zullen vast path tracing games komen die niet gesponsord zijn door Nvidia, ben benieuwd wat je er tegen die tijd van vindt.
Ik heb het even bekeken en het ziet er inderdaad erg mooi uit, maar zoals zo vaak met vergelijkingen (met iets dat beter moet zijn), pakken ze imho wel slechte voorbeelden van iets wat voorheen 'goed' was.
Typisch waar marketing gretig gebruik van maakt, om zo het contrast onevenredig groot te maken.

Mijn inziens kan je dus ook net zo goed concluderen hoe beroerd de standaard belichting is in Cyberpunk.
Auto's met vrijwel geen schaduw onder het chassis bijvoorbeeld, een betonblok dat geen schaduw heeft etc.
Tja, als de RT of PT dan opeens wel schaduw toevoegt ziet het er natuurlijk fantastisch uit.
Als de insteek van Cyberpunk was om de belichting aan RT / PT over te laten dan snap ik dat ook wel enigszins, maar ik vind het geen eerlijke vergelijking zo.

Pak dan een game waarbij de rasterisatie belichting wél goed is gedaan (indie game Stray bijvoorbeeld) en kijk dan pas wat voor meerwaarde het heeft.

Gezien een RTX4090 er maar 20 FPS uit weet te persen op 4k (PT kost gewoon 3/4 van de FPS), betekent dat het over 4 jaar nog niet speelbaar zal zijn op 3440x1440 en hoger, zonder upsampling & frame interpolatie foefjes. En dat is dan met een halo product van €2000..
Voordat het de massa bereikt en lekker speelbaar wordt zal het zeker nog 6-8 jaar duren dus.

Vanuit Nvidia's oogpunt snap ik wel dat ze dit doen, dit dwingt je namelijk min of meer om gebruik te maken van hun andere proprietary technieken ala DLSS en FG en geeft daarmee extra meerwaarde aan het product op zich.
Maar of dit nou iets is om naar uit te kijken (hoe mooi het dan er ook uit ziet)?
Persoonlijk vind ik dit niet de weg die bewandeld moet worden, want zo wordt het op een gegeven moment als een standaard beschouwd, terwijl DLSS en FG noodgrepen horen te zijn voor zwakke(re) hardware.

Ik heb dan ook veel liever dat ze RT slim inzetten om details in te vullen i.c.m. lumen global illumination.
Hopelijk zetten AMD en Intel daar volop in.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Zowel bij lagere kwaliteitsniveau's van DLSS 2 als met 3 zie je vaak geflikker op het scherm. Ik heb liever iets minder mooi beeld zonder geflikker, dan hogere kwaliteit met.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
sunsmountain schreef op dinsdag 11 april 2023 @ 23:56:
[...]

Het is niet gelijk speelbaar voor iedereen, maar dat was Crysis in het begin ook niet.

Digital Foundry heeft later de nuance aangebracht voor DLSS 3, ik ben met je eens dat frame interpolatie niet helpt, wat je "wint" aan frames, verlies je met input lag. Maar DLSS 2.x en FSR 2.x helpen wel, en Nvidia doet dit gewoon beter, daar ben je het toch wel mee eens?

Ray tracing Lumen of andere truckjes, eens, Nvidia probeert het allemaal op een hoop te gooien. Maar path tracing is path tracing. Misschien moet je het zelf zien om het te kunnen waarderen, ook al is het team groen. Overigens zegt niks dat team rood RDNA4 niet zou kunnen optimaliseren voor path tracing, sterker nog ik denk dat zelfs team blauw dat zal proberen.

Het is een tech demo, maar tech demo's zijn niet per se alleen maar advertenties en slecht. Soms zijn het ook gewoon, weet je wel, technologie demonstraties van, in dit geval, path tracing. Als je nou de marketing truckjes van Nvidia negeert, wat blijft er dan over? Iets moois, met potentieel. Er zullen vast path tracing games komen die niet gesponsord zijn door Nvidia, ben benieuwd wat je er tegen die tijd van vindt.
Probleem met path tracing is dat het eigenlijk gewoon een brute force aanpak is. Lumen vind ik een veel nettere manier om een vergelijkbaar resultaat te halen. Ze hebben mij in ieder geval nog niet kunnen overtuigen dat dit de beste aanpak is.
Wellicht is dit de beste aanpak in hun engine omdat ze geen andere goede GI hebben. Het is misschien over 5 jaar wel mogelijk om path tracing te gebruiken, nu in ieder geval nog niet.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 11 april 2023 @ 23:56:
[...]

Het is niet gelijk speelbaar voor iedereen, maar dat was Crysis in het begin ook niet.

Digital Foundry heeft later de nuance aangebracht voor DLSS 3, ik ben met je eens dat frame interpolatie niet helpt, wat je "wint" aan frames, verlies je met input lag. Maar DLSS 2.x en FSR 2.x helpen wel, en Nvidia doet dit gewoon beter, daar ben je het toch wel mee eens?

Ray tracing Lumen of andere truckjes, eens, Nvidia probeert het allemaal op een hoop te gooien. Maar path tracing is path tracing. Misschien moet je het zelf zien om het te kunnen waarderen, ook al is het team groen. Overigens zegt niks dat team rood RDNA4 niet zou kunnen optimaliseren voor path tracing, sterker nog ik denk dat zelfs team blauw dat zal proberen.

Het is een tech demo, maar tech demo's zijn niet per se alleen maar advertenties en slecht. Soms zijn het ook gewoon, weet je wel, technologie demonstraties van, in dit geval, path tracing. Als je nou de marketing truckjes van Nvidia negeert, wat blijft er dan over? Iets moois, met potentieel. Er zullen vast path tracing games komen die niet gesponsord zijn door Nvidia, ben benieuwd wat je er tegen die tijd van vindt.
Path tracing is gewoon een vorm van ray tracing. ;)
Het punt is dat je met pathtracing elke lichtbron vervangt door een RT based one. Vervolgens ga je tegen elk object waar licht op kan vallen, van elke lichtbron, een gigantische hoeveelheid checks uitvoeren. Het resultaat is puur RT based Global Illumination. Dat is het doel.

Nvidia doet dit als demo omdat ze zo ontiegelijk ver voor liggen in dit aspect van RT hardware. Ik heb het al eerder eens gezegd, maar als je nu bijvoorbeeld CGI renders maakt, dan maakt een RTX4090 nu werkelijk alle alternatieven helemaal af. Immers heeft die ook 68% meer RT cores dan een RTX4080. En RDNA3 zal niet eens in de buurt komen.

Maar zelfs de RTX4090 kan dit gewoon nog niet aan in games. En daarom stel ik zo scherp dat dit een tech demo is en er gekeken moet worden naar alternatieven die daadwerkelijk bruikbaar zijn. En dat alternatief is er nota bene al tot het punt dat het wel eens makkelijker te implementeren, vergelijkbare of zelfs betere resultaten oplevert alsmede veel minder veeleisend is aan hardware.

Dit gaat mij niet om kamp groen vs. kamp rood, dus daar hoef je ook niet in te betrekken.
Het gaat mij erom dat dit geen realistische methode is en voorlopig ook niet zal worden. Technisch indrukwekkend, maar niet realistisch.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op woensdag 12 april 2023 @ 12:56:
[...]


Path tracing is gewoon een vorm van ray tracing. ;)
Het punt is dat je met pathtracing elke lichtbron vervangt door een RT based one. Vervolgens ga je tegen elk object waar licht op kan vallen, van elke lichtbron, een gigantische hoeveelheid checks uitvoeren. Het resultaat is puur RT based Global Illumination. Dat is het doel.
Niet helemaal: ongeacht het aantal lichtbronnen, traceer je vanuit de kijker bij path tracing voor een deel van de pixels paths (kan met <1%, voor full HD is dat toch al 2M pixels bij 1% -> 20.000 paths). Voor elk path doet het algoritme meerdere teststraaltjes (samples, 10+) op de objecten in de scene, die vervolgens wel/niet tegen een lichtbron aan kaatsen (inclusief de zon/global lightsource). Dat bepaalt uiteindelijk de mate van schaduw/verlichting, gezien vanuit de kijker.

Dit is anders dan de huidige/oude vorm van Ray Tracing, die vanuit alle lichtbronnen in de scene straaltjes trekt naar de objecten toe, om zo de schaduwen/reflecties nauwkeuriger te bepalen, van die objecten. Er is geen oplossing voor global illumination in deze methode. Het schaalt niet goed met het aantal lichtbronnen (lineair). Er wordt nog steeds gebruik gemaakt van "vaste" shadow mapping per object.

Het mooie is dat path tracing al dit "faken" weggooit en de gehele scene in enkele passes van een best nauwkeurige verlichting voorziet.
DaniëlWW2 schreef op woensdag 12 april 2023 @ 12:56:
Nvidia doet dit als demo omdat ze zo ontiegelijk ver voor liggen in dit aspect van RT hardware. Ik heb het al eerder eens gezegd, maar als je nu bijvoorbeeld CGI renders maakt, dan maakt een RTX4090 nu werkelijk alle alternatieven helemaal af. Immers heeft die ook 68% meer RT cores dan een RTX4080. En RDNA3 zal niet eens in de buurt komen.
Ik denk dat Intel en AMD ook hardware hebben toegevoegd:
https://gathering.tweakers.net/forum/view_message/74883896
  • AMD = 1 shader core + 1 Ray Accelerator, per CU
  • Intel = 1 shader core + 1 TSU + 1 RTU, per Xe core
  • Nvidia = 4 shader + 4 tensor core + 1 RT CORE, per SM
Ja, Nvidia heeft veel meer tensor cores, maar qua RT cores zitten ze op 128 met de RTX 4090, vs 96 RT cores voor RX 7900 XTX, vs 32 RT cores voor A770. Waardoor liggen ze dan "ontiegelijk ver voor"? Of heb je het over andere hardware verbeteringen, wederom zit AMD RDNA3 niet stil:

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/mnGj9q3RGDr37rzwTeguXc-970-80.jpg.webp

Het zal vast minder goed zijn dan Nvidia's Lovelace, maar dan nog:

Afbeeldingslocatie: https://aqzrxtxcxr.cloudimg.io/www.hardwaretimes.com/wp-content/uploads/2022/09/image-51.png?w=738
DaniëlWW2 schreef op woensdag 12 april 2023 @ 12:56:
Maar zelfs de RTX4090 kan dit gewoon nog niet aan in games. En daarom stel ik zo scherp dat dit een tech demo is en er gekeken moet worden naar alternatieven die daadwerkelijk bruikbaar zijn. En dat alternatief is er nota bene al tot het punt dat het wel eens makkelijker te implementeren, vergelijkbare of zelfs betere resultaten oplevert alsmede veel minder veeleisend is aan hardware.

Dit gaat mij niet om kamp groen vs. kamp rood, dus daar hoef je ook niet in te betrekken.
Het gaat mij erom dat dit geen realistische methode en voorlopig ook niet zal worden. Technisch indrukwekkend, maar niet realistisch.
Eens dat Lumen in UE5 waarschijnlijk makkelijker en beter bruikbaar is. Maar wat is uiteindelijk mooier en de toekomst? Path tracing geeft GPU hardware een nieuw doel om naar toe te werken.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
sunsmountain schreef op woensdag 12 april 2023 @ 14:06:
Eens dat Lumen in UE5 waarschijnlijk makkelijker en beter bruikbaar is. Maar wat is uiteindelijk mooier en de toekomst? Path tracing geeft GPU hardware een nieuw doel om naar toe te werken.
Er zijn meerdere vergelijkingen van Lumen vs Path Tracing te vinden online. Veel zijn offline renders; maar het laat wel zien dat je met Luman al 90% hebt van het resultaat. Lumen zit sowieso al een grote stap boven de Psycho RT van Cyberpunk imho.

Uiteindelijk is path tracing wellicht de oplossing; maar je moet je ook voorstellen dat als je Lumen gebruikt je die gpu resources ook weer voor andere dingen kan gebruiken. Gezien het vele malen sneller is dan path tracing en al zo dicht bij dat zit qua kwaliteit.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 05-06 20:18
Sp3ci3s8472 schreef op woensdag 12 april 2023 @ 14:43:
[...]


Er zijn meerdere vergelijkingen van Lumen vs Path Tracing te vinden online. Veel zijn offline renders; maar het laat wel zien dat je met Luman al 90% hebt van het resultaat. Lumen zit sowieso al een grote stap boven de Psycho RT van Cyberpunk imho.

Uiteindelijk is path tracing wellicht de oplossing; maar je moet je ook voorstellen dat als je Lumen gebruikt je die gpu resources ook weer voor andere dingen kan gebruiken. Gezien het vele malen sneller is dan path tracing en al zo dicht bij dat zit qua kwaliteit.
Zo snel is Lumen toch niet? 40-60 fps met een 4090 op 4K in Fortnite en Fortnite is relatief simpel met lage kwaliteit van assets.

Cyberpunk is al zwaar zonder RT op native 4K. Moest het mogelijk zijn en je implementeert Lumen in Cyberpunk dan zit je volgens mij niet zo ver af qua prestaties van de huidige Path Tracing.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
napata schreef op woensdag 12 april 2023 @ 18:07:
[...]

Zo snel is Lumen toch niet? 40-60 fps met een 4090 op 4K in Fortnite en Fortnite is relatief simpel met lage kwaliteit van assets.

Cyberpunk is al zwaar zonder RT op native 4K. Moest het mogelijk zijn en je implementeert Lumen in Cyberpunk dan zit je volgens mij niet zo ver af qua prestaties van de huidige Path Tracing.
Ik weet haast zeker dat dat met Nanite aan is waardoor je geen LODs meer hebt. De stijl mag dan niet super fancy zijn, maar erg zijn wel een heleboel meer vertices op je scherm dan in Cyberpunk waarschijnlijk.



Het feit dat dit soepeltjes op consoles draait spreekt ook voor zich.

[ Voor 15% gewijzigd door Sp3ci3s8472 op 12-04-2023 21:56 ]


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 05-06 20:18
Sp3ci3s8472 schreef op woensdag 12 april 2023 @ 21:50:
[...]


Ik weet haast zeker dat dat met Nanite aan is waardoor je geen LODs meer hebt. De stijl mag dan niet super fancy zijn, maar erg zijn wel een heleboel meer vertices op je scherm dan in Cyberpunk waarschijnlijk.

[YouTube: Fortnite's Unreal Engine 5 Upgrade Reviewed - Lumen/Nanite at 60FPS - PS5 vs Xbox Series X/S + PC!]

Het feit dat dit soepeltjes op consoles draait spreekt ook voor zich.
Soepeltjes met een interne minimumresolutie van 860p. Belangrijk detail om te vermelden. Dat wil zeggen dat je toch serieuze drops hebt die je moet compenseren d.m.v. DRS want je zou dan bij 1080p ongeveer rond de 40-50fps uitkomen. Je kan alles wel soepel krijgen met DRS en zeer lage resoluties.

Sowieso is Fortnite niet representatief want het is een heel simplistisch spel. Het heeft dan ook nog eens hele agressieve pop in waar objecten en zeker gras soms 20 meter voor je neus plots verschijnen.

Ik wil wel eens zien hoe een geavanceerder spel draait met Lumen. Ik vermoed dat die Matrix demo een voorproefje is en dat is dan nog een tech demo van de makers van de engine.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
napata schreef op woensdag 12 april 2023 @ 22:43:
[...]

Soepeltjes met een interne minimumresolutie van 860p. Belangrijk detail om te vermelden. Dat wil zeggen dat je toch serieuze drops hebt die je moet compenseren d.m.v. DRS want je zou dan bij 1080p ongeveer rond de 40-50fps uitkomen. Je kan alles wel soepel krijgen met DRS en zeer lage resoluties.
Dat vind ik voor een console soepel ja. Gezien een console ongeveer 1/5 van een 4090 is. Ik zie een console echt geen path tracing doen met DSR naar 860p.
Sowieso is Fortnite niet representatief want het is een heel simplistisch spel. Het heeft dan ook nog eens hele agressieve pop in waar objecten en zeker gras soms 20 meter voor je neus plots verschijnen.
Heb je het filmpje gezien? Ik noem net dat er geen LOD meer is met Nanite, dus er is geen pop in.
Ik wil wel eens zien hoe een geavanceerder spel draait met Lumen. Ik vermoed dat die Matrix demo een voorproefje is en dat is dan nog een tech demo van de makers van de engine.
De Matrix demo was best cpu limited en is nog niet een volledig spel (en mist de polish). Het geeft wel goed aan wat er uiteindelijk mogelijk is.

Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Ik vroeg me al af wanneer de beunhazen van Radeon "marketing" zich weer zouden melden, om een domme vergelijking te maken en mee te liften op het sentiment van anderen (OE, kabeltjeh smeltuh, OE, te weinug VRAM, OE, onze price/perf is beter).

https://community.amd.com...enthusiast-pc/ba-p/599407

Mooi hoe de 6800 XT opeens een MSRP van $579 heeft terwijl dat $649 was.
De 3070 Ti was $599 MSRP geloof ik, niet $639.
Nailed it, oh wait.

Een 6950XT gaan vergelijken met een 3080 qua klasse, dat is eerlijk... not. Dat ding was eerst $999.

Bij de 7900XT hebben ze wel een punt alleen verkoopt dat ding (in de VS) pas bij $799 niet $849, en de 4070 is net gelanceerd voor $599.

En de 7900XTX hebben ze ook een punt, maar daar krijg je ook "gewoon" 16 GB van Nvidia. Die laatste 2 zijn de meest eerlijke vergelijkingen, maar het hele artikel slaat de plank gewoon weer, zoals gebruikelijk, goed mis.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 04-06 23:30
Dat Nvidia bashen vanwege VRAM zat er dik in. Maar die prijs die ze voor de 6800XT claimen ben ik nog nergens tegengekomen, of er is weer een prijsdaling in aankomst die nog even door de toeleveringsketen heen moet werken :+

Acties:
  • 0 Henk 'm!

  • Wolfp4ck
  • Registratie: April 2018
  • Laatst online: 03-06 16:22
rx 6800 xt voor 609€ laagste prijs inmiddels
ben wel onder de indruk van die kaart

Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

@sunsmountain
Gelukkig brengen ze dit alleen op de AMD interne community webpagina uit, waarmee de blamage beperkt blijft.
Ik weet niet of het aan de interne werkcultuur bij AMD ligt, maar waar AMD een groot gebrek aan heeft is bescheidenheid.
Zodra ze een keer slagen met een product of iets goed uitpakt (en/of in AMD's voordeel is), krijgen ze gelijk een beetje last van grootheidswaanzin.
Ik heb mij daar ook kapot aan geërgerd bij de Zen2 launch omdat het valse verwachtingen heeft geschept.

De RX6950XT was als tegenhanger bedoeld voor de RTX3090FE inderdaad, niet de RTX3080FE.
Maar eigenlijk is dat gewoon een RX6900XT met iets beter geheugen, iets betere bin van de GPU chip en standaard hogere powerlimiet (m.a.w. niets speciaals en met het gelijk trekken van de powerlimiet vrijwel even snel).

@field33P
De MSRP prijzen zijn in Amerika zonder btw.
Met de huidige euro-dollar koers en btw kom je hier ongeveer op €640 uit voor een RX6800XT.
En dat is dan enkel voor het referentiemodel.
In de pricewatch staan diverse RX6800XT rond de €600 - €700 geprijsd. En als ik mij niet vergist zijn er aanbiedingen geweest onder de €600. Dus dat klopt wel ongeveer.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op donderdag 13 april 2023 @ 08:46:
@sunsmountain
Ik weet niet of het aan de interne werkcultuur bij AMD ligt, maar waar AMD een groot gebrek aan heeft is bescheidenheid.
Dat heeft Nvidia toch minimaal even erg? Beide zijn Amerikaanse bedrijven en het zit in hun cultuur om onbescheiden te zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Ludewig schreef op donderdag 13 april 2023 @ 09:30:
[...]


Dat heeft Nvidia toch minimaal even erg? Beide zijn Amerikaanse bedrijven en het zit in hun cultuur om onbescheiden te zijn.
Vanuit hun ingenieur achtergrond en Koreaans leiderschap zou je bescheidenheid verwachten, dus het moet haast wel van de Amerikanen komen...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Sp3ci3s8472 schreef op woensdag 12 april 2023 @ 14:43:
[...]


Er zijn meerdere vergelijkingen van Lumen vs Path Tracing te vinden online. Veel zijn offline renders; maar het laat wel zien dat je met Luman al 90% hebt van het resultaat. Lumen zit sowieso al een grote stap boven de Psycho RT van Cyberpunk imho.

Uiteindelijk is path tracing wellicht de oplossing; maar je moet je ook voorstellen dat als je Lumen gebruikt je die gpu resources ook weer voor andere dingen kan gebruiken. Gezien het vele malen sneller is dan path tracing en al zo dicht bij dat zit qua kwaliteit.
Ik heb wat vergelijkingen gezien en de een is niet unaniem beter dan de ander. Lumen is iets beter, als je er van uit gaat dat je ogen zich aanpassen aan minder licht. Path Tracing doet schaduwen beter voor een video, precies wat je vaak in een demo ziet.

Lumen toepassen op Cyberpunk zal dan waarschijnlijk ook een performance penalty met zich mee brengen, maar misschien wat minder dan Path Tracing.

De ontwikkeling zal niet stil zitten qua ray tracing engines, en het beste van meerdere werelden willen combineren.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 05-06 10:51
Sp3ci3s8472 schreef op woensdag 12 april 2023 @ 23:23:
[...]

Dat vind ik voor een console soepel ja. Gezien een console ongeveer 1/5 van een 4090 is. Ik zie een console echt geen path tracing doen met DSR naar 860p.


[...]

Heb je het filmpje gezien? Ik noem net dat er geen LOD meer is met Nanite, dus er is geen pop in.


[...]

De Matrix demo was best cpu limited en is nog niet een volledig spel (en mist de polish). Het geeft wel goed aan wat er uiteindelijk mogelijk is.
Nanite heeft zeker wel LOD's maar deze zijn veel meer gradueel dan normaal. Maar je krijgt zeker wel pop in in twee gevallen:
- als je pc de scene niet snel genoeg van disk streamt.
- als veel dezelfde objecten naast elkaar tegelijk van lod switchen. Dit is goed te zien in de matrix demo waar de facades van de gebouwen tegelijk switchen.
Lumen is zeker een mooie techniek maar ik zie het als een doorontwikkeling van eerdere GI technieken. Dat gaat zover terug als Assassin's Creed 4 en Far cry 3 Al deze technieken hebben beperkingen die dan door artists handmatig opgelost moeten worden in scene's. Lumen is daar geen uitzondering op maar wel een hele grote vooruitgang. Maar heeft leunt voor schaduwen nog op VSM waardoor je performance enorm dropt in heel dynamische scene's.

De reden om naar full path tracing over te gaan is dat dit uiteindelijk veel scheelt in het creëren van content omdat je minder tijd kwijt bent om val alles en nog wat bij te tweaken. Ook op veel andere vlakken dan GI kan ray tracing helpen, zo heb ik in deze presentatie (slide 27 t/m 36) een kwartier lang moeten luisteren naar hoe moeilijk het was om een auto onder water te renderen, iets wat ray tracing goed zou kunnen oplossen. Er is een rede waarom de filmindustrie overgestapt is naar path tracing en zal op den duur ook met de game-industrie geburen, maar dit gaat pas geburen als de console-markt zover is (kan nog twee generaties duren). Dan pas kunnen ontwikkelaars en game-engine gaan bouwen die path-tracing op eerste rang heeft en niet als optie later toevoegd. EA is met hun SEED research programma daar al onderzoek naar aan het doen.

Acties:
  • +3 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
sunsmountain schreef op donderdag 13 april 2023 @ 00:02:
Ik vroeg me al af wanneer de beunhazen van Radeon "marketing" zich weer zouden melden, om een domme vergelijking te maken en mee te liften op het sentiment van anderen (OE, kabeltjeh smeltuh, OE, te weinug VRAM, OE, onze price/perf is beter).

https://community.amd.com...enthusiast-pc/ba-p/599407

Mooi hoe de 6800 XT opeens een MSRP van $579 heeft terwijl dat $649 was.
De 3070 Ti was $599 MSRP geloof ik, niet $639.
Nailed it, oh wait.

Een 6950XT gaan vergelijken met een 3080 qua klasse, dat is eerlijk... not. Dat ding was eerst $999.

Bij de 7900XT hebben ze wel een punt alleen verkoopt dat ding (in de VS) pas bij $799 niet $849, en de 4070 is net gelanceerd voor $599.

En de 7900XTX hebben ze ook een punt, maar daar krijg je ook "gewoon" 16 GB van Nvidia. Die laatste 2 zijn de meest eerlijke vergelijkingen, maar het hele artikel slaat de plank gewoon weer, zoals gebruikelijk, goed mis.
Een beetje spijkers op laag water zoeken? Als je de slides leest staat er duidelijk: "*Prices based on lowest Newegg price as of 04/03/2023"
Van MSRP is dus helemaal geen sprake. Of men hierbij toevallig een gunstige dag heeft gekozen moet ik in het midden laten, ik zou het zeker niet uit willen sluiten. Maar wat men wil zeggen is dus dat zij op dit moment de betere keuze zijn bij de huidige marktprijzen. Daarbij is dus jouw beeld van welke kaart met Nvidia zou moeten concurreren volledig irrelevant. Als je nu dus 700-750 USD beschikbaar hebt voor een GPU, zou je een 3080 of een 6950XT kunnen kopen.

Met het hele gesjoemel van klassen, waarbij een 7800XT als 7900XT wordt verkocht en Nvidia gefaald heeft z'n 4070Ti al 4080 12GB te verkopen, lijkt mij prijsstelling ook een betere richtlijn dan pikorde in het gamma. Anders had men de 7900XT tegenover de 4090 moeten zetten en de 7900XTX tegenover de niet bestaande 4090 Ti.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

Ludewig schreef op donderdag 13 april 2023 @ 09:30:
[...]


Dat heeft Nvidia toch minimaal even erg? Beide zijn Amerikaanse bedrijven en het zit in hun cultuur om onbescheiden te zijn.
Oh dat zeer zeker, met arrogantie ten top daarbovenop. Wat Nvidia alleen niet doet is zich continue met de concurrent te vergelijken. Die geven gewoon de verbetering t.o.v. de vorige generatie weer (komt ook wel omdat ze als 1e iets nieuws uitbrengen).
De marketing van AMD gedraagt zich een beetje als een blaffende keffer.
Consumenten zijn heus wel slim genoeg om naar zaken als performance/watt te kijken via de vele reviews.
En voor degene die dat niet doen, interesseert het hun toch niet.

Intel is ook een Amerikaan bedrijf, maar die stelt zich op GPU vlak professioneler op.
Geven eerlijk toe dat Arc niet naar wens is en wat ze eraan gaan doen om het te verbeteren.
Ze hebben in de tussentijd gestaag aardig aan de drivers getimmerd, zonder dat echt uit de doeken te doen (laten het meer aan de nieuwskanalen over).
Zo'n aanpak kan ik erg waarderen en ik hoop ook echt dat Battlemage voet aan de grond krijgt in het midrange GPU tier.

[ Voor 5% gewijzigd door CMT op 13-04-2023 11:51 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
PjotrX schreef op donderdag 13 april 2023 @ 10:20:
[...]

Nanite heeft zeker wel LOD's maar deze zijn veel meer gradueel dan normaal. Maar je krijgt zeker wel pop in in twee gevallen:
- als je pc de scene niet snel genoeg van disk streamt.
- als veel dezelfde objecten naast elkaar tegelijk van lod switchen. Dit is goed te zien in de matrix demo waar de facades van de gebouwen tegelijk switchen.
Als we het hebben over LOD's in de originele vorm dan is dat vaak of losgemaakte objecten door een artists of automatish gegenereerde statische LOD's. Dat heb je in het geval van Nanite niet meer, dat is dynamisch. Dus ja, je hebt nog wel een LOD en je zal zeker merken dat er dingen nog worden ingeladen als je systeem te traag is, maar je hebt veel minder de overduidelijke LOD popin die we gewend zijn in hedendaagse games.
Wellicht had ik duidelijker kunnen zijn in wat ik bedoelde met LOD's.
Lumen is zeker een mooie techniek maar ik zie het als een doorontwikkeling van eerdere GI technieken. Dat gaat zover terug als Assassin's Creed 4 en Far cry 3 Al deze technieken hebben beperkingen die dan door artists handmatig opgelost moeten worden in scene's. Lumen is daar geen uitzondering op maar wel een hele grote vooruitgang. Maar heeft leunt voor schaduwen nog op VSM waardoor je performance enorm dropt in heel dynamische scene's.
Klopt, Lumen is gelukkig al een stuk beter in dat je minder dingen hoeft aan te passen.
De reden om naar full path tracing over te gaan is dat dit uiteindelijk veel scheelt in het creëren van content omdat je minder tijd kwijt bent om val alles en nog wat bij te tweaken. Ook op veel andere vlakken dan GI kan ray tracing helpen, zo heb ik in deze presentatie (slide 27 t/m 36) een kwartier lang moeten luisteren naar hoe moeilijk het was om een auto onder water te renderen, iets wat ray tracing goed zou kunnen oplossen. Er is een rede waarom de filmindustrie overgestapt is naar path tracing en zal op den duur ook met de game-industrie geburen, maar dit gaat pas geburen als de console-markt zover is (kan nog twee generaties duren). Dan pas kunnen ontwikkelaars en game-engine gaan bouwen die path-tracing op eerste rang heeft en niet als optie later toevoegd. EA is met hun SEED research programma daar al onderzoek naar aan het doen.
Uiteindelijk zal path tracing de toekomst zijn, ik zie het nog niet gebeuren de komende 5 jaar. Pas als we genoeg extra performance hebben vind ik dat een goede oplossing. Nu is het een tech demo in mijn ogen en is voor de komende tijd oplossingen zoals Lumen gewoon beter.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
PjotrX schreef op donderdag 13 april 2023 @ 10:20:


De reden om naar full path tracing over te gaan is dat dit uiteindelijk veel scheelt in het creëren van content omdat je minder tijd kwijt bent om val alles en nog wat bij te tweaken.
Dit argument weegt zwaar bij game ontwikkeling ^^.

Als een RTX 4090 nu al 60 fps kan halen met Path Tracing op 1080p, dat betekent eind 2024 kan een RTX 5070 Ti dat, en eind 2026 een RTX 6060. Al over 3,5 jaar.

Of RTX 7900 XTX -> 8800 XT -> 9600 XT.
En tegen die tijd is het standaard. 4k path tracing native zou zonder upscaling nog wel even duren.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 05-06 20:18
Sp3ci3s8472 schreef op woensdag 12 april 2023 @ 23:23:


Heb je het filmpje gezien? Ik noem net dat er geen LOD meer is met Nanite, dus er is geen pop in.
Ik spreek uit ervaring. Heb jij het filmpje gezien?

Ik kaats je vraag terug want ik druk op een willekeurige plaats in het filmje (15:40) en ik zie enorm agressieve pop in met dingen die 15-20 meter voor de speler verschijnen. Hou die zandplek rechts vanboven maar eens in de gaten terwijl men er naar toe loopt. Die gaat van leeg tot vol met stenen.

Hetzelfde geldt voor de bloemen en gras aan de linkerkant. Enorm opvallend trouwens.

Edit: Hebben we het wel over hetzelfde? Ik spreek over pop in in het algemeen terwijl jij het precies enkel hebt over LOD pop in. Voor mij valt het veel harder op dat er gewoon objecten uit het niets verschijnen terwijl je dichter komt. Dit is in Fortnite heel opvallend en agressief ingesteld om performance te winnen.

[ Voor 22% gewijzigd door napata op 13-04-2023 13:05 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Cid Highwind schreef op donderdag 13 april 2023 @ 11:41:
[...]

Een beetje spijkers op laag water zoeken? Als je de slides leest staat er duidelijk: "*Prices based on lowest Newegg price as of 04/03/2023"
Van MSRP is dus helemaal geen sprake. Of men hierbij toevallig een gunstige dag heeft gekozen moet ik in het midden laten, ik zou het zeker niet uit willen sluiten. Maar wat men wil zeggen is dus dat zij op dit moment de betere keuze zijn bij de huidige marktprijzen. Daarbij is dus jouw beeld van welke kaart met Nvidia zou moeten concurreren volledig irrelevant. Als je nu dus 700-750 USD beschikbaar hebt voor een GPU, zou je een 3080 of een 6950XT kunnen kopen.

Met het hele gesjoemel van klassen, waarbij een 7800XT als 7900XT wordt verkocht en Nvidia gefaald heeft z'n 4070Ti al 4080 12GB te verkopen, lijkt mij prijsstelling ook een betere richtlijn dan pikorde in het gamma. Anders had men de 7900XT tegenover de 4090 moeten zetten en de 7900XTX tegenover de niet bestaande 4090 Ti.
Persoonlijk met je eens, maar qua marketing niet. Als je zo moet doordenken voordat je hun boodschap snapt, zal het de meeste mensen in je doelgroep verwarren. Plus nu lijkt het alsof Radeon jou dom vindt als je een GeForce hebt gekocht.

Om eerlijk te zijn las ik het omdat hij voorbij kwam als suggestie, maar het punt in het algemeen is dat Radeon marketing gewoon niet zo goed is.

[ Voor 3% gewijzigd door sunsmountain op 13-04-2023 13:08 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
@napata

Zie mijn vorige post, zoals ik daar aangeef heb ik het "traditionele" LOD popin. Ik had daar duidelijker in moeten zijn.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op donderdag 13 april 2023 @ 11:47:
[...]
Wat Nvidia alleen niet doet is zich continue met de concurrent te vergelijken. Die geven gewoon de verbetering t.o.v. de vorige generatie weer (komt ook wel omdat ze als 1e iets nieuws uitbrengen).
De marketing van AMD gedraagt zich een beetje als een blaffende keffer.
Nvidia liegt wel structureel over die verbetering, onder meer door FPS toenames die afkomstig zijn van DLSS technieken die allerlei nadelen hebben, gelijk te stellen aan native rendering.

Daarnaast prijs je nu Nvidia en brandt je AMD af, terwijl beide gewoon rationeel gedrag vertonen, dat verschilt omdat ze een andere marktpositie hebben. Het is altijd zo dat het voor marktleiders die voor veel mensen de enige optie zijn, zeer onvoordelig is om het over concurrenten te hebben. Juist door ze te noemen zou Nvidia impliciet het signaal afgeven dat AMD een serieuze optie is, terwijl ze juist willen dat mensen dat niet denken.

AMD heeft die luxe niet en heeft er juist voordeel bij om een vergelijking te maken, zodat meer mensen de vergelijking gaan maken ipv direct voor de marktleider te kiezen. Maar AMD noemt Intel dan weer niet, want dat zou vermoedelijk meer omzet kosten dan opleveren.

Overigens vindt ik de kritiek op de marketing van AMD vaak nogal overtrokken. Er wordt gedaan alsof dit het grote probleem is van AMD, terwijl het echte probleem is dat hun product gewoon niet zo goed is en slechts kan winnen met een lagere prijs per FPS. Ze zijn ook eerder verder gaan achterlopen dan ingelopen met de 7000 serie.

Nvidia heeft ook een stapel marketingblunders gemaakt de laatste tijd, wat mij betreft niet minder dan AMD.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
sunsmountain schreef op donderdag 13 april 2023 @ 13:05:
[...]

Persoonlijk met je eens, maar qua marketing niet. Als je zo moet doordenken voordat je hun boodschap snapt, zal het de meeste mensen in je doelgroep verwarren. Plus nu lijkt het alsof Radeon jou dom vindt als je een GeForce hebt gekocht.

Om eerlijk te zijn las ik het omdat hij voorbij kwam als suggestie, maar het punt in het algemeen is dat Radeon marketing gewoon niet zo goed is.

[YouTube: AMD Thinks You're Dumb for Getting a RTX 4070]
Radeon marketing:
Afbeeldingslocatie: https://i.kym-cdn.com/photos/images/original/001/016/674/802.jpg

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op donderdag 13 april 2023 @ 12:52:
[...]
Als een RTX 4090 nu al 60 fps kan halen met Path Tracing op 1080p, dat betekent eind 2024 kan een RTX 5070 Ti dat, en eind 2026 een RTX 6060. Al over 3,5 jaar.
Dat lijkt me erg optimistisch gezien de stagnatie in deze generatie en omdat we weten dat N3 nog weer een stuk duurder is dan N5.

Het logische gevolg is dat je nog meer gaat zien wat Nvidia nu doet, namelijk dat je voor hetzelfde geld steeds kleinere chips krijgt, waardoor de tiers feitelijk opschuiven.

De 4070 is bijvoorbeeld wat ze in het verleden zouden verkopen als een 4060. Dus waar je eerder x060 prijzen betaalde voor de prestaties van de x080 van de generatie ervoor, betaal je nu x070 prijzen. En dan is de prijs van de 4070 ook nog eens substantieel duurder als van de 3070.

Dus feitelijk heb je dan maar een zeer beperkte verbetering van de prijs/prestatie. Het lijkt me dan heel onwaarschijnlijk dat je met de 6060 dan 4090 prestaties krijgt. Eerder 4080.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
sunsmountain schreef op donderdag 13 april 2023 @ 13:05:
[...]

Persoonlijk met je eens, maar qua marketing niet. Als je zo moet doordenken voordat je hun boodschap snapt, zal het de meeste mensen in je doelgroep verwarren. Plus nu lijkt het alsof Radeon jou dom vindt als je een GeForce hebt gekocht.

Om eerlijk te zijn las ik het omdat hij voorbij kwam als suggestie, maar het punt in het algemeen is dat Radeon marketing gewoon niet zo goed is.

[YouTube: AMD Thinks You're Dumb for Getting a RTX 4070]
Ach, het is marketing. Wat ik persoonlijk ironisch vind is dat het artikel begint met de volgende vraagstelling:
Do you crave the best experiences possible in your games with no expense spared? Are you the type that keeps on top of ‘what is the best GPU’?
Het antwoord daarop luidt eenduidig "4090"

AMD biedt nu eenmaal niet de snelste of meest high-tech kaarten aan, dat is Nvidia met z'n extra features. AMD biedt echter de beste value aan, met de features die je nodig hebt, zonder je zorgen te hoeven maken of je over een jaar of 2 nog de high tech features die de concurrentie biedt überhaupt aan kunt zetten ivm VRAM tekorten. Meer dan genoeg redenen een AMD kaart te overwegen, zelfs als ze niet absoluut de beste zijn, of de beste in het productsegment.

Het artikel is meer een "kijk ons eens goed zijn" artikel, compleet voorbijgaande aan de beleving en de werkelijke keuzemogelijkheden die hun potentiële klanten hebben, dan iets waar ze actief op hun eigen sterktes inspelen. Dat is waar het wat mij betreft, vooral qua toon, de plank misslaat.

Een 600€+ Nvidia GPU kopen met minder dan 16GB aan VRAM, vind ik persoonlijk ook niet de slimste keuze. Hoe een willekeurige no-name Youtubert dat wil interpreteren en welke woorden hij daarvoor gebruikt, heb ik een broertje dood aan overigens.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Cid Highwind schreef op donderdag 13 april 2023 @ 13:28:
[..]
Een 600€+ Nvidia GPU kopen met minder dan 16GB aan VRAM, vind ik persoonlijk ook niet de slimste keuze. Hoe een willekeurige no-name Youtubert dat wil interpreteren en welke woorden hij daarvoor gebruikt, heb ik een broertje dood aan overigens.
Inderdaad. Het is waarschijnlijk dat je binnen 4 jaar al problemen krijgt met 12 GB. Ik vindt dat zo'n dure kaart toch zeker twee generaties moet meegaan. Ook als je elke generatie upgrade zul je de oude kaart willen verkopen of doorschuiven.

Overigens krijgt die YouTuber eigenlijk alleen maar kritiek en geen bijval in de comments, dus waarom zou zijn mening nu zo zwaar wegen? Overigens is dit een grote schreeuwlelijk die vaak nogal extreme clickbait standpunten inneemt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
Ludewig schreef op donderdag 13 april 2023 @ 13:46:
[...]


Inderdaad. Het is waarschijnlijk dat je binnen 4 jaar al problemen krijgt met 12 GB. Ik vindt dat zo'n dure kaart toch zeker twee generaties moet meegaan. Ook als je elke generatie upgrade zul je de oude kaart willen verkopen of doorschuiven.

Overigens krijgt die YouTuber eigenlijk alleen maar kritiek en geen bijval in de comments, dus waarom zou zijn mening nu zo zwaar wegen? Overigens is dit een grote schreeuwlelijk die vaak nogal extreme clickbait standpunten inneemt.
Hij spreekt zichzelf ook tegen. Op de ene slide is hij verontwaardigd dat er geen launch prijzen worden gebruikt maar actuele prijzen, op de volgende slide is hij verontwaardigd dat de huidige marktprijs voor de AMD kaart nog net iets lager is.

Als hij zelf gewoon had gelezen dat het om een specifieke datum ging, had hij zich deze video kunnen sparen, maar dat was waarschijnlijk niet in z'n eigen interesses geweest ;)

Het enige waar hij een punt heeft is "different strokes for different people", waarmee hij z'n voorgaande betoog dan weer vakkundig onderuit schoffelt. Het leuke aan PC gaming is, dat je zelf kunt kiezen tussen max fps of max settings, net wat je wilt. Met een GPU van 600 USD/EUR of meer ben je daar in de regel helemaal vrij in. Tenzij de keuze reeds voor je is gemaakt door een gebrek aan VRAM :+

Afijn, technews at 11.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

Ludewig schreef op donderdag 13 april 2023 @ 13:15:
[...]


Nvidia liegt wel structureel over die verbetering, onder meer door FPS toenames die afkomstig zijn van DLSS technieken die allerlei nadelen hebben, gelijk te stellen aan native rendering.

Daarnaast prijs je nu Nvidia en brandt je AMD af, terwijl beide gewoon rationeel gedrag vertonen, dat verschilt omdat ze een andere marktpositie hebben. Het is altijd zo dat het voor marktleiders die voor veel mensen de enige optie zijn, zeer onvoordelig is om het over concurrenten te hebben. Juist door ze te noemen zou Nvidia impliciet het signaal afgeven dat AMD een serieuze optie is, terwijl ze juist willen dat mensen dat niet denken.

AMD heeft die luxe niet en heeft er juist voordeel bij om een vergelijking te maken, zodat meer mensen de vergelijking gaan maken ipv direct voor de marktleider te kiezen. Maar AMD noemt Intel dan weer niet, want dat zou vermoedelijk meer omzet kosten dan opleveren.

Overigens vindt ik de kritiek op de marketing van AMD vaak nogal overtrokken. Er wordt gedaan alsof dit het grote probleem is van AMD, terwijl het echte probleem is dat hun product gewoon niet zo goed is en slechts kan winnen met een lagere prijs per FPS. Ze zijn ook eerder verder gaan achterlopen dan ingelopen met de 7000 serie.

Nvidia heeft ook een stapel marketingblunders gemaakt de laatste tijd, wat mij betreft niet minder dan AMD.
In welke zin prijs ik Nvidia? Zowel Nvidia als AMD zijn gewoon erg. Ik heb in het verleden ook flinke kritiek op beide geuit. Nvidia laatst met de 'nep FPS' vergelijking inderdaad en procentuele vergelijkingen.
Wat dat betreft stoor ik mij aan de houding en marketing van beide bedrijven.
AMD heeft nog wel mijn voorliefde, maar dat is ook gedeeltelijk door gebrek aan een goed alternatief.
Als nu alle goede punten van beide bedrijven samengevoegd konden worden..

Ik vind het bijvoorbeeld een slechte zaak dat ze met RDNA3 alles dichtgetimmerd hebben, zodat modders niet meer aan de slag kunnen met het tweaken van de bios of instellingen.
Die knullige -10% power limiet aanpassing is veel te weinig om de GPU zuinig af te kunnen stellen.
Bij de CPU's is alles in een bios nog instelbaar, waarom moet dat perse onmogelijk gemaakt worden bij een GPU?

Bij Nvidia is er op zijn beurt weer iedere keer gedoe met de propiertary meuk. Zit ik ook totaal niet op te wachten als consument.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 05-06 10:51
sunsmountain schreef op donderdag 13 april 2023 @ 12:52:
[...]

Dit argument weegt zwaar bij game ontwikkeling ^^.

Als een RTX 4090 nu al 60 fps kan halen met Path Tracing op 1080p, dat betekent eind 2024 kan een RTX 5070 Ti dat, en eind 2026 een RTX 6060. Al over 3,5 jaar.

Of RTX 7900 XTX -> 8800 XT -> 9600 XT.
En tegen die tijd is het standaard. 4k path tracing native zou zonder upscaling nog wel even duren.
De meeste game studio's kijken eerst naar de console voordat ze hun spel bouwen. Als de ray tracing performance op de volgende generatie consoles niet genoeg is dan zou je nog eens 5 jaar moeten wachten. Ik gok dat we de volgende generatie consoles in ieder geval van het screen space reflections en shadow maps af zijn en misschien dat er hybride rendering engines zijn zoals die van EA SEED initiatief, deze gaan dan een stapje verder. Maar ik denk dat we pas twee generaties consoles verder zijn voordat men over begint te gaan naar path tracing voor alles te gebruiken.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Cid Highwind schreef op donderdag 13 april 2023 @ 14:39:
[...]
Het leuke aan PC gaming is, dat je zelf kunt kiezen tussen max fps of max settings, net wat je wilt. Met een GPU van 600 USD/EUR of meer ben je daar in de regel helemaal vrij in.
Ik wil niet vast zitten aan een keuze, al zijn mijn eisen vermoedelijk wel een beetje aan de hoge kant.

Ik wil VR (dus 4K+) op 90 FPS. 1440p met mindere kwaliteit op 100+ FPS voor competitieve shooters. En 1440p op 60+ voor single-player.

Oh ja, en een beperkt wattage.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Cid Highwind schreef op donderdag 13 april 2023 @ 13:28:
[...]

Ach, het is marketing. Wat ik persoonlijk ironisch vind is dat het artikel begint met de volgende vraagstelling:
Do you crave the best experiences possible in your games with no expense spared? Are you the type that keeps on top of ‘what is the best GPU’?
Het antwoord daarop luidt eenduidig "4090"
Weer een mooi voorbeeld van hoe verkeerd de Radeon marketing is. De aanhef gaat al fout.
Cid Highwind schreef op donderdag 13 april 2023 @ 13:28:
Hoe een willekeurige no-name Youtubert dat wil interpreteren en welke woorden hij daarvoor gebruikt, heb ik een broertje dood aan overigens.
https://www.youtube.com/@UFDTech
@UFDTech
641K subscribers
1.9K videos

maar inderdaad who cares hier op het Tweakers forum 8)

[ Voor 38% gewijzigd door sunsmountain op 13-04-2023 19:51 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
Dan hoop ik dat de rest van z'n content van hogere kwaliteit is en dit een eenmalige misser is, ondanks dat de thumbnails anders doen vermoeden :)

Terug naar het nieuws:
https://www.techpowerup.c...-rtx-4070-hits-the-market

Ik was in de veronderstelling dat de RX 6800 eigenlijk al de facto was uitgefaseerd. De 4070 heeft het grote voordeel dat het verbruik, zeker in scenario's waar AMD het inmiddels traditioneel slecht doet, een stuk beter bij de huidige tijdsgeest past. Daar kan ook een geoptimaliseerde 6800 helaas niet aan tippen in multi-monitor scenario's.

Hopelijk heeft het niet slechts betrekking op de reeds bestaande restposten, maar weet AMD daadwerkelijk nog een lading GPU's op de markt te brengen voor die lagere prijs. Nvidia heeft mooie tech in handen met DLSS en z'n (relatief) goede RT prestaties, maar om daar 20% meer voor te betalen terwijl het nog maar de vraag is hoe lang je deze features kan blijven genieten voordat je VRAM roet in het eten gooit, maakt de 6800 zeker niet tot de slechtere keuze.

Tevens zet het druk op de prijzen van de 6700/6750 range, wat dus goed is voor gamers.

Acties:
  • +1 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 04-06 23:30
Ik had eventjes gauw gekeken op PCPartPicker (want die hebben een Pricewatch-achtige prijsgeschiedenis voor Amerikaanse winkels zoals Newegg) maar die kortingen op 6800-kaarten waarover gesproken wordt zijn er al ongeveer een halve maand. Maarja, wil AMD nog de overgebleven voorraad 6800 XT slijten dan zullen ze haast wel een stukje verder omlaag moeten. Als ik naar de goedkoopste 4070 in de Pricewatch kijk en dat vergelijk met de goedkoopste 6800 XT, dan heb je voor een 10% hogere prijs ook gelijk 10% meer prestaties (uitgaande van 4K ultra op de tweakers-index).

Als ze door middel van bijvoorbeeld een cashback voor klant en/of winkelier (snel uit te rollen over de verkoopkanalen) daar een euro of 100 onder kunnen zitten denk ik dat er nog wat te verkopen valt. Rond de €550 is de markt namelijk vrij leeg (oke vooruit, de 3070 met 8GB zit er nog tussen).

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

Cid Highwind schreef op vrijdag 14 april 2023 @ 11:16:
Ik was in de veronderstelling dat de RX 6800 eigenlijk al de facto was uitgefaseerd. De 4070 heeft het grote voordeel dat het verbruik, zeker in scenario's waar AMD het inmiddels traditioneel slecht doet, een stuk beter bij de huidige tijdsgeest past. Daar kan ook een geoptimaliseerde 6800 helaas niet aan tippen in multi-monitor scenario's.
Dat is vooral een software probleem, waardoor de GPU niet in 2D modus komt (geheugen blijft overaktief).
Wat de reviews dus neerzetten is niet echt representatief omdat het ook niet voorkomt (met welk percentage van de situaties het fout gaat blijft gissen helaas).
Ik heb zelf hier een dual display setup met 3440x1440@100Hz (+Freesync aan) en 1920x1080@60Hz (geen Freesync) en daarbij is het rustverbuik van de RX6900XT ca. 8-9W.

Het is jammer dat AMD daar niet eens hard aan werkt op dit op te lossen, want het is een probleem dat al jaren speelt en eigenlijk een verkeerd beeld schept over het verbruik van de hardware.

[ Voor 3% gewijzigd door CMT op 14-04-2023 11:37 ]


Acties:
  • +2 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:58
CMT schreef op vrijdag 14 april 2023 @ 11:35:
[...]


Dat is vooral een software probleem, waardoor de GPU niet in 2D modus komt (geheugen blijft overaktief).
Wat de reviews dus neerzetten is niet echt representatief omdat het ook niet voorkomt (met welk percentage van de situaties het fout gaat blijft gissen helaas).
Ik heb zelf hier een dual display setup met 3440x1440@100Hz (+Freesync aan) en 1920x1080@60Hz (geen Freesync) en daarbij is het rustverbuik van de RX6900XT ca. 8-9W.

Het is jammer dat AMD daar niet eens hard aan werkt op dit op te lossen, want het is een probleem dat al jaren speelt en eigenlijk een verkeerd beeld schept over het verbruik van de hardware.
Volgens mij speelt dit probleem bij AMD al bijna 15 jaar. Als dit slechts software is, dan ziin ze wel heel lui om dit nooit aangepakt te hebben. Aangezien het al zo lang speelt kun je rustig concluderen dat ze er gewoon niet aan werken :z

Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
CMT schreef op vrijdag 14 april 2023 @ 11:35:
[...]


Dat is vooral een software probleem, waardoor de GPU niet in 2D modus komt (geheugen blijft overaktief).
Wat de reviews dus neerzetten is niet echt representatief omdat het ook niet voorkomt (met welk percentage van de situaties het fout gaat blijft gissen helaas).
Ik heb zelf hier een dual display setup met 3440x1440@100Hz (+Freesync aan) en 1920x1080@60Hz (geen Freesync) en daarbij is het rustverbuik van de RX6900XT ca. 8-9W.

Het is jammer dat AMD daar niet eens hard aan werkt op dit op te lossen, want het is een probleem dat al jaren speelt en eigenlijk een verkeerd beeld schept over het verbruik van de hardware.
Ik geloof niet dat het een software probleem is, maar een probleem in de architectuur, waar geen software tegen gewassen is. In ieder geval niet op een betrouwbare wijze.

Ik heb hier eenzelfde setup met m'n 6800, en het idle verbruik blijft op zo'n 30W hangen. Nog altijd beter dan dat wat de 7900 serie weet (wist?) te doen, maar Nvidia heeft hier natuurlijk wel een duidelijk voordeel. Ook bij de media tests van TPU tenminste weet NV duidelijk een beter verbruik te tonen. Neem ik slechts één beeldscherm in gebruik, zakt meteen het verbruik.

Wel frappant dat bij jouw 6900XT dan waarschijnlijk het geheugen wel netjes terugklokt. Heb je hier handmatige tweaks voor toegepast? Ik houd me aanbevolen :)

@sjekneck Het probleem speelt naar mijn weten sinds Polaris. M'n R9 Fury deed het daarin een stuk beter namelijk. Of wellicht was dit een uitzondering vanwege HBM. Naar de 290/390 generatie heb ik nooit gekeken.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

sjekneck schreef op vrijdag 14 april 2023 @ 11:48:
[...]

Volgens mij speelt dit probleem bij AMD al bijna 15 jaar. Als dit slechts software is, dan ziin ze wel heel lui om dit nooit aangepakt te hebben. Aangezien het al zo lang speelt kun je rustig concluderen dat ze er gewoon niet aan werken :z
Ik vermoed dat het deels ook een probleem van Windows/Microsoft is. Het heeft lang geduurd voordat er fatsoenlijke dual monitor ondersteuning was met Win10 (ik heb zelf bijvoorbeeld veel problemen gehad om HDMI audio goed naar de versterker te sturen, zonder dat er een beeld op zwart gaat of om monitoren onafhankelijk aan te sturen met verschillende resoluties).

AMD heeft het sinds enkele maanden het abnormale hoge idle verbruik wel up de buglist gezet.
Maarja wie weet hoeveel prioriteit ze eraan geven.
Ik vermoed dat ze nog steeds volop bezig zijn om bugs met RDNA3 te pletten.
Cid Highwind schreef op vrijdag 14 april 2023 @ 12:09:
[...]

Ik geloof niet dat het een software probleem is, maar een probleem in de architectuur, waar geen software tegen gewassen is. In ieder geval niet op een betrouwbare wijze.

Ik heb hier eenzelfde setup met m'n 6800, en het idle verbruik blijft op zo'n 30W hangen. Nog altijd beter dan dat wat de 7900 serie weet (wist?) te doen, maar Nvidia heeft hier natuurlijk wel een duidelijk voordeel. Ook bij de media tests van TPU tenminste weet NV duidelijk een beter verbruik te tonen. Neem ik slechts één beeldscherm in gebruik, zakt meteen het verbruik.

Wel frappant dat bij jouw 6900XT dan waarschijnlijk het geheugen wel netjes terugklokt. Heb je hier handmatige tweaks voor toegepast? Ik houd me aanbevolen :)

@sjekneck Het probleem speelt naar mijn weten sinds Polaris. M'n R9 Fury deed het daarin een stuk beter namelijk. Of wellicht was dit een uitzondering vanwege HBM. Naar de 290/390 generatie heb ik nooit gekeken.
Het lijkt mij zeer sterk dat dit een architectuur probleem is, aangezien het ook bij Nvidia kaarten kan voorkomen en/of voorgekomen heeft.
Het probleem wordt met name getriggerd bij hoge refreshrate monitoren (>144Hz), waarbij de verversingstijd zo kort is dat het werkgeheugen van de GPU aktief blijft (er zou anders corruptie ontstaan bij het terugklokken van het videogeheugen).

Een middel wat in sommige gevallen dan werkt is om 'Reduced Blanking' te gebruiken.
Met CRU kan je bijvoorbeeld de timings aanpassen naar de CVT-RB standaard.

Toen ik nog op zoek was naar een mooie 3440x1440 ultrawide heb ik ook modellen gehad met >144Hz waarbij het probleem dan ook getriggered werd zodra er een 1080p scherm naast werd gezet.
In alle gevallen heeft de CVT-RB modus het probleem voor mij toen verholpen.

Met de huidige setup heb ik niets hoeven doen (LG 35WN65C en Benq GW2470H monitoren).
Mogelijk dat de voorprogrammering van deze schermen wat beter is ( 'EDID' = stukje software waarmee schermen zich identificeren en configureren, zodat de goede instellingen/timings door Windows gebruikt wordt).

Hier is CRU te vinden, eigenlijk een powertool voor de monitor: https://www.monitortests....om-Resolution-Utility-CRU
Ik kan alleen wel aanraden om bij het experimenteren een 2e monitor achter de hand te houden, omdat bij verkeerde timings het beeld op zwart kan gaan.
Het is tegenwoordig lastig om in een veilige modus te komen (vanuit boot) om de aanpassing dan ongedaan te maken.
Met CRU is trouwens ook het Freesync bereik aan te passen.
De LG 35WN65C heeft als minimum 48Hz, maar mijn scherm doet zonder problemen 40Hz :9.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Naar aanleiding van AMD's introductie van 2 zakelijke kaarten, de W7900 en W7800 komen er nu wat geruchten dat de 7800XT misschien geen N32 is, maar een zware cut van N31 om zo een vergelijkbare config als de W7800 mogelijk te maken met 70 CU's, echter dan met 16GB.

Specs van de nieuwe zakelijke kaarten hier: https://videocardz.com/ne...gb-rdna3-workstation-gpus

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 14 april 2023 @ 14:07:
Naar aanleiding van AMD's introductie van 2 zakelijke kaarten, de W7900 en W7800 komen er nu wat geruchten dat de 7800XT misschien geen N32 is, maar een zware cut van N31 om zo een vergelijkbare config als de W7800 mogelijk te maken met 70 CU's, echter dan met 16GB.

Specs van de nieuwe zakelijke kaarten hier: https://videocardz.com/ne...gb-rdna3-workstation-gpus
Ik wou dit net gaan vragen. Want ik zit te rekenen en ik kom er niet uit.

256 bit bus/64MB L3/32GB kan. Dat wijst op vier actieve MCDs, maar hoe kom je op 70CU?
De eerste stap van 96CU zou een van de zes Shader Engines (16CU) uitzetten. Dan zit je op 80CU en ga je van 192 naar 160 ROPS. Maar W7800 zou 128 ROPS zijn. Dat zou betekenen dat een deel van de ROPS in andere andere Shader Engines ook uit staan. Hoe die configuratie werkt is mij alleen niet helemaal duidelijk.
https://www.techpowerup.com/gpu-specs/radeon-pro-w7800.c4148

Dan voor de RX7800XT. Tja voor mij is het probleem dat N31 al een kleine 300mm2 chip is. Deze derde cut met een Shader Engine uitgeschakeld is logisch, maar dit is ook een product dat nauwelijks te vinden zal zijn omdat je waarschijnlijk maar weinig chips hebt die dusdanig cut down moeten worden. Dit is niet de RX6800 waarbij je tenminste nog een 500mm2+ chip hebt. Het kan natuurlijk dat ze hier de RX7800XT van maken, maar die ga je gewoon niet makkelijk vinden in de winkel. Verder met N32 waarschijnlijk 60CU, zou het ook een beetje een nutteloos product zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op woensdag 12 april 2023 @ 14:06:

Ik denk dat Intel en AMD ook hardware hebben toegevoegd:
https://gathering.tweakers.net/forum/view_message/74883896
  • AMD = 1 shader core + 1 Ray Accelerator, per CU
  • Intel = 1 shader core + 1 TSU + 1 RTU, per Xe core
  • Nvidia = 4 shader + 4 tensor core + 1 RT CORE, per SM
Ja, Nvidia heeft veel meer tensor cores, maar qua RT cores zitten ze op 128 met de RTX 4090, vs 96 RT cores voor RX 7900 XTX, vs 32 RT cores voor A770. Waardoor liggen ze dan "ontiegelijk ver voor"? Of heb je het over andere hardware verbeteringen, wederom zit AMD RDNA3 niet stil:

[Afbeelding]

Het zal vast minder goed zijn dan Nvidia's Lovelace, maar dan nog:

[Afbeelding]
Ik weet wat voor RT hardware ze allemaal hebben. Dit heb ik maanden geleden, eindeloos lang besproken.
Nota bene lijk ik zelfs goed gegokt te hebben wat ze voor RDNA3 RT hebben gedaan zonder leaks. Culling, culling en culling om BvH creatie te versnellen en minder rays te hoeven casten. Doet AMD ook altijd, culling hardware implementeren. :z

Tweede is dat je mijn punt mist. RT is per definitie mixed. Je checkt tegen rasterisation based objects. Daarvoor moet je eerst een BvH opbouwen rond objecten, dan deze objecten checken met rays en omdat een GPU dit absoluut niet gaat trekken in real time, het resultaat opschonen met denoisen. Waar ik op wijs is dat Nvidia een gigantisch voordeel heeft in het ray casting aspect. Daarom zal een RTX4090 werkelijk elke andere GPU afmaken in CGI rendering, uiteraard in het bijzonder het path tracing gedeelte van de render.

Maar zodra je ook BvH en denoising doet, zeker in real time met games, valt een aanzienlijk deel van dat voordeel weg. En ik denk niet dat het probleem in denoising zit. Daar zou Nvidia zeker een voordeel over RDNA2 moeten hebben. RDNA3 is mij niet helemaal duidelijk of AMD al hun eigen matrix units gebruiken voor denoising of dit nog moet komen. Ik denk dat het in BvH generatie + RDNA2/3 haar 4 ray/box per clock vs. 1 ray/triangle clock zit. RDNA2/3 is veel meer geoptimaliseerd om BvH structuren snel af te handelen en minder in ray/triangle tests. Want daarin zou Ada inmiddels 4 per RT core, per clock doen. Dit verschil is er waarschijnlijk mede omdat BvH creatie en verwerking zeer cache intensief is en AMD juist hier hun focus heeft gelegd. Gezien RDNA2/3 hun duidelijk superieure cache hiërarchie, is dit ook niet zo vreemd.

Dit was ook echt geen toeval van AMD.
https://gpuopen.com/radeon-raytracing-analyzer/
Ze willen dat developers inzicht krijgen in wat hun RT implementatie doet en het kunnen optimaliseren, omdat hun implementatie hier de grote winst uit zal halen. Het is direct het tegenovergestelde van Nvidia die zaken aan het brute forcen is omdat Nvidia daar een overduidelijk voordeel heeft.

Zowel AMD als Nvidia spelen gewoon naar hun sterktes. En Intel, tja die lijken ergens in het midden te liggen tussen AMD en Nvidia. Op zich lijkt hun RT hardware concept misschien wel de beste van de drie te zijn. In ieder geval lijkt het vrij compleet te zijn met bijvoorbeeld ook zaken zoals hardwarematige thread sorting, maar er zijn helaas nogal wat dingen die niet erg goed gegaan zijn met Alchemist...

Als ik deze theorie erbij pak, tja AMD zit op lv3, Nvidia ergens tussen 3 en 4 met misschien wel de minste BvH hardware en alleen sorting met een developer implemented software implementatie en Intel zit gewoon op lv.4.
https://blog.imaginationt...-it-will-mean-for-gaming/


Maar voor Cyberpunk RT Overdrive worden Micro Meshes niet gebruikt. Dat weet ik omdat als ze wel gebruikt zouden worden, Nvidia dit wel gezegd had. Cyberpunk gebruikt alleen SER, Shader Executing Reordering om Shader Execution te hersorteren, uiteraard ten voordelen van Nvidia. Daarmee komen we dus alweer terug bij tech demo. Er draait een stukje Nvidia software in de achtergrond om workloads specifiek te optimaliseren voor RTX40 en alsnog draait het voor geen meter zonder twee aparte lagen van reconstructie. Want laten we wel wezen, wie koopt er nu werkelijk een RTX4090 voor 1440p? Je hebt gewoon een 7800X3D nodig om er dan nog een redelijke marge eruit te halen boven een RTX4080 of RX7900XTX. Afijn.

Tweede is dat ik er niet helemaal overtuigd van ben of AMD hun culling technieken altijd even goed werken in de huidige, vaak noodgedwongen ook sterk op Turing/Ampere/Ada hardware gebaseerde RT implementaties. Dit zeg ik omdat het mij opvalt dat de RX6800XT en RX7900XT ongeveer gelijkwaardig presteren als ik rekening hou met de verschillen in hardware. Immers heeft de RX7900XT 84CU x 100 : 72CU = (1)16,66% meer RT units en 2600MHz x 100 : 2300MHz = (1)13% meer clock speed. Wat je dus zou verwachten is een verbetering van rond de 30% puur vanwege meer hardware en clock speed.

Gaan we naar Australian Steve. (best Steve :+)


Op 1440p en 4K zit je op gemiddeld 39% sneller. Maar er verschuiven ook wat resultaten. Bijvoorbeeld:
Cyberpunk gaat van 35% op 1440p naar 43% op 4K. Maar Witcher 3 gaat van 49% naar 41%.
Hogwarts gaat van naar 48% naar 29%.

Nu weet ik dat bij Witcher 3 de implementatie gewoon slecht is. Binnen een paar dagen was er al een mod die enorm inhakte op ray casts per pixel zonder echt groot verlies in visueel effect. Typische Nvidia implementatie die alleen maar goed draait op RTX40. Ik vermoed dat je bij Hogwarts problemen krijgt vanwege details die de game heeft, met name in het prachtig gedetailleerde kasteel. Maar bij Hogwarts heb je eigenlijk al behoorlijk goede baked light inclusief reflections, waardoor de meerwaarde van RT een beetje verloren gaat.

Dan in Ghostwire lijkt het te zwaar te worden qua ray casts op 4K. Die zakt helemaal in. Hitman 3, tja daar werkt het overduidelijk met 57% winst.

Dan heb je nog een hele lijst met games die rond de 30-40% marge zitten op 1440p/4K alsmede redelijk constant zijn tussen die twee resoluties. In sommige gevallen zal FSR2 ook een extra dempend effect hebben waardoor je anders misschien iets meer marge (of juist een nog grotere terugval) op 4K zou zien, maar ik weet niet eens of al die games wel FSR2 hebben.

Er gebeurd dus zeker wel iets, maar echt uniform revolutionair is het ook niet. Het is iets waarbij ik vermoed dat het verschil nog wel kan gaan oplopen als er meer games komen die hier beter gebruik van kunnen maken.
[...]

Eens dat Lumen in UE5 waarschijnlijk makkelijker en beter bruikbaar is. Maar wat is uiteindelijk mooier en de toekomst? Path tracing geeft GPU hardware een nieuw doel om naar toe te werken.
Ik betwist de superioriteit van path tracing helemaal niet.
Het gaat mij erom dat we nu al richting de 5 jaar aan GPUs met RT hardware gaan. Vijf jaar geleden besefte ik me, mede dankzij Werelds zijn reacties destijds, dat we waarschijnlijk iets van vijf jaar en nog twee generaties nodig zouden hebben voordat we iets gingen zien. Nou af en toe hebben wel al iets gezien, maar veel implementaties zijn gewoon nog steeds brak. Ze draaien niet goed en het verschil tussen RT en niet RT light is te groot, ogenschijnlijk omdat er gewoon geen tijd meer was om niet RT based light goed te implementeren. Logisch want wat moet dat inmiddels lang duren met zoveel objecten alsmede de kwaliteit van objecten en textures in games. Een slechte implementatie valt nu gewoon veel meer op dan een paar jaar geleden.

Maar daar is dan Lumen als een relatief breed beschikbare, vendor agnostische, hybride aanpak (zowel software based RT als hardware based RT) die uitgebreid en van wat ik heb gezien in demonstraties, ook relatief gemakkelijk is te optimaliseren is per light source en object waarmee je te maken hebt. Het hele punt van een implementatie zoals dit is dat je in tegenstelling to path tracing, niet alles hardwarematig hoeft te gaan checken als dit niet nodig is. Hiermee kan je juist je hardware RT toespitsen op waar het meerwaarde heeft.

Daarmee kan je dus ook de kwaliteit gaan opvoeren. Wat ik daarbij een interessante zou vinden zijn waterplassen of zelfs grote wateroppervlakten die subtieler zijn dan zich te gedragen als een spiegel met RT. Want dat vind ik zo lelijk en dit lijkt zo ongeveer Nvidia hun favoriete trucje te zijn.


edit:
En toen bleek er al een mod opgedoken te zijn voor Cyberpunk RT overdrive. Deze zet ray bounce van 2 naar 1 alsmede een 20% reductie in de afstand die een ray kan afleggen, met uiteraard prestatieverbeteringen. Prestatieverbeteringen die geheel toevallig groter zijn voor RTX30 dan RTX40 en nog veel groter zijn voor RDNA3. Dat zag ik ook echt niet aankomen. :z

Experimentje. Welke is het origineel en welke is de mod? Niet valsspelen met de frame rate meting rechtsboven. Eentje is namelijk ruim 60% meer fps dan de ander. ;)
Afbeeldingslocatie: https://staticdelivery.nexusmods.com/mods/3333/images/8059/8059-1681325800-471621926.jpeg
Afbeeldingslocatie: https://staticdelivery.nexusmods.com/mods/3333/images/8059/8059-1681325800-1612787197.jpeg
spoiler:
Uiteraard is de bovenste twee bounces. Kijk naar maar de bomen en de vloer die met twee lichtbronnen en een tweede bounce, meer subtiele overgang van kleuren krijgen.


Daarnaast zijn er nog een paar andere varianten zoals eentje die RIS weer enabled. Zorgt uiteraard voor wat onscherpte, maar het is weer extra winst die weer groter is voor RDNA3 dan RTX30 of RTX40.
In total from general testing of users on the original optimizations file:
NVIDIA RTX 40 series users get between 10-20% fps gain,
NVIDIA RTX 30 series users get between 15-30% fps gain, (and around 30-45% fps gain with RIS)
AMD RX 7000 series get between 40-100% fps gain (and around 70-200% fps gain with RIS)

Additional testing on my 7900xtx on the original:
the gains are very dependent on resolution,
4k no fsr gets around 90-110% depending on scene in my case,
4k fsr perf/ultra perf around 40% fps

Additional testing on my 7900xtx with original + RIS:
4k no fsr gets around 160-200% now
4k fsr perf/ultra perf are around 70/80% fps gains
https://www.nexusmods.com/cyberpunk2077/mods/8059?tab=files

[ Voor 20% gewijzigd door DaniëlWW2 op 15-04-2023 19:46 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
Het verschil is wel redelijk duidelijk overigens. Ik ben van mening dat 1 bounce afdoende is voor reflecties; voor GI heb je toch echt wel die 2 bounces nodig.

Wat met mij met de path tracing variant opvalt is dat het lijkt alsof er minder aliasing is omdat de kleuren dichter bij elkaar liggen. Wellicht dat dit tussen mijn oren zit of dat iets anders daarvoor zorgt :P.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 05-06 20:18
DaniëlWW2 schreef op zaterdag 15 april 2023 @ 11:21:
[...]

Experimentje. Welke is het origineel en welke is de mod? Niet valsspelen met de frame rate meting rechtsboven. Eentje is namelijk ruim 60% meer fps dan de ander. ;)
Ik vind het echt wel een gigantisch verschil dankzij de GI. Je ziet het in 1 oogopslag. In de 1 bounce screenshot lijkt het gewoon dat er geen GI is op het eerste zicht.

Ik zag recent wat IMGSLIs tussen 2 rays en 4 rays en daar was er in sommige scenes ook nog veel vooruitgang met 4 rays.

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op maandag 17 april 2023 @ 00:20:
[...]

Ik vind het echt wel een gigantisch verschil dankzij de GI. Je ziet het in 1 oogopslag. In de 1 bounce screenshot lijkt het gewoon dat er geen GI is op het eerste zicht.

Ik zag recent wat IMGSLIs tussen 2 rays en 4 rays en daar was er in sommige scenes ook nog veel vooruitgang met 4 rays.
Wederom, dat betwist ik niet. ;)
Het is alleen weer 60%+ fps verlies omdat elke lichtbron in deze frame, volledig path traced is. Maar veel van deze lichtbronnen hoeven niet tegen elk object gecheckt te worden om een vergelijkbaar effect te behalen.
Ik heb niks tegen path tracing of welke vorm van RT dan ook. Ik maak er wel een punt van om dit extreem schaarse middel los te laten op de hele game in een zeer inefficiëntie manier. Dat tolereren we ook niet voor shaders, dus waarom hier wel? :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op zaterdag 15 april 2023 @ 11:21:
[...]

Ik weet wat voor RT hardware ze allemaal hebben. Dit heb ik maanden geleden, eindeloos lang besproken.
Nota bene lijk ik zelfs goed gegokt te hebben wat ze voor RDNA3 RT hebben gedaan zonder leaks. Culling, culling en culling om BvH creatie te versnellen en minder rays te hoeven casten. Doet AMD ook altijd, culling hardware implementeren. :z

Tweede is dat je mijn punt mist. RT is per definitie mixed. Je checkt tegen rasterisation based objects. Daarvoor moet je eerst een BvH opbouwen rond objecten, dan deze objecten checken met rays en omdat een GPU dit absoluut niet gaat trekken in real time, het resultaat opschonen met denoisen. Waar ik op wijs is dat Nvidia een gigantisch voordeel heeft in het ray casting aspect. Daarom zal een RTX4090 werkelijk elke andere GPU afmaken in CGI rendering, uiteraard in het bijzonder het path tracing gedeelte van de render.

Maar zodra je ook BvH en denoising doet, zeker in real time met games, valt een aanzienlijk deel van dat voordeel weg. En ik denk niet dat het probleem in denoising zit. Daar zou Nvidia zeker een voordeel over RDNA2 moeten hebben. RDNA3 is mij niet helemaal duidelijk of AMD al hun eigen matrix units gebruiken voor denoising of dit nog moet komen. Ik denk dat het in BvH generatie + RDNA2/3 haar 4 ray/box per clock vs. 1 ray/triangle clock zit. RDNA2/3 is veel meer geoptimaliseerd om BvH structuren snel af te handelen en minder in ray/triangle tests. Want daarin zou Ada inmiddels 4 per RT core, per clock doen. Dit verschil is er waarschijnlijk mede omdat BvH creatie en verwerking zeer cache intensief is en AMD juist hier hun focus heeft gelegd. Gezien RDNA2/3 hun duidelijk superieure cache hiërarchie, is dit ook niet zo vreemd.

Dit was ook echt geen toeval van AMD.
https://gpuopen.com/radeon-raytracing-analyzer/
Ze willen dat developers inzicht krijgen in wat hun RT implementatie doet en het kunnen optimaliseren, omdat hun implementatie hier de grote winst uit zal halen. Het is direct het tegenovergestelde van Nvidia die zaken aan het brute forcen is omdat Nvidia daar een overduidelijk voordeel heeft.

Zowel AMD als Nvidia spelen gewoon naar hun sterktes. En Intel, tja die lijken ergens in het midden te liggen tussen AMD en Nvidia. Op zich lijkt hun RT hardware concept misschien wel de beste van de drie te zijn. In ieder geval lijkt het vrij compleet te zijn met bijvoorbeeld ook zaken zoals hardwarematige thread sorting, maar er zijn helaas nogal wat dingen die niet erg goed gegaan zijn met Alchemist...

Als ik deze theorie erbij pak, tja AMD zit op lv3, Nvidia ergens tussen 3 en 4 met misschien wel de minste BvH hardware en alleen sorting met een developer implemented software implementatie en Intel zit gewoon op lv.4.
https://blog.imaginationt...-it-will-mean-for-gaming/


Maar voor Cyberpunk RT Overdrive worden Micro Meshes niet gebruikt. Dat weet ik omdat als ze wel gebruikt zouden worden, Nvidia dit wel gezegd had. Cyberpunk gebruikt alleen SER, Shader Executing Reordering om Shader Execution te hersorteren, uiteraard ten voordelen van Nvidia. Daarmee komen we dus alweer terug bij tech demo. Er draait een stukje Nvidia software in de achtergrond om workloads specifiek te optimaliseren voor RTX40 en alsnog draait het voor geen meter zonder twee aparte lagen van reconstructie. Want laten we wel wezen, wie koopt er nu werkelijk een RTX4090 voor 1440p? Je hebt gewoon een 7800X3D nodig om er dan nog een redelijke marge eruit te halen boven een RTX4080 of RX7900XTX. Afijn.

Tweede is dat ik er niet helemaal overtuigd van ben of AMD hun culling technieken altijd even goed werken in de huidige, vaak noodgedwongen ook sterk op Turing/Ampere/Ada hardware gebaseerde RT implementaties. Dit zeg ik omdat het mij opvalt dat de RX6800XT en RX7900XT ongeveer gelijkwaardig presteren als ik rekening hou met de verschillen in hardware. Immers heeft de RX7900XT 84CU x 100 : 72CU = (1)16,66% meer RT units en 2600MHz x 100 : 2300MHz = (1)13% meer clock speed. Wat je dus zou verwachten is een verbetering van rond de 30% puur vanwege meer hardware en clock speed.

Gaan we naar Australian Steve. (best Steve :+)
[YouTube: Radeon RX 7900 XT vs. Radeon RX 6800 XT, 50+ Game Benchmark @ 1440p & 4K]

Op 1440p en 4K zit je op gemiddeld 39% sneller. Maar er verschuiven ook wat resultaten. Bijvoorbeeld:
Cyberpunk gaat van 35% op 1440p naar 43% op 4K. Maar Witcher 3 gaat van 49% naar 41%.
Hogwarts gaat van naar 48% naar 29%.

Nu weet ik dat bij Witcher 3 de implementatie gewoon slecht is. Binnen een paar dagen was er al een mod die enorm inhakte op ray casts per pixel zonder echt groot verlies in visueel effect. Typische Nvidia implementatie die alleen maar goed draait op RTX40. Ik vermoed dat je bij Hogwarts problemen krijgt vanwege details die de game heeft, met name in het prachtig gedetailleerde kasteel. Maar bij Hogwarts heb je eigenlijk al behoorlijk goede baked light inclusief reflections, waardoor de meerwaarde van RT een beetje verloren gaat.

Dan in Ghostwire lijkt het te zwaar te worden qua ray casts op 4K. Die zakt helemaal in. Hitman 3, tja daar werkt het overduidelijk met 57% winst.

Dan heb je nog een hele lijst met games die rond de 30-40% marge zitten op 1440p/4K alsmede redelijk constant zijn tussen die twee resoluties. In sommige gevallen zal FSR2 ook een extra dempend effect hebben waardoor je anders misschien iets meer marge (of juist een nog grotere terugval) op 4K zou zien, maar ik weet niet eens of al die games wel FSR2 hebben.

Er gebeurd dus zeker wel iets, maar echt uniform revolutionair is het ook niet. Het is iets waarbij ik vermoed dat het verschil nog wel kan gaan oplopen als er meer games komen die hier beter gebruik van kunnen maken.

[...]

Ik betwist de superioriteit van path tracing helemaal niet.
Het gaat mij erom dat we nu al richting de 5 jaar aan GPUs met RT hardware gaan. Vijf jaar geleden besefte ik me, mede dankzij Werelds zijn reacties destijds, dat we waarschijnlijk iets van vijf jaar en nog twee generaties nodig zouden hebben voordat we iets gingen zien. Nou af en toe hebben wel al iets gezien, maar veel implementaties zijn gewoon nog steeds brak. Ze draaien niet goed en het verschil tussen RT en niet RT light is te groot, ogenschijnlijk omdat er gewoon geen tijd meer was om niet RT based light goed te implementeren. Logisch want wat moet dat inmiddels lang duren met zoveel objecten alsmede de kwaliteit van objecten en textures in games. Een slechte implementatie valt nu gewoon veel meer op dan een paar jaar geleden.

Maar daar is dan Lumen als een relatief breed beschikbare, vendor agnostische, hybride aanpak (zowel software based RT als hardware based RT) die uitgebreid en van wat ik heb gezien in demonstraties, ook relatief gemakkelijk is te optimaliseren is per light source en object waarmee je te maken hebt. Het hele punt van een implementatie zoals dit is dat je in tegenstelling to path tracing, niet alles hardwarematig hoeft te gaan checken als dit niet nodig is. Hiermee kan je juist je hardware RT toespitsen op waar het meerwaarde heeft.

Daarmee kan je dus ook de kwaliteit gaan opvoeren. Wat ik daarbij een interessante zou vinden zijn waterplassen of zelfs grote wateroppervlakten die subtieler zijn dan zich te gedragen als een spiegel met RT. Want dat vind ik zo lelijk en dit lijkt zo ongeveer Nvidia hun favoriete trucje te zijn.


edit:
En toen bleek er al een mod opgedoken te zijn voor Cyberpunk RT overdrive. Deze zet ray bounce van 2 naar 1 alsmede een 20% reductie in de afstand die een ray kan afleggen, met uiteraard prestatieverbeteringen. Prestatieverbeteringen die geheel toevallig groter zijn voor RTX30 dan RTX40 en nog veel groter zijn voor RDNA3. Dat zag ik ook echt niet aankomen. :z

Experimentje. Welke is het origineel en welke is de mod? Niet valsspelen met de frame rate meting rechtsboven. Eentje is namelijk ruim 60% meer fps dan de ander. ;)
[Afbeelding]
[Afbeelding]
spoiler:
Uiteraard is de bovenste twee bounces. Kijk naar maar de bomen en de vloer die met twee lichtbronnen en een tweede bounce, meer subtiele overgang van kleuren krijgen.


Daarnaast zijn er nog een paar andere varianten zoals eentje die RIS weer enabled. Zorgt uiteraard voor wat onscherpte, maar het is weer extra winst die weer groter is voor RDNA3 dan RTX30 of RTX40.


[...]


https://www.nexusmods.com/cyberpunk2077/mods/8059?tab=files
Interessant om bij te lezen over Ray Tracing, in de Imagination white papers, dank voor de links. Zij zeggen inderdaad dat Nvidia op level 3,5 zit, en AMD achter loopt:
  • geen tensors om te denoisen,
  • nog geen thread sorting engine om van MIMD divergent rays SIMD friendly (divergent) rays te maken, en
  • shaders zijn inherent niet heel geschikt, omdat BVH van nature vol met branches zit, hetzelfde soort branching dat FP32 INT32 threads met veel dependencies lastig maakt om uit te voeren.
Intel heeft wel een thread sorting engine, maar doet ook nog veel in de shaders, en geen tensors.

Toekomst is een coherency sorting engine, om divergent rays te groeperen (en ze als groep coherent te maken, net zoals tile based rendering pixels groepeert). Level 4. Met een beetje geluk hebben RDNA4, Blackwell en Battlemage dat.

En dan een automatisering van de BVH structuur zelf in de hardware, een soort AI chip die per scene bepaalt wat de slimste/snelste BVH is, en leert van zichzelf. Level 5. Zou wel gaaf zijn als Xilinx AMD hier mee kan helpen, via een soort FPGA op je videokaart die gaat helpen met Ray Tracing? Waarschijnlijk te traag, en wordt het eerder een stukje SoC (gaat transistors kosten). Het lijkt er op alsof RDNA3 daar inderdaad al een beginnetje mee heeft gemaakt, BVH's sneller afhandelen, maar de BVH zelf is nog steeds statisch voor elke scene.

En het levert niet veel op ze te zien voor RDNA3: lastig om RDNA3 met RDNA2 te vergelijken qua ray tracing performance, de getallen liggen dicht bij elkaar in de buurt. Iets van +34% voor 4k, maar de hardware CU & clocks zouden al +26% moeten doen. Niet veel beter dus.

Path Tracing is niet per se superier, het hangt van de hardware af. En dan is Lumen op dit moment een stuk meer geoptimaliseerd, eens.

De onderste is de mod, want dat rood bij de ballustrade onder de bomen is donkerder, minder bounces dus (geen goede GI). Maar ik had er al video's over gezien, wel leuk dat een RTX 3050 ook path tracing "kan", samen met de 6800XT. Niet echt goed, zonder al die extra ray tracing hardware, echter. Wel echt een tech demo nog op dit moment, wederom eens. Maar wel een mooie.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 18 april 2023 @ 00:19:
[...]


Interessant om bij te lezen over Ray Tracing, in de Imagination white papers, dank voor de links. Zij zeggen inderdaad dat Nvidia op level 3,5 zit, en AMD achter loopt:
  • geen tensors om te denoisen,
  • nog geen thread sorting engine om van MIMD divergent rays SIMD friendly (divergent) rays te maken, en
  • shaders zijn inherent niet heel geschikt, omdat BVH van nature vol met branches zit, hetzelfde soort branching dat FP32 INT32 threads met veel dependencies lastig maakt om uit te voeren.
Intel heeft wel een thread sorting engine, maar doet ook nog veel in de shaders, en geen tensors.

Toekomst is een coherency sorting engine, om divergent rays te groeperen (en ze als groep coherent te maken, net zoals tile based rendering pixels groepeert). Level 4. Met een beetje geluk hebben RDNA4, Blackwell en Battlemage dat.
Tja inmiddels heeft AMD wel hun eigen matrix units. Dat voordeel is waarschijnlijk dan ook verdwenen of gaat verdwijnen. Verder betwijfel ik of RDNA3, BvH creatie zo slecht voor elkaar heeft. Immers is het ook een zeer data intensief proces en bij RDNA3 heb je de hele CU tot je beschikking, met al haar caches. Verder zou juist dit iets kunnen zijn waar RDNA3 haar dual issue capaciteit bruikbaar voor kan zijn.

In ieder geval zou ik N32 @3GHz wel eens tegenover de RTX4070Ti willen zien. Immers kan N31 die 3GHz wel aantikken in gaming, met bezopen verbruik. Verder heb je dan 60CU's vs. 60 RT cores op vergelijkbare clock speed. Zie ook:
https://www.techpowerup.c...rx-7900-xtx-nitro/38.html
En dan een automatisering van de BVH structuur zelf in de hardware, een soort AI chip die per scene bepaalt wat de slimste/snelste BVH is, en leert van zichzelf. Level 5. Zou wel gaaf zijn als Xilinx AMD hier mee kan helpen, via een soort FPGA op je videokaart die gaat helpen met Ray Tracing? Waarschijnlijk te traag, en wordt het eerder een stukje SoC (gaat transistors kosten). Het lijkt er op alsof RDNA3 daar inderdaad al een beginnetje mee heeft gemaakt, BVH's sneller afhandelen, maar de BVH zelf is nog steeds statisch voor elke scene.
Dat komt misschien nog wel, maar ik denk dat het pas RDNA5 zal zijn dan.
Maar wat RDNA3 doet is wederom wat AMD eigenlijk altijd doet. Ze zijn altijd bezig met manieren bedenken om berekeningen niet uit te hoeven voeren. Uiteindelijk is dat misschien ook wel een veel betere methode dan manieren bedenken om onnodige berekeningen uit te kunnen voeren.
En het levert niet veel op ze te zien voor RDNA3: lastig om RDNA3 met RDNA2 te vergelijken qua ray tracing performance, de getallen liggen dicht bij elkaar in de buurt. Iets van +34% voor 4k, maar de hardware CU & clocks zouden al +26% moeten doen. Niet veel beter dus.
Daarbij speelt ook dat veel implementaties rondom Turing/Ampere/Ada zijn ontworpen. Bij Fortnight wint de RX7900XT in ieder geval met de overstap van 1440p naar 4K.
Path Tracing is niet per se superier, het hangt van de hardware af. En dan is Lumen op dit moment een stuk meer geoptimaliseerd, eens.

De onderste is de mod, want dat rood bij de ballustrade onder de bomen is donkerder, minder bounces dus (geen goede GI). Maar ik had er al video's over gezien, wel leuk dat een RTX 3050 ook path tracing "kan", samen met de 6800XT. Niet echt goed, zonder al die extra ray tracing hardware, echter. Wel echt een tech demo nog op dit moment, wederom eens. Maar wel een mooie.
Tja ik had bewust ook die afbeelding gepakt. Want je hebt ook deze waar het verschil ook wel duidelijk is:

Psycho RT:
Afbeeldingslocatie: https://staticdelivery.nexusmods.com/mods/3333/images/8059/8059-1681339429-1731641651.png
Mod PT:
Afbeeldingslocatie: https://staticdelivery.nexusmods.com/mods/3333/images/8059/8059-1681339454-556216221.png
Op deze manier is path tracing ook al minder gek. Die tweede bounce maakt het helaas al zo ontiegelijk zwaar.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Holy graphics. :o

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
offtopic:
GoPro beelden uit Bakhmut mag je gewoon in Het Donbass front posten hoor :+

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

DaniëlWW2 schreef op dinsdag 18 april 2023 @ 22:10:


Tja ik had bewust ook die afbeelding gepakt. Want je hebt ook deze waar het verschil ook wel duidelijk is:

Psycho RT:
[Afbeelding]
Mod PT:
[Afbeelding]
Op deze manier is path tracing ook al minder gek. Die tweede bounce maakt het helaas al zo ontiegelijk zwaar.
Help me out, want het lijkt me simpelweg twee keer hetzelfde plaatje.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Jeroenneman schreef op donderdag 20 april 2023 @ 14:02:
[...]

Help me out, want het lijkt me simpelweg twee keer hetzelfde plaatje.
Ja de vergelijking is misschien niet zo goed hier.
Via de link die twee vergelijken maakt het duidelijk. Once bounce PT (de mod) is al duidelijk beter dan RT Psycho. :)
https://www.nexusmods.com/cyberpunk2077/mods/8059?tab=images

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het is wel een early trailer en we weten dat die vaak niet gemaakt worden met de echte game engine, maar apart worden gemaakt en dan zodat het alleen werkt op de allersnelste hardware, en met gigantische bugs die ze accepteren zolang ze er maar een trailer mee gemaakt kan worden.

Dus wel even afwachten of het echte spel er zo uit komt te zien.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
Youtube compressie doet het echt geen eer aan, het lijkt zo fuzzie allemaal. De graphics zien er echt goed uit, ben benieuwd hoe statisch het allemaal is.

Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 15:50
Sp3ci3s8472 schreef op donderdag 20 april 2023 @ 17:23:
[...]


Youtube compressie doet het echt geen eer aan, het lijkt zo fuzzie allemaal. De graphics zien er echt goed uit, ben benieuwd hoe statisch het allemaal is.
Ik vond persoonlijk vooral de framerate erg realistisch ogen. Dat tezamen met het screen shake effect maakte voor een weinig plezante kijkervaring. Indrukwekkend was het wel.

Inconsistent frame pacing? It's not a bug, it's a feature! Wellicht geldt hetzelfde voor de bodycam?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Ah, de shaky camera techniek om realisme toe te voegen. Sommige dingen toch nog net iets te recht, maar inderdaad zeer realistisch. Wat ik me dan afvraag, is het leuk om te spelen? Of speel je dit soort games puur voor de graphics?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Zo te zien staat er ook een hogere kwaliteit trailer op Steam. :)
https://store.steampowered.com/app/2381520/Unrecord/

Maar ik moet zeggen dat ik het nogal opvallend vind dat over dit nu zoveel scepsis is en Nvidia hun path tracing veel makkelijker word geaccepteerd. Want dit kan gewoon daadwerkelijk met UE5 en dat heb ik nu al iets van een jaar door. Het totaaleffect is ook zoveel beter dan Cyberpunk met RT Overdrive. Het is een erg mooie game voor wat je kon bereiken een paar jaar geleden, maar zeker het afgelopen jaar gaat het zo ontiegelijk hard met nieuwe technieken die de games industrie zelf lijkt te ontwikkelen zonder echte grote inspraak van AMD of Nvidia. AMD lijkt daar toch al jaren afwezig in te zijn geweest, maar Nvidia eigenlijk ook. Want hun RT push sluit hier niet bij aan. De games industrie zelf lijkt dubbel zo hard in te zetten op rasterisation technieken. AI accelerated rasterisation technieken met slimme algoritmen om veel optimalisatiewerk zelf te verrichten. En de eerste resultaten zijn al indrukwekkend.


En daar is de tweede UE5 titel. En hier zijn ze er ook duidelijk over. Specificaties die ongeveer neerkomen op een PS5 of XSX als minimaal vereiste voor 1080p.
You might assume that this size and scope and beauty requires some serious processing power. You would be correct. “You can see in other fantasy games where they backed off on some of the detail because it wasn’t practical,” Mark says. “We chose not to be practical. But in order to do all this we had to make the hard decision not to support older video cards and the previous generation of consoles. But there’s a hell of a lot more game to play.”

So what does this mean in practice? We wanted to build a game that can be approachable by current-gen hardware while also still giving PC enthusiasts an experience that harnesses the beauty of Unreal Engine 5.1. As a benchmark, here are our recommendations for running the game at the minimum settings we’re targeting at 1080p/60fps and at its recommended settings at 1440p/60fps. However, we’re going to continue optimizing the game all the way up to launch, so these may change. If they do, we’ll be sure to make that clear.

PC Specs:

MINIMUM: 1080p/60fps, low-medium settings
-9700K/3700X
-16GB RAM
-RTX2080S/RX5700XT
-110GB SSD strongly recommended


RECOMMENDED: 1440p/60fps, medium-high
-5700X
-16GB RAM
-RTX3080Ti/RX6800XT
-110GB SSD strongly recommended
https://www.ea.com/games/...unreal-5?isLocalized=true

YT compressie maakt het hier helemaal lastig om te zien, maar mij is alsnog duidelijk dat die specificaties niet overdreven zullen zijn. Het is immers GTX1080Ti niveau, zes jaar later. Dat zou normaal moeten zijn dat je na zes jaar en drie generaties aan videokaarten, een voormalige topper nu een instapper is voor een meer grafisch intensieve game. Het zou eigenlijk ook eens tijd worden. Het betekend wel dat het een ontiegelijk bloedbad kan gaan worden met al die SKU's van al die GPU's die rond dit niveau zitten. Alles van N10, N22, N23, TU104. TU106, GA106 en door Nvidia ook GA104 want 8GB VRAM.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 05-06 20:18
DaniëlWW2 schreef op vrijdag 21 april 2023 @ 17:43:

En daar is de tweede UE5 titel. En hier zijn ze er ook duidelijk over. Specificaties die ongeveer neerkomen op een PS5 of XSX als minimaal vereiste voor 1080p.

[...]

https://www.ea.com/games/...unreal-5?isLocalized=true

YT compressie maakt het hier helemaal lastig om te zien, maar mij is alsnog duidelijk dat die specificaties niet overdreven zullen zijn. Het is immers GTX1080Ti niveau, zes jaar later. Dat zou normaal moeten zijn dat je na zes jaar en drie generaties aan videokaarten, een voormalige topper nu een instapper is voor een meer grafisch intensieve game. Het zou eigenlijk ook eens tijd worden. Het betekend wel dat het een ontiegelijk bloedbad kan gaan worden met al die SKU's van al die GPU's die rond dit niveau zitten. Alles van N10, N22, N23, TU104. TU106, GA106 en door Nvidia ook GA104 want 8GB VRAM.
[YouTube: Immortals of Aveum – Gameplay First Look Trailer]
Ik kijk naar die trailer en vraag me af waar ze in godsnaam die kracht voor nodig hebben? Het kan aan de artstyle liggen maar Doom Eternal ziet er beter uit en draait op 1080p uitstekend op een 480/1060. Dat je hier minimum een 5700xt voor nodig hebt vind ik absurd. Ik vind het in het algemeen er zelfs gewoon niet goed uitzien.

Ik vind het heel hard lijken op Godfall en dat vond ik in z'n geheel ook een lelijk spel. Sommige assets zien er goed uit terwijl anderen er slecht uitzien. Toevallig ook dat ze nog geen enkele duidelijke gameplay screenshot hebben gepubliceerd.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:36
napata schreef op vrijdag 21 april 2023 @ 18:35:
[...]

Ik kijk naar die trailer en vraag me af waar ze in godsnaam die kracht voor nodig hebben? Het kan aan de artstyle liggen maar Doom Eternal ziet er beter uit en draait op 1080p uitstekend op een 480/1060. Dat je hier minimum een 5700xt voor nodig hebt vind ik absurd. Ik vind het in het algemeen er zelfs gewoon niet goed uitzien.

Ik vind het heel hard lijken op Godfall en dat vond ik in z'n geheel ook een lelijk spel. Sommige assets zien er goed uit terwijl anderen er slecht uitzien. Toevallig ook dat ze nog geen enkele duidelijke gameplay screenshot hebben gepubliceerd.
Er is wel meer mis dan performance. De FOV is erug laag, visueel is het chaotisch en geeft het weinig visuele feedback van de schade die je doet (dat groene rapid fire ding had net zo goed een waterpistool kunnen zijn). Van die blauwe grapling dingen die een erg handige plek hebben, en domme puzzels.
Tenminste dat is mijn indruk als ik het kijk.

Ze zijn overduidelijk geinspireerd door Doom, maar ik vermoed dat je veel minder player agency hebt.

Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 12:44

rapture

Zelfs daar netwerken?

XWB schreef op donderdag 20 april 2023 @ 13:58:
[...]


offtopic:
GoPro beelden uit Bakhmut mag je gewoon in Het Donbass front posten hoor :+
Voor de Bakhmut experience wil ik mijn GTX 1660 naar iets krachtiger upgraden.

Als een indie UE5 game "Glory To The Heroes" iets gaat worden. Een Z-ombie mode in Donetsk Airport, Mariupol en Bakhmut mag niet ontbreken.

Zeker als ze de game eindeloos blijven uitwerken en laten de community nog meer wapen/voertuig combinaties, eenheden,... maken.

Stel je voor dat je eindeloos kan modden zoals in Kerbal Space Program. Wat kan je niet op een MT-LB zetten? Anti-Lancet-drone netten op je SPG monteren.

De gamers kunnen ook wel een nieuwe Battlefield gebruiken. Van het nationalisme in Oost-Europa goed gebruik maken, de Russen vs de rest.

https://store.steampowere...9670/Glory_to_the_Heroes/
MINIMUM:
Requires a 64-bit processor and operating system
OS: Windows 10 64-bit
Processor: Quad-core / Six-core Intel or AMD, 2.5 GHz or faster
Memory: 8 GB RAM
Graphics: DirectX 11 or 12 compatible graphics card. 3 GB of VRAM
DirectX: Version 11
Network: Broadband Internet connection
Storage: 30 GB available space
Additional Notes: System requirements are approximated at the moment and will be adjusted
RECOMMENDED:
Requires a 64-bit processor and operating system
OS: Windows 10/11 64-bit
Processor: Six-core / Eight-core Intel or AMD
Memory: 16 GB RAM
Graphics: DirectX 11 or 12 compatible graphics card. 8 GB VRAM
DirectX: Version 12
Network: Broadband Internet connection
Storage: 30 GB available space
Additional Notes: System requirements are approximated at the moment and will be adjusted

[ Voor 4% gewijzigd door rapture op 21-04-2023 19:23 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op vrijdag 21 april 2023 @ 18:35:
[...]

Ik kijk naar die trailer en vraag me af waar ze in godsnaam die kracht voor nodig hebben? Het kan aan de artstyle liggen maar Doom Eternal ziet er beter uit en draait op 1080p uitstekend op een 480/1060. Dat je hier minimum een 5700xt voor nodig hebt vind ik absurd. Ik vind het in het algemeen er zelfs gewoon niet goed uitzien.

Ik vind het heel hard lijken op Godfall en dat vond ik in z'n geheel ook een lelijk spel. Sommige assets zien er goed uit terwijl anderen er slecht uitzien. Toevallig ook dat ze nog geen enkele duidelijke gameplay screenshot hebben gepubliceerd.
Ik zie het wel in particle effects, details van bijvoorbeeld karakters maar voornamelijk in hoe complex die omgevingen zijn. Vergelijk maar eens met Doom Eternal. Dat is typisch een game die zo enorm veel bespaard door veel vloeren of muren gewoon plat te maken, weinig detail aan te brengen als het niet allemaal plat is, of te werken met een beperkte render distance waarbij subtiel maar zeker de resolutie van objecten en textures afneemt met enige afstand.

Hier zie ik meteen al hoe complex sommige muren of vloeren zijn. Dat is geen platte geometrie meer of een simpel herhaalpatroon van dezelfde simpele objecten in lage resolutie. En dat kost nu eenmaal enorm veel extra rekenkracht. Wat hier gebeurd is dat de aandacht voor het midden van je scherm, nu eindelijk meer doorgetrokken word naar de randen van je scherm. Dar verbeterd je ervaring. Het is denk ik iets dat je zelf moet ervaren en da wil je niet meer terug omdat je het dan gezien hebt. Daarnaast zijn al die particle effects van een compleet ander niveau. Dat komt er nog eens bovenop.


edit: Totaalervaring gaat denk ik wel wat zijn, hoewel de game me niet echt trekt. Ik krijg er een beetje RDR2 gevoelens bij. Dat is denk ik nog steeds de technisch meest indrukwekkende game die ik ooit wel heb gespeeld. Maar ook die game heeft behoorlijk wat beperkingen die waarschijnlijk weg gaan te vallen met wat er de afgelopen twee jaar aan de hand is met nieuwe rasterisation tools. :)

[ Voor 14% gewijzigd door DaniëlWW2 op 22-04-2023 09:41 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op donderdag 20 april 2023 @ 14:35:
[...]


Ja de vergelijking is misschien niet zo goed hier.
Via de link die twee vergelijken maakt het duidelijk. Once bounce PT (de mod) is al duidelijk beter dan RT Psycho. :)
https://www.nexusmods.com/cyberpunk2077/mods/8059?tab=images
Wel lachen toch?
Dat eerste voorbeeld van je: verschil was duidelijk, bedoeld als puzzel. Dat tweede voorbeeld van je: vond je zelf super duidelijk, en iedereen vindt het een puzzel! :+ :D

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Mogelijke specificaties van de 7800 en 7700 series:

nieuws: Vermeende specificaties AMD Radeon RX 7800 XT en RX 7700 XT verschijn...

Afbeeldingslocatie: https://tweakers.net/i/Qh40Z01cZ_7XFnb-Uaryhb5CqP8=/656x/filters:strip_icc():strip_exif()/i/2005739216.jpeg?f=imagenormal

Mocht de 7800 XTX inmiddels geannuleerd zijn, dan sijpelt N31 misschien door naar de 7800 XT?

[ Voor 8% gewijzigd door XWB op 25-04-2023 17:27 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
XWB schreef op dinsdag 25 april 2023 @ 17:18:
Mogelijke specificaties van de 7800 en 7700 series:

nieuws: Vermeende specificaties AMD Radeon RX 7800 XT en RX 7700 XT verschijn...

[Afbeelding]

Mocht de 7800 XTX inmiddels geannuleerd zijn, dan sijpelt N31 misschien door naar de 7800 XT?
Wie weet. Vergeet de 7600XT niet met 32CU. N32 wordt hopelijk ook aangekondigd Computex eind Mei en lancering Chinees commercieel feest 618 oftewel 18 Juni.

By the way, dat briljante plan van Nvidia qua prijzen hoog houden en minder wafers inkopen (de helft), helpt nu vooral de verkoop van RX 6000 kaarten meer dan RTX 3000 kaarten. Misschien was Nvidia's plan toch niet zo briljant, de RTX 4070 voor $599 heeft een grens laten zien.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online

CMT

M.a.w. je krijgt een RX6900XT gelijkwaardige kaart voor een bijna RX6950XT prijs van nu.. :z
Om het nog erger te maken is de kaart ook niet te modden met softwaretools. Dus je zit vast aan max. -10% power limit (waarom AMD?).

Wat is het toch allemaal bizar matig met deze generatie.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik kan die 70CU gewoon niet zo goed plaatsen. De configuratie bestaat, maar de opbouw ervan is mij niet helemaal duidelijk. Dat het een "99% yield" bin is, moge duidelijk zijn. Dus een bin waar zelfs de meest waardeloze chip nog mee verkocht kan worden.

Uiteindelijk is het fundamentele probleem alleen dat AMD haar prestatiedoelen heeft gemist. Ze hadden het zelf over iets meer dan 17% die ze gemiddeld uit hun tweede set van ALUs zouden halen. Dat is in de praktijk eerder 0%. Clock speed is ook leuk. Bepaalde RX7900XTX modellen kunnen net de 3GHz halen, met 400W+. En dat hadden ze misschien ook maar moeten doen, als ze niet tegen problemen aanliepen. Alleen al dat het driver team maandenlang geen nieuwe drivers meer voor RDNA2 en ouder meer uitbracht, doet me al vermoeden dat ze heel wat tijd hebben gestoken om te kijken wat er nog te redden viel.

Vervolgens probeerde ze ook mee te liften op Nvidia hun bizarre prijzen met een simpel psychologische trucje. Een 80 boven de $700 aanprijzen zal alleen maar negatieve reacties uitlokken, dus noemen we het geen 80. :z
Probleem hiermee is dat AMD nu met drie RDNA3 chips zit en nooit gaat uitkomen qua namen. Er gaat ergens een gat vallen. De enige oplossing was ongeveer dit:

RX7900XT 96CU
RX7800XT 84CU
RX7800 70CU
RX7700XT 60CU
RX7700 54CU
RX7600XT 32CU
RX7600 28CU

Maar als ze dit hadden gedaan, je weet wel de rationele aanpak, dan hadden ze de RX7900XT die we nu hebben, nooit voor $900 in de markt kunnen zetten. Dan had het $700 moeten zijn, omgerekend circa €770. We lijken inmiddels richting halverwege dat punt te zijn met prijsdalingen voor sommige modellen, omdat die RX7900XT niet verkoopt. En tja, voor $700 had ik die misschien al gekocht en met mij anderen die nu ook denken dat AMD het kan uitzoeken.

Het gaat mij uiteindelijk niet eens zozeer om de prijs, maar wel om wat ik krijg voor die prijs. Je zou hiermee circa 40% sneller dan RX6800XT kopen, 20GB VRAM, stuk betere RT hardware en de hoop op nog wat meer prestatiewinst over de komende twee jaren als al dat UE5 moois hopelijk de tweede set aan shaders gaat aanspreken voor al die extra geometrie. Immers zijn het voornamelijk beperkte FP32 ALUs die maar een deel van alle FP32 instructies kunnen. Maar puntjes in drie dimensies berekenen kunnen ze wel. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op dinsdag 25 april 2023 @ 19:43:
[...]


Ik weet gewoon echt niet hoe desktop N33 gaat presteren. Daardoor weet ik ook niet goed of extra VRAM de grote doorslag geeft. Waarschijnlijk ga je het wel merken omdat ik het met mijn oudere RX5700XT ook al merk.
Qua performance mogelijk iets tussen de RX 6650 XT en RX 6750 XT:

AMD Radeon RX 7600 Early Sample Offers RX 6750 XT Performance at 175W

Afbeeldingslocatie: https://www.techpowerup.com/img/tfYuGEMhlRZLAUgR.jpg

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Hoeveel W doet een 6650?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ja dat is een inkoppertje omdat N33 dezelfde 32CU/128 bit bus en 32MB L3 cache configuratie heeft as N23. Het enige verschil is dat de RDNA2 WGP vervangen is voor de RDNA3 WGP. ;)
De vraag is hoe presteert N33 nu. Clock speeds, dual issue van RDNA3, maar ook niet de grotere Vector Register File van N31 en zeer waarschijnlijk ook N32. RX6650XT is het minimale, maar hoeveel meer is volstrekt onduidelijk. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Als je het linkje volgt zie je dat ze 185-190W claimen voor de 6650 XT, wat ze hopelijk baseren op dezelfde test-suite.

Op zich is het logisch dat er niet zo heel veel verbetering is. Het is maar een vrij minimale node stap van TSMC 7 naar 6. Het is vooral een goedkoper product, want TSMC 6 is goedkoper en de chip is ook kleiner.

Dus mijn verwachting is dat de prestaties niet mee gaan vallen, maar dat de prijs (in elk geval op termijn) wat lager gaat worden dan de 6600. Misschien vanaf 200/210 euro voor de 7600 en vanaf 250/260 euro voor de 7600 XT.

AMD heeft helaas wel de vervelende neiging om aan het begin steeds teveel te vragen, dus het is maar de vraag of het nut heeft om op de release te wachten als je nu graag wilt upgraden. Sowieso is de 7600 XT met 8 GB niet bepaald aantrekkelijk. Alleen de 7800 en 7700 hebben wat mij betreft nog de potentie om echt interessant te worden, maar dan wel met de nadruk op potentie.

[ Voor 24% gewijzigd door Ludewig op 26-04-2023 10:54 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Je kunt niet zomaar de wattages die worden gemeld door verschillende bronnen met elkaar vergelijken, want het verbruik is alleen goed te vergelijken als je dezelfde workload gebruikt. En dan nog kun je verschillende resultaten krijgen afhankelijk van hoe je meet. Zo rapporteert de kaart meestal waardes die anders zijn dan wanneer je een wattage meter tussen de PSU en GPU plaatst.

En daarnaast heb je met name als je Nvidia met AMD vergelijkt ook een verschil doordat Nvidia meer laat doen door de CPU, die daardoor meer verbruikt. Het CPU-verbruik bij een bepaalde load kan ook per generatie van dezelfde fabrikant verschillen. Dit is ook de reden waarom Hardware Unboxed de total system power rapporteert en niet het verbruik van de kaart zelf.

[ Voor 24% gewijzigd door Ludewig op 26-04-2023 10:48 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 15:15

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Ik stel mijn driver altijd zelf in, nu heb ik in BF5 dat ik wielen, bv achterop een jeep dan weer netjes rond dan wer wat vierkanter worden weergegeven zie, wat telkens wat verspringt, welke instelling betreft dit, ik krijg het zelf niet gevonden? iets met de textures ofzo?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

SAiN ONeZ schreef op woensdag 26 april 2023 @ 18:32:
Ik stel mijn driver altijd zelf in, nu heb ik in BF5 dat ik wielen, bv achterop een jeep dan weer netjes rond dan wer wat vierkanter worden weergegeven zie, wat telkens wat verspringt, welke instelling betreft dit, ik krijg het zelf niet gevonden? iets met de textures ofzo?
offtopic:
Klinkt als Radeon Super Resolution? Maar dit hoort in een ervaringentopic. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 15:15

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Top, dat is wel pas een instelling die hij voorstelde, verrek nu je het zegt..
Thnx a bunch, nothing to see here, please move along... _/-\o_

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 12:44

rapture

Zelfs daar netwerken?

Als de performance per Watt of per dollar nauwelijks vooruitgang boekt en je krijgt driver problemen, kinderziektes,... Dan kan je beter voor RDNA2 gaan, getest door miners die het geheugen belasten en de beruchte games die de VRM op een grafische kaart kunnen doorbranden.

Of de aankoop naar Black Friday uitstellen om te zien hoe de marktwerking evolueert. Niet alleen in de PC-hardwaremarkt, maar ook op de beurs en in de reële economie in de straten.

Acties:
  • 0 Henk 'm!

  • pyth0n
  • Registratie: April 2020
  • Laatst online: 20-01 04:11
CMT schreef op dinsdag 25 april 2023 @ 17:33:

Om het nog erger te maken is de kaart ook niet te modden met softwaretools. Dus je zit vast aan max. -10% power limit (waarom AMD?).
Kan iemand mij uitleggen wat dit betekend? :?

Acties:
  • +1 Henk 'm!

  • SunsetSundae
  • Registratie: Januari 2017
  • Laatst online: 14:25
pyth0n schreef op woensdag 26 april 2023 @ 22:35:
[...]


Kan iemand mij uitleggen wat dit betekend? :?
Dat betekent dat de kaart intern dichtgetimmerd is en niet meer toegankelijk voor krachtigere (uitgebreider en extremer dingen kunnen afstellen) third-party software dan AMD's eigen WattMan. Zoals MorePowerTool, dat voor RDNA2 erg populair is.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Volgende geval.

Jedi Survivor, nou RX7900XTX en RTX4090. De ene lijkt hier 46fps te doen op 1440p zonder RT. De ander 58fps op 4K met RT. En ja, je eerste gedachte welke GPU hier de sneller is, was verkeerd. ;)
[Twitter: https://twitter.com/Theswweet/status/1651368267221725184]
Kijk naar de GPU utilisatie. De RTX4090 lijkt tegen een gigantische CPU bottleneck aan te lopen. Het is eigenlijk geen CPU bottleneck meer. Dit is een Nvidia driver model/software scheduling bottleneck. Oh en 18GB+ VRAM allocatie. :z
Afbeeldingslocatie: https://pbs.twimg.com/media/FurWrt4aIAIfueJ?format=jpg&name=large
Afbeeldingslocatie: https://pbs.twimg.com/media/FurWsBNaUAIMNXm?format=jpg&name=large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op donderdag 27 april 2023 @ 10:56:
Jedi Survivor, nou RX8900XTX en RTX4090. De ene lijkt hier 46fps te doen op 1440p zonder RT. De ander 58fps op 4K met RT. En ja, je eerste gedachte welke GPU hier de sneller is, was verkeerd. ;)
Het verbaast me niet dat de 8900 XTX sneller is, maar hoe zijn ze aan de tijdmachine gekomen?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 05-06 20:18
DaniëlWW2 schreef op donderdag 27 april 2023 @ 10:56:
Volgende geval.

Jedi Survivor, nou RX8900XTX en RTX4090. De ene lijkt hier 46fps te doen op 1440p zonder RT. De ander 58fps op 4K met RT. En ja, je eerste gedachte welke GPU hier de sneller is, was verkeerd. ;)
[Twitter]
Kijk naar de GPU utilisatie. De RTX4090 lijkt tegen een gigantische CPU bottleneck aan te lopen. Het is eigenlijk geen CPU bottleneck meer. Dit is een Nvidia driver model/software scheduling bottleneck. Oh en 18GB+ VRAM allocatie. :z
[Afbeelding]
[Afbeelding]
De 7900XTX loopt hier toch ook aan tegen een CPU bottleneck want hij zit op 83% utilization? Er is gewoon meer overhead bij Nvidia waardoor die een lagere framerate heeft. Het lijkt wel een groot verschil in overhead, maar dit is een game dat werd gesponsered door AMD dus zou wel eens kunnen.

Ik ga ervan uit dat het dezelfde/gelijkaardige CPU gebruikt wordt want anders is het natuurlijk een onzinnige vergelijking. Welke CPU werd gebruikt?

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
rapture schreef op woensdag 26 april 2023 @ 19:25:
Als de performance per Watt of per dollar nauwelijks vooruitgang boekt en je krijgt driver problemen, kinderziektes,... Dan kan je beter voor RDNA2 gaan, getest door miners die het geheugen belasten en de beruchte games die de VRM op een grafische kaart kunnen doorbranden.

Of de aankoop naar Black Friday uitstellen om te zien hoe de marktwerking evolueert. Niet alleen in de PC-hardwaremarkt, maar ook op de beurs en in de reële economie in de straten.
Black Friday is meestal niet zo interessant voor videokaarten.

Wat wel de prijzen drukt is nieuwe lanceringen. Binnenkort 31 Mei is Computex in Taiwan, zeker een evenement waar AMD en Nvidia de rest van hun line-up zullen laten zien.

Met name de 7800 XT (60 CU Navi32) en onverwacht de 7800 XTX (70 CU Navi31) zouden best wel eens een mooie prijs kunnen krijgen, met allebei 16 GB.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
7600XT komt misschien al eerder dan Computex, hoewel MLID niet een betrouwbare bron is, kan hij wat gehoord hebben.

Het gerucht zegt 25 Mei. Hopelijk $299, ~6750 XT performance, zou de vorige generatie eindelijk een minder goede koop maken.

https://videocardz.com/ne...edly-launches-on-may-25th

[ Voor 14% gewijzigd door sunsmountain op 27-04-2023 12:47 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op donderdag 27 april 2023 @ 11:36:
[...]

De 7900XTX loopt hier toch ook aan tegen een CPU bottleneck want hij zit op 83% utilization? Er is gewoon meer overhead bij Nvidia waardoor die een lagere framerate heeft. Het lijkt wel een groot verschil in overhead, maar dit is een game dat werd gesponsered door AMD dus zou wel eens kunnen.

Ik ga ervan uit dat het dezelfde/gelijkaardige CPU gebruikt wordt want anders is het natuurlijk een onzinnige vergelijking. Welke CPU werd gebruikt?
Ja die had ik er beter meteen bij kunnen zetten. :)
Het gaat om:
12700 + RTX4090 en 7700X met RX7900XTX.
[Twitter: https://twitter.com/Theswweet/status/1651364956493979649]


Het zijn nu allemaal datapunten die doorsijpelen van reviewers en die gebruiken hopelijk toch echt allemaal forse CPU's. Maar het gaat hier niet om de CPU in gebruik, maar om het gegeven dat een RX7900XTX op 4K met RT, sneller is dan een RTX4090 op 1440p zonder RT. Dat is een gigantisch verschil.

Nu heeft de RTX4090 toch al een probleem met utilisatie. Iets van 25% sneller dan een RTX4080, met 68% meer SM's op 4K. Op 1440p loopt het al snel nog verder terug. Maar dit lijkt een game te zijn die zwaar op de CPU is, misschien ook niet helemaal goed geoptimaliseerd. Maar zelfs dan nog, het verschil is enorm.

Daarnaast speelt de 18GB+ VRAM op 4K die gealloceerd is ook nog mee. Allocatie en gebruik zijn natuurlijk niet hetzelfde, maar ik ben nu wel benieuwd wat je op 1440p krijgt. Want ik denk dat dit weer een game gaat zijn waar 8GB videokaarten het heel zwaar krijgen op maximale instellingen. Dat is volgens mij al de vijfde of zesde grote titel dit jaar?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 31-05 14:57
DaniëlWW2 schreef op donderdag 27 april 2023 @ 10:56:
Volgende geval.

Jedi Survivor, nou RX7900XTX en RTX4090. De ene lijkt hier 46fps te doen op 1440p zonder RT. De ander 58fps op 4K met RT. En ja, je eerste gedachte welke GPU hier de sneller is, was verkeerd. ;)
[Twitter]
Kijk naar de GPU utilisatie. De RTX4090 lijkt tegen een gigantische CPU bottleneck aan te lopen. Het is eigenlijk geen CPU bottleneck meer. Dit is een Nvidia driver model/software scheduling bottleneck. Oh en 18GB+ VRAM allocatie. :z
[Afbeelding]
[Afbeelding]
Ziet er meer uit als een bug of in ieder geval iets anders, de ene heeft 33% CPU gebruik en de andere 51% vrij kleine kans dat het een CPU bottleneck vormt ;)
De Nvidia gebruikt de CPU dus minder dan de AMD, moet iets anders achter zitten.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Koldur schreef op donderdag 27 april 2023 @ 14:05:
[...]


Ziet er meer uit als een bug of in ieder geval iets anders, de ene heeft 33% CPU gebruik en de andere 51% vrij kleine kans dat het een CPU bottleneck vormt ;)
De Nvidia gebruikt de CPU dus minder dan de AMD, moet iets anders achter zitten.
Als je tegen een keiharde single thread bottleneck aanloopt, dan krijg je dat.
Als de GPU het al niet meer trekt, waarom moet de CPU dan extra hard gaan werken voor het CPU gedeelte van een frame haar render? RX7900XTX heeft die problemen veel minder omdat daar geen kunstmatige afhankelijkheid van een CPU core word geforceerd door drivers, dus die laat de CPU ook harder werken op een hogere resolutie met als resultaat meer frames.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!
Koldur schreef op donderdag 27 april 2023 @ 14:05:
[...]


Ziet er meer uit als een bug of in ieder geval iets anders, de ene heeft 33% CPU gebruik en de andere 51% vrij kleine kans dat het een CPU bottleneck vormt ;)
De Nvidia gebruikt de CPU dus minder dan de AMD, moet iets anders achter zitten.
Hoe kom je daar bij?

8 cores (SMT negeren we even):
- 1 core op 100%, 7 cores op 25%: ~33% CPU gebruik.
- 4 cores op 100%, 4 op 0%: ~50% CPU gebruik.
- 8 cores op 50%: ~50% CPU gebruik.

Gevalletje 1 is Nvidia (de driver thread heeft meer cycles nodig). Geen idee hoe die game draait, maar bij AMD zit je op 1 thread meestal tussen de 60% en 80%, met de rest iets lager.

Vergeet niet dat een driver bottleneck de engine ook raakt, die zal op meerdere threads dan ook moeten wachten.

Ik heb het al zo vaak gezegd, maar een enkel "CPU usage" percentage zegt nul-komma-niks-nada-noppes, net zoals "GPU usage" helemaal niets zegt. Volstrekt zinloze meetwaarden. Het gaat er om waar dat gebruik zit. Je moet in het geval van CPU's minstens een percentage per core hebben, maar zelfs daar is een grafiek nuttig, omdat je dan goed kunt zien hoe vaak en wanneer er op de GPU gewacht moet worden. Een physics thread kan wel door tikken, maar de render thread niet.

Zelfs met D3D12 zit de driver er gewoon nog steeds tussen, en in Nvidia's geval weten we dat die bizar veel werk moet verrichten en dat kan heel makkelijk bottlenecken.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Hier kan je het al wat beter zien. Er zit aardig wat load op alle cores. Daarbij wil ik meteen gezegd hebben dat ik een ogenschijnlijk 5900X zie met 12 threads? Uh heeft deze reviewer SMT uitstaan? :P

Alsnog is de framerate dramatisch voor een dergelijk systeem. Maar niet geoptimaliseerd zeg ik ook niet. Dit is nog UE4 dus veel is nog met de hand gemaakt. Ik zie bijvoorbeeld wel weer wat flinke draw distances. Ideaal is het denk ik niet, maar die constante roep dat het allemaal maar slecht is, lijkt me zo te zien hier ook niet terecht.


Dat FSR2 vrijwel niks doet, is ook nogal wiedes. Ik zag volgens mij elders ook al de eerste roep dat DLSS3.0 erin had moeten zitten. Nvidia hun marketing afdeling heeft zijn werk weer gedaan. Want nu heb je blijkbaar Nvidia exclusieve technologie nodig omdat Nvidia hun scheduling nog steeds niet voor elkaar heeft. Het was geweldig in 2014-2018 met Maxwell en Pascal, we zijn inmiddels weer wat jaren verder en het systeem werkt gewoon niet.


Het zou zo ontiegelijk overduidelijk moeten zijn voor de de gemiddelde "tech reviewer", als ze daadwerkelijk enig idee hadden waar ze het over hebben. Als je namelijk een basaal idee hebt, dan zie je dat de RTX4090 met 68% meer SM's zit en dat op 4K omzet in gemiddeld iets van 30% meer fps. Op 1440p is het eerder iets van 17% als ik HWU hun cijfers neem (5800X3D). Met een 7800X3D zal je iets winnen, met name op 1440p, maar ook niet enorm veel. Bij Igor kom ik op iets van 13% sneller uit op 1440p en op 4K kom ik op 5% sneller tussen een 5800X3D en 7800X3D. Dat verklaard het enorme verschil in hardware tussen een RTX4080 en RTX4090 niet. En het gaat hier toch voornamelijk om gemiddelden opgenomen met games van voor 2023.

Want er is nogal wat gebeurd die laatste maanden. Ik was al zowat Hogwarts Legacy vergeten waar de RX7900XTX zonder RT, ook de RTX4090 met ruim 28% versloeg op 1440p en de RTX4080 en RTX4090 gelijkwaardig presteerde. (dit was al met een 7700X)
Afbeeldingslocatie: https://tweakers.net/i/FxDVyv3VjdXIhBHq_eq-xqq0gBY=/800x/filters:strip_icc():strip_exif()/f/image/8utGnkUbMLl3pZGWuLJOKg2Z.jpg?f=fotoalbum_large


Dan krijg je dus een game zoals dit die vrij zwaar op de CPU lijkt te zijn. En daar gaat de RTX4090. Als veel van die "reviewers" nu wisten waar ze het over hadden, dan hadden ze twee testsystemen klaarstaan voor dit soort tests. Eerste is 7800X3D + RTX4090 en de tweede met een 7700X/5800X3D/12700K + 7900XTX. Is het tweede systeem vergelijkbaar of sneller, dan is het vrijwel altijd Nvidia. Hoeven we ook niet weer die eindeloze speculaties of onzinredenen aan te horen wat het probleem is. Het is gewoon Nvidia.

Iets waarvan ik nog steeds niet kan begrijpen waarom Nvidia nog steeds hieraan vasthoud. Ze lopen nota bene zelf DX12 te pushen sinds Turing vanwege RTX. Vervolgens geven ze veel videokaarten niet afdoende VRAM en zadelen ze je op met een ingebouwde CPU overhead bottleneck die je zelf maar moet oplossen door de allersnelste CPU te kopen die er op het moment is. En dan maar hopen dat je niet alsnog getroffen word in die game die je net wou spelen.


Ik begrijp helaas wel waarom Nvidia er maar mee weg blijft komen. Want de gemiddelde tech reviewer is werkelijk te stom om het te zien. Hieronder een opsomming van meerdere reviewers die dus allemaal wijzen naar slechte optimalisatie. Geheel toevallig Nvidia, Nvidia en nog eens Nvidia. En dan zie je de RX7900XTX gewoon wel goed presteren. Dit is dan een compilatie gemaakt door een wiskundeleraar. Niks tegen wiskundeleraren, maar dat zijn ook geen graphics engineers ofzo. Dit is gewoon een rationeel denkend mens die al een tijdje door de onzin heen prikt en zaken demonstreert, redelijk analyseert en uitlegt. Daarom groeide zijn YT kanaal ook zo ontiegelijk hard.. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 31-05 14:57
We gaan het straks zien, maar kan mij niet voorstellen dat het spel zo slecht draait op beide kaarten.

Ja, ik weet dat het percentage niet met zekerheid een bottleneck wel of niet kan uitsluiten, maar als dat wel het geval was, had dit per core natuurlijk prima weergegeven kunnen worden en vraag ik mij af, waarom is dat niet gedaan?
Als je een dergelijk punt wil maken, kom dan ook met de data, vooral omdat die zeer makkelijk te geven is met tools als HWiNFO e.d.

De reden dat ik het aannemelijker vind dat er iets anders aan de hand is, in beide gevallen, is dat erg groot verschil is met de AMD CPU belasting tegenover de Nvidia. Als het dan een CPU bottleneck is, zou ik die wel meer bij elkaar verwachten. Maar nogmaals, we gaan het zien.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Koldur schreef op donderdag 27 april 2023 @ 19:42:
We gaan het straks zien, maar kan mij niet voorstellen dat het spel zo slecht draait op beide kaarten.
De game draait niet slecht op beide kaarten, alleen op die van Nvidia. Want de RX7900XTX loopt nu zelfs op 4K met RT weg in die vergelijking. 1440p kan gebeuren, 4K met RT is een dingetje.
Ja, ik weet dat het percentage niet met zekerheid een bottleneck wel of niet kan uitsluiten, maar als dat wel het geval was, had dit per core natuurlijk prima weergegeven kunnen worden en vraag ik mij af, waarom is dat niet gedaan?
Als je een dergelijk punt wil maken, kom dan ook met de data, vooral omdat die zeer makkelijk te geven is met tools als HWiNFO e.d.
Omdat menig reviewer er niks van begrijpt. Zo begon mijn punt ook van morgen. Er liepen er weer een aantal te klagen dat het spel niet draaide en toen kwam er iemand met een RTX7900XTX met 7700X die nergens last van had.
De reden dat ik het aannemelijker vind dat er iets anders aan de hand is, in beide gevallen, is dat erg groot verschil is met de AMD CPU belasting tegenover de Nvidia. Als het dan een CPU bottleneck is, zou ik die wel meer bij elkaar verwachten. Maar nogmaals, we gaan het zien.
De CPU belasting hoort veel hoger te zijn bij AMD. Immers kom je in die vergelijking op 26% sneller voor de RX7900XTX en is het ook nog eens 4K RT tegenover 1440p zonder RT. Dat vraagt om flink wat extra CPU berekeningen om bij te blijven. Laatste is de vraag of de E cores van de 12700 worden meegeteld onder het gemiddelde van Nvidia. Ik weet het namelijk niet zeker. Bij de 7700X + RX7900XTX heb je die factor niet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Nu online

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op donderdag 27 april 2023 @ 20:37:
De CPU belasting hoort veel hoger te zijn bij AMD. Immers kom je in die vergelijking op 26% sneller voor de RX7900XTX en is het ook nog eens 4K RT tegenover 1440p zonder RT. Dat vraagt om flink wat extra CPU berekeningen om bij te blijven. Laatste is de vraag of de E cores van de 12700 worden meegeteld onder het gemiddelde van Nvidia. Ik weet het namelijk niet zeker. Bij de 7700X + RX7900XTX heb je die factor niet.
De 12700K is een 12c/20t CPU, dus ik neem aan dat er met alle cores en/of threads wordt gerekend voor het gemiddelde. Linux ziet zelfs 20 CPU’s omdat die anders opdeelt dan Windows.

Ik zou verwachten dat het dan gaat om 20 threads vs 16 threads voor de 7700X als HT wordt meegerekend en anders 12c om 8c.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs

Pagina: 1 ... 87 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.