Crysis 2 ja.
En weer met Witcher 3 (Hairworks).
AMD forceert ook nog steeds "AMD optimised" tesselation in hun driver menu, hoewel het niet meer nodig is met RDNA.
Het probleem is dat veel RT implementaties, zeker die met flinke Nvidia sponsoring, vaak gewoon slecht zijn. Het zijn veredelde tech demo's die misschien net met de allerbeste huidige Nvidia GPU + DLSS te spelen zijn. Verder vind ik ze vaak ook niet mooi. Het is vaak te glimmend en onnodig reflectief alsmede de impact is te groot. Zeker omdat een deel van wat Nvidia met RTX wil doen, ook shader based kan. Ik wil verder ook helemaal niet dat wateroppervlakte zich altijd als een spiegel gedraagt. Dat ziet er gewoon nep uit.
Wat ik wil is veel dynamischer licht in plaats van het behoorlijke licht/donker contrast waar we nu meestal mee zitten met shader based light. Dat is de grootste winst voor de minste impact. Zeker omdat met alle AI tools die het afgelopen jaar voorbij zijn gekomen, we echt richting fotorealisme gaan met textures. Je kan nu gewoon letterlijk iets fotograferen en importeren in een game engine als 3D objecten. Slechte lichteffecten gaan dan ook zo enorm opvallen.
En juist daar zal RT relevanter gaan worden denk ik. Relatief lichte, maar effectieve RT die objecten relatief grof kan mappen + shader based light om te besparen op ray cast en ray checks. Dat is wat Lumen ook doet en dat lijkt ook precies te zijn waar RDNA3 op mikte. Ik kan helaas de test niet vinden nu, maar HWU teste Lumen in Fortnite een tijdje terug en daar deed RDNA3 het een stuk beter dan in andere RT(X) titels. Volgens mij zat de RX7900XT op vergelijkbaar niveau met de RTX4070Ti. Nvidia is nog steeds beter in RT, maar het verschil was veel minder dan in veel andere games. Voor mij was het geen toeval.
RDNA3 haar RT is ook niet zo slecht. Het is vooral anders en dat werkt niet zo lekker met veel RTX implementaties. AMD heeft voor RDNA3 ook gedaan wat ze altijd doen, culling, culling en nog eens culling. Ze hebben enorm hun best gedaan om vooral zinloze berekeningen niet uit te hoeven voeren. Daarnaast hebben ze BvH creatie verbeterd en spelen ze heel wat met snelle datatoegang om tegen te checken. Daarom ook mede al die caches. Ze gaan zoals altijd voor het maximale uit hun hardware halen. Dat lijkt voor de shaders aardig mislukt te zijn. Tot dusver want
als, grote als AMD hun compiling weet te verbeteren en die tweede SIMD32 sets beter aan het werk gaat zetten, dan zit er misschien nog wel wat in. Maar hun RT is niet slecht.
Nvidia daarentegen heeft ray casting wederom verdubbeld per RT core. Die kunnen dus gewoon veel meer rays casten dan AMD. Maar ik vermoed dat hun hybrid RT + shaders (dus vrijwel elke game) waar ze rays tegen shader based objecten testen, niet zoveel verbeterd is. Dat komt vermoedelijk omdat ze hun BvH creatie niet substantieel hebben aangepakt en verbeterd. Precies wat AMD dus wel gedaan heeft. Nvidia haalt hun winst dan ook vooral uit meer rays kunnen casten. Maar het schaalt zeker niet lineair met hun 2x ray cast verbetering. Turing naar Ampere was in dat aspect een grotere stap, mede omdat daar ook nauwelijks verbetering in clock speed was.
Hierom hebben ze het bij Nvidia waarschijnlijk nu over path tracing. Kost extreem veel rays en alleen Nvidia RTX40 kan het. Ik begrijp Nvidia ook wel omdat ze ook de professionele markt moeten bedienen. Render je nu CGI, dan is de RTX4090 met gigantische afstand de beste GPU daarvoor. Ik weet niet eens of de RX7900XTX zelfs de RTX3090Ti daarin kan benaderen, laat staan RTX40. Maar voor gaming vind ik het gewoon niet de goede aanpak. Het is iets dat nog (vele) generaties weg is.
Ik heb Metro Exodus EE verder niet (of een RT GPU), maar van wat ik weet is dat een van de meest gewaardeerde RT implementaties juist omdat het te draaien is. Een andere goede is nota bene Fortnight omdat Epic het met Lumen wel goed doet. Iets dat ik als zeer veelbelovend beschouw omdat dit de implementatie van RT en ook efficiënt gebruik van RT, toegankelijk gaat maken voor veel developers.
Dit is een leuk voorbeeld.
Ik gruwel er ook van dat zoveel mensen nu RT ook echt RTX noemen. Nvidia heeft enorm onrealistisch en slechte verwachtingspatroon geschapen, puur voor marketing redenen. Het is helemaal pijnlijk als je een Turing GPU hebt gekocht gebaseerd op die beloften en nu met een "RT" GPU zit die gewoon niet aankan wat Nvidia beloofte. En eigenlijk zijn GA106 (zeker) en GA104 (mede dankzij 8GB VRAM) ook twijfelachtig voor RT. Idem overigens ook voor N22 en N23, hoewel het daar minder speelde. N21 kan je misschien nog wat mee.
En als ik dan hoor dat ze voor Cyberpunk path tracing gaan introduceren, dan weet ik al hoe laat het is. Dat gaat vrijwel zeker een RTX4090 + DLSS3 vragen.
edit: Wat een verrassing. Nvidia claimt 16fps met een RTX4090 op 4K zonder DLSS3...
Natuurlijk ziet het er goed uit, maar we zijn niet eens in de buurt van GPUs krachtig genoeg om dit te kunnen doen.
[
Voor 4% gewijzigd door
DaniëlWW2 op 04-04-2023 20:29
]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.