Ergens vraag ik me ook af of het voordeel van RDNA niet ook juist in zoveel minder shaders zit. Die shaders hebben immers veel meer caches nodig om aan het werk te blijven en dat nadeel af te zetten. Maar het lijkt er ook op dat er daardoor veel meer buffers met instructies zijn die een kleine vertraging aan de CPU kant afvangen.CMT schreef op zaterdag 19 augustus 2023 @ 15:48:
Oh dat is geen probleem hoor, ik vind het ook wel leuk om te onderzoeken. Aan wil is er geen gebrek.
Het is alleen zo dat ik de aankomende paar weken daar niet zoveel tijd voor heb.
Maar als de UV tuning voor de 6950XT klaar is, dan kan de 4090FE aan het einde van de rit er weer terug in.
Dan zal ik gelijk wat vergelijkingen maken met GPU busy.
Net heb ik wel even vlug gekeken naar Intel's Presentmon versie en dat ziet er best mooi uit.
Realtime grafisch monitoren van eigenlijk alles wat belangrijk is.
Op mijn main PC met nog de 5800X3D + 6900XT (getuned in eco-mode) lopen de cpu en gpu lijnen strak over elkaar heen bij het betreffende probleemgebied in WoW. Perfect in balans.
Wat ik nog van de 4090FE herinnerde was dat de utilisatie daar bar slecht was. Iets van 20% versus 95ish % met de 6900XT.
Een ander opvallendheid was dat de 4090FE ook relatief veel FPS verloor met Freesync aan.
Ca. -10% versus - 2% verlies met de 6900XT. En dat nota bene met een 7800X3D cpu voor de 4090FE en een 5800X3D cpu voor de 6900XT.
Dat zou denk ik ook geweldig zijn. Voornamelijk omdat voor beiden juist de kansen ook liggen in het middensegment, laptops en servers. High end gaming en workstations zijns Nvidia hun domein en daar valt weinig te winnen met de vendor lock die daar bestaat. En als je applicatie of game minstens zo goed draait op iets anders, dan moet je mensen nog zien te overtuigen dat je niet alleen beter bent, maar veel beter dan Nvidia. Het is een bijna kansloze missie. AMD figureert er ook al tijden als een soort Nvidia prijsdrukker.Werelds schreef op zaterdag 19 augustus 2023 @ 17:15:
[...]
En tegelijkertijd blijven ze vrij open werken. Ik hoop stiekem nog steeds dat Intel en AMD ook op GPU gebied de handen ineen gaan slaan met de open standaarden en tools, want ondanks het feit dat ze al 2 decennia concurrenten waren voordat Nvidia überhaupt bestond, zijn ze ook al heel lang goede partners van elkaar die af en toe botsen. Maar ze hebben elkaar op CPU gebied altijd hard nodig gehad en dat is nu eigenlijk ook zo.
Recentelijk lekte van alle kanten dan de high end RDNA4 geannuleerd is. Dat zouden echt complexe, dure en zeer high end MCM ontwerpen zijn geweest met vele chiplets. Er zou een focus komen op een goed middensegment volgend jaar. De reacties waren overduidelijk. Zoveel mensen waren boos op een manier dat je zag dat het niet ging om RDNA4, maar om wat Nvidia nu kan gaan doen met high end prijzen. En als dat de houding is, tja.
En dit is waarom ik dus wel een RX7900XT heb gekocht met de aanbiedingen afgelopen maand.Ik hoop het echt van harte. Ze lopen absoluut nog flink achter, maar zolang ze realistisch blijven en niet op high-end prijzen in willen zetten, is er absoluut geen reden dat ze niet levensvatbaar kunnen blijven. De high-end is ook niet waar er iets te winnen valt voor ze. Juist in wat tegenwoordig low- en mid-end genoemd dient te worden is veel te winnen, omdat daar al jaren brakke producten uit komen.
Dat is momenteel het grote probleem in GPU land: er is al een jaar of 5-6 vrij weinig beweging qua perf/$. Prestaties zijn wel omhoog gegaan, maar de prijzen ook. Het is triest hoe slecht de markt in elkaar steekt. Ik heb persoonlijk ook de interesse een beetje verloren (vandaar dat ik zo stil ben in alle 3 de topics), want als m'n 1080 Ti het niet begeven had, had ik daar nu, meer dan 6 jaar later, nog steeds op gezeten. Want voor het geld dat ik daar voor neer heb gelegd (en dat was mét waterblok!), kan ik nu een 4070 kopen. That's it. Er is niets anders van de nieuwste generaties beschikbaar voor die prijs (en dan laat ik inflatie nog een beetje meetellen ook). 60% sneller. Op 6 jaar.
Om daar een beetje perspectief in te brengen: diezelfde 1080 Ti afgezet tegen de producten van pakweg 6 jaar eerder (de GTX 580 of 6970): meer dan 4 keer zo snel. Uiteraard een beetje vertekend omdat er tussen die generaties meer te winnen viel dan nu mogelijk is (zelfs een 4090 komt bij lange na niet in de buurt van 4x), maar het zijn de prijzen waardoor het voor ons consumenten zo slecht is. Zelfs de 1080 Ti evenaren kost je nu nog minstens zo'n €300, aan de Nvidia kant moet je nog iets hoger gaan zitten. Zit je alweer zo'n beetje op de helft van wat de 1080 Ti kostte.
Laat ik m'n rant hier maar afbreken, want als ik het ook nog over de nieuwe trends waarbij upscaling en interpolation frame generation "vereist" worden om hoge "framerates" te halen ga hebben...neen, meneer Werelds is niet blij met de stand van zaken voor PC gaming
Ik zag dat ik makkelijk 150% prestatiewinst over mijn RX5700XT en dus min of meer een GTX1080Ti (iets van 10% sneller) ging krijgen. Ik wenste ook minstens 2x performance en 2x VRAM capaciteit, dus mijn alternatief was een RX6800XT. Daartussen en de RX7900XT is vervolgens iets van 30% sneller.
De aankomende RX7800XT lijkt niet of nauwelijks sneller te worden dan de RX6800XT. Ik schat zo in dat de RX7800XT rond de €550-€600 gaat kosten, dus de doorrekening is ook niet ongunstig tegen mijn €800 kostende RX7900XT. Ik ben dus eigenlijk ook fors in prijs omhoog gegaan omdat het middensegment zo slecht is. Maar er zijn mogelijkheden voor een forse predatieverbetering zonder echt de hoofdprijs te moeten betalen. Ik heb nu eigenlijk bijna dezelfde prestatie sprong als van mijn oude HD7950 naar mijn RX Vega 56 gemaakt. Ik heb er alleen wel duidelijk meer voor betaald.
Verder heb ik nu wel bruikbare RT hardware en kan ik misschien nog hopen op alle RDNA3 CU features die na verloop van tijd nog gebruikt gaan worden. En dan meteen ook 20GB VRAM dus ook daar geen problemen. 8GB is inmiddels gestotter in recente games op maximale instellingen, zeker met RT, maar ook 12GB is ook geen comfortabele marge in veel recente games. Ergens is het treurig dat deze generatie hun echt goede producten na bijna een jaar pas begint met een afprijsde videokaart voor €800. Maar ik kan niet zeggen dat ik er spijt van heb ondanks dat ik de prijs alsnog fors vond.
Ik krijg er de indruk bij dat Intel voornamelijk meer bekende titels afwerkt en goed aanpakt. Maar hoe het met minder bekende games staat, weet ik echt niet. Ik denk dat ze nog flink wat werk te doen hebben voor met name DX11 games. En dan alsnog. Ik speel ook nog wel eens games van vele jaren geleden en ik betwijfel of ARC daar overal goed zal werken. Maar in ieder geval probeert Intel het nog steeds terwijl ze financieel in zwaar weer zitten.Intel heeft, voor zover ik het gevolgd heb, echter wel in veel van die games weldegelijk dingen gefixt. Dus er wordt wel tijd en geld in gestoken - en dat is werk dat in de nabije toekomst gewoon relevant blijft, omdat hun architectuur niet meteen 100% op de schop zal gaan, dus het meeste van dat werk blijft effectief.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.












:strip_exif()/f/image/QcGsxFBsxTTqNWXZwB1cFdJh.webp?f=fotoalbum_large)
:strip_exif()/f/image/AZgi6NuJ4EuJ21F1T0BXqwrz.jpg?f=fotoalbum_medium)