Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Verwijderd schreef op donderdag 3 november 2022 @ 23:23:
[...]


Als ik de cijfertjes zo bekijk, zullen de prestaties van deze kaart in minecraft rtx zo rond het niveau van de 3070 (zonder dlss) zitten.

Make of it what you will.
Eerder op het niveau van een 3080 - 3080 Ti als ik naar de benchmarks kijk. Uitgaande van 1.5 de snelheid.
https://www.tomshardware....adeon-rx-6950-xt-review/4

De 3070 is toch nog een heel stuk trager.

Acties:
  • 0 Henk 'm!

  • dutchnltweaker
  • Registratie: December 2013
  • Laatst online: 13:22
Vraagje, we hebben nu nieuws voorde high end versie gekregen. Maar ik had verwacht dat er vandaag ook nieuws kwam over de 7700/7800 Serie. Dat is de Serie waar denk ik veel meer mensen voor gaan?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
dutchnltweaker schreef op donderdag 3 november 2022 @ 23:59:
Vraagje, we hebben nu nieuws voorde high end versie gekregen. Maar ik had verwacht dat er vandaag ook nieuws kwam over de 7700/7800 Serie. Dat is de Serie waar denk ik veel meer mensen voor gaan?
Denk dat dit pas over 2-3 maanden komt.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 14:37
dutchnltweaker schreef op donderdag 3 november 2022 @ 23:59:
Vraagje, we hebben nu nieuws voorde high end versie gekregen. Maar ik had verwacht dat er vandaag ook nieuws kwam over de 7700/7800 Serie. Dat is de Serie waar denk ik veel meer mensen voor gaan?
Ik vermoed dat Navi32 (7800 serie) op CES wordt aangekondigt begin Januari. Navi33 (7700 serie) zal dan later zijn, ergens in Maart waarschijnlijk?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • dutchnltweaker
  • Registratie: December 2013
  • Laatst online: 13:22
Sp3ci3s8472 schreef op vrijdag 4 november 2022 @ 00:00:
[...]


Denk dat dit pas over 2-3 maanden komt.
Jammer, zit in een dubieu.. Of nu de 6700/6800 halen. Of de prijzen worden zo goed de markt ingezet voor de nieuwe 7700/7800 series. De nieuwe high end series zijn qua prijs al veel beter dan de vorige generatie. De 6900 xt betaalde je als die er was 15 a 1600 euro minimaal, indien niet meer. Nu pas kan je hem voor 700 Euro kopen na bijna 2 jaar.

Acties:
  • +1 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 07-10 21:55
ocf81 schreef op donderdag 3 november 2022 @ 23:39:
[...]

Aan de ene kant zie ik je punt wel, maar VR is denk ik nog niet helemaal klaar voor het grote publiek. Ook is er een praktisch probleem, er zijn namelijk niet zo heel veel goede benchmark tools voor VR en voor elke headset mag je weer andere prestaties verwachten.
In mijn geval heb ik een HP Reverb G2, een bril met een native resolutie van 2160x2160 per oog bij een FoV van ca 110°. Met 150* supersampling krijg je dan 3240x3240 per oog nodig voor het scherper renderen van de kijkhoeken buiten de zogenaamde 'sweet spot'. En dan heb je het dus over een bril met (naar mijn mening) een matig beeld door de lage PPD waarde van ca 19. Voor deze bril zijn de komende kaarten net genoeg om ze aan te sturen zonder de grafische instellingen terug te draaien naar het niveau dat ca 10 jaar geleden van toepassing van voor gewone monitoren. Maar VR heeft een probleem. Voor een goed beeld heb je een VR bril met een PPD waarde van ca 60 nodig bij een FoV van 180° of meer, dat is ongeveer 10800x8100 per oog als je een iets bredere kijkhoek in het horizontale vlak gebruikt dan in het verticale vlak. Je moet echter ook iets compenseren voor overlap tussen de ogen, dus dat komt dan neer op circa 12000x8000 per oog. Dus qua compute en hardware moet er nog wel wat gebeuren om VR echt tot zijn recht te laten komen. Voorlopig lijkt VR op de PC alleen voor een hele kleine groep echt interessant (voornamelijk sim racers en flight simmers) Daarbuiten is er niet zo veel te doen met VR op de PC. Ik kan dus de 'andere kant', namelijk door het gebrek aan interesse er geen budget voor vrijmaken, wel begrijpen. Dat uit zich dan weer in minder persaandacht.
Toch denk ik dat je het aantal VR gebruikers onderschat ;)

Ja het is nu voornamelijk een club bloed fanatiekelingen, alleen is het wel aan het groeien.
Kijk in ons eigen topic, of in het MSFS topic, X-Plane ...
(Simracer volg ik niet dus hoe het daar gaat...)
Of het DCS forum, MSFS forum (werk het rijtje maar af)

Het probleem is dat het nog niet toegankelijk is voor iedereen, zeker niet met de huidige prijzen (zowel VR headsets als GPU's die nodig hebt)

Maar ik ben het met je eens : het zou uitermate mooi zijn als met reviews VR een keer word meegenomen :
Fantastische prachtig dat je 200FPS met CODversieziekjenogweleenkeer haal, ga nu New York city in slecht weer maar eens renderen, met een approach op 04 op KLGA.
Of Syrie met alle templates.

Veel succes wil je halve refresh-rate halen met mooi beeld :+

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Kijkende naar de slides, heeft AMD geen enkele vergelijking gedaan met Nvidia kaarten, of kijk ik er gewoon strak langs.

@dierkx36 grappig dat het denk ik zo verschillend kan zijn per omgeving, als ik kijk in mijn omgeving waren er best veel (early adopter) gebruikers van VR apparatuur (van beatsaber tot HL Alyx e.d.) , maar ligt bij velen die headsets inmiddels meer stof te happen dan niet.

[ Voor 53% gewijzigd door Dennism op 04-11-2022 00:23 ]


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Nu online

Mars Warrior

Earth, the final frontier

Dennism schreef op vrijdag 4 november 2022 @ 00:21:
Kijkende naar de slides, heeft AMD geen enkele vergelijking gedaan met Nvidia kaarten, of kijk ik er gewoon strak langs.
Nee, je hebt het goed gezien. Enkel een vergelijking met de 6950. nVidia is nergens genoemd als het om performance ging. Indirect dan weer wel als het over de voedingsstekker ging en DP 2.1 vs 1.4 :+

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

dierkx36 schreef op vrijdag 4 november 2022 @ 00:14:
[...]


Toch denk ik dat je het aantal VR gebruikers onderschat ;)

Ja het is nu nog voornamelijk een club bloed fanatiekelingen, maar het is wel aan het groeien.
Kijk in ons eigen topic, of in het MSFS topic, X-Plane ...
(Simracer volg ik niet dus hoe het daar gaat...)
Of het DCS forum, MSFS forum (werk het rijtje maar af)

Het probleem is dat het nog niet toegankelijk is voor iedereen, zeker niet met de huidige prijzen (zowel VR headsets als GPU's die nodig hebt)

Maar ik ben het met je eens : het zou uitermate mooi zijn als met reviews VR een keer word meegenomen :
Fantastische prachtig dat je 200FPS met CODversieziekjenogweleenkeer haal, ga nu New York city in slecht weer maar eens renderen, met een approach op 04 op KLGA.
Of Syrie met alle templates.

Veel succes wil je halve refresh-rate halen met mooi beeld :+
Het idee van de benchmarks was van @ItalianStyle, maar ik zie dat inderdaad ook wel. Vooral nu de compute nu eindelijk bijna kan aanhaken bij wat er voor de huidige generatie brillen nodig is zonder al te grote consessies. Met een 4090 kan je met een Varjo Aero in DCS zonder supersampling nu 60 fps halen op de high preset. Hopelijk kan je met een 7900XTX straks vergelijkbare prestaties halen.

90 fps met 8100x6600 per oog1 en 50% supersampling zal in flightsims voorlopig nog toekomstmuziek blijven.

Over die uptake, ik zit zelf steeds weer tegen verkoop aan te hikken. De G2 is voor mij een beetje net-wel/net-niet ondergrens acceptabel qua beeld. Ik gebruik die bril nauwlijks, helemaal nu ik vaker onder linux DCS speel dan onder windows. Ik zie ook steevast een redelijk aantal VR brillen te koop staan in V&A. Er lijkt vooral een groep die-hard gebruikers te zijn die grotere compromissen willen aanvaarden om maar die 3D cockpit te kunnen ervaren. Voor mij speelt winnen ook nog een rol. Door de lage beeldkwaliteit van de huidige VR-brillen zitten die nu in de weg van de winst. Ik kan op een plat scherm meer details zien.

1 ik heb de berekeningen wat aangepast

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 07-10 21:55
ocf81 schreef op vrijdag 4 november 2022 @ 00:25:
[...]

Het idee van de benchmarks was van @ItalianStyle, maar ik zie dat inderdaad ook wel. Vooral nu de compute nu eindelijk bijna kan aanhaken bij wat er voor de huidige generatie brillen nodig is zonder al te grote consessies. Met een 4090 kan je met een Varjo Aero in DCS zonder supersampling nu 60 fps halen op de high preset. Hopelijk kan je met een 7900XTX straks vergelijkbare prestaties halen.

90 fps met 8100x6600 per oog* en 50% supersampling in flightsims zal voorlopig nog toekomstmuziek blijven.

Over die uptake, ik zit zelf steeds weer tegen verkoop aan te hikken. De G2 is voor mij een beetje net-wel/net-niet ondergrens acceptabel qua beeld. Ik gebruik die bril nauwlijks, helemaal nu ik vaker onder linux DCS speel dan onder windows. Ik zie ook steevast een redelijk aantal VR brillen te koop staan in V&A. Er lijkt vooral een groep die-hard gebruikers te zijn die grotere compromissen willen aanvaarden om maar die 3D cockpit te kunnen ervaren. Voor mij speelt winnen ook nog een rol. Door de lage beeldkwaliteit van de huidige VR-brillen zitten die nu in de weg van de winst. Ik kan op een plat scherm meer details zien.

*ik heb de berekeningen wat aangepast
Dennism schreef op vrijdag 4 november 2022 @ 00:21:
Kijkende naar de slides, heeft AMD geen enkele vergelijking gedaan met Nvidia kaarten, of kijk ik er gewoon strak langs.

@dierkx36 grappig dat het denk ik zo verschillend kan zijn per omgeving, als ik kijk in mijn omgeving waren er best veel (early adopter) gebruikers van VR apparatuur (van beatsaber tot HL Alyx e.d.) , maar ligt bij velen die headsets inmiddels meer stof te happen dan niet.
Zoals ik de fora lees lijken er alleen maar mensen bij te komen, maar dat kan mijn zonnebril zijn.

Op zich vind ik de compromise meevallen, 'k heb ook een G2 :
Is het de beste headset : nope
Moet je redelijk tweaken : om een fatsoenlijk beeld/fps verhouding te krijgen : jep
(Ik hou 45 fps aan, halve refreshrate)

Aan de andere kant :
Flightsims zonder VR : nope not gonna happen :N

Net als gisteren dingus helpen met de Apache, maar "effe" snel middels beeldscherm gedaan : zit me binnen 2 tellen te irriteren dat ik niks van vinden terwijl je met headset er zo naar kijkt

VR moet nog een hele stap maken, zowel kwa hardware als prijs.
Nu het gerucht gaat dat HP stopt met VR headset maken word je sneller aangewezen op een alternatief als een Varjo Aero : tik af 2400 guerie

Als een 7900 XTX nu binnen de 5/10 % kan komen van een 4090 opent het wel deuren.

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op donderdag 3 november 2022 @ 22:25:
Ik heb maandenlang gezegd dat AMD het moest verpesten met deze specificaties om dit niet te winnen. Tijdens de presentatie zag ik al dat ze het niet gingen winnen en na wat zoeken weet nu waarom...


[...]

https://www.anandtech.com...o-hit-shelves-in-december

Dus samengevat heeft de tweede SIMD32 geen eigen instruction cache of scheduling en is die compleet afhankelijk van bepaalde voorwaarden om gebruikt te kunnen worden. Hierdoor gaat occupency dalen en daarom haalt een chip met 140% extra ALU's waarschijnlijk dus maar iets van 70% extra performance eruit. De configuratie is dan eigenlijk niet 12288 of 10752 maar 6144 + 6144 of 5376 + 5376.

Het is nog steeds niet zo moeilijk zoals Nvidia het voor heeft gemaakt voor zichzelf, maar het is wel te weinig om de RTX4090 te verslaan. AMD claimt 1,7x en dat is net te weinig.
[Afbeelding]
Dit is wel jammer om te lezen en verklaart deels de mindere performance. Om het schalen van de SMs van de RTX 4090 tov de RTX 3080 Ti recht te trekken met de daadwerkelijke performance (1,8) moest ik een factor van 67% toepassen. Maar voor RX 7900 XTX moet ik aangenomen dezelfde 1,8 maar liefst 50% toepassen... :F ben benieuwd wat @Werelds hier van vindt.

Formule CU / SM schaling: ((nieuwe CU/SM / oude CU/SM) * (nieuwe frequentie / oude frequentie) -1)* factor + 1.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +9 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Ik moet zeggen dat ik toch een beetje teleurgesteld ben in de prestaties van de 7900XTX.
Ik heb een beetje zitten rekenen maar qua raster is hij gelijk aan de 4090 en soms 1-5% trager.
Maar qua ray tracing komt hij net onder of boven de 3090 Ti uit. Als het een nVidia titel is er onder. En AMD optimised titels zoals RE er boven. Echter is dat nog ver weg van wat de 4090 laat zien.

De RT prestaties zijn net zo veel gestegen als de Raster prestaties slechts 1,5-1,7x wat veel te weinig is gezien de achterstand die ze hadden. RT begint inmiddels toch wel belangrijk te worden vooral omdat 4K raster makkelijk met 120+ FPS kan en dan wordt het interessant om wel zaken zoals RT te gaan gebruiken. Echter is de performance hit bij de AMD kaarten dan zo heftig dat het niet de moeite waard is. De 4090 doet dat een stuk beter.

Ik had toch wel op 2-2,5x de RT prestaties gehoopt dat hadden ze ook eigenlijk wel nodig. nVidia maakt daar wel serieuze stappen waar je ziet dat RT prestaties meer omhoog gaan dan Raster. En op dit punt bij de 3e generatie kaarten van het merk die dat kunnen is dat ook logisch.

Qua performance per watt doet AMD het natuurlijk super netjes. Ook tov de 6900XT en 6950XT die 300-335 watt verbruiken. En zeker tov de 4090 met 450 qua raster prestaties.

De naamgeving vind ik ook niet zo goed. Waarom XTX terwijl je de 4090 niet eens in Raster kan verslaan en terwijl je weet dat er nog een 4090 Ti gaat komen.
Waarom hebben ze het top model niet gewoon XT genoemd en die 20GB versie 7900? Dat lijkt mij veel beter dan kan je die XTX nog achter de hand houden en de 7950 serie voor een refresh.

Daarnaast snap ik de prijs van de XT niet slechts 100 euro goedkoper. Maar wel 4GB minder geheugen, een 320 bit bus ipv 384. Volgens geruchten (die so far gelijk hadden). Is het TDP lager. Ik zie ook dat de cooler iets versimpelt is (ook een rare keuze kost extra geld om twee verschillende te maken). En zal de GPU mogelijk ook minder CU's hebben.
Qua prestaties is het verschil waarschijnlijk meer dan 10% eerder richting de 20% maar het prijs verschil is veel kleiner. Als je dan toch al 900-1000 dollar gaat uitgeven waarom die 10% extra dan ook niet even betalen. De 7900XTX zal een betere prijs prestatie verhouding hebben wat dan raar is. (tenzij de 7900XT wel helemaal enabled is maar dat kan ik mij bijna niet voorstellen).
Of de yields zijn gewoon zo goed dat bijna alle chips voor XTX door kunnen en willen ze die ook zo min mogelijk verkopen daar lijkt het eigenlijk een beetje op. En gezien de grote van de chip zullen de yields wel erg goed zijn.

Gezien de prijs van de kaart zijn de prijs/prestatie/watt verhoudingen uitstekend. En ook qua RT zit hij qua prijs prestatie nog wel goed. Qua raster steekt hij boven de 4090 uit. Dus overall is het niet slecht. Ik had alleen wel betere RT prestaties verwacht en eigenlijk ook iets betere raster prestaties gezien de 2.3GHz shader clocks en de nieuwe CU's. Daar hebben ze maar erg weinig voordeel van. (had ik ook wel verwacht gezien Turing waar nVidia iets soort gelijks deed. Qua gaming performance krijg je er weinig bij met een verdubbeling van het aantal FP32 units. Maar reken taken die op de GPU draaien zijn wel veel sneller).
Zoals DaniëlWW2 ook al aan gaf is het meer een 6144CU kaart in RDNA2 termen. En af en toe kan je iets van die extra FP32 units gebruiken.
Die zitten er denk ik vooral in vanwege professional workloads. En voor meer AI/Reken achtige algo's die games nog wel eens op GPU's draaien. Mogelijk helpt dit ook met XESS DP4A op RDNA3 (niet dat je dit wel gebruiken als je FSR 2.2 hebt maar toch op RDNA2 zijn de prestaties van XESS echt ruk kan je beter native draaien).

Ik denk wel dat die nieuwe AI engines in de toekomst leuke dingen kunnen gaan doen. En het is goed om te zien dat AMD van de platform integratie met Ryzen gebruik maakt door de GPU op Ryzen 7000 mee te laten helpen met Video Encoding.
Zodra consoles RDNA3 gebruiken is er ook wel een kans dat nieuwe games wat optimalisaties krijgen voor die extra FP32 performance maar daar heeft nVidia mogelijk ook baat bij. Wellicht kan AMD zelf nog wat driver truucjes uit gaan halen om wat meer workload naar die 2e unit te pushen maar dat wordt denk ik wel lastig.

Overall is het een nette upgrade maar ik denk dat ze de kans hebben laten liggen ze hadden nVidia deze generatie kunnen verslaan en dat gaan ze nu duidelijk niet doen. De 4090 Ti komt ook nog. De 4090 is best ver uitgeschakeld en nVidia zal rustig 600 watt gaan gebruiken om de kroon te houden.

AMD kan nog een 192MB 7950XTX uit gaan brengen met bv 450-500 watt power en een Liquid cooler maar dan vraag ik me nog steeds af of je die 4090 Ti gaat verslaan. Qua RT in ieder geval niet gezien de achterstand.


Edit:

Stukje van Anandtech over de CU's in RDNA3
The biggest impact is how AMD is organizing their ALUs. In short, AMD has doubled the number of ALUs (Stream Processors) within a CU, going from 64 ALUs in a single Dual Compute Unit to 128 inside the same unit. AMD is accomplishing this not by doubling up on the Dual Compute Units, but instead by giving the Dual Compute Units the ability to dual-issue instructions. In short, each SIMD lane can now execute up to two instructions per cycle.

But, as with all dual-issue configurations, there is a trade-off involved. The SIMDs can only issue a second instruction when AMD’s hardware and software can extract a second instruction from the current wavefront. This means that RDNA 3 is now explicitly reliant on extracting Instruction Level Parallelism (ILP) from wavefronts in order to hit maximum utilization. If the next instruction in a wavefront cannot be executed in parallel with the current instruction, then those additional ALUs will go unfilled.

This is a notable change because AMD developed RDNA (1) in part to get away from a reliance on ILP, which was identified as a weakness of GCN – which was why AMD’s real-world throughput was not as fast as their on-paper FLOPS numbers would indicated. So AMD has, in some respects, walked backwards on that change by re-introducing an ILP dependence.
Ik was hier al wel bang voor. Maar ik hoopte dat de geruchten over hogere clocks richting 3GHz waar waren. Echter zijn die gelijk gebleven aan Navi21 welke ook rond de 2200-2300 MHz haalt met 300-335 watt power. Met de hogere clocks zouden de prestaties beter geweest zijn. Echter vallen die clocks ook een beetje tegen gezien de nieuwe node. Ik ben wel benieuwd hoe de clock scaling is als je de GPU meer laat verbruiken en hoe de voltage scaling is.

Het is dat ik met de huidige euro/dollar koersen het veel te duur vind (1200-1300 euro voor een GPU gaat hem gewoon niet worden voor mij). Maar anders had ik graag een 7900XTX vergeleken met alle data die ik van de 6700XT,6800,6800XT,6900XT en 6960XT kaarten heb.

[ Voor 29% gewijzigd door Astennu op 04-11-2022 01:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 17:39
GN heeft een mooie hands-on online gezet, helaas toch geen dual slot design

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Dat was toch vanuit de presentatie al duidelijk? Zie o.a. deze slide:

Afbeeldingslocatie: https://www.techpowerup.com/img/9EHwNAnDM7OuFlzC.jpg

Kan trouwens niet zeggen dat ik op die slide het nieuwe design mooier vind om te zien.

[ Voor 8% gewijzigd door Dennism op 04-11-2022 09:41 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
DaniëlWW2 schreef op donderdag 3 november 2022 @ 22:25:
Ik heb maandenlang gezegd dat AMD het moest verpesten met deze specificaties om dit niet te winnen. Tijdens de presentatie zag ik al dat ze het niet gingen winnen en na wat zoeken weet nu waarom...


[...]

https://www.anandtech.com...o-hit-shelves-in-december

Dus samengevat heeft de tweede SIMD32 geen eigen instruction cache of scheduling en is die compleet afhankelijk van bepaalde voorwaarden om gebruikt te kunnen worden. Hierdoor gaat occupency dalen en daarom haalt een chip met 140% extra ALU's waarschijnlijk dus maar iets van 70% extra performance eruit. De configuratie is dan eigenlijk niet 12288 of 10752 maar 6144 + 6144 of 5376 + 5376.

Het is nog steeds niet zo moeilijk zoals Nvidia het voor heeft gemaakt voor zichzelf, maar het is wel te weinig om de RTX4090 te verslaan. AMD claimt 1,7x en dat is net te weinig.
[Afbeelding]
Heb jij toevallig al wat 'napkin' math gedaan over wat dit zou moeten betekenen voor de kleinere dies? Die zullen immers voor de meeste mensen het meest interessant zijn.

Acties:
  • +7 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
Ik begrijp niet dat iedereen toch zo op dat realtime raytracing blijft hameren. Ik snap dat het leuk is voor het maken van 3d animaties. Maar voor games? Het verschil tussen pre rendered lighting en realtime raytracing is al nauwelijks waarneembaar. En de rekenkracht die nodig is om realtime raytracing te verwezenlijken is absurd. En heeft tot gevolg dat het nauwelijks toepasbaar is in grafisch zware games. Het gevolg is dat het wordt toegepast in hele simpele games of dat de graphics zo ver naar beneden geschroefd worden dat je veel meer graphics pracht inlevert dan je ooit door Raytracing erbij krijgt. Waarom is iedereen toch zo gefocussed op dat marketing geneuzel van Nvidia? Ik begrijp het echt niet.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw, LTT is in ieder geval positief:

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 06-10 11:52
Seth_Chaos schreef op vrijdag 4 november 2022 @ 09:58:
Ik begrijp niet dat iedereen toch zo op dat realtime raytracing blijft hameren. Ik snap dat het leuk is voor het maken van 3d animaties. Maar voor games? Het verschil tussen pre rendered lighting en realtime raytracing is al nauwelijks waarneembaar. En de rekenkracht die nodig is om realtime raytracing te verwezenlijken is absurd. En heeft tot gevolg dat het nauwelijks toepasbaar is in grafisch zware games. Het gevolg is dat het wordt toegepast in hele simpele games of dat de graphics zo ver naar beneden geschroefd worden dat je veel meer graphics pracht inlevert dan je ooit door Raytracing erbij krijgt. Waarom is iedereen toch zo gefocussed op dat marketing geneuzel van Nvidia? Ik begrijp het echt niet.
Zwaar overtrokken idd. (Heb zelf een 3090)
Een flinke performance hit dat wel...maar om nou achterover geslagen te worden door alle pracht en praal...nee totaal niet.
Maar het wordt natuurlijk wel door iedere Tom dik en harry aangehaald tijdens het wie of wat dan beter zou moeten zijn gesprek.

Acties:
  • +1 Henk 'm!

  • Vagax
  • Registratie: November 2011
  • Laatst online: 10:06

Vagax

Hehe

Seth_Chaos schreef op vrijdag 4 november 2022 @ 09:58:
Ik begrijp niet dat iedereen toch zo op dat realtime raytracing blijft hameren. Ik snap dat het leuk is voor het maken van 3d animaties. Maar voor games? Het verschil tussen pre rendered lighting en realtime raytracing is al nauwelijks waarneembaar. En de rekenkracht die nodig is om realtime raytracing te verwezenlijken is absurd. En heeft tot gevolg dat het nauwelijks toepasbaar is in grafisch zware games. Het gevolg is dat het wordt toegepast in hele simpele games of dat de graphics zo ver naar beneden geschroefd worden dat je veel meer graphics pracht inlevert dan je ooit door Raytracing erbij krijgt. Waarom is iedereen toch zo gefocussed op dat marketing geneuzel van Nvidia? Ik begrijp het echt niet.
Zelfde bootje, heb vaak genoeg met ray tracing gespeeld maar vind het bijna nooit de performance loss waard dus RT interesseert me eigenlijk niet. Ben wel erg enthousiast voor de 7900 XTX :)

Als het de beste grafische kaart voor 1000 - 1200 euro zou worden zou dat mooi zijn

[ Voor 4% gewijzigd door Vagax op 04-11-2022 10:16 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Waar ik eigenlijk mee zit is het volgende:

N31 heeft dus 6144 + 6144 ALU's. Clockspeeds zijn aardig gelijk gebleven vergeleken met N21 en je hebt 20% extra volledig capabele ALU's. De ruwe inschatting zou dus zijn dat de extra 6144 ALU's voor 30-50% performance zorgen door het gebruik van VOPD of wave64. Dat is op zich niet slecht, het is beter dan wat Nvidia bereikt met hun FP+INT datapad, maar ik vraag me af wat er gebeurd was als AMD door was gegaan op de weg van RDNA1/2. Want nog steeds is het verre van goede utilisatie wat RDNA1/2 juist zo goed deden.

Stel dat AMD 60% extra's ALU's had toegevoegd + scheduling, caches, in eigen WGP's met eigen Shader Array's etc. Dan zat je op 8192. Daar vraag ik me al bij af of het werkelijk zoveel meer oppervlakte of energieverbruik had opgeleverd als wat ze nu hebben? Een (te) versimpelde perf/watt vergelijking doortrekking suggereert van niet. Ik wil dus wel eens zien waarom AMD hiervoor gekozen heeft. Want ze zijn op het moment heel, heel erg afhankelijk van hun scheduling geworden om hun GPU gaande te houden.
Dennism schreef op vrijdag 4 november 2022 @ 09:40:
[...]


Heb jij toevallig al wat 'napkin' math gedaan over wat dit zou moeten betekenen voor de kleinere dies? Die zullen immers voor de meeste mensen het meest interessant zijn.
N32 is dan 3840 + 3840. Uitgaande van wederom 2300MHz en die tweede set die wederom 30-50% extra doet, tja RX6950XT niveau met betere RT. Ik denk dat clockspeed verbetering hier erg belangrijk gaat zijn want als deze wel richting de 3000MHz gaat, dan moet je over de RTX3090Ti gaan en dan heb je een RTX4080 tegenhanger. Want ik zie de RX7900XT daar al weinig problemen mee hebben. Ik zie beide RX7900 series SKU's in dat enorme gat tussen de RTX4080 en RTX4090 zitten.

Verder heeft N32 dan 60 RA units die tot 50% beter per unit zouden moeten presteren. En in tegenstelling tot Nvidia hun standaard 2x claim die altijd volslagen onzin blijkt te zijn, lijkt AMD er wel enig bewijs voor gegeven te hebben. Zeker in combinatie met clock speed zou dit nog redelijk kunnen zijn. Niet zozeer voor 4K, maar wel 1440p.

N33 is dan 2048 + 2048. Tja dat kan wel eens rond RX6800 gaan uitkomen. Hier is het gewoon belangrijk dat die GPU niet over de $400 gaat.


Ik vind het gewoon jammer dat AMD wederom niet dat laatste beetje extra heeft gedaan om eens echt te winnen. Ik mist bijvoorbeeld ook een "RX7970XTX Ultra 3D" met een 450W TDP rating, 3D stacked L3 cache en zeer hoog clocken. Ik heb namelijk niet de indruk dat AMD nu erg ver is gegaan qua verbruik of clockspeeds met 2000MHz/300W en 2300MHz/355W.

Het heeft ook een enorm voordeel. AMD heeft Nvidia hun wereldvreemde prijsstelling namelijk in een keer gesloopt. De RTX4090 blijft wel staan waar die staat, maar de rest van de RTX40 stack gaat echt niet meer gebeuren met de prijzen die Nvidia voor ogen had. Je kan denk ik wel aannemen dat met gelijke aantal ALU's, AMD alsnog sneller is. Dat is problematisch voor Nvidia omdat we allang de specificaties van de GPU's weten. AD103 komt net voorbij GA102, AD104 zit rond GA102 en AD106/107 zijn erg klein. AMD kan N32 (7680) tegen zowel AD103 (10240) als AD104 (7680) zetten en N33(4096) krijgt het denk ik ook niet zo moeilijk met AD106(4608).

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 12:00

Jumpiefox

Hoi ?

Raytracing is gewoon nog steeds niet speelbaar voor mij in iedergeval...volgens de bencehs ook niet met een 4090 tenzij je DLSS volledig open gooit. Tjah, dan speel ik liever zonder RT. Duurt nog wel een generatie of twee voordat we de brute kracht daarvoor hebben. Ik wil gewoon native performance met zo min mogelijk upscaling truckjes om mijn fps target te halen. DLSS gebruik ik bijvoorbeeld alleen op "quality". Alles daarboven en het beeld is duidelijk minder prettig om naar te kijken.

The first casualty in war is always the truth...


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Qua RT gaat het er ook om wat je aanzet.
Het probleem is dat met name Nvidia zo belachelijk veel nadruk legt op shadows, reflections en zelfs path tracing. Dat is nog jaren en jaren van ons verwijderd. Wat wel kan is RT accelerated global illumination en laat dat nu meteen ook de meeste "wow" geven voor gamers.

Bijvoorbeeld dus dit. Dit is het minst intensieve deel van RT en dit heeft wel meerwaarde.


edit: Let op, ik zeg accelerated. Het gaat er niet eens om dat RT alle lichteffecten moet doen. Nee het gaat erom dat RT + shaders gezamenlijk voor betere lichteffecten kunnen zorgen met relatief minimale impact. Meer kan huidige RT hardware ook gewoon niet zonder dat je framerate instort.

[ Voor 21% gewijzigd door DaniëlWW2 op 04-11-2022 10:42 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@ocf81

DCS is niet bepaald efficient geprogrammeerd en mijn ervaring is ook dat VR flight simming lastiger is hoe groter de afstanden zijn. Ik zou dan ook eerder IL-2 Sturmovik aanraden en dan met name de WW I variant, waar alles lekker kort op elkaar zit. Je kunt IL-2 ook redelijk goed tunen, door bijvoorbeeld OpenComposite te gebruiken, wat behoorlijk scheelt qua overhead.

Dan nog spelen mensen normaal met tweaks/hacks waardoor dingen beter zichtbaar zijn op grotere afstanden.

@Astennu

Het was mijn verwachting al dat de geknipte kaarten relatief onaantrekkelijk zouden worden, want door de kleine GCD zal de yield van bijna perfecte chips bij Navi 31 heel erg hoog zijn. Er is dus weinig reden om massaal geknipte kaarten te verkopen.

Dat de geknipte 3080 en 3060 Ti zo aantrekkelijk zijn en relatief goedkoop waren (in elk geval op MSRP), was volgens mij een direct gevolg van de grote aantallen kapotte GA102 en GA104 chips. Bij de 6800 XT zag je al dat er eigenlijk teveel vraag naar was en dat was nog met een relatief grote monoliet.

@Seth_Chaos

Ik vind het ook wel prima om een kaart te hebben zonder echte RT. Sowieso ga ik voor de wat lagere regionen en daar zal het ook bij Nvidia zo zijn dat RT te traag wordt.

Zolang de prijs maar goed is.

[ Voor 18% gewijzigd door Ludewig op 04-11-2022 10:45 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:12
Nou, ik ben maar eens gaan lezen en mijn samenvatting zou zijn:
  • Adored :+ (alweer)
  • Hypetrain :+ (alweer)
  • RTX 4080 :+ (prijs/performance)
  • Prima kaarten als je een 'legacy' gamer bent
Verder zijn alle nieuwe kaarten gewoon altijd ruk geprijsd, puur door de koers. Stel we hadden de koers van 2008 gehad (1 euro = 1.50 USD) dan zou je dus een 7900 XTX hebben kunnen kopen voor 666 euro exclusief BTW of 805 euro inclusief BTW via de AMD store en de 4090 zou je dan bij NBB kunnen kopen voor 1066 euro exclusief BTW of 1289 euro inclusief BTW.

Dan hadden we hier hele andere discussies gevoerd. Net iets meer dan 800 euro of bijna 1300 euro heeft een behoorlijke psychische impact qua pricing en dus qua kopersgedrag, want het verschil tussen deze bedragen voelt dan direct groter. Nu is alles zo duur dat mensen gigantische bedragen neertellen om maar het beste te hebben, want het 1 na beste is ook al duur.

[ Voor 7% gewijzigd door Paprika op 04-11-2022 10:56 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 10:30:

Ik vind het gewoon jammer dat AMD wederom niet dat laatste beetje extra heeft gedaan om eens echt te winnen. Ik mist bijvoorbeeld ook een "RX7970XTX Ultra 3D" met een 450W TDP rating, 3D stacked L3 cache en zeer hoog clocken. Ik heb namelijk niet de indruk dat AMD nu erg ver is gegaan qua verbruik of clockspeeds met 2000MHz/300W en 2300MHz/355W.
Ik denk dat AMD bij de top het grote probleem heeft dat ze voor veel professionals geen optie zijn. Daardoor zullen ze toch niet de verkoop-aantallen gaan halen van Nvidia. Daardoor is er een grote kans dat ze de ontwikkelkosten er niet uithalen, dus zou het dan een erg dure PR-stunt worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
@DaniëlWW2

Vergeleken met de geruchten toch wel wat tegenvallend dan als N32 +-6950XT / RTX3090 Ti gaat zijn, terwijl eigenlijk verwacht werd in de geruchten dat N33 6900XT performance zou gaan bieden voor +-$500.

Als dat inderdaad 6800 performance gaat worden zou $400 inderdaad wel het maximum zijn denk ik ja, anders daalt de prijs wel erg weinig gen on gen, al zijn we dat natuurlijk wel redelijk gewend nu in het budget segment.
Ik vind het gewoon jammer dat AMD wederom niet dat laatste beetje extra heeft gedaan om eens echt te winnen. Ik mist bijvoorbeeld ook een "RX7970XTX Ultra 3D" met een 450W TDP rating, 3D stacked L3 cache en zeer hoog clocken. Ik heb namelijk niet de indruk dat AMD nu erg ver is gegaan qua verbruik of clockspeeds met 2000MHz/300W en 2300MHz/355W.
Die zullen ze wel in de zak houden voor de RTX 4090 Ti / Titan whatever Nvidia het gaat noemen. MLID had het daar ook al over. Clockspeed en Infinity cache en sneller geheugen zal dan voor AMD de sleutel moeten zijn, want volgens mij is de 7900XTX de full fat die en hebben ze dus geen extra CU's meer achter de hand toch? Nvidia heeft dan nog iets van 10% aan CU's om daar tegenover te zetten, maar wel minder ruimte om hoger te klokken of sneller geheugen te gebruiken verwacht ik.
Het heeft ook een enorm voordeel. AMD heeft Nvidia hun wereldvreemde prijsstelling namelijk in een keer gesloopt. De RTX4090 blijft wel staan waar die staat, maar de rest van de RTX40 stack gaat echt niet meer gebeuren met de prijzen die Nvidia voor ogen had.
Dat vraag ik me toch wel af, ik zie de 4080 16GB mogelijk wel 'gewoon' launchen @ $1199, in ieder geval tot AMD's kaarten ruim verkrijgbaar zijn en de reviews uitwijzen of de 7900XT / XTX de 4080 al dan niet kunnen verslaan in workloads die niet enkel raster betreffen.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dennism schreef op vrijdag 4 november 2022 @ 11:01:
[...]

Die zullen ze wel in de zak houden voor de RTX 4090 Ti / Titan whatever Nvidia het gaat noemen. MLID had het daar ook al over. Clockspeed en Infinity cache en sneller geheugen zal dan voor AMD de sleutel moeten zijn, want volgens mij is de 7900XTX de full fat die en hebben ze dus geen extra CU's meer achter de hand toch? Nvidia heeft dan nog iets van 10% aan CU's om daar tegenover te zetten, maar wel minder ruimte om hoger te klokken of sneller geheugen te gebruiken verwacht ik.
AMD heeft in dat geval nog ruimte voor een 3-pin PCB met >= 400 watt die ze als RX 7950 XT in de markt kunnen zetten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Ludewig schreef op vrijdag 4 november 2022 @ 10:52:
[...]


Ik denk dat AMD bij de top het grote probleem heeft dat ze voor veel professionals geen optie zijn. Daardoor zullen ze toch niet de verkoop-aantallen gaan halen van Nvidia. Daardoor is er een grote kans dat ze de ontwikkelkosten er niet uithalen, dus zou het dan een erg dure PR-stunt worden.
Als ze een RTX 4090 Ti competitor hebben en die enkel vermarkten als gaming Halo product en daarbij genoeg volume hebben hoeft dat geen probleem te zijn. Een Halo Sku zal immers niet heel veel extra ontwikkelkosten hebben zolang deze geen andere die gebruikt.

Daarnaast Halo Sku's verdienen de ontwikkelkosten lang niet altijd zelf terug, maar als je het goed vermarkt gebeurt dat wel omdat die Halo performance crown ervoor zorgt dat je lager segmenteerde kaarten beter verkopen en je daar op volume geld gaat binnen harken.

Punt is dan wel dat je er (vrijwel) zeker van moet zijn dan je Nvidia gaat verslaan 'accross the board' (wat zeker op RT gebied lastig lijkt) en je moet het volume hebben om de mindshare die je wint met het Halo product uit te buiten.

Gebrek aan professionele support is daarnaast zeker in een issue waardoor AMD voor inderdaad voor een deel van de prosumers en professionals niet als optie wordt gezien. Maar ik zie dat niet perse als struikelblok om geen gaming Halo Sku uit te brengen.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Jumpiefox schreef op vrijdag 4 november 2022 @ 10:31:
Raytracing is gewoon nog steeds niet speelbaar voor mij in iedergeval...volgens de bencehs ook niet met een 4090 tenzij je DLSS volledig open gooit. Tjah, dan speel ik liever zonder RT. Duurt nog wel een generatie of twee voordat we de brute kracht daarvoor hebben. Ik wil gewoon native performance met zo min mogelijk upscaling truckjes om mijn fps target te halen. DLSS gebruik ik bijvoorbeeld alleen op "quality". Alles daarboven en het beeld is duidelijk minder prettig om naar te kijken.
Deze ervaring heb ik zelf niet, DLSS quality, dus kwart open, maakt RT speelbaar op 4k en in de meeste games is RT speelbaar zonder DLSS op 4k met 70+ fps, laat staan met DLSS op quality. 1 game is niet speelbaar zonder DLSS op quality en dat is Cyberpunkt. Maar speelbaar is ook een persoonlijke mening. Op 4k hoef ik niet een vaste 120fps te hebben, zo lang de FPS niet te ver inkakt. RT word nu ook speelbaar op de RX 7900XTX voor 600 euro minder dan de concurrent. Als je naar de huidige prijzen van AIB partners kijkt kan het nog wel eens meer uitlopen qua prijs.

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Excuses voor wat late reacties, ben een paar dagen in het buitenland geweest voor werk en het werk gaat nu gewoon door, dus ik heb nog geen tijd gehad alles te lezen en verwerken ;)
Sissors schreef op maandag 31 oktober 2022 @ 17:03:
[...]

Wat we daar bedoelde was zaken als DLSS, wat uiteraard absoluut niet hetzelfde is als de handel bruteforcen. Gewoon alles bruteforce renderen, of nog erger, bruteforce raytracen, zie ik niet als realistisch toekomst perspectief voor midrange.
Daadwerkelijk renderen is echter niet bruteforce, zelfs niet voor RT. Er worden nu al vele optimalisaties toegepast, wat betekent dat het geen bruteforce is. Wiskundig gezien is het dat als je élke berekening 100% uit voert - wat niet zo is. Enkel culling zorgt er al voor dat het al lang geen bruteforce meer is.

Dingen als DLSS zijn echter erger dan bruteforce, want dat zijn benaderingen. Wat daar uit komt zijn geen exacte uitkomsten, maar benaderingen van wat het moet zijn. Het is alsof je voor y = 1.62x x niet in vult, maar een geplotte grafiek hebt hebt waar je "ongeveer" de juiste uitkomst probeert te lezen. Voor x = 50 of 100 zul je dat perfect af kunnen lezen, maar voor bijvoorbeeld x = 74 ga je dat niet correct kunnen zien. De aanpak zelf is geen bruteforce, maar het gebruik van die aanpak om je beperkingen te omzeilen is dat wel.

Ik ben het met je eens dat op dit moment zo'n aanpak de voorkeur heeft voor de midrange omdat die correct berekenen niet altijd kunnen behapstukken...echter is de midrange ook juist waar met name Nvidia tekort schiet, omdat ze daar simpelweg nauwelijks aanbod hebben. De gigantische groep mensen die een 1060 kochten gaan nu (6 jaar na dato!) pas mondjesmaat over naar een 3060, omdat dat kreng nu pas enigszins betaalbaar begint te worden. Een Ada-equivalent gaan we minstens een jaar niet zien, als hij er überhaupt al komt. En het zou me niets verbazen als FG dan ook op half-rate werkt (dus om de twee frames ipv om het frame). Diezelfde groep mensen koopt echter ook de goedkopere monitors met hogere resoluties en/of refreshrates en zou dus veel meer baat hebben bij dit soort technieken.

DLSS, FG, FSR en XeSS zijn lapmiddelen, geen verbeteringen in rendersnelheid en -kwaliteit, wat het uiteindelijke doel hoort te zijn van graphics. Nvidia's micro-meshes en opacity micro-maps zijn wel verbeteringen (RT in dit geval). Dát is vooruitgang.

En tot overmaat van ramp schaalt Nvidia hun architectuur (die al inefficiënt is op meerdere vlakken) dan ook gewoon op om op die manier tot de benodigde performance te komen voor al deze benaderingen...en tegelijkertijd een hoop transistors verspilt. Dat is wat ik bedoelde: de vooruitgang komt puur door er lomp meer units tegenaan te gooien. Met alle gevolgen van dien.


Niet zo lastig, simpel rekenwerk :p

Ik zei ook het volgende:
Werelds schreef op zondag 30 oktober 2022 @ 14:20:
AMD heeft ongeveer even veel transistors gebruikt voor Navi 21 als Nvidia voor GA102, maar het grote verschil is dat AMD's transistors voor een groot deel in de gigantische caches zitten. Die caches hoefden ze sowieso al niet groter te maken voor RDNA3 - maar volgens Angstronomics worden ze zelfs iets kleiner. Dus waar AD102 ~2,7x zo veel transistors als GA102 heeft, zal dat voor AMD vrijwel zeker niet het geval zijn, omdat bij AMD de helft van de RDNA2 die even groot blijft als voorheen (en gesplitst wordt in losse, kleinere dies). Sterker nog, AMD zou zelfs onder de 50 miljard kunnen blijven, maar ze zullen vast meer transistors spenderen aan RT en dergelijke.
Zat ik ook wel redelijk goed mee ;)


computerjunky schreef op donderdag 3 november 2022 @ 21:25:
Rofl ze pullen gewoon een 4080 12 gb met de 7900XT vs XTX... het is niet dezelfde die en is dus trager en heeft mider geheugen. Net als de 4080 12gb... welkom i de grot van Nvidia...
Ik heb dit inmiddels op meerdere plekken gezien en nee, dit is je reinste onzin.

Met de 4080 12GB en 4080 16GB wekte de naamgeving de indruk dat het enige verschil het geheugen was. Het zijn twee compleet verschillende dies (geen cuts, maar echt een andere die), dus dat is simpelweg niet waar.

Tussen XT en XTX zie je aan de naam al meteen dat het niet dezelfde configuratie is. Wel dezelfde die, maar de XT krijgt een geknepen variant. Dat is niet anders dan een 3090 en 3090 Ti. En wat mij betreft is het ook nog steeds beter dan de 980/980 Ti, 1080/1080 Ti en 2080(S)/2080 Ti, waarbij de non-Ti's een volstrekt andere die hebben, hoewel de naamgeving de indruk wekt dat ze vergelijkbaar zijn. Als je hier een probleem mee hebt, dan heb je vast ook problemen met al die non-Ti vs Ti's, 2070 (GA106) vs 2070 Super (GA104), enzovoort.

De reden dat het geen 7950 is en dat we die hoogstwaarschijnlijk ook niet zullen zien, alsmede een 7850 en 7750 is omdat we die 10 jaar geleden al hadden :)


sunsmountain schreef op vrijdag 4 november 2022 @ 00:48:
[...]

Dit is wel jammer om te lezen en verklaart deels de mindere performance. Om het schalen van de SMs van de RTX 4090 tov de RTX 3080 Ti recht te trekken met de daadwerkelijke performance (1,8) moest ik een factor van 67% toepassen. Maar voor RX 7900 XTX moet ik aangenomen dezelfde 1,8 maar liefst 50% toepassen... :F ben benieuwd wat @Werelds hier van vindt.

Formule CU / SM schaling: ((nieuwe CU/SM / oude CU/SM) * (nieuwe frequentie / oude frequentie) -1)* factor + 1.
Je formule werkt toevallig, maar dat is omdat je de formule gemaakt hebt om bij de resultaten te passen.

Ada's schaling probleem is niet zo simpel als jij het stelt, want met het aantal SM's heb je ook een hoger aantal RT cores. Dat schaalt echter beter dan raster. Hun raster probleem is ook op te lossen met betere scheduling dus in theorie zou Nvidia een magische driver kunnen maken waarmee dat ding ineens een stuk beter schaalt. Gaat niet gebeuren (te complex), maar het is in theorie mogelijk :p

AMD's schaling nu is ook een ander probleem dan Nvidia heeft, hoewel het vergelijkbaar lijkt te zijn. Ik heb nog niet hun claims af kunnen zetten tegenover oude resultaten om een schatting te maken (doe ik over het weekend wel), maar ik ben wel wat teleurgesteld. Dat gezegd hebbende: AMD's aanpak is sowieso efficiënter dan Nvidia's. Het eenvoudigste voorbeeld waar dit bij Nvidia volledig mis gaat en AMD juist 100% rendement haalt, is branching. Als jij een shader hebt met twee paden, kan AMD die twee paden nu in één cycle parallel uitvoeren - en de verdeling maakt daarbij niet eens iets uit in wave32, want ze kunnen in beide paden tot 32 breed gaan. Bij Nvidia gaat dat enkel gelijktijdig (concurrent). Neem een "nette" split van 16/16: AMD zet SIMD1 aan de ene branch, SIMD2 aan de ander, klaar. 100% winst, hele wavefront nog steeds in 1 clock gescheduled - zelfs het datatype maakt geen reet uit (met andere woorden, Nvidia's 36 INT voor elke 100 FP32 kan AMD sneller doen ;)). Nvidia heeft sowieso 2 clocks nodig: eerst het ene pad aan de "pure" kant, dan het andere pad aan de "mixed" kant. Heb je aan één kant INT32 komt dat ook uit; maar heb je aan beide kanten INT32, dan hebben ze 4 clocks nodig om het te schedulen.

AMD doet ook niet alsof ze dit kunnen garanderen. De 7900 XTX heeft volgens hun specificaties 6144 ALU's, ze zijn daar gewoon eerlijk over. De extra 6144 ALU's zijn wel aanwezig, maar kunnen niet gegarandeerd gebruikt worden, dus dat claimen ze ook niet. In tegenstelling tot de groene concurrent.




Ik ben er verder nog niet helemaal over uit wat ik er van vind. De geclaimde performance moet ik eerst eens in Excel gaan gooien en af zetten tegenover de veranderingen in opzet, hoewel ik intuïtief zeg dat ze ongeveer op 4090 niveau uit komen qua raster. RT zal nog veel meer van de titel af hangen, maar m'n intuïtie zegt daar in het ergste geval ~3090 Ti, in sommige titels ergens halverwege richting de 4090 maar absoluut niet op 4090 niveau. Het ligt allemaal wel ongeveer waar ik het verwacht had, wellicht iets eronder omdat ik had gehoopt dat AMD iets meer zou kunnen met de extra SIMD's dan nu het geval lijkt te zijn.

Dat gezegd hebbende, zijn de gekozen resultaten ook wel apart. Of ze cherrypicked zijn qua resultaat weet ik niet, maar de games zelf zijn dat absoluut niet, sommige van die titels doen ze het juist niet goed in vergelijking met de concurrentie. Foutje van de marketing afdeling, of misschien willen ze juist laten ze zien dat ze zelfs in die titels flink vooruit gaan?

Aan de andere kant: 2x8-pin, 355W, een vrij normaal formaat kaart en $999 voor de top SKU. Helaas betekent dat voor ons in Europa nog steeds dik 4 cijfers, maar €1250 tegenover €2000 na conversie + BTW is gewoon een heel groot verschil. En in de praktijk zie je dat de 4090 meer dan dat kost. Ik weet niet of dat voor AMD ook gaat gelden, 2 jaar geleden ging alles van Nvidia veel meer de lucht in.

Voor mij persoonlijk ziet het er echter wel naar uit dat ik eindelijk weer eens terug naar AMD ga voor m'n GPU :+

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 4 november 2022 @ 11:01:
@DaniëlWW2

Vergeleken met de geruchten toch wel wat tegenvallend dan als N32 +-6950XT / RTX3090 Ti gaat zijn, terwijl eigenlijk verwacht werd in de geruchten dat N33 6900XT performance zou gaan bieden voor +-$500.

Als dat inderdaad 6800 performance gaat worden zou $400 inderdaad wel het maximum zijn denk ik ja, anders daalt de prijs wel erg weinig gen on gen, al zijn we dat natuurlijk wel redelijk gewend nu in het budget segment.
Tja werkelijk niemand zag aankomen dat de helft van de ALU's alleen werken als de SIMD scheduling unit een andere instructie uit een wave32 trekt en die toepast voor de tweede set ALU's. Dit of er is een wave64. Dat is erg gevoelig en waarschijnlijk ook de reden waarom AMD vraag blijft. Mijn inschatting daarvoor is dat het 30-50% van de cycles werkt. Niet slecht maar ook niet geweldig.
Die zullen ze wel in de zak houden voor de RTX 4090 Ti / Titan whatever Nvidia het gaat noemen. MLID had het daar ook al over. Clockspeed en Infinity cache en sneller geheugen zal dan voor AMD de sleutel moeten zijn, want volgens mij is de 7900XTX de full fat die en hebben ze dus geen extra CU's meer achter de hand toch? Nvidia heeft dan nog iets van 10% aan CU's om daar tegenover te zetten, maar wel minder ruimte om hoger te klokken of sneller geheugen te gebruiken verwacht ik.
MILD is zoals altijd onzin.
Maar dit is de volle N31 dus sneller haal je voornamelijk uit clock speeds. Voor Nvidia geld alleen dat hun cut down RTX4090 al enorme problemen met occupency heeft. De volle chip gaat niet zomaar 12,5% sneller zijn terwijl die wel nog wel 12,5% extra ALU's heeft.
Dat vraag ik me toch wel af, ik zie de 4080 16GB mogelijk wel 'gewoon' launchen @ $1199, in ieder geval tot AMD's kaarten ruim verkrijgbaar zijn en de reviews uitwijzen of de 7900XT / XTX de 4080 al dan niet kunnen verslaan in workloads die niet enkel raster betreffen.
En dan komt AMD een paar weken later met een videokaart die de RTX4080 afmaakt en dan gaat de RTX4080 wel in prijs omlaag. En als ze het niet doen, tja dan verkoopt AMD misschien eens hun videokaarten. Zou ook wel eens leuk zijn. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 11:25:
[...]

En dan komt AMD een paar weken later met een videokaart die de RTX4080 afmaakt en dan gaat de RTX4080 wel in prijs omlaag. En als ze het niet doen, tja dan verkoopt AMD misschien eens hun videokaarten. Zou ook wel eens leuk zijn. :z
Op zich kan er nog wat van de prijs afgehaald worden, maar als de RTX 4080 betere RT-performance biedt dan de RX 7900 XTX dan denk ik dat Nvidia niet onder AMD gaat zitten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
computerjunky schreef op donderdag 3 november 2022 @ 21:25:
Rofl ze pullen gewoon een 4080 12 gb met de 7900XT vs XTX... het is niet dezelfde die en is dus trager en heeft mider geheugen. Net als de 4080 12gb... welkom i de grot van Nvidia...
De 7900XT is gewoon een N31 maar dan met een MCD minder en 12 CU's uitgeschakeld.
Dus totals niet heselfde als wat nVidia doet.

Ze prijzen hem alleen wel ongunstig waarschijnlijk omdat de yields zo goed zijn dat ze bijna geen Die's zullen hebben die niet als XTX door kunnen. Dit was bij de N22 chops (6700XT ook zo).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 11:25:


En dan komt AMD een paar weken later met een videokaart die de RTX4080 afmaakt en dan gaat de RTX4080 wel in prijs omlaag. En als ze het niet doen, tja dan verkoopt AMD misschien eens hun videokaarten. Zou ook wel eens leuk zijn. :z
Dat is natuurlijk wel de verwachting, maar Nvidia heeft dan wel weer een berg kaarten verkocht die AMD niet meer zal verkopen aan die potentiële klanten. Juist daarom zal die maand die Nvidia straks heeft mogelijk best pijnlijk kunnen zijn als ze volume hebben. En waar Nvidia op tijd lijkt te zijn voor het volledige Amerikaanse holiday season, lijkt AMD weer een deel te missen.

Al met al had ik, zeker als aandeelhouder, meer verwacht van deze launch. Gelukkig zit AMD long term waarschijnlijk wel goed, en heb ik, ondanks dat ik maar een relatief klein portfolio heb nog altijd een zeer ruime marge. Ik zou toch graag eens zien dat AMD een launch eens echt goed doet, en ook echt de verwachtingen eens waarmaakt in plaats van altijd al dan niet bedoeld zoveel hype te creeren die achteraf altijd voor een wat 'down' stemming zorgt bij de Enthousiasts en ook de rest van de markt mogelijk niet echt lijkt te bereiken. Ik moet echt nog maar zien of dit Nvidia's mindshare echt gaat aanvallen. Overtuigd ben ik in ieder geval nog niet vanuit zakelijk oogpunt.

Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 07:01
Ja, daar baal ik ook van, die 6 weken, waarschijnlijk gaat het niet lukken een kaart te bemachtigen voor de feestdagen.

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • Vagax
  • Registratie: November 2011
  • Laatst online: 10:06

Vagax

Hehe

UniMatrix schreef op vrijdag 4 november 2022 @ 11:47:
Ja, daar baal ik ook van, die 6 weken, waarschijnlijk gaat het niet lukken een kaart te bemachtigen voor de feestdagen.
Even de benchmarks afwachten maar anders ben ik ook wel in de markt voor de 7900 XTX maar tot zo ver ik weet doen webshops niet aan pre-orders of iets dergelijks toch? Het is gewoon dat ze 'plots' in de verkoop gaan en hopen dat ze nog iets over hebben.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Vagax schreef op vrijdag 4 november 2022 @ 11:56:
[...]


Even de benchmarks afwachten maar anders ben ik ook wel in de markt voor de 7900 XTX maar tot zo ver ik weet doen webshops niet aan pre-orders of iets dergelijks toch? Het is gewoon dat ze 'plots' in de verkoop gaan en hopen dat ze nog iets over hebben.
Plots is het nooit echt, op release day kan je er eigenlijk altijd vanuit gaan dat 'start of sale' 15:00 onze tijd is, tenzij release is in die paar weken dat wij al veranderd zijn van zomer naar wintertijd of omgekeerd en de US nog niet. Pre-Orders zie je inderdaad echter niet vaak nee. Normaliter is het om 14:xx klaar gaan zitten en snel handelen bij launch, en daarbij, afhankelijk van de drukte, hopen op wat geluk :)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Ik heb het gevoel dat er hier teveel aan die 1.7x perf winst wordt vastgeklamd en dat je daardoor wel eens teleurgesteld zou kunnen worden als straks de reviews uitkomen.

Amd heeft het zelf over 1.5x / up to 1.7x perf verbetering. In de games die ze lieten zien (waarvan we uit kunnen gaan dat die cherry picked zijn) was er in 4 van de 6 een 1.5x verbetering, een keer 1.6x perf increase en bij een game was dat 1.7x.

De enige game waar die 1.7x gehaald wordt is cyberpunk, maar dan zonder RT. Ik vind het opvallend dat ze voor die setting kiezen, want meestal verwacht je gewoon dat de max settings gekozen worden bij het tonen van dit soort resultaten. Vaak is dit wel een aanwijzing dat de gekozen game/setting cherry picked is om een zo goed mogelijk resultaat te kunnen tonen.

Ik zou ook zweren dat ik gisteravond in het Anandtech artikel heb gelezen dat Amd gezegd zou hebben dat ze met de 7900xtx concurreren met de 4080 en niet de 4090. Ik kan het nu alleen niet meer terugvinden in het artikel.

Maar ik verwacht dat we straks in de reviews over het algemeen een 1.5x verbetering gaan zien, met in enkele gevallen een uitschieter naar 1.7x.

Volgens mij zit je dan ergens tussen een 4080 en 4090 in qua raster perf. en dus niet op 4090 niveau. De reviews zullen uitwijzen of ze dichter op de 4080 zitten of juist dichter bij de 4090.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgensmij heeft AMD de verwachtingen niet zelf torenhoogopgeschroefd maar de online community.

Wat komt er dan niet overeen met wat ze gezegd hebben ?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +3 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 07:01
Techpowerup is ook aan het rekenen gegaan met de performance claims van AMD:

https://www.techpowerup.c...king-distance-of-rtx-4090

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op vrijdag 4 november 2022 @ 11:19:
Dingen als DLSS zijn echter erger dan bruteforce, want dat zijn benaderingen. Wat daar uit komt zijn geen exacte uitkomsten, maar benaderingen van wat het moet zijn.
Maar native rasterization is net zo goed een benadering. Ik wordt eerlijk gezegd een beetje moe van deze valse tegenstelling die ik steeds weer zie langskomen, waar wordt gedaan alsof native rendering hetzelfde resultaat geeft als je een video zou maken van de werkelijkheid op dezelfde resolutie. Dat is gewoon niet zo. Juist nu we RT als optie hebben, zou deze mythe toch wel eens mogen sterven, want RT toont aan dat bepaalde dingen in native rasterization gewoon slechts half-gare benaderingen zijn van de werkelijkheid (zoals reflecties).

Daarnaast is temporal upscaling ook niet bedoeld als een manier om alles mooier te maken, maar om binnen een frametime-budget een beter resultaat te halen, dan door het (niet) gebruik van andere methodes om de performance te verbeteren. Als je bij de gewenste FPS betere visuele resultaten haalt met DLSS quality dan door bijvoorbeeld de antialiasing omlaag te schroeven, dan is DLSS een nuttige tool om betere visuele resultaten te halen bij een bepaalde FPS.
Dat gezegd hebbende, zijn de gekozen resultaten ook wel apart. Of ze cherrypicked zijn qua resultaat weet ik niet, maar de games zelf zijn dat absoluut niet, sommige van die titels doen ze het juist niet goed in vergelijking met de concurrentie. Foutje van de marketing afdeling, of misschien willen ze juist laten ze zien dat ze zelfs in die titels flink vooruit gaan?
Het kan ook best een slimme strategie zijn. Ik zou zelf liever iets minder beloven, zodat de reviews vlak voor release allemaal positief nieuws brengen, dat het beter is dan verwacht. Dat lijkt me handiger dan dat je massaal negatief nieuws krijgt, vlak voordat de kaart in de winkel ligt.

[ Voor 13% gewijzigd door Ludewig op 04-11-2022 12:18 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Help!!!! schreef op vrijdag 4 november 2022 @ 12:11:
Volgensmij heeft AMD de verwachtingen niet zelf torenhoogopgeschroefd maar de online community.

Wat komt er dan iet overeen met wat ze gezegd hebben ?
Nee precies. AMD is op zich best duidelijk in hun communicatie over de perf increase, maar wordt het hier toch weer enigzins opgeblazen. Net als de eerdere voorspellingen hier van een perf increase van 2x (tot zelfs 2.5x volgens mij :+ ).
Om teleurstelling te voorkomen zou ik zelf iig niet uitgaan van 1.7x performance verbetering in het algemeen, maar eerder 1.5x :) En misschien worden we dan nog positief verrast als de reviews uitkomen.

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 19:31

OMD

Wat gaat er gebeuren met de data als de 6000 serie ook FSR3.0 gaat ondersteunen? Dan zijn alle performance cijfers die nu worden getoond toch niet helemaal kloppend?. Ze vergelijken nu de 7900XTX met FSR3.0 aan met de 6950XT met fsr 2.0? Heb ik dat zo goed begrepen? Of zijn de getoonde cijfers allebei met FSR 2.0? Ik zie dat even niet op de slides terug. Ze spreken op de slides enkel over FSR.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
OMD schreef op vrijdag 4 november 2022 @ 12:30:
Wat gaat er gebeuren met de data als de 6000 serie ook FSR3.0 gaat ondersteunen? Of zijn de getoonde cijfers allebei met FSR 2.0? Ik zie dat even niet op de slides terug. Ze spreken op de slides enkel over FSR.
Dit zijn zeer terechte vragen. Zoiezo was zat er weinig nuance of vergelijkingsmateriaal in de presentatie van AMD. Niet direct wijselijk gezien ze de presentatie na Nvidia geven en mensen al kaarten in hun PC hebben zitten.
Ik verwacht echter wel, gezien de ervaringen met AMD de laatste jaren, dat men minder gate-keeping zal doen ten opzichte van eerdere generatie kaarten. De kans bestaat denk ik zeker dat FSR3 ook naar RX6x00 komt.

[ Voor 7% gewijzigd door zzzzz op 04-11-2022 12:37 ]

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
zzzzz schreef op vrijdag 4 november 2022 @ 12:36:
[...]
De kans bestaat denk ik zeker dat FSR3 ook naar RX6x00 komt.
Als dat zo is ga ik denk ik lekker voor een tweedehands 6900XT. Misschien kan ik die van @computerjunky wel voor een zacht prijsje overnemen, €400-€500 ofzo :p

Acties:
  • +2 Henk 'm!

  • CarJunkyXL
  • Registratie: Maart 2004
  • Laatst online: 15:35
pixeled schreef op vrijdag 4 november 2022 @ 12:40:
[...]


Als dat zo is ga ik denk ik lekker voor een tweedehands 6900XT. Misschien kan ik die van @computerjunky wel voor een zacht prijsje overnemen, €400-€500 ofzo :p
Je kan ook de mijne overnemen eventueel. Heb ook een XFX. ;)

Afbeeldingslocatie: https://tweakers.net/i/ir4S2wGYdMzZF9rY00mOcVg0YNg=/800x/filters:strip_icc():strip_exif()/f/image/nsjfzLyxrABdq50ovQvNt125.jpg?f=fotoalbum_large

[ Voor 35% gewijzigd door CarJunkyXL op 04-11-2022 12:43 ]


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
Ludewig schreef op vrijdag 4 november 2022 @ 12:14:
[...]


Maar native rasterization is net zo goed een benadering. Ik wordt eerlijk gezegd een beetje moe van deze valse tegenstelling die ik steeds weer zie langskomen, waar wordt gedaan alsof native rendering hetzelfde resultaat geeft als je een video zou maken van de werkelijkheid op dezelfde resolutie. Dat is gewoon niet zo. Juist nu we RT als optie hebben, zou deze mythe toch wel eens mogen sterven, want RT toont aan dat bepaalde dingen in native rasterization gewoon slechts half-gare benaderingen zijn van de werkelijkheid (zoals reflecties).

Daarnaast is temporal upscaling ook niet bedoeld als een manier om alles mooier te maken, maar om binnen een frametime-budget een beter resultaat te halen, dan door het (niet) gebruik van andere methodes om de performance te verbeteren. Als je bij de gewenste FPS betere visuele resultaten haalt met DLSS quality dan door bijvoorbeeld de antialiasing omlaag te schroeven, dan is DLSS een nuttige tool om betere visuele resultaten te halen bij een bepaalde FPS.
Natuurlijk is rasterization een benadering. De beperking is dat RT te veel kost en dus probeert men deze effecten te benaderen via rasterization. Dat is dezelfde zaak met DLSS/FSR waarbij native te duur is op hoge resoluties dus probeer je dit te benaderen met de bedoeling zo dicht mogelijk bij native te komen en prestaties te winnen. Ik heb altijd DLSS gezien als een stap achteruit om vervolgens 3 stappen vooruit te kunnen doen.

De logica DLSS/FSR zijn slecht en rasterization is goed heb ik nooit begrepen want ze hebben hetzelfde doel. Al vind ik persoonlijk dat DLSS/FSR een betere klus doen dan rasterization want hun nadelen kunnen veel minder opvallend zijn.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:42
Hmmm... Ik wacht eerst maar es op wat reviews straks want kan er zo geen chocola van maken.

6800xt naar 7900xt zal dan ook circa 50 procent sneller zijn? Dan zal er circa 600-650 euro bij de doorverkoopwaarde moeten denk ik en dat is het mij niet waard.

Verder niet verkeerd maar RT had sneller moeten zijn (al gebruik ik het niet/nauwelijks) en fsr 3 gaat me niet boeien, hou van native scherpte.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
OMD schreef op vrijdag 4 november 2022 @ 12:30:
Wat gaat er gebeuren met de data als de 6000 serie ook FSR3.0 gaat ondersteunen? Dan zijn alle performance cijfers die nu worden getoond toch niet helemaal kloppend?. Ze vergelijken nu de 7900XTX met FSR3.0 aan met de 6950XT met fsr 2.0? Heb ik dat zo goed begrepen? Of zijn de getoonde cijfers allebei met FSR 2.0? Ik zie dat even niet op de slides terug. Ze spreken op de slides enkel over FSR.
Volgens mij waren beide met FSR 2, want anders zouden de native prestaties van de nieuwe kaarten volgens hun cijfers slechter zijn dan de vorige (aangenomen dat FSR 3 ook voor bijna 2x zo hoge frames zorgt).

Ik vraag mij sowieso af of ze niet pas hebben besloten om FSR 3 te gaan uitbrengen nadat Nvidia ermee kwam. Het is opvallend dat het niet direct beschikbaar is bij launch, dus misschien zijn ze het nu nog hard aan het programmeren. Dat verklaart bijvoorbeeld waarom er uitgebreide FSR 3 demo in de presentatie zat.

Misschien hadden ze al eerder met frame interpolation geëxperimenteerd, maar vonden ze het niet goed genoeg. In reactie op DLSS 3 kunnen ze dan alsnog hebben besloten om het uit te brengen. Dat verklaart dan waarom ze het vrij snel kunnen uitbrengen, want een flink deel van het werk is dan al gedaan. Mogelijk is het ook niet zo heel moeilijk te doen, in elk geval op het half-gare niveau van DLSS 3.0.

Uiteraard allemaal speculatie.

[ Voor 10% gewijzigd door Ludewig op 04-11-2022 13:19 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het is wel weer typisch AMD. Dag later en de verwarring over hoe het precies presteert, word weer groter en groter zodra mensen zelf gaan vergelijken. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 13:16:
Het is wel weer typisch AMD. Dag later en de verwarring over hoe het precies presteert, word weer groter en groter zodra mensen zelf gaan vergelijken. :z
Was toch precies hetzelfde als bij de 4090? De echte prestatiewinst was daar ook pas duidelijk toen de reviews kwamen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Jammer dat er geen PCIe 5.0 is gebruikt, daar had ik wel op gehoopt.
Kost je tot wel meer dan 10% average fps als je een m.2 5.0 wilt toevoegen en je videokaart nog maar x8 4.0 krijgt. (Gemiddeld 2 a 3% 'avg fps' , TPU heeft 4090 daarop getest)
Geen idee wat dit voor de frametimes doet.

[ Voor 5% gewijzigd door eL_Jay op 04-11-2022 13:27 ]


Acties:
  • +4 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Help!!!! schreef op vrijdag 4 november 2022 @ 12:11:
Volgensmij heeft AMD de verwachtingen niet zelf torenhoogopgeschroefd maar de online community.

Wat komt er dan niet overeen met wat ze gezegd hebben ?
Het probleem daar is dat AMD's marketing afdeling niet in staat lijkt het narratief te beheersen. Verwachtingen moet je managen en dat doen ze, naar mijn mening in ieder geval niet goed.

Je ziet bij AMD dat er vrij weinig echt leaked. Natuurlijk mensen in de keten hebben snippets met informatie en die komen via mensen als Greymon e.d. naar buiten. Enerzijds is dat voor AMD natuurlijk mooi, niemand weet tot de presentatie echt hoe de vork in de steel zit.

Anderzijds kan dat echter ook voor problemen zorgen wanneer analyses van die snippets een eigen leven gaat leiden zoals ook nu weer het geval lijkt te zijn. Al maanden zijn wij hier bezig over 12000 Streamprocessors, 140% toename, 192 CU's dan weer 96 CU's, 100% performance wist over die en die Sku, de RTX 4090 gaat afgemaakt worden en noem er nog maar een paar.

Zouden die geruchten (grotendeels) kloppen kan je als AMD's marketing afdeling redelijk achterover leunen, immers de content creators maken de hype wel en daar kan je dan later zelf van profiteren wanneer je bij de presentatie laat zien dat het allemaal klopte of misschien zelfs nog beter was dan de geruchten.

Echter als je ziet dat de hype torenhoog dreigt te worden, maar je weet als AMD zijnde dat je daar niet aan kan of gaat voldoen, moet je eigenlijk, om een negatieve ondertoon te voorkomen, ingrijpen als marketing team en bijvoorbeeld toch was zaken meer concreet leaken om zo de hype wat te temperen en het narratief weer onder controle te krijgen.

Het 'probleem' is hier dus mijn inziens niet direct iets dat ze gezegd hebben, maar dat ze de boodschap niet weten te controleren, waardoor de hype weer (te) groot wordt en uiteindelijke bij de presentatie men ziet dat zaken die wel verwacht werden op basis van die kleine stukjes informatie die wel leaken niet blijken te kloppen.

Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:12
eL_Jay schreef op vrijdag 4 november 2022 @ 13:25:
Jammer dat er geen PCIe 5.0 is gebruikt, daar had ik wel op gehoopt.
Kost je tot wel meer dan 10% average fps als je een m.2 5.0 wilt toevoegen en je videokaart nog maar x8 4.0 krijgt. (Gemiddeld 2 a 3% 'avg fps')
Geen idee wat dit voor de frametimes doet.
Ik wist niet dat er al PCI-E bandwidth benchmarks zijn voor deze kaart.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Paprika schreef op vrijdag 4 november 2022 @ 13:26:
[...]

Ik wist niet dat er al PCI-E bandwidth benchmarks zijn voor deze kaart.
Zijn er niet, maar TPU heeft de 4090 daarop getest en ik snap dat die resultaten niet 1 op 1 te vergelijken zijn. Maar toch, Metro deed daar -15% op pci-e 3.0 x16 (zelfde bandwidth als 4.0 x8)

[ Voor 9% gewijzigd door eL_Jay op 04-11-2022 13:32 ]


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Over PCIe 5.0. Het is natuurlijk wel een beetje teleurstellend en ergens vreemd als je in je AM5 platform je nogal richt op nieuwe zaken zoals DDR 5 en PCIe 5.0 en je nieuwe flagship GPU dan 'slechts' 4.0 is.

[ Voor 4% gewijzigd door Help!!!! op 04-11-2022 13:51 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Help!!!! schreef op vrijdag 4 november 2022 @ 13:49:
Over PCIe 5.0. Het is natuurlijk wel een beetje teleurstellend en ergens vreemd als je in je AM5 platform je nogal richt op nieuwe zaken zoals DDR 5 en PCIe 5.0 en je nieuwe flagship GPU dan 'slechts' 4.0 is.
Eens, hoewel 4.0 vanuit design standpunt mogelijk volledig logisch is, zou 5.0 wel een win kunnen zijn voor het platform (iets met kijk, wij hebben DDR5, PCIE5.0 moederborden en ook de eerste PCIE 5.0 consumenten GPU).

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar gaan we weer hoor. :P
Het lijkt erop dat N31 wel naar de 3GHz kan. Dat zou de media in ieder geval verteld zijn.


Het blijft bijzonder hoe AMD altijd faalt om hun product te verkopen. Het was zo makkelijk geweest om een dual bios functionaliteit op het PCB te zetten met een setting ergens 300-350W en een maximale clock speeds en beiden te demonstreren. Maar nee, daar doen we niet aan. :z

[ Voor 13% gewijzigd door DaniëlWW2 op 04-11-2022 14:04 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 16:45
Werelds schreef op vrijdag 4 november 2022 @ 11:19:
Excuses voor wat late reacties, ben een paar dagen in het buitenland geweest voor werk en het werk gaat nu gewoon door, dus ik heb nog geen tijd gehad alles te lezen en verwerken ;)


[...]

Daadwerkelijk renderen is echter niet bruteforce, zelfs niet voor RT. Er worden nu al vele optimalisaties toegepast, wat betekent dat het geen bruteforce is. Wiskundig gezien is het dat als je élke berekening 100% uit voert - wat niet zo is. Enkel culling zorgt er al voor dat het al lang geen bruteforce meer is.

Dingen als DLSS zijn echter erger dan bruteforce, want dat zijn benaderingen. Wat daar uit komt zijn geen exacte uitkomsten, maar benaderingen van wat het moet zijn. Het is alsof je voor y = 1.62x x niet in vult, maar een geplotte grafiek hebt hebt waar je "ongeveer" de juiste uitkomst probeert te lezen. Voor x = 50 of 100 zul je dat perfect af kunnen lezen, maar voor bijvoorbeeld x = 74 ga je dat niet correct kunnen zien. De aanpak zelf is geen bruteforce, maar het gebruik van die aanpak om je beperkingen te omzeilen is dat wel.

Ik ben het met je eens dat op dit moment zo'n aanpak de voorkeur heeft voor de midrange omdat die correct berekenen niet altijd kunnen behapstukken...echter is de midrange ook juist waar met name Nvidia tekort schiet, omdat ze daar simpelweg nauwelijks aanbod hebben. De gigantische groep mensen die een 1060 kochten gaan nu (6 jaar na dato!) pas mondjesmaat over naar een 3060, omdat dat kreng nu pas enigszins betaalbaar begint te worden. Een Ada-equivalent gaan we minstens een jaar niet zien, als hij er überhaupt al komt. En het zou me niets verbazen als FG dan ook op half-rate werkt (dus om de twee frames ipv om het frame). Diezelfde groep mensen koopt echter ook de goedkopere monitors met hogere resoluties en/of refreshrates en zou dus veel meer baat hebben bij dit soort technieken.

DLSS, FG, FSR en XeSS zijn lapmiddelen, geen verbeteringen in rendersnelheid en -kwaliteit, wat het uiteindelijke doel hoort te zijn van graphics. Nvidia's micro-meshes en opacity micro-maps zijn wel verbeteringen (RT in dit geval). Dát is vooruitgang.
Hier ben ik het niet mee eens. Hoewel ik eens ben dat al die technieken nadelen hebben omdat ze artifacts kunnen introduceren zorgen deze technieken wel voor dat je extra rekenkracht over hebt om andere effecten aan te zetten en de kwaliteit van je eindresultaat mooier te maken. Dit kan betekenen dat je bijvoorbeeld ray-tracing aan kan zetten voor reflecties dan SSR met cubemap fallback zoals dat nu wordt gedaan. Als je DLSS, FG, FSR, en XeSS benaderingen vind, wat vind je dan van SSR? Als er iets is dat een benadering is, is dat SSR wel. Een mening dat door ontwikkelaars ook wordt gedeeld. En zo zijn er veel andere rendertechnieken die benaderingen zijn. Cascade shadow maps is ook een benadering die veel gebruikt wordt, vaak zorgt deze voor self-shaduwing of dat je geen contact-shadows heb, ook weer iets dat grotendeels door ray-tracing opgelost kan worden. Uiteraard is het aan de ontwikkelaars om verschillende technieken te combineren om een zo mooi mogelijk beeld te creëren. En DLSS, FSR en XeSS behoort gewoon tot de tools van de ontwikkelaars. Het is uiteindelijk hun keus welke combinatie van technieken ze gebruiken en welke artifacts ze acceptabel vinden.

Verder vind ik dat wel op de pc maar voordeel hebben met DLSS, FSR, of XeSS. Want het zorgt dat je een spel kan draaien als je hardware al verouderd is. Of op een hogere resolutie dan normaal. En de mensen die de nieuwste van de nieuwste videokaart hebben, hebben de keus om deze technieken te draaien op een hoger quality preset.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
eL_Jay schreef op vrijdag 4 november 2022 @ 13:25:
Jammer dat er geen PCIe 5.0 is gebruikt, daar had ik wel op gehoopt.
Kost je tot wel meer dan 10% average fps als je een m.2 5.0 wilt toevoegen en je videokaart nog maar x8 4.0 krijgt. (Gemiddeld 2 a 3% 'avg fps' , TPU heeft 4090 daarop getest)
Geen idee wat dit voor de frametimes doet.
Bij de test van GamersNexus kostte het 1-3%, behalve bij 1 spel. Dat gaat Nvidia nog verder uitzoeken en zou een driverbug kunnen zijn. Dus ik zou er vooralsnog van uitgaan dat je maar 1-3% verliest.

Zie: YouTube: NVIDIA RTX 4090 PCIe 3.0 vs. 4.0 x16 & '5.0' Scaling Benchmarks

[ Voor 12% gewijzigd door Ludewig op 04-11-2022 14:03 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 12:00

Jumpiefox

Hoi ?

Ik lees/zie overal dat de 7900xtx reference dus tussen de 1 en 10% gemiddeld langzamer zou zijn dan de 4090. Nou weten we dat de AIB 4090 versies nauwelijks performance winst laten zien. Hoe is dat met de AMD kaarten en de 6000series? Zijn de aib versies nog leuk over te clocken vergeleken met wat een reference kaart doet met wat % extra winst?

The first casualty in war is always the truth...


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Nu online

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op vrijdag 4 november 2022 @ 13:58:
En daar gaan we weer hoor. :P
Het lijkt erop dat N31 wel naar de 3GHz kan. Dat zou de media in ieder geval verteld zijn.
[YouTube: AMD Radeon RX 7000 Event: Live Interviews & Analysis]

Het blijft bijzonder hoe AMD altijd faalt om hun product te verkopen. Het was zo makkelijk geweest om een dual bios functionaliteit op het PCB te zetten met een setting ergens 300-350W en een maximale clock speeds en beiden te demonstreren. Maar nee, daar doen we niet aan. :z
Een AIB versie kan dan zomaar 10% betere performance laten zien? Er waren toch al leaks van kaarten met 3 voedingsstekkers? Zou zomaar kunnen dat dat de oorzaak is dan.

5-10% erbij in FPS kan zomaar betekenen dat je op 4090 niveau zit.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 13:58:


Het blijft bijzonder hoe AMD altijd faalt om hun product te verkopen. Het was zo makkelijk geweest om een dual bios functionaliteit op het PCB te zetten met een setting ergens 300-350W en een maximale clock speeds en beiden te demonstreren. Maar nee, daar doen we niet aan. :z
Hadden ze dan niet naar 3x PCIE connector moeten gaan, ik verwacht eigenlijk dat juist die 2x PCIE connector een heel bewuste keuze is voor de reference modellen en dat ze een mogelijk meer verbruikende variant nog even achter de hand houden.

Acties:
  • +2 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
Dennism schreef op vrijdag 4 november 2022 @ 14:23:
[...]


Hadden ze dan niet naar 3x PCIE connector moeten gaan, ik verwacht eigenlijk dat juist die 2x PCIE connector een heel bewuste keuze is voor de reference modellen en dat ze een mogelijk meer verbruikende variant nog even achter de hand houden.
Dat is het ook. De 4090 wordt geen commercieel succes. Hij is te duur in aanschaf, en te duur in het gebruik. De enige reden waarom die kaart wordt uitgebracht is puur als marketing strategie. De consument hoort Nvidia heeft de snelste kaarten, en kiest daarom een Nvidia kaart. Geen kaart van 2,5 duizend euro. Maar een goedkopere kaart. Dat AMD mogelijk een goedkopere efficiëntere kaart heeft dan het exemplaar waar die consument voor kiest, daar heeft de doorsnee consument geen weet van.

Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Ik had gehoopt dat de rasterperf. wat hoger zou liggen, maar dan was de prijs ook een stuk hoger geweest. Nu krijg je vermoedelijk bijna of precies 4090 perf. voor een viendelijkere prijs.
Ook niet verkeerd.

Ben wel erg benieuwd hoe het in RT gaat uitpakken, en ja ik vind RT op dit moment ook niet echt zalig makend. Er zijn betere manieren om een scene grafisch op te krikken, ook al is het dan deels niet fysiek correct en/of baked in. Maar RT gaat wel steeds meer een rol spelen bij toekomstige spellen, dus in dat opzicht is het niet onbelangrijk.

Het idd wel knap hoeveel ruis er nog is na zo'n presentatie, zo slecht..
Misschien is er nog veel driverwerk te verrichten, het is een nieuwe architectuur en dan is het begrijpelijk dat daar nog niet al te veel over wordt uitgewijd.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 10:35:
Qua RT gaat het er ook om wat je aanzet.
Het probleem is dat met name Nvidia zo belachelijk veel nadruk legt op shadows, reflections en zelfs path tracing. Dat is nog jaren en jaren van ons verwijderd. Wat wel kan is RT accelerated global illumination en laat dat nu meteen ook de meeste "wow" geven voor gamers.

Bijvoorbeeld dus dit. Dit is het minst intensieve deel van RT en dit heeft wel meerwaarde.
[YouTube: Cyberpunk 2077 Example Of Real Time Global Illumination]

edit: Let op, ik zeg accelerated. Het gaat er niet eens om dat RT alle lichteffecten moet doen. Nee het gaat erom dat RT + shaders gezamenlijk voor betere lichteffecten kunnen zorgen met relatief minimale impact. Meer kan huidige RT hardware ook gewoon niet zonder dat je framerate instort.
GI is het enige dat een echte indruk maakt. De rest is allemaal goed te faken. Als veel meer developers van Unreal 5 gebruik gaan maken heb je Lumen wat via software kan of via hardware. Dan hoef je als developer niet meer op de oude manier GI te faken (wat gigantisch veel extra werk kost).
Misschien is dat wat kort door de bocht overigens; shadows en reflecties zijn heel goed te faken en vind ik nu niet echt indrukwekkend. Reflecties op dingen die roestig glossy zijn of vergelijkbar vind ik gigantisch misbruik van resources; dat kost namelijk erg veel rays om goed te krijgen.

Denk dat ze moeten beginnen met goede GI, daarna shadows en pas als laatste reflecties.

[ Voor 1% gewijzigd door Sp3ci3s8472 op 04-11-2022 15:44 . Reden: Kon even niet op het woord glossy komen :). ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Paprika schreef op vrijdag 4 november 2022 @ 10:51:
Nou, ik ben maar eens gaan lezen en mijn samenvatting zou zijn:
  • Adored :+ (alweer)
  • Hypetrain :+ (alweer)
  • RTX 4080 :+ (prijs/performance)
  • Prima kaarten als je een 'legacy' gamer bent
Verder zijn alle nieuwe kaarten gewoon altijd ruk geprijsd, puur door de koers. Stel we hadden de koers van 2008 gehad (1 euro = 1.50 USD) dan zou je dus een 7900 XTX hebben kunnen kopen voor 666 euro exclusief BTW of 805 euro inclusief BTW via de AMD store en de 4090 zou je dan bij NBB kunnen kopen voor 1066 euro exclusief BTW of 1289 euro inclusief BTW.

Dan hadden we hier hele andere discussies gevoerd. Net iets meer dan 800 euro of bijna 1300 euro heeft een behoorlijke psychische impact qua pricing en dus qua kopersgedrag, want het verschil tussen deze bedragen voelt dan direct groter. Nu is alles zo duur dat mensen gigantische bedragen neertellen om maar het beste te hebben, want het 1 na beste is ook al duur.
Vind het maar raar dat het verschil tussen de euro en dollar zo groot is gezien de US een grotere inflatie heeft op dit moment. Kan zijn dat ik wat mis :P.
Je hebt gelijk dat dit inderdaad meespeeld met de beslissing wel of niet iets te kopen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op vrijdag 4 november 2022 @ 15:21:
[...]
Vind het maar raar dat het verschil tussen de euro en dollar zo groot is gezien de US een grotere inflatie heeft op dit moment. Kan zijn dat ik wat mis :P.
De reden is niet zozeer de inflatie, maar de slechtere economische voorspellingen voor de eurozone en de achterblijvende renteverhogingen t.o.v. de VS. Dat betekent dat het aantrekkelijker is om je geld uit te lenen in de VS, zowel via obligaties als via aandelen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Tyranium schreef op vrijdag 4 november 2022 @ 12:17:
[...]


Nee precies. AMD is op zich best duidelijk in hun communicatie over de perf increase, maar wordt het hier toch weer enigzins opgeblazen. Net als de eerdere voorspellingen hier van een perf increase van 2x (tot zelfs 2.5x volgens mij :+ ).
Om teleurstelling te voorkomen zou ik zelf iig niet uitgaan van 1.7x performance verbetering in het algemeen, maar eerder 1.5x :) En misschien worden we dan nog positief verrast als de reviews uitkomen.
In alle eerlijkheid, als AMD niet de Nvidia route zou zijn opgegaan hadden ze met de getallen uit de leaks dat kunnen halen. Daarom was het ook een teleurstelling dat ze dat wel hebben gedaan.
Laten we stellen dat AMD dat heel goed stil heeft kunnen houden :P.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Mars Warrior schreef op vrijdag 4 november 2022 @ 14:12:
[...]

Een AIB versie kan dan zomaar 10% betere performance laten zien? Er waren toch al leaks van kaarten met 3 voedingsstekkers? Zou zomaar kunnen dat dat de oorzaak is dan.

5-10% erbij in FPS kan zomaar betekenen dat je op 4090 niveau zit.
Dat kan zomaar als ze van 2300MHz naar bijvoorbeeld 2800MHz gaan. Zit je waarschijnlijk wel boven de 400W.
Dennism schreef op vrijdag 4 november 2022 @ 14:23:
Hadden ze dan niet naar 3x PCIE connector moeten gaan, ik verwacht eigenlijk dat juist die 2x PCIE connector een heel bewuste keuze is voor de reference modellen en dat ze een mogelijk meer verbruikende variant nog even achter de hand houden.
Of ze waren gekomen met de "RX7970XTX3D 3GHz edition" met 3D stacked cache en forse clock speeds.
Het punt is dat AMD eens moet leren hun producten toe te spitsen op hun doelgroep. Nu hebben ze hun beste chip waarschijnlijk redelijk efficiënt afgesteld en lijkt die het net niet te redden tegen de RTX4090 in rasterisation waar Nvidia er gewoon 95W extra tegenaan heeft gegooid. Als je dan ziet dat ze waarschijnlijk veel verder dan 2300MHz kunnen, dan vraag ik me af waarom gaat AMD er dan niet voor met een speciale SKU? Want ik zie ze over een tijdje alsnog een dergelijke SKU lanceren. :F

Vervolgens komt AMD dan ook met die andere twee SKU's die ze nu hebben. Dan hebben ze een absoluut topmodel voor wie dat wil en verkopen ze de rest zoals ze nu doen. Want buiten die groep die het absoluut beste van het beste wil, zijn juist de RX7900XT(X) nu ook zo aantrekkelijk door de prijzen.

Voor N32 zie ik het eerste dingetje ook al.
AMD berekent hun TFLOPS wel alsof al hun ALU's bruikbaar zijn, dus ik doe dat ook lekker. Nou:
10752 x 2 x 2000MHz = 43TFLOPS
7680 x 2 x 2800MHz = 43TFLOPS

Uh ja, misschien moeten ze de volle N32 ook maar niet al te hoog clocken. O-)
Probleem is dat die chip waarschijnlijk wel over de 2500MHz gameclock zie komen. We weten immers nu eigenlijk al dat RDNA3 beter kan en de kleinere chips doen het vaker wel beter met extra clock speed en zijn vaak ook nog iets beter qua occupency. Ik zie de volle N32 eigenlijk wel dichtbij een referentie RX7900XT komen. Net zoals dat ik hard stelde dat N31 niet over de $1000 zou mogen kosten, blijf ik er ook bij dat N32 max $700 is en eigenlijk zou ik liever nog iets lager zien.

Met N32 is er ook het probleem dat de chip waarschijnlijk zoveel terrein in een line-up moet afdekken terwijl er nauwelijks wat uit te schakelen valt. Immers waarschijnlijk 80%+ yields (dus volledig functionele chips) en MCD yields zullen helemaal extreem goed zijn. Ik zie eigenlijk alleen een SKU met wat CU's uit + een MCD weg voor 192bit but als mogelijk. Maar gaat AMD de volle chip dan RX7800XT noemen en de cut down RX7700XT? Het kan, maar het is een behoorlijk dunne lijn waar naamgeving, prijs en prestatieniveau heel erg gevoelig binnen is. Want de overgrote meerderheid van die chips zal perfect uit de wafer gesneden worden en AMD zal die willen verkopen als de volle chip.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 15:49:
[...]
Of ze waren gekomen met de "RX7970XTX3D 3GHz edition" met 3D stacked cache en forse clock speeds.
Het punt is dat AMD eens moet leren hun producten toe te spitsen op hun doelgroep.
Zouden ze dat dan wel doen met de kaart die jij voorstelt? Want ook met een RX7970XTX3D 3GHz gaan ze het niet winnen op RT, noch met CUDA.

De doelgroep van die kaart van jou zou dan allerlei beperkingen moeten accepteren, waardoor je het dan weer hebt over mensen die wel willen inleveren op bepaalde features voor een lagere prijs.

Betalen die dan wel veel extra voor een kaart met gigantisch veel gebruik? Dat lijkt me dan weer iets voor de doelgroep die bereid is om veel extra te betalen, maar dan geen compromissen accepteert. Maar heb je die groep al niet grotendeels verloren door de slechte RT en de ontbrekende CUDA?
Met N32 is er ook het probleem dat de chip waarschijnlijk zoveel terrein in een line-up moet afdekken terwijl er nauwelijks wat uit te schakelen valt.
Ja, ik vraag me ook af hoe ze dat gaan doen. Misschien prijzen ze de 7700 XT vrij hoog of knippen ze hem erg hard zodat mensen al snel kiezen voor de 7800 XT. Dan is de 7700 XT vooral om mensen te upsellen.

Maar hoe lager je komt, hoe gevoeliger mensen zijn voor prijs en voor prijs/prestatie. Dus komen ze daar mee weg?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 13:58:
En daar gaan we weer hoor. :P
Het lijkt erop dat N31 wel naar de 3GHz kan. Dat zou de media in ieder geval verteld zijn.
[YouTube: AMD Radeon RX 7000 Event: Live Interviews & Analysis]

Het blijft bijzonder hoe AMD altijd faalt om hun product te verkopen. Het was zo makkelijk geweest om een dual bios functionaliteit op het PCB te zetten met een setting ergens 300-350W en een maximale clock speeds en beiden te demonstreren. Maar nee, daar doen we niet aan. :z
Dat hebben ze toch ook in de presentatie verteld? De game clocks zijn 2300 maar hij kan boosten naar 3GHz? Weet haast zeker dat ik dat heb gehoord.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 19:30
Dennism schreef op vrijdag 4 november 2022 @ 09:38:
[...]


Dat was toch vanuit de presentatie al duidelijk? Zie o.a. deze slide:

[Afbeelding]

Kan trouwens niet zeggen dat ik op die slide het nieuwe design mooier vind om te zien.
Heh shit, zat ik er een millimeter naast met de benadering :P
Op de slide staat wel een fout, de RX6950XT is 267mm lang.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 07-10 23:01

Format-C

Tracing Rays

pixeled schreef op vrijdag 4 november 2022 @ 12:40:
[...]


Als dat zo is ga ik denk ik lekker voor een tweedehands 6900XT. Misschien kan ik die van @computerjunky wel voor een zacht prijsje overnemen, €400-€500 ofzo :p
Offtopic: Je mag de mijne eventueel wel overnemen voor 500 (vriendenprijsje ;) :P ) .

Ontopic. Ik denk dat ik voor een 7900XT ga. Dan moet ik ongeveer 700 bijleggen. En die is op zn minst een procentje of 30 sneller dan een 6900XT. Denk dat mn 6900XT nét tekort komt op 5120x1440 (tov 3440x1440) Maar dat zal ik morgen uitgebreid testen. :9)

[ Voor 3% gewijzigd door Format-C op 04-11-2022 16:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op vrijdag 4 november 2022 @ 16:21:
[...]
Dat hebben ze toch ook in de presentatie verteld? De game clocks zijn 2300 maar hij kan boosten naar 3GHz? Weet haast zeker dat ik dat heb gehoord.
Het is een beetje vaag. Een analyst is verteld dat hij is ontworpen om tot 3000 te gaan, maar dan hebben we ook deze tweet:

https://twitter.com/coreteks/status/1588329053530251265

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
Format-C schreef op vrijdag 4 november 2022 @ 16:30:
[...]

Offtopic: Je mag de mijne eventueel wel overnemen voor 500 (vriendenprijsje ;) :P ) .
[...]
Hehe, no thanks. Eerst maar eens wachten wat Navi32 en 33 qua prijzen gaan doen :)
Ludewig schreef op vrijdag 4 november 2022 @ 16:10:
[...]

Zouden ze dat dan wel doen met de kaart die jij voorstelt? Want ook met een RX7970XTX3D 3GHz gaan ze het niet winnen op RT, noch met CUDA.

[...]
Persoonlijk denk ik van wel.

Men lijkt behoorlijk onder de indruk van de prestaties van de RTX 4090, ondanks dat ze worden bereikt door brute force en hoog stroomverbruik (niet heel knap dus, eigenlijk). Als AMD daar qua rastering performance met een hypothetische RX7970XTX3D 3GHz een procentje of 10 overheen kan beuken, met evenveel of minder stroomverbruik en voor een lagere prijs, denk ik dat dat zeker veel mensen over de streep zal trekken. Ondanks lagere RT performance en het ontbreken van CUDA achtige zaken.

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ludewig schreef op vrijdag 4 november 2022 @ 10:37:
@ocf81

DCS is niet bepaald efficient geprogrammeerd en mijn ervaring is ook dat VR flight simming lastiger is hoe groter de afstanden zijn. Ik zou dan ook eerder IL-2 Sturmovik aanraden en dan met name de WW I variant, waar alles lekker kort op elkaar zit. Je kunt IL-2 ook redelijk goed tunen, door bijvoorbeeld OpenComposite te gebruiken, wat behoorlijk scheelt qua overhead.

Dan nog spelen mensen normaal met tweaks/hacks waardoor dingen beter zichtbaar zijn op grotere afstanden.
Tja, dat is een beetje het paard achter de wagen spannen. Ik speel bepaalde spellen voor de uitdagingen die ze bieden. VR daarbij is een middel, niet het doel op zich. Ik heb ook Il-2 BoX, inclusief FC, maar deze is door zijn WO I / WO II setting heel anders dan DCS met zijn moderne vliegtuigen en langeafstandsraketten. Er is niks anders dan DCS op dat gebied. DCS dicteert daarom de hardwarekeuze niet en andersom. (samen met Arma overigens) Het is een feit dat DCS niet efficiënt geprogrammeerd is, maar daar doe ik verder weinig aan.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
@Ludewig @PjotrX let's agree to disagree, ik wil dit topic niet vervuilen met mijn mening over de niet-renderen-maar-gokken trend ;)

Wat ik er wel nog over zal zeggen is dat die focus van met name Nvidia vooruitgang qua RT juist in de weg staat. Ada's RT performance is 0,0 verbeterd ten opzichte van Ampère (per clock, per RT core). Micro-meshes en opacity micro-maps zullen RT wel verder op weg helpen als Nvidia dat fatsoenlijk doet (en de spec dus deelt met de rode en blauwe kampen), maar dat is vooral aan de dev en software kant, dus dat gaat sowieso nog wel even duren.

Overigens had ik het niet specifiek over raster of RT, of probeerde ik te stellen dat één van die twee ook maar enigszins in de buurt komt van de werkelijkheid. Tuurlijk zijn ook dat allemaal benaderingen; maar dat maakt DLSS en consorten dus benaderingen van benaderingen. Voor vooruitgang in de kwaliteit van de rendertechnieken dienen de berekeningen sneller (betere hardware) of slimmer (optimalisatie in ofwel hardware ofwel software) uitgevoerd te worden, niet overgeslagen te worden ;)

Enfin, daar ga ik het bij laten, dit is niet het topic daarvoor :)




Ben benieuwd hoe lang we op de whitepaper moeten wachten. Voor RDNA2 hebben ze nooit een whitepaper gedaan (enkel de ISA), met RDNA1 kwam die volgens mij een maand na launch? De technische details zijn tot dusverre heel erg summier en er lekt ook niets, AMD heeft dat allemaal nog steeds verdomd goed onder controle.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Blijkbaar heeft GamersNexus wel een interview met iemand van AMD over architectuur.
Maar dit ding heeft echt een whitepaper nodig, al is het maar omdat de aansturing van de nieuwe WGP heel wat details zal bevatten die mensen nodig zullen hebben.

@Ludewig Het gaat mij erom dat als je dichtbij je concurrent haar beste GPU komt en dan niet doorzet, ik het zonde vind. Die "RX7900XTX3D 3GHz edition". is voor mij echt niet een relevant product. Het gaat ook niet om RT, maar puur om een statement maken.

En als ik zie dar ASUS al met een monster komt, dan betwijfel ik nog meer in hoeverre ze AIB modellen niet veel verder gaan qua clockspeed en frequentie.
https://videocardz.com/ne...le-8-pin-power-connectors

Ik heb er zelf nul interesse in omdat ik allang heb gezien dat voor de meeste mensen een RX7900XT(X) waarschijnlijk de betere koop is over zowel de RTX4090 als RTX4080. Het product lijkt gewoon goed te zijn, maar dat laatste beetje wow om de boodschap eens door te laten dringen dat er een alternatief voor Nvidia is, dat mist een beetje. En ik denk nog steeds dat N32/N33 heel erg goed zullen zijn voor de gemiddelde gamer. Dat zijn uiteindelijk de GPU's die de meeste gamers kopen.

[ Voor 11% gewijzigd door DaniëlWW2 op 04-11-2022 18:06 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Benieuwd wat de 7900XTX in de praktijk zal verbruiken in verschillende games gezien de benuttingsgraad ook niet optimaal lijkt te zijn als ik dat zo lees. De 450W PL op een 4090 FE is in de praktijk nu eerder 350-400W. Met RT 400-440W maar met DLSS ingeschakeld gaat het alsnog weer omlaag, al dan niet door een CPU bottleneck. Een andere factor is inmiddels ook de maximale spanning die Nvidia toestaat als de PL nog niet bereikt is. Dit om de kloksnelheid eventueel nog verder te kunnen verhogen ookal vertaalt zich dat maar in een winst van enkele cijfers. AIB's hebben met een 7900XTX misschien meer ruimte om zich te onderscheiden tov het referentiemodel. Uiteraard tegen een exponentiële prijs in stroomverbruik.


Het sterke punt van RDNA2 lag juist op lagere resoluties dan 4K. Met een 7900XTX en 4090 en is er alleen nog geen CPU die snel genoeg is om een zelfde voordeel te zien denk ik. Of AMD heeft alweer een nieuwe soort link uitgevonden met de eigen 7000 CPU's om de verkoop op te krikken.. Óf de gemiddelde game mag gewoon wel eens flink meer threads gaan benutten. Die liggen voor de helft soms ook stil ;)

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 13:58:
En daar gaan we weer hoor. :P
Het lijkt erop dat N31 wel naar de 3GHz kan. Dat zou de media in ieder geval verteld zijn.
[YouTube: AMD Radeon RX 7000 Event: Live Interviews & Analysis]

Het blijft bijzonder hoe AMD altijd faalt om hun product te verkopen. Het was zo makkelijk geweest om een dual bios functionaliteit op het PCB te zetten met een setting ergens 300-350W en een maximale clock speeds en beiden te demonstreren. Maar nee, daar doen we niet aan. :z
Ik zou daar niet zoveel waarde aan hechten. Nvidia haalde met Ada ook 3 Ghz, maar dat was 'in het lab' met speciale koeling.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 18:04:
Het gaat mij erom dat als je dichtbij je concurrent haar beste GPU komt en dan niet doorzet, ik het zonde vind. Die "RX7900XTX3D 3GHz edition". is voor mij echt niet een relevant product. Het gaat ook niet om RT, maar puur om een statement maken.
En dan komt Nvidia met de 4090 Ti...

Dus wat is dat statement dan? "Als we maximaal pushen komen we net boven de 4090, maar niet in RT en we worden alsnog verslagen door de volledige AD102 die."

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ocf81 schreef op vrijdag 4 november 2022 @ 17:38:
[...]
Tja, dat is een beetje het paard achter de wagen spannen.
Ja en nee. Het is altijd zo dat bepaalde keuzes consequenties hebben voor de hardware die je nodig hebt, en sommige keuzes zijn zo veeleisend dat je zelfs met de beste hardware geen optimale ervaring krijgt. VR, 8K en RT vallen allemaal in dat rijtje.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 15:49:

Uh ja, misschien moeten ze de volle N32 ook maar niet al te hoog clocken. O-)
Probleem is dat die chip waarschijnlijk wel over de 2500MHz gameclock zie komen. We weten immers nu eigenlijk al dat RDNA3 beter kan en de kleinere chips doen het vaker wel beter met extra clock speed en zijn vaak ook nog iets beter qua occupency. Ik zie de volle N32 eigenlijk wel dichtbij een referentie RX7900XT komen. Net zoals dat ik hard stelde dat N31 niet over de $1000 zou mogen kosten, blijf ik er ook bij dat N32 max $700 is en eigenlijk zou ik liever nog iets lager zien.
Ik had je eerder voor gek verklaard, maar gegeven deze RX 7900 XT(X) prijzen, zit $699 voor Navi32 zeker in de kaarten. Waarom ze pas in Q2 volgend jaar met Navi32 komen, Joost mag het weten.

Maar dat betekent ook dat alle 3 de Nvidia RTX4090/4080 prijzen te hoog zijn. Ik ging er van uit dat de RTX 4090 nog fair geprijst was, maar dat kàn nu niet meer het geval zijn. Tenzij de TBP / TGP kostencurve $/Watt qua VRMs en koelers boven de 350W opeens niet-lineair wordt (wat natuurlijk mogelijk is, en prijzen voorspellen onmogelijk maakt).

Nog steeds zijn de core BOM (bill of material) kosten (chip package + geheugen) bij Nvidia hoger dan bij AMD. Bijvoorbeeld $342-$363 voor AD104 en $133-139 voor Navi33. Het verschil is de N4 ipv N6 wafer prijs, en het feit Nvidia rekent marge op de GDDR6X die zij inkopen. AMD koopt de GDDR6 chips niet in, dat doen de board partners zelf.
https://www.tomshardware....ected-to-increase-q3-2021
https://www.tomshardware....5nm-is-nearly-dollar17000

Daardoor schat ik nog steeds $699 voor een RTX 4070 en $449 voor een RX 7700XT, die vergelijkbaar zouden gaan presteren (volgens de geruchten). Ik denk dat dat verschil er in gaat hakken deze generatie. Het gevecht in de high-end is toch maar voor een klein percentage gamers van het totaal.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Zoals altijd komt een dag na de presentatie er pas de zinvolle en praktische informatie uit AMD...

Belangrijkste is dat ze de RX7900 series tegenover de RTX4080 zetten. Verder hebben ze de boel inderdaad wat conservatiever afgesteld.


edit: Oh ja, FSR3 waren ze ook al langer mee bezig en de keuze voor 2 x 8 pin was uiteraard ook al heel lang geleden gemaakt.

[ Voor 35% gewijzigd door DaniëlWW2 op 05-11-2022 09:52 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Coreteks, dus met een pak zout innemen, maar hij geeft aan dat zijn AIB sources lijken te hinten op slechts kleine clockspeed bumps voor AIB modellen


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Wat mij opviel in het interview met Frank Azor is dat ze als doel hebben om FSR 3 voor alle kaarten beschikbaar te stellen, dus ook oude kaarten en kaarten van de concurrentie.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Wat ik me eigenlijk afvraag is wat AMD precies wil met FRS3 en of DLSS3 er enige invloed op heeft gehad. Ik vond namelijk dat ze vrij weinig lieten zien, Juist terwijl je ziet dat Nvidia veel kritiek krijgt op DLSS3 lijkt het erop dat AMD toch iets hetzelfde gaat doen. Wat ik me dan afvraag is, waren ze dat altijd al van plan, of zijn ze pas iets gelijks aan frame generation gaan doen toen ze lucht kregen van Nvidia's DLSS3 met die feature? En waarom, juist wanneer je ziet dat de concurrent quasi afgebrand wordt juist vanwege de problemen met die frame generation.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dat afbranden valt wel mee. Het is ook altijd nog een extra feature, die nooit een nadeel is. Je kunt altijd besluiten om het niet aan te zetten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Nooit een nadeel zou ik niet willen zeggen, de grafische kwaliteit lijkt immers regelmatig negatief beïnvloed te worden en dat is toch zeker een (flink) nadeel, net als dat het niet direct gemarket wordt als 'een extra feature'' Nvidia gebruikt het duidelijk als selling point, niet als iets dat je er slechts bij krijgt. Een groot deel van hun marketing draait op resultaten behaald met DLSS3. En als je dan kijkt naar de reacties van de reviewers, content creators, maar ook bijvoorbeeld op reddit of hier op het forum / andere techforums lijkt te tendens toch vrij negatief te zijn. Artifacts en extra latency is wat steeds de boventoon voert, naast het feit dat het juist op minder krachtige systemen, waar je juist DLSS wil gebruiken het minder goed lijkt te presteren.

Zo vond HUB DLSS3 eigenlijk alleen bruikbaar in situaties waar je een 240Hz scherm hebt en bijbehorende framerates hoge behaald waarbij DLSS3 je dan naar het maximum van je scherm tilt en je dus 240FPS laat behalen, de game niet latency gevoelig is (waarbij ze aangeven dat eigenlijk alleen single player games geschikt zijn).Terwijl hij ook aangeeft dat met DLSS3 een 60FPS gameplay aanvoelt als een 30 FPS en 120FPS gameplay als 60 FPS, wat natuurlijk niet goed is, je wil immers juist meer frames voor die beter aanvoelende gameplay. Beeld kwaliteit inleveren voor een slechter aanvoelende gameplay ervaring is natuurlijk weinig positief.

[ Voor 3% gewijzigd door Dennism op 04-11-2022 23:04 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

Ik zei dat het nooit een nadeel is als je de optie hebt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Ludewig schreef op zaterdag 5 november 2022 @ 00:29:
@Dennism

Ik zei dat het nooit een nadeel is als je de optie hebt.
Ik had liever gezien dat AMD die resources in iets anders had gestopt (hetzelfde voor Nvidia). Want de optie onderhouden en support aan game developers kost ook tijd en geld.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19:53

SG

SG surft naar info hardewaren

Die upscaling ellende hoort gestandaardiseerd in render API DX12 vulkan metal.
Die close source ellende was er niet in de intel i740 tijd.
Native is correct je kan met al die lapmiddelen het beter doen lijken dan native. Maar dat is meer hoe orgineel reference naar preference verkloot dat aangenamer en subjectief mooier lijkt.
Zoals is in rooiebuirt dat warme rood licht.
Reference geluid onvervormt van DDD bron klinkt vaak flat. Radio met heel veel extra vervorming maken het vetter. Maar niet correct.
Daarnaast lijkt mij CS:go in 4 of 8k 360fps ook onzin. In deze competive games ook voor casual shooter ga je meer in het verhogen van je k/d ratio of team effort dan kijken naar hoe mooi of correct beeld is. Want dan speel je niet dan review je het.

Bij games waar je juist wel van mooie omgevingen gaat genieten zoals Metro of stalker sandbox games en exploren bent is beeld qualiteit van hogere value dan 144fps dan is rock solid 60fps zat 90fps max. Sniper game of ARMA waar je first spot belangrijk is met hoge draw distance is 8k overkill die monitor is dan al snel te klein om die scherpte waar te nemen op normale kijk afstand.
Of je moet zo dicht erop dat je fov extreem groot wordt.

RT heeft eat zin in die mooie sandbox games hq subtiele upscaling 4K.
Competatief en minder gfx gefocusde competive pvp games is 1440 met 144fps rt of upscaling agressive en quality stuk minder relevant.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 07-10 21:10
Dennism schreef op vrijdag 4 november 2022 @ 21:47:
Coreteks, dus met een pak zout innemen, maar hij geeft aan dat zijn AIB sources lijken te hinten op slechts kleine clockspeed bumps voor AIB modellen

[Twitter]
Dat zou betekenen dat AMD's reference design gewoon erg goed in elkaar zit. Je gaat dus een AIB+ prijs betalen voor een amper beter cooling design met niet-interessante performance increase, en wellicht wat RGBetter.

Dat zou ergens prima uitkomst voor AMD zelf zijn als ze meer van hun reference designs verkopen.

Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 07-10 21:10
DaniëlWW2 schreef op vrijdag 4 november 2022 @ 20:43:
Zoals altijd komt een dag na de presentatie er pas de zinvolle en praktische informatie uit AMD...

Belangrijkste is dat ze de RX7900 series tegenover de RTX4080 zetten. Verder hebben ze de boel inderdaad wat conservatiever afgesteld.
[YouTube: AMD Talks RX 7900 XTX Launch Info, RDNA 3 Architecture & More | The Full Nerd Special Edition]
Goed om te weten hoe zij die RX7900 zien. Prijstechnisch is die 7900XT(X) al interessanter dan de 4080. Ik ben dan ook erg benieuwd naar de 4080, prestaties en verbruik t.o.v. de 7900.

Ik sta op voor een nieuwe PC komende Januari, €2300,- budget excl. randapparatuur. Het is ergens gewoon zuur om te weten dat je voor dat bedrag niet eens meer een highend kaart erin kan stoppen.

Acties:
  • 0 Henk 'm!

  • grote_oever
  • Registratie: Augustus 2002
  • Laatst online: 07-10 21:44
Sp3ci3s8472 schreef op zaterdag 5 november 2022 @ 01:44:
[...]


Ik had liever gezien dat AMD die resources in iets anders had gestopt (hetzelfde voor Nvidia). Want de optie onderhouden en support aan game developers kost ook tijd en geld.
Nu nog ja, maar als alles doorontwikkeld wordt zal het wel makkelijker moeten gaan.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:25
Coreteks, dus wederom met een pak zout :P, is ook niet tevreden met deze presentatie :P



Wet eigenlijk niet wat ik van dat PCworld interview met Frank Azor moet vinden, het is immers dezelfde Frank Azor die consumenten wel vaker flat out voorgelogen heeft. Waardoor ik die man niet snel meer op zijn blauwe ogen zal geloven wanneer ie weer eens wat roept in een interview.

Acties:
  • +4 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Nu online

Apoca

Array Technology Industry

AMD Navi 31 GPU block diagram

Natuurlijk met een korreltje zout... :P

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg

https://videocardz.com/ne...u-block-diagram-leaks-out

[ Voor 32% gewijzigd door Apoca op 05-11-2022 12:38 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Azerox
  • Registratie: Mei 2009
  • Laatst online: 07-10 11:35
Zijn die kaarten ook in NL verkrijgbaar via de AMD shop?

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 15:52
Ludewig schreef op vrijdag 4 november 2022 @ 16:39:
[...]


Het is een beetje vaag. Een analyst is verteld dat hij is ontworpen om tot 3000 te gaan, maar dan hebben we ook deze tweet:

https://twitter.com/coreteks/status/1588329053530251265
Game clock voor mijn 6900Xt is 2250 mhz (tevens ook de sweetspot in prestatie per watt maar dat kan toeval zijn) maar de standaard realistische clock is dus 2,5 Ghz.
De RTX 4090 spec is 2,52 Ghz maar veel kaarten draaien stock al op 2.8 Ghz. Het is dus even afwachten waar deze kaarten zichzelf naartoe gaan booten.
Pagina: 1 ... 73 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.