PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Wat is dit voor kneus?Dennism schreef op zaterdag 5 november 2022 @ 10:08:
Coreteks, dus wederom met een pak zout, is ook niet tevreden met deze presentatie
[YouTube: Is this AMD’s GREATEST failure?]
Wet eigenlijk niet wat ik van dat PCworld interview met Frank Azor moet vinden, het is immers dezelfde Frank Azor die consumenten wel vaker flat out voorgelogen heeft. Waardoor ik die man niet snel meer op zijn blauwe ogen zal geloven wanneer ie weer eens wat roept in een interview.
Niet zozeer vanwege de video, hij heeft best een paar legitieme punten, maar als mensen hem (terecht) aanspreken op zijn nogal eigenaardige stelling dat iedereen die $1000 uitgeeft óók wel de stap naar 60% extra wil maken (nog meer als je VAT over beide bedragen meerekent), kan ie alleen maar reageren met "Hurr durr the internet echo chamber called you!", hoe constructief de post ook is. =/
Mij lijkt het juist hetzelfde. De MI200 is toch al een dergelijke GPU?Help!!!! schreef op zaterdag 5 november 2022 @ 13:24:
[...]
Toch is dit chiplet design jammer genoeg (maar misschien wel logisch) toch anders dan bij CPU's.
Je kan niet zomaar een extra chiplet met meer 'cores' erop plakken. In feite zijn de cores nog steeds monolithic.
Als het doel gamen is dan verliest een processor ook redelijk wat prestaties als de cores gesplitst zitten. Je ziet dan ook een redelijker prestatiewinst door 1 CCD uit te schakelen in games die beide CCDs gebruiken.
/f/image/ulx26j4oBJn82Ft9v8iTETj7.png?f=fotoalbum_large)
De bottleneck van veel games ligt echter bij 2-4 threads dus je hebt hier gemiddeld weinig last van. Doom zal een game zijn die veel threads kan gebruiken. Sommige games proberen zo veel mogelijk te spreiden over 1 thread per core maar bij een 7950x zal dit nadelig zijn door het chiplet design terwijl het voor alle andere CPUs voordelig is. De oplossing is dan eigenlijk om maar de helft van een CPU te gebruiken maar dit kan natuurlijk niet voor een GPU.
Coreteks is inderdaad altijd met heel veel zout. Hij zat er volgens mij met RDNA 1 en 2 volledig naast (maar dat zou ik moeten opzoekenDennism schreef op zaterdag 5 november 2022 @ 10:08:
Coreteks, dus wederom met een pak zout, is ook niet tevreden met deze presentatie
[YouTube: Is this AMD’s GREATEST failure?]
Wet eigenlijk niet wat ik van dat PCworld interview met Frank Azor moet vinden, het is immers dezelfde Frank Azor die consumenten wel vaker flat out voorgelogen heeft. Waardoor ik die man niet snel meer op zijn blauwe ogen zal geloven wanneer ie weer eens wat roept in een interview.
En @SunsetSundae Coreteks is net zoiets als MLID, leuk voor het entertainment, maar lang niet altijd serieus te nemen. Maar zo nu en dan wel vermakelijk om naar te kijken, juist vanwege de hottakesSp3ci3s8472 schreef op zaterdag 5 november 2022 @ 14:20:
[...]
Coreteks is inderdaad altijd met heel veel zout. Hij zat er volgens mij met RDNA 1 en 2 volledig naast (maar dat zou ik moeten opzoeken).
Vanaf 13 december pas te koop. Maar dan aangeboden in de AMD webshop inderdaad.Azerox schreef op zaterdag 5 november 2022 @ 12:43:
Zijn die kaarten ook in NL verkrijgbaar via de AMD shop?
https://www.amd.com/en/direct-buy/nl
Al verwacht ik dat zodra er voorraad is, er door de welbekende scalpel scripts alle voorraad binnen 2-3 minuten weg is.
Lekker duurzaam. Skoda Enyaq EV - First edtion, Alpha Innotec Brine warmtepomp (MSW2-6S), Totaal 12135 Wp aan Zonnepanelen geïnstalleerd.
Klopt, ik vind AdoredTV toch wel de beste van de leakers tot nu toe. Daarnaast heeft hij meestal ook de beste voorspellingen voor de toekomst.Dennism schreef op zaterdag 5 november 2022 @ 14:23:
[...]
En @SunsetSundae Coreteks is net zoiets als MLID, leuk voor het entertainment, maar lang niet altijd serieus te nemen. Maar zo nu en dan wel vermakelijk om naar te kijken, juist vanwege de hottakes
Hij gaf ook aan dat de performance heel erg ging afhangen van de shader configuratie. Inderdaad.... het had heel goed of ok kunnen zijn; helaas hebben we ok gekregen.
Dat denk ik toch niet. Dit lijkt zo op het eerste gezicht allemaal te kloppen.Apoca schreef op zaterdag 5 november 2022 @ 12:36:
AMD Navi 31 GPU block diagram
Natuurlijk met een korreltje zout...![]()
[Afbeelding]
https://videocardz.com/ne...u-block-diagram-leaks-out
Maar met name wat ze zeggen over geometry en pixel pipelines verklaard voor mij ook iets waar ik al twee dagen mee zit. Waarom heeft AMD hun WGP/CU zo aangepast?
Je kan er namelijk op twee manieren naar kijken.
1) Ze hebben alle ondersteunde functies verwijderd voor de tweede SIMD32.
2) Ze hebben een tweede SIMD32 toegevoegd zonder de rest van de ondersteunende functies.
Hiermee neig ik iets meer naar scenario twee. Ze hebben zo te zien namelijk ook verbeteringen doorgevoerd om ervoor te zorgen dat die extra ALU's ook bruikbaar gaan zijn. Dat viel te verwachten bij AMD, maar toch fijn. Op deze manier krijg je een behoorlijk transistorefficiëntie manier om waarschijnlijk 30-50% extra performance eruit te halen.
Dit is namelijk hoe ik denk dat ze hun ALU's hebben georganiseerd.
Er is een scheduler per blok van twee SIMD32 units. Die haalt een wave uit de wavefront controller die elke WGP nog steeds zal hebben. Vervolgens wordt die stapsgewijs berekend. Het probleem is alleen dat als het een wave32 is, die tweede SIMD32 in principe niks doet omdat er maar een dispatch unit is voor twee SIMD32 clusters.
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/8OwlOTD2ihB5Gd28rOgEIK2k.jpg?f=user_large)
Ik denk dat ik al twee manieren weet hoe AMD hieromheen gaat komen. De eerste is dat in de centrale graphics command processor ook een wave64 aangemaakt kan worden van een aantal gedecodeerde instructies die van de CPU komen. Dat is een functie die AMD expliciet niet heeft verwijderd in RDNA1/2. In RDNA1/2 werd zo'n wave64 alleen in twee delen aan een SIMD32 gegeven. Nu zal die in een keer gedaan worden door beide SIMD32 units. De tweede manier is VOPD.
Er kunnen nog andere manieren zijn, maar daarvoor moet AMD met meer informatie komen.
Ik weet hoe het klinkt, maar ik begin te vermoeden dat AMD hetzelfde aan het doen is als ze met Zen 4 deden. Het verhaal was wederom warrig, verwarrend en de getoonde resultaten komen niet echt overeen met de woorden van AMD managers. Ik vermoed eigenlijk dat de RX7900XTX in de buurt van de RTX4090 gaat komen in 4K rasterisation, op 1440p is het misschien helemaal dichtbij en op 4K RT zie ik het uiteindelijk iets beter uitvallen dan de RTX3090Ti.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Oftwel, nu heb je 30-50% bezetting, en door optimalisaties in de game engine kun je op 50-80% komen, waardoor je nog een flinke toename in FPS krijgt, enkel en alleen door software…
Of is zoiets niet haalbaar?
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Wat is die Coreteks een zuurpruim zeg; "It's the same price as for the RX6900XT for a relatively small boost of performance".Dennism schreef op zaterdag 5 november 2022 @ 10:08:
Coreteks, dus wederom met een pak zout, is ook niet tevreden met deze presentatie
[YouTube: Is this AMD’s GREATEST failure?]
Wet eigenlijk niet wat ik van dat PCworld interview met Frank Azor moet vinden, het is immers dezelfde Frank Azor die consumenten wel vaker flat out voorgelogen heeft. Waardoor ik die man niet snel meer op zijn blauwe ogen zal geloven wanneer ie weer eens wat roept in een interview.
Ik weet niet in welke realiteit hij leeft, maar +50% vind ik persoonlijk héél veel voor een generatie stap. En het kan evt. nog hoger liggen, maar dat moeten concrete FPS benchmarks nog uitwijzen.
De RTX4090 heeft ca. +70% prestatie toename op 4k t.o.v. de 3090Ti en daar zijn de meesten enthousiast over. Maar nee dit is een AMD 'fail'

Het is alleen jammer dat AMD niet een keer heeft doorgezet en Nividia op zijn plek heeft gewezen.
De maanlading was ook een ongekende prestatie, maar de meesten kennen alleen de 1e man op de maan: Neil Armstrong en niet de 2e man: Buzz Aldrin.
Ik vond het ook een beetje vreemd Interview met Frank Azor, bepaalde goede vragen die hem het ongemakkelijk maakte (had hij duidelijk geen goed antwoordt op) werden een beetje belachelijk gemaakt.
Het kan waar zijn wat hij zegt over de positionering van de 7900XT(X) t.o.v. de RTX4080, maar ik kan mij maar dat moeilijk voorstellen. Je gaat niet voor de 2e plek als de 1e plek binnen handbereik lag bij de vorige generatie. Maar anderzijds hadden ze misschien ook erop gerekend dat de RTX4090 een 600W monster zou worden en besloten om die weg niet in te slaan.
Misschien dat dit een nadeel is het van het chiplet design. Maar het is wel erg koffiedik kijken.Dennism schreef op vrijdag 4 november 2022 @ 21:47:
Coreteks, dus met een pak zout innemen, maar hij geeft aan dat zijn AIB sources lijken te hinten op slechts kleine clockspeed bumps voor AIB modellen
[Twitter]
De RDNA2 kaarten halen in de praktijk ook veel hogere kloks en de klok van de volle Navi 21 was gelimiteerd door vermogen.
Als ik dan zie dat Asus net zo'n monsterkaart heeft gemaakt met de RX7900XTX TUF (vergelijkbaar met de RTX4090 TUF/STRIX, dan moet het zeker 450W boardpower hebben. Ook al zouden de prestaties slecht schalen met vermogen, dan is +10-15% prestatie toename best reëel.
In het algemeen merk ik dat ik het eigenlijk vrij verontrustend vind dat er een zekere teleurstelling (ook bij mij) is bij een videokaart die toch ruim 1,5x sneller lijkt te zijn in rasterisation en ik vermoed eigenlijk nog iets meer in RT dan de vorige generatie, zonder een prijsverhoging of echt grote verhoging in verbruik. Dat is immers iets dat je eigenlijk al jaren eens nodig hebben, een einde aan de eindeloze prijsverhogingen die kwamen met prestatieverhogingen. En dan krijgen we dit en alsnog niet tevreden. Zijn we nu echt zo zwaar "gehersenspoeld" door Nvidia dat we net niet het beste, maar wel 95W minder en vele honderden euro's goedkoper, niet goed genoeg meer is?

Zeker omdat ik me besef dat de RX7900XT, laat staan de XTX, de RTX4080 echt wel gaat verslaan met marge. Nvidia zelf vermeld namelijk ergens tussen de 10-20% sneller dan een RTX3090Ti, zeg hooguit 30% sneller dan een RX6950XT in raster. Zelfs RT weet ik niet of de RTX4080 dat zomaar gaat winnen. Uiteindelijk laat de RTX4090 nauwelijks een grote verbetering ten opzichte van rasterisation zien als ik hier kijk. Uitgaande dat 1,5x RT verbetering per RA klopt en de RX7900XTX heeft er ook nog 20%, tja dan kan die ook wel eens in de buurt gaan komen als je nu al kan inschatten dat die net boven de RTX3090Ti uit zou moeten komen. Dat is immers iets meer dan 50%.
Iets anders dat ik me eigenlijk ook besefte is dat $700 te veel zou zijn voor de volle N32 chip. AMD zal iets meer dan 120 volledige functionele GCD's uit een wafer halen + nog een paar met wat defecten. Dat is meteen de reden waarom de RX7900XT zo onaantrekkelijk geprijsd lijkt tegenover de XTX. Ze gaan veel meer volledig functionele chips uit een wafer halen dan gedeeltelijk defecte.
Reken ik weer met de waarschijnlijk veel te hoge $17.000 per wafer dan kom ik met 140 chips op ongeveer $121 per chip. Leg daar vervolgens een forse 60% marge overheen zodat je op ongeveer $194 komt. Voor de MCD's reken ik met $7000 : 1400 = $5 per, dus $30 en $48 met 60% marge. Packaging vind ik te lastig om in te schatten dus dat laat ik buiten beschouwing. Totaal is dan $194 + $48 = $242 als verkoopprijs van AMD aan een AIB.
Nu doe ik hetzelfde met N32. $17.000 en ik reken met een relatief conservatieve 240 ≈ $71. 60% marge erover en dan zit je op ongeveer $114. Komt er $32 bij voor de vier MCD's en dan zit je op $146.
In procenten zou N32 dan ook iets van 66% van N31 kosten wat mooi overeenkomt met N32 ongeveer 66% van N31 zijn qua formaat. 66% van $1000 is alleen $660. Nu hebben lagere SKU's traditioneel gezien ook een iets betere prijsverhouding vergeleken met de top. Ik denk dus dat maximaal $600 hier goed te verdedigen is. Zeker omdat ik N32 niet een 350W rated PCB + koeloplossing zie krijgen. En komt die wel met een 300W PCB + koeloplossing, tja dan mag je ook wel hoge 2GHz range clockspeeds verwachten en dan gaat een dergelijke chip de RX7900XT zeker benaderen. Pas dan zou meer dan $600 denk ik beter te begrijpen zijn.
Navi 31
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/JxV14k1Bztc4C2EYUM02iPqO.jpg?f=user_large)
Navi 32
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/hTGCLYEeME3hic3afy3UgGyT.jpg?f=user_large)
MCD
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/mXHrueuOOOUwzFsPCQ4vIzr0.jpg?f=user_large)
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik denk niet direct dat het Nvidia is, maar juist AMD's marketing afdeling die faalt het narratief bij de leakers en degenen die rapporteren over de leaks te beheersen, waardoor dit keer op keer een eigen level gaat leiden met soms veel te hoge verwachtingen. Die hoge verwachtingen worden dan uiteraard veel; besproken op reddit en op hardware forums zoals hier, waar mogelijk her en der de choo choo hype train nog wat verder opgestookt wordt en je komt in een situatie als deze, de verwachtingen waren zo hoog gespannen, waar velen er vanuit gingen dan de 4090 makkelijk verslagen zou worden, dat het dan een dan een teleurstelling is wanneer die hype niet uitkomt in de presentatie. AMD moet imho leren de hype train te bespelen en waar nodig, deze ook af te kunnen stoppen zodat de verwachtingen niet te hoog oplopen en ze uiteindelijk niet kunnen voldoen aan deze verwachtingen.DaniëlWW2 schreef op zaterdag 5 november 2022 @ 18:29:
@Mars Warrior Ik betwijfel het.
In het algemeen merk ik dat ik het eigenlijk vrij verontrustend vind dat er een zekere teleurstelling (ook bij mij) is bij een videokaart die toch ruim 1,5x sneller lijkt te zijn in rasterisation en ik vermoed eigenlijk nog iets meer in RT dan de vorige generatie, zonder een prijsverhoging of echt grote verhoging in verbruik. Dat is immers iets dat je eigenlijk al jaren eens nodig hebben, een einde aan de eindeloze prijsverhogingen die kwamen met prestatieverhogingen. En dan krijgen we dit en alsnog niet tevreden. Zijn we nu echt zo zwaar "gehersenspoeld" door Nvidia dat we net niet het beste, maar wel 95W minder en vele honderden euro's goedkoper, niet goed genoeg meer is?
Dat maakt het product niet per definitie slecht, al ik $999 gewoon nog altijd veel geld, en als ze qua overall package inderdaad met de 4080 concurreren zoals AMD zelf aangeeft dan is dat nog steeds goed, maar ik kan me wel indenken dat het voor een aantal enthousiasts teleurstellend is, die willen immers dat AMD het wint van de 4090 om Nvidia eens een dreun uit te delen, de verwachting was immers bij een aantal daar AMD de vorige generatie zo dichtbij de 3090 zat, dat door het overstappen op chiplets AMD zo'n stap zou kunnen zetten die Nvidia met een monolitisch design niet zou kunnen zetten, en dat lijkt niet te gebeuren, in ieder geval nog niet.
[ Voor 10% gewijzigd door Dennism op 05-11-2022 20:05 ]
Ik heb mijzelf ook betrapt op een teleurstelling na de launch, terwijl ik vlak daarvoor nog dit geschreven heb:DaniëlWW2 schreef op zaterdag 5 november 2022 @ 18:29:
In het algemeen merk ik dat ik het eigenlijk vrij verontrustend vind dat er een zekere teleurstelling (ook bij mij) is bij een videokaart die toch ruim 1,5x sneller lijkt te zijn in rasterisation en ik vermoed eigenlijk nog iets meer in RT dan de vorige generatie, zonder een prijsverhoging of echt grote verhoging in verbruik. Dat is immers iets dat je eigenlijk al jaren eens nodig hebben, een einde aan de eindeloze prijsverhogingen die kwamen met prestatieverhogingen. En dan krijgen we dit en alsnog niet tevreden. Zijn we nu echt zo zwaar "gehersenspoeld" door Nvidia dat we net niet het beste, maar wel 95W minder en vele honderden euro's goedkoper, niet goed genoeg meer is?
En dat hebben ze min of meer eigenlijk gedaan.CMT schreef op dinsdag 1 november 2022 @ 14:04:
Ik zou graag zien dat het AMD nu een keer lukt om een voorsprong te krijgen, maar het is niet realistisch vermoed ik. Het is ook heel erg de vraag hoe het chiplet design uitpakt en of daar niet een knelpunt in zit.
Al lukt het om 90% van de prestaties van een RTX4090 te halen bij 300W voor een €500 lagere prijs, dan is het wat mij betreft een succes.
Alleen hoe dicht het bij de RTX4090 zit is nog niet te zeggen. De presentatie spreekt uiteraard ook maar van 'up to' en het kan dus net zo goed gaan om een vergelijking in de max. FPS.
Eigenlijk weten we nog niets concreets.
Verder vind ik dat er wat voorzichtigheid is geboden in het maken van projecties naar werkelijke FPS vanwege het bovenstaande. Het hekelt mij dan ook een beetje dat de media daar zo mee aan de slag gaat.
We weten bijv. ook niet of het chiplet design nadelige latency heeft wat evt. merkbaar kan zijn op lagere 1440p resolutie. Aan de andere kan is de bandbreedte van de IF flink toegenomen = lagere latency.
Na de launch had ik besloten om het nieuws even een paar dagen te laten bezinken en om dingen te relativeren. AMD heeft eigenlijk iets heel moois gepresenteerd, want je krijgt gewoon dezelfde formfactor, maar dan met een dikke +50% prestatie of prestatie/watt toename. De kaart is slechts 2cm langer en zal ook beter koelen vanwege het groter koeloppervlak en minder restrictie. Voor SFF liefhebbers zal dit een zegen zijn, want is gewoon een drop-in replacement zonder aanpassingen te hoeven doen in de build.
Voor mijzelf heb ik ook eens zitten rekenen omdat ik erg graag RT wil ervaren en ik kom tot de conclusie dat het voor een 3440x1440 resolutie @100Hz scherm, de RT prestaties voor de meeste spellen gewoon prima zijn. Het enige spel dat buiten de boot valt is Cyberpunk. Maar dat is zelfs met de RTX4090 onspeelbaar zonder DSSL..
In de press release geven ze ook de volgende statements:
Altogether, these features and advancements deliver up to a 1.7X performance uplift in select titles at 4K compared to AMD RDNA 2 architecture4
Met de notitie voor rasterizatie:Dedicated AI Acceleration and Second-Generation Raytracing – New AI instructions and increased AI throughput deliver up to 2.7X more performance than the previous AMD RDNA 2 architecture8, while second-generation raytracing technology delivers up to 1.8X more performance than the previous generation9.
En raytracing:RX-848 – Based on AMD performance labs internal benchmarks as of November 2022 comparing Radeon RX 7900 XTX and RX 6950 XT graphics similarly configured with AMD Ryzen 9 7900X, AM5 motherboard, 32GB DDR-6000MT, and Windows 11 Pro. System manufacturers may vary configurations, yielding different results. Performance may vary.
De meeste reviewers gebruiken voor de RTX4090 echter een 12900K en daarmee zijn de 4k prestaties over het algemeen wat hoger dan met een 5900X of 7900X.RX-839 – Testing done by AMD performance labs as of 10/30/2022, on a test system with a Radeon 7900 XTX GPU, Ryzen 9 7900X CPU, 32GB DDR5, MSI X670E Ace motherboard, Win 11 Pro vs. a similarly configured test system with a Ryzen 9 5900X, a Radeon RX 6950 XT GPU, a ASRock X570 Taichi motherboard, using the 3DMark SpeedWay application, testing the following titles: Cyberpunk 2077 (3840x2160), Dying Light 2 Staying Human (3840x2160), Fortnite Saving the World (3840x2160), Minecraft Bedrock Neon District RTX (3840x2160). System manufacturers may vary configurations, yielding different results. Performance may vary.
Het kan dus alleen maar beter worden
Nou werd er dus in dat ene interview gezegd dat ze het meer met de 4080 vergelijken en daar zijn nog geen benchmarks van (dus een logische keuze in die zin) maar tijdens de presentatie voelde dat gewoon raar.
[ Voor 5% gewijzigd door The Chosen One op 05-11-2022 20:07 ]
Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc
Is dat zo? Ik meende dat de 7900X de 12900K over het algemeen nek en nek zaten, dus of je daar veel verschil moet verwachten?CMT schreef op zaterdag 5 november 2022 @ 20:05:
De meeste reviewers gebruiken voor de RTX4090 echter een 12900K en daarmee zijn de 4k prestaties over het algemeen wat hoger dan met een 5900X of 7900X.
Het kan dus alleen maar beter worden.
Het enige dat ik op basis van die footnotes zou verwachten is dat de RX6950 mogelijk wat hoger zijn dan in de AMD tests wanneer getest met een meer moderne cpu dan de 5900X.
Maar dat is slechts met de EVGA GeForce RTX 3080 FTW3 Ultra gedaan.
Op 4k liep de 12900k globaal gezien 1.5% voor, op 1440p 3.8% en op 1080p 4.9%.
De RTX4090 is op 1440p redelijk cpu bound, dus het is aannemelijk dat het procentuele verschil ook zichtbaar is met een RX7900XTX en dan voor 4K rond 3-4% zal zitten.
Het is misschien spijkers zoeken op laag water en afhankelijk van welke game getest wordt, maar elke % telt.
Over een maand weten we precies hoe de vork in de steel zit.
De 6800xt is hooguit 10% langzamer dan de 6900xt, de laatste was echter 300 euro duurder en dus ook eigenlijk veel te duur, of de 6800xt te goed(koop).
Misschien is de 7900xt ook maar 10% langzamer dan de xtx en zijn de prijzen nu wat logischer? Dat zou de 7900xt dan ook gewoon een prima deal maken.
Dan zou de 7900xt minimaal 40% sneller zijn dan de 6900xt en is de prijs redelijk.
[ Voor 11% gewijzigd door meljor op 05-11-2022 21:45 ]
Ligt allemaal aan de uiteindelijke performance. Onafhankelijke reviews zijn de sleutel hier. Zeker de 7900XT heeft helemaal aandacht gehad en kunnen we alleen maar gokken. Voor 1099 euro en 40% sneller is natuurlijk prima alleen het probleem is dat de 6900xt momenteel meer dan 40% goedkoper is.meljor schreef op zaterdag 5 november 2022 @ 21:43:
Even over de prijzen...
De 6800xt is hooguit 10% langzamer dan de 6900xt, de laatste was echter 300 euro duurder en dus ook eigenlijk veel te duur, of de 6800xt te goed(koop).
Misschien is de 7900xt ook maar 10% langzamer dan de xtx en zijn de prijzen nu wat logischer? Dat zou de 7900xt dan ook gewoon een prima deal maken.
Dan zou de 7900xt minimaal 40% sneller zijn dan de 6900xt en is de prijs redelijk.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Klopt, maar de vergelijking in de presentatie was eigenlijk de xtx vs de 6950xt dus die had ik moeten aanhalen. Verder was het 50-70 % voor de xtx dus als de 7900xt 10% zal zijn is het 40-60% tov de 6950xt.OMD schreef op zaterdag 5 november 2022 @ 21:55:
[...]
Ligt allemaal aan de uiteindelijke performance. Onafhankelijke reviews zijn de sleutel hier. Zeker de 7900XT heeft helemaal aandacht gehad en kunnen we alleen maar gokken. Voor 1099 euro en 40% sneller is natuurlijk prima alleen het probleem is dat de 6900xt momenteel meer dan 40% goedkoper is.
De specs zijn zo'n 20% minder echter dus in het ergste geval 30-50% sneller dan de 6950xt. Als het gemiddeld 50% in raster is vind ik het best aardig, RT boeit me een stuk minder. FSR is voor mij een no go dus ook onbelangrijk. Ben zeer benieuwd naar benches, hopelijk gauw wat leaks.
N21 was alleen de laatste grote monolithische GPU van AMD. Sterker nog, na Fiji was N21 de grootse gaming GPU die AMD ooit heeft uitgebracht. Zeker met hoe duur N21 was, moesten we wel met drie SKU's komen.meljor schreef op zaterdag 5 november 2022 @ 21:43:
Even over de prijzen...
De 6800xt is hooguit 10% langzamer dan de 6900xt, de laatste was echter 300 euro duurder en dus ook eigenlijk veel te duur, of de 6800xt te goed(koop).
Misschien is de 7900xt ook maar 10% langzamer dan de xtx en zijn de prijzen nu wat logischer? Dat zou de 7900xt dan ook gewoon een prima deal maken.
Dan zou de 7900xt minimaal 40% sneller zijn dan de 6900xt en is de prijs redelijk.
Voor N31 gaan alleen "kleine AMD chip regels" gelden. Dat zijn:
-De cut down is beperkt (10-15%).
-Het prijsverschil is vaak niet zo gunstig omdat AMD je liever de volle chip verkoopt.
-Je opties qua AIB modellen zullen wat beperkter zijn.
-De cut down presteert meestal net iets beter dan je eigenlijk zou verwachten.
En ook nu zien we dat patroon. RX7900XT mist 14% ALU's, 15% clock speed. 20% geheugenbrandbreedte en 20% L3 cache. Ik denk dat het dus wel meer dan 10% langzamer zal zijn, maar ook niet de 20% die je hieruit eerder zou verwachten. AMD wil je die chip helemaal niet verkopen omdat waarschijnlijk minder dan een kwart van de functionele chips die ze uit wafers halen, niet volledig zullen werken. De RX7900XT is er voor mensen die $900 eigenlijk al het absolute maximum vinden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De massa met redelijk wat budget maar niet gek maar nuchter is keuze vermogen of kroon. Of wat bied de meeste bang for tha buck en welke features vind je belangrijk.
En marketing. Mijn games op pc hebben een g-kaart nodig om hardware accelerated te kunnen gamen. Die marketing heb je als gamer niks aan van nv van AMD van Intel. Marketing renderd mijn games niet dat doet g-kaart.
Ik wacht eigenlijk gewoon de reviews af. Die aankondiging heb ik niet gezien , maar die soap eromheen. Gamer nexus is ook net zo huilie blaast subtiel geldig punt van mug naar brontosaurus op.
Net ltt 8k gaming is onzin die dp2.1 heb je dus niet veel aan. Maar dan kijk je naar 8k reviews blind test of gamers het kunnen opmerken. Voor AMD is dit selling point. Waar marketing mee weg loopt.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Tja, AMD heeft een veel realistischere prijs. We zullen de reviews van zowel de 4080 als 7900 XT/XTX nog moeten afwachten, maar ik gok dat AMD hier gewoon veel meer bang for buck gaat leveren. DLSS3 e.d. kan dan echt aan mijn reet roesten.
Edit: zie hieronder
[ Voor 4% gewijzigd door Damic op 06-11-2022 12:21 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Ik weet niet eens of ze wel een zesde MCD hoeven toe te voegen. Als dat voor structurele redenen wel moet, tja ik zou niet verbaast zijn als de meeste alsnog werken maar niet aangesloten zijn. Verder durf ik wel te zeggen dat N32/7800XT precies dezelfde MCD's gebruikt. Het zijn er alleen vier op een kleinere interposer.Damic schreef op zondag 6 november 2022 @ 12:12:
@DaniëlWW2 van de MCD wafer kunnen ze wrs 99% van de wafer gebruiken. De defecte of waar een stuk ontbreekt kunnen ze gebruiken als opvulling voor de 7900XT. We weten nog niets over de 7800 maar zou me niet verbazen als ze dezelfde interposer gebruiken (met gesneden lanes) en dan nog meer opvulling gebruiken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ten eerste was de presentatie van AMD om te janken met al die FSR nummers die helemaal niets waard zijn, want was dit ultra of performance enz.
Ten tweede vind ik de 7900XT te duur in vergelijking met de 7900XTX. Hij heeft 15% lagere clock speeds over en DIE die ook nog eens 12.5% minder units heeft en kost maar 10% minder terwijl de te verwachten realistische prestatie gap dus waarschijnlijk rond de 25% gaat zijn. En dan hebben we het nog niet eens over het mindere geheugen wat ook nog in kosten mee zou moeten spelen. 799-849 had ik dus een veel redelijkere prijs gevonden.
En ten derde hebben we nog het probleem dat we wederom genaaid worden. De 4090 = 1599 MSRP is na euro dollar conversie +21% zou dat op 1952 euro uit moeten komen maar TADAA 2400 euro...
Dit laat velen denken dat deze 7900XTX van 999 MSRP dus gaat uitkomen op +/-1500 terwijl hij 1220 zou moeten gaan kosten en ik kan me voorstellen dat velen daar niet tevreden mee zijn. Dat is een FIKSE price bump bovenop de waarde daling van de euro. voor 1200 met verkoop van mij 6900XT wil ik er serieus over nadenken (na benchmarks wat die zijn erg erg erg vaag) maar voor 300 meer pas ik hard.
Verwijderd
Ugh ik heb dit gekeken en heb het gevoel dat mijn IQ 50 punten gedaald is.Dennism schreef op zaterdag 5 november 2022 @ 10:08:
Coreteks, dus wederom met een pak zout, is ook niet tevreden met deze presentatie
[YouTube: Is this AMD’s GREATEST failure?]
Wet eigenlijk niet wat ik van dat PCworld interview met Frank Azor moet vinden, het is immers dezelfde Frank Azor die consumenten wel vaker flat out voorgelogen heeft. Waardoor ik die man niet snel meer op zijn blauwe ogen zal geloven wanneer ie weer eens wat roept in een interview.
Coreteks hoef ik dus niet meer te kijken, voegt werkelijk niets van waarde toe aan de discussie en zijn argumenten slaan echt nergens op.
Gewoon een video vol gezeik omdat hij zelf blijkbaar onrealistische verwachtingen had...
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Inderdaad, misschien toch maar wachten op die 7950 XT als die ooit komtDamic schreef op zondag 6 november 2022 @ 18:16:
Hey kijk AdoredTv
[YouTube: RDNA 3 - AMD's Path To Victory]
Dat zou dan Mei 2023 zijn. uitvoering: MSI Radeon RX 6950 XT Gaming X Trio was op 11 Mei 2022 te koop.Sp3ci3s8472 schreef op zondag 6 november 2022 @ 18:52:
[...]
Inderdaad, misschien toch maar wachten op die 7950 XT als die ooit komt.
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
2400 is de goedkoopste nu omdat hij grotendeels uitverkocht is, bovendien vragen AIB als Asus gewoon steeds dikkere premiums voor weinig extra's.... Ik verwacht dat de volgende batch al iets beter verkrijgbaar zal zijn en begin volgend jaar voorraad genoeg.computerjunky schreef op zondag 6 november 2022 @ 14:27:
En ten derde hebben we nog het probleem dat we wederom genaaid worden. De 4090 = 1599 MSRP is na euro dollar conversie +21% zou dat op 1952 euro uit moeten komen maar TADAA 2400 euro...
Dit laat velen denken dat deze 7900XTX van 999 MSRP dus gaat uitkomen op +/-1500 terwijl hij 1220 zou moeten gaan kosten en ik kan me voorstellen dat velen daar niet tevreden mee zijn. Dat is een FIKSE price bump bovenop de waarde daling van de euro. voor 1200 met verkoop van mij 6900XT wil ik er serieus over nadenken (na benchmarks wat die zijn erg erg erg vaag) maar voor 300 meer pas ik hard.
De 21% btw is normaal een feit maar gek genoeg is een 6900xt nu geen 21% duurder dan in vs bijvoorbeeld en neem een cpu: de 7700x is 399 dollar maar hier verkrijgbaar vanaf 450 euro, Das geen 21%, kan dus best nog wat lager, vraag en aanbod. Helaas bij gpu's meestal dus eerst prijs verder omhoog door hoge vraag...
Ik denk dat deze analyse werkelijk nergens op slaat. Want:Damic schreef op zondag 6 november 2022 @ 18:16:
Hey kijk AdoredTv
[YouTube: RDNA 3 - AMD's Path To Victory]
-Het "probleem" zit niet in frontend maar in de gekozen structuur van de WGP waarop de hele Shader Engine is aangepast.
-Tweemaal het formaat gaat ook een gigantisch verbruik opleveren. AMD wint dan echt met enorme marge van Nvidia, voor 700W.
-Het idee dat ze die magische chip in een jaartje gaan doen is bespottelijk.
Zo kan ik nog wel even doorgaan. Dit is echt onzin.
N31 is het gewoon voor de komende twee jaar. Daar kan je van vinden wat je wil, maar dit is het. En stiekem lijkt het best wel een "HD4800" momentje.
[ Voor 10% gewijzigd door DaniëlWW2 op 06-11-2022 21:47 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Qua chip verwacht ik dat inderdaad ook. Ze gaan niet met een twee keer zo grote chip komen en in het verlengde van het gejammer van coreteks dat ze een patent hebben op twee dies verbinden en het niet doen: dat is al lang in gebruik bij CDNA en ik zie dat gezien het verwachte stroomverbruik inderdaad voor RDNA3 niet gebeuren.DaniëlWW2 schreef op zondag 6 november 2022 @ 20:26:
[...]
Ik denk dat deze analyse werkelijk nergens op slaat. Want:
-Het "probleem" zit niet in frontend maar in de gekozen structuur van de WGP waarop de hele Shader Engine is aangepast.
-Tweemaal het formaat gaat ook een gigantisch verbruik opleveren. AMD wint dan echt met enorme marge van Nvidia, voor 700W.
-Het idee dat ze die magische chip in een jaartje gaan doen is bespottelijk.
Zo kan ik nog wel even doorgaan. Dit is echt onzin.
N31 is het gewoon voor de komende twee jaar. Daar kan je van vinden wat je wil, maar dit is het. En stiekem lijkt het best wel een "HD4800" momentje.
Wellicht dat ze een die shrink kunnen doen, maar dat is ook redelijk ver gezocht.
Ik vermoed dat de clocks nu wat tegenvallen doordat de hogere benutting, maar gezien de proces node verwacht ik dat ze, als niet nu dan later door binning, ze die 3GHz met een goede koeler nog wel gaan aantikken en dan is het voor rasterization in ieder geval een kaart die prima met nVidia mee kan komen.
Ik beschouw het in ieder geval niet als een flop. De winst die ze tov de vorige generatie hebben is bijvoorbeeld groter dan de winst van 2080Ti naar 3090 en echt wel een duidelijke generationele winst. Ze leggen het nu af omdat nVidia alles (vooral een heleboel vermogen) er tegenaan gegooid heeft om aan de top tye blijven.
FSR3/DLSS 3 is een gimmick, als je daar voor koopt heb je het niet echt begrepen. Het verhoogt de framerate en de latency. Het meeste nut van de framerate verhoging heb je als de framerate laag is, maar dan is je basis latency ook al hoger. Dus voor competitive gaming de slechtste situatie om fake frames tussen te voegen. Als de framerate al hoog is, waarom zou je dan in vredesnaam fake frames invoegen? Helemaal als ik de irritante flickering zie die het in somige games veroorzaakt.
FSR2/DLSS2 daarentegen is best nuttig wanneer een game niet soepel genoeg loopt in de native resolutie van de monitor. De upscaling van deze technieken is veel beter dan de upscaling in de monitor. Maar ik ga primair voor een kaart die zonder FSR nu alle AAA games speelt met fatsoenlijke framerate.
Voor een UW 1440p high refreshrate scherm of een widescreen 4k scherm voldoet 7900XT(X) prima. En wie denkt dat 8k belangrijk is, die moet maar even naar de steam survey kijken. De 7800/7700 zijn wat dat betreft veel en veel belangrijker en als ze daar hetzelfde doen heeft nVidia een probleem in de markt die er echt toe doet qua volume.
Gezien de 4090 maar 3% prestaties verliest op 350W zou ik denken dat Nvidia er helemaal geen 450W kaart van had moeten maken.Verwijderd schreef op zondag 6 november 2022 @ 23:00:
[...]
Ik beschouw het in ieder geval niet als een flop. De winst die ze tov de vorige generatie hebben is bijvoorbeeld groter dan de winst van 2080Ti naar 3090 en echt wel een duidelijke generationele winst. Ze leggen het nu af omdat nVidia alles (vooral een heleboel vermogen) er tegenaan gegooid heeft om aan de top tye blijven.
:fill(white):strip_exif()/f/image/ehDCswngv1fKBsCDlZ4Fcoea.png?f=user_large)
Eenmaal ze beiden uit zijn, wil ik wel eens zien hoevel sneller de 4090 is op hetzelfde TGP. Ik begrijp eigenlijk totaal niet waarom Nvidia de kaart zo'n hoge TGP heeft gegeven. Het was een makkelijke "win" tegenover AMD door er gewoon een 350W kaart van te maken. Ze zouden dan winnen in prestaties en efficiëntie.
Want ze hebben alweer gefaald om een enigszins coherent verhaal te vertellen. Hierdoor zitten we alweer in deze volstrekt belachelijke situatie waar de potentiële klanten, de presentatie van de verkopende partij aan het ontcijferen zijn om te begrijpen wat hun product nu precies is en wat het kan.
Het was niet moeilijk geweest om te zeggen dat ze bewust hun GPU's best efficiënt hebben afgesteld en de AIB's vrij zijn om over de 400W te gaan. Als ik die ASUS TUF zie, dan lijkt me dat wel duidelijk tenzij ze bij ASUS inmiddels zo lui zijn geworden dat ze een 450W+ rated koeloplossing gaan recyclen op een 350W videokaart. De RX7900XTX is zelfs iets groter.
https://www.asus.com/moth...xtx-o24g-gaming/techspec/RX7900XTX 352.9 x 158.2 x 72.6 mm
RTX4090 348.2 x 150 x 72.6 mm
https://www.asus.com/moth...4090-24g-gaming/techspec/
Het was ook niet zo moeilijk om minder vaag te doen met prestatieverbeteringen tegenover de RX6950XT. Het lijkt toch zeker 50% te worden en dan ben je ruim de RTX3090Ti voorbij en benader je de RTX4090. Dat had gecombineerd kunnen worden door extra nadruk te leggen op het kleine formaat van de GCD zelf en de voordelen die doorberekend worden aan de gamer. Wat we nu kregen was eigenlijk heel slecht gepresenteerd, zonder structuur en verwarrend.
Het grappigste is misschien wel dat AMD waarschijnlijk nu heeft gedaan waar mensen nu al bijna tien jaar om vragen. Altijd werd er gevraagd om hun chips eens niet tot het uiterste te pushen voor wat efficiëntiewinst en nu ze dat eens gedaan lijken te hebben, is het opeens dat ze het wel moesten doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Ik heb met een soort van plaatsvervangende schaamte naar de presentatie zitten kijken. Die was echt slecht en werd vervolgens ook niet geholpen door het publiek dat was nog meer cringe dan de presentatie.DaniëlWW2 schreef op zondag 6 november 2022 @ 23:35:
@Verwijderd Eigenlijk is het gewoon alweer de schuld van de prutsers bij de marketingafdeling.
Ik ga waarschijnlijk voor mijn main systeem voor het eerst sinds de 8800GTX over op AMD, ondanks dat CUDA programming een deel van mijn werk is! Dat blijf ik op mijn 2080Ti doen thuis.Dat doe ik echt niet lichtzinnig, maar heeft puur met prijs/prestatie te maken. (Ik ga er even vanuit dat ze in hun huidige situatie niet zo dom zijn geweest om hun GPU ook nog eens te oversellen)
Is vervangen door NVlink.DJvL schreef op maandag 7 november 2022 @ 02:25:
[...]
Crossfire support? Dat was er toch niet meer vanaf de 5700XT?
[Afbeelding]
Oh dat is normaal.Verwijderd schreef op zondag 6 november 2022 @ 23:47:
[...]
Ik heb met een soort van plaatsvervangende schaamte naar de presentatie zitten kijken. Die was echt slecht en werd vervolgens ook niet geholpen door het publiek dat was nog meer cringe dan de presentatie.
Zo dom zijn ze meestal niet nee.Ik ga waarschijnlijk voor mijn main systeem voor het eerst sinds de 8800GTX over op AMD, ondanks dat CUDA programming een deel van mijn werk is! Dat blijf ik op mijn 2080Ti doen thuis.Dat doe ik echt niet lichtzinnig, maar heeft puur met prijs/prestatie te maken. (Ik ga er even vanuit dat ze in hun huidige situatie niet zo dom zijn geweest om hun GPU ook nog eens te oversellen)

Maar eigenlijk denk ik dat je een van die weinige mensen bent waar de RTX4090 zowaar zinvol kan zijn. Prijs en verbruik zijn uiteraard belachelijk, maar Nvidia heeft nu eenmaal meer dan alleen rasterisation. Voor de gemiddelde gamer is het nu al een paar jaar steeds duidelijker aan het worden dat Nvidia helemaal niet zoveel beter is. En met deze generatie lijkt het helemaal voorbij te zijn met de "voordelen", maar van wat ik weet ligt ROCm nog steeds jaren achter. Ze lijken bij AMD nu pas op het punt te zijn waarbij ze software van derde partijen zoals Blender goed gaan ondersteunen. Verder weten we dat RDNA3 nu ook matrix cores heeft, maar of je die goed kan gebruiken qua software is een tweede,
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Vind je? Ik kan met mijn budget altijd best dure componenten kiezen. Ik zelf vond altijd €750-800 een mooie grens. Nu met inflatie etc, goed €1000,- dan, maar komende generatie ga je daar dus al niet eens meer de x080 of x900XT voor kunnen kopen. Komende Januari bouw ik een nieuwe PC, ben bijna genoodzaakt iets van de vorige generatie te kopen omdat dat dan nog betaalbaar is. Echt bizar...Thomas schreef op zondag 6 november 2022 @ 11:29:
Tja, AMD heeft een veel realistischere prijs.
Het loopt gewoon echt de spuigaten uit die prijzen.
[ Voor 18% gewijzigd door JeroenNietDoen op 07-11-2022 10:22 ]
Alleen al door de zwakke euro zijn we 10-20% aan koopkracht kwijtgeraakt bij dingen die we importeren. Aangezien beide bedrijven Amerikaans zijn, kun je het beste de Amerikaanse prijzen als maatstaf nemen om de evolutie daarvan te volgen, want die prijzen zijn leidend. Dat onze prijzen dan variëren door de wisselkoers kun je niet wijten aan de bedrijven.
Feit is dat de dollar MSRP van de 7900 XTX hetzelfde is als van de 6900 XT, terwijl de 4090 een $100 hogere MSRP heeft dan de 3090.
Nu is het wel zo dat zowel de 3090 als de 6900 XT nu ver onder MSRP worden verkocht, maar dat is omdat het 'oude meuk' is en er overschotten zijn doordat de vraag sterk is afgenomen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Verwijderd
Zo heb ik een hele tijd gedacht. Alleen voor het werk draait het in een cloud instance die ik on demand start. Thuis gaat het eigenlijk alleen maar om zelfstudie en probeersels. Zelden dat ik met gigantische datasets aan de slag ga. Het gaat er vooral om dat ik geen zin heb om thuis te betalen voor een cloud server.DaniëlWW2 schreef op maandag 7 november 2022 @ 09:00:
Maar eigenlijk denk ik dat je een van die weinige mensen bent waar de RTX4090 zowaar zinvol kan zijn. Prijs en verbruik zijn uiteraard belachelijk, maar Nvidia heeft nu eenmaal meer dan alleen rasterisation. Voor de gemiddelde gamer is het nu al een paar jaar steeds duidelijker aan het worden dat Nvidia helemaal niet zoveel beter is. En met deze generatie lijkt het helemaal voorbij te zijn met de "voordelen", maar van wat ik weet ligt ROCm nog steeds jaren achter. Ze lijken bij AMD nu pas op het punt te zijn waarbij ze software van derde partijen zoals Blender goed gaan ondersteunen. Verder weten we dat RDNA3 nu ook matrix cores heeft, maar of je die goed kan gebruiken qua software is een tweede,
Niet alleen voldoet de 2080Ti, mijn laptop heeft een 3070 (wat in de praktijk een stuk zwakker is) die ook geschikt is om dat me te doen. Daarmee kwam de realisatie dat ik voor games geen 2000euro+ GPU hoef te kopen.
ROCm is inderdaad niet top nog. Ik heb een RX580 waar ik de ontwikkeling op bijhield en ik ben daar mee gestopt. In het verleden ook gezien dat AMD iets introduceert in de stack en vervolgens niet meer ondersteunt. Dat is ook killing.
Twee dingen.JeroenNietDoen schreef op maandag 7 november 2022 @ 10:20:
[...]
Vind je? Ik kan met mijn budget altijd best dure componenten kiezen. Ik zelf vond altijd €750-800 een mooie grens. Nu met inflatie etc, goed €1000,- dan, maar komende generatie ga je daar dus al niet eens meer de x080 of x900XT voor kunnen kopen. Komende Januari bouw ik een nieuwe PC, daar gaat dan maar een 3080 of 6900XT in![]()
Het loopt gewoon echt de spuigaten uit die prijzen.
1) Je hebt gelijk dat de RX7900 series alsnog duur zijn. Daar gaat AMD alsnog enorm veel per chip op verdienen. Dat lijken weinig door te hebben, maar ik heb het zeker wel door.
2) RX7800 series zie ik wel onder die €800 blijven als AMD niet te gierig gaat doen met N32. Eigenlijk als ze de huidige lijn doortrekken kan dat al. Want die chip zou relatief goedkoop moeten zijn voor N5 GPU standaarden en alsnog aardig moeten presteren met fors hogere clock speeds dan 2000MHz.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja, de 7800XT zal een stuk betaalbaarder zijn. In dat geval wordt het ook even afwachten hoe de 4070 zich zal presenteren. Hebben we trouwens uberhaupt enig idee wanneer N32 en 4070 gaan komenDaniëlWW2 schreef op maandag 7 november 2022 @ 11:28:
[...]
Twee dingen.
1) Je hebt gelijk dat de RX7900 series alsnog duur zijn. Daar gaat AMD alsnog enorm veel per chip op verdienen. Dat lijken weinig door te hebben, maar ik heb het zeker wel door.![]()
2) RX7800 series zie ik wel onder die €800 blijven als AMD niet te gierig gaat doen met N32. Eigenlijk als ze de huidige lijn doortrekken kan dat al. Want die chip zou relatief goedkoop moeten zijn voor N5 GPU standaarden en alsnog aardig moeten presteren met fors hogere clock speeds dan 2000MHz.
Ik zit in een redelijk schuitje, die PC komt er in januari, maar ik kan mijn 3060TI nog even aanhouden

Dus dat lijkt me wel redelijk in de richting.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik meende ergens gelezen te hebben (denk Reddit) dat N32 pas in Q2 2023 zou komen, echter geen idee of dat een gerucht is, of dat dit in de presentatie benoemd is.JeroenNietDoen schreef op maandag 7 november 2022 @ 11:41:
[...]
Ja, de 7800XT zal een stuk betaalbaarder zijn. In dat geval wordt het ook even afwachten hoe de 4070 zich zal presenteren. Hebben we trouwens uberhaupt enig idee wanneer N32 en 4070 gaan komen
Ik zit in een redelijk schuitje, die PC komt er in januari, maar ik kan mijn 3060TI nog even aanhouden
Eens, hier ook een nieuwe PC op de verlanglijst staan voor eind dit jaar / begin volgend jaar. Ik heb er flink voor gespaard de afgelopen tijd maar vind het bizar dat je met een flink budget alsnog concessies moet gaan maken. Dat gezegd hebbende lijkt het er alsnog op dat een 7900 XT / XTX even goed / beter presteert dan een 4080, en een flinke duit minder kost (om het nog niet te hebben over de grootte).JeroenNietDoen schreef op maandag 7 november 2022 @ 10:20:
[...]
Vind je? Ik kan met mijn budget altijd best dure componenten kiezen. Ik zelf vond altijd €750-800 een mooie grens. Nu met inflatie etc, goed €1000,- dan, maar komende generatie ga je daar dus al niet eens meer de x080 of x900XT voor kunnen kopen. Komende Januari bouw ik een nieuwe PC, ben bijna genoodzaakt iets van de vorige generatie te kopen omdat dat dan nog betaalbaar is. Echt bizar...
Het loopt gewoon echt de spuigaten uit die prijzen.
Mijn inschatting is dat dit nu de 4070 Ti wordt met een iets andere knip om het te verhullen en dat de 4070 dan een sterk geknipte chip wordt. Die 4070 zou dan eigenlijk de 3060 Ti moeten zijn als ze op dezelfde manier zouden segmenteren als de 3000 serie.
Gezien de gemelde prestaties voor de 4080 in het Nvidia topic verwacht ik dat AMD veel betere prijs/prestaties gaat leveren over de hele linie waar ze een competitief product kunnen neerzetten. Dan heeft Nvidia eigenlijk alleen de 4090 (Ti) als product waar AMD niks beters tegenover zet.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Het goede nieuws is dat gezien de economische verwachtingen er nog wel even een kopersmarkt zou moeten blijven. Dus met wat geduld zouden de prijzen de goede kant op moeten gaan, een beetje zoals de 6900 XT die nu ook ver onder MSRP is.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik vind het wel raar dat de rx 6950 xt dan weer niet of nauwelijks zakt in prijs, prestatieverschil tov de rx 6900 xt is veel te weinig om 300(+) meer te blijven vragen... Zouden daar veel minder van gemaakt zijn?Ludewig schreef op maandag 7 november 2022 @ 12:02:
@Thomas
Het goede nieuws is dat gezien de economische verwachtingen er nog wel even een kopersmarkt zou moeten blijven. Dus met wat geduld zouden de prijzen de goede kant op moeten gaan, een beetje zoals de 6900 XT die nu ook ver onder MSRP is.
De rtx 4080 schijnt trouwens niet bijzonder veel sneller te worden dan de 3090ti, dus ik verwacht voor de ti een redelijke daling na de 13e. Misschien zakt de rx 6950 xt dan ook..
Ook de 6750xt blijft prijzig, zeker tov de 6800.
AIBs built 4 slots monsters cards that can dissipate up to 600W (Same as RTX 4090) based on prelim OC info given by AMD. But Navi31 cannot reach the target...
— AGF (@XpeaGPU) 6 november 2022
RX 7900 XTX AIB cards with 3x8-PIN reaches 2.8GHz at 450W. Less than 5% perf uplift by this OC on synthetic benchmark (TSE)
— AGF (@XpeaGPU) 6 november 2022
For now, cannot go above 2.9GHz, whatever the voltage, whatever the power, whatever the binned die, because of "instabilities" 🤔
Bad news:
— AGF (@XpeaGPU) 6 november 2022
Navi31 needs a respin to fix the issue preventing to reach the 3GHz target at reasonable power level. Hardware team failed this design.
Good news:
The problem has been identified and corrected for Navi32
Disclaimer, I'm not AMD leaker, so it's not direct source. This is second hand info so take it with grain of salt.
— AGF (@XpeaGPU) 6 november 2022
AIBs were told "easily above 3.2Ghz" with normal OC tweaks (power/voltage) and max frequency in beta BIOS is 3.7GHz
Het probleem hiermee is dat we het pas over ruim een maand weten met N31 en waarschijnlijk pas na ruim twee maanden voor N32. Want als N32 opeens veel beter gaat clocken dan N31 zonder enorme sprong in verbruik, dan is er iets raars aan de hand. Idem als N31 enorme verhoging in verbruik heeft voor een paar honderd megahertz en maar een paar procent sneller is.
[ Voor 13% gewijzigd door DaniëlWW2 op 07-11-2022 16:30 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
In zijn laatste video gooit adored er wat speculaas uit m.b.t. een mogelijke 7950XT(X) in de toekomst. Nogmaals het is pure speculatie, maar ik snap wel waarom hij die kant op denkt. Kan iemand goede argumenten verzinnen om zijn verhaal onderuit te halen? Ik wil namelijk heel graag niks hopen.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
I theorie is AV1 op alle manierden dermate veel beter als x265 dan het er eigenlijk niet toe doet. en gezien x265 ook nergens ondersteund word door streaming services is het daar al helemaal niet boeiend voor.Blaat schreef op maandag 7 november 2022 @ 12:54:
Is er eigenlijk iets langs gekomen over de ingebouwde encoder van Navi 3x met betrekking tot H265? Dat deze AV1 ondersteunt is duidelijk, maar ik hoop dat de H265 encoder ook een stevige upgrade krijgt. Deze was duidelijk slechter dan bij nVidia vorige generatie, om maar niet te spreken van de drivers die H265 voor 18 maanden onbruikbaar maakten (hardcrash als je dat wilde gebruiken). Erg leuk als je daarvan afhankelijk bent voor VR.
In zijn laatste video gooit adored er wat speculaas uit m.b.t. een mogelijke 7950XT(X) in de toekomst. Nogmaals het is pure speculatie, maar ik snap wel waarom hij die kant op denkt. Kan iemand goede argumenten verzinnen om zijn verhaal onderuit te halen? Ik wil namelijk heel graag niks hopen.
In 1 slide kwam wel snel iets voorbij over "AI enhanced video encode" maar verder moeten we nog maar zien wat dat precies is en of dat voor AV1 of X265/HVEC is.
Tja, als er VR headsets komen die AV1 ondersteunen ben ik direct om, maar dat is helaas nog geen realiteit.computerjunky schreef op maandag 7 november 2022 @ 12:59:
[...]
I theorie is AV1 op alle manierden dermate veel beter als x265 dan het er eigenlijk niet toe doet. en gezien x265 ook nergens ondersteund word door streaming services is het daar al helemaal niet boeiend voor.
In 1 slide kwam wel snel iets voorbij over "AI enhanced video encode" maar verder moeten we nog maar zien wat dat precies is en of dat voor AV1 of X265/HVEC is.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
https://www.pcgameshardwa...31-BLOCK-DIAGRAM-pcgh.jpgBlaat schreef op maandag 7 november 2022 @ 12:54:
In zijn laatste video gooit adored er wat speculaas uit m.b.t. een mogelijke 7950XT(X) in de toekomst. Nogmaals het is pure speculatie, maar ik snap wel waarom hij die kant op denkt. Kan iemand goede argumenten verzinnen om zijn verhaal onderuit te halen? Ik wil namelijk heel graag niks hopen.
Als die afbeelding klopt en je berekend even de units dan kom je op die 95 van de XTX uit dus ze zouden alleen hogere clocks, sneller geheugen en hogere power draw in de RX7950XTX kunnen doen tenzij ze speciaal daarvoor een nieuwe die maken wat mij erg sterk lijkt. Misschien mis ik wat maar ik heb zon vermoeden dat er niet veel te halen valt bij de huidige DIE met een overclock gezien volgens geruchten de AIB die al overclocken.
Ja van VR heb ik geen kaas gegeten. Heb daar echt nul interesse in en me ook dus totaal niet mee bezig gehouden. Wist dus ook niet dat dat daarvoor gebruikt werd. Maar i neem dus aan dat dat "live encode" is ala streamen wat dus al lastiger is.Blaat schreef op maandag 7 november 2022 @ 13:03:
[...]
Tja, als er VR headsets komen die AV1 ondersteunen ben ik direct om, maar dat is helaas nog geen realiteit.
Het is niet per se VR-specifiek, maar vooral Quest-specifiek. Die gebruikt H.264 over de kabel en H.265 wanneer mogelijk wanneer je de draadloze optie gebruikt (Air Link).computerjunky schreef op maandag 7 november 2022 @ 13:08:
[...]Ja van VR heb ik geen kaas gegeten. Heb daar echt nul interesse in en me ook dus totaal niet mee bezig gehouden. Wist dus ook niet dat dat daarvoor gebruikt werd. Maar i neem dus aan dat dat "live encode" is ala streamen wat dus al lastiger is.
In beide gevallen is het inderdaad live streamen. De PC rendert het beeld en dat gaat naar de headset toe om het daar te tonen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ahum.Blaat schreef op maandag 7 november 2022 @ 12:54:
In zijn laatste video gooit adored er wat speculaas uit m.b.t. een mogelijke 7950XT(X) in de toekomst. Nogmaals het is pure speculatie, maar ik snap wel waarom hij die kant op denkt. Kan iemand goede argumenten verzinnen om zijn verhaal onderuit te halen? Ik wil namelijk heel graag niks hopen.

DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat gezegd hebbende, wordt het wel weer relevant als ze allemaal draadloos gaan, wat bijna onvermijdelijk is
[ Voor 12% gewijzigd door Werelds op 07-11-2022 15:19 ]
Pico is ook sinds kort gekomen met een budget headset met dezelfde Snapdragon XR2, dus ook zonder AV1. Volgens mij is hun draadloze oplossing vergelijkbaar met die van de Quest (dus ook H.265). Het is niet onwaarschijnlijk dat goede h.265 ondersteuning juist belangrijker wordt op de korte termijn, totdat we echt een nieuwe generatie krijgen en mensen daarnaar overstappen.
Mijn inschatting is dat we met de Snapdragon XR3 ondersteuning gaan krijgen voor AV1. Vermoedelijk komt die in de Quest 3, die ik eind 2023 verwacht, alsook in een nieuwe Pico. Dus met toekomstige headsets zal draadloze PCVR vermoedelijk profiteren van AV1-ondersteuning.
Overigens geven de patenten aan dat de volgende headset van Valve ook draadloos gaat werken.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4
Begint een beetje off-topic te worden, maar de Quest 2 en Pico zullen nooit AV1 kunnen decoderen, dit kan de XR2 simpelweg niet. Dus als AMD dat al zou doen, zou dit voor de, op dit moment, meest populaire VR brillen geen oplossing bieden.UniMatrix schreef op maandag 7 november 2022 @ 16:29:
Misschien dat AMD hun eigen streamingoplossing (ReLive VR) wel opwaardeert naar AV-1, die heb ik wel eens geprobeerd met de Quest 2 en een 6900XT. Beeldkwaliteit was toen lager dan Virtual Desktop of Link.
Daarom is zoals Ludewig al zegt, HEVC op dit moment het meest belangrijk. Dat is voor mij ook de reden dat AMD helaas geen optie is, gezien ik graag goede ondersteuning daarop heb.
Vooral het feit dat het 18 maanden onopgelost is gebleken, zorgt bij mij voor zeer weinig vertrouwen in de ondersteuning hierop.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Heeft hij nog wel een beetje zelfrespect? In dit filmpje doet ie continue alsof andere leakers ernaast zaten en dat hij 't allemaal wel beter wist, terwijl ie zelf precies dezelfde details gebruikte voor zijn berekeningen in zijn vorige filmpje.Damic schreef op zondag 6 november 2022 @ 18:16:
Hey kijk AdoredTv
[YouTube: RDNA 3 - AMD's Path To Victory]

Het verschil is dat hij destijds overduidelijk goede informatie had gekregen over Zen 2. Maar hij zat er ook compleet mis met wat toen alleen nog maar Navi was. Immers zou AMD nooit meer gaan inlopen op Nvidia.Paprika schreef op maandag 7 november 2022 @ 21:21:
[...]
Heeft hij nog wel een beetje zelfrespect? In dit filmpje doet ie continue alsof andere leakers ernaast zaten en dat hij 't allemaal wel beter wist, terwijl ie zelf precies dezelfde details gebruikte voor zijn berekeningen in zijn vorige filmpje.

Een andere realisatie waar ik eigenlijk mee zit is dat er misschien niet eens zoveel gaat veranderen qua top end performance met deze generatie. Nvidia blijft waarschijnlijk iets van 10%, misschien iets meer sneller met betere RT. Ze hebben alleen een fors hoger verbruik nodig om dit te bereiken en vragen ook fors meer. Verder heeft Nvidia hun tensor cores.
De verandering zit denk in de rest van de lijn. Ik blijf er ook wat ik al maanden zeg, dat het succes voor AMD deze generatie niet in N31 zit, maar in N32 en N33. Immers vermoed ik dat N21 duurder om te maken als N32, zelfs als N5 wafers inderdaad nog $17.000 zijn, wat ik behoorlijk betwijfel omdat we inmiddels ruim twee jaar verder zijn, N5 niet meer leading edge is en de markt een beetje aan het instorten is. Ik denk dan ook het een stuk minder is en dat maakt N32 zeker goedkoper per wafer en AMD haalt waarschijnlijk ook 3x zoveel GPU's uit een wafer dan met N21 en veel meer van die chips zouden volledig functioneel moeten zijn.
Ik blijf ook zo hameren op N32 omdat ik de potentie zo zie. Zelfs als ik de sterk vermoede extra 3840 ALU's negeer en puur met de eerste set van 3840 reken, tja 3840 x 2 x 2800MHz = 21,5TFLOPS. Dan zit je al op RX6800XT niveau terwijl ik de rest van RDNA3 verbeteringen negeer. Ik heb ook moeite om te geloven dat N32 niet een dergelijke clock speed zal halen als je ziet dat N22 al 2600MHz doet. Met die extra 3840 ALU's verwacht ik dat N32 al iets boven de RTX3090Ti en dan kijk je al snel richting RTX4080 in rasterization. De chip is alleen zoveel goedkoper omdat je waarschijnlijk tweemaal zoveel chips uit een N5 wafer haalt met N32 dan AD103. Dat is namelijk het verschil tussen een 200mm2 en een 380mm2 chip.
Navi 32
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/hTGCLYEeME3hic3afy3UgGyT.jpg?f=user_large)
AD103
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/7Z5l3bmxFToKDhGy6dYSynRj.jpg?f=user_large)
N33 zie ik ook echt geen moeite hebben met AD106. Dat heeft uiteindelijk weinig te maken met N33 en alles met AD106. Ik zie AD106 slecht partij bieden in zowel prestatiepunt als kosten, zeker als N33 inderdaad een monolithisch N6 GPU blijkt te zijn. Klopt die 2048 + 2048 daar ook, dan zou ik die inschatten ergens rond RX6750XT-RX6800 niveau. AD104 lijkt vervolgens ook in niemandsland terecht te gaan komen. Geen partij voor N32, te snel voor N33 en te duur om ertussen te zitten. AD104 heeft een flink uitgerekte prijsstructuur nodig en die krijgt Nvidia gewoon niet met wat AMD lijkt te doen.
AMD moet er nu alleen wel echt voor gaan. Laat ze er nu echt max $600 van maken voor N32 en echt max $400 voor N33, maar die laatste liever nog lager als het inderdaad een 200mm2 N6 monolithische GPU is. N31 was zeker een eerste goede stap, maar nu moeten ze het afmaken met acceptabele prijzen over de hele linie alsmede volume zodat ze van die hatelijke 20% marktaandeel af kunnen komen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Fwiw: Beta GPU drivers van AMD, nVidia en Intel zijn ook te downloaden.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Dat zeker ook. Ian Cutress had het er ook al over en die probeerde het uit Frank Azor te krijgen zonder succes.Werelds schreef op dinsdag 8 november 2022 @ 11:24:
@DaniëlWW2 N32 wordt vooral ook interessant als vergelijkingspunt qua verbruik. De GCD is kleiner, maar klokt wellicht hoger; maar er zijn ook twee MCD's minder, dus we krijgen een datapunt met betrekking tot de impact van de interconnect.
On RDNA3 it'll be interesting with power of the GCD->MCD design at 5.3 TB/sec. When you move data offchip, however you're doing it, you pay a penalty - anywhere from 0.5 pJ/bit and up. Depends on the tech, on the links.
— 𝐷𝑟. 𝐼𝑎𝑛 𝐶𝑢𝑡𝑟𝑒𝑠𝑠 (@IanCutress) 4 november 2022
5.3 TB/s at 0.5 pJ/bit = 21W
5.3 TB/s at 2.0 pJ/bit = 84W
Maar ik ben meer benieuwd hoe N32 nu gaat clocken. Want N31 valt daar eigenlijk wel een beetje tegen.
Nu kan je dat verklaren met de 54% perf watt claim die beperkingen opwerpt, maar ik vraag het me toch af.
N32 heeft dat probleem waarschijnlijk minder omdat ik AMD gewoon richting de 300W zie gaan als die chip dat wil. Verder haalde AMD al 2600MHz uit N22 en N23 en een verlaging zou ik echt opvallend en teleurstellend vinden. Ik vermoed dat het magische getal 2800MHz gameclock zou zijn. Heb je net zoals de RX7900XT "43TFLOPS" en dan kan je ook mooi zien wat 256 vs 320 bit bus, 64MB vs 80MB L3 cache en 60 vs. 84 RA's doen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat is wat mij betreft het ideaal qua performance vergelijking, want dan hebben we op papier exact hetzelfde als de 6900 XT als baseline, en kunnen we zien hoe effectief hun dual-issue setup is. Enige minpunt is het verschil in SE's (en dus WGP's), wat scheduling iets anders maakt.
Overigens is er een NDA die vóór de launch vervalt, dat zal wel voor alle architecturele dingen zijn en *hopelijk* een whitepaper.
Ik heb een vaag idee ja.Werelds schreef op dinsdag 8 november 2022 @ 11:45:
We zullen het wel zien, hoewel ik persoonlijk exact 3 GHz het magische cijfer vind. 3840 * 3 * 2 = 23040 GFLOPS...ziet dat cijfer er niet heel erg bekend uit?
Maar ik denk dat 2800MHz goed genoeg is tegenover de RX6800XT, zeker omdat ik vermoed dat N32 hiermee al de RTX3090Ti gaat passeren.
Hopelijk is een RDNA3 whitepaper ook beter dan Nvidia hun Ada Lovelace white paper.Dat is wat mij betreft het ideaal qua performance vergelijking, want dan hebben we op papier exact hetzelfde als de 6900 XT als baseline, en kunnen we zien hoe effectief hun dual-issue setup is. Enige minpunt is het verschil in SE's (en dus WGP's), wat scheduling iets anders maakt.
Overigens is er een NDA die vóór de launch vervalt, dat zal wel voor alle architecturele dingen zijn en *hopelijk* een whitepaper.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[Twitter: https://twitter.com/JirayD/status/1544370865055432713]
Seems like most of the VOP2 instructions are available in the VOPD Format, and thus can be Dual-Issued in Wave32 (biggest exceptions seem like most 16b Instructions and no-carry variants)
— Wild_C (@_wildc) 5 juli 2022
This also means no 3-input FMA, accumulate has to be done with destination or an immediate
(Also a lot of Bitwise ops and Signed INT Instructions are missing)
— Wild_C (@_wildc) 5 juli 2022
So, VOPD VLIW2 seems fairly limited, but can still be considered a "Core Feature of the Architecture"
An AMD patent gives an idea how the feature may potentially work:https://t.co/qNLp73Ob6y
— Locuza (@Locuza_) 8 november 2022
One implementation has two different ALU pipelines, one supporting a limited amount of instructions.
An RDNA3 SIMD might have 64 lanes, but only 32 with full ISA support?
4/x pic.twitter.com/lfaptZeqxD
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En hoeveel tijd zit er meestal tussen de eerste levering en de 2e? Oftewel, mocht je misgrijpen bij de eerste levering rx 7000 kaarten hoelang duurt het dan meestal tot er weer nieuwe komen?
Summary and conclusion
NVIDIA’s implementation of Frame Generation works with the in-house DLSS, but also with FSR and XeSS from the two competitors. There are hardly any differences between DLSS and FSR in terms of performance, only XeSS lags behind a bit. However, this is also due to the fact that the process in this game does not offer such fast frame times. But it still works. The problem with the latencies, if it is one for the respective user, will be discussed in more detail in the additional article about the launch of the GeForce RTX 4080. That Frame Generation works separately from the individual image acceleration processes was in the focus today. Besides, redundancies are rather boring.
If AMD manages to get a similarly good implementation with the additionally generated frames and also offers this to older or even third-party cards, the chances for a real competition are not bad. But FSR 3.0 has to be released in the first place and it also remains to be seen which way AMD will really go in the end. Do you also push a calculated frame in between or do you perhaps find an alternative approach that doesn’t have to be worse? Let’s be surprised, because today’s article is just a kind of appetizer.
[ Voor 95% gewijzigd door Help!!!! op 13-11-2022 10:38 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
NDA is meestal 1 dag vroeger dan de release.meljor schreef op zondag 13 november 2022 @ 10:29:
Is er al een reviewdatum bekend? En zijn ze dan meestal gelijk te bestellen of paar dagen later?
En hoeveel tijd zit er meestal tussen de eerste levering en de 2e? Oftewel, mocht je misgrijpen bij de eerste levering rx 7000 kaarten hoelang duurt het dan meestal tot er weer nieuwe komen?
Ik dacht een paar speculaties tezien van datums: 28/11 of 5/12 of 12/12
Edit: zie hieronder
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Aangezien de slides 13/12 aangeven:Damic schreef op zondag 13 november 2022 @ 10:50:
[...]
NDA is meestal 1 dag vroeger dan de release.
Ik dacht een paar speculaties tezien van datums: 28/11 of 5/12 of 12/12

Zou mijn beste gok zijn voor vervallen NDA 12/12 15:00 onze tijd of 13/12 15:00 onze tijd, afhankelijk van of ze de consument een dag geven om na te denken of niet
EDIT : bij deze dan
https://videocardz.com/ne...-rx-7900-hellhound-series
[ Voor 29% gewijzigd door UniMatrix op 14-11-2022 06:50 ]
EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik heb het spel maar heb het nog niet gespeeld want ik wacht tot het een beetje is uitgepatched
de community heeft dit spel al heel netjes gepatched..Sp3ci3s8472 schreef op maandag 14 november 2022 @ 14:37:
Inderdaad; dit is heel anders dan de standaard grote publishers. Lees EA, Activision, TakeTwo (GTA5), Bethesda.
Ik heb het spel maar heb het nog niet gespeeld want ik wacht tot het een beetje is uitgepatched.
Vanavond eens proberen,
__/`\__/`\__

https://videocardz.com/ne...han-ryzen-infinity-fabric
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/YheAUWu4B8yBUBsM1VfnNegn.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/Sxbf4KAYa2JQu1CxQGHOhg3H.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/D3sML86unBnYi5VyhP2SO2cu.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/jHB0x6vkxo2pjqtZw9oE7Dor.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/nnN6ekg681i2p6EqMWDlvDde.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/sbvbdO0kfQJixUjCeVtayrvF.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/SvPS90Ttyn12mzNwxZhwaJ2h.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/BJA0lNzpZ4YTcYNUMYVDpMNd.jpg?f=user_large)
[ Voor 10% gewijzigd door DaniëlWW2 op 14-11-2022 15:21 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
TakeTwo/Rockstar heeft wel netjes FSR 2 toegevoegd aan RDR 2, dus die passen wat mij betreft niet in het rijtje. Waar ik mij aan erger is wanneer men wel DLSS 2 ondersteunt, maar geen FSR 2, want dan kan de engine het duidelijk wel aan en is het overgrote deel van het werk al gedaan, maar weigeren ze gewoon om een klein beetje extra moeite te doen voor de mensen met AMD en GTX kaarten. Wat dat betreft is GTA V dan ook geen goed voorbeeld hiervan, want die ondersteund ook geen DLSS.Sp3ci3s8472 schreef op maandag 14 november 2022 @ 14:37:
Inderdaad; dit is heel anders dan de standaard grote publishers. Lees EA, Activision, TakeTwo (GTA5), Bethesda.
Overigens heeft Bethesda in sommige titels ook netjes FSR 2 toegevoegd, zoals Deathloop.
Het zijn echt EA en Activision die een flinke groep in de kou laat staan.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Met GTA5 is het meer het feit dat het overal op uitkomt maar dat een modder de +/- 200FPS bug moest fixen.Ludewig schreef op maandag 14 november 2022 @ 15:57:
[...]
TakeTwo/Rockstar heeft wel netjes FSR 2 toegevoegd aan RDR 2, dus die passen wat mij betreft niet in het rijtje. Waar ik mij aan erger is wanneer men wel DLSS 2 ondersteunt, maar geen FSR 2, want dan kan de engine het duidelijk wel aan en is het overgrote deel van het werk al gedaan, maar weigeren ze gewoon om een klein beetje extra moeite te doen voor de mensen met AMD en GTX kaarten. Wat dat betreft is GTA V dan ook geen goed voorbeeld hiervan, want die ondersteund ook geen DLSS.
Overigens heeft Bethesda in sommige titels ook netjes FSR 2 toegevoegd, zoals Deathloop.
Het zijn echt EA en Activision die een flinke groep in de kou laat staan.
:strip_exif()/f/image/0xTyF65yhBlYRb4LOArti9O0.jpg?f=fotoalbum_large)
Als ik gemiddeld de resultaten samentel is de 7900 XTX gemiddeld 55% sneller en de 7900 XT 29,5% sneller dan de 6950xt. Ik vraag me af waarom de verschillen zo uiteenlopen over de verschillende games: 67% in Cyberpunk terwijl 47% in Watch Dogs. Dat is een behoorlijk verschil.
De vraag is dan natuurlijk in welke mate Cyberpunk een outlier is want de andere 3 games zitten rond wel dezelfde marge.
De tool is nu in early access op Patreon, wordt gratis zodra die klaar is.
Video: YouTube: Nvidia is Clearly Better, Right?
Tweet: https://twitter.com/1usmus/status/1573658256857243648
/f/image/Hf2Tdi502ZxcIIScjQ1snQrD.png?f=fotoalbum_large)
[ Voor 11% gewijzigd door GTX404 op 14-11-2022 17:09 ]
AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black
RDNA2 heeft moeite met Cyberpunk op 4K. Het is zo'n game waar RDNA2 simpelweg door de beschikbare aantal ALU's heen zit op 4K en weg begint te vallen. Dan kan RDNA2 zoveel efficiënter zijn in hoe ze hun ALU's aansturen, maar als je er niet genoeg hebt, dan krijg je dat. Nu lijkt N31 absoluut geen tekort te hebben en daarom lijken ze er nu een grotere spong eruit te halen. Ik denk dat dit wel meer gaat gebeuren in games waar de RTX3090(Ti) opvallend uitloopt op de RX6900XT.napata schreef op maandag 14 november 2022 @ 16:51:
[Afbeelding]
Als ik gemiddeld de resultaten samentel is de 7900 XTX gemiddeld 55% sneller en de 7900 XT 29,5% sneller dan de 6950xt. Ik vraag me af waarom de verschillen zo uiteenlopen over de verschillende games: 67% in Cyberpunk terwijl 47% in Watch Dogs. Dat is een behoorlijk verschil.
De vraag is dan natuurlijk in welke mate Cyberpunk een outlier is want de andere 3 games zitten rond wel dezelfde marge.
En dan nog de hele boel. Tja wat getrol naar Nvidia en als ik heel snel kijk dan lijken de opgegeven getallen van de RX6950XT enigszins geloofwaardig.







Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zou de 7900XT genoeg headroom hebben om dichter bij de XTX te komen denk je? Ik heb zo een vermoeden dat de XTX op zijn limiet zit; maar dat een goede bin 7900XT wellicht richting de XTX kan.. Maar technisch gezien weet ik niet wat er mogelijk is met deze dieDaniëlWW2 schreef op maandag 14 november 2022 @ 17:24:
[...]
RDNA2 heeft moeite met Cyberpunk op 4K. Het is zo'n game waar RDNA2 simpelweg door de beschikbare aantal ALU's heen zit op 4K en weg begint te vallen. Dan kan RDNA2 zoveel efficiënter zijn in hoe ze hun ALU's aansturen, maar als je er niet genoeg hebt, dan krijg je dat. Nu lijkt N31 absoluut geen tekort te hebben en daarom lijken ze er nu een grotere spong eruit te halen. Ik denk dat dit wel meer gaat gebeuren in games waar de RTX3090(Ti) opvallend uitloopt op de RX6900XT.
En dan nog de hele boel. Tja wat getrol naar Nvidia en als ik heel snel kijk dan lijken de opgegeven getallen van de RX6950XT enigszins geloofwaardig.
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Dat durf ik eigenlijk niet te zeggen. Het verschil in ALU's is maar 12,5%, clockspeed is ook niet heel veel, maar die zesde MCD kan best wel eens veel verschil maken omdat je 16MB aan L3 cache + 4GB/64bit bus mist. Wat ik wel denk is dat het prijsverschil bewust is om je toch de RX7900XTX te kopen. Immers zie ik minstens 70% van alle chips die AMD uit een wafer haalt, de XTX standaard wel halen omdat die chips geen defecten hebben. Ze willen je dan ook liever dat verkopen dan een chip met een defect die veel zeldzamer zullen zijn.GTX404 schreef op maandag 14 november 2022 @ 17:36:
[...]
Zou de 7900XT genoeg headroom hebben om dichter bij de XTX te komen denk je? Ik heb zo een vermoeden dat de XTX op zijn limiet zit; maar dat een goede bin 7900XT wellicht richting de XTX kan.. Maar technisch gezien weet ik niet wat er mogelijk is met deze die
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Tjonge, dat is nou precies de info die ik graag bij de onthulling had gezien.
Wat meer technisch i.p.v. feature / technologie poespas.
AMD omdat de RTX4080 bijna te koop zou zijn.CMT schreef op maandag 14 november 2022 @ 18:33:
Waar komen deze presentatie slides ineens vandaan?
Tjonge, dat is nou precies de info die ik graag bij de onthulling had gezien.
Wat meer technisch i.p.v. feature / technologie poespas.
Verder probeer je hier de wegen der AMD marketingafdeling te doorgronden. Begin daar niet aan, gaat alleen maar hoofdpijn opleveren.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik haal even de meest belangrijke van de 70 slides, verdeeld over twee slide decks eruit.
Eerst apart deze:

Want AMD zou een serieus lage 0,4pJ per bit verbruiken voor hun interconnect. On die zou 0,1pJ zijn en bijvoorbeeld Zen 3 CCD naar IOD zou 1,5pJ per bit zijn. Dat scheelt dus enorm veel energie.

Verder het goede spul.












https://www.tomshardware....the-ryzen-moment-for-gpus
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Je hebt niks gezien.Damic schreef op maandag 14 november 2022 @ 20:41:
@DaniëlWW2 is het PetaJoules of picoJoulesik hoop het 2de

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik benieuwd wat de prijzen in NL gaan doen, als de 6900XT prijzen🙂Dennism schreef op zondag 13 november 2022 @ 11:55:
[...]
Aangezien de slides 13/12 aangeven:
[Afbeelding]
Zou mijn beste gok zijn voor vervallen NDA 12/12 15:00 onze tijd of 13/12 15:00 onze tijd, afhankelijk van of ze de consument een dag geven om na te denken of niet
899 dollar als MSRP voor de 7900XT is best scherp
[ Voor 4% gewijzigd door Scighera op 15-11-2022 10:22 ]
www.triathlete.nl
900 is helemaal niet zo scherp gezien de prestaties van die kaart ten opzichte van de prijs. Die kaart zou rond de 750 moeten zitten in verhouding tot de XTX. AMD heeft hier een omgekeerde halo kaart neergezet. De XTX is veel betere waar voor je geld. Ok in theorie 10% / 121 euro duurder maar wel bijna 25% prestatie meer als de XT. Ik zou persoonlijk die 10% bijleggen en jezelf een betere kaart gunnen. Die XT moet gewoon zakken in prijs.Scighera schreef op dinsdag 15 november 2022 @ 10:21:
[...]
Ik benieuwd wat de prijzen in NL gaan doen, als de 6900XT prijzen🙂
899 dollar als MSRP voor de 7900XT is best scherp
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Zo scherp is dat niet, de euro is weer iets bijgetrokken, maar nog altijd is 1 dollar 0.96 euro. $899 is dan €864.88. Doe daar 21% BTW en je zit op €1046,50. Een 7900XT gaat dus duurder zijn dan de 6900XT bij release. Heel scherp kan ik dat niet noemen.Scighera schreef op dinsdag 15 november 2022 @ 10:21:
[...]
Ik benieuwd wat de prijzen in NL gaan doen, als de 6900XT prijzen🙂
899 dollar als MSRP voor de 7900XT is best scherp
$999 in euro's + BTW is zelfs €1162,91
Ik denk dat je gewoon naar de prijs van de 6950XT op amd.com moet kijken, een 6950XT met MSRP van $999 kost daar €1309,99.Scighera schreef op dinsdag 15 november 2022 @ 10:21:
[...]
Ik benieuwd wat de prijzen in NL gaan doen, als de 6900XT prijzen🙂
899 dollar als MSRP voor de 7900XT is best scherp
Dus dit verwacht ik ook voor een reference 7900XTX.
De 7900 XT komt dan op ca. 1.3 x 899 = 1170.
EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4
De 3 GHz target of 30% betere clocks hebben ze voor deze 1ste generatie chiplets dus niet gehaald voor Navi31. Hopelijk kunnen ze dat fixen met een respin of in ieder geval voor Navi32.DaniëlWW2 schreef op maandag 14 november 2022 @ 15:15:
En er is nog meer uitgelekt van AMD hun RDNA3 presentatie. Waarom ze dit ons niet gewoon gezegd hebben is een raadsel waar ik verder geen tijd aan ga besteden.![]()
https://videocardz.com/ne...han-ryzen-infinity-fabric
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
Ondanks verdubbeling compute en veel meer TFLOPs, ziet AMD het zelf als maar 20% er bij. Van 80 naar 96. Ik vermoed dat ze daar nog wel meer uit kunnen halen met hun drivers, maar net als bij Ampere/Lovelace krijg je aanvankelijk meer onderbezetting vergeleken met de compute performance.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.