Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:58
Aangezien ik de oude gen nog niet heb teken ik op zich nog steeds voor 0% verbetering tegen beter stroomverbruik... maar dan moet de prijs wel kloppen. Iets zegt me dat AMD weer onredelijk hoog gaat inzetten omdat men meent met de 4070 te moeten concurreren. Mijn gok is 600 euro voor de 7800 XT en voor die prijs zou niemand geïnteresseerd moeten zijn. Zelfs voor 550 concurreert het ding dan alleen met de vorige generatie op lager stroomverbruik. Lager zal wel geblokkeerd worden door een mannetje bij sales met dollartekens in de ogen, die denkt dat AMD's marktaandeel heus nog wel wat lager kan. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12-10 23:59


Nieuw gerucht omtrent Navi4

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Als ze dezelfde prijs/performance kunnen leveren als met de 5700 XT dan zou het positief zijn.... aan de andere kant klinkt het niet echt positief.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Weet je, ik zou het wel best vinden. Van de RTG kan inmiddels niet meer verwacht worden dat ze een product normaal lanceren. Ze lijken niet eens in staat te zijn om hun producten van toepasselijke namen te voorzien of een normale line-up neer te zetten. Als ze niet eens vijf minuten rationeel kunnen nadenken welke SKU een 60, 70, 80 of 90 is, dan hebben ze ook niks te zoeken in de high end...

In de high end moet je wel leveren en iets echt beter doen dan Nvidia. Dat doet de RTG niet. Hun enige argument is lagere prijs. Ik vind dat persoonlijk best, maar ik geef ook weinig om het allerbeste te moeten hebben. Ik kijk meer wat ik krijg voor mijn geld. Als de prijs goed genoeg is, dan ben ik best bereid iets in het hogere segment te kopen.

Het is ook niet alsof in de high end segmenten de meeste consumenten niet gewoon Nvidia kopen. AMD kan dan wel als verkapte gamer subsidie gaan optreden door Nvidia hun prijzen nog ietwat onder controle te houden, waarna er toch weer Nvidia word gekocht. Maar daar heeft AMD niks aan en het werkt ook niet meer met de prijzen voor de huidige generatie.

In de midden en lagere segmenten waar features minder belangrijk zijn en de hardware belangrijker, gaat het meestal beter. Dat kan AMD namelijk wel omdat GPU's ontwerpen ze wel lukt en ze minder mogelijkheden hebben zichzelf te saboteren. Zeker over een jaar als we de ene na de andere game hebben gehad die echt niet fatsoenlijk meer draait op een 8GB VRAM videokaart en waar 12GB misschien ook al heel erg krap is geworden. Want daar zitten de meeste gamers nu mee. Er gaat een punt komen waar gamers moeten upgraden of gedwongen stoppen met PC gaming en een console kopen. Dat vind AMD ook best, want het zijn hun chips in die consoles. Nvidia geeft ondertussen nauwelijks meer om de lagere segmenten, waardoor daar een kans ligt. Speelt ook mee dat AMD een succesvolle DIY CPU tak heeft die ook betaalbare videokaarten nodig heeft om veel te verkopen. Als Nvidia dat niet wil leveren, dan moet AMD het misschien maar voor zichzelf doen.

Verder lijkt AMD met N32 weer een kans te laten liggen. Ik geloof er niet meer in dat ze de 60CU N32 voor $500 gaan verkopen. Niet als ze het de RX7800XT noemen. Dat zie ik eerder $550-$600/€610-€660 worden. En de reviews daarvan gaan niet mals worden...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Dit zou wel heel erg treurig zijn. Hopelijk een verlate 1 aprilgrap....

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Leakers.....je kan er niks mee want er klopt te vaak weinig van.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Misschien hopium, maar van RDNA3 weten we dat de leak van Angstronomics vooraf pas als eerste nauwkeurig was. Daar in staat, 12 Augustus 2022 (4 maanden voor lancering van de 7900 XTX).

https://www.angstronomics.com/p/amds-rdna-3-graphics
To be abundantly clear, these configurations for Navi3x were done in 2019 and finalized sometime in 2020, with no changes since.
Juni-Augustus 2023 is dus veel te vroeg om iets betrouwbaars te zeggen over RDNA4. Als dat eind 2024 uitkomt, dan waren de èchte keuzes allang in 2022 gemaakt. Op zijn laatst begin 2023. En waarom zou iemand die gaat lekken, daar maanden mee wachten?

Het kan zijn dat de chiplet benadering is gedropt, omdat het voor GPUs gewoon niet schaalbaar is qua klokfrequentie of vermogen. Dan zou er altijd nog de mogelijkheid zijn van monolitisch, wat ze met N21 hebben laten zien, en N33.

Maar het kan ook zijn dat ze weer een jebaited proberen, dit keer in de geruchten machine, door bewust verschillende verkeerde verhalen te verspreiden:

Eerst was er gelekt N41 3 GCX met 48 CU elk. Jun 6, 2023 YouTube: RDNA 4 Specs & Architecture UPDATE - AMD's Plan To DEFEAT Nvidia
Toen N41 1 GCD met 60 WGP / 120 CU. Jul 22, 2023 YouTube: RDNA 4 Specs & Architecture UPDATE - AMD's Plan To DEFEAT Nvidia
En nu Aug 4, 2023 dit N41 N42 zijn geannuleerd. YouTube: RDNA 4 High End KILLED - N41 & 42 Is DEAD?! HUGE AMD Driver News

Dus in 2 maanden tijd 3 compleet verschillende geruchten. De geruchten voor RDNA4 wijzigen te snel om betrouwbaar te zijn.

Met RDNA3 hebben ze niks ontkracht en is het een eigen leven gaan leiden, met teleurstelling tot gevolg. Dit keer proberen ze misschien bewust verschillende verhalen te krijgen, zodat niemand weet wat er verwacht kan worden.

En ondertussen gaat RGT wel zeggen dat RDNA 4 goede ray tracing zal hebben, èn zeggen dat RDNA5 wèl chiplets gaat doen. Hoezo ga je in RDNA4 dan geen (verdere) ervaring opdoen? RDNA3 resultaat was goed genoeg? Als ingenieur is dat echt totaal onlogisch.

[ Voor 6% gewijzigd door sunsmountain op 05-08-2023 02:17 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • RnwY
  • Registratie: September 2007
  • Laatst online: 21-01 14:37
Afbeeldingslocatie: https://tweakers.net/i/wGNgXst-JhGlcQ666sHiW9HaH7w=/800x/filters:strip_exif()/f/image/HFOi7QTdcj5lOdh4EgLYSOxg.png?f=fotoalbum_large

Volgens de roadmap van Micron komt GDDR7 in 3GB modules en is een 256-bit memorybus (midrange?) voldoende.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:46

Damic

Tijd voor Jasmijn thee

@RnwY wil je meer bandbreedte ga je je verschillende sub geheugen controllers in je gpu steken, die dan telkens een aantal chips kunnen aansturen of je gaat naar HBM3, lekker >1.2TB/s

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • RnwY
  • Registratie: September 2007
  • Laatst online: 21-01 14:37
Persoonlijk denk ik dat meer bandbreedte beter " on-die" gerealiseerd kan worden, zie de prestaties van Nvidia's L2 cache met 192-bit memorybus. De clockfrequentie van de GPU zal bij RDNA4, naar verwachting, ook omhoog gaan.

PS, mijn reactie's gaan over de tweet van Kepler (@Kepler_L2)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Of mensen lopen elkaar na te praten/ergens heeft iemand hetzelfde aan verschillende leakers gezegd, of er speelt toch wat. Want opeens meerdere die allemaal claimen dat voor RDNA4 er geen high end is. Concreet zouden N41 en N42 geschrapt zijn. Zie het verder wel gebeuren. :z
https://videocardz.com/ne...-rx-8000-rdna4-gpu-series

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zaterdag 5 augustus 2023 @ 14:26:
Of mensen lopen elkaar na te praten
Dat gebeurd sowieso heel erg. Videocardz en Wccftech rapporteren wat leakers zeggen zonder zelf daar eigen bronnen voor te hebben (net als Tweakers, trouwens). En kanalen als MLID en Redtechgaming herhalen ook wat bepaalde twitteraars zeggen die zacht gezegd niet altijd gelijk hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Misschien zit er wel een logica en reden achter.
Immers zijn de vermoedens er al langer dat AMD zou gaan beginnen met GPU's die uit meerdere GCD's bestaan. Een GPU is een parallelle processor die ongelofelijke hoeveelheden data verwerkt en produceert. En daar kan het mislopen tussen die GCD's.

Verder betwijfel ik of het erg is. Laat AMD gewoon doen wat ze wel goed doen, hardware.
Ik heb inmiddels ook alweer genoeg reacties in de trant van: Dit is verschrikkelijk, wie moet nu concurreren met Nvidia in de high end. Maar dan wel op een manier opgeschreven dat je gewoon ziet dat ze dit alleen willen om een goedkopere GeForce te kopen. Veel succes daarmee zou ik zeggen. :z

Ook moet gezegd worden dat de midrange markt echt wanhopig wat aandacht nodig heeft. Daar is wanhopig een Polaris of N10 nodig voor al die gamers die de duurdere videokaarten niet kunnen betalen. En die zie ik niet goedkoper worden met de stap naar waarschijnlijk 3nm alsmede de duidelijke focus van Nvidia op AI. Alsnog kan AMD misschien best MCM gebaseerde RDNA4 videokaarten leveren. Hun GCD + MCD idee werkt gewoon. Misschien niet perfect, maar het werkt. Dat verfijnen met beter geoptimaliseerde packaging en clock speeds pushen, kan alsnog iets moois opleveren. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
DaniëlWW2 schreef op zaterdag 5 augustus 2023 @ 19:12:
Misschien zit er wel een logica en reden achter.
Immers zijn de vermoedens er al langer dat AMD zou gaan beginnen met GPU's die uit meerdere GCD's bestaan. Een GPU is een parallelle processor die ongelofelijke hoeveelheden data verwerkt en produceert. En daar kan het mislopen tussen die GCD's.
Het loopt al mis tussen 1 GCD en de MCDs, laat staan meerdere GCXs. De klokfrequentie voorsprong van Lovelace vs RDNA3, zeg +300MHz, zou alleen maar groter worden.
DaniëlWW2 schreef op zaterdag 5 augustus 2023 @ 19:12:
Ook moet gezegd worden dat de midrange markt echt wanhopig wat aandacht nodig heeft. Daar is wanhopig een Polaris of N10 nodig voor al die gamers die de duurdere videokaarten niet kunnen betalen. En die zie ik niet goedkoper worden met de stap naar waarschijnlijk 3nm alsmede de duidelijke focus van Nvidia op AI. Alsnog kan AMD misschien best MCM gebaseerde RDNA4 videokaarten leveren. Hun GCD + MCD idee werkt gewoon. Misschien niet perfect, maar het werkt. Dat verfijnen met beter geoptimaliseerde packaging en clock speeds pushen, kan alsnog iets moois opleveren. :)
Op zich is 3nm hoopvol, omdat daarna de high NA beperking geldt. Daniel Nenni was daar positief over en denkt dat er meerdere generaties op gedaan zullen worden. De eerste zal daarbij wel duur zijn, maar zelfs een verdubbeling van de wafer prijs zal niet een verdubbeling van videokaartprijzen betekenen.

Uiteindelijk zullen prijzen weer zakken. RDNA4 zal de concurrentie met Blackwell niet winnen. Maar ze kunnen zeker een goede middenmoter neerzetten. Ik vermoed echter dat N43 op 5 of 4 nm zal zijn, niet 3nm.

Nvidia vreest Intel een stuk meer. Als de beginnersfouten eenmaal uit Celestial zijn gehaald, is de concurrentie weer terug, op alle prijsfronten.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@sunsmountain

We zien sinds N7 ook dat TSMC een extra optimalisatie nodig heeft om het potentieel van een generatie echt te bereiken. N6 was de optimalisatie van N7 en N4 van N5.

Bij N3 is het nog erger en is het originele N3B-proces bijna een paper launch met alleen Apple als klant. De optimalisatie die echt gebruikt gaat worden, N3E, heeft andere design rules en is dus eigenlijk een ander proces. Vervolgens krijgen we daar nog eens de snellere N3P (zelfde design rules) en later de nog snellere N3X (mogelijk met weer nieuwe design rules).

Overigens lijkt TSMC nu een andere naamgeving te gebruiken voor de geoptimaliseerde varianten, vermoedelijk omdat ze N2 niet kunnen gebruiken, omdat die naam al is geadverteerd als een fundamenteel nieuw proces (met GAAFET).

Enfin, mijn verwachting is dat CPU's en GPU's straks eerst naar N3E gaan, dan naar N3P en wellicht dan naar N3X (al is de lekstroom daar extreem hoog, dus ik betwijfel of dit gaat werken). Tenzij N2 natuurlijk heel erg goed loopt, maar gezien de totaal andere techniek verwacht ik daar eerder vertragingen en hoge prijzen aan het begin.

[ Voor 3% gewijzigd door Ludewig op 06-08-2023 15:59 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

DaniëlWW2 schreef op zaterdag 5 augustus 2023 @ 19:12:
Misschien zit er wel een logica en reden achter.
Immers zijn de vermoedens er al langer dat AMD zou gaan beginnen met GPU's die uit meerdere GCD's bestaan. Een GPU is een parallelle processor die ongelofelijke hoeveelheden data verwerkt en produceert. En daar kan het mislopen tussen die GCD's.
Apple silicon die soc via brede parallel bus duizend connects, direct aan mekaar koppel. Hun is het wel gelukt om geheel als 1 PU te zien. Bij chiplets zit er interposer brug en is meer seriele differential connectie. Vreet ook meer vermogen. En latency.
Verder betwijfel ik of het erg is. Laat AMD gewoon doen wat ze wel goed doen, hardware.
Ik heb inmiddels ook alweer genoeg reacties in de trant van: Dit is verschrikkelijk, wie moet nu concurreren met Nvidia in de high end. Maar dan wel op een manier opgeschreven dat je gewoon ziet dat ze dit alleen willen om een goedkopere GeForce te kopen. Veel succes daarmee zou ik zeggen. :z
Maakt mij niet veel uit mijn budget is max rond de 500,- en 1080p max 1440p native is zat. En dat zonder RT.
Ook moet gezegd worden dat de midrange markt echt wanhopig wat aandacht nodig heeft. Daar is wanhopig een Polaris of N10 nodig voor al die gamers die de duurdere videokaarten niet kunnen betalen. En die zie ik niet goedkoper worden met de stap naar waarschijnlijk 3nm alsmede de duidelijke focus van Nvidia op AI. Alsnog kan AMD misschien best MCM gebaseerde RDNA4 videokaarten leveren. Hun GCD + MCD idee werkt gewoon. Misschien niet perfect, maar het werkt. Dat verfijnen met beter geoptimaliseerde packaging en clock speeds pushen, kan alsnog iets moois opleveren. :)
De kracht van chiplet aanpak voor gpu is productie efficient. Het voordeel hier is haal je performance target niet kan je zakken in verkoop prijs. Met dure monolithic bakbeest is dure productie.
AMD is innovatief bezig, maar dat brengt risico mee. nV gaat voor bewezen strategie en vermijd verrassingen.
Wat ook mee speelt het is recessie, de vraag keldert. Men zijkt over prijzen ipv dat lonen niet meegaan met inflatie.
Dat mijn koopkracht achteruit gegaan is, is mijn probleem houd in geen luxe producten aanschaffen, wachten op betere tijden. Betere tijden houd niet in lage prijzen want dan heb fenomeen deflatie nodig. Het zal dan koopkracht herstel moeten zijn.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zondag 6 augustus 2023 @ 13:53:
[...]

Het loopt al mis tussen 1 GCD en de MCDs, laat staan meerdere GCXs. De klokfrequentie voorsprong van Lovelace vs RDNA3, zeg +300MHz, zou alleen maar groter worden.
Ik betwijfel of de clockspeeds lager liggen vanwege het MCM ontwerp.
Immers liet N31 meteen zien met compute shaders wel 3GHz+ te doen. Met graphics shaders kan je 3GHz halen, met zeer hoog verbruik. Ik vermoed dat er wat anders speelt. Wat is me nog steeds niet duidelijk.
[...]
Op zich is 3nm hoopvol, omdat daarna de high NA beperking geldt. Daniel Nenni was daar positief over en denkt dat er meerdere generaties op gedaan zullen worden. De eerste zal daarbij wel duur zijn, maar zelfs een verdubbeling van de wafer prijs zal niet een verdubbeling van videokaartprijzen betekenen.

Uiteindelijk zullen prijzen weer zakken. RDNA4 zal de concurrentie met Blackwell niet winnen. Maar ze kunnen zeker een goede middenmoter neerzetten. Ik vermoed echter dat N43 op 5 of 4 nm zal zijn, niet 3nm.

Nvidia vreest Intel een stuk meer. Als de beginnersfouten eenmaal uit Celestial zijn gehaald, is de concurrentie weer terug, op alle prijsfronten.
De node kan me inmiddels eigenlijk gestolen worden. Het gaat me om prestaties en voor welke prijs. Van mij mag AMD voor RDNA4 bij 5nm blijven als ze daarmee een stuk goedkoper zijn en alsnog redelijk presteren.

Tweede is dat de weg die AMD op is gegaan met RDNA, ze gewoon meer transistoren kost.
Nvidia kiest voor veel meer shaders en neemt een fors lagere efficiëntie per shader voor lief. Ook lopen ze tegen enorme schaling problematiek aan. Die RTX4090 kan makkelijk nog eens 30% sneller zijn als die niet tegen zulke enorme beperkingen aanliep. Blackwell kan zo bezopen gigantisch zijn als Nvidia maar wil, als het ding niet te voorzien is van instructies, dan heb je er niks aan. Dat een RTX4090 uit mijn hoofd iets van 10% extra fps erbij krijgt met een 7800X3D over een "mindere" processor zoals een 12900K of 5800X3D, zegt voor mij alles. Als daar geen fundamentele aanpassingen aan architectuur plaatsvinden en het de volgende iteratie op het Maxwell paradigma is, dan kan dat zomaar niet lekker gaan werken.

AMD daarentegen kiest duidelijk voor veel minder shaders die individueel veel capabeler zijn. Dat vereist een veel uitgebreidere cache structuur om die shaders te voorzien van instructies en data. Maar cache wordt niet meer echt kleiner met nodes, logic wel. Veel mensen roepen graag dat AMD er niks van bakt nu ze op gelijke node met Nvidia zitten. Maar ik vraag me eigenlijk af of het niet Nvidia is die de nieuwe node harder nodig heeft voor hun GPU's dan AMD? Nvidia hun sprong in frequentie is namelijk fors deze generatie zonder dat er echt een architecturale reden aan te wijzen lijkt waarom.

AMD lijkt ondertussen een beetje vast te zitten rond 2600MHz zoals Nvidia ook drie generaties vast zat rond de 1800-1900MHz (Pascal, Turing en Ampère). Als dat de realiteit is, dan kan je er ook voor kiezen op de oudere node te blijven, de kostendaling van die node incalculeren en voor grotere chips gaan, zeker met hun MCM ontwerp. Want IF is niet alleen technisch indrukwekkend dat het in vrijwel alle AMD producten zit. Het lijkt voor MCM standaarden ook behoorlijk efficiënt te zijn. MCM is gewoon niet efficiënt. Het is een productieoptimalisatie. Dat past beter bij AMD waar kosten per chip zwaarder tellen dan bij Nvidia waar de snelste zijn telt.
SG schreef op zondag 6 augustus 2023 @ 16:44:
[...]

Apple silicon die soc via brede parallel bus duizend connects, direct aan mekaar koppel. Hun is het wel gelukt om geheel als 1 PU te zien. Bij chiplets zit er interposer brug en is meer seriele differential connectie. Vreet ook meer vermogen. En latency.

[...]
AMD lijkt misschien nog beter te zijn. RDNA3 heeft een paar bruggen tussen de GCD en MCD's waar de IF interconnects doorlopen. Dat is het. Geen interposer nodig.
Maakt mij niet veel uit mijn budget is max rond de 500,- en 1080p max 1440p native is zat. En dat zonder RT. \
[...]
De kracht van chiplet aanpak voor gpu is productie efficient. Het voordeel hier is haal je performance target niet kan je zakken in verkoop prijs. Met dure monolithic bakbeest is dure productie.
AMD is innovatief bezig, maar dat brengt risico mee. nV gaat voor bewezen strategie en vermijd verrassingen.
Wat ook mee speelt het is recessie, de vraag keldert. Men zijkt over prijzen ipv dat lonen niet meegaan met inflatie.
Dat mijn koopkracht achteruit gegaan is, is mijn probleem houd in geen luxe producten aanschaffen, wachten op betere tijden. Betere tijden houd niet in lage prijzen want dan heb fenomeen deflatie nodig. Het zal dan koopkracht herstel moeten zijn.
Koopkrachtherstel kan ook door lagere prijzen omdat bedrijven minder winst nemen. ;)
Maar ik zit ook het liefst bij max rond €500. Deze keer alleen niet omdat ik de bui al voel hangen met de RX7800XT. Die moet AMD voor $450 in de markt zetten zodat het hier €500 is. Het is een 80, die zie ik niet gebeuren. Denk eerder $550/€600 als het niet nog erger is. En dan krijg je niet veel sneller dan een RX6800XT. Als ik het dan doorreken dan is een afgeprijsde RX7900XT voor €800 niet eens onvoordelig. Dus die heb ik nu. Moet nog wel even bijkomen van de investering, maar ik zat eigenlijk al bijna zes jaar op vergelijkbaar prestatieniveau. Mijn RX5700XT is niet veel sneller dan mijn half kapotte RX Vega 56. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

Koopkrachtherstel kan ook door lagere prijzen omdat bedrijven minder winst nemen. ;)
Ja de smilie, maar wil hier ook op reageren. Minder winst werkt niet. Je loon komt ergens vandaan gemiddeld gezien hakt prijs verlaging in marge niet in de kosten. Bij halvering in de marge moet dubbele aantal unit verschuiven. Bij G-kaarten is deel van de kosten ook R&D en de marge drukt druk ook de R&D. Dus die RDNA4 5 6 wordt dan mager. Overal zijn de bedrijven ook niet te gretig om energie prijzen volledig te compenseren omdat de concument dit niet pikt en de unit sales zo dramatisch daalt dat wat ever je doet je toch op de fles gaat. Recesie bedrijven is hoeveel reserves je hebt. En opties voor alternatieve energie. Dus lagere marge is fijn maar ander deel verliest hun baan. Men vind 7900XT en 7900XTX erg duur. MSRP maar die marge is gezond. Maar ja kwart af van die marge is te doen maar dat is mischien maar 50 euries maar wat men wil is 150 er van af. Eer sales groeien alleen niet genoeg om winst op pijl te houden er is ergens sweet spot waar wij alleen over kunnen gissen. In inflatie en recesie zij consument en bedrijven de verliezers.
Maar ik zit ook het liefst bij max rond €500.
is dat oude budget grens 2018 of 2023
Met dat zelfde cijfertje krijg in heden tier lagere G-kaart. Heb nu Vega 56 dus zou sowieso toch op vooruitgaan. Alleen stel toch even uit. Game nu meer op de PS5. Denk dat even fijn wacht op nextgen RDNA3.5 APU in klein itx PC ergen in 2024/2025. En bij apple op M3 voor X86 mac mini te vervangen. Geen haast.
Deze keer alleen niet omdat ik de bui al voel hangen met de RX7800XT. Die moet AMD voor $450 in de markt zetten zodat het hier €500 is. Het is een 80, die zie ik niet gebeuren. Denk eerder $550/€600 als het niet nog erger is. En dan krijg je niet veel sneller dan een RX6800XT. Als ik het dan doorreken dan is een afgeprijsde RX7900XT voor €800 niet eens onvoordelig. Dus die heb ik nu. Moet nog wel even bijkomen van de investering, maar ik zat eigenlijk al bijna zes jaar op vergelijkbaar prestatieniveau. Mijn RX5700XT is niet veel sneller dan mijn half kapotte RX Vega 56. :P
met mijn Vega56 heb RDNA 1 2 al overgeslagen dus upgrade gemist. 1st covid en Recessie. Bij langere duty cycle verhoog ik mijn budget wat ook de duty cycle verhoogd.
Mijn 1850X zen1 zal ook niet vervangen worden ooit door iets lowbudget.
Met RDNA 4 N43 zou ik dus 3 gen overslaan.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op zondag 6 augustus 2023 @ 17:04:
[...]

Ik betwijfel of de clockspeeds lager liggen vanwege het MCM ontwerp.
Immers liet N31 meteen zien met compute shaders wel 3GHz+ te doen. Met graphics shaders kan je 3GHz halen, met zeer hoog verbruik. Ik vermoed dat er wat anders speelt. Wat is me nog steeds niet duidelijk.
Lijkt mij ook niet. Elke chiplet kan toch zijn eigen klok genereren hoop ik. Enkel voor communicatie tussen de chiplets moet er gesynchroniseerd worden, maar als hun hele kloksnelheid gelimiteerd wordt door inter-chiplet communicatie dan zou dat niet echt geweldig zijn.
[...]

De node kan me inmiddels eigenlijk gestolen worden. Het gaat me om prestaties en voor welke prijs. Van mij mag AMD voor RDNA4 bij 5nm blijven als ze daarmee een stuk goedkoper zijn en alsnog redelijk presteren.
Euhm, ik herinner me nog het enthousiasme hier over RDNA2, wat Nvidia ging verslaan vanwege veel betere TSMC node tov de Samsung node die Nvidia gebruikte. Toen was de node enorm belangrijk, en nu kan het gestolen worden?

Natuurlijk gaat het iedereen erom wat er gedaan wordt met die node, maar het lijkt mij zeker wel relevant. Of AMD al dan niet een €1000 GPU neerzet die 500W gebruikt maakt mij ook weinig uit. Maar laten we wel wezen, in het midden segment was RDNA2 redelijk vergelijkbaar met de 30XX kaarten van Nvidia in power-efficientie. Met de 40XX series heeft Nvidia qua power efficientie gewoon een fatsoenlijke stap gemaakt, en AMD in hun high-end nog wel wat, maar de RX7600 heeft absoluut nul erbij gekregen op dat gebied. Dus het probleem bij AMD is niet alleen marketing en prijspunten, hoewel dat zeker een dingetje is, maar ook op hardware gebied is het niet zo perfect allemaal.
Maar cache wordt niet meer echt kleiner met nodes, logic wel.
Heb gegoogled, en je hebt gelijkt, iig bij de nieuwe TSMC nodes. Vraag me af waarom, gezien cache logic is. Als in, het is niet DRAM wat een heel apart proces is, het zijn gewoon wat transistoren om een cache cell te maken.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Sissors

Het is allemaal een stuk complexer dan: alles is toch een transistor.

Sowieso is SRAM (cache) al heel erg compact, met ruim dubbel het aantal transistors in dezelfde ruimte dan bij de verwerkingseenheden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ludewig schreef op maandag 7 augustus 2023 @ 11:03:
@Sissors

Het is allemaal een stuk complexer dan: alles is toch een transistor.

Sowieso is SRAM (cache) al heel erg compact, met ruim dubbel het aantal transistors in dezelfde ruimte dan bij de verwerkingseenheden.
Het voordeel van SRAM is dat het heel regelmatig is, en dus heel ver geoptimaliseerd kan zijn. Maar itt bijvoorbeeld DRAM of flash geheugen, zijn het gewoon transistoren, dus als die kleiner worden, zou je verwachten dat SRAM cellen netjes mee schalen. Dat daar beperkingen op komen door alle nieuwe design regels bij de nieuwste technologieën kan ik ook niet geheel verbaasd over zijn, maar dat het nul schaalt? En juist iets als SRAM is zo'n standaard iets dat ze zullen proberen het proces zo aan te passen om het efficient te maken. Maar misschien raken ze juist wat van de oude aanpassingen kwijt die in nieuwste processen niet meer gebruikt kunnen worden.

[ Voor 27% gewijzigd door Sissors op 07-08-2023 11:42 ]


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
DaniëlWW2 schreef op zondag 6 augustus 2023 @ 17:04:
[...]

Ik betwijfel of de clockspeeds lager liggen vanwege het MCM ontwerp.
Immers liet N31 meteen zien met compute shaders wel 3GHz+ te doen. Met graphics shaders kan je 3GHz halen, met zeer hoog verbruik. Ik vermoed dat er wat anders speelt. Wat is me nog steeds niet duidelijk.

[...]

De node kan me inmiddels eigenlijk gestolen worden. Het gaat me om prestaties en voor welke prijs. Van mij mag AMD voor RDNA4 bij 5nm blijven als ze daarmee een stuk goedkoper zijn en alsnog redelijk presteren.
Ik weet de precieze oorzaak niet en AMD ook niet, anders hadden ze RDNA3 eerder "gefixed" en beter prestaties gehad deze generatie. Ja met compute kan je 3GHz+ doen, het grotere probleem in het ontwerp is wat je zelf al meerdere keren hebt benoemd met de dual WAVE instructie die gewoon niet door games gebruikt wordt, behalve misschien Modern Warfare waar RDNA3 bizar goed presteert.

In games wordt die 3GHz nauwelijks gehaald, alleen als je zwaar gaat overclocken ja. De node is altijd belangrijk, en goed om te zien van AMD en Nvidia nu op dezelfde 5nm nodig doen (ook al noemt Nvidia het N4).
DaniëlWW2 schreef op zondag 6 augustus 2023 @ 17:04:
Tweede is dat de weg die AMD op is gegaan met RDNA, ze gewoon meer transistoren kost.
Nvidia kiest voor veel meer shaders en neemt een fors lagere efficiëntie per shader voor lief. Ook lopen ze tegen enorme schaling problematiek aan. Die RTX4090 kan makkelijk nog eens 30% sneller zijn als die niet tegen zulke enorme beperkingen aanliep. Blackwell kan zo bezopen gigantisch zijn als Nvidia maar wil, als het ding niet te voorzien is van instructies, dan heb je er niks aan. Dat een RTX4090 uit mijn hoofd iets van 10% extra fps erbij krijgt met een 7800X3D over een "mindere" processor zoals een 12900K of 5800X3D, zegt voor mij alles. Als daar geen fundamentele aanpassingen aan architectuur plaatsvinden en het de volgende iteratie op het Maxwell paradigma is, dan kan dat zomaar niet lekker gaan werken.

AMD daarentegen kiest duidelijk voor veel minder shaders die individueel veel capabeler zijn. Dat vereist een veel uitgebreidere cache structuur om die shaders te voorzien van instructies en data. Maar cache wordt niet meer echt kleiner met nodes, logic wel. Veel mensen roepen graag dat AMD er niks van bakt nu ze op gelijke node met Nvidia zitten. Maar ik vraag me eigenlijk af of het niet Nvidia is die de nieuwe node harder nodig heeft voor hun GPU's dan AMD? Nvidia hun sprong in frequentie is namelijk fors deze generatie zonder dat er echt een architecturale reden aan te wijzen lijkt waarom.
Ik weet nog dat we hoge verwachtingen hadden van de 120 CU ontwerpen in de geruchten van RDNA3,
oh nee, toch "maar" 96CU maar dan wel dubbele shaders,
oh nee, toch gewone RDNA2 shader aantallen,
met maar 20% meer game prestaties.

Gegeven het transistor budget was het allemaal te mooi om waar te zijn.
https://wccftech.com/amd-...-up-to-15360-cores-rumor/

Niet alleen kost het AMD meer transistors, de energie efficiëntie van +50% performance per Watt is totaal niet waargemaakt in RDNA3. Nvidia wel met Lovelace vs Ampre, AMD niet met RDNA3 vs RDNA2. Het ziet er meer uit als 8% of zo.



De "onderbezetting" van de shaders is in Lovelace vergeleken met Ampere juist omlaag gegaan, door er een bak L2 cache tegen aan te gooien. Het RDNA2 voordeel van de "superieure" AMD shaders is daarmee weg.

https://chipsandcheese.co...marking-nvidias-rtx-4090/
All of changes come together to make Ada Lovelace a formidable architecture, even if we put aside the headline grabbing raytracing related features. Nvidia’s new architecture improves performance at low occupancy, eroding one of RDNA 2’s key advantages over GA102. At high occupancy, Ampere was already very strong. Ada Lovelace extends that strength, and towers over RDNA 2. AMD has their work cut out for them if they want RDNA 3 to be competitive, even in pure rasterization workloads. We look forward to seeing what AMD’s next architecture will bring.
DaniëlWW2 schreef op zondag 6 augustus 2023 @ 17:04:
AMD lijkt ondertussen een beetje vast te zitten rond 2600MHz zoals Nvidia ook drie generaties vast zat rond de 1800-1900MHz (Pascal, Turing en Ampère). Als dat de realiteit is, dan kan je er ook voor kiezen op de oudere node te blijven, de kostendaling van die node incalculeren en voor grotere chips gaan, zeker met hun MCM ontwerp. Want IF is niet alleen technisch indrukwekkend dat het in vrijwel alle AMD producten zit. Het lijkt voor MCM standaarden ook behoorlijk efficiënt te zijn. MCM is gewoon niet efficiënt. Het is een productieoptimalisatie. Dat past beter bij AMD waar kosten per chip zwaarder tellen dan bij Nvidia waar de snelste zijn telt.
Ik ben niet onder de indruk van de RDNA3 hardware:
  • slechtere ray tracing units, minder capabel;
  • geen denoising units, slechtere DLSS/FSR performance;
  • memory subsystem niet verbeterd t.o.v. RDNA2;
  • slechtere ingewikkelde dual wave shaders, die de GCN fout weer maken door meerdere instructies in 1 cycle te willen doen, omdat het relatief weinig transistors kost;
  • slechte performance per watt, performance per area verbeteringen in games, waar RDNA3 voor zou moeten zijn gemaakt/ontworpen.
AMD moet het over de gehele linie veel beter doen met RDNA4. Ik kan me wel voorstellen dat gegeven de ingeslagen weg met MCM, het team van Radeon ingenieurs meer tijd nodig heeft. Ondertussen kan er veel meer verdiend worden met professionele kaarten, die ideaal zijn voor MCM.

https://www.tomshardware....s-146-billion-transistors

Kloksnelheid is hier geen probleem, game prestaties ook niet. Alleen de compute performance, die met RDNA3 juist dik in orde is. Ik vermoed dat Lisa Su heeft gedacht, als vrouw:
  • Laat Intel maar vechten met Nvidia om de consumer videokaarten, haantjes gedrag van mannen CEO's zullen ze strategisch gezien zeker doen.
  • Ik zet mijn ingenieurs in op meer MI400 designs, om kosten en energieverbruik te verlagen en meer te verdienen op AI hardware waar veel vraag naar zal zijn.
  • Ik geef het Radeon team meer tijd om het MCM ontwerp te troubleshooten en te verbeteren, door ze minder Navi 4x designs te laten maken, misschien maar 1 en misschien alleen monolitisch.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Sissors schreef op maandag 7 augustus 2023 @ 11:40:
[...]

Het voordeel van SRAM is dat het heel regelmatig is, en dus heel ver geoptimaliseerd kan zijn. Maar itt bijvoorbeeld DRAM of flash geheugen, zijn het gewoon transistoren, dus als die kleiner worden, zou je verwachten dat SRAM cellen netjes mee schalen. Dat daar beperkingen op komen door alle nieuwe design regels bij de nieuwste technologieën kan ik ook niet geheel verbaasd over zijn, maar dat het nul schaalt? En juist iets als SRAM is zo'n standaard iets dat ze zullen proberen het proces zo aan te passen om het efficient te maken. Maar misschien raken ze juist wat van de oude aanpassingen kwijt die in nieuwste processen niet meer gebruikt kunnen worden.
Het gaat niet om de transistors, die worden kleiner bij SRAM, natuurlijk. Het gaat om de (geheugen) aansluitingen naar de rest, die worden niet kleiner. Schaling is daardoor bijna 0.

Afbeeldingslocatie: https://www.club386.com/wp-content/uploads/2022/03/Milan-X1.png

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
https://wccftech.com/amd-...rformance-in-near-future/

Los van de geruchten, heeft AMD het zelf over:
Currently, GPUs for PCs are steadily evolving from RDNA 1 to RDNA 2 and RDNA 3, and we promise to evolve to RDNA 4 with even higher performance in the near future.
Hogere performance zonder Navi41, Navi42 designs lijkt me lastig, tenzij ze het Navi43 design kunnen herhalen als 2 of 3 GCX chiplets. Gerucht 1 en 3 zijn dan allebei waar (wel GCX chiplets, geen high-end design), gerucht 2 is dan mis-informatie.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Weer een nieuwe gerucht voor RDNA3 / RDNA4 :

YouTube: Zen 5 Benchmarks DESTROY Everything | RDNA 4 & 5 UPDATE

Navi43 Navi44 blijven over, monolitisch. Navi43 performance ~ Navi21 vergelijkbaar.

Er komt misschien een Navi36 bij, met grotere GC (400 mm2), ipv N31 (300 mm2, 6x8 WGP) en N32 (200 mm2 3x10 WGP). Mogelijk dus met 8x8 WGP of 6x10 WGP, 128 CU of 120 CU. Maar onwaarschijnlijk omdat het high end is.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Daar is dan een RX7900GRE review. Oh boy. :P


Zit tussen de RX6800XT en RX6950XT. RX6900XT niet getest, maar het zal ongeveer zo presteren.
Werkelijk geen idee waarom je een 80CU N31 chip hieraan zou willen verspillen. Zeker omdat de clock speed onder de 2000MHz ligt voor een verbruik dat zo rond de 230W lijkt te liggen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
Bij Computerbase hebben ze het ook getest. Daar zijn de benchmarks wat uitgebreider en komt de RX7900GRE op de hielen van de RX6950XT:
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/

Het is een echte sidegrade met 90W minder en iets mindere prestaties dan de RX6950XT.
Eigenlijk gewoon wat de R7800XT had moeten zijn en tot overmaat van teleurstelling alleen in oem builds verkrijgbaar ><. Ik vind ook zo opvallend dat de RT prestatie geen enkele verbetering laat zien met de vorige generatie. De verhouding tussen rasterizatie / RT is gewoon hetzelfde.
Had AMD het er niet trots over dat de RT cores verbeterd waren?

Nu is de RX6950XT praktisch gezien een overgeklokte RX6900XT met een hoger powerlimiet.
Als ik mijn eigen ervaring met deze beide kaarten op de RX7900GRE betrek, dan zou de RX6900XT ca. 90% van de prestaties hebben @248W TBP.
Tja, de a.s. RX7800XT gaat dus helemaal niets worden. Ergens tussen de RX6800 - RX6800XT.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op zaterdag 12 augustus 2023 @ 15:30:
Bij Computerbase hebben ze het ook getest. Daar zijn de benchmarks wat uitgebreider en komt de RX7900GRE op de hielen van de RX6950XT:
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/

Het is een echte sidegrade met 90W minder en iets mindere prestaties dan de RX6950XT.
Eigenlijk gewoon wat de R7800XT had moeten zijn en tot overmaat van teleurstelling alleen in oem builds verkrijgbaar ><. Ik vind ook zo opvallend dat de RT prestatie geen enkele verbetering laat zien met de vorige generatie. De verhouding tussen rasterizatie / RT is gewoon hetzelfde.
Had AMD het er niet trots over dat de RT cores verbeterd waren?

Nu is de RX6950XT praktisch gezien een overgeklokte RX6900XT met een hoger powerlimiet.
Als ik mijn eigen ervaring met deze beide kaarten op de RX7900GRE betrek, dan zou de RX6900XT ca. 90% van de prestaties hebben @248W TBP.
Tja, de a.s. RX7800XT gaat dus helemaal niets worden. Ergens tussen de RX6800 - RX6800XT.
Je ziet alleen wel dat clock speed rond de 2000MHz zit met soms naar de 2200MHz.
5120 x 2 x 2200MHz = 22.53TFOPS. Het is ongeveer een RX6900XT die vooral efficienter is. Maar alsnog is de TDP 260W. Ik snap gewoon niet waarom dit product bestaat...

Het is 4CU's extra uitgeschakeld over de RX7900XT en vervolgens op een hybride N31/N32 package geplaatst met minder en langzamere GDDR6. Vervolgens is het eindproduct zo 20% langzamer dan de RX7900XT. Waarom zou je dit doen? N32 zit ondertussen zeer waarschijnlijk rond 3840 x 2 x 2600MHz = 19,97TFLOPS. Dat is een stuk kleinere chip die dezelfde MCD's en GDDR6 lijkt te hebben.

Het lijkt me nu wel overduidelijk dat RDNA2/3 beperkt is op geheugenbrandbreedte met dit resultaat. Waarom zou je een chip die 1/3 meer CU's heeft, dan zo gaan beperken? Want ik zie die "RX7800XT" eigenlijk niet veel langzamer zijn.

Misschien heeft AMD veel N32 chips die niet eens 2500MHz doen met 84CU? Maar dat geloof ik eigenlijk ook niet. Ik heb geen idee waarom, maar AMD lijkt te moeite te hebben genomen om ook een 80CU te valideren om deze vervolgens voor een veel lagere prijs in de markt te zetten en te laten onderpresteren. Het enige verschil tussen een 84CU en een 80CU N31 configuratie is waarschijnlijk dat de 84CU een shader array uit heeft staan en vervolgens in de andere arrays nog 2WGP's/4CU's uit heeft. Om een 80CU configuratie te maken kan je twee shader arrays uitzetten of een hele shader engine. Ik heb tot dusver alleen geen indicatie gezien dat een complete shader engine is uitgeschakeld. Dat zou namelijk ook het uitschakelen van L1 cache en wat ROPS betekenen.

Ik vermoed eigenlijk wel dat er een shader engine uitgeschakeld is, maar AMD kan tegenwoordig niet eens normaal meer communiceren hoeveel L1 cache of ROPS een videokaart heeft...
Zie: https://www.amd.com/en/pr...cs/amd-radeon-rx-7900-gre


Maar als dat de oplossing is, dan vraag ik me alsnog af waarom je deze chip zo uitgekleed lanceert. Maak hier dan de RX7800XT van met desnoods alsnog 18gbps, maar wel een 320 bit bus/20GB. En als alle shader engines wel aanstaan en er twee shader arrays uitgezet zijn, dan snap ik het helemaal niet meer. Want dan zou ik zeggen dat AMD beter de RX7900XT kan vervangen voor een echte RX7800XT waarbij de enige veranderingen de stap van 84CU naar 80CU, andere naam op de doos en een prijsverlaging naar $750/€820 officieel kan maken. Want voor die prijzen verkoopt dat prestatieniveau wel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
Het is ook vooral de powerlimiet die de RX7900GRE de das om doet. De klok wil wel omhoog, maar er is geen mogelijkheid om de PL met meer dan +15% te verhogen.
Ik vermoed dat 2.5-2.6 GHz sustained wel haalbaar zou zijn geweest met 335-345W TBP.
Nu lijkt er relatief veel vermogen verloren te gaan aan het geheugensysteem en de Infinity Fabric, waardoor er weinig vermogensbudget overblijft voor de cores.

Op zich vind ik het geen verkeerde kaart als het normaal beschikbaar zou zijn geweest met een €400-500 prijskaartje.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Tis gewoon een uitstekende oem kaart: 7800 kaart met 7900 naam, verkoopt in oem systemen toch beter omdat het nummertje hoger is.....

Was toch bij de Medion systemen ook altijd zo.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op zaterdag 12 augustus 2023 @ 18:33:
Het is ook vooral de powerlimiet die de RX7900GRE de das om doet. De klok wil wel omhoog, maar er is geen mogelijkheid om de PL met meer dan +15% te verhogen.
Ik vermoed dat 2.5-2.6 GHz sustained wel haalbaar zou zijn geweest met 335-345W TBP.
Nu lijkt er relatief veel vermogen verloren te gaan aan het geheugensysteem en de Infinity Fabric, waardoor er weinig vermogensbudget overblijft voor de cores.
Ik weet niet of een 260W TDP nu de grootste limiet is met vier MCD's. In ieder geval doet referentiemodel RX7900XT met iets meer dan 300W al 2500MHz-2600MHz in games. En meer dan 2600MHz lijkt ook niet erg lastig.
https://www.computerbase....chen_taktraten_unter_last
https://www.techpowerup.c...-rx-7900-xt-pulse/38.html

Mijn RX7900XT lijkt stabiel te zijn met een target van 2450MHz en 1055mv. Zit zo rond de 280W volgens AMD hun software. Maar het word dom als ik naar 2250MHz target ga. Dat lijkt voorzichtig toch echt stabiel te zijn met 750mv (ja echt :P) met 220-230W als uitlezing. Mij is wel duidelijk aan het worden dat je zo rond de 2300MHz tegen een muur aanloopt. Het kan zijn dat ik een best aardige chip heb, zou ook eens grappig zijn, maar desondanks ben ik niet erg onder de indruk van 2000-2200MHz met een TDP van 260W. Ik vermoed dat daar voor veel chips, best wel 2200MHz+ in kan zitten met undervolting. Meer lijkt me ook vrij zinloos gezien de beperkt geheugenbrandbreedte.
Op zich vind ik het geen verkeerde kaart als het normaal beschikbaar zou zijn geweest met een €400-500 prijskaartje.
Daar is N32 voor, als ze niet weer ideeën krijgen bij de RTG...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Ben benieuwd of ik mijn RX 6950 XT zo kan undervolten dat het verbruik ook 260W is, of zelfs 230W. Met dezelfde prestaties als een 7900 GRE zou dat best genant zijn voor RDNA3, zeker als ze hem of de N32 duurder zouden prijzen dan ~$/€600.
DaniëlWW2 schreef op zaterdag 12 augustus 2023 @ 21:02:
Daar is N32 voor, als ze niet weer ideeën krijgen bij de RTG...
Ik acht ze inmiddels tot alle mogelijke flaters in staat.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Holy. Dit zou de geannuleerde Navi 41 zijn. :o
Afbeeldingslocatie: https://tweakers.net/i/yD4knTFRgCugO30TddVU7dWiwTk=/800x/filters:strip_icc():strip_exif()/f/image/2XmovxqMmtbUBipzh1r1Q96f.jpg?f=fotoalbum_large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • JoeB2C
  • Registratie: Juni 2011
  • Laatst online: 12-10 21:47
sunsmountain schreef op zondag 13 augustus 2023 @ 19:49:
Ben benieuwd of ik mijn RX 6950 XT zo kan undervolten dat het verbruik ook 260W is, of zelfs 230W. Met dezelfde prestaties als een 7900 GRE zou dat best genant zijn voor RDNA3, zeker als ze hem of de N32 duurder zouden prijzen dan ~$/€600.


[...]
Ja doe dat! Interessant. Als er geen enkele verbetering is in fps of verbruik, wat zou dan voor AMD het voordeel van de nieuwe generatie zijn? Kleinere chip / lagere productiekosten?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
JoeB2C schreef op dinsdag 15 augustus 2023 @ 10:31:
[...]


Ja doe dat! Interessant. Als er geen enkele verbetering is in fps of verbruik, wat zou dan voor AMD het voordeel van de nieuwe generatie zijn? Kleinere chip / lagere productiekosten?
Dat laatste ja. 5nm wordt geleidelijk goedkoper, dan wil je er wel op zitten. Het basis stroomverbruik is ook beter, undervolten is een noodgreep omdat de vorige generatie chip 30% sterker is dan de lagere chip van de nieuwe generatie:

6750 XT > 7600
3070 > 4060
en
6950 XT > 7800

Als dat niet zo was en prestaties gelijk zouden zijn, is de nieuwe generatie een betere koop. Maar niet met deze prestaties: een echte skip-generatie.

Bijna zeker weten dat Navi43 en 44 op N5 of N4 worden gemaakt, niet N3, die wafers reserveert AMD voor Zen 5 en de MI400+ kaarten.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
DaniëlWW2 schreef op maandag 14 augustus 2023 @ 19:18:
Holy. Dit zou de geannuleerde Navi 41 zijn. :o
[Afbeelding]
Zegt niet zoveel, zal wel MLID zijn.

RGT is tenminste nog concreet over Navi36 met een 400 mm2 GCD.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Met de percentages goede gokjes van MLID zou hij in Vegas gauw blut zijn.....

Wat mij betreft geen betrouwbare leaker en eigenlijk is geen enkele dat (meer).

1 maand voor de rdna3 launch werd er nog gelachen over het stroomverbruik van Nvidia en zou de xtx het wel ff doen. De XT zou waarschijnlijk de 4080 al verslaan etc. Etc.

De eerdere leaks spraken over de XTX die 2,5 tot 3X zo snel zou kunnen zijn dan de rx 6900xt..... Nog nooit is zon sprong gemaakt dus dat nieuws sites dit plaatsten was al belachelijk.

Het is net het weerbericht: in de zomer al willen bepalen dat het een mogelijk witte kerst wordt terwijl de voorspellingen zelfs 1 dagje vantevoren nog vaak ernaast zitten......

Tot de allereerste review is alles onzin wat mij betreft.

[ Voor 65% gewijzigd door meljor op 16-08-2023 10:24 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
meljor schreef op woensdag 16 augustus 2023 @ 10:09:
Met de percentages goede gokjes van MLID zou hij in Vegas gauw blut zijn.....

[...]

De eerdere leaks spraken over de XTX die 2,5 tot 3X zo snel zou kunnen zijn dan de rx 6900xt..... Nog nooit is zon sprong gemaakt dus dat nieuws sites dit plaatsten was al belachelijk.
Volgens mij heeft MLID juist consistent deze claims tegengesproken, dus dit is nogal een slecht voorbeeld.

Hij heeft wel veel fouten gemaakt en verwijderd ook video's als ze totaal niet kloppen, maar je moet ook niet overdrijven.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Ludewig schreef op woensdag 16 augustus 2023 @ 12:04:
[...]


Volgens mij heeft MLID juist consistent deze claims tegengesproken, dus dit is nogal een slecht voorbeeld.

Hij heeft wel veel fouten gemaakt en verwijderd ook video's als ze totaal niet kloppen, maar je moet ook niet overdrijven.
Ik was niet helemaal duidelijk maar bedoelde meerdere leakers, niet alleen MLID. Punt is dat ze van alles roepen en dan maar zien wat er misschien wel klopt, net het weer.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Yep, worst kept secret.

Mijn verwachtingen zijn wel superlaag. Ik verwacht sowieso een te hoge prijs.

Maar waar ik benieuwd naar ben is of we eindelijk wat te horen krijgen van Duke Nukem Forever FSR 3. Ze hebben hun belofte voor een release in H1 2023 al niet gehaald en we hebben zelfs nog geen preview gezien. Als ze iets enigszins toonbaars hadden in H1 had ik toch wel al een demo verwacht.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 08:22

vectormatic

Warlock of the doorlock

Ludewig schreef op woensdag 16 augustus 2023 @ 23:47:

Mijn verwachtingen zijn wel superlaag. Ik verwacht sowieso een te hoge prijs.
Yep, je ziet ook dat her en der de goedkopere RDNA2 modellen aan het opdrogen zijn, dus AMD zal de boel wel zo timen dat ze niet echt hard meer hoeven te concurreren tegen RDNA2 opruim prijzen.

Ik verwacht ook niet veel, alle getallen die we tot nu toe zien duiden op weinig performance winst, en N31 en N33 geven ook weinig hoop op significant betere efficiency. Ik had gehoopt op een 7700XT met 6800/6800xt performance sub 200w, sub 400 euro, maar die droom ben ik al kwijt.

We gaan het zien, voorlopig zie ik mijn RX6600 nog niet afgelost worden :P

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Voor echt goede zuinigheid lijk je nu slechts terecht kunnen bij Nvidia, al heb ik mijn 6700 XT nu naar ongeveer 100 Watt getuned, dus RDNA 2 kan ook al aardig zuinig draaien als je iets lagere prestaties accepteert.

Maar ik zie Intel Battlemage als de eerstvolgende kans op iets beters, al zijn de verwachting daar ook niet hoog.

Dan komt de Radeon 8000 vermoedelijk daarna, die best mee zou kunnen vallen omdat AMD blijkbaar de high-end heeft opgegeven voor RDNA4. Dat kan juist goed nieuws zijn voor de mid- en low-end, wanneer AMD daar meer focus op legt.

Dan zou daarna Nvidia 5000 moeten komen, waarbij het vermoedelijk volledig van de AI markt afhangt of ze daar iets goeds willen leveren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AMD Releases Radeon GPU Detective (RGD) 1.0

We are happy to announce the release of Radeon GPU Detective (RGD) v1.0 - a tool for post-mortem analysis of GPU crashes. The tool allows developers to retrieve and analyze AMD GPU crash dumps and produce information that can help narrow down the search for a crash's root cause. Such information includes page fault details, resource details and execution markers reflecting the GPU work that was in progress at the moments leading to the crash.

This first version of the tool supports analysis of GPU crashes on Windows ("TDRs") in Direct3D 12 applications and requires a RX 6000 series (RDNA 2) or RX 7000 series (RDNA 3) card, in addition to the latest public AMD Radeon Adrenalin Software. etc...

[ Voor 83% gewijzigd door Help!!!! op 18-08-2023 12:19 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dit is dan toch ook wel weer erg interessant. Presentmon kende ik wel maar vond ik niet echt praktisch en stond dus ergens ongebruikt te wezen.

Zelf de beta testen: https://game.intel.com/story/intel-presentmon/

Wat ook nice is, is dat je custom configuraties kan maken, opslaan en dus delen met anderen. (y)

[ Voor 21% gewijzigd door Help!!!! op 18-08-2023 20:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:46

Damic

Tijd voor Jasmijn thee

@Help!!!! en het leuke is dat het op github staat dus kan je zelf compilen en testen :D of dat Intel geen rariteiten uithaalt.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
@Help!!!!
Dat is echt leuk nieuws. Hier wordt ik wel enthousiast van :).
Hopelijk worden deze tools goed gebruikt om driver problemen om te sporen, te fixen en drivers te optimaliseren.
Het zou ook gaaf zijn als hiermee de driver overhead problematiek aandacht krijgt.
Met name bij de RTX4090 speelt dat parten en ik heb dat persoonlijk ook ervaren waardoor ik twijfels heb gekregen over mijn upgrade (RX6900XT is in sommige (spel)gedeelten, >20% sneller met een 5800X3D).

Ik krijg er verder een beetje een onderbuik gevoel van dat Intel zijn zinnen heeft gezet om het stokje over te nemen van Nvidia (nu blijkt dat PC gamers echt 2e rangs klant zijn geworden).
Gezien hoe Intel hard aan de weg timmert, begin ik aardig warm te lopen voor Battlemage :).

[ Voor 5% gewijzigd door CMT op 19-08-2023 06:37 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

INtel is in de Gpu markt voor GPGPU en pakt daarmee de pro gpu markt aan vs nV GPU zijn sterk in bepaalde taken en met XEON vs nv pro ding is grotere faal dan tegen Epyc. En net zoals die andere gpu bakker nemen ze ook consumenten markt erbij. We hebben er gewoon 3de speler bij waarbij iNtel en AMD nog achterlopen op AI.
Ik verwacht dat nV de grote DIE 102 en groter compleet naar AI markt gaan en high-end ook laten varen. Of 5090 wordt een ??103 DIE en helaas kunnen ze dat nog laat in de ontwikkeling beslissen als AI bubbel vele jaren blijft doorgaan.

Intel is nu goedkoop om dat wat ze nu leveren ondermaats presteert veel vermogen vreet voor wat het levert, oude games bagger performance hebben, dat wordt ook anders als de prestaties concurrerend zijn. De software status en drivers worden steed beter. Ze moeten die mind set ook bij de consument wegpoetsen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
SG schreef op zaterdag 19 augustus 2023 @ 08:48:
INtel is in de Gpu markt voor GPGPU en pakt daarmee de pro gpu markt aan vs nV GPU zijn sterk in bepaalde taken en met XEON vs nv pro ding is grotere faal dan tegen Epyc. En net zoals die andere gpu bakker nemen ze ook consumenten markt erbij. We hebben er gewoon 3de speler bij waarbij iNtel en AMD nog achterlopen op AI.
Ik verwacht dat nV de grote DIE 102 en groter compleet naar AI markt gaan en high-end ook laten varen. Of 5090 wordt een ??103 DIE en helaas kunnen ze dat nog laat in de ontwikkeling beslissen als AI bubbel vele jaren blijft doorgaan.

Intel is nu goedkoop om dat wat ze nu leveren ondermaats presteert veel vermogen vreet voor wat het levert, oude games bagger performance hebben, dat wordt ook anders als de prestaties concurrerend zijn. De software status en drivers worden steed beter. Ze moeten die mind set ook bij de consument wegpoetsen.
Gb102 word een (uitgeklede) RTX 5090. Er is niets wat er op wijst dat het nu in eens anders zal zijn.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
3DEXP schreef op zaterdag 19 augustus 2023 @ 10:35:
[...]


Gb102 word een (uitgeklede) RTX 5090. Er is niets wat er op wijst dat het nu in eens anders zal zijn.
De laatste geruchten zijn dat de GB102 een chiplet-ontwerp wordt die alleen voor de zakelijke markt is, en dat GB202 een monoliet wordt die voor ondermeer gamers is bedoelt. En dan zou de GB202 een relatief kleine chip worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@CMT HWU levert. :D
Overheadtest met de 7800X3D/13900K en de RX7900XTX/RTX4090.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
Momenten als deze zet je toch de denken of er geen sprake is van een collectief (onder)bewustzijn.
Wat een timing en wat super zeg!
Ik ga dat even rustig bekijken.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

De traditionele pre launch leak bij Videocardz is er weer. :z
Zowel RX7700XT 12GB als RX7800XT 16GB rond 250W TDP. RX7700XT heeft helaas 18gbps GDDR6, RX7800XT heeft 19,5gbps. Verder heeft de RX7700XT wel 54CU tegenover de 60CU van de RX7800XT. Prestatie lijkt zoals ik eindeloos heb voorgerekend, rond de RX6800/RX6800XT te zitten. Je krijgt er wel de RDNA3 zaken die hopelijk nog eens gebruikt gaat worden. Niet alleen dual issue, maar bijvoorbeeld ook de matrix capaciteiten voor bijvoorbeeld betere upscaling.
https://videocardz.com/ne...00-xt-12gb-graphics-cards

Geen prijzen. Dat gaat alles bepalen of dit compleet waardeloos of de winnaar van de generatie gaat zijn. :z

Om 17:00 is de stream er voor de geïnteresseerden. :)


Edit:
FSR3 komt ook eindelijk. Zo te zien alleen Anti Lag dus dat kan nog wat gaan worden met latency...
https://videocardz.com/ne...en-and-immortals-of-aveum

[ Voor 10% gewijzigd door DaniëlWW2 op 25-08-2023 13:16 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

$449 en $500 voor de RX7700XT en RX7800XT.
Launch is op 6 september.
Afbeeldingslocatie: https://media.discordapp.net/attachments/582233188198252574/1144649109765095534/image.png
De RX7700XT is denk ik wat te duur tegenover de RX7800XT. Maar dit is niet dramatisch. Hiermee valt te werken. :)

[ Voor 32% gewijzigd door DaniëlWW2 op 25-08-2023 18:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • JappieR
  • Registratie: Februari 2005
  • Laatst online: 06:31
nvm

[ Voor 96% gewijzigd door JappieR op 25-08-2023 17:09 ]


Acties:
  • 0 Henk 'm!

  • Sjonniebwoi
  • Registratie: December 2014
  • Laatst online: 12-10 12:16
Euro prijzen staan erbij...

Acties:
  • 0 Henk 'm!

  • kadarb
  • Registratie: Maart 2010
  • Laatst online: 29-07 15:14
100 euro te duur vind ik.

Acties:
  • 0 Henk 'm!

  • Lockon
  • Registratie: Mei 2009
  • Niet online
Volgens de asterisk zijn dat de EU prijzen, inclusief 19% btw.
Ben wel benieuwd naar het prestatieverschil tov de 6800xt, die nu min of meer hetzelfde geprijsd is.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Lockon schreef op vrijdag 25 augustus 2023 @ 17:10:
Volgens de asterisk zijn dat de EU prijzen, inclusief 19% btw.
Ben wel benieuwd naar het prestatieverschil tov de 6800xt, die nu min of meer hetzelfde geprijsd is.
Welk prestatieverschil? :P
Die RX7800XT zal niet veel sneller zijn. Wel betere RT en iets efficienter. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

FSR3 is er dus voor iedereen, ook Nvidia. Intel en XBOX. :)

[ Voor 10% gewijzigd door DaniëlWW2 op 25-08-2023 17:14 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Lockon
  • Registratie: Mei 2009
  • Niet online
DaniëlWW2 schreef op vrijdag 25 augustus 2023 @ 17:12:
[...]


Welk prestatieverschil? :P
Die RX7800XT zal niet veel sneller zijn. Wel betere RT en iets efficienter. :)
Da's ook min of meer mijn aanname, maar toch, wellicht -iets- extra's zou leuk wezen 8)7. Al zit ik met mn rx6800 wel prima momenteel.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

We krijgen Fluid Motion Frames interpolatie in AMD drivers in elke DX11 en DX12 game.
Dat kan nog interessant worden, als het een beetje werkt.

Verder is de presentatie een totaal niet te volgen puinzooi, maar Cyberpunk lijkt dus ook FSR3 te krijgen.
Afbeeldingslocatie: https://tweakers.net/i/HGWxIa97vxesONzxpHIK1OZLexU=/800x/filters:strip_icc():strip_exif()/f/image/EDRcFCPDGfoHRGU6AfeCQAXJ.jpg?f=fotoalbum_large

[ Voor 68% gewijzigd door DaniëlWW2 op 25-08-2023 17:21 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 12-10 21:11

Apoca

Array Technology Industry

DaniëlWW2 schreef op vrijdag 25 augustus 2023 @ 17:18:
We krijgen Fluid Motion Frames interpolatie in AMD drivers in elke DX11 en DX12 game.
Dat kan nog interessant worden.
Yes alleen moeten we weer even geduld hebben, Q1 '24 pas :/
Ze waren in november vorig jaar al bezig over HYPR-RX, en toen zou het in Q1 '23 uitkomen.
Is dus gewoon een geheel jaar later geworden :F

Ik ben echt wel happy met mijn AMD kaartjes geweest en nog steeds, maar team groen is wel beter met implementeren van nieuwe sjizzle en het gelijk in games te krijgen.

Ze moeten echt gewoon wat meer ontwikkelaars aannemen en focus zetten op dit soort zaken, time to market is uiteindelijk iets waarmee je mensen over de toonbank trekt en aan je kunt binden :)

[ Voor 67% gewijzigd door Apoca op 25-08-2023 17:42 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Lockon
  • Registratie: Mei 2009
  • Niet online
Ik vraag mij wel af in hoeverre dat hetzelfde effect zal hebben als de 200hz tv's van oudsher met hun interpolatie features. Want dat was mij een smeerboel van jewelste, imho. Maar in ieder geval aardig dat ze het voor praktisch de meeste spellen werkend hebben. En niet gebonden aan een specifieke generatie kaarten, als ik het goed begrijp.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AMD hun prestatie was misschien wel de meest verwarrende puinzooi die ik ooit van hun heb gezien.
Geen structuur, slecht te volgen, zeer onduidelijk over hoe ze nu precies presteren, totaal niet professioneel en het leek allemaal geïmproviseerd te zijn zonder voorbereiding...

Maar van wat ik begrepen heb, lijkt de RX7800XT best aardig te zijn. Dit ook alleen omdat ik allang door heb hoe die zal presteren. RX7700XT is denk ik wat te duur. Maar die zie ik nog wel zakken onder een stukje realiteit.

En zoals wel vaker moeten de reviewers het na de launch weer gaan uitleggen. :z
nieuws: AMD kondigt Radeon RX 7700 XT- en 7800 XT-videokaarten aan



edit:
-FSR3 komt naar Cyberpunk naast games zoals Forspoken of Space Marine II.
-FSR3 = FSR2 + interpolatie (AMD Fluid Motion Frames). AMD claimt verder dat ze in ieder geval iets met de UI hebben gedaan zodat dit niet negatief beïnvloed word. Er zit blijkbaar een latency reductie in FSR3 zelf.
-Voor RDNA2 en ouder moet je zelf Anti-Lag of een alternatief aanzetten in drivers.
-Voor RDNA3 komt er ook Anti Lag+ als driver level functie. Het lijkt meer richting Nvidia Reflex te gaan, maar dan in de driver. Dat zou wel mooi zijn als het goed werkt. :)
-AMD Fluid Motion Frames komt ook direct beschikbaar in AMD drivers.
-FSR3 zal in ieder geval ondersteund worden voor RDNA1-RDNA3, RTX20-RTX40 en XBOX.
-HYPR-RX (Boost, anti-lag, en upscaling) komt ook alleen voor RDNA3, zowel als driver als game implementatie. De game implementatie gebruikt FSR2, driver zit op de oude RSR.
-Er komt ook een FSR2 mode die niet upscaled en alleen functioneert als AA. Yay, zeker als de game ook de FSR2 sharpening slider heeft. d:)b


Tja, beetje een verwarrend gevoel dit. De presentatie was, zelfs voor RTG standaarden, een dramatische puinzooi. Maar het meeste lijkt best goed te zijn. de RX7800XT lijkt serieus potentieel te hebben voor veel gamers in deze miserabele generatie. Niet goedkoop, maar wel betaalbaar en vermoedelijk adequaat voor veel moderne games. Er zitten ook een aantal potentieel mooie software features aan te komen buiten FSR3. Ik weet nog steeds niet of FSR3 wat gaat worden, maar Anti-Lag+ of FSR2 alleen als AA gebruiken, zijn zaken die ik zeker zal gebruiken. :)

[ Voor 64% gewijzigd door DaniëlWW2 op 25-08-2023 18:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Alleen al vanwege de 16 GB zou ik met dit prijsverschil altijd voor de 7800 XT gaan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 11-10 15:34
De 7700XT is een AIB kaart en die zakken vaak wat sneller in prijs. Ik zie sowieso deze kaarten snel naar 500 en 450 euro gaan binnenkort. Denk hierbij aan Black Friday ofzo.

De prijzen zijn trouwens erg netjes, vooral de 7800XT. Maar dat komt vooral omdat hij waarschijnlijk maar 5 procent beter is dan de 6800xt.

Ik twijfel nu wel tussen de 4070 en de 7800xt zo. Vooral omdat dlss beter is dan FSR. Maar die 16gb Vram is erg aantrekkelijk. Ook denk ik misschien aan een tweedehands 3090 met 24gb Vram :+

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
$499 voor de 7800XT zet de aanval mooi in op de RTX 4070.
De 7700XT prijs is onlogisch, net als de MSRP van de 7900 XT.
Mooi zo'n gat van $400 tussen de 7900XT en 7800XT :D

Gelukkig corrigeert de markt dit wel.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Maar hoeveel sneller dat de 6800XT verwachten jullie dat een 7800XT is? Want die moet nog wel een sprongetje maken voor je zo blij kan worden over de prijs als dat jullie hier zijn toch? Want ja hij staat goedkoper in de markt natuurlijk (en dat moet AMD ook om aantrekkelijk te zijn, en nee niet alleen vanwege marketing / naam, hij verbruikt ook 30% meer stroom), maar dan moet hij wel minstens RTX4070 prestaties leveren voor je blijer ervan kan worden lijkt mij?

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sissors schreef op zaterdag 26 augustus 2023 @ 08:32:
Maar dan moet hij wel minstens RTX4070 prestaties leveren voor je blijer ervan kan worden lijkt mij?
Stroomverbruik is ook nog een ding, volgens de opgegeven specificatie komt die 7800 XT niet eens in de buurt van de 200W dat de RTX 4070 biedt.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12-10 23:59
DaniëlWW2 schreef op vrijdag 25 augustus 2023 @ 17:39:



Tja, beetje een verwarrend gevoel dit. De presentatie was, zelfs voor RTG standaarden, een dramatische puinzooi. Maar het meeste lijkt best goed te zijn. de RX7800XT lijkt serieus potentieel te hebben voor veel gamers in deze miserabele generatie. Niet goedkoop, maar wel betaalbaar en vermoedelijk adequaat voor veel moderne games. Er zitten ook een aantal potentieel mooie software features aan te komen buiten FSR3. Ik weet nog steeds niet of FSR3 wat gaat worden, maar Anti-Lag+ of FSR2 alleen als AA gebruiken, zijn zaken die ik zeker zal gebruiken. :)
Waarschijnlijk mis ik iets, maar ik zie dat potentieel niet direct. Ik heb morgen een 6800XT in huis voor de rond de €550, of bijvoorbeeld een XFX Merc voor €579 iets wat de instap 7800XT's ook moeten gaan kosten, de betere AIB modellen gaan vast naar de €600 of daar misschien zelfs ruim over. Tenzij ik iets mis zie ik de instap 7800XT's de 'oude' 6800XT niet verslaan met 30% laat staan 50% op +- hetzelfde prijspunt wat je eigenlijk wil.

Zelfs als je kijkt naar het oude MSRP in plaats van de 'straatprijs', is het MSRP bijna 20% lager, dus dat is een redelijke stap, maar zelfs dan is het met de performance die ze lijken te winnen over de 6800XT maar een stap die je eigenlijk minimaal verwacht. Bij iets dat 'serieus potentieel' zou moeten hebben zou ik eigenlijk iets verwachten dat de potentie heeft de markt op zijn kop te zetten en dat zie ik hier eigenlijk echt niet gebeuren.

Acties:
  • 0 Henk 'm!

  • dragonlords1
  • Registratie: Augustus 2007
  • Laatst online: 10-10 23:22
Sissors schreef op zaterdag 26 augustus 2023 @ 08:32:
Maar hoeveel sneller dat de 6800XT verwachten jullie dat een 7800XT is? Want die moet nog wel een sprongetje maken voor je zo blij kan worden over de prijs als dat jullie hier zijn toch? Want ja hij staat goedkoper in de markt natuurlijk (en dat moet AMD ook om aantrekkelijk te zijn, en nee niet alleen vanwege marketing / naam, hij verbruikt ook 30% meer stroom), maar dan moet hij wel minstens RTX4070 prestaties leveren voor je blijer ervan kan worden lijkt mij?
Ik verwacht dat de 7800xt minstens 10% trager zal zijn dan de 6800xt en dit verschil zal nog groter zijn bij hogere resolutie. De 6800xt heeft 12 compute units meer en dubbel zoveel infinity cache.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
dragonlords1 schreef op zaterdag 26 augustus 2023 @ 13:04:
[...]

Ik verwacht dat de 7800xt minstens 10% trager zal zijn dan de 6800xt en dit verschil zal nog groter zijn bij hogere resolutie. De 6800xt heeft 12 compute units meer en dubbel zoveel infinity cache.
De 7800XT is volgens AMD iets van 10% beter of slechter dan een RTX 4070, afhankelijk van of Ray Tracing aan staat of niet. Dat klinkt een beetje als de RX 6950XT. Maar veel beter dan een 6800XT zal het niet zijn, inderdaad.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Dennism schreef op zaterdag 26 augustus 2023 @ 11:02:
[...]


Waarschijnlijk mis ik iets, maar ik zie dat potentieel niet direct. Ik heb morgen een 6800XT in huis voor de rond de €550, of bijvoorbeeld een XFX Merc voor €579 iets wat de instap 7800XT's ook moeten gaan kosten, de betere AIB modellen gaan vast naar de €600 of daar misschien zelfs ruim over. Tenzij ik iets mis zie ik de instap 7800XT's de 'oude' 6800XT niet verslaan met 30% laat staan 50% op +- hetzelfde prijspunt wat je eigenlijk wil.

Zelfs als je kijkt naar het oude MSRP in plaats van de 'straatprijs', is het MSRP bijna 20% lager, dus dat is een redelijke stap, maar zelfs dan is het met de performance die ze lijken te winnen over de 6800XT maar een stap die je eigenlijk minimaal verwacht. Bij iets dat 'serieus potentieel' zou moeten hebben zou ik eigenlijk iets verwachten dat de potentie heeft de markt op zijn kop te zetten en dat zie ik hier eigenlijk echt niet gebeuren.
Kloksnelheid van N32 had veel hoger moeten zijn (3,2 GHz), en dan zou $499 een mooie prijs zijn voor de bijbehorende performance, en zou N31 ook hoger zijn, etc. Maar het uitvoeren van chiplets blijkt lastiger dan gedacht, om van soft naar hard design te gaan. Is kennelijk nu te kostbaar voor de volgende RDNA4 generatie, en is uitgesteld tot RDNA5.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

Ik denk dat net als met buldozer vs intel 14nm zooi jullie procede te hard wegcijferen.
5 en 6nm is niet gelijk aan 4nm nVidia heeft hier wat voordeel met Piledriver vs intel14nm cpu was dat gigantisch.
Als je voor maximum performance gaat bij dieshrink, dan stijgt de klok ceiling,samen met vermogen ceiling bij gelijke grote die size.
Bij gelijke performance zal de kleinere procede zuiniger zijn bij gelijke die space aangezien je lagere kloks kan toepassen. Dat maakt mobile RTX40 zuinig. Bij gelijke performance is ook de optie om minder grote chip toe te passen. Met redelijke kloks. Ook zuiniger en goedkoper te produceren voor midrange.
Naast chiplet nukken zit je dus dat meer diespace nodig hebt om lagere node concurrent te evenaren met als manco hogere kloks relatief tot de node en dus hoger verbruik.
Nvidia is 3ghz ook flinke Boost OC voor 4nm , dan is 3ghz voor 5nm gcd al nog flinkere OC.
De reden voor 5nm en 6nm is wafer kosten besparing. Maar maakt chiplet wel groter. Klokt minder lekker dan competitie. Maar in de midrange kan nVidia kleine DIE toepassen wat wafer kosten en yield ook beter maakt en dan is chiplet goedkopere nodes voordeel deels gecompenseerd. Met huidige keuze vreet AMD meer vermogen dan de concurrentie. Komt boven op de RT voordeel. Nog hogere kloks dan gaat 7800XT richting of zelfs over de 300watt.
Er zijn dus pro en cons voor nVidia en AMD strategies. En als consument moet je daar ook redelijk in zijn dat nV voor RTX mobiel toch beter voor staat vs N33 mobiel. En dat 5nm( +6nm) vs 4nm monolitic ook zijn invloed heeft

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@SG

Dat AMD nauwelijks betere efficiëntie heeft, ondanks een overgang van 7N naar 5N+6N, geeft toch wel aan dat het nieuwe ontwerp niet echt uit de kleren komt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 28 augustus 2023 @ 12:57:
@SG

Dat AMD nauwelijks betere efficiëntie heeft, ondanks een overgang van 7N naar 5N+6N, geeft toch wel aan dat het nieuwe ontwerp niet echt uit de kleren komt.
Of het is inherent aan de MCM + bredere geheugenbus. Dat is het hele nadeel van chiplets. Er gaat extreem veel verkeer tussen die MCD's en de GCD. Niet alleen GDDR6, maar ook L3 cache. Want de energie bij RDNA3 zit voor een aardig deel in SOC. :)

offtopic:
Verder na de ervaringen met mijn RX7900XT, begin ik behoorlijke twijfels te plaatsen bij de default power en voltage curve. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Ja, vermoedelijk is dit niet erg efficient. Sowieso zou ik denken dat MCM pas echt voordelen gaat hebben als je meerdere compute-dies gaat gebruiken, waarbij die dan ook uit dezelfde bin komen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 29 augustus 2023 @ 09:49:
@DaniëlWW2

Ja, vermoedelijk is dit niet erg efficient. Sowieso zou ik denken dat MCM pas echt voordelen gaat hebben als je meerdere compute-dies gaat gebruiken, waarbij die dan ook uit dezelfde bin komen.
Als je meerdere compute chiplets gebruikt, dan escaleert je verbruik waarschijnlijk alleen maar. :)
Dat AMD zoiets als Epyc Genoa of helemaal de 192 core, Zen 4c Bergamo kan maken is echt indrukwekkend. Maar daar heb je tenminste nog het voordeel dat je compute meer in serie is en meer geconcentreerd in een core. GPU's zijn juist parallel en zaken zoals RT vragen juist om zoveel dataverkeer. Neem alleen al de nu waarschijnlijk geannuleerde Navi 41 met negen Shader Engine chiplets. Als die aan de slag gaan met RT en data van L2 of L3 cache nodig hebben.

Ik vermoed ook dat deze interpretatie van N41 heel goed kan kloppen.
Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/08/NAVI-4X-RDNA4-AMD-1200x432.png

Je L3 cache komt op in de actieve interposer onder de compute units. Een actieve interposer zou AMD vermoedelijk ook gebruiken omdat ze er meer energiebesparing mee hopen te bereiken dan zelfs hun behoorlijk efficiënte IF. Maar zelfs dan nog, je data gaat tussen verschillende stukjes silicon. Dat kost tijd, latency en kost stroom. Verder is dit heel erg duur. Zeker omdat ik vermoed dat ze voor die actieve interposer niet een stokoude node zoals 45mm kunnen gebruiken. Want die caches moeten waarschijnlijk ook op volle snelheid draaien en niet al te veel hitte produceren. Denk eerder dat ze iets als 16nm of zelfs 7nm zouden moeten gebruiken.


Aan de andere kant speelt ook dat Nvidia haar strategie voor RT, juist dataverkeer lijkt te vermijden door eigenlijk zaken in een brute force te gaan doen met parallel, extreem veel ray/intersection tests uitvoeren. Min of meer het tegenovergestelde van AMD en ook Intel die juist meer nadruk leggen op BvH structuren en minder ray/intersection testen.

Nvidia haar strategie is meer shader blocks die zelf het meeste aankunnen en minder op geheugen terug moeten vallen. Het is ook waarom de RTX4090 alleen in Cyberpunk RT overdrive, path tracing dus, zo enorm uitloopt op de RTX4080 en eigenlijk op 4K gaat presteren zoals je zou mogen verwachten gezien het enorme verschil in hardware. Pas met dat gaan al die SM's aan de slag met extreem veel ray/intersection tests afwerken. Ik kan me geen enkele andere game bedenken waar de RTX4090 zo wegloopt van de RTX4080.

49% op 1440p en 61% op 4K. Uiteraard de waarden zonder frame generation of upscaling genomen.
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/DPdzytqBz3wQ9CWeWdknEZ.png
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/riCfXMq6JFZHhgBp8LLVMZ.png

Het is, vermoed ik zo ook waarom Nvidia met hun Micro-Mesh kwam. Het ontlast BvH creatie en dus veel dataverbruik in theorie enorm. En ik vind het in theorie ook een erg slimme aanpak. Maar we zijn inmiddels bijna een jaar verder en we horen of zien eigenlijk niks. Of dit snel naar games gaat komen, tja ik weet het echt niet. Het zou namelijk open source zijn en niet vergrendeld voor alleen Ada Lovelace.
https://developer.nvidia.com/rtx/ray-tracing/micro-mesh

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12-10 23:59
DaniëlWW2 schreef op maandag 28 augustus 2023 @ 14:03:
[...]


Of het is inherent aan de MCM + bredere geheugenbus. Dat is het hele nadeel van chiplets. Er gaat extreem veel verkeer tussen die MCD's en de GCD. Niet alleen GDDR6, maar ook L3 cache. Want de energie bij RDNA3 zit voor een aardig deel in SOC. :)

offtopic:
Verder na de ervaringen met mijn RX7900XT, begin ik behoorlijke twijfels te plaatsen bij de default power en voltage curve. :z
Maar N33 maakt ook geen sprong, terwijl dat N7 v.s. N6 is. Als het RDNA3 ontwerp echt veel efficiënter zou zijn dan RDNA2 zou je daar dan wel een sprong verwachten, want geen MCM / Fabric die de winst 'op kan eten'. Maar volgens mij zie je gen on gen daar 0 efficiëntie winst tussen N23 en Navi 33, terwijl N6 toch, hoe klein het verschil ook zal zijn, de iets betere node zou moeten zijn.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op dinsdag 29 augustus 2023 @ 10:27:
[...]


Maar N33 maakt ook geen sprong, terwijl dat N7 v.s. N6 is. Als het RDNA3 ontwerp echt veel efficiënter zou zijn dan RDNA2 zou je daar dan wel een sprong verwachten, want geen MCM / Fabric die de winst 'op kan eten'. Maar volgens mij zie je gen on gen daar 0 efficiëntie winst tussen N23 en Navi 33, terwijl N6 toch, hoe klein het verschil ook zal zijn, de iets betere node zou moeten zijn.
N33 maakt wel een kleine spong tegenover de RX6650XT. Net iets sneller en net iets efficienter.
Verder is N6 een N7 node optimalisatie met in theorie net iets meer dichtheid alsmede wat EUV voor een paar lagen metaal om wat kosten te besparen.

Verder is de RX7900GRE met dezelfde 80CU's en een MCM ontwerp, toch ongeveer net zo snel als de RX6900XT, maar wel voor een 260W TDP. En op gelijk vermogen is die ook iets sneller dan de RX6950XT. En dit is dan een aardig kreupel geslagen N31 configuratie. :)
https://www.computerbase...._fast_perfekter_vergleich

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12-10 23:59
Het lijkt ook een beetje per review af te hangen, en mogelijk zelfs per Sku waartegen je vergelijkt. Op Tweakers zie je bijvoorbeeld 0 efficiëntie winst voor de 7600 over bijvoorbeeld de 6600, terwijl Hub een klein verschil laat zien, maar wel in het voordeel van de 7600, en CB (die geen 6600 heeft in die review) een vrij groot verschil laat zien t.a.v. 6650XT, maar dan weer alleen naar 1080P kijkt.

Volgens mij is die 7900GRE ten opzichte van de 6950XT trouwens niet bij gelijke power, in de tekst staat:
Zugleich wurde das Power- Limit maximal erhöht, um etwaige Engpässe diesbezüglich zu verhindern
Wat vermoed ik in het voordeel van de 7900 moet zijn.

[ Voor 26% gewijzigd door Dennism op 29-08-2023 11:26 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

Bij AMD zijn de xx50 kaarten (meer) overgeklokt en die draaien dus niet erg efficient. Dus het is volstrekt logisch dat de 7600 efficient is ten opzichte van de 6650 XT, maar niet tov de 6600.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Dennism schreef op dinsdag 29 augustus 2023 @ 10:27:
[...]


Maar N33 maakt ook geen sprong, terwijl dat N7 v.s. N6 is. Als het RDNA3 ontwerp echt veel efficiënter zou zijn dan RDNA2 zou je daar dan wel een sprong verwachten, want geen MCM / Fabric die de winst 'op kan eten'. Maar volgens mij zie je gen on gen daar 0 efficiëntie winst tussen N23 en Navi 33, terwijl N6 toch, hoe klein het verschil ook zal zijn, de iets betere node zou moeten zijn.
N6 = 0,0 verbetering t.o.v. van N7 op elektrisch vlak. Geen hogere kloksnelheden, geen lager verbruik. Enkel iets hogere dichtheid en betere yields door een verbeterd productieproces.

N33 piekt ~20W lager dan N23, in games zit er ~5W ofzo in. Er is dus wel iets van verbetering, maar niet echt noemenswaardig (hoewel 20W op een piek van 170W vrij aardig is).

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
Dennism schreef op dinsdag 29 augustus 2023 @ 11:24:
Volgens mij is die 7900GRE ten opzichte van de 6950XT trouwens niet bij gelijke power, in de tekst staat:


[...]


Wat vermoed ik in het voordeel van de 7900 moet zijn.
Bij CB hebben ze de powerlimiet op max. gezet zodat het geen evt. beperking kon vormen tijdens het onderzoek. Beide kaarten zijn vergeleken met een vaste (target?) klok van 2GHz.

Sinds een kleine week heb ik een 7900XTX in huis en ben daar volop mee bezig om o.a. de schaling en het efficiëntiepunt in kaart te brengen. Daarbij maak ik ook vergelijkingen met mijn oude 6900XT en heb ik ook een 6950XT in bezit wat onderdeel is van een ITX projectje.

Ik kan i.i.g. vertellen dat op 2GHz klok de 7900XTX en 6900XT evenveel verbruiken (in Timespy 3440x1440 ca. 250W boardpower). De 6950XT zal een fractie efficiënter zijn vanwege de iets betere bin van de chip en vrm's die van een klasse hoger zijn.
De 7900GRE heeft aan de andere kant: 1 MCD minder, 4 geheugenchips minder en een geknipte die.
Het is dus zo goed als zeker dat deze minder zal verbruiken.
Als CB dat nou gewoon even het meegemeten. Reviewers lijken alleen maar geïnteresseerd te zijn in prestaties :z



Edit:
Hieronder is de betreffende vermogensmeting te zien van de SoC en geheugenchips/systeem @2GHz gpu klok (geknipt op Timespy graphics test 1 & 2).
Afbeeldingslocatie: https://tweakers.net/i/Huo2zKkWazZGKikUATZmYAu5z50=/800x/filters:strip_exif()/f/image/CNqEIET8rMnDGGPpuMT1HE2U.png?f=fotoalbum_large

Als we voor de eenvoudigheid aannemen dat het SoC & geheugen verbruik te delen is door het aantal MCD & geheugen IC's. Dan zal de stap naar 5 MCD met 8 geheugen IC's, pakweg voor 23W 28W minder verbruik zorgen. Mijn schatting is dus dat de 7900GRE dan iets van 230W 225W boardpower moet verbruiken.

Edit:
Vergeten dat deze meetwaarden op de uitgang van de vrm's wordt gemeten, dus voor correctie richting boardpower gedeeld door een factor 0.83 (blijkt een redelijke benadering te zijn).

[ Voor 33% gewijzigd door CMT op 29-08-2023 15:25 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
SG schreef op maandag 28 augustus 2023 @ 07:20:
Ik denk dat net als met buldozer vs intel 14nm zooi jullie procede te hard wegcijferen.
5 en 6nm is niet gelijk aan 4nm nVidia heeft hier wat voordeel met Piledriver vs intel14nm cpu was dat gigantisch.
Als je voor maximum performance gaat bij dieshrink, dan stijgt de klok ceiling,samen met vermogen ceiling bij gelijke grote die size.
Bij gelijke performance zal de kleinere procede zuiniger zijn bij gelijke die space aangezien je lagere kloks kan toepassen. Dat maakt mobile RTX40 zuinig. Bij gelijke performance is ook de optie om minder grote chip toe te passen. Met redelijke kloks. Ook zuiniger en goedkoper te produceren voor midrange.
Naast chiplet nukken zit je dus dat meer diespace nodig hebt om lagere node concurrent te evenaren met als manco hogere kloks relatief tot de node en dus hoger verbruik.
Nvidia is 3ghz ook flinke Boost OC voor 4nm , dan is 3ghz voor 5nm gcd al nog flinkere OC.
De reden voor 5nm en 6nm is wafer kosten besparing. Maar maakt chiplet wel groter. Klokt minder lekker dan competitie. Maar in de midrange kan nVidia kleine DIE toepassen wat wafer kosten en yield ook beter maakt en dan is chiplet goedkopere nodes voordeel deels gecompenseerd. Met huidige keuze vreet AMD meer vermogen dan de concurrentie. Komt boven op de RT voordeel. Nog hogere kloks dan gaat 7800XT richting of zelfs over de 300watt.
Er zijn dus pro en cons voor nVidia en AMD strategies. En als consument moet je daar ook redelijk in zijn dat nV voor RTX mobiel toch beter voor staat vs N33 mobiel. En dat 5nm( +6nm) vs 4nm monolitic ook zijn invloed heeft
Procedé is 1 ding maar waar het mis gaat is soft design omzetten naar hard design. Chiplets voor GPU waren niet eerder geprobeerd en de splitsing van GCD en MCD blijkt niet slim. Teveel verkeer / verlies / te weinig performance.

Nieuw RDNA4 design probeerde SED ofwel Shader Engine Die, die de cache en shaders bij elkaar houdt. Met een aparte I/O die om de aansturing te doen. RDNA4 is nu geannuleerd / uitgesteld tot RDNA5, maar lijkt wel slimmer ook als je kijkt naar Zen aanpak. L3 wordt inderdaad dan een soort actieve interposer tussen alle Shader Engine Die's.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 08:22

vectormatic

Warlock of the doorlock

Ik denk toch dat er een hoop meer aan de hand is met RDNA3 dan het chiplet gedoe. Ik heb de afgelopen eens wat dingen teruggelezen (over RDNA3 en de 7600 specifiek), en alle beloftes van 54% betere efficientie, 50% betere raytracing etc.. komen compleet niet uit de verf. Ook dat hele "dual issue" verhaal is leuk, maar in de praktijk dus 0 prestatiewinst..

Ik zit momenteel dus redelijk met de vraag of ik mijn 6600 nog wil upgraden voor starfield, en was vooral op zoek naar wat ik nu als gebruiker zou merken van het verschil tussen een rdna2 of 3 kaart. En of ik dan nog snel een 6700xt op de kop tik, of toch een grotere upgrade moet doen met een 7800xt of zo.

Bijkomend argument waarom RDNA2 nog best een tijd relevant zal blijven (schoot me tijdens de digital foundry beschouwing van FSR3 te binnen), AMD heeft naast GPU sales ook een user base van 70+ miljoen RDNA2 GPUs in PS5, Xbox series en steamdecks zitten, dit allemaal als statische config nog een hele tijd verkocht worden. Elke extra feature die ze verzinnen, die ook nog op RDNA2 draait is mooi meegenomen.

EDIT: wat starfield betreft, ik heb dus ook geen idee wat ik daar van moet verwachten kwa performance, RX5700 is volgens steam de minimum (wat mijn 6600 ook maar net overstijgt), maar vervolgens moet het toch ook goed speelbaar zijn op de Series S, die nog niet half zo sterk is, en schijnen mensen ook te verwachten dat een steamdeck het speelbaar krijgt..... wut?

[ Voor 14% gewijzigd door vectormatic op 29-08-2023 22:10 ]

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • Cigarguy
  • Registratie: Maart 2017
  • Laatst online: 09:47
vectormatic schreef op dinsdag 29 augustus 2023 @ 22:05:
Ik denk toch dat er een hoop meer aan de hand is met RDNA3 dan het chiplet gedoe. Ik heb de afgelopen eens wat dingen teruggelezen (over RDNA3 en de 7600 specifiek), en alle beloftes van 54% betere efficientie, 50% betere raytracing etc.. komen compleet niet uit de verf. Ook dat hele "dual issue" verhaal is leuk, maar in de praktijk dus 0 prestatiewinst..

Ik zit momenteel dus redelijk met de vraag of ik mijn 6600 nog wil upgraden voor starfield, en was vooral op zoek naar wat ik nu als gebruiker zou merken van het verschil tussen een rdna2 of 3 kaart. En of ik dan nog snel een 6700xt op de kop tik, of toch een grotere upgrade moet doen met een 7800xt of zo.

Bijkomend argument waarom RDNA2 nog best een tijd relevant zal blijven (schoot me tijdens de digital foundry beschouwing van FSR3 te binnen), AMD heeft naast GPU sales ook een user base van 70+ miljoen RDNA2 GPUs in PS5, Xbox series en steamdecks zitten, dit allemaal als statische config nog een hele tijd verkocht worden. Elke extra feature die ze verzinnen, die ook nog op RDNA2 draait is mooi meegenomen.

EDIT: wat starfield betreft, ik heb dus ook geen idee wat ik daar van moet verwachten kwa performance, RX5700 is volgens steam de minimum (wat mijn 6600 ook maar net overstijgt), maar vervolgens moet het toch ook goed speelbaar zijn op de Series S, die nog niet half zo sterk is, en schijnen mensen ook te verwachten dat een steamdeck het speelbaar krijgt..... wut?
Op de consoles gaat Starfield op 30 FPS draaien. Of dat 'goed speelbaar' is, hangt af van je verwachtingen :+ .

Nog even geduld. 1 september is het review embargo eraf en dan gaan we vast wat horen over wat voor performance we mogen verwachten met wat voor soort hardware.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 08:22

vectormatic

Warlock of the doorlock

Cigarguy schreef op dinsdag 29 augustus 2023 @ 22:49:
[...]


Op de consoles gaat Starfield op 30 FPS draaien. Of dat 'goed speelbaar' is, hangt af van je verwachtingen :+ .

Nog even geduld. 1 september is het review embargo eraf en dan gaan we vast wat horen over wat voor performance we mogen verwachten met wat voor soort hardware.
Klopt, en op zich ben ik geen high FPS snob, maar 30 FPS in first person view is voor mij vaak toch niet voldoende, wie weet of het in 3rd person view wel werkt (maar geen idee of de combat dan nog een beetje fijn aanvoelt)

We gaan het zien

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 12:04

XanderDrake

Build the future!

Gezien de timing van de release van zowel Starfield als de 7700 XT en 7800 XT, hoeveel kans geven jullie de bundling van een Starfield key met een 7700/7800 XT GPU?

Ik geef die kans 80%, gezien dat je Starfield ook al krijgt bij bepaalde AMD CPU's.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sjonniebwoi
  • Registratie: December 2014
  • Laatst online: 12-10 12:16
echt zeer benieuwd naar de prijs.

indien aib 600 euro voor 7800xt dan ga je inees beter 7900xt

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 12-10 20:18
Sjonniebwoi schreef op woensdag 30 augustus 2023 @ 14:55:
echt zeer benieuwd naar de prijs.

indien aib 600 euro voor 7800xt dan ga je inees beter 7900xt
Dat zal ook wel meer of min de bedoeling zijn van AMD, met 70CU (als dat mogelijk is) zou de 7800XT interessanter zijn geweest en het gat naar de 7900XT mooi opvullen.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
XanderDrake schreef op woensdag 30 augustus 2023 @ 14:28:
Gezien de timing van de release van zowel Starfield als de 7700 XT en 7800 XT, hoeveel kans geven jullie de bundling van een Starfield key met een 7700/7800 XT GPU?

Ik geef die kans 80%, gezien dat je Starfield ook al krijgt bij bepaalde AMD CPU's.
100% gezien dit in de presentatie werd gepresenteerd. Volgens mij voor een bepaalde tijd krijg je het spel ook bij de 6xxx series. Tenminste het kan ook zijn dat ik niet heb zitten opletten en dat het een ander spel was.

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

vectormatic schreef op woensdag 30 augustus 2023 @ 09:47:
[...]


Klopt, en op zich ben ik geen high FPS snob, maar 30 FPS in first person view is voor mij vaak toch niet voldoende, wie weet of het in 3rd person view wel werkt (maar geen idee of de combat dan nog een beetje fijn aanvoelt)

We gaan het zien
30fps vs 60fps hangt af van soort spel of npc of pvp en hoe de game pace ingesteld is.
In game zoals America’s Army waar player physics ook enertia kent dus stuiter inertia loos bunny hop is er dan niet. NPC doen dat sowieso niet in single player. In zo game in niet steady 30fps nog te doen. Battlefield overwegend long range minder maar cqc waar toch stuiterbal exploid gedrag is 30fps ruk. In games waar de NPC kleine snelle beestjes zijn die in groep in mid tot cqc je aanvallen is 60fps ook wel gewenst. Deze inertia loze fps online pvp fpshooters prefereren de ervaren highskilled maar ook de wat jongere gamer die de fastpace voordeel hebben. De meer milsim core game mechanics, vermijden dat , door wel inertia en anti spring en stamina features naast accuracy hit reductie als veel beweegt en prone crouch een degelijk voordeel .

Maar ja heb PS5 dus denk eerder dat ik mijn ouwe Vega56 moet upgraden en dan 7800XT voor +/- 50E meer interessanter dan 7700XT. Net zoals de 7900XTX vs 7900XT als prijs verschil klein is.
Ik denk dat AMD dit doet omdat yield goed zijn je meer full DIE beschikbaar hebt dus wil iets hogere model aantrekkelijker maken. Zodat niet al te veel goede DIE’s moet verkloten voor tier lager. Voor een big chip waar je minder goede fulldie krijgt is betere prijs positie wel houdbaar voor die tier lager met dezelfde DIE.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

vectormatic schreef op dinsdag 29 augustus 2023 @ 22:05:
Ik denk toch dat er een hoop meer aan de hand is met RDNA3 dan het chiplet gedoe. Ik heb de afgelopen eens wat dingen teruggelezen (over RDNA3 en de 7600 specifiek), en alle beloftes van 54% betere efficientie, 50% betere raytracing etc.. komen compleet niet uit de verf. Ook dat hele "dual issue" verhaal is leuk, maar in de praktijk dus 0 prestatiewinst..
Dat er meer aan de hand is lijkt me duidelijk want de RX7600 heeft hier ook last van. Nou is "1 chiplet" misschien technisch nog steeds anders dan "1 monolotische die" (vanuit de chiplet-architectuur zijn misschien toch meer zaken losgetrokken dan op een monolitische die gedaan zou zijn) maar het ligt in ieder geval niet aan de coördinatie tussen meerdere chiplets. Waarschijnlijk had RDNA2 op TSMC 5nm beter gepresteerd. Als je de toename in transistors ziet en de toename in prestaties (of eigenlijk het gebrek daaraan) dan is de conclusie al snel dat zo ongeveer alle toegevoegde transistors uit hun neus zitten te vreten.

Als RDNA3 op hetzelfde procedé gebakken zou worden als RDNA2 denk ik dat je bij dezelfde die-grootte vooral performance-degradatie zou zien.

Ik heb de ballen verstand van chipontwerp, maar ik vraag me wel af of je tijdens de ontwikkelfase dit niet kan vinden met simulaties of tests. Gewoon maar een leuke theorie implementeren en bij de laatste tape-out maar kijken wat het wordt lijkt me toch niet de manier?

[ Voor 20% gewijzigd door bwerg op 31-08-2023 08:49 ]

Heeft geen speciale krachten en is daar erg boos over.


  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 08:22

vectormatic

Warlock of the doorlock

bwerg schreef op donderdag 31 augustus 2023 @ 08:43:
[...]

Ik heb de ballen verstand van chipontwerp, maar ik vraag me wel af of je tijdens de ontwikkelfase dit niet kan vinden met simulaties of tests. Gewoon maar een leuke theorie implementeren en bij de laatste tape-out maar kijken wat het wordt lijkt me toch niet de manier?
Als ik moet gokken zet ik mn geld op discrepsnties tussen wat de alu designers theoretisch simuleren en wat de driver ontwikkelaars daadwerkelijk voor elkaar krijgen, misschien zit dat achter het dual issue ding. Waar de 50% raytracing winst gebleven is....

Rdna2 op N5 was inderdaad leuker geweest, dan had ik graag een 7700xt gekocht, maar wat het nu is...

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@SG

Ik denk dat de 7700 XT zo duur is omdat ze de 6000-serie willen blijven verkopen.

@bwerg

Simulaties zijn altijd een versimpeling van de realiteit en bij het testen van GPUs lopen ze tegen ergere driver-issues dan wij. Dus dan moeten ze besluiten of het een oplosbaar driver-issue is of niet. Als ze dat verkeerd inschatten, zoals hier blijkbaar het geval was, zijn ze de sjaak.

En als het hele basisontwerp niet goed is, dan kunnen ze dat ook niet zomaar meer omgooien. Het maken van een basisontwerp kost heel veel tijd. De geruchten dat AMD voor RDNA4 de chiplet-kaarten maar laat zitten, zijn een indicatie dat het basisontwerp inderdaad fout is en ze dat voor RDNA5 gaan omgooien. Een volledig herontwerp van RDNA4 kost zoveel extra tijd dat ze dan de deadlines niet meer halen en ze net als Intel een zootje zouden gaan maken van hun release schedule.

offtopic:
Overigens is het goed om te beseffen dat ook in andere vakgebieden modellen worden gebruikt die vaak beperkt zijn of gebaseerd op aannames die aantoonbaar onjuist zijn. Ik zie vrij vaak dat mensen die modellen veel meer vertrouwen dan volgens mij redelijk is.

[ Voor 26% gewijzigd door Ludewig op 31-08-2023 10:58 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Het falen zit voor mij niet eens zo in de prestaties (al waren de verwachtingen eerst wel hoger).

De 6900xt heb ik naast de 7900xtx draaien op een vergelijkbaar systeem en de xtx is bijna 50% sneller, Das niet verkeerd op zich.

Het feit dat de eerste prijzen bizar veel hoger lagen tov de 6900xt ( dec, jan), en Nvidia de stroomvreter zou zijn terwijl het juist Amd was is en blijft jammer.

Ook de beoogde RT verbeteringen zijn ver te zoeken.

Op het moment zijn de prijzen wat beter en tov de 4080 en 4090 is het een prima keus wmb, zeker als je niks om RT geeft zoals ik.

Maar door de chiplets die niets brachten, de veel te hoge gpu prijzen, het stroomverbruik en de slechte vapor chambers had AMD wel een erg teleurstellend product. Hopelijk kunnen ze wat indruk maken nog in de midrange, prijs zal zeer bepalend zijn.

Verwijderd

FSR 3 heeft mooi potentie volgens de heren van DF

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

Ludewig schreef op maandag 28 augustus 2023 @ 12:57:
@SG

Dat AMD nauwelijks betere efficiëntie heeft, ondanks een overgang van 7N naar 5N+6N, geeft toch wel aan dat het nieuwe ontwerp niet echt uit de kleren komt.
Je vergeet dat 7N TSMC vs 8NM Samsung is
En 5nm+6nm vs 4Nm TSMC
De reden van chiplets is productie efficientie voor namelijk voor alternatieven voor bigchip monolithics. En dus daar cost voordeel.
De minder agresieve node gebruik is ivm tsmc price hike van wafers op latest nodes. Dus ook cost effectief.
Deze cost effectieviteit werkt het hards in high-end. Maar in de midrange en low-end hoeven de kloks niet zo extreem zo ook mobile en wordt het 5+6 vs 4 tsmc meer een nadeel.

Daarboven op komen dan de invloed van architectuur en chiplet factor. Welke grootste is geen idee. Maar 4nm klok curve is anders dan 5nm en 6nm dus mag wel lekker klokken dan krijg je er meer vermogen on evenredig tov concurrent.
Dus is nu prijs voordeel vs vermogen verbruik. Alles heeft pro en con.
AMD is goed koper vs zuipt wat meer.
NV is duurder vs zuiniger

Goedkoper superzuinig alle features in demax en top performance gaat niet samen.
Dat maakt 4090 redelijke bang for the buck alles in acht neemt
Dat maakt ook 7900XTX beter deel als bepaalde features niet relevant voor je zijn.
Dat maakt N33 voor mobile toch iets van tegen valler vs RTX40 mobile chips.
Op chip cost prijs na.

Het compromise en wat vind je belangrijkste.
NV harkt flink wat kapitaal binnen AI wat intel en AMD missen. Dus productie efficentie cost reductie is nog steeds heel belangrijk voor AMD dus de nieuwste nodes zijn voor Epyc.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K

Pagina: 1 ... 91 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.