Met de huidige koers 1$ = €0,93, zou deze kaart op +-€302.50 uitkomen, en dat zal dan waarschijnlijk gaan om de instappers. Geen idee of AMD reference kaarten in volume gaat shippen, en daarnaast vraag ik me af of je voor een fatsoenlijk AIB model niet minimaal €329 ofzo gaat betalen.Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 13:32:
Toen ik MLID zag en dat hij zei dat de 7600 270$ gaat kosten dacht ik, dat is nog best ok. Toen ik naar de huidige prijzen van de 6600 keek twijfelde ik toch want met de belasting komt dat toch waarschijnlijk op 300 uit, wat ik te veel vind voor die kaart.
Het lijkt me prima mogelijk om een 12 GB kaart met een 192 bit bus te verkopen voor $300. De 1660 Super met een 192 bit bus was ook maar $230. Dan 2 tientjes erbij voor 6 GB extra geheugen en dan nog $50 extra voor de meerkosten van TSMC 6 boven TSMC 12, en wat andere kosten.
Ze kunnen nu ook een 237 mm2 6600 met 8 GB verkopen voor 210 euro.
Ze kunnen nu ook een 237 mm2 6600 met 8 GB verkopen voor 210 euro.
[ Voor 11% gewijzigd door Ludewig op 24-05-2023 14:27 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
/f/image/fOYWEhI5pvNCk5n5B6RZR8vt.png?f=fotoalbum_large)
In de meeste games is er minder vooruitgang op RT vlak dan op raster. Wat zou de rede hiervoor kunnen zijn? Ik zou juist het tegengestelde verwachten
300€ is niet echt een aantrekkelijke prijs. Voor 260€ heb je een 6650XT en deze kaart is waarschijnlijk nauwelijks sneller. Je doet zelfs verlies in prestaties per €.
Precies ik snap de meerwaarde van de 7600 t.o.v. de 6650XT niet, deze laatstgenoemde kost nu nog maar 249 euro inclusief gratis spel. (MSI Ventus en Asus Dual). Als de 7600 nou 12GB VRAM zou hebben was het een ander verhaal.napata schreef op woensdag 24 mei 2023 @ 14:44:
[Afbeelding]
In de meeste games is er minder vooruitgang op RT vlak dan op raster. Wat zou de rede hiervoor kunnen zijn? Ik zou juist het tegengestelde verwachten
300€ is niet echt een aantrekkelijke prijs. Voor 260€ heb je een 6650XT en deze kaart is waarschijnlijk nauwelijks sneller. Je doet zelfs verlies in prestaties per €.
Trouwens nogal opvallend dat de 6750 XT hier momenteel aan de dure kant is. In de VS kun je nu de MSI 6750 XT OC krijgen voor $330 zonder rebate, wat omgerekend op 370 euro inclusief BTW uit zou moeten komen. Er is echter ook nog een $10 dollar rebate.
De prijs hier is € 429 voor dezelfde kaart en € 419 voor de goedkoopste 6750 XT. We moeten dus € 50-60 teveel betalen. Dit is nu net de kaart die hetzelfde presteert als de 4060 Ti en met name voor die lagere prijs er een stuk interessanter uitziet.
De prijs hier is € 429 voor dezelfde kaart en € 419 voor de goedkoopste 6750 XT. We moeten dus € 50-60 teveel betalen. Dit is nu net de kaart die hetzelfde presteert als de 4060 Ti en met name voor die lagere prijs er een stuk interessanter uitziet.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Net TPU even snel bekeken, 7600 nagenoeg zelfde prestaties als de 6650xt voor een hogere prijs idd...... Das al knap op zich..... Well done Amd.
Verwacht dat deze in no-time in grote hoeveelheden op de plank ligt en de prijs zakt naar 200. Pas dan is het een prima deal.
Het lijkt een manier om van de laatste 6650xt kaarten af te komen voorlopig? Zonder dat daarvan de prijs naar beneden moet.
Verwacht dat deze in no-time in grote hoeveelheden op de plank ligt en de prijs zakt naar 200. Pas dan is het een prima deal.
Het lijkt een manier om van de laatste 6650xt kaarten af te komen voorlopig? Zonder dat daarvan de prijs naar beneden moet.
Waarom dan? Hoeveel impact heeft dat op de performance? Even los van de geheugenbus breedte, wat gokken blijft, hebben we nu ook het Tweakers artikel gezien op de huidige impact van geheugens. En ja, die impact is er op 8GB, maar als we het hebben over wat één van de goedkoopste kaarten van de generatie zal zijn, dan is het logisch dat er keuzes gemaakt moeten worden. En dan lijkt mij 8GB een prima te verdedigen keuze.NitroX infinity schreef op woensdag 24 mei 2023 @ 12:29:
Ding had gewoon en 192bit geheugenbus moeten hebben met 12GiB. Dan was het een uitstekende kaart geweest.
Dat hij simpelweg niet sneller en niet zuiniger is dan een kaart van vorige generatie op hetzelfde prijspeil is een groter probleem dan dat hij niet heel toekomstbestendig is als je erop wil gaan 4k gamen.
Er is een verschil tussen een MSRP voor een nieuwe kaart uitkiezen en uiteindelijk gaan de winkelprijzen naar:Ludewig schreef op woensdag 24 mei 2023 @ 14:24:
Het lijkt me prima mogelijk om een 12 GB kaart met een 192 bit bus te verkopen voor $300. De 1660 Super met een 192 bit bus was ook maar $230. Dan 2 tientjes erbij voor 6 GB extra geheugen en dan nog $50 extra voor de meerkosten van TSMC 6 boven TSMC 12, en wat andere kosten.
Ze kunnen nu ook een 237 mm2 6600 met 8 GB verkopen voor 210 euro.
:strip_exif()/f/image/dn5bXRaaVyYXrrwvYpl4x1tp.jpg?f=fotoalbum_large)
Het wordt nog wel een interessante Black Friday als de voorraden maar blijven oplopen en de winkels willen in het vierde kwartaal het jaar nog redden met discounts om de onverkochten naar verkoopcijfers en omzet te converteren.
Niet zo slecht als de 4060 Ti, maar geen hoogvlieger voor de huidige MSRP.
Da's vanuit de positieve kijk gekeken, AMD mag net zo hard afgebrand worden als nVidia, want ze spelen het spelletje gewoon mee. Hoop dat de verkopen helemaal instorten, maar dat zal wel niet.Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:27:
Niet zo slecht als de 4060 Ti, maar geen hoogvlieger voor de huidige MSRP.
Hij is net iets beter geprijst dan de 4060 Ti en doordat hij trager is (en goedkoper) is de 8GB VRAM voor mij minder een probleem. Dus nee, ik vind hem marginaal beter dan de 4060 Ti. Er mag zeker nog 20$ van af voordat hij in het straatje van meh ok valt.Snowdog schreef op woensdag 24 mei 2023 @ 15:29:
[...]
Da's vanuit de positieve kijk gekeken, AMD mag net zo hard afgebrand worden als nVidia, want ze spelen het spelletje gewoon mee. Hoop dat de verkopen helemaal instorten, maar dat zal wel niet.
Asus heeft nu een cashback actie van 40euro op de 6700XT en 50 euro 6750XT, dus daarmee kosten deze nu 349 en 379Ludewig schreef op woensdag 24 mei 2023 @ 15:12:
Trouwens nogal opvallend dat de 6750 XT hier momenteel aan de dure kant is. In de VS kun je nu de MSI 6750 XT OC krijgen voor $330 zonder rebate, wat omgerekend op 370 euro inclusief BTW uit zou moeten komen. Er is echter ook nog een $10 dollar rebate.
De prijs hier is € 429 voor dezelfde kaart en € 419 voor de goedkoopste 6750 XT. We moeten dus € 50-60 teveel betalen. Dit is nu net de kaart die hetzelfde presteert als de 4060 Ti en met name voor die lagere prijs er een stuk interessanter uitziet.
Probleem is dat deze kaarten 0 meer bieden dan kaarten van een aantal jaar geleden die dezelfde performance bieden tegen dezelfde prijzen, hoe is dat meh ok? Dat lijkt me wel een paar stapjes lager dan meh ok....Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:34:
[...]
Hij is net iets beter geprijst dan de 4060 Ti en doordat hij trager is (en goedkoper) is de 8GB VRAM voor mij minder een probleem. Dus nee, ik vind hem marginaal beter dan de 4060 Ti. Er mag zeker nog 20$ van af voordat hij in het straatje van meh ok valt.
Daarmee wordt de rx 6700xt wederom de beste keuze in dat segment. Is gewoon een prima kaart, ook voor 1440p nog steeds wel.
Marginaal beter dan, de slechtste gen on gen verbetering in heeeeele lange tijd (ooit?) over een toch al te dure generatie én een ontzettend lange tijd tussen generaties, is nog steeds enorm slecht.Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:34:
[...]
Hij is net iets beter geprijst dan de 4060 Ti en doordat hij trager is (en goedkoper) is de 8GB VRAM voor mij minder een probleem. Dus nee, ik vind hem marginaal beter dan de 4060 Ti. Er mag zeker nog 20$ van af voordat hij in het straatje van meh ok valt.
[ Voor 4% gewijzigd door aicaramba op 24-05-2023 15:40 ]
$20 is dan wel erg weinig. Als je eigenlijk de minimaal 30% gen on gen wil op hetzelfde prijspunt die je eigenlijk als consument verwacht zit mag dit ergens tussen de €189-€209 kosten verwacht ik, afhankelijk van de resolutie waarop je speelt.Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:34:
[...]
Hij is net iets beter geprijst dan de 4060 Ti en doordat hij trager is (en goedkoper) is de 8GB VRAM voor mij minder een probleem. Dus nee, ik vind hem marginaal beter dan de 4060 Ti. Er mag zeker nog 20$ van af voordat hij in het straatje van meh ok valt.
Net als de 4060 Ti geen verbetering in prijs / performance, maar een flinke verslechtering, en waar de 4060 Ti in ieder geval nog een efficiëntie slag maakt, gebeurt dat hier ook niet.
Ik denk eigenlijk dat je niet anders kan stellen dan dat beide kaarten bedroevend slecht gepositioneerd zijn.
[ Voor 19% gewijzigd door Dennism op 24-05-2023 15:48 ]
Voordeel is wel dat je gewoon 2 jaar langer mee kan met de vorige generatie.
Daar ben ik het helemaal mee eens. Laat niet weg dat er boven slecht namelijk de 7600 nog steeds genoeg ruimte is voor bedroevend slecht namelijk de 4060 Ti.Snowdog schreef op woensdag 24 mei 2023 @ 15:39:
[...]
Probleem is dat deze kaarten 0 meer bieden dan kaarten van een aantal jaar geleden die dezelfde performance bieden tegen dezelfde prijzen, hoe is dat meh ok? Dat lijkt me wel een paar stapjes lager dan meh ok....
Lees mijn reactie goed, voor 250$ was het ok meh, zeker niet voor 270$.
Ze hadden hier zo de kans om een mooie kaart uit te bregen als ze op 230$ zaten. Helaas zijn ze zo'n grote fan van zichzelf in de voeten te schieten.
Jazeker, maar waar uit mijn bericht blijkt dat dit niet zo is? Daarnaast zijn er gradaties in hoe slecht iets is, het is niet zwart/wit. Het is een groot grijs gebied en Nvidia heeft met de 4060 Ti een bedroevend slecthe kaart waar AMD met de 7600 maar een slechte kaart heeft. Dat maakt de kaart niet ineens goed....aicaramba schreef op woensdag 24 mei 2023 @ 15:39:
[...]
Marginaal beter dan, de slechtste gen on gen verbetering in heeeeele lange tijd (ooit?) over een toch al te dure generatie én een ontzettend lange tijd tussen generaties, is nog steeds enorm slecht.


De 4060Ti heeft iig een stap in power efficientie gezet. En deze is de betere prijs/prestatie verhouding, maar eigenlijk niet tot nauwelijks beter dan de vorige generatie (oké wel na wat prijsverlagingen).Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:34:
[...]
Hij is net iets beter geprijst dan de 4060 Ti en doordat hij trager is (en goedkoper) is de 8GB VRAM voor mij minder een probleem. Dus nee, ik vind hem marginaal beter dan de 4060 Ti. Er mag zeker nog 20$ van af voordat hij in het straatje van meh ok valt.
Zou ik moeten kiezen in dit segment, ja dan zou ik deze verkiezen boven een hypothetische RTX4060. Maar tegelijk zijn ze gewoon beide teleurstellend.
Dat ben ik met je eens, maar in welke wereld vind iemand "ok meh" gelijk aan goedDennism schreef op woensdag 24 mei 2023 @ 15:40:
[...]
$20 is dan wel erg weinig. Als je eigenlijk de minimaal 30% gen on gen wil op hetzelfde prijspunt die je eigenlijk als consument verwacht zit mag dit ergens tussen de €189-€209 kosten verwacht ik, afhankelijk van de resolutie waarop je speelt.
Ik denk dat je 189-209 mag vergeten, we zijn ondertussen geconditioneerd dat we al erg blij moeten zijn als we 230 krijgen....
Heeft iemand inzicht in wat deze moderne midrange kaarten aan bill of materials kosten danwel wat de marge erop is? Is deze hoger/lager/hetzelfde tegenover enkele generaties terug?
Mijn punt is dat $20 of €20 eraf niet 'meh ok' is, dat is gewoon ook nog altijd bedroevend slecht. Er moet gewoon minimaal een 3de van de prijs af, wil dit een 'normale' gen on gen verbetering zijn.Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:49:
[...]
Dat ben ik met je eens, maar in welke wereld vind iemand "ok meh" gelijk aan goed.
Ik denk dat je 189-209 mag vergeten, we zijn ondertussen geconditioneerd dat we al erg blij moeten zijn als we 230 krijgen....
Waarbij 'normaal' dan ook nog eens 'bottom of the barrel' is, want 30% gen on gen bij dezelfde prijs is al minimaal. Zowel AMD als Nvidia moeten zich met deze kaart en de 4060Ti gewoon kapot schamen. Niet meer en niet minder.
[ Voor 7% gewijzigd door Dennism op 24-05-2023 15:54 ]
Volgens veel mensen die Nvidia kaarten kopen is efficientie geen probleemSissors schreef op woensdag 24 mei 2023 @ 15:49:
[...]
De 4060Ti heeft iig een stap in power efficientie gezet. En deze is de betere prijs/prestatie verhouding, maar eigenlijk niet tot nauwelijks beter dan de vorige generatie (oké wel na wat prijsverlagingen).
Zou ik moeten kiezen in dit segment, ja dan zou ik deze verkiezen boven een hypothetische RTX4060. Maar tegelijk zijn ze gewoon beide teleurstellend.
Dat is haast het enige positieve aan die kaart (naast AV1), want hij is soms trager dan zijn voorganger, dus dan mag hij inderdaad zuiniger zijn. DLSS3 is geen garantie gezien hij daar soms nog lager mee scored, tot dat is opgelost zie ik dat niet als een positief punt.
De 7600 is soms ook trager dan de 6650XT. Als de 6650XT dan ook nog 15% goedkoper is dan is dit niet anders dan de 4060Ti. Gezien de prijzen vind ik dit geen slechte vergelijking.Sp3ci3s8472 schreef op woensdag 24 mei 2023 @ 15:53:
[...]
Volgens veel mensen die Nvidia kaarten kopen is efficientie geen probleem.
Dat is haast het enige positieve aan die kaart (naast AV1), want hij is soms trager dan zijn voorganger, dus dan mag hij inderdaad zuiniger zijn. DLSS3 is geen garantie gezien hij daar soms nog lager mee scored, tot dat is opgelost zie ik dat niet als een positief punt.
Ze zijn begonnen.Snowdog schreef op woensdag 24 mei 2023 @ 15:29:
[...]
Da's vanuit de positieve kijk gekeken, AMD mag net zo hard afgebrand worden als nVidia, want ze spelen het spelletje gewoon mee. Hoop dat de verkopen helemaal instorten, maar dat zal wel niet.
[ Voor 9% gewijzigd door rapture op 24-05-2023 17:10 ]
Ik had nog niet gezien dat die ondertussen al op 250 euro zat. Dat is inderdaad een grote faal.napata schreef op woensdag 24 mei 2023 @ 16:17:
[...]
De 7600 is soms ook trager dan de 6650XT. Als de 6650XT dan ook nog 15% goedkoper is dan is dit niet anders dan de 4060Ti. Gezien de prijzen vind ik dit geen slechte vergelijking.
Het enige wat ze goed hebben gedaan is de naam....
Wat zal de 7600xt dan een enorme sprong worden! Ik herinner me namelijk nog een uitspraak van vorig jaar van een "betrouwbare leaker" en de 7600xt kreeg 6900xt prestaties me zelfs nog betere RT....
Niet dat ik daar nu nog in geloofde maar tis van de zotte wat de "leakers" uitkramen. En dat ze overal als nieuws worden verkondigd.
Niet dat ik daar nu nog in geloofde maar tis van de zotte wat de "leakers" uitkramen. En dat ze overal als nieuws worden verkondigd.
Tja dit was toch niks nieuws?
Mij was al sinds de lancering van de RX7900 series wel duidelijk dat we ongeveer dit gingen krijgen. Iets sneller, iets efficiënter. Dat ze bij AMD nu werkelijk niks normaals kunnen doen qua launch is hun probleem. Want N33 is iets goedkoper te maken dan N23 omdat de chip iets kleiner is. Wat ze nu lijken te doen is de RX7600 net te duur te maken, N23 verder verkopen en dan gaat de RX7600 gewoon zakken in prijs. En dan krijg je waarschijnlijk ook de 28CU chip. Ze hadden ook gewoon kunnen wachten, meer stunten met N23 prijzen of de RX7600 kunnen lanceren voor een lagere prijs en zeer beperkt beschikbaar kunnen maken totdat N23 voorraden weg zijn. Maar ze kozen uiteraard voor zelf sabotage door te duur te lanceren, de review eerste indruk weg te gooien en later met de perceptie zitten.
Natuurlijk is het nauwelijks vooruitgang, maar dat zat er nooit in met N33, zodra duidelijk was dat VOPD niet naar behoren werkt. Dat kan overigens nog steeds gaan gebeuren, maar nu is het er niet. Verder heeft N33 als het goed is wel de RDNA3 matrix units. Dat is denk ik relevanter omdat ik vermoed dat niet alleen FSR3 hier gebruik van moet maken, maar ik ergens ook niet verbaast zo zijn als ze een "ultra quality" FSR2 setting gaan lanceren die alleen werkt met die units. Op zich is het FSR2 algoritme ook zo slecht niet. Het probleem lijkt meer te zitten in beperkte rekenkracht waardoor met name upscaling van lagere resoluties niet erg lekker werkt. En als AMD nu eens een keertje slim is, dan noemen ze dat FSR2 AI. Dus quality AI, balanced AI etc etc. Dus ik weet nu al dat ze er een puinzooi van gaan maken waarna niemand het meer begrijpt.
Maar op naar N32. Want een hele snelle check vertelt met al dat N33 wel ongeveer 3GHz kan doen als je de TDP limiet naar 185W verhoogt.
https://www.computerbase...._die_taktraten_unter_last
Mij was al sinds de lancering van de RX7900 series wel duidelijk dat we ongeveer dit gingen krijgen. Iets sneller, iets efficiënter. Dat ze bij AMD nu werkelijk niks normaals kunnen doen qua launch is hun probleem. Want N33 is iets goedkoper te maken dan N23 omdat de chip iets kleiner is. Wat ze nu lijken te doen is de RX7600 net te duur te maken, N23 verder verkopen en dan gaat de RX7600 gewoon zakken in prijs. En dan krijg je waarschijnlijk ook de 28CU chip. Ze hadden ook gewoon kunnen wachten, meer stunten met N23 prijzen of de RX7600 kunnen lanceren voor een lagere prijs en zeer beperkt beschikbaar kunnen maken totdat N23 voorraden weg zijn. Maar ze kozen uiteraard voor zelf sabotage door te duur te lanceren, de review eerste indruk weg te gooien en later met de perceptie zitten.

Natuurlijk is het nauwelijks vooruitgang, maar dat zat er nooit in met N33, zodra duidelijk was dat VOPD niet naar behoren werkt. Dat kan overigens nog steeds gaan gebeuren, maar nu is het er niet. Verder heeft N33 als het goed is wel de RDNA3 matrix units. Dat is denk ik relevanter omdat ik vermoed dat niet alleen FSR3 hier gebruik van moet maken, maar ik ergens ook niet verbaast zo zijn als ze een "ultra quality" FSR2 setting gaan lanceren die alleen werkt met die units. Op zich is het FSR2 algoritme ook zo slecht niet. Het probleem lijkt meer te zitten in beperkte rekenkracht waardoor met name upscaling van lagere resoluties niet erg lekker werkt. En als AMD nu eens een keertje slim is, dan noemen ze dat FSR2 AI. Dus quality AI, balanced AI etc etc. Dus ik weet nu al dat ze er een puinzooi van gaan maken waarna niemand het meer begrijpt.
Maar op naar N32. Want een hele snelle check vertelt met al dat N33 wel ongeveer 3GHz kan doen als je de TDP limiet naar 185W verhoogt.
https://www.computerbase...._die_taktraten_unter_last
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Niet alleen leakers trouwens, dat werd hier in het topic ook geclaimd op basis van berekeningen. N33 zou inderdaad wel even 6900XT prestaties gaan brengen.meljor schreef op woensdag 24 mei 2023 @ 17:38:
Wat zal de 7600xt dan een enorme sprong worden! Ik herinner me namelijk nog een uitspraak van vorig jaar van een "betrouwbare leaker" en de 7600xt kreeg 6900xt prestaties me zelfs nog betere RT....
Niet dat ik daar nu nog in geloofde maar tis van de zotte wat de "leakers" uitkramen. En dat ze overal als nieuws worden verkondigd.
Maar dat lag toch ook wel in de lijn der verwachtingen, immers wisten we van N31 al dat het kan qua frequentie, als je het vermogen maar opschroeft. Dat zie je hier nu weer, en stippen ze ook netjes aan.DaniëlWW2 schreef op woensdag 24 mei 2023 @ 18:12:
Maar op naar N32. Want een hele snelle check vertelt met al dat N33 wel ongeveer 3GHz kan doen als je de TDP limiet naar 185W verhoogt.![]()
https://www.computerbase...._die_taktraten_unter_last
Het zou mij dan ook niets verbazen als N32 ook wel hoge frequenties kan halen, mits je bereidt bent het verbruik op te schroeven.
Het probleem is de prijs. Van rx6600 naar rx7600 is gewoon een forse sprong. In prestaties. Maar omdat je prijstechnisch een rx6650xt kan krijgen voor minder is het niks.Snowdog schreef op woensdag 24 mei 2023 @ 15:39:
[...]
Probleem is dat deze kaarten 0 meer bieden dan kaarten van een aantal jaar geleden die dezelfde performance bieden tegen dezelfde prijzen, hoe is dat meh ok? Dat lijkt me wel een paar stapjes lager dan meh ok....
Het voordeel is nog veel groter dan je denkt, sommige mensen doen nog met een veel oudere kaart en slaan toch maar weer een generatie over.meljor schreef op woensdag 24 mei 2023 @ 15:41:
Voordeel is wel dat je gewoon 2 jaar langer mee kan met de vorige generatie.
In letterlijke zin is het voordeel omdat je minder geld uitgeeft aan upgrades, maar ik lach erbij als een boer met kiespijn. Ik ben niet zo iemand die bij elke nieuwe generatie naar de winkel rent voor iets nieuws, maar ik wil er wel fatsoenlijk op vooruit kunnen gaan voor mijn hardware daadwerkelijk stuk gaat en ik noodgedwongen moet upgraden. Ik heb het nog nooit eerder gezien dat ik zó lang bij elke nieuwe release moest zeggen "nee, ook dit is het niet". Het is niet dat ik het geld niet heb, maar ik wil wel een goed gevoel hebben als ik het uitgeef, niet een "nou ja, het moet dan maar". Maar als het niet anders is, dan nog liever een aankoop omdat het vorige stuk is dan vrijwillig kopen wat AMD en Nvidia nu proberen te slijten als upgrade, want dat is bar en boos.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
20 serie, nee te kleine upgrade.MneoreJ schreef op woensdag 24 mei 2023 @ 19:40:
[...]
Het voordeel is nog veel groter dan je denkt, sommige mensen doen nog met een veel oudere kaart en slaan toch maar weer een generatie over.
In letterlijke zin is het voordeel omdat je minder geld uitgeeft aan upgrades, maar ik lach erbij als een boer met kiespijn. Ik ben niet zo iemand die bij elke nieuwe generatie naar de winkel rent voor iets nieuws, maar ik wil er wel fatsoenlijk op vooruit kunnen gaan voor mijn hardware daadwerkelijk stuk gaat en ik noodgedwongen moet upgraden. Ik heb het nog nooit eerder gezien dat ik zó lang bij elke nieuwe release moest zeggen "nee, ook dit is het niet". Het is niet dat ik het geld niet heb, maar ik wil wel een goed gevoel hebben als ik het uitgeef, niet een "nou ja, het moet dan maar". Maar als het niet anders is, dan nog liever een aankoop omdat het vorige stuk is dan vrijwillig kopen wat AMD en Nvidia nu proberen te slijten als upgrade, want dat is bar en boos.
30 serie, ja dag ga niet zoveel betalen door Scalpers en Crypto
40 serie, nee dat is toch ook weer een tegenvaller qua prijs
En zo gamen we lekker door op een 1070 op 1440p.
Een positief puntje is de naamgeving. De 6650 XT werd geintroduceerd op zo'n 550 euro (ha ha) en is ondertussen gezakt naar 250 euro. Maar als ze hem verder zouden laten zakken, zou hij de 6600 XT en 6600 onverkoopbaar maken. Dus kan hij moeilijk nog veel verder dalen.
Bij de 7600 heb je dat niet, dus kan hij in principe verder zakken, tot rond de 200 euro.
Bij de 7600 heb je dat niet, dus kan hij in principe verder zakken, tot rond de 200 euro.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nadat de 6000 is opgeruimd verwacht ik ook echt dat hij snel naar de 200 gaat. En wat iemand hierboven al zei, door de prijs van de 6650xt lijkt het extra slecht nu maar die opvolger moet nog komen.Ludewig schreef op woensdag 24 mei 2023 @ 20:26:
Een positief puntje is de naamgeving. De 6650 XT werd geintroduceerd op zo'n 550 euro (ha ha) en is ondertussen gezakt naar 250 euro. Maar als ze hem verder zouden laten zakken, zou hij de 6600 XT en 6600 onverkoopbaar maken. Dus kan hij moeilijk nog veel verder dalen.
Bij de 7600 heb je dat niet, dus kan hij in principe verder zakken, tot rond de 200 euro.
De upgrades zijn matig, en door de overlap is het alleen maar slechter. Ben zelf nog verder gaan upgraden maar heb de 6700xt gehad en is echt een prima kaart en wat mij betreft nu al heel lang de beste keus qua prijs/prestatie. Maar ook de rx 6600 heb ik daarvoor even gehad, was voor 1080p prima en koop je nu voor een beetje meer nieuw t.o.v een oude 2ehands gtx1080 die even snel is.
Door de vorige generatie zijn er best prima kaarten voor redelijke prijzen (in deze tijd) maar van de nieuwe serie verwacht je gewoon wat meer.
Ik ben tevreden met de xtx en heb in het begin de hoofdprijs betaald, maar prijs/prestatie is deze generatie niet zo best, zeker niet met de release prijzen (xtx is nu al 250 goedkoper dus wordt al beter).
En dan zie je dat een RX7900XTX met iets meer dan 400W, die 3GHz wel haalt. De RX7600 met 185W ook wel. Nou N32 is 62,5% van N31. Ja ik zie het wel gebeuren met 250W+. En dan wordt het misschien nog leuk deze generatie met ten minste een product dat niet hopeloos is. De RTX4070Ti haalt die denk ik niet omdat AMD een licht voordeel in clock speed nodig heeft op basis van gelijk aantal SIMD32, maar veel gaat het niet schelen denk ik zo met 3GHz.Dennism schreef op woensdag 24 mei 2023 @ 19:09:
[...]
Maar dat lag toch ook wel in de lijn der verwachtingen, immers wisten we van N31 al dat het kan qua frequentie, als je het vermogen maar opschroeft. Dat zie je hier nu weer, en stippen ze ook netjes aan.
Het zou mij dan ook niets verbazen als N32 ook wel hoge frequenties kan halen, mits je bereidt bent het verbruik op te schroeven.
Ik zie gewoon dat N32 potentieel een van de weinige niet totaal miserabele producten van deze hele generatie kan worden. Noem het gerust wensdenken, maar inmiddels moet je wat. De 200mm + 4x 38mm N32 kost ook echt niet zoveel als N21 om te maken, maar kan zeker wel zo presteren, met 16GB aan VRAM. En dan niet 18gpbs, nee 20 graag. De hele geheugenmarkt ligt op zijn gat. Je gaat mij niet wijsmaken dat het kostenverschil onoverbrugbaar is.
Ik hoop dus echt dat ze nu eens een keertje bij AMD geen onzin gaan doen (misschien wel tegen beter weten in) door er een "RX7800" van te maken. Het RDNA3 patroon is mij inmiddels wel duidelijk. Ze gingen denk ik echt wel voor 50% perf/tier, maar omdat VOPD niet lijkt te werken zoals verwacht, halen ze eerder nog 30-35% eruit. Ook gaven ze die RX7900XT die domme naam en prijs. Dat was en is gewoon de RX7800XT. En die 70CU configuratie, tja als die komt dan noem je die de RX7800. Want die zie ik ook zomaar rond de 30% sneller zijn dan de RX6800.
De overige 15-20% had uit VOPD moeten en komt mist nu. Ik vermoed ergens ook dat de "zelf sabotage" afdeling in de veronderstelling verkeerde dat het snel gefixed zou worden, en toen die slides uitbracht waar doodleuk 15-20% extra performance was toegevoegd. Want dit was gewoon dom, zelfs voor AMD marketing standaarden. Het zou voornamelijk erg leuk zijn als het wel werkt in de aankomende UE5 games met hun extreem complexe geometrie. Dat is namelijk waar het echte winst zou kunnen opleveren. Zeker voor mij omdat ik toch veel meer geef om raster dan andere zaken. Maar daar heb je alsnog weinig aan voor N33 want dan met dergelijke geometrie en textures, ga je ook door je 8GB aan VRAM heen...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De geheugenmakers zijn vermoedelijk de enigen die nog meer gefrustreerd zijn dan gamers. Ze hebben flinke overschotten aan geheugen, de gamers schreeuwen erom en willen er best een enigszins redelijke meerprijs voor betalen (en dat is geen $100 voor 8 GB), maar vervolgens brengt Nvidia kaarten uit met veel te weinig geheugen of met een te hoge prijs zodat de kaarten alsnog niet verkopen.
Dus blijven ze volstrekt onnodig zitten met al dat geheugen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Misschien krijgen we straks net als "vroegah" wel weer geheugenslots op de kaarten.
Would be nice....
Would be nice....
Dat is volledig onaantrekkelijk voor de fabrikanten. Een duurder en ingewikkelder ontwerp zodat een handjevol hobby Bobs zelf kunnen gaan klussen met geheugen waarbij de fabrikanten dan geen cent te zien krijgen voor de upgrade maar wel voor support moeten zorgen... yeah no.meljor schreef op woensdag 24 mei 2023 @ 22:34:
Misschien krijgen we straks net als "vroegah" wel weer geheugenslots op de kaarten.
Would be nice....
Geheugen is een bruikbare tool voor segmentatie, dat geven ze niet meer op. Enige wat wij kunnen doen is het welbekende met de portemonnee stemmen.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
GamersNexus ook gezien.
Tja wederom hopeloos bij AMD. Niemand die de prijs weet tot het laatste moment. Weer eens geen strategie te bekennen en zelfs de juiste driver aan alle reviewers leveren, kunnen ze blijkbaar niet eens. Ik weet niet wat er mis is bij de Radeon afdeling, maar dat er iets mis is, lijkt me wel duidelijk. Ze zijn zichzelf telkens aan het saboteren en lijken totaal geen idee te hebben wat ze nu zelf hebben, wat ze willen of in staat te zijn de markt te begrijpen of voorspellen. En dan is er nog de amateurshow bij marketing die het alleen maar erger maakt.
Tja wederom hopeloos bij AMD. Niemand die de prijs weet tot het laatste moment. Weer eens geen strategie te bekennen en zelfs de juiste driver aan alle reviewers leveren, kunnen ze blijkbaar niet eens. Ik weet niet wat er mis is bij de Radeon afdeling, maar dat er iets mis is, lijkt me wel duidelijk. Ze zijn zichzelf telkens aan het saboteren en lijken totaal geen idee te hebben wat ze nu zelf hebben, wat ze willen of in staat te zijn de markt te begrijpen of voorspellen. En dan is er nog de amateurshow bij marketing die het alleen maar erger maakt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Gelukkig hebben ze de hardware nog! Nu we eindelijk kunnen zien wat RDNA3 en RDNA2 kunnen doen op speelveld met dezelfde specs zien we de voordelen van RDNA3... oh wait. Eh, nou, zoals de AMD marketing al aangeeft, 8 GB is inmiddels echt niet genoeg meer en Nvidia is niet goed bezig, dus daarom zit er op het nieuwe product van AMD... oh wait. Eh, fine wine! De drivers gaan het beter maken als ze wat verder doorontwikkeld zijn! Immers is RDNA3 nog maar net op de markt en... oh wait. Maar dan is er gelukkig nog altijd de prijsknop waar we aan kunnen draaien, op het aller- allerlaatste moment, zodat ons nieuwe product in ieder geval nog een betere prijs/prestatieverhouding levert dan de vorige generatie... oh wait.DaniëlWW2 schreef op woensdag 24 mei 2023 @ 23:36:
GamersNexus ook gezien.
Tja wederom hopeloos bij AMD. Niemand die de prijs weet tot het laatste moment. Weer eens geen strategie te bekennen en zelfs de juiste driver aan alle reviewers leveren, kunnen ze blijkbaar niet eens. Ik weet niet wat er mis is bij de Radeon afdeling, maar dat er iets mis is, lijkt me wel duidelijk. Ze zijn zichzelf telkens aan het saboteren en lijken totaal geen idee te hebben wat ze nu zelf hebben, wat ze willen of in staat te zijn de markt te begrijpen of voorspellen. En dan is er nog de amateurshow bij marketing die het alleen maar erger maakt.
Het ergste is dat je er als consument toch telkens weer voor moet blijven duimen. Want hoe erg AMD het ook maakt, zonder AMD kon Nvidia zich nog meer veroorloven dan ze al doen... hoe onwaarschijnlijk dat inmiddels ook lijkt. Battlemage komt in de tweede helft van 2024... een eeuwigheid en ik durf er al bijna niet meer in te geloven, maar wat is het alternatief? Veel, veel succes toegewenst, Intel.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Dit lijkt me deels ook weer een symptoom van het passieve volgersgedrag dat ze steeds tentoonspreiden. Ze lijken de prijs steeds te kiezen op basis van wat Nvidia doet, wat nu natuurlijk helemaal niet werkt nu Nvidia de prijzen steeds te hoog maakt. Maar zelfs als ze dat niet doen overschat AMD de aantrekkelijkheid van hun eigen product.
En vrijwel de enige features die ze kunnen verzinnen om hun kaarten beter te maken zijn kopieën van wat Nvidia doet.
Het is ook van een grenzeloze domheid, want iedereen kan toch verzinnen dat het niet werkt wanneer je nieuwe product geen duidelijke meerwaarde biedt boven het aanbod van de vorige generatie. Als ze nu een zeer tijdelijke mega-sale zouden doen om in korte tijd de oude kaarten kwijt te raken en vervolgens de nieuwe kaarten zouden introduceren nadat de schappen al leeg zijn, zouden mensen de prijs/prestatie vergelijken met de prijs/prestatie van de vorige generatie voor de mega-sale.
Juist door deze stapsgewijze verlagingen is er bij kopers nooit een wow-moment waar ze even onder de indruk zijn van de goede prijs/prestatie.
En vrijwel de enige features die ze kunnen verzinnen om hun kaarten beter te maken zijn kopieën van wat Nvidia doet.
Het is ook van een grenzeloze domheid, want iedereen kan toch verzinnen dat het niet werkt wanneer je nieuwe product geen duidelijke meerwaarde biedt boven het aanbod van de vorige generatie. Als ze nu een zeer tijdelijke mega-sale zouden doen om in korte tijd de oude kaarten kwijt te raken en vervolgens de nieuwe kaarten zouden introduceren nadat de schappen al leeg zijn, zouden mensen de prijs/prestatie vergelijken met de prijs/prestatie van de vorige generatie voor de mega-sale.
Juist door deze stapsgewijze verlagingen is er bij kopers nooit een wow-moment waar ze even onder de indruk zijn van de goede prijs/prestatie.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Er is gewoon iets niet okay met deze generatie van AMD.
De prestaties per watt zijn blijven hangen, wat wijst op een hardware limiet. Nvidia zit hoger met de prijs, maar die chip is zo efficiënt dat er duidelijk heel veel potentie is. De beste chip kan zelfs zoveel aan dan ze er zoveel doorheen kunnen pompen dat de connector smelt.
De 6000 generatie was juist relatief efficiënt, maar Nvidia heeft dat in éen klap omgedraaid. Deze verloren generatie betekent nog meer inhaalwerk voor AMD.
De prestaties per watt zijn blijven hangen, wat wijst op een hardware limiet. Nvidia zit hoger met de prijs, maar die chip is zo efficiënt dat er duidelijk heel veel potentie is. De beste chip kan zelfs zoveel aan dan ze er zoveel doorheen kunnen pompen dat de connector smelt.
De 6000 generatie was juist relatief efficiënt, maar Nvidia heeft dat in éen klap omgedraaid. Deze verloren generatie betekent nog meer inhaalwerk voor AMD.
De goede relatieve efficiëntie bij RDNA2 vergeleken met RDNA3 komt vermoedelijk doordat AMD een veel beter productieproces gebruikte voor RDNA2 dan Nvidia voor Ampere. Nu is dat voordeel weg of zelfs deel omgedraaid (zeker bij Navi33/7600 die op N6 zit).
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik ben nog steeds van mening dat AMD een domme stap heeft gemaakt met die "verdubbeling" van de shaders net zoals Nvidia heeft gedaan. Ze hebben er nauwelijks wintst uit gehaald zover ik kan zien.
Wellicht dat iemand met meer kennis van de architectuur mij nog kan vertellen waarom die verdubbeling wel goed is, want ik zie het niet.
Ik had graag een verdubbelde RDNA2 gezien met betere RT en eventueel betere ML (stable diffusion performance). Dat had volgens mij prima zonder dubbele shaders gekunt.
Wellicht dat iemand met meer kennis van de architectuur mij nog kan vertellen waarom die verdubbeling wel goed is, want ik zie het niet.
Ik had graag een verdubbelde RDNA2 gezien met betere RT en eventueel betere ML (stable diffusion performance). Dat had volgens mij prima zonder dubbele shaders gekunt.
https://chipsandcheese.co...-3-graphics-architecture/
Dit artikel heeft specifieke tests waarin die "verdubbeling" wel degelijk opduikt. Misschien dat er met drivers of toekomstige engines betere resultaten komen.
Dit artikel heeft specifieke tests waarin die "verdubbeling" wel degelijk opduikt. Misschien dat er met drivers of toekomstige engines betere resultaten komen.
Volgens het artikel moet de compiler dan herkennen wanneer twee berekeningen gelijktijdig uitgevoerd kunnen worden en dan de instructie aanmaken om dat te doen, maar dit gebeurt nu niet en in plaats daarvan stuurt de compiler twee instructies om de berekeningen na elkaar te doen.Arrigi schreef op donderdag 25 mei 2023 @ 14:06:
Dit artikel heeft specifieke tests waarin die "verdubbeling" wel degelijk opduikt. Misschien dat er met drivers of toekomstige engines betere resultaten komen.
En door het handmatig maken van een shader kan het nog veel sneller, maar dan moeten ze er veel moeite in stoppen om 1 spel te optimaliseren.
Maar we zijn ondertussen al 5 maanden na de release en nog steeds heb ik geen significante verbeteringen gezien in de driver. Het is leuk als iets in de 'toekomst' kan, maar op een gegeven moment moet die toekomst dan wel het heden worden.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik ben geen developer en ben niet zeker waar/wanneer het compilen precies gebeurt en wie de verbeteringen doorgeeft, of dat moet upstreamen en weer in de engine neerkomen ofzo... Of dat de driver het doet.
Wat je wel ziet is dat die persoon een half jaar terug al de optimalisaties kon verkrijgen, ook al was er nog verbetering mogelijk.
Als dit in een game pas beschikbaar komt als bvb AMD patches beschikbaar maakt die dan weer pas in bvb UE 5.2 zitten, waarna de game studio die ook nog eens moet integreren... dan kan het wel even duren.
Wat je wel ziet is dat die persoon een half jaar terug al de optimalisaties kon verkrijgen, ook al was er nog verbetering mogelijk.
Als dit in een game pas beschikbaar komt als bvb AMD patches beschikbaar maakt die dan weer pas in bvb UE 5.2 zitten, waarna de game studio die ook nog eens moet integreren... dan kan het wel even duren.
Ik denk niet dat ze dat hadden kunnen doen zonder de chip royaal te laten groeien en weer het risico te nemen met veel defects en/of een giga verbruik op de koop te nemen. Het blijft een spel van kosten en baten om chips te produceren. Een nieuwe kleinere node brengt risico's met zich mee en je ziet wel vaker dat de eerste chip op een nieuw proces kleiner is en dan kun je niet eindeloos blijven toevoegen.Sp3ci3s8472 schreef op donderdag 25 mei 2023 @ 11:48:
Ik ben nog steeds van mening dat AMD een domme stap heeft gemaakt met die "verdubbeling" van de shaders net zoals Nvidia heeft gedaan. Ze hebben er nauwelijks wintst uit gehaald zover ik kan zien.
Wellicht dat iemand met meer kennis van de architectuur mij nog kan vertellen waarom die verdubbeling wel goed is, want ik zie het niet.
Ik had graag een verdubbelde RDNA2 gezien met betere RT en eventueel betere ML (stable diffusion performance). Dat had volgens mij prima zonder dubbele shaders gekunt.
Waarom niet? Ze zijn juist op chiplets overgegaan om precies dat probleem op te lossen.sjekneck schreef op donderdag 25 mei 2023 @ 15:13:
[...]
Ik denk niet dat ze dat hadden kunnen doen zonder de chip royaal te laten groeien en weer het risico te nemen met veel defects en/of een giga verbruik op de koop te nemen. Het blijft een spel van kosten en baten om chips te produceren. Een nieuwe kleinere node brengt risico's met zich mee en je ziet wel vaker dat de eerste chip op een nieuw proces kleiner is en dan kun je niet eindeloos blijven toevoegen.
Het verbruik was misschien wel een ding geweest inderdaad.
Nou het verbruik is nu al niet mals als je kijkt naar de 7900xt(x). Voor een relatief kleine chip is het verbruik best hoog. En het lijkt dus niet te werken om alles te knippen in chiplets, want AMD kan (nog) niet de hele gpu in blokjes hakken. Dit is toch een zoals eerder vermeld een mogelijk latency issue waar je niet zomaar omheen kan. Als ze echt zouden verdubbelen zelf met chiplet design, dan gaat het verbruik waarschijnlijk flink omhoog.Sp3ci3s8472 schreef op donderdag 25 mei 2023 @ 15:25:
[...]
Waarom niet? Ze zijn juist op chiplets overgegaan om precies dat probleem op te lossen.
Het verbruik was misschien wel een ding geweest inderdaad.
En de echte reasoning van chiplets is natuurlijk niet om verbruik lager te krijgen, maar juist om kosten te drukken. Let wel, kosten voor AMD zelf en niet voor de klant want ik zie namelijk geen besparing voor de klant as of yet
De driver doet dat. In Unreal kun je bijvoorbeeld een object toevoegen aan een ruimte, zoals een dolfijn. Vervolgens zie je dan een dolfijn op je scherm waar je dan een texture op kunt plakken, en je kunt de dolfijn laten bewegen.Arrigi schreef op donderdag 25 mei 2023 @ 15:05:
Ik ben geen developer en ben niet zeker waar/wanneer het compilen precies gebeurt en wie de verbeteringen doorgeeft, of dat moet upstreamen en weer in de engine neerkomen ofzo... Of dat de driver het doet.
Wat er dan achter de schermen gebeurt is dat de dolfijn-plugin voor Unreal in werkelijkheid een set van driehoekjes naar de driver stuurt, die samen lijken op een dolfijn, zoals dit:
:fill(white):strip_exif()/f/image/a7iRs98G08USf1ULutJYAofw.png?f=user_large)
Al zullen de driehoekjes bij moderne spellen veel kleiner zijn, zodat je nauwelijks meer ziet dat de dolfijn eigenlijk blokkerig is en geen ronde vormen heeft, zoals in werkelijkheid. Om de dolfijn te laten bewegen, zal de game engine aan de driver vertellen dat de driehoekjes zich moeten verplaatsen. Bijvoorbeeld door de driehoekjes die samen de fin van de dolfijn vormen, omhoog te bewegen, zodat de fin omhoog gaat.
De texture wordt apart naar de driver gestuurd, met een instructie om dit op een bepaalde manier op de bak met driehoekjes te plakken.
Dit is echter nog steeds een veel hoger abstractieniveau dan de op zich zeer eenvoudige berekeningen die de GPU heel snel en in grote aantallen kan uitvoeren. Door op een slimme manier die hele simpele berekeningen te doen, kan de GPU berekenen welke kleur elke pixel op je scherm moet krijgen, op basis van een hele grote bak aan driehoekjes die zich allemaal in dezelfde ruimte bevinden.
De compiler moet dan door de GPU laten uitvogelen welk deel van welk driehoekje je ziet als je naar een bepaalde pixel van je scherm kijkt en wat de kleur van die pixel is vanuit jouw gezichtshoek. Dat hangt dus ook weer af van hoe het licht op die driehoek valt, waarbij andere driehoekjes weer voor schaduwen zorgen, heel veel driehoekjes helemaal niet zichtbaar zijn, etc.
Voor 1440p moet er bijvoorbeeld voor elk beeldje voor 3,6 miljoen pixels worden bepaald welke kleur ze moeten krijgen. En bij 60 FPS moet dat elke seconde een keer gebeuren.
Door de compiler in de driver te verbeteren, kunnen de berekeningen efficiënter worden gedaan, waardoor het minder lang kost om voor elke van de 3,6 miljoen pixels te bepalen welke kleur die krijgt. Doordat de berekeningen dan sneller klaar zijn, kan de driver dan sneller weer een nieuw beeldje van 3,6 miljoen pixels gaan berekenen. Dus heb je dan een hogere FPS.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Voor een programmeur is het moeilijk om die dual instructies aan te sturen. Er zit namelijk nog een bytecode (dxil) laag tussen (zoals met java en .net ook gaat). Dus je gaat van shader code naar byte code naar code voor de specifieke gpu, Dit is altijd al zo geweest in programmeren voor gpu en uiteindelijk weten programmeurs wel hoe ze de code moeten structureren om de compiler goed aan te sturen, zie ook deze presentatie: https://www.humus.name/Articles/Persson_LowLevelThinking.pdf dit is nog over directx 10 en 11, die had een andere byte code laag ertussen (toen was het nog erger dan nu want die byte code laag was op een gegeven moment geen goede abstractie van wat de hardware kon). Dit gaat nog even duren voordat game-engines er gebruik van maken. Enige waar je op kan hopen is dat amd met zijn drivers zelf shaders levert die er gebruik van maken, maar dat gaan ze alleen doen voor nieuwe spellen.
Ander 'probleem' is trouwens dat gpu's al een tijdje dual use 16-bit ondersteuning hebben, allemaal dankzij de ai-gekte. Met shader model 6.2 is er ook ondersteuning in de bytecode voor opgenomen. In de commits van de unreal engine heb ik al hier en daar gezien dat Epic er gebruik van probeert te maken door waar het kan 16-bit variabelen te gebruiken. Al deze berekeningen komen natuurlijk niet in aanmerking voor dual issue 32-bit instructies. Dus ik verwacht niet veel van gebruik van dual use 32-bit in de toekomst.
Ander 'probleem' is trouwens dat gpu's al een tijdje dual use 16-bit ondersteuning hebben, allemaal dankzij de ai-gekte. Met shader model 6.2 is er ook ondersteuning in de bytecode voor opgenomen. In de commits van de unreal engine heb ik al hier en daar gezien dat Epic er gebruik van probeert te maken door waar het kan 16-bit variabelen te gebruiken. Al deze berekeningen komen natuurlijk niet in aanmerking voor dual issue 32-bit instructies. Dus ik verwacht niet veel van gebruik van dual use 32-bit in de toekomst.
Ik zeg ook niet dat de chiplets het verbruik gaan verlagen, die geven juist een overhead wat je hopelijk kan maskeren doordat de logica chiplets met een kleiner process kunnen worden gemaakt.sjekneck schreef op donderdag 25 mei 2023 @ 15:51:
[...]
Nou het verbruik is nu al niet mals als je kijkt naar de 7900xt(x). Voor een relatief kleine chip is het verbruik best hoog. En het lijkt dus niet te werken om alles te knippen in chiplets, want AMD kan (nog) niet de hele gpu in blokjes hakken. Dit is toch een zoals eerder vermeld een mogelijk latency issue waar je niet zomaar omheen kan. Als ze echt zouden verdubbelen zelf met chiplet design, dan gaat het verbruik waarschijnlijk flink omhoog.
En de echte reasoning van chiplets is natuurlijk niet om verbruik lager te krijgen, maar juist om kosten te drukken. Let wel, kosten voor AMD zelf en niet voor de klant want ik zie namelijk geen besparing voor de klant as of yet
Het verbruik wat je nu hebt is misschien ook te danken door die dubbele shaders die nutteloos staan te zijn en misschien wel op een bepaalde snelheid lopen?
Ja het zal inderdaad kosten drukken, maar dat is niet het enige tenminste denk ik. Doordat je minder defects hebt kan je meer kaarten maken en met wat geluk goedkoper in de markt zetten. Gezien AMD, AMD is en ze zichzelf graag in de voeten schieten en te hoog proberen een gpu te posititioneren.....
Waarom zou dat zo zijn? De shaders worden in moderne spellen opnieuw gecompileerd door de driver, wat ook de reden is dat je bij elke driver update een recompile van de shaders krijgt.PjotrX schreef op donderdag 25 mei 2023 @ 15:56:
Enige waar je op kan hopen is dat amd met zijn drivers zelf shaders levert die er gebruik van maken, maar dat gaan ze alleen doen voor nieuwe spellen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
De defect rate is al heel laag en bovendien gaan ze chiplets met fouten erin ook zoveel mogelijk gebruiken met een deel uitgeschakeld. Ze zullen wel een wat hoger aantal chips kunnen maken zonder fouten, dus de gemiddelde verkoopprijs kan daardoor omhoog (minder chips zullen als een minder goed product hoeven te worden verkocht). Al is de vraag of ze alsnog geen goede chips voor minder gaat verkopen om commerciële redenen.Sp3ci3s8472 schreef op donderdag 25 mei 2023 @ 15:56:
[...]
Doordat je minder defects hebt kan je meer kaarten maken en met wat geluk goedkoper in de markt zetten. Gezien AMD, AMD is en ze zichzelf graag in de voeten schieten en te hoog proberen een gpu te posititioneren.....
Maar met High-NA EUV is het straks niet meer mogelijk om chips te maken tot 858 mm², maar slechts tot 429 mm². Dus in de toekomst is het helemaal niet meer mogelijk om een monolitische chip te maken met het formaat van AD102 of Navi 21.
Maar ik denk dat de belangrijkste reden is dat ze straks gigantische CPUs en GPUs kunnen maken voor bedrijven, met grote aantallen chiplets. Als je kijkt naar de supercomputers die ze nu maken en eigenlijk bestaan uit allerlei losse computers die aan elkaar gekoppeld zijn, dan zijn de verbindingen tussen die losse computers vrij traag, heel erg duur en neemt het ook heel veel ruimte in.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Wat ik bedoel te zeggen is dat de driver zelf een met de hand geoptimaliseerde versie heeft van een shader voor een bepaald gpu, dus niet meer in byte/dxil code maar met gpu instructies. In plaats van de shader te compileren wordt deze dan gebruikt. Dit wordt trouwens ook genoemd in de artikel van chipsandcheese.Ludewig schreef op donderdag 25 mei 2023 @ 16:16:
[...]
Waarom zou dat zo zijn? De shaders worden in moderne spellen opnieuw gecompileerd door de driver, wat ook de reden is dat je bij elke driver update een recompile van de shaders krijgt.
Dit werd vroeger ook best wel vaak gedaan voor grote titels, vooral omdat de bytecode in directx 10&11 begon af te wijken van wat de hardware deed en de compiler dus minder goed dingen kon optimaliseren. Sommige mensen vonden dat cheaten.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Met hoe het werkt ben ik ook niet bepaald een fan.Sp3ci3s8472 schreef op donderdag 25 mei 2023 @ 11:48:
Ik ben nog steeds van mening dat AMD een domme stap heeft gemaakt met die "verdubbeling" van de shaders net zoals Nvidia heeft gedaan. Ze hebben er nauwelijks wintst uit gehaald zover ik kan zien.
Wellicht dat iemand met meer kennis van de architectuur mij nog kan vertellen waarom die verdubbeling wel goed is, want ik zie het niet.
Ik had graag een verdubbelde RDNA2 gezien met betere RT en eventueel betere ML (stable diffusion performance). Dat had volgens mij prima zonder dubbele shaders gekunt.
Maar er zat een logica achter. Die tweede SIMD32 clusters hebben geen aparte Vector Register File, dispatch unit etc etc. Verder zijn ze ook behoorlijk uitgekleed in wat die ALU's nu echt kunnen qua instructies. Het zijn eigenlijk voornamelijk versimpelde FP32 ALU's die alleen de basis doen. FMA, multiply, subtract, add, Maar laat dat nu nog steeds met enorme afstand het meest belangrijke zijn. Het resultaat is dat die extra SIMD32 clusters waarschijnlijk heel weinig ruimte innemen.
Het probleem lijkt alleen te zijn dat ze vrijwel nooit worden gebruikt. Het idee is dat een shaderprogramma decompiled word door de hardware scheduler en word opgebroken in verschillende thread blocks die bestaan uit Wave32 of Wave64, dus rekenopdrachten geclusterd in maximaal 32 of 64 threads breed. Een Wave32 zou dan vervolgens VOPD kunnen gebruiken.
Uit de RDNA3 ISA guide:
Het punt hiervan is dat bij recompiling van shaders naar Wave32, de vertaalslag gemaakt moet worden naar "V_Dual_" instructies. En dat lijkt gewoon niet te gebeuren.7.6. Dual Issue VALU
The VOPD instruction encoding allows a single shader instruction to encode two separate VALU operations
that are executed in parallel. The two operations must be independent of each other. This instruction has
certain restrictions that must be met - hardware does not function correctly if they are not. This instruction
format is legal only for wave32. It must not be used by wave64’s. It is skipped for wave64.
The instruction defines 2 operations, named "X" and "Y", each with their own sources and destination VGPRs.
The two instructions packed into this one ISA are referred to as OpcodeX and OpcodeY.
• OpcodeX sources data from SRC0X (a VGPR, SGPR or constant), and SRC1X (a VGPR);
• OpcodeY sources data from SRC0Y (a VGPR, SGPR or constant), and SRC1Y (a VGPR).
The two instructions in the VOPD are executed at the same time, so there are no races between them if one
reads a VGPR and the other writes the same VGPR. The 'read' gets the old value.
Restrictions:
• Each of the two instructions may use up to 2 VGPRs
• Each instruction in the pair may use at most 1 SGPR or they may share a single literal
◦ Legal combinations for the dual-op: at most 2 SGPRs, or 1 SGPR + 1 literal, or share a literal.
• SRC0 can be either a VGPR or SGPR (or constant)
• VSRC1 can only be a VGPR
• Instructions must not exceed the VGPR source-cache port limits
◦ There are 4 VGPR banks (indexed by SRC[1:0]), and each bank has a cache
◦ Each cache has 3 read ports: one dedicated to SRC0, one dedicated to SRC1 and one for SRC2
▪ A cache can read all 3 of them at once, but it can’t read two SRC0’s at once (or SRC1/2).
◦ SRCX0 and SRCY0 must use different VGPR banks;
◦ VSRCX1 and VSRCY1 must use different banks.
▪ FMAMK is an exception : V = S0 + K * S1 ("S1" uses the SRC2 read port)
◦ If both operations use the SRC2 input, then one SRC2 input must be even and the other SRC2 input
must be odd. The following operations use SRC2: FMAMK_F32 (second input operand);
DOT2ACC_F32_F16, DOT2ACC_F32_BF16, FMAC_F32 (destination operand).
◦ These are hard rules - the instruction does not function if these rules are broken
• The pair of instructions combined have the following restrictions:
◦ At most one literal constant, or they may share the same literal
◦ Dest VGPRs: one must be even and the other odd
◦ The instructions must be independent of each other
• Must not use DPP
• Must be wave32.
Tweede methode is een Wave64 die single issue is. Dus in plaats van dat een Wave64 in twee delen word opgesplitst waarbij de ene helft eerst word afgewerkt voor de andere, zoals met RDNA1/2 het geval is, kan RDNA3 een Wave64 in single issue afwerken. Dan kan je beide SIMD32 clusters gebruiken, maar dit lijk ook iets te zijn dat niet bepaald vaak voorkomt.
Het is alleen wel iets waarbij ik me afvraag hoeveel ze kunnen doen om dit te verbeteren. Want de hardware lijkt niet stuk te zijn. En ik vraag me ook af in hoeverre ze het proces binnen de GPU kunnen verbeteren door de shader compilatie zelf gunstiger te maken in de grote gaming engines, met name UE5.
Uiteindelijk was het misschien beter geweest als N31 dan 128CUs/64WGP had gehad en geen dual issue. 33% meer reguliere SIMD's alsmede RT units hadden het verschil misschien wel gemaakt tot het punt dat N31 dan wel de RTX4090 matchte. En voor N33, tja naar 48CU's en een 192 bit bus gaan, had ook enorm veel gescheeld.
Maar dit was ook niet gratis geweest. N31 en N33 waren hiermee ook grotere chips geweest. Die hadden daarmee ook gewoon meer energie verbruikt en/of had lager geclocked dan nu al het geval is. En als je lager clockt, dan heeft dat ook impact op cache bandbreedte. En daar speelt ook wat vreemds omdat N31 en N33 beiden zo rond de 2600MHz zitten, maar ook richting die 3GHz kunnen met meer vermogen. Dat is alleen wel met graphics shaders. Met compute shaders lijkt N31 veel makkelijker naar 3GHz te gaan.
Laatste is dat als N31 nu vrij standaard rond de 3GHz deed met 350W en de RX7900XT rond de 3GHz met 300W, je het hele dual issue probleem een beetje kan negeren. Want dan zit je RX7900XT veel dichterbij de RTX4080 en de RX7900XTX veel dichterbij de RTX4090.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het voordeel van chiplets is inderdaad een beperkt aantal chiplets ontwerpen en je kan aan de hand van packaging alle mogelijke combinaties, productlijnen,... creëren.Ludewig schreef op donderdag 25 mei 2023 @ 18:23:
@Sp3ci3s8472
Zie de echte reden voor chiplets:
[YouTube: AMD Takes AI-M at Nvidia with MI300X, MI300A and MI300C]
Voor de CPU's heeft AMD slechts een CCD-chiplet, kleine IO-chiplet voor desktops/laptops en grote IO-chiplet nodig voor servers/workstations. Daarmee kunnen ze alle mogelijke CPU's samenstellen van laptops tot servers.
Monolithische chips hebben het nadeel dat je veel verschillende chips moet ontwerpen afhankelijk van hun doel. En er is een limiet op hoe groot de monolithische chip kan worden tov heel veel chiplets aan elkaar plakken.
Door game consoles ervaring weet AMD hoe ze CPU en GPU aan unified geheugen hangen. De volgende stap is CPU, GPU en geheugen in een package. Een volledige AI-computer in een SOC, geen grafische kaart nodig, geen geheugensloten en bij wijze van spreken zelfs geen moederbord. Als je de chip maar van een VRM, LAN-poort, koeler en SD-kaartje voor de OS/software voorziet.
Met waterkoeling kunnen 4 chips in een kleine doos gestoken worden zoals een Antminer.

Hiermee kan een hoger densiteit behaald worden of het KISS principe toepassen zoals hoe de Bitcoin mining farms het doen.
Dit is een dermate grote voorsprong dat Nvidia kan afslachten. Een mogelijke verklaring voor de extreme NVDA-koers pump. De insiders en fondsen willen de aandelen zo hoog mogelijk lozen voordat Nvidia "fucked" is. En het bedrijf kan van de waanzinnige koers gebruik maken om de oorlogskas te vullen met een aandelenemissie van meer dan 100 miljard dollar.
Tijdens de dotcom bubble ging de Price/Sales ratio van Sun Microsystems naar 10x en dat was waanzinnig veel:
Nvidia is vandaag op P/S ratio 38 verhandeld. 3,8x hoger dan de dotcom bubble. We zijn voorbij de speculatieve bubbels, dit is complete waanzin. Amerikaanse traders spreken al over de "kingmaker", de grootste short van je leven of de trade om nooit meer te moeten traden/werken. Nu ik besef wat AMD aan het doen is, ga ik stapels puts op NVDA kopen.‘At 10 times revenues, to give you a 10-year payback, I have to pay you 100% of revenues for 10 straight years in dividends. That assumes I can get that by my shareholders. That assumes I have zero cost of goods sold, which is very hard for a computer company. That assumes zero expenses, which is really hard with 39,000 employees. That assumes I pay no taxes, which is very hard. And that assumes you pay no taxes on your dividends, which is kind of illegal. And that assumes with zero R&D for the next 10 years, I can maintain the current revenue run rate. Now, having done that, would any of you like to buy my stock at $64? Do you realize how ridiculous those basic assumptions are? You don’t need any transparency. You don’t need any footnotes. What were you thinking?’— Scott McNealy, Business Week, 2002
Nvidia heeft CUDA en software als troefkaart. Maar als iedereen chips voor AI wilt kopen, dan is Nvidia uitverkocht en er ontstaan enorme wachtrijen bij AMD. Om exact dezelfde reden waarom de beruchte 737 MAX weer als warme broodjes over de toonbank gaat, de Airbus A320 orderboeken zijn tot 2030 gevuld en Boeing kan sneller leveren. Keuzes worden dan gemaakt op basis van wie kan sneller leveren dan wie kan het beste product leveren.
Dan moet bijna iedereen (die niet hun eigen chips ontwerpt) met de AMD-software leren omgaan en de High-NA EUV reticle limit is de laatste nagel in de doodskist van de big monolithic chip strategie van Nvidia.
AMD heeft een betere prijs/performance-verhouding strategie gebruikt om Intel te slopen. In de komende jaren gaat AMD Nvidia systematisch slopen.
Als AMD niet snel Navi 32 uitbrengt, zal ik toch maar snel een RX 6800 XT halen voordat de gamers voor vele jaren "fucked" zijn.
Of met een airjet:rapture schreef op vrijdag 26 mei 2023 @ 00:01:
[...]
Met waterkoeling kunnen 4 chips in een kleine doos gestoken worden zoals een Antminer.
Ik verwacht sowieso dat dit een revolutie gaat worden op laptop-gebied, waarbij er straks hele dunne laptops gaan komen met veel power.
Ik verwacht eigenlijk niet veel van Navi 32. Gezien de matige prestatiewinst van deze generatie en de relatief hoge productiekosten van Navi 32 verwacht ik niet dat we er snel op vooruit gaan, zeker met de standaard strategie van AMD om bij de introductie geen voordeel te bieden op de kortingsprijzen van de vorige generatie.Als AMD niet snel Navi 32 uitbrengt, zal ik toch maar snel een RX 6800 XT halen voordat de gamers voor vele jaren "fucked" zijn.
En het risico dat de markt nog heel lang slecht blijft was ook een deel van de reden waarom ik nu een 6700 XT heb gekocht. Er bestaat het risico dat deze bedrijven de komende jaren volledig in beslag worden genomen door AI en vooral willen voorkomen dat men goedkope kaarten kan kopen voor AI spul, en dat Intel blijft falen. Nu heb ik iets waar ik nog wel een tijdje mee kan doen, ook al blijft de GPU-markt heel slecht, wat niet onwaarschijnlijk is.
Aan de andere kant lijkt het risico van een echte miskoop vrij klein, want zelfs bij een heel optimistische inschatting waarbij Nvidia en AMD opeens besluiten om hard te gaan concurreren, blijft een 12 GB kaart die ongeveer even snel is als een 4060 Ti aardig aantrekkelijk en zal hij niet drastisch waarde verliezen op de 2e hands markt. Ik heb nu een hele goede prijs betaald per FPS en de tweedehands markt waardeert kaarten meestal heel scherp op wat ze echt bieden, niet op de oorspronkelijke prijs. Dus mensen die nu een kaart kopen met een veel slechtere prijs per FPS (en vooral kaarten met 8 GB) gaan vast veel meer afschrijving zien.
[ Voor 19% gewijzigd door Ludewig op 26-05-2023 00:45 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Oke leg uit hoe een 60CU, 256bit/16GB VRAM videokaart met een 200mm2 GCD + 4x 38mm MCD die zeker 2600MHz kan doen, maar waarschijnlijk de TDP ruimte heeft om meer te doen, tegen moet vallen?Ludewig schreef op vrijdag 26 mei 2023 @ 00:39:
Ik verwacht eigenlijk niet veel van Navi 32. Gezien de matige prestatiewinst van deze generatie en de relatief hoge productiekosten van Navi 32 verwacht ik niet dat we er snel op vooruit gaan, zeker met de standaard strategie van AMD om bij de introductie geen voordeel te bieden op de kortingsprijzen van de vorige generatie.
Immers heeft de RX7600 zo te zien iets van 20-30W extra nodig daarvoor en de RX7900XTX ruim 50W. Reken ik dan ook ruim met 50W en 2/3 van de 355W van de RX7900XTX (237W), dan moet dat kunnen met 285W. Dat is toevallig ook het TDP van de RTX4070Ti. Die ga je denk ik niet matchen, maar wel benaderen. En dat acht ik als zeer wenselijk omdat het AMD zal dwingen de prijs duidelijk lager te stellen.
N32 gaat ook goedkoper te maken zijn dan N21. Het is een erg kleine chip, N5 lijkt helemaal niet zo duur te zijn als werd aangenomen en ik zie ook niet hoe AMD haar eigen packaging technologie zo duur moet zijn. Je zou circa 250 chips uit elke wafer halen waarvan de meeste in principe volledig functioneel zouden moeten zijn. Zelfs als ze ervoor kiezen om N32 SKU's op 2600MHz te clocken, dan alsnog zit je op 20TFLOPS = RX6800XT. En ergens mogen ze het van mij doen, want dat zal ze onder de $600 dwingen vanwege de RTX4070. Naar 23TFLOPS kan je er desnoods zelf erbij overclocken met PL + UV en dan naar de 3GHz.
Geheugenbrandbreedte maak ik me ook weinig zorgen om. We gaan hier geen 16gpbs GDDR6 meer gaan krijgen. N21 had toch wel wat beperkingen daarmee. Niet heel veel maar wel iets. Dus ik reken zeker een beetje extra geheugenbrandbreedte mee. RDNA3 haar L3 cache is ook een stuk beter dan RDNA2, waardoor ik me ook geen zorgen maak van de reductie van 128MB naar 64MB. Inmiddels behandel ik RDNA3 in mijn hoofd gewoon als RDNA2 met betere RT. Want de matrix cores worden (nog) niet gebruikt voor upscaling (iets dat ik echt hoop voor een betere FSR2) en de VOPD functionaliteit doet ook bar weinig.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
@DaniëlWW2
Je hebt zelf al eerder betoogt dat N32 vrijwel zeker niet sterk genoeg is voor een waardige 7800 XT en dat je daar een N31 wilt zien. Als N32 dan de vervanger moet worden voor de 6700 en dus N22, dan zie ik niet snel gebeuren dat N32 goedkoper te maken is dan een 335 mm2 chip op N7. Hoe kan 200mm2 op N5 plus 152mm2 op N6 goedkoper zijn? Dat is in totaal iets meer oppervlak, waarvan dan ook nog een flink deel op het duurdere N5. En je hebt extra packagingkosten.
Het zou mij ook niet verbazen als ze een 7800 non-XT uitbrengen op N32 en de XT maar laten zitten. En dan voor een prijs voor richting de $500, al kan dat op zich nog wat lager omdat die 7800 dan wel goedkoper te maken is dan de 6800 op basis van N21.
En dan wordt de 7700 XT een geknipte N32 met 12 GB die dan niet echt betere prijs/prestatie geeft dan de 6700 XT. Hij wordt dan wel sneller, maar vast minimaal evenveel duurder.
Je hebt zelf al eerder betoogt dat N32 vrijwel zeker niet sterk genoeg is voor een waardige 7800 XT en dat je daar een N31 wilt zien. Als N32 dan de vervanger moet worden voor de 6700 en dus N22, dan zie ik niet snel gebeuren dat N32 goedkoper te maken is dan een 335 mm2 chip op N7. Hoe kan 200mm2 op N5 plus 152mm2 op N6 goedkoper zijn? Dat is in totaal iets meer oppervlak, waarvan dan ook nog een flink deel op het duurdere N5. En je hebt extra packagingkosten.
Het zou mij ook niet verbazen als ze een 7800 non-XT uitbrengen op N32 en de XT maar laten zitten. En dan voor een prijs voor richting de $500, al kan dat op zich nog wat lager omdat die 7800 dan wel goedkoper te maken is dan de 6800 op basis van N21.
En dan wordt de 7700 XT een geknipte N32 met 12 GB die dan niet echt betere prijs/prestatie geeft dan de 6700 XT. Hij wordt dan wel sneller, maar vast minimaal evenveel duurder.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik vergelijk met N21 hé.Ludewig schreef op vrijdag 26 mei 2023 @ 13:42:
@DaniëlWW2
Je hebt zelf al eerder betoogt dat N32 vrijwel zeker niet sterk genoeg is voor een waardige 7800 XT en dat je daar een N31 wilt zien. Als N32 dan de vervanger moet worden voor de 6700 en dus N22, dan zie ik niet snel gebeuren dat N32 goedkoper te maken is dan een 335 mm2 chip op N7. Hoe kan 200mm2 op N5 plus 152mm2 op N6 goedkoper zijn? Dat is in totaal iets meer oppervlak, waarvan dan ook nog een flink deel op het duurdere N5. En je hebt extra packagingkosten.
Maar ik beschouw N22 net zoals N10 ervoor ook al te dure videokaarten waar echt wel wat marge vanaf kon. N32 kan iets duurder zijn, maar met $17.000 voor N5 rekende ik al onder de $100 voor een 200mm2 chip + 4x MCD. Het lijkt dus veel minder te zijn, waardoor ik me weinig zorgen maak over AMD hun marges. N7 wafers lijken ook onderbezetting te hebben, waardoor die prijzen ook niet al te hoog meer zullen zijn. 50% marge halen ze denk ik wel. VRAM is ook spotgoedkoop en dus het probleem ook niet.
Dit is denk ik wel een goed punt.Het zou mij ook niet verbazen als ze een 7800 non-XT uitbrengen op N32 en de XT maar laten zitten. En dan voor een prijs voor richting de $500, al kan dat op zich nog wat lager omdat die 7800 dan wel goedkoper te maken is dan de 6800 op basis van N21.
En dan wordt de 7700 XT een geknipte N32 met 12 GB die dan niet echt betere prijs/prestatie geeft dan de 6700 XT. Hij wordt dan wel sneller, maar vast minimaal evenveel duurder.
AMD lijkt systematisch op 30-35% gen over gen te mikken en als ik dan even snel check:
RX6700XT + 30% = RX6800XT/20TFLOPS
RX6800 + 30% = RX6950XT/23TFLOPS
Dus de cut down als RX7700XT verkopen en de volle N32 als RX7800 kan heel goed als AMD hier kiest voor meer agressieve clock speeds dan 2600MHz. Maar performance speelt ook een rol. En ik zie AMD met een product dat tussen de RTX4070 en RTX4070Ti presteert, niet bepaald snel $700 vragen of dit de RX7800XT noemen. Je weet het natuurlijk nooit want AMD, maar dat denk ik. Het komt ook wederom aardig overheen met wat ik vorig jaar september al stelde. N31 max $1000 en N32 max $600. Uiteraard liever $500 voor de volle N32, maar ik moet de details zien (hoe snel precies, TDP, meerprijs goed AIB model) om te bepalen wat ik het precies waard vind.
Maar ik was een paar dagen op vakantie en heb niet veel reviews in detail bekeken. Ik was dus even wat aan het inhalen en toen zag ik dit. Uiteraard CoD, de meest pro AMD gameserie die er is, maar toch.
De RX7600 is 20,6% sneller dan de RX6650XT. Ik zie niet in hoe dit verklaard kan worden door geheugenbrandbreedte en verder zijn beide chips zeer vergelijkbaar met een uitzondering, VOPD.
Ik vermoed al maanden dat VOPD in CoD MWII wel werkt gezien de enorme prestaties van N31, maar daar miste een duidelijk referentiekader voor vergelijking. Hier is een overduidelijk referentiekader tussen N23 en N33 en de uplift ligt precies in lijn met wat AMD zelf communiceerde over wat VOPD ongeveer zou doen, namelijk circa 17%.
:strip_exif()/f/image/qgC5HeVHTI6q0HQV6C4f2KdB.jpg?f=fotoalbum_large)
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Helaas, dat had niet gekund zonder het oppervlakte van de GCD te vergroten voor N31 en N32. 160 RDNA2 CUs kosten veel meer transistors dan de "dubbele ALUs voor speciale VOPD instructies" 96 RDNA3 CUs.Sp3ci3s8472 schreef op donderdag 25 mei 2023 @ 11:48:
Ik ben nog steeds van mening dat AMD een domme stap heeft gemaakt met die "verdubbeling" van de shaders net zoals Nvidia heeft gedaan. Ze hebben er nauwelijks wintst uit gehaald zover ik kan zien.
Wellicht dat iemand met meer kennis van de architectuur mij nog kan vertellen waarom die verdubbeling wel goed is, want ik zie het niet.
Ik had graag een verdubbelde RDNA2 gezien met betere RT en eventueel betere ML (stable diffusion performance). Dat had volgens mij prima zonder dubbele shaders gekunt.
https://www.angstronomics.com/p/amds-rdna-3-graphicsIn fact, at the same node, an RDNA 3 WGP is slightly smaller in area than an RDNA 2 WGP, despite packing double the ALUs.
Een N31 met RDNA2 CUs had er dus maar 96 gehad, gegeven het transistor budget.
En gezien de problemen met frequentie en power inefficiëntie vergeleken met de beloofde 50% performance/Watt (RDNA3 haalt misschien 30%, terwijl Lovelace die 50% wel haalt in sommige gevallen), waren die problemen voor AMD nog veel groter geweest met een 160 CUs ontwerp voor N31.
Ze hebben de WGP herontworpen, vanwege chiplets (?), ze hebben gesneden in legacy pipelines, transistors gewonnen, maar helaas, de gesimuleerde performance is niet waar gemaakt. Een bug, geen goede VOPD driver, asynchrone clocks, wat het ook is, het is een "tick" generatie à la Intel. Wikipedia: Tick–tock model
RDNA4 wordt weer de "tock" generatie, waarbij we hopelijk meer van hetzelfde krijgen: Navi41 zal 3x48 RDNA3 CUs krijgen om precies te zijn, of hey precies hetzelfde als een maximale AD102 (RTX 4090 Ti). Met misschien alleen wat ray tracing hardware er bij.
Voor de volgende Blackwell generatie blijft Nvidia op 144 SMs, maar gaan ze die - wait for it - "verdubbelen". Dat wordt dus vermoedelijk een "tick" generatie, waarbij Nvidia voor level4 of level5 ray tracing hardware zal gaan, terwijl ze ook (eindelijk) hun SMs eens fundamenteel gaan veranderen. Nvidia's SM ontwerp is sinds Turing (RTX 2000) niet echt veranderd, met 1 frequentie voor de monolitische chip.
Tegelijkertijd zullen ze een begin moeten maken met chiplets, in ieder geval voor de high end, vanwege de komst van high-NA EUV proces nodes na de laatste EUV node namelijk 3nm. Een nieuwe 2nm node maakt gebruikt van een reticle limit van 429 mm2, waar Navi31 al in past, en AD103 ook, maar AD102 niet. Dat maakt het "tick" aspect van Blackwell nog waarschijnlijker, met meerdere frequenties noodzakelijk als je het L2/L3 geheugen gaat loskoppelen in geheugen chiplets.
https://www.anandtech.com...ming-to-fabs-in-2024-2025
https://en.wikichip.org/wiki/mask
Voor Navi33 niet relevant aangezien dat nog een monolitische chip is. $270 MSRP is een mooie startprijs vergeleken met Navi23
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Gelukkig kan AMD ROCm software voor compute gewoon software geschreven voor Nvidia CUDA interpreteren en omzetten.rapture schreef op vrijdag 26 mei 2023 @ 00:01:
[...]
Dan moet bijna iedereen (die niet hun eigen chips ontwerpt) met de AMD-software leren omgaan en de High-NA EUV reticle limit is de laatste nagel in de doodskist van de big monolithic chip strategie van Nvidia.
Newsflash, Intel is nog niet gesloopt. Ze zijn wel wat marktaandeel kwijt geraakt, maar ze zijn nog steeds de grootste, op alle CPU terreinen. Zelfs op server gebied, wat AMD heeft gepakt was van SPARC, niet van Intel:rapture schreef op vrijdag 26 mei 2023 @ 00:01:
[...]
AMD heeft een betere prijs/performance-verhouding strategie gebruikt om Intel te slopen. In de komende jaren gaat AMD Nvidia systematisch slopen.
Als AMD niet snel Navi 32 uitbrengt, zal ik toch maar snel een RX 6800 XT halen voordat de gamers voor vele jaren "fucked" zijn.
YouTube: New Silicon for Supercomputers: A Guide for Software Engineers
En als je denkt dat Nvidia zich laat slopen, heb je het mis. Die zullen niet rusten en hun huid duur verkopen. AMD is van oudsher altijd al de tweede leverancier geweest. Waardoor zou dat veranderen?
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
De RTG kan ook gewoon echt niks meer hé.
Zelfs je referentieontwerp zo maken dat 6+2 pin connectoren gewoon goed passen, lukt al niet meer. Dat gaan ze dus ook aanpakken. Waarom je alleen dit model nog uit zou willen brengen is mij niet helemaal duidelijk.

https://www.techpowerup.c...have-power-connector-flaw
Op zich lijkt het ontwerp ook niet compleet hopeloos te zijn.
Maar uiteraard komt Sapphire dan weer en dan weet je hoe laat het is. Sapphire blijft ergens gewoon een van de grootste pluspunten van Radeons.
Zelfs je referentieontwerp zo maken dat 6+2 pin connectoren gewoon goed passen, lukt al niet meer. Dat gaan ze dus ook aanpakken. Waarom je alleen dit model nog uit zou willen brengen is mij niet helemaal duidelijk.

https://www.techpowerup.c...have-power-connector-flaw
Op zich lijkt het ontwerp ook niet compleet hopeloos te zijn.
Maar uiteraard komt Sapphire dan weer en dan weet je hoe laat het is. Sapphire blijft ergens gewoon een van de grootste pluspunten van Radeons.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
@DaniëlWW2 wat is dat voor een fuckup

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Het is inmiddels echt van het niveau van:
Nvidia liep te klooien met hun stekkers, nou dat kunnen wij ook.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Bij nvidia zijn de tolerantie s gewoon te klein voor de plastiek. dit is gewoon de backplane fuckup
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Gelukkig heeft AMD's marketing afdeling dat niet gebruikt in hun marketing, waardoor dit nooit voor backfire kan zorgen.....DaniëlWW2 schreef op zondag 28 mei 2023 @ 13:05:
Het is inmiddels echt van het niveau van:
Nvidia liep te klooien met hun stekkers, nou dat kunnen wij ook.

Het verbaast me ook gewoon niks meer.Dennism schreef op zondag 28 mei 2023 @ 13:36:
[...]
Gelukkig heeft AMD's marketing afdeling dat niet gebruikt in hun marketing, waardoor dit nooit voor backfire kan zorgen.....
[Afbeelding]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
*knip* V&A is niet toegestaan.
[ Voor 88% gewijzigd door br00ky op 30-05-2023 13:14 ]
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
AMD's reactie? Pleistertje er op https://videocardz.com/ne...les-before-market-release
Reference design leert van AIB modellen...
Reference design leert van AIB modellen...
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Der8auer heeft een leuke video over hoe de videokaarten van Power Color worden gemaakt:
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Bizar gaaf filmpje!Ludewig schreef op vrijdag 2 juni 2023 @ 15:28:
Der8auer heeft een leuke video over hoe de videokaarten van Power Color worden gemaakt:
[YouTube: How Graphics Cards are made - Insane PowerColor Factory Tour]
Niet te geloven dat hij dit voor elkaar heeft gekregen. Dan moet je als bedrijf wel echt even de boel goed overdacht hebben om geen bedrijfsgeheimen bloot te geven.
Voelt een beetje als een pretpark attractie dit, heel leuk om te zien.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
@Koldur
De fabrieken in Azië staan best wel open voor zoiets. Gamer's Nexus heeft ook een reeks filmpjes gemaakt in een aantal fabrieken (en daarbij helpt het vast ook dat hij Chinees spreekt). En recent ook nog van de ontwerpafdeling van een fabrikant van kasten.
Je ziet het soms ook wel bij Intel, die Linus Tech Tips wel eens een rondleiding geeft, maar die lijken wel een stuk banger voor het lekken van geheimen of het krijgen van slechte PR. Bij die filmpjes lijkt alles heel erg strak geregisseerd en worden vaak dingen geblurred. De Chinese fabrieken lijken daar veel makkelijker in. Ik denk dat het ook meespeelt dat ze vaak moeite hebben om de westerse consument en westerse partners te begrijpen. Ze snakken daarom naar feedback, zoals bevestiging dat ze goed bezig zijn of juist tips voor hoe ze ons beter kunnen bedienen.
Sowieso is mijn ervaring dat ze daar niet heel creatief zijn, maar wel erg hun best doen om echt te maken wat de consument wil, terwijl wij in het westen vaak een wat minder gedienstige mentaliteit hebben.
De fabrieken in Azië staan best wel open voor zoiets. Gamer's Nexus heeft ook een reeks filmpjes gemaakt in een aantal fabrieken (en daarbij helpt het vast ook dat hij Chinees spreekt). En recent ook nog van de ontwerpafdeling van een fabrikant van kasten.
Je ziet het soms ook wel bij Intel, die Linus Tech Tips wel eens een rondleiding geeft, maar die lijken wel een stuk banger voor het lekken van geheimen of het krijgen van slechte PR. Bij die filmpjes lijkt alles heel erg strak geregisseerd en worden vaak dingen geblurred. De Chinese fabrieken lijken daar veel makkelijker in. Ik denk dat het ook meespeelt dat ze vaak moeite hebben om de westerse consument en westerse partners te begrijpen. Ze snakken daarom naar feedback, zoals bevestiging dat ze goed bezig zijn of juist tips voor hoe ze ons beter kunnen bedienen.
Sowieso is mijn ervaring dat ze daar niet heel creatief zijn, maar wel erg hun best doen om echt te maken wat de consument wil, terwijl wij in het westen vaak een wat minder gedienstige mentaliteit hebben.
[ Voor 12% gewijzigd door Ludewig op 02-06-2023 17:14 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Chips & Cheese analyse van de 7600: https://chipsandcheese.co...600-small-rdna-3-appears/
Ze vinden trouwens steeds dat de compilers nogal slechte code produceren, wat in de toekomst misschien opgelost kan worden met AI.
Ze vinden trouwens steeds dat de compilers nogal slechte code produceren, wat in de toekomst misschien opgelost kan worden met AI.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Volgens mij, sinds LTT bij Intel is geweest staan wel meerdere bedrijven voor zoiets open, maar ik heb verstaan uit de (tai)WAN show dat LTT ook een fabriek normaal ging bezoeken maar dat is telkens niet doorgegaan.Koldur schreef op vrijdag 2 juni 2023 @ 16:14:
[...]
Bizar gaaf filmpje!
Niet te geloven dat hij dit voor elkaar heeft gekregen. Dan moet je als bedrijf wel echt even de boel goed overdacht hebben om geen bedrijfsgeheimen bloot te geven.
Voelt een beetje als een pretpark attractie dit, heel leuk om te zien.
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
En daar gaan we weer. 
Dit zou een score zijn van de RX7800M XT, volle N32 op 165W als mobiele chip. Komt neer op rond RX6800XT.
[Twitter: https://twitter.com/All_The_Watts/status/1665375422459129856]
[Twitter: https://twitter.com/All_The_Watts/status/1665749416303788032]


Ik zie wel of het klopt.
Dit zou een score zijn van de RX7800M XT, volle N32 op 165W als mobiele chip. Komt neer op rond RX6800XT.
[Twitter: https://twitter.com/All_The_Watts/status/1665375422459129856]
[Twitter: https://twitter.com/All_The_Watts/status/1665749416303788032]
Ik zie wel of het klopt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Belangrijker nog: ik zie wel of de prijs klopt. De performance zal wel...
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Not bad, met 16gb Vram zit je erg sterk qua laptop. Alleen niet te hoog mikken qua prijs en je hebt een winnaar.
Niet gedacht dit te zeggen, maar: te laat voor mij. Tegen de tijd dat dit uitkomt, zitten we dicht tegen de volgende generatie. Intel Battlemage, iemand?DaniëlWW2 schreef op dinsdag 6 juni 2023 @ 21:29:
En daar gaan we weer.
Dit zou een score zijn van de RX7800M XT, volle N32 op 165W als mobiele chip. Komt neer op rond RX6800XT.
[Twitter]
[Twitter]
[Afbeelding]
[Afbeelding]
Ik zie wel of het klopt.
Maar zonder gekkigheid: 16GB goede performance voor 200-250W zou fijn zijn.
[ Voor 5% gewijzigd door sunsmountain op 06-06-2023 23:51 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Generatie is 2 jaar toch? Heb nog wel ff wat financieel hersteltijd nodig na de aanschaf van xtx in december....sunsmountain schreef op dinsdag 6 juni 2023 @ 23:07:
[...]
Niet gedacht dit te zeggen, maar: te laat voor mij. Tegen de tijd dat dit uitkomt, zitten we dicht tegen de volgende generatie. Intel Battlemage, iemand?
Maar zonder gekkigheid: 16GB goede performance voor 200-250W zou fijn zijn.
Tja als dit klopt, dan zou je van 300W naar 165W gaan voor vergelijkbare performance. Dat zou voor RDNA2 naar RDNA3 standaarden, gigantisch zijn. Tweede is dat RX7800M XT impliceert dat op de desktop dit geen RX7800 series is, maar RX7700 series zijn. AMD is (nog) niet zo brutaal dat ze het mobiel vs. desktop onderscheid helemaal niet meer duidelijk meer maken met een ander niveaugetal.MneoreJ schreef op dinsdag 6 juni 2023 @ 22:14:
Belangrijker nog: ik zie wel of de prijs klopt. De performance zal wel...
AMD hun strategie is tot dusver 30% sneller voor dezelfde SKU en prijs in ieder geval niet hoger maken dan RDNA2. Dus minder dan $500 zou hier de inschatting zijn. Of AMD hun eigen precedent volgt is natuurlijk een raadsel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hah. Voorlopig is het nieuwe precedent dat AMD op de desktop gezet heeft de 7600, en dat stemt weinig hoopvol. Nou kunnen we natuurlijk stellen dat dat ding een uitzonderingspositie inneemt, maar de markt is inmiddels dusdanig verziekt dat ik letterlijk nergens meer van zou staan te kijken. Als je maar hoopt op niks valt het altijd mee.DaniëlWW2 schreef op woensdag 7 juni 2023 @ 13:42:
AMD hun strategie is tot dusver 30% sneller voor dezelfde SKU en prijs in ieder geval niet hoger maken dan RDNA2. Dus minder dan $500 zou hier de inschatting zijn. Of AMD hun eigen precedent volgt is natuurlijk een raadsel.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
RX7600 is ongeveer 30% sneller dan de RX6600.MneoreJ schreef op woensdag 7 juni 2023 @ 13:56:
[...]
Hah. Voorlopig is het nieuwe precedent dat AMD op de desktop gezet heeft de 7600, en dat stemt weinig hoopvol. Nou kunnen we natuurlijk stellen dat dat ding een uitzonderingspositie inneemt, maar de markt is inmiddels dusdanig verziekt dat ik letterlijk nergens meer van zou staan te kijken. Als je maar hoopt op niks valt het altijd mee.
RX7900XT is iets van 25% sneller dan de RX6900XT. (naam is alleen dom want dit had gewoon RX7800XT moeten zijn)
RX7900XTX is gewoon raar.
Er zit een soort van logica in, soort van. De overige 20% die je zou mogen verwachten, zit in VOPD. Tja er lijkt nu maar een game te zijn waar VOPD werkt, CoD MWII. Zie:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja, maar het ding ligt qua prijs/prestatie nogal rottig in de markt. Dat zie ik de nieuwe kaarten niet per se beter doen. Of het nu een RX 7600 of Bob heet, feit is dat qua FPS per dollar/euro geen nieuws brengt voor de consument. Aan AMD de keus om het beter te doen.DaniëlWW2 schreef op woensdag 7 juni 2023 @ 14:05:
RX7600 is ongeveer 30% sneller dan de RX6600.
Yes, I know. Uiteraard interesseert het mij als consument geen klap wat voor magic juice er in RDNA 3 zit als de drivers het er niet uit weten te persen. Ook als het sap in kwestie wellicht de welbekende "fine wine" is die er later alsnog uit weet te sijpelen rechtvaardigt dat nu nog niet de aankoopprijs, want wellicht materialiseert dit gewoon niet voor AMD op de volgende trein overstapt (al dan niet noodgedwongen omdat niemand ervoor optimaliseert) -- zou niet de eerste keer zijn.Er zit een soort van logica in, soort van. De overige 20% die je zou mogen verwachten, zit in VOPD. Tja er lijkt nu maar een game te zijn waar VOPD werkt, CoD MWII. Zie:![]()
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Ondertussen wel leuk voor de CoD spelers, daar niet van, maar iets meer draagvlak is nodig.
[ Voor 3% gewijzigd door MneoreJ op 07-06-2023 14:15 ]
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Oh zeker. Ik zou veel comfortabeler zijn met de RX7600 rond de €250 of nog wat lager. En ik denk dat AMD het ook zou moeten doen. Overigens in die Powercolor tour, tja dat waren nieuwe RX6700XT's die werden gemaakt. Die zijn er dus nog steeds. En ik denk dat die gewoon naar de €300 zouden moeten.MneoreJ schreef op woensdag 7 juni 2023 @ 14:14:
[...]
Ja, maar het ding ligt qua prijs/prestatie nogal rottig in de markt. Dat zie ik de nieuwe kaarten niet per se beter doen. Of het nu een RX 7600 of Bob heet, feit is dat qua FPS per dollar/euro geen nieuws brengt voor de consument. Aan AMD de keus om het beter te doen.
Het gaat mij erom dat het in ieder geval kan werken en niet een functionaliteit is die wel op de hardware zit, maar nooit gebruikt zal worden. Het is dus niet Vega waar primitive shaders fundamenteel kapot waren. Weinig die het weten dat die gewoon werkte in RDNA1 en nu in RDNA3 is de legacy vertex en pixel shading verwijderd en is het alleen nog maar primitive shaders.[...]
Yes, I know. Uiteraard interesseert het mij als consument geen klap wat voor magic juice er in RDNA 3 zit als de drivers het er niet uit weten te persen. Ook als het sap in kwestie wellicht de welbekende "fine wine" is die er later alsnog uit weet te sijpelen rechtvaardigt dat nu nog niet de aankoopprijs, want wellicht materialiseert dit gewoon niet voor AMD op de volgende trein overstapt (al dan niet noodgedwongen omdat niemand ervoor optimaliseert) -- zou niet de eerste keer zijn.
Ondertussen wel leuk voor de CoD spelers, daar niet van, maar iets meer draagvlak is nodig.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik denk eigen dat dit ding niet meer mag kosten dan €200. Je verwacht immers minimaal 30% meer prestaties op een gelijk prijspunt. Het is 'maar een asrock', maar de RX6600 is hier wel te koop nu voor €199, en dan heb je hem morgen in huis.DaniëlWW2 schreef op woensdag 7 juni 2023 @ 14:42:
[...]
Oh zeker. Ik zou veel comfortabeler zijn met de RX7600 rond de €250 of nog wat lager. En ik denk dat AMD het ook zou moeten doen. Overigens in die Powercolor tour, tja dat waren nieuwe RX6700XT's die werden gemaakt. Die zijn er dus nog steeds. En ik denk dat die gewoon naar de €300 zouden moeten.
Met dat gegeven vind ik €250 voor een 7600 alsnog veel te duur, laat staat de minimaal €299 die ze nu lijken te vragen, met een uitschieten naar zelfs €442, het moet niet gekker worden
€250 of lager.Dennism schreef op donderdag 8 juni 2023 @ 11:32:
[...]
Ik denk eigen dat dit ding niet meer mag kosten dan €200. Je verwacht immers minimaal 30% meer prestaties op een gelijk prijspunt. Het is 'maar een asrock', maar de RX6600 is hier wel te koop nu voor €199, en dan heb je hem morgen in huis.
Met dat gegeven vind ik €250 voor een 7600 alsnog veel te duur, laat staat de minimaal €299 die ze nu lijken te vragen, met een uitschieten naar zelfs €442, het moet niet gekker wordenAl zal dat hopelijk een foutje zijn.
Het gaat mij er niet om dat ik €250 geweldig vind. Meer dat het tolereerbaar is voor wat eigenlijk een instap model is geworden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik zou €250 eigen alleen te tolereren vinden voor de meeste luxe AIB modellen (zouden die er zijn, ik vermoed mogelijk van niet?). Voor een instap model 7600 aan de onderkant van de markt is dat echt veel te veel naar mijn mening, zeker in het huidige markt klimaat. Zelfs €250 zou immers eigenlijk nog geen prijs / prestatie verbetering betekenen gen on gen.DaniëlWW2 schreef op donderdag 8 juni 2023 @ 11:39:
[...]
€250 of lager.
Het gaat mij er niet om dat ik €250 geweldig vind. Meer dat het tolereerbaar is voor wat eigenlijk een instap model is geworden.
Als aandeelhouder, zou dit verkopen zijn dit soort ontwikkelingen waar je eigenlijk hetzelfde (als je kijkt naar prestaties, of meer als je kijk naar die size) voor meer verkoopt natuurlijk leuk. Maar als consument vind ik dit echt AMD onwaardig
Oke scherper dan.Dennism schreef op donderdag 8 juni 2023 @ 12:12:
[...]
Ik zou €250 eigen alleen te tolereren vinden voor de meeste luxe AIB modellen (zouden die er zijn, ik vermoed mogelijk van niet?). Voor een instap model 7600 aan de onderkant van de markt is dat echt veel te veel naar mijn mening, zeker in het huidige markt klimaat. Zelfs €250 zou immers eigenlijk nog geen prijs / prestatie verbetering betekenen gen on gen.
Als aandeelhouder, zou dit verkopen zijn dit soort ontwikkelingen waar je eigenlijk hetzelfde (als je kijkt naar prestaties, of meer als je kijk naar die size) voor meer verkoopt natuurlijk leuk. Maar als consument vind ik dit echt AMD onwaardig
Natuurlijk vind ik het ook helemaal niks. Maar zo lang als er nog zoveel N23 op de markt is, gaat het niet gebeuren voor N33. Verdwenen al die RDNA2 voorraden nu morgen van de markt en was er de mogelijkheid om een schone line-up te maken, dan wist ik het ook wel.
RX7900XTX = €750
RX7800XT = €600 (de RX7900XT wordt gewoon hernoemd, basta
RX7700XT = €500 (N32, 16GB, RX6900XT/RX6950XT prestatieniveau)
RX7700 = €400 (N32, 12GB, RX6800 prestatieniveau)
RX6750XT = €320
RX6700 = €280
RX7600 = €200
RX7500XT = €180 (N33 28CU)
Ik neig ernaar dat N22 met haar 192 bit bus en dus 12GB aan VRAM, nog een plaats heeft. Die plaats is de RTX4060Ti neerknuppelen.
N32 vult dat gat met N33 gewoon niet als 60CU chip. Verder is N22 een N7 chip, dus inmiddels zullen die wafers goedkoper en goed beschikbaar zijn geworden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
In de basis eens hoor, ik denk eigenlijk dat mensen die oude RDNA voorraad N23 in de 6600 e.d. eigenlijk gewoon zouden moeten laten voor wat het is. Immers de 7600 moet naar dat €200 prijspunt, wat eigenlijk laat zien dat N32 zoals de 6600 op dit moment eigenlijk door de 7600 introductie ook weer veel te duur is, die zouden eigenlijk naar €140-€150 moetenDaniëlWW2 schreef op donderdag 8 juni 2023 @ 12:46:
[...]
Oke scherper dan.
Natuurlijk vind ik het ook helemaal niks. Maar zo lang als er nog zoveel N23 op de markt is, gaat het niet gebeuren voor N33. Verdwenen al die RDNA2 voorraden nu morgen van de markt en was er de mogelijkheid om een schone line-up te maken, dan wist ik het ook wel.
RX7900XTX = €750
RX7800XT = €600 (de RX7900XT wordt gewoon hernoemd, basta)
RX7700XT = €500 (N32, 16GB, RX6900XT/RX6950XT prestatieniveau)
RX7700 = €400 (N32, 12GB, RX6800 prestatieniveau)
RX6750XT = €320
RX6700 = €280
RX7600 = €200
RX7500XT = €180 (N33 28CU)
Ik neig ernaar dat N22 met haar 192 bit bus en dus 12GB aan VRAM, nog een plaats heeft. Die plaats is de RTX4060Ti neerknuppelen.![]()
N32 vult dat gat met N33 gewoon niet als 60CU chip. Verder is N22 een N7 chip, dus inmiddels zullen die wafers goedkoper en goed beschikbaar zijn geworden.
N22 ook wel met je eens, mits goed geprijsd zouden die goed tussen N33 en N32 in passen nog.
En daar zijn de Q1 shipments. Geheel zoals verwacht is het nog slechter geworden.
Nog maar 6,3 miljoen videokaart verscheept door AIB's. waar Q4 nog 7,16 miljoen was. 7,5% minder AMD en 15,2% minder Nvidia videokaarten.

https://www.jonpeddie.com...ts-correction-in-q1-2023/
edit: Dacht kijk ook eens naar AMD haar Q1 cijfers.
Nou die beginnen ook aardig wat inventaris op te bouwen. Het is alleen een stuk lastiger in te schatten wat dit nu is. Het kunnen consumenten processoren zijn, maar ook videokaarten. Consoles, Xilinx of Epyc lijkt me niet waarschijnlijk omdat daar denk ik wel vraag naar is. Maar een deel hiervan zijn, vermoed ik wel videokaarten. Dus AMD, jullie hebben geen of weinig specifieke AI hardware op jullie producten zitten. Wees nu eindelijk eens niet zo enorm zelf saboterend en gooi die prijzen nu echt eens omlaag om inventaris echt te verkopen.
Q4 2021: 1,955
Q1 2022: 2,431
Q2 2022: 2,648
Q3 2022: 3,369
Q4 2022: 3,771
Q1 2023: 4,235

Nog maar 6,3 miljoen videokaart verscheept door AIB's. waar Q4 nog 7,16 miljoen was. 7,5% minder AMD en 15,2% minder Nvidia videokaarten.

https://www.jonpeddie.com...ts-correction-in-q1-2023/
edit: Dacht kijk ook eens naar AMD haar Q1 cijfers.
Nou die beginnen ook aardig wat inventaris op te bouwen. Het is alleen een stuk lastiger in te schatten wat dit nu is. Het kunnen consumenten processoren zijn, maar ook videokaarten. Consoles, Xilinx of Epyc lijkt me niet waarschijnlijk omdat daar denk ik wel vraag naar is. Maar een deel hiervan zijn, vermoed ik wel videokaarten. Dus AMD, jullie hebben geen of weinig specifieke AI hardware op jullie producten zitten. Wees nu eindelijk eens niet zo enorm zelf saboterend en gooi die prijzen nu echt eens omlaag om inventaris echt te verkopen.
Q4 2021: 1,955
Q1 2022: 2,431
Q2 2022: 2,648
Q3 2022: 3,369
Q4 2022: 3,771
Q1 2023: 4,235
[ Voor 45% gewijzigd door DaniëlWW2 op 15-06-2023 22:01 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Is AMD niet juist Mi300 aan het rampen voor de algemene release in Q3?DaniëlWW2 schreef op donderdag 8 juni 2023 @ 21:58:
Dus AMD, jullie hebben geen of weinig specifieke AI boom hardware op jullie producten zitten. Wees nu eindelijk eens niet zo enorm zelf saboterend en gooi die prijzen nu echt eens omlaag om inventaris echt te verkopen.
Misschien dat daar ook nog wel wat inzit qua inventaris.
Navi32 zou volgens RGT lanceren Q3/Q4, voor een RTX 4070 prijs en iets (5%) betere performance, bij ~275W. Kennelijk vindt AMD een dergelijke prijs prima vanwege de 16GB.
Geen refreshes van RX 7000 of RTX 4000, skip generaties dus.
Wat ben ik blij een 6950XT gekocht te hebben.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.