Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Mars Warrior schreef op dinsdag 7 januari 2025 @ 10:34:
[...]

Als dan al alle benchmarks bekend zijn, kan AMD natuurlijk wel hun eigen GPU’s perfect plaatsen qua performance en €€€ tov nVidia.
Maar ga je daarmee Nvidia's mindshare tegen? Dat is voor AMD vaak de grootste drempel (naast hun marketing blunders). Ik denk eigenlijk nog steeds dat het beter zou zijn voor AMD, als ze echt marketshare willen, om voor Nvidia te releasen en dan tegen een prijs waarvan je weet dat je gewoon een goed product levert op dat prijspunt voor de consument (dus geen price gauging als in we gaan $50 onder Nvidia zitten, dat is immers al gebleken niet te werken). De consument koopt het dan wel. In plaats van weer achter Nvidia aan te lopen, want het 10% oid marktaandeel dat ze nu hebben laat wel ziet dan dit niet werkt. Goede kans dat Nvidia het niet eens erg vind als AMD wat share pakt, en gaat Nvidia toch vol in concurrentie kan je altijd dan alsnog met je prijzen gaan spelen zodra zij hun kaarten in volume op de markt hebben.

En dan zorgen dat je een maand of 1,5 'vrije verkoop' hebt in de 70 range en mogelijk langer in de 60 range, omdat Nvidia de 70 kaarten pas later brengt en de 60 kaarten nog veel later.

[ Voor 8% gewijzigd door Dennism op 07-01-2025 11:11 ]


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 12:34

MazeWing

The plot thickens...

Voor nvidia is het zelfs beter als er enige concurrentie is omdat ze anders (nog meer) met anti-trust regels te maken krijgen.

Maar AMD maakt het de op deze manier wel hele makkelijk….

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Galaxis
  • Registratie: Augustus 2001
  • Laatst online: 12:14
Het wordt gewoon tijd at fabrikanten stoppen met thermal paste op high end kaarten. Ik heb er een cryosheet tussen gebeund, en dat is superieur aan thermal paste op elk mogelijke manier.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
AMD lijkt RDNA4 in ieder geval niet voorop te hebben staan :+

Zit nu ff een update van HuB te bekijken, en AMD zou als verklaring hebben gehad dat omdat ze binnen een bepaalde tijd moeten blijven voor de keynote dat ze 'geen tijd' hadden voor RDNA4 om het goed te kunnen presenteren.

Ze vinden cpu's presenteren waarvan het meeste al bekend is op CES dus belangrijker dan GPU's, terwijl consumenten, in ieder geval in de tech wereld, juist veel meer op de GPU's wachten en niet op de zoveelste 'AI laptop Sku' of wat nieuwe X3D Sku informatie die eigenlijk al bekend was.

@DaniëlWW2

Zit ook een stukje over FSR4 in, AMD weet nog niet of het exclusief gaat zijn of niet voor de RDNA4 kaarten, dit zou afhangen van de performance op andere kaarten aangaande de gebruikte ML instructies. Nog 'up in the air' dus of het ook naar oudere kaarten komt.

[ Voor 19% gewijzigd door Dennism op 07-01-2025 12:26 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op dinsdag 7 januari 2025 @ 12:20:
AMD lijkt RDNA4 in ieder geval niet voorop te hebben staan :+

Zit nu ff een update van HuB te bekijken, en AMD zou als verklaring hebben gehad dat omdat ze binnen een bepaalde tijd moeten blijven voor de keynote dat ze 'geen tijd' hadden voor RDNA4 om het goed te kunnen presenteren.

Ze vinden cpu's presenteren waarvan het meeste al bekend is op CES dus belangrijker dan GPU's, terwijl consumenten, in ieder geval in de tech wereld, juist veel meer op de GPU's wachten en niet op de zoveelste 'AI laptop Sku' of wat nieuwe X3D Sku informatie die eigenlijk al bekend was.
Hoe lang duurde de Nvidia keynote?

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
HugoBoss1985 schreef op dinsdag 7 januari 2025 @ 12:25:
[...]


Hoe lang duurde de Nvidia keynote?
Volgens youtube 90 minuten, maar ik het het niet bekeken :+

Tims uitleg van AMD hier, geeft aan dat AMD meedeelde dat ze een 45 min slot hadden voor hun CES presentatie. Mogelijk dat Nvidia dan 2 slots had? (Als je AMD's uitleg wil geloven :P )



Wat andere zaken:

FSR4 dus nog 'up in the air' of het exclusief is
Performance leaks tot nu toe online zouden 'onzin' zijn
Value zou een grote prioriteit zijn voor AMD
Verder zou het design 'efficient' zijn ditmaal, waarbij ze die size lijken te benadrukken ten opzichte van Intel en Nvidia (ten opzichte van Intel niet heel lastig denk ik, daar die size een nadeel lijkt van Battlemage tot nu toe, de chip is heel groot voor de performance die geleverd wordt), maar ze geloven dus ook dat ze ten opzichte van Nvida daar goed zitten en dus zeer concurrerend moeten zijn.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op dinsdag 7 januari 2025 @ 12:39:
[...]


Volgens youtube 90 minuten, maar ik het het niet bekeken :+

Tims uitleg van AMD hier, geeft aan dat AMD meedeelde dat ze een 45 min slot hadden voor hun CES presentatie. Mogelijk dat Nvidia dan 2 slots had? (Als je AMD's uitleg wil geloven :P )

[YouTube: "RDNA 4 Performance Leaks Are Wrong" - Asking AMD Questions at CES]

Wat andere zaken:

FSR4 dus nog 'up in the air' of het exclusief is
Performance leaks tot nu toe online zouden 'onzin' zijn
Value zou een grote prioriteit zijn voor AMD
Verder zou het design 'efficient' zijn ditmaal, waarbij ze die size lijken te benadrukken ten opzichte van Intel en Nvidia (ten opzichte van Intel niet heel lastig denk ik, daar die size een nadeel lijkt van Battlemage tot nu toe, de chip is heel groot voor de performance die geleverd wordt), maar ze geloven dus ook dat ze ten opzichte van Nvida daar goed zitten en dus zeer concurrerend moeten zijn.
Het was een strikvraag en volgens mij ben je geslaagd.
Ik heb het ook niet gekeken, mannen in leren jasjes vind ik niet boeiend genoeg.
Ik kijk liever naar vrouwen die grote videokaarten hanteren.
Zoals anderen zeggen... Als AMD 44 minuten van de 45 minder over AI had geluld dan wisten we nu meer over RDNA 4.

[ Voor 5% gewijzigd door HugoBoss1985 op 07-01-2025 12:43 ]


Acties:
  • 0 Henk 'm!

  • Tricolores
  • Registratie: Februari 2017
  • Laatst online: 13:30
Als value dan toch van zo een groot belang is, moeten ze maar met een goede prijszetting komen... Dat zal voor een groot stuk hun aanbod maken of kraken.

Ryzen 7 9800X3D - Gigabyte X870E AORUS ELITE WIFI7 - G.Skill Flare X5 F5-6000 (32GB) - Sapphire Nitro+ RX9070XT


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Tricolores schreef op dinsdag 7 januari 2025 @ 12:50:
Als value dan toch van zo een groot belang is, moeten ze maar met een goede prijszetting komen... Dat zal voor een groot stuk hun aanbod maken of kraken.
Graag is of het uitmaakt, Q1 roepen is vaak niet gunstig, want dat betekent vaak richting het einde (anders hadden ze ook wel 'late januari' of iets in die strekking kunnen roepen).

Straks heeft iedereen die 'op hete kolen' zit alweer een Nvidia GPU gekocht, voordat AMD's spul leverbaar is (tegen welke prijs dan ook, gunstig of niet).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op dinsdag 7 januari 2025 @ 12:20:
AMD lijkt RDNA4 in ieder geval niet voorop te hebben staan :+

Zit nu ff een update van HuB te bekijken, en AMD zou als verklaring hebben gehad dat omdat ze binnen een bepaalde tijd moeten blijven voor de keynote dat ze 'geen tijd' hadden voor RDNA4 om het goed te kunnen presenteren.

Ze vinden cpu's presenteren waarvan het meeste al bekend is op CES dus belangrijker dan GPU's, terwijl consumenten, in ieder geval in de tech wereld, juist veel meer op de GPU's wachten en niet op de zoveelste 'AI laptop Sku' of wat nieuwe X3D Sku informatie die eigenlijk al bekend was.
Gezien de ronduit miserabele presentaties zeker voor videokaarten, hadden ze ook het volgende kunnen doen:

Een of twee RDNA4 slides met:
-SKU namen
-Prijzen (niet bezopen graag waarna ze weer verlaagd moeten worden)
-Release
-FSR4

Gewoon het absoluut minimale, kunnen ze ook weinig verprutsen. :z
@DaniëlWW2

Zit ook een stukje over FSR4 in, AMD weet nog niet of het exclusief gaat zijn of niet voor de RDNA4 kaarten, dit zou afhangen van de performance op andere kaarten aangaande de gebruikte ML instructies. Nog 'up in the air' dus of het ook naar oudere kaarten komt.
En dat kunnen ze maar beter wel gaan doen voor RDNA3. }:|
Er zijn verschillen met RDNA4, dat lekte een jaar geleden al via LlVM updates. Bijvoorbeeld dat er nu ook FP8 ondersteuning gaat komen. Daar zit het verschil misschien. DLSS en XeSS werken voornamelijk met Integers, van wat ik begrepen heb, veelal INT8 in precisieniveau. FSR2/3 werkt voornamelijk met floating points en vaak FP16 in precisie. Maar dan kunnen die berekeningen alsnog uitgevoerd worden, maar met een hogere precisie. Dat is een verspilling van rekenkracht omdat je het dubbele aan cycles nodig gaat hebben en niks aan de extra precisie hebt, maar het zou moeten kunnen.
https://chipsandcheese.co...ds-rdna-4-changes-in-llvm

Zeer, zeer versimpeld betekent het ook dat FSR2/3 nu in de regel een hogere precisie per berekening heeft, maar ook veel minder berekeningen kunnen plaatsvinden. Dat houdt ze tegen. Want FSR2/3 kan heel goed zijn, als de implementatie echt goed geoptimaliseerd is door de game developers. Tja, wie optimaliseert tegenwoordig nog, laat staan voor FSR? Zoveel games zijn gewoon een puinzooi met TAA erin en de TAA is zo slecht dat je die wil vervangen voor DLSS, wat gebaseerd is op TAA en het iets minder slecht maakt. DLAA is daar wel het voorbeeld van. Dat is gewoon TAA, maar dan minder slecht. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
DaniëlWW2 schreef op dinsdag 7 januari 2025 @ 13:19:
[...]

Gezien de ronduit miserabele presentaties zeker voor videokaarten, hadden ze ook het volgende kunnen doen:

Een of twee RDNA4 slides met:
-SKU namen
-Prijzen (niet bezopen graag waarna ze weer verlaagd moeten worden)
-Release
-FSR4

Gewoon het absoluut minimale, kunnen ze ook weinig verprutsen. :z
Inderdaad veel meer is ook helemaal niet nodig, dat haalde TIm in het filmpje ook nog aan. Maar AMD gaf dus aan dat ze 'maar' 5 minuten tijd zouden hebben voor RDNA4 na alle andere 'belangrijke' zaken en dat ze dat dus te weinig vonden :+

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nVidia heeft met cuda/ai erg goed aangepakt en hebben nu de wind vol mee. Erg moeilijk voor AMD om mee te concurreren.

Om het wat van een positievere kan te bekijken:

AMD kan haar (R&D) geld maar een keer uitgeven. Gezien de dominantie van nvidia zowel in de consumenten en zakelijke markt alsmede het feit dat ze hierna blijkbaar met UDNA komen als unified architecture is het wellicht nog zo gek niet om nu op een kleinere chip in te zetten in het wat lagere segement. En niet te overspenden aan een verloren race in een markt die relatief onbelangrijker is.

Slim/verstandig geld alloceren en zoveel mogelijk geld binnen halen door betere marktsegmenten te prioritiseren vind ik een goed idee.

Hopelijk is dat een strategie die in de toekomst een terugkeer in de meer highend game markt toelaat.

nVidia (maar niet alleen nVidia) heeft een hoop streken uitgehaald waar ik geen fan van ben.

Echter, misschien vloeken in de kerk hier, maar ik kan iedereen die de historie van GPU's, business strategie en nvidia / de huidige situatie beter wil begrijpen zeker aanraden om het volgende recente zeer interessante boek te lezen: Tae Kim - The Nvidia Way - Jensen Huang and the Making of a Tech Giant

ps: Bij AMD moeten ze dat boek zeker lezen en misschien gratis aan hun werknemers geven.

[ Voor 3% gewijzigd door Help!!!! op 07-01-2025 15:59 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Het blijkt dat 'Gamers' het meeste uitkijken naar performance winsten in: 'Ray tracing', 'ML Ops' en 'ML Super resolution' :+ :P
Michael from TechPowerUp asked about the top priorities for RDNA4 were. David gave a top 3:

Improving performance in the areas that gamers care about most - ray tracing, ML Ops for FSR4 and ML Super Resolution

The architecture is designed for efficiency - not just performance per watt, but also manufacturing decisions, design decisions, all optimized to deliver the best value to the end user.

Go to market - driving transparency in terms of positioning, performance to the end user, and then pricing the product so that the Radeon brand delivers.
Wel een leuke read verder, transcript van was Tim samenvatte in het HuB filmpje, maar dan via Ian Cutress:

https://morethanmoore.sub...was-rdna4-at-amds-keynote

[ Voor 11% gewijzigd door Dennism op 07-01-2025 16:24 ]


Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:02

Nox

Noxiuz

DaniëlWW2 schreef op dinsdag 7 januari 2025 @ 10:45:
[...]


En je zou gek zijn als je dat niet doet. :P
De verwachting van Navi 48 (RX9070 series, oh wat haat ik die benaming nu al) is hooguit RX7900XTX prestaties met een lager TDP en betere RT. Iedereen met een Navi 31 GPU zou dit waarschijnlijk moeten overslaan. In de regel zie ik toch niet waarom je elke generatie een nieuwe videokaart zou moeten kopen. Persoonlijk kijk ik niet eens als ik niet echt 50% sneller kan krijgen, en met de prijzen tegenwoordig, heb ik liever nog veel meer.


ASUS lijkt ook te erkennen dat hun thermal paste bagger is. Ze gaan nu thermal pads gebruiken voor GPU contact. Daarnaast bevestigen ze ook dat de RX9070, ook 16GB aan VRAM krijgt.

https://videocardz.com/ne...gpus-confirms-16gb-memory
De 7900XT zou vergelijkbaar-ish moeten zijn maar heeft 20GB vram, dan is 16GB echt een downgrade.

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:02

Nox

Noxiuz

Tricolores schreef op dinsdag 7 januari 2025 @ 12:50:
Als value dan toch van zo een groot belang is, moeten ze maar met een goede prijszetting komen... Dat zal voor een groot stuk hun aanbod maken of kraken.
Nvidia beloofde 4090 performance voor 650 euro met de 5070. De 7900XTX is qua performance het max haalbare, die haalt geen 4090 performance, dus zal rond de 500-550 moeten komen ergens. Ik hoop het stiekem wel, want 500 euro-ish, is wel een beetje het maximum wat ik aan een videokaart wil uitgeven.

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Nox schreef op dinsdag 7 januari 2025 @ 22:47:
[...]

Nvidia beloofde 4090 performance voor 650 euro met de 5070. De 7900XTX is qua performance het max haalbare, die haalt geen 4090 performance, dus zal rond de 500-550 moeten komen ergens. Ik hoop het stiekem wel, want 500 euro-ish, is wel een beetje het maximum wat ik aan een videokaart wil uitgeven.
Hou er wel rekening mee dat die 5070 = 4090 met een aantal ** komt.
Het zal namelijk vermoedelijk alleen het geval zijn wanneer de 5070 de volledige DLSS4 suite kan benutten, en dan vooral MFG, terwijl de 4090 alleen FG heeft en dan mogelijk ook nog afhankelijk van resolutie en andere settings.

Ik zou zeker niet gaan verwachten dat een 5070 in niet DLSS4 games, of andere workloads die de cuda cores goed kan gebruiken ook ineens een 4090 gaat evenaren.

Er is dus zeker een kans dat een 5070 mogelijk kan concurreren met heel AMD's lineup in DLSS4 games, maar in non DLSS4 games het dan juist weer gaat verliezen.

[ Voor 8% gewijzigd door Dennism op 07-01-2025 23:12 ]


Acties:
  • 0 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 17-09 22:46
Nox schreef op dinsdag 7 januari 2025 @ 22:47:
[...]

Nvidia beloofde 4090 performance voor 650 euro met de 5070. De 7900XTX is qua performance het max haalbare, die haalt geen 4090 performance, dus zal rond de 500-550 moeten komen ergens. Ik hoop het stiekem wel, want 500 euro-ish, is wel een beetje het maximum wat ik aan een videokaart wil uitgeven.
Voor iemand met bvb 6700XT zou een 9070(XT) met 16GB voor zo'n prijs een héél mooi upgrade path zijn.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:14
meljor schreef op dinsdag 7 januari 2025 @ 08:56:
[...]


Pcm is het beste nieuws tot nu toe, hopelijk krijgt iedere Amd en Nvidia kaart dat voortaan. Met het huidige verbruik/temperaturen gewoon niet meer dan logisch. Maar kuddo's to Asus iig.

MSI ga ik niet missen, mogen van mij de gehele hardware markt verlaten maar denk dat ik daarin een van de weinige ben. Ik heb vooral op langere termijn de kwaliteit nooit top gevonden. Wellicht is het tegenwoordig veel beter maar ik waag me er niet meer aan.
Het is inderdaad goede zaak dat meer fabrikanten nou echt overstappen op PCM.
Maar imho verdient Asus geen applaus. Ze hebben veel te lang troep geleverd op dure GPU's van >€800, terwijl AMD zelf, XFX en Sapphire wel gewoon PCM pads gebruikten (N.B. heeft de budget pulse serie van Sapphire dat ook). Dat weet ASUS zelf ook en dan is het gewoon een kosten/baten afweging i.v.m. RMA's.

Een nieuwe ontwikkeling (nou ja nieuw, AMD zelf deed dat al met de referentie RDNA3 kaarten) zal een overstap zijn naar hoogwaardige putty i.p.v. thermal pads. Ik verwacht dat de komende 10 jaar daar een verschuiving in zal plaats vinden. Het wordt gelukkig dus wel allemaal beter :) .

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Navi 48 lijkt toch vrij groot te zijn: https://videocardz.com/ne...-exceed-nvidia-ad103-size

Groter dan verwacht denk ik als deze pixel teller berekening klopt.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op woensdag 8 januari 2025 @ 09:49:
Navi 48 lijkt toch vrij groot te zijn: https://videocardz.com/ne...-exceed-nvidia-ad103-size

Groter dan verwacht denk ik als deze pixel teller berekening klopt.
Wat gaat dat voor de prijs betekenen... een grote die betekend duurder om te maken.

@CMT

XFX en Sapphire maken volgens mij en naar mijn mening ook betere (kwaliteit) kaarten (dan Asus).
Toch wel jammer dat er in Europa "maar" 2 jaar garantie op zit.
XFX kwam met de 6000 series qua koeling (geluidsproductie) ook nog boven (beter dan) Asus uit.

In verhouding met Gigabyte is dat gek, daar kun je 4 jaar garantie krijgen na registratie.
Terwijl Gigabyte dus (tot nu bekend) niet mee gaat doen met de PCM innovatie, vaak slechte fans (lagers) gebruikt én hun koelpasta hard vaak (altijd) uit.
Maargoed wat is dan beter, pump-out koelpasta of koelpasta die uithard.
Bij Gigabyte komt die 4 jaar garantie dus nu nog, met de nieuwe kaarten, goed van pas als je temperatuur en/of hotspot issues hebt met 9000 series of rtx 5000 series.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
CMT schreef op woensdag 8 januari 2025 @ 09:00:
[...]

Het is inderdaad goede zaak dat meer fabrikanten nou echt overstappen op PCM.
Maar imho verdient Asus geen applaus. Ze hebben veel te lang troep geleverd op dure GPU's van >€800, terwijl AMD zelf, XFX en Sapphire wel gewoon PCM pads gebruikten (N.B. heeft de budget pulse serie van Sapphire dat ook). Dat weet ASUS zelf ook en dan is het gewoon een kosten/baten afweging i.v.m. RMA's.

Een nieuwe ontwikkeling (nou ja nieuw, AMD zelf deed dat al met de referentie RDNA3 kaarten) zal een overstap zijn naar hoogwaardige putty i.p.v. thermal pads. Ik verwacht dat de komende 10 jaar daar een verschuiving in zal plaats vinden. Het wordt gelukkig dus wel allemaal beter :) .
Mijn xfx 7900 xtx was niet voorzien hoor, die heb ik afgelopen zomer zelf gedaan omdat de hotspot richting max ging. Verder wel een top kaart en goed gebouwd. Heb hiernaast een tijd een 7900xt TUF gehad, zeer goede temperaturen en stiller koeler (deze trok uiteraard wel minder stroom dus minder warmte).

Maar ze moeten het gewoon standaard doen, idd veel minder RMA en wij ook van het gezeur af.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
meljor schreef op woensdag 8 januari 2025 @ 11:34:
[...]


Mijn xfx 7900 xtx was niet voorzien hoor, die heb ik afgelopen zomer zelf gedaan omdat de hotspot richting max ging. Verder wel een top kaart en goed gebouwd. Heb hiernaast een tijd een 7900xt TUF gehad, zeer goede temperaturen en stiller koeler (deze trok uiteraard wel minder stroom dus minder warmte).

Maar ze moeten het gewoon standaard doen, idd veel minder RMA en wij ook van het gezeur af.
offtopic:
Ik meen dat het pas vanaf de/sommige 7900 GRE kaarten zo was in het geval van XFX?

https://www.xfxforce.com/...on-rx-7900gre-magneticair
"Now currently standard on all Magnetic Air models, XFX uses Honeywell PTM7950 Phase Change TIM."

[ Voor 14% gewijzigd door HugoBoss1985 op 08-01-2025 11:39 ]


Acties:
  • +7 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
Nox schreef op dinsdag 7 januari 2025 @ 22:47:
[...]

Nvidia beloofde 4090 performance voor 650 euro met de 5070. De 7900XTX is qua performance het max haalbare, die haalt geen 4090 performance, dus zal rond de 500-550 moeten komen ergens. Ik hoop het stiekem wel, want 500 euro-ish, is wel een beetje het maximum wat ik aan een videokaart wil uitgeven.
Het betrof een belachelijke vergelijking van Nvidia, als de 5070 hetzelfde presteert in native settings als een 4070ti mag je blij zijn.
Alleen met grafische truukjes kan hij in de buurt komen van een 4090, maar wat is er dan over van de beeldkwaliteit en latency?

Een skateboard kan ook sneller dan een bromfiets.....downhill

Het is bizar hoeveel mensen het gelezen hebben en klakkeloos overnemen. De marketing van NV werkt uitstekend.

[ Voor 7% gewijzigd door meljor op 08-01-2025 11:41 ]


Acties:
  • +2 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 20:41

rapture

Zelfs daar netwerken?

Zonder die shrink moet het beetje groeien tegenover Navi 32 voor performancewinst.

390mm2 / 346mm2 = 1,13
Vermoedelijke 64 CU / 60 CU = 1,07

Ruimtebesparing door het weghalen van aansluitingen om met de andere chiplets te communiceren kan voor RT, ML of AI hardware ingezet worden.

RX 7900 XT performance is 84 CU * 2,4 GHz boost clock = 201,4

Om met 64 CU dezelfde performance te halen is boost clock 201,4 / 64 CU = 3,15 GHz nodig.

Als op de 7900 GRE (80 CU * 2,245 GHz = 179,6) gemikt wordt, dan is 179,6 / 64 CU = 2,8 GHz boost clock. Of 179,6 / 56 CU = 3,21 GHz.

390mm2 zit dicht bij 392mm2 van een RTX 3070 (499 dollar MSRP).

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
https://www.pcworld.com/a...re-strategy-and-more.html

"Q&A: AMD execs explain CES GPU snub, future strategy, and more"

[ Voor 24% gewijzigd door HugoBoss1985 op 08-01-2025 11:52 ]


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
napata schreef op vrijdag 27 december 2024 @ 17:03:
Voor Lumen heb je inderdaad geen hardware RT nodig maar dat is natuurlijk een gebrek. Het resultaat is dat je enorm lage kwaliteit van RT krijgt met enorm veel noise en ghosting door de lage update snelheid.
Dat is niet helemaal waar. De manier waarop Lumen RT toe past is veel subtieler dan de implementaties zoals in bijvoorbeeld Cyberpunk. Zoals gezegd valt het terug op baked lighting wanneer nodig en wordt het verder toegepast op grotere objecten door middel van compute shaders, wat in veel games probleemloos te doen is. Dat is ook hoe ze zelfs op de Xbox S RT gedaan krijgen; Fortnite bijvoorbeeld doet geen RT op gras op dat ding, dat zou hij niet trekken. Denoising zit er gewoon in en is kwalitatief behoorlijk, het is vooral de kwantiteit die veel lager is zonder RT accelerators.
Je ziet dat dan ook goed in games zoals Avatar en Outlaws waar er ook een software fallback voor de RT is, die dezelfde resultaten levert als de hardware versie, maar dan tegen 20-40% lagere prestaties.
Die draaien wel allebei op Snowdrop, een engine die van zichzelf al wat efficiëntie problemen heeft ;)
Lumen heeft een impact op de CPU maar om te zeggen dat het puur op de CPU draait is onzin. In de games waar je het uit kan zetten is de impact op GPU prestaties enorm. Ik zou dus niet zeggen dat het zo schaalbaar is. Althans zo lijkt het toch niet in de games die het gebruiken. Eerder alles of niets.
Puur op de CPU in de zin dat de CPU de compute shaders als parallelisatie van de hit berekeningen gebruikt en vervolgens pixel shaders uitvoert, in tegenstelling tot versnelde RT waar de hit berekeningen rechtstreeks van de accelerators naar pixel shaders gaat. Het gaat vooral om minder blocks/syncs bij versnelling. Er is niet meer load op de GPU, er is minder roundtrip tijd.

Dit is een grote misopvatting omtrent CPU en GPU "load". 99+% GPU load betekent niet dat de GPU voor 99% in gebruik is; het betekent dat de GPU 99% van de tijd dát er werk is, hij ook aan het werk ís (in plaats van wachten op data uit cache/VRAM, aka stalls). Load is een indicatie van tijd consumptie, niet hardware consumptie. Een 4090 ligt voor de helft stil, zelfs op "100%" load; anders zou hij van z'n leven niet onder de 500W blijven ;)

RT (en graphics in z'n algemeen) is veel CPU afhankelijker dan velen denken. Onze GPU's zijn eigenlijk vrij domme rekenmachines die meer zelf moeten kunnen doen voordat we RT écht op fatsoenlijke snelheid kunnen laten draaien. En ik moet nog zien of Blackwell daar iets aan verbetert, ik betwijfel het. Zelfde geldt voor RDNA 4. Dat is waarom we de laatste jaren lang niet zo veel verbetering zien als je de specificaties op papier doen vermoeden; compute is makkelijk op te schalen, zolang je de data maar beschikbaar hebt. Maar juist dat is met RT behoorlijk vloeibaar.

Acties:
  • +5 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Offtopic:

Fyi, in vervolg op Putty/PCM discussie, Igor's Lab heeft naast zijn Thermal Paste database nu ook de Thermal Putty database online gezet.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
rapture schreef op woensdag 8 januari 2025 @ 11:45:


390mm2 zit dicht bij 392mm2 van een RTX 3070 (499 dollar MSRP).
Klopt, maar in hoeverre kan je zo'n 10nm class Samsung node als N8, die Nvidia volgens de geruchten zeer goedkoop kon inkopen vanwege het volume nog vergelijken heden ten dage.

Een wat meer recente vergelijking (op een vergelijkbare node) is dat deze die, als het klopt, groter is dan AD103 (379mm2), of te wel de chip die 4070Ti tot 4080 Super zit met MSRP's van $799 (4070Ti) tot $1199 (4080).

Ik vraag me af of AMD, als dit klopt, ten opzichte van de 5070 nog wel de kleinere die heeft, want vermoed niet dat de GB205 https://www.techpowerup.com/gpu-specs/nvidia-gb205.g1074 een grotere die gaat zijn dan de AD103 was. Daar je straks in een situatie kan gaan komen dat voor 'de markt' de 9070XT 'DoA' kan zijn als deze niet voor $449 of minder op de markt komt gezien het mindshare van Nvidia. Iets dat AMD met deze diesize mogelijk niet verwacht zou hebben bij release. Want 'echte' frames of niet, je wil natuurlijk niet als AMD zijnde dat je straks in DLSS4 games het gaat verliezen in de reviews van een 'mini' chipje als je zelf met een redelijk grote chip de arena in stapt.

Edit: Nog even rondgesnuffeld, GB203 (RTX 5070Ti / RTX 5080 ) is volgens TPU 377mm2: https://www.techpowerup.com/gpu-specs/nvidia-gb203.g1073

En zou dus kleiner zijn dan de AMD GPU, mits die 390mm2 klopt. Dat gaat wel pijnlijk zijn als Nvidia $999 kan vragen voor iets waar AMD mogelijk op zijn best iets van $499 (als ze voor Nvidia -$50 gaan), maar mogelijk zelfs minder voor kan vragen als ze echt serieus zijn met hun marketshare wensen, of RDNA moet echt een performance konijn uit de hoge hoed toveren en echt een stuk beter zijn dan nu vermoed wordt.

[ Voor 26% gewijzigd door Dennism op 08-01-2025 12:48 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Help!!!! schreef op woensdag 8 januari 2025 @ 12:11:
Offtopic:

Fyi, in vervolg op Putty/PCM discussie, Igor's Lab heeft naast zijn Thermal Paste database nu ook de Thermal Putty database online gezet.
Ik vind dit niet bepaald offtopic :P
Dank voor deze link.

Het is mij niet duidelijk (ik snap niet) wat die "usability" kleuren nou betekenen?
Thermal Grizzly TG Putty Pro staat 2de maar is toch "geel".

[ Voor 3% gewijzigd door HugoBoss1985 op 08-01-2025 12:29 ]


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Bij Putty: Kleuren geven aan hoe makkelijk het te gebruiken is.

Groen is relatief makkelijk en rood is lastig(er).

[ Voor 4% gewijzigd door Help!!!! op 08-01-2025 12:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:14
HugoBoss1985 schreef op woensdag 8 januari 2025 @ 11:20:
[...]


Wat gaat dat voor de prijs betekenen... een grote die betekend duurder om te maken.

@CMT

XFX en Sapphire maken volgens mij en naar mijn mening ook betere (kwaliteit) kaarten (dan Asus).
Toch wel jammer dat er in Europa "maar" 2 jaar garantie op zit.
XFX kwam met de 6000 series qua koeling (geluidsproductie) ook nog boven (beter dan) Asus uit.

In verhouding met Gigabyte is dat gek, daar kun je 4 jaar garantie krijgen na registratie.
Terwijl Gigabyte dus (tot nu bekend) niet mee gaat doen met de PCM innovatie, vaak slechte fans (lagers) gebruikt én hun koelpasta hard vaak (altijd) uit.
Maargoed wat is dan beter, pump-out koelpasta of koelpasta die uithard.
Bij Gigabyte komt die 4 jaar garantie dus nu nog, met de nieuwe kaarten, goed van pas als je temperatuur en/of hotspot issues hebt met 9000 series of rtx 5000 series.
Ja inderdaad, hoewel ik de kwaliteit van Sapphire niet uitzonderlijk vind. Het is gewoon goed en prima (zoals het hoort). De AMD referentiekaarten waren imho van hogere bouwkwaliteit (afgezien van de QC problemen met RDNA3).

De nieuwe Asus RX8700, nee wacht RX9700, shit weer fout RTX9070, poe zeg RX9070 Prime van Asus vind ik best mooi. Eindelijk een AIB kaart zonder dat gamer-kitsch.

Het is ook best raar dat er maar slechts 2 jaar fabrieksgarantie wordt gegeven op zo'n kostbaar product.
Gelukkig maakt het in de praktijk niet veel uit, want hardware defecten komen meestal wel vroeg aan het licht en paste & thermal pads vervangen is nog zelf te doen.

Met fabrieksgarantie doen ze soms ook ongelooflijk moeilijk. Dus of je er iets aan hebt in de praktijk..
Ik heb bijvoorbeeld recent geprobeerd aanspraak te maken van de fabriekgarantie van een Samsung 860evo 4TB ssd. Na een heel onderzoeksproces met veel screenshots en foto's sturen, werd mij verteld dat het inderdaad een garantiegeval is, maar omdat er een 2mm stukje van de sata-connector afgebroken/afgeschilferd was (hoekje van het L-vormige lipje) werd het geweigerd.
Ik heb Samsung toen zelfs aangeboden om een filmpje te maken om te bewijzen dat het geen invloed heeft op de werking..nee hoor.
meljor schreef op woensdag 8 januari 2025 @ 11:34:
[...]


Mijn xfx 7900 xtx was niet voorzien hoor, die heb ik afgelopen zomer zelf gedaan omdat de hotspot richting max ging. Verder wel een top kaart en goed gebouwd. Heb hiernaast een tijd een 7900xt TUF gehad, zeer goede temperaturen en stiller koeler (deze trok uiteraard wel minder stroom dus minder warmte).

Maar ze moeten het gewoon standaard doen, idd veel minder RMA en wij ook van het gezeur af.
Wat vreemd. Om welke versie gaat het? Misschien dat het ze het bij de Core niet doen?
De XFX 7900XTX merc oc & magnetic-air hebben namelijk beiden duidelijk een PCM.

Afbeeldingslocatie: https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-merc-310-oc/images/heatpipes.jpg
Afbeeldingslocatie: https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-magnetic-air/images/heatpipes.jpg

[ Voor 10% gewijzigd door CMT op 08-01-2025 12:52 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
CMT schreef op woensdag 8 januari 2025 @ 12:44:
[...]

Ja inderdaad, hoewel ik de kwaliteit van Sapphire niet uitzonderlijk vind. Het is gewoon goed en prima (zoals het hoort). De AMD referentiekaarten waren imho van hogere bouwkwaliteit (afgezien van de QC problemen met RDNA3).

De nieuwe Asus RX8700, nee wacht RX9700, shit weer fout RTX9070, poe zeg RX9070 Prime van Asus vind ik best mooi. Eindelijk een AIB kaart zonder dat gamer-kitsch.

Het is ook best raar dat er maar slechts 2 jaar fabrieksgarantie wordt gegeven op zo'n kostbaar product.
Gelukkig maakt het in de praktijk niet veel uit, want hardware defecten komen meestal wel vroeg aan het licht en paste & thermal pads vervangen is nog zelf te doen.

Met fabrieksgarantie doen ze soms ook ongelooflijk moeilijk. Dus of je er iets aan hebt in de praktijk..
Ik heb bijvoorbeeld recent geprobeerd aanspraak te maken van de fabriekgarantie van een Samsung 860evo 4TB ssd. Na een heel onderzoeksproces met veel screenshots en foto's sturen, werd mij verteld dat het inderdaad een garantiegeval is, maar omdat er een 2mm stukje van de sata-connector afgebroken/afgeschilferd was (hoekje van het L-vormige lipje) werd het geweigerd.
Ik heb Samsung toen zelfs aangeboden om een filmpje te maken om te bewijzen dat het geen invloed heeft op de werking..nee hoor.


[...]

Wat vreemd. Om welke versie gaat het? Misschien dat het ze het bij de Core niet doen?
De XFX 7900XTX merc oc & magnetic-air hebben namelijk beiden duidelijk een PCM.

[Afbeelding]
[Afbeelding]
Ik heb de merc.... Wel eentje van direct bij launch.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
CMT schreef op woensdag 8 januari 2025 @ 12:44:
[...]

Ja inderdaad, hoewel ik de kwaliteit van Sapphire niet uitzonderlijk vind. Het is gewoon goed en prima (zoals het hoort). De AMD referentiekaarten waren imho van hogere bouwkwaliteit (afgezien van de QC problemen met RDNA3).

De nieuwe Asus RX8700, nee wacht RX9700, shit weer fout RTX9070, poe zeg RX9070 Prime van Asus vind ik best mooi. Eindelijk een AIB kaart zonder dat gamer-kitsch.

Het is ook best raar dat er maar slechts 2 jaar fabrieksgarantie wordt gegeven op zo'n kostbaar product.
Gelukkig maakt het in de praktijk niet veel uit, want hardware defecten komen meestal wel vroeg aan het licht en paste & thermal pads vervangen is nog zelf te doen.

Met fabrieksgarantie doen ze soms ook ongelooflijk moeilijk. Dus of je er iets aan hebt in de praktijk..
Ik heb bijvoorbeeld recent geprobeerd aanspraak te maken van de fabriekgarantie van een Samsung 860evo 4TB ssd. Na een heel onderzoeksproces met veel screenshots en foto's sturen, werd mij verteld dat het inderdaad een garantiegeval is, maar omdat er een 2mm stukje van de sata-connector afgebroken/afgeschilferd was (hoekje van het L-vormige lipje) werd het geweigerd.
Ik heb Samsung toen zelfs aangeboden om een filmpje te maken om te bewijzen dat het geen invloed heeft op de werking..nee hoor.


[...]

Wat vreemd. Om welke versie gaat het? Misschien dat het ze het bij de Core niet doen?
De XFX 7900XTX merc oc & magnetic-air hebben namelijk beiden duidelijk een PCM.

[Afbeelding]
[Afbeelding]
Onderstaande is voor een deel offtopic.

Hehehe die naamgeving inderdaad :+
Nouja in de USA is het wat XFX betreft wél 3 jaar meen ik.

Jouw voorbeeld is de reden dat ik geen Samsung tv's en/of monitoren meer koop :)

Ik snap de verwarring/onduidelijkheid van @meljor wél.
Als je mij dit soort foto's liet zien en er niet bij zou zeggen het het om PCM gaat zou ik dit ook niet direct weten.
Ik kan nu wel deduceren dat het wél het geval is want er is heel weinig materiaal te zien en er zit ook heel weinig materiaal langs de randen.
Oftewel hier is een hele dunne en uniforme laag aangebracht.
Maargoed ik heb nog nooit een kaart mét pcm erop gedemonteerd zelf (wel toegepast).

@meljor Temperatuur en/of hotspots issues kan natuurlijk altijd nog.
Ik heb nog steeds een 20 graden delta op mijn 6800XT na PCM applicatie.
@CMT en ik hebben allebei een bolle GPU die op een kaart dus dan is de warmte overdracht nooit optimaal.

[ Voor 4% gewijzigd door HugoBoss1985 op 08-01-2025 14:31 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
https://videocardz.com/ne...-rx-9070-xt-graphics-card

Oh nee dat onding op een AMD Radeon 9000 kaart...
Gelukkig kijk ik nooit naar Asrock kaarten.
Asrock had dit, meen ik, ook al toegepast op server/workstation 7900 kaarten.

In het groene kamp kan men nu sowieso gaan upgraden naar een ATX 3.1 voeding (of een nieuwe kabel voor een ATX 3.0 voeding?).
Ik had al een ATX 3.0 voeding, zo blijf je wel aan de gang bij Nvidia (goed voor de kabel en psu verkopers).

[ Voor 46% gewijzigd door HugoBoss1985 op 08-01-2025 14:33 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Of gewoon de kabel van je ATX 3.0 voeding in je GPU duwen, gezien ze compatible zijn? Dit is wel echt spijkers op laagwater zoeken. En zelfs als je wel naar Asrock kaarten keek hoefde je niet deze ene specifieke te kopen.

En gaat het om een RTX5070 zou ik ook nul problemen hebben met het verloopstukje te gebruiken wat waarschijnlijk gewoon in de doos erbij komt. Bij een RTX5090 zou ik dat niet doen nee.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Sissors schreef op woensdag 8 januari 2025 @ 14:39:
Of gewoon de kabel van je ATX 3.0 voeding in je GPU duwen, gezien ze compatible zijn? Dit is wel echt spijkers op laagwater zoeken. En zelfs als je wel naar Asrock kaarten keek hoefde je niet deze ene specifieke te kopen.

En gaat het om een RTX5070 zou ik ook nul problemen hebben met het verloopstukje te gebruiken wat waarschijnlijk gewoon in de doos erbij komt. Bij een RTX5090 zou ik dat niet doen nee.
Spijkers op laag water zoeken terwijl de 4090 connectoren doorfikken door/met een "oude (ATX 3.0 PCI-E 5.0)" connector.
Maargoed je zegt het zelf al erbij w.b.t. de 5090.

Als Nvidia/de PSU makers/de kabel (adapter: Cablemod) makers het gelijk goed hadden gedaan had dit een hoop ellende en geld bespaard bij een hoop mensen.
Sommigen kunnen hierdoor naar garantie op hun doorgefikte 4090 fluiten!
En nu wordt een ATX 3.1 standaard door je strot geduwd, in ieder geval als je een 5090 gaat gebruiken.
En kan je wéér een nieuwe voeding kopen (geen financiële uitdaging voor mensen die een 5090 kopen).
Of je koopt alleen een nieuwe adapter/kabel met het risico dat garantie wederom geweigerd wordt want "u had geen ATX 3.1 / PCI-E 5.1 voeding dus pech gehad".

Pas stond er op V&A nog een doorgefikte 4090, garantie geweigerd want niét de meegeleverde adapter gebruikt.

Dat noem ik allemaal niet bepaald spijkers op laag water zoeken.
Afijn voor alles onder een 4090/5090 valt het wellicht (!) mee!

Bij mij komt er geen ene kaart met die connector in een pc en gelukkig hoef ik inderdaad niet persé een 7000 of 9000 series kaart met die connector te kopen.

@CMT De Asus Proart kaarten vind ik ook heel strak.

[ Voor 44% gewijzigd door HugoBoss1985 op 08-01-2025 15:02 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Tja en ik blijf erbij ook al fikken die connectoren om de haverklap door, toch apart dat ik volgens mij op GoT nog nooit ook maar één iemand heb gezien met een doorgefikte 12VHPWR connector. En het zal vast een keer gebeurd zijn bij een Tweaker hoor, maar gezien de populariteit van Nvidia kaarten is het toch vreemd dat je niet meer posts ziet van doorgefikte connectoren.

En ik ben het ermee eens dat de connector oorspronkelijk beter ontworpen had moeten worden. Al laten we nou niet net doel alsof de 6+2 connector nou zo'n briljant idee is geweest. En nee, er wordt geen 3.1 voeding door je strot geduwd, ze zijn volledig compatible. En anders koop je dus hooguit een andere kabel voor bij je voeding. Waarbij nogmaals, eens dat die kabel bij de eerste versie er al had moeten zijn, maar buiten de 5090 om zou ik me er iig niet druk over maken, en als je die koopt, dan zal een nieuwe kabel bij je bestaande voeding nou niet het grootste probleem zijn.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ga er vanuit dat een verloop kabel gewoon meegeleverd wordt met de 5090. Was bij de 4090 ook zo.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Format-C schreef op woensdag 8 januari 2025 @ 15:04:
Ga er vanuit dat een verloop kabel gewoon meegeleverd wordt met de 5090. Was bij de 4090 ook zo.
Ga ik ook vanuit.
Was met de overgang van Molex naar PCI-E ook zo.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
HugoBoss1985 schreef op woensdag 8 januari 2025 @ 14:23:
[...]


Onderstaande is voor een deel offtopic.

Hehehe die naamgeving inderdaad :+
Nouja in de USA is het wat XFX betreft wél 3 jaar meen ik.

Jouw voorbeeld is de reden dat ik geen Samsung tv's en/of monitoren meer koop :)


@meljor Temperatuur en/of hotspots issues kan natuurlijk altijd nog.
Ik heb nog steeds een 20 graden delta op mijn 6800XT na PCM applicatie.
@CMT en ik hebben allebei een bolle GPU die op een kaart dus dan is de warmte overdracht nooit optimaal.
Bij mij was het toch echt alleen pasta.
Hot spot delta van 15-20 graden is normaal, heb ik nu ook nog en had ik ook nog steeds ongeveer. Maar max hotspot is nu 80-85 graden stabiel onder zware belasting bij warm weer. Hij ging naar 105-106 terwijl throttling bij 110 graden kan optreden. Dus vandaar vervangen.

Ik hou alle opties t/m 5090 open dus mijn rm1000x is al onderweg:)

[ Voor 3% gewijzigd door meljor op 08-01-2025 15:10 ]


Acties:
  • 0 Henk 'm!

  • Derr_Hans
  • Registratie: December 2001
  • Niet online
Nox schreef op dinsdag 7 januari 2025 @ 22:47:
[...]

Nvidia beloofde 4090 performance voor 650 euro met de 5070. De 7900XTX is qua performance het max haalbare, die haalt geen 4090 performance, dus zal rond de 500-550 moeten komen ergens. Ik hoop het stiekem wel, want 500 euro-ish, is wel een beetje het maximum wat ik aan een videokaart wil uitgeven.
Nvidia verkoopt de 5070 op hun website voor €654,-
5070Ti €889,-
5080 €1190,-
5090 €2369,-

https://www.nvidia.com/nl...graphics-cards/50-series/ helemaal naarbeneden scrollen.

Als de 9070XT tussen de 5070Ti en non Ti gaat zitten dan wacht ik wellicht nog een jaartje om mijn 6800XT te vervangen. Ik speel 4K op 55"TV en wat ik speel haal ik voldoende FPS (60 tot 100 afhankelijk van game) met FSR Quality settings en een paar settings lager dan high.

WoW: Doutz @ Defias brotherhood


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31


Deze ook even bekeken, maar zou het nu AIB Top model overkill zijn dat we 3x PCIE Power connectors zien op 2 van de Powercolor kaarten, of zal het TBP ook nog eens flink hoger uit gaan vallen dan voorheen verwacht bij de 9070XT kaarten.

Immers heb je dat pas nodig bij een power draw van 375W+

[ Voor 7% gewijzigd door Dennism op 08-01-2025 17:30 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op woensdag 8 januari 2025 @ 17:24:
[YouTube: CES 2025: PowerColor RX 9070 XT Cards EXPOSED]

Deze ook even bekeken, maar zou het nu AIB Top model overkill zijn dat we 3x PCIE Power connectors zien op 2 van de Powercolor kaarten, of zal het TDP ook nog eens flink hoger uit gaan vallen dan voorheen verwacht bij de 9070XT kaarten.

Immers heb je dat pas nodig bij een power draw van 375W+
Die Red Devil is een mooi ding zeg, poe poe.
Lekker groot ook! Goed voor het ego/compenseren.
Die zou ik serieus wel overwegen (niet om iets te compenseren).

Leo is grappig, as usual :P "Invisible cards".

NDA loopt af op 23 januari?

https://videocardz.com/ne...dly-start-on-january-23rd

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-09 19:34

SG

SG surft naar info hardewaren

Immers heb je dat pas nodig bij een power draw van 375W+
nou nee er zal marge bovenop OC marge dus 300 a 325Watt ivm OC' en van game G-kaarten.
Dus als stock 330 trekt heb je instappers met 2 stekker en custom Oc modellen met 3 stekkers.

kwa 3.0 3.1 ATX voeding. Als je nu nog geen 1KW over marge hebt voor stock 4090.
zul je voor die 5090 ook weer een dikke voeding moeten halen bij die 5090.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Als dat zo is snap ik er echt weinig meer van. Tijdens de presentatie konden ze nog niets zeggen over RDNA4, te weinig tijd, dit en dat. Alles lijkt een beetje op paniek voetbal, maar dan wel voor Nvidia de pre-orders starten (en ik neem aan dat ze dan ook voor die tijd de presentatie houden?). Waarom dan in hemelsnaam dat vreemde gedrag op / rond CES.

Acties:
  • 0 Henk 'm!

  • Tricolores
  • Registratie: Februari 2017
  • Laatst online: 13:30
YouTube: Radeon RX 9070 Gaming Benchmark at CES Analysis

Klinkt als te goed om waar te zijn.

Ryzen 7 9800X3D - Gigabyte X870E AORUS ELITE WIFI7 - G.Skill Flare X5 F5-6000 (32GB) - Sapphire Nitro+ RX9070XT


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 20:28

Mars Warrior

Earth, the final frontier

Maar wel de speculatie dat de game mogelijk niet opnieuw is gestart na wijzigen van de settings. Oftewel de fps is veels te hoog voor die 4k/extreme setting.

Aan de andere kant gaf AMD ook eerder aan dat de performance cijfers absoluut niet kloppen die eerder zijn ‘gelekt’.

Dus wie weet is de vergelijking op hun slide enkel op prijspunt, en niet op performance.

Het wordt nog maanden wachten voordat we het zeker weten, toch?

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
De performance slides van Amd bij Rdna3 vielen nogal verkeerd en ook de beweringen bij Zen5 vielen vies tegen.

Misschien hebben ze ervan geleerd en zeggen ze nu bijna niks meer en laten de reviews spreken?

Acties:
  • +1 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:02

Nox

Noxiuz

meljor schreef op woensdag 8 januari 2025 @ 11:40:
[...]


Het betrof een belachelijke vergelijking van Nvidia, als de 5070 hetzelfde presteert in native settings als een 4070ti mag je blij zijn.
Alleen met grafische truukjes kan hij in de buurt komen van een 4090, maar wat is er dan over van de beeldkwaliteit en latency?

Een skateboard kan ook sneller dan een bromfiets.....downhill

Het is bizar hoeveel mensen het gelezen hebben en klakkeloos overnemen. De marketing van NV werkt uitstekend.
Oh het is hier wel eerst zien dan geloven. Soms komen dit soort dingen in de buurt van wat er beloofd is. Benchmarks en reviews tellen, niks meer niks minder. Maar het is eigenlijk de vraag of ik een XT, non-XT of 7900XT koop :+ een nvidia kaart zal ik niet snel kopen, ga liever naar intel.

[ Voor 3% gewijzigd door Nox op 08-01-2025 20:34 ]

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 19:59
Nox schreef op woensdag 8 januari 2025 @ 20:34:
[...]

Oh het is hier wel eerst zien dan geloven. Soms komen dit soort dingen in de buurt van wat er beloofd is. Benchmarks en reviews tellen, niks meer niks minder. Maar het is eigenlijk de vraag of ik een XT, non-XT of 7900XT koop :+ een nvidia kaart zal ik niet snel kopen, ga liever naar intel.
Ik wil over 3 a 4 maanden de 6800XT ook wel upgraden en wil eigenlijk minimaal naar het niveau van een 7900XTX om toch wel een merkbare sprong te maken. Ik heb altijd AMD kaarten gehad en af en toe knaagt het toch wel eens qua feature set bij het groene kamp (betere en/decoder, cuda) maar de prijs gaat, zoals gewoonlijk, weer een hele grote rol spelen.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AMD is al jaren extreem goed in CoD games. Dit zal dus eerder een best scenario betekenen.


Maar als die chip 390mm2 is en ergens tegen de RX7900XTX gaat presteren (uitgaande van 3GHz+ clocks en latency voordelen omdat de chip monolitisch is) met betere RT en FSR4, nou dat zou niet goed zijn. Dat is rond het formaat van AD103, dus RTX4070 tot en met RTX4080S. Zeg dat die tegen de RX7900XTX en RTX4080 gaat zitten. Tja dat is vergelijkbaar qua formaat met de RTX4080 op dezelfde node, maar de RTX4080 is de vorige generatie...

Nu geloof ik echt helemaal niks van Nvidia hun claims. Als ik zo kijk naar de specificaties, tja ik denk dat het 20 a 30% sneller gaat zijn. Er lijken nauwelijks verbeteringen in clock speed geclaimd te worden. Ik zie geen grote architecturale veranderingen. Geen nieuwe node. Het lijkt vooral herconfiguratie en GDDR7 te zijn voor extra geheugenbrandbreedte. Dat Nvidia nota bene een lager MSRP opgeeft voor de RTX5070, RTX5070Ti en RTX5080, zegt ook wat.

Als ik ze vergelijk qua ruwe specs dan krijg ik:
SKU vs. SKU shaders/GB/s
RTX4070/RTX5070 4%/33%
RTX4070Ti Super/RTX5070Ti 6%/33%
RTX4080 Super/RTX5080 5%/30%

Ik pak de Supers omdat met name de originele RTX4070Ti, die eerst de RTX4080 12GB was, gewoon miserabel is. En de RTX4080S liet zien hoe groot de geheugenbeperking is. Met de RTX5070 vergelijk ik wel met de RTX4070, want de RTX4070S zou die er echt dom uit kunnen laten zien. De RTX4070S heeft namelijk 17% meer shaders en heeft 75% van de GB/s van de RTX5070. Maar met dit lagere aantal shaders, lijkt GB/s minder uit te maken.

Want daar zal Blackwell het van moeten hebben, sneller geheugen. Het is telkens maar een paar procent shaders en rond de 30% geheugenbrandbreedte. Dus ik denk 20 a 30% sneller.

Ik zie de RTX5070Ti zo rond de RTX4080 uitkomen, misschien net iets meer. RTX5070 eerder rond de RTX4070Ti en de RTX5080 rond de RTX4090.


En dat is waarom ik denk dat AMD er weer een zooitje van aan het maken is. Want ik vermoed dat AMD op het laatste moment pas doorkreeg dat Nvidia "maar" $750 ging vragen voor de RTX5070Ti en "maar" $550 voor de RTX5070. Ik denk dat ze best tegen de RX7900XTX kunnen zitten en met FSR4 en betere RT, wel dachten dat ze $700 ofzo konden vragen. Nu hebben ze denk ik de presentatie op het laatste moment teruggetrokken zodat ze niet alweer een lame duck lanceren die ze later in prijs moeten verlagen. Als dat echt het geval is, tja dat zou reden 5027 zijn waarom die prutsers bij Radeon die de boel daar managen, eruit gegooid zouden moeten worden. Natuurlijk gaat Nvidia je geen cadeautjes geven. Kom op zeg. Je moet ervoor gaan en meteen en hard ook. :N

Want ik zie de RX9070XT hooguit de RTX5070Ti benaderen. De RX9070 kan zomaar de RTX5070 gaan verslaan tussen AMD hun vrij historische voorkeur voor relatief kleine cut down en omdat die ook 16GB aan VRAM lijkt te hebben, dus ook fors meer GB/s. Maar dan moet AMD er alsnog minder dan $500 voor gaan vragen. Gaan ze dat doen? Tja, misschien moeten ze nu wel. Zeker als de prestaties alsnog tegenvallen. Financieel gezien kan AMD dit allemaal makkelijk aan. Radeon is geen core business, zeker de gaming tak. Maar tenzij ze al besloten hebben dat aankomende generatie gewoon financieel gedekt gaat worden door Epyc en ze voor marktaandeel gaan, denk ik dat het miserabel gaat worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Nog wat meer info en pics van de Powercolor kaarten.

https://www.techpowerup.c...t-red-devil-and-hellhound

In het artikel staan in ieder geval twee fouten w.b.t. de Red Devil:
3 Pci-e connectoren en de pcb lengte is dus wel degelijk 2/3 en niet 80% van de kaart.
Zie de afbeeldingen in de comments.

@DaniëlWW2 Ik hoop ook niet dat we weer Vega achtige kaarten gaan krijgen.
Dan doel ik op stroomverbruik (en prestatie verhouding).
Als ik de die grootte zie, 2 a 3 pci-e 8 pins connectoren en dan 5070ti prestaties dan ben ik er bang voor.
Ik zou het dan ook geen vooruitgang over de 6000 en 7000 series noemen maar dat lijkt mij dan toch wel echt heel sterk.
Tenzij AMD volop op RT is gegaan en de kaarten daar echt een stuk sneller in zijn?

Waarom komt AMD nou niet gewoon met wat meer cijfertjes en info :X 8)7

Als het klopt wat jij denkt, hoe gaat AMD het dan compenseren/regelen met de board partners?
Krijgen we er dan dadelijk weer 3 games bij ofzo?

Ik heb een jaar de TUF 7900 XT OC gehad, met 3 connectoren, met undervolt een geweldige kaart maar daar kan je wel los mee gaan richting de 400 watt als je wilt :P
Ik vond het niet nodig om zo ver te gaan met de kaart en in de zomer was dat zeker geen pretje.

Ik heb in die tijd van Vega een Vega 56 gehad en die lustte wel wat prik.
Pas kort een GTX 1070 gehad en dat was toen (achteraf gezien) naar mijn mening toch echt wel de betere kaart.

[ Voor 80% gewijzigd door HugoBoss1985 op 08-01-2025 21:34 ]


Acties:
  • 0 Henk 'm!

  • dooder39
  • Registratie: Augustus 2013
  • Laatst online: 14-09 20:55
Lijkt er op dat ik weer voor een AMD videokaart ga, tenzij de van de 9070XT prijs te dicht op de RTX5070 zit of dat Intel toch op het laatste moment met iets beters komt.

*Zucht* waarom is de PC onderdelen markt zo :+ :r 7(8)7 :X

Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:02

Nox

Noxiuz

winwiz schreef op woensdag 8 januari 2025 @ 20:54:
[...]


Ik wil over 3 a 4 maanden de 6800XT ook wel upgraden en wil eigenlijk minimaal naar het niveau van een 7900XTX om toch wel een merkbare sprong te maken. Ik heb altijd AMD kaarten gehad en af en toe knaagt het toch wel eens qua feature set bij het groene kamp (betere en/decoder, cuda) maar de prijs gaat, zoals gewoonlijk, weer een hele grote rol spelen.
Ik kocht vaak 'de een na beste' kaart van ATi dus de pro ipv XT variant. Alleen als je dat nu bij het groene kamp zou doen ben je 1500 euro voor een gpu verder, dat slaat nergens op. Bij AMD idem dito,

Voor mijn RX5700 gaat een 9070 (xt) sowieso wel een flinke sprong worden denk ik.

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:02

Nox

Noxiuz

HugoBoss1985 schreef op woensdag 8 januari 2025 @ 21:17:
Nog wat meer info en pics van de Powercolor kaarten.

https://www.techpowerup.c...t-red-devil-and-hellhound

In het artikel staan in ieder geval twee fouten w.b.t. de Red Devil:
3 Pci-e connectoren en de pcb lengte is dus wel degelijk 2/3 en niet 80% van de kaart.
Zie de afbeeldingen in de comments.

@DaniëlWW2 Ik hoop ook niet dat we weer Vega achtige kaarten gaan krijgen.
Dan doel ik op stroomverbruik (en prestatie verhouding).
Als ik de die grootte zie, 2 a 3 pci-e 8 pins connectoren en dan 5070ti prestaties dan ben ik er bang voor.
Ik zou het dan ook geen vooruitgang over de 6000 en 7000 series noemen maar dat lijkt mij dan toch wel echt heel sterk.
Tenzij AMD volop op RT is gegaan en de kaarten daar echt een stuk sneller in zijn?

Waarom komt AMD nou niet gewoon met wat meer cijfertjes en info :X 8)7

Als het klopt wat jij denkt, hoe gaat AMD het dan compenseren/regelen met de board partners?
Krijgen we er dan dadelijk weer 3 games bij ofzo?

Ik heb een jaar de TUF 7900 XT OC gehad, met 3 connectoren, met undervolt een geweldige kaart maar daar kan je wel los mee gaan richting de 400 watt als je wilt :P
Ik vond het niet nodig om zo ver te gaan met de kaart en in de zomer was dat zeker geen pretje.

Ik heb in die tijd van Vega een Vega 56 gehad en die lustte wel wat prik.
Pas kort een GTX 1070 gehad en dat was toen (achteraf gezien) naar mijn mening toch echt wel de betere kaart.
De hele dikke kaart is denk gewoon voor OC'en bedoeld, de overige kaarten minder. De kleinste is met amd stock clocks en heeft gewoon 2x8pin (de middelste overigens ook).

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
dooder39 schreef op woensdag 8 januari 2025 @ 23:39:
Lijkt er op dat ik weer voor een AMD videokaart ga, tenzij de van de 9070XT prijs te dicht op de RTX5070 zit of dat Intel toch op het laatste moment met iets beters komt.

*Zucht* waarom is de PC onderdelen markt zo :+ :r 7(8)7 :X
In dit segment/met dit soort bedragen is een 16gb amd 9070 kaart een beter plan dan een 5070 met maar 12gb.

Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 20:36
DaniëlWW2 schreef op woensdag 8 januari 2025 @ 21:15:
[...]
Want ik zie de RX9070XT hooguit de RTX5070Ti benaderen. De RX9070 kan zomaar de RTX5070 gaan verslaan tussen AMD hun vrij historische voorkeur voor relatief kleine cut down en omdat die ook 16GB aan VRAM lijkt te hebben, dus ook fors meer GB/s. Maar dan moet AMD er alsnog minder dan $500 voor gaan vragen. Gaan ze dat doen? Tja, misschien moeten ze nu wel. Zeker als de prestaties alsnog tegenvallen. Financieel gezien kan AMD dit allemaal makkelijk aan. Radeon is geen core business, zeker de gaming tak. Maar tenzij ze al besloten hebben dat aankomende generatie gewoon financieel gedekt gaat worden door Epyc en ze voor marktaandeel gaan, denk ik dat het miserabel gaat worden.
Allemaal mooie buts and ifs. Het ding is dat we weten wanneer die nVidia kaarten uit gaan komen en we weten niks van AMD. Iedereen die nu van plan is een kaart te kopen en het gerucht heeft gehoord dat AMD niet meedoet in het hogere segment koopt eind deze maand een 5080 i.p.v. een 9080XT omdat die laatste er niet zal zijn. En de rest die in de markt is voor een 5070, 5070 TI of die 9070XT hebben een maand maar neigen nu al naar het groene kamp omdat het rode kamp verzaakt heeft ook maar iets te geven.

Je hebt gelijk dat dit weer lijkt op old school AMD gpu division. Lijken volledig hun eigen glazen in te gooien en vervolgens in hun eigen voet te schieten.

Acties:
  • +2 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 12:34

MazeWing

The plot thickens...

HugoBoss1985 schreef op woensdag 8 januari 2025 @ 21:17:
Waarom komt AMD nou niet gewoon met wat meer cijfertjes en info :X 8)7
Als je product werkelijk heel goed is dan schreeuw je het van de daken en ben je juist scheutig met het delen van informatie. Kijkend naar hoe de presentatie ging en de "informatie" die ze deelden lijkt het er eerder op dat het een enorme crisis/puinhoop is en ze eerst willen zien wat nvidia precies op tafel heeft voordat ze meer informatie gaan delen.

Over het algemeen zie je dit soort gedrag wanneer men niet zeker is van hun eigen product.

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
MazeWing schreef op donderdag 9 januari 2025 @ 08:38:
[...]


Als je product werkelijk heel goed is dan schreeuw je het van de daken en ben je juist scheutig met het delen van informatie. Kijkend naar hoe de presentatie ging en de "informatie" die ze deelden lijkt het er eerder op dat het een enorme crisis/puinhoop is en ze eerst willen zien wat nvidia precies op tafel heeft voordat ze meer informatie gaan delen.

Over het algemeen zie je dit soort gedrag wanneer men niet zeker is van hun eigen product.
Oftewel het wordt een Vega achtige release.

@JeroenNietDoen Over wat men gaat doen ben ik het wel een beetje met je eens qua verwachting.
Echt handig is het allemaal niet.
Maar als het een redelijk product met redelijke prijs oplevert vind ik het prima.
Wellicht slaat AMD wel de plank mis en lopen ze nu verkoop mis hierdoor.

Ik ben zelf behoorlijk geduldig en ik ga mooi even wachten totdat er meer bekend is/beschikbaar is.
En dus misschien totdat de 5070ti er is (niet dat ik die ga kopen).
Als een 9070 XT toch interessant blijkt qua prestaties, prijs en stroomverbruik dan hak ik wellicht de knoop door.
Ik ben toch huiverige voor een side-grade van een 16gb (6800 XT) kaart naar weer een 16gb kaart (w.b.t. vram dan).

Het is hier offtopic maar een 5080 16gb kopen in 2025 vind ik echt geen verstandige zet.
Ik zeg het al vaker maar als men dan toch nog een 16gb kaart koopt dan zou ik daar echt een minimum aan uitgeven.
Dus een 5060ti 16gb, hooguit 5070ti 16gb of 9070 (non-XT) 16gb.
Alhoewel ik ook benieuwd ben naar een 9070 XT voor mezelf maar een 5070ti wordt dus waarschijnlijk (?) een stuk duurder en een 5080 16gb al helemaal.
Voor mensen die op 1440p spelen is het wellicht een ander verhaal maar ik blijf erbij dat ik de 5080 16gb een typische Nvidia onzin kaart vind.
Een 5070 12gb is ook zoiets maar wellichts niet iets meer dan de helft van de prijs van een 5080 (zo lijkt die 5070 nog aantrekkelijk terwijl er echt te weinig vram op zit)

"Mensen met de 5080 naar de 5090 pushen" vind ik ook zo'n onzin statement want die 5090 is fors (bijna 2x ?) duurder dan een 5080, on another level.

Meanwhile een 7600XT 16gb en B580 12gb voor 275-350 Euro's (even om vram hoeveelheid en prijs in perspectief te zetten).

Voor Nvidia en de kopers van Nvidia allemaal (te weinig vram kopen) geen ramp want een 3080 10gb ging bij release en daarna als warme broodjes volgens mij.

Al met al en alles bij elkaar denk ik/vind ik deze generatie tot nu toe tegenvallen maar van AMD weten we weinig.
Bij Nvidia is het weer te weinig vram en bij AMD dus in feite ook.
Het is eerder wachten op refreshes nu.
En de nieuwe console generatie komt er ook nog aan, dat zal een nieuwe standaard gaan zetten.

[ Voor 69% gewijzigd door HugoBoss1985 op 09-01-2025 09:29 ]


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 20:36
HugoBoss1985 schreef op donderdag 9 januari 2025 @ 09:10:
Het is hier offtopic maar een 5080 16gb kopen in 2025 vind ik echt geen verstandige zet.
Ik zeg het al vaker maar als men dan toch nog een 16gb kaart koopt dan zou ik daar echt een minimum aan uitgeven.
De denkfout die je hier maakt is dat de meeste mensen kopen met een budget en zelden kijken naar vram. Wat past er in mijn budget? Een 5080? Dan is dat de best mogelijke GPU die ik kan krijgen voor mijn budget.

Daarnaast is 16GB prima voor die mensen.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
JeroenNietDoen schreef op donderdag 9 januari 2025 @ 09:31:
[...]

De denkfout die je hier maakt is dat de meeste mensen kopen met een budget en zelden kijken naar vram. Wat past er in mijn budget? Een 5080? Dan is dat de best mogelijke GPU die ik kan krijgen voor mijn budget.

Daarnaast is 16GB prima voor die mensen.
Als je het zo bekijkt.
Dat die mensen waarschijnlijk niet naar vram kijken dat denk ik dan ook niet.
Dat deden 3060ti, 3070 (ti) en 3080 (10gb) kopers denk ik ook niet (misschien zijn ze nu wakker geworden door die kaarten).

Ondertussen heb ik nog helemaal nergens last van met een 6800 XT 16gb (2022... Nvidia zet in 2025 dezelfde hoeveelheid op een 5080!).
Natuurlijk heb ik wel upscaling nodig en ook nog wat framegen voor bijvoorbeeld UE5 games op 4k maar ik kom geen vram tekort!

Je het kan ook zo zien dat je eigenlijk meer geld uitgeeft door in eerste instantie je blind te starten op een budget, op korte termijn te denken en niet naar vram te kijken.
Want met gebrek aan vram ga je dus weer eerder upgraden en opnieuw geld uitgeven (oh shit man, UE5 en Indiana Jones lopen met 8-10gb zwaar tegen limieten aan).
Ik hou er natuurlijk rekening mee dat een gebruikte kaart verkopen ook weer wat oplevert.
Maar welke persoon gaat er nu nog een flink bedrag voor een 3080 10gb neerleggen...

Ik zie het zelf anders gezien de (verwachte) prestaties van de 5080 en dat je er nu al mee tegen vram limieten aanloopt.
Flink budget dan als het meer dan €1000 is (afijn: boven mijn budget van 500 - 700 Euro's).
Voor een 1000 - 1200 Euro verwacht ik een 20-24gb om zonder vram issues op 4k te gamen.

Hou er ook rekening mee dat een 5080 16gb waarschijnlijk/naar verwachting op 4090 (24gb!) niveau gaat presteren exclusief een volle vram buffer.
Een 4k kaart voor gamen met alle toeters en bellen aan.

Afijn ik denk er dus zelf anders over dan de mensen die jij bedoeld, denk ik :P

[ Voor 21% gewijzigd door HugoBoss1985 op 09-01-2025 09:53 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

FSR4 lijkt zo op het eerste gezicht in ieder geval een stuk beter te zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
https://videocardz.com/ne...-and-4070-ti-in-speed-way

9070 XT:

Timespy leaks, wat temperaturen e.d. erbij.
TDP verhoogt.

Met beta/non-release drivers?

[ Voor 5% gewijzigd door HugoBoss1985 op 09-01-2025 10:01 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
HugoBoss1985 schreef op donderdag 9 januari 2025 @ 09:10:


Het is hier offtopic maar een 5080 16gb kopen in 2025 vind ik echt geen verstandige zet.
Ik zeg het al vaker maar als men dan toch nog een 16gb kaart koopt dan zou ik daar echt een minimum aan uitgeven.
Ik ben wel benieuwd in hoeverre 16Gb een issue gaat zijn en of men niet wat te hard van stapel loopt. De consoles gaan nog wel een paar jaar mee, dus daar zie ik niet direct ontwikkelingen die meer zullen vereisen. 8GB is nu soms een issue, ik vermoed eigenlijk voordat 16GB echt een issue wordt in algemene zin, dat niet veel enthousiasts deze RDNA4/Blackwell kaarten nog in hun systeem gaan hebben.

Daarnaast is er simpelweg ook niet veel keuze. AMD lijkt te maximaliseren op 16GB, Nvidia ook voor de echte gaming kaarten, en hebben alleen de 5090 met meer dan 16Gb. Wil je bij AMD meer dan 16GB zit je vast aan de RDNA3 top Sku's van de vorige generatie, en bij Nvidia is het enige oudere alternatief de RTX 4090.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
DaniëlWW2 schreef op donderdag 9 januari 2025 @ 09:44:
FSR4 lijkt zo op het eerste gezicht in ieder geval een stuk beter te zijn.
[YouTube: Hands-On With AMD FSR 4 - It Looks... Great?]
Zag hem ook langskomen inderdaad, goede verschillen.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
HugoBoss1985 schreef op donderdag 9 januari 2025 @ 10:00:
https://videocardz.com/ne...-and-4070-ti-in-speed-way

9070 XT:

Timespy leaks, wat temperaturen e.d. erbij.
TDP verhoogt.

Met beta/non-release drivers?
grappige leak weer inderdaad, ziet er daar, op het flink hoger dan verwachte TDP na, niet verkeerd uit.
Maar als de 9070XT straks uiteindelijk toch een relatief goede kaart blijkt, ga ik me wel echt afvragen waarom AMD dan weer heel des AMD's mee bezig was. Want als dit je prestaties zijn had je helemaal niet direct in paniek lijken te hoeven te raken. Dan had je misschien niet de prijs kunnen vragen die je wilde, omdat Nvidia agressiever lijkt dan verwacht en ja, het blijft dan zuur dat als de die sizes kloppen volgens de geruchten dat Nvidia's 5080 die kleiner is dan jouw die nu waarschijnlijk voor <$500 de verkoop in moet. Maar echt tegenvallend zijn deze prestaties toch ook niet, als ze kloppen. Alleen het verbruik is dan hoger dan verwacht, maar dat zal de gemiddelde enthousiast ook niet tegenhouden zolang prijs en performance maar op orde is en dat heeft AMD zelf in de hand.

Ik begin steeds benieuwder te raken naar de RX 9070(XT) reviews om te zien wat daar nu echt aan de hand is, want de leaks en ook de analyses zijn echt weer 'all over the place'.

[ Voor 6% gewijzigd door Dennism op 09-01-2025 10:36 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Dennism schreef op donderdag 9 januari 2025 @ 10:32:
[...]


grappige leak weer inderdaad, ziet er daar, op het flink hoger dan verwachte TDP na, niet verkeerd uit.
Maar als de 9070XT straks uiteindelijk toch een relatief goede kaart blijkt, ga ik me wel echt afvragen waarom AMD dan weer heel des AMD's mee bezig was. Want als dit je prestaties zijn had je helemaal niet direct in paniek lijken te hoeven te raken. Dan had je misschien niet de prijs kunnen vragen die je wilde, omdat Nvidia agressiever lijkt dan verwacht en ja, het blijft dan zuur dat als de die sizes kloppen volgens de geruchten dat Nvidia's 5080 die kleiner is dan jouw die nu waarschijnlijk voor <$500 de verkoop in moet. Maar echt tegenvallend zijn deze prestaties toch ook niet, als ze kloppen. Alleen het verbruik is dan hoger dan verwacht, maar dat zal de gemiddelde enthousiast ook niet tegenhouden zolang prijs en performance maar op orde is en dat heeft AMD zelf in de hand.
Denk dat AMD de kloksnelheden en tdp pas heeft vastgesteld nadat nvidia zn 5000 serie specs en prijzen bekend heeft gemaakt. En dat dat de reden is.


Edit: als die 9070XT niet al te duur wordt kan het best een leuk kaartje worden voor heel veel gamers!

[ Voor 3% gewijzigd door Format-C op 09-01-2025 10:39 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Format-C schreef op donderdag 9 januari 2025 @ 10:37:
[...]

Denk dat AMD de kloksnelheden en tdp pas heeft vastgesteld nadat nvidia zn 5000 serie specs en prijzen bekend heeft gemaakt. En dat dat de reden is.
Dat zou inderdaad enigszins kunnen, al vermoed ik niet dat ze de specs daar pas vastgesteld hebben. Maar ik houd de optie wel open dat ze mogelijk enkele eerder vastgestelde waardes aangepast hebben / aan het aanpassen zijn naar aanleiding van info omtrent Nvidia's presentatie. Al is het de vraag hoeveel speelruimte je dan hebt, immers een TDP naar beneden aanpassen is makkelijk wanneer de kaarten er al zijn (zie ook de 4000 serie van Nvidia, waar de koelers bemeten lijken te zijn voor veel hogere TDP's dan waarmee ze shipten), echter een TDP omhoog gooien zo laat is vaak lastiger, omdat je ook modellen zal hebben waarbij de koeling niet veel overhead zal hebben omdat het 'goedkoop' moet.

Normaliter staan dat soort zaken immers wel enige tijd van te voren vast (en de kaarten zijn er al, dus ook de koelers zijn af gefabriceerd en zonder TDP lukt dat normaliter niet), en is het alleen pricing dat pas vlak voor de presentatie vastgesteld wordt en AMD zou eerder presenteren dan NVidia.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op donderdag 9 januari 2025 @ 10:32:
[...]


grappige leak weer inderdaad, ziet er daar, op het flink hoger dan verwachte TDP na, niet verkeerd uit.
Maar als de 9070XT straks uiteindelijk toch een relatief goede kaart blijkt, ga ik me wel echt afvragen waarom AMD dan weer heel des AMD's mee bezig was. Want als dit je prestaties zijn had je helemaal niet direct in paniek lijken te hoeven te raken. Dan had je misschien niet de prijs kunnen vragen die je wilde, omdat Nvidia agressiever lijkt dan verwacht en ja, het blijft dan zuur dat als de die sizes kloppen volgens de geruchten dat Nvidia's 5080 die kleiner is dan jouw die nu waarschijnlijk voor <$500 de verkoop in moet. Maar echt tegenvallend zijn deze prestaties toch ook niet, als ze kloppen. Alleen het verbruik is dan hoger dan verwacht, maar dat zal de gemiddelde enthousiast ook niet tegenhouden zolang prijs en performance maar op orde is en dat heeft AMD zelf in de hand.

Ik begin steeds benieuwder te raken naar de RX 9070(XT) reviews om te zien wat daar nu echt aan de hand is, want de leaks en ook de analyses zijn echt weer 'all over the place'.
8gb... soms een issue :P ;)

Schijnbaar gaat het om een Asus kaart, als dat een aangepast pcb is en een OC versie o.i.d. dan kan dat het ook (voor een deel) verklaren wellicht.
En/of de power limit kan aangepast zijn in software (niet zeker uiteraard).

Ik vind het op zich nog wel meevallen voor het hele board, zeker als het een kaart is met inderdaad een overklok en een 3 pci-e connectoren.

Dat zou dan betekenen dat de kaarten nog niet in de verpakking zaten?
Dan wordt eind van deze maand wel krap, lijkt mij.

[ Voor 9% gewijzigd door HugoBoss1985 op 09-01-2025 10:50 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op donderdag 9 januari 2025 @ 10:06:
[...]


Ik ben wel benieuwd in hoeverre 16Gb een issue gaat zijn en of men niet wat te hard van stapel loopt. De consoles gaan nog wel een paar jaar mee, dus daar zie ik niet direct ontwikkelingen die meer zullen vereisen. 8GB is nu soms een issue, ik vermoed eigenlijk voordat 16GB echt een issue wordt in algemene zin, dat niet veel enthousiasts deze RDNA4/Blackwell kaarten nog in hun systeem gaan hebben.

Daarnaast is er simpelweg ook niet veel keuze. AMD lijkt te maximaliseren op 16GB, Nvidia ook voor de echte gaming kaarten, en hebben alleen de 5090 met meer dan 16Gb. Wil je bij AMD meer dan 16GB zit je vast aan de RDNA3 top Sku's van de vorige generatie, en bij Nvidia is het enige oudere alternatief de RTX 4090.
Het verbaasd mij dat AMD geen 24GB heeft gedaan voor de hoogste versie. Niet omdat ik direct geloof dat het veel voordeel biedt, maar met alle klachten over Nvidia VRAM, heb je dan wel een makkelijk verkoop argument erbij. Al gaat natuurlijk wel dan een groter gedeelte van je inkomsten naar de VRAM fabrikanten.
HugoBoss1985 schreef op donderdag 9 januari 2025 @ 10:00:
https://videocardz.com/ne...-and-4070-ti-in-speed-way

9070 XT:

Timespy leaks, wat temperaturen e.d. erbij.
TDP verhoogt.

Met beta/non-release drivers?
Ik had gehoopt erop dat met voor het eerste in redelijke tijd een AMD kaart die volgens de leaks en claims geweldig zou zijn en al het andere uit het water zou blazen, om dan toch tegen te vallen, we nu het omgekeerde kregen: Weinig extreem hoge verwachtingen, maar misschien een kaart die wel erg interessant is. Dus wie weet krijgen we dat nog.

Tegelijk met de eerste post van die leaker, dat alles veranderd is, dat als je wil overstappen dat je zo snel mogelijk moet verkopen want niks is meer hetzelfde? Tja ik ga een strooiwagen opzoeken om te kijken of die nog een kuubje zout over heeft. Want ik geloof er geen drol van dat in het geheim je ineens een kaart hebt die zo gigantisch veel beter presteert dat het zelfs de tweedehands markt op zijn kop zou zetten.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op donderdag 9 januari 2025 @ 10:46:
[...]


Dat zou inderdaad enigszins kunnen, al vermoed ik niet dat ze de specs daar pas vastgesteld hebben. Maar ik houd de optie wel open dat ze mogelijk enkele eerder vastgestelde waardes aangepast hebben / aan het aanpassen zijn naar aanleiding van info omtrent Nvidia's presentatie. Al is het de vraag hoeveel speelruimte je dan hebt, immers een TDP naar beneden aanpassen is makkelijk wanneer de kaarten er al zijn (zie ook de 4000 serie van Nvidia, waar de koelers bemeten lijken te zijn voor veel hogere TDP's dan waarmee ze shipten), echter een TDP omhoog gooien zo laat is vaak lastiger, omdat je ook modellen zal hebben waarbij de koeling niet veel overhead zal hebben omdat het 'goedkoop' moet.

Normaliter staan dat soort zaken immers wel enige tijd van te voren vast (en de kaarten zijn er al, dus ook de koelers zijn af gefabriceerd en zonder TDP lukt dat normaliter niet), en is het alleen pricing dat pas vlak voor de presentatie vastgesteld wordt en AMD zou eerder presenteren dan NVidia.
En omdat die dingen al redelijk op hun optimale TDP (en nog wat hoger dan dat) gepland zijn. Het kost AMD bijna niks om TDP omhoog te schroeven, en het levert wel betere prestaties op. Dus zolang dat ook maar enige zin heeft, doen ze dat.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Sissors schreef op donderdag 9 januari 2025 @ 10:50:
[...]

Het verbaasd mij dat AMD geen 24GB heeft gedaan voor de hoogste versie. Niet omdat ik direct geloof dat het veel voordeel biedt, maar met alle klachten over Nvidia VRAM, heb je dan wel een makkelijk verkoop argument erbij. Al gaat natuurlijk wel dan een groter gedeelte van je inkomsten naar de VRAM fabrikanten.


[...]

Ik had gehoopt erop dat met voor het eerste in redelijke tijd een AMD kaart die volgens de leaks en claims geweldig zou zijn en al het andere uit het water zou blazen, om dan toch tegen te vallen, we nu het omgekeerde kregen: Weinig extreem hoge verwachtingen, maar misschien een kaart die wel erg interessant is. Dus wie weet krijgen we dat nog.

Tegelijk met de eerste post van die leaker, dat alles veranderd is, dat als je wil overstappen dat je zo snel mogelijk moet verkopen want niks is meer hetzelfde? Tja ik ga een strooiwagen opzoeken om te kijken of die nog een kuubje zout over heeft. Want ik geloof er geen drol van dat in het geheim je ineens een kaart hebt die zo gigantisch veel beter presteert dat het zelfs de tweedehands markt op zijn kop zou zetten.
Ik vond die claim/statement ook een beetje overtrokken.

Als we het toch over zout en strooien hebben (ook toepasselijk met het weer buiten)... ook deze leak kan je nog met een flinke korrel zout nemen want er is niets zeker/helemaal duidelijk.

Met verkopen van de vorige kaart heb ik helemaal geen zorgen want de oude 6800XT gaat mooi in mijn 1440p keyboard + mouse pc.
Als ik die toch hou deze generatie komt daar wel iets van een Intel B580 in.

[ Voor 7% gewijzigd door HugoBoss1985 op 09-01-2025 10:56 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Sissors schreef op donderdag 9 januari 2025 @ 10:50:
[...]

Het verbaasd mij dat AMD geen 24GB heeft gedaan voor de hoogste versie. Niet omdat ik direct geloof dat het veel voordeel biedt, maar met alle klachten over Nvidia VRAM, heb je dan wel een makkelijk verkoop argument erbij. Al gaat natuurlijk wel dan een groter gedeelte van je inkomsten naar de VRAM fabrikanten.
Dat zal denk ik simpelweg in het design liggen. Volgens mij kom je met een 256bit bus met GDDR6 nooit op 24GB omdat er geen 3GB modules zijn. Dan zit je of aan 16GB of aan 32GB Clamshell. En een op de 'mid range' georiënteerde die vanaf de grond ontwikkelen met een grotere bus zie ik ook niet direct gebeuren eigenlijk, volgens mij is dat qua silicon veel te duur voor dat segment.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op donderdag 9 januari 2025 @ 10:53:
[...]


Dat zal denk ik simpelweg in het design liggen. Volgens mij kom je met een 256bit bus met GDDR6 nooit op 24GB omdat er geen 3GB modules zijn. Dan zit je of aan 16GB of aan 32GB Clamshell. En een op de 'mid range' georiënteerde die vanaf de grond ontwikkelen met een grotere bus zie ik ook niet direct gebeuren eigenlijk, volgens mij is dat qua silicon veel te duur voor dat segment.
Ik zag die "clamshell" term gisteren ook voorbij komen.
Kun jij uitleggen wat dat nou precies betekend (of is het een andere term voor iets simpels)?

Het is al een dure die.
@Sissors
AMD wil ook haar eigen 7900XT en XTX niet volledig onverkoopbaar maken, vram is juist hét argument voor die kaartjes na een RDNA 4 met 16gb.

[ Voor 12% gewijzigd door HugoBoss1985 op 09-01-2025 10:58 ]


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op donderdag 9 januari 2025 @ 10:53:
[...]


Dat zal denk ik simpelweg in het design liggen. Volgens mij kom je met een 256bit bus met GDDR6 nooit op 24GB omdat er geen 3GB modules zijn. Dan zit je of aan 16GB of aan 32GB Clamshell. En een op de 'mid range' georiënteerde die vanaf de grond ontwikkelen met een grotere bus zie ik ook niet direct gebeuren eigenlijk, volgens mij is dat qua silicon veel te duur voor dat segment.
Ja bedacht ik ook, dan moeten ze wel beginnne met een grotere memory bus. Of een kleinere en dan dubbele geheugen modules.

@HugoBoss1985, elke bit van memory bus is dan niet verbonden met één, maar met twee geheugen modules. En je schakelt welke van de twee je op een moment gebruikt. Dus dubbel het geheugen op dezelfde bus breedte, niet meer bandbreedte.

[ Voor 16% gewijzigd door Sissors op 09-01-2025 10:59 ]


Acties:
  • +3 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 19:59
AMD releases zijn altijd weer grappig. Of men is vooraf helemaal hyper... Dit gaat hem worden en dan wordt het flink getemperd bij de release of men vindt het vooraf al helemaal niets gaan worden en is men bij de release toch wel blij verrast.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
HugoBoss1985 schreef op donderdag 9 januari 2025 @ 10:55:

Ik zag die "clamshell" term gisteren ook voorbij komen.
Kun jij uitleggen wat dat nou precies betekend (of is het een andere term voor iets simpels)?
Dat is wanneer je 2 geheugen chips koppelt op dezelfde bus, normaal kun je op een 256 bit bus 8 geheugen chips 'aansluiten', voor bijvoorbeeld 8 of 16GB geheugen afhankelijk van de grootte.

Bij een clamshell config sluit je dan 2 chips aan per 32bits gedeelte van de bus, waardoor je de hoeveelheid geheugen kan verdubbelen (maar de bandbreedte niet).

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op donderdag 9 januari 2025 @ 11:02:
[...]


Dat is wanneer je 2 geheugen chips koppelt op dezelfde bus, normaal kun je op een 256 bit bus 8 geheugen chips 'aansluiten', voor bijvoorbeeld 8 of 16GB geheugen afhankelijk van de grootte.

Bij een clamshell config sluit je dan 2 chips aan per 32bits gedeelte van de bus, waardoor je de hoeveelheid geheugen kan verdubbelen (maar de bandbreedte niet).
@Sissors

Merci.

Zeg ik het dan kort door de bocht zo goed:

Meer VRAM buffer met een clamshell maar dezelfde prestaties (bahalve dan als de vram buffer vol raakt van de "mindere" kaart)?
Of levert zo'n config nog een latency op?

Acties:
  • +2 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 20:41

rapture

Zelfs daar netwerken?

HugoBoss1985 schreef op donderdag 9 januari 2025 @ 09:39:
[...]


Als je het zo bekijkt.
Dat die mensen waarschijnlijk niet naar vram kijken dat denk ik dan ook niet.
Dat deden 3060ti, 3070 (ti) en 3080 (10gb) kopers denk ik ook niet (misschien zijn ze nu wakker geworden door die kaarten).

Ondertussen heb ik nog helemaal nergens last van met een 6800 XT 16gb (2022... Nvidia zet in 2025 dezelfde hoeveelheid op een 5080!).
Natuurlijk heb ik wel upscaling nodig en ook nog wat framegen voor bijvoorbeeld UE5 games op 4k maar ik kom geen vram tekort!

Je het kan ook zo zien dat je eigenlijk meer geld uitgeeft door in eerste instantie je blind te starten op een budget, op korte termijn te denken en niet naar vram te kijken.
Want met gebrek aan vram ga je dus weer eerder upgraden en opnieuw geld uitgeven (oh shit man, UE5 en Indiana Jones lopen met 8-10gb zwaar tegen limieten aan).
Ik hou er natuurlijk rekening mee dat een gebruikte kaart verkopen ook weer wat oplevert.
Maar welke persoon gaat er nu nog een flink bedrag voor een 3080 10gb neerleggen...

Ik zie het zelf anders gezien de (verwachte) prestaties van de 5080 en dat je er nu al mee tegen vram limieten aanloopt.
Flink budget dan als het meer dan €1000 is (afijn: boven mijn budget van 500 - 700 Euro's).
Voor een 1000 - 1200 Euro verwacht ik een 20-24gb om zonder vram issues op 4k te gamen.

Hou er ook rekening mee dat een 5080 16gb waarschijnlijk/naar verwachting op 4090 (24gb!) niveau gaat presteren exclusief een volle vram buffer.
Een 4k kaart voor gamen met alle toeters en bellen aan.

Afijn ik denk er dus zelf anders over dan de mensen die jij bedoeld, denk ik :P
Voor 2023 was het overschrijden van 8GB VRAM geen factor en 8GB VRAM kon je al in 2017 op een RX 580 voor 229 dollar MSRP krijgen.

Negende generatie gameconsoles werden in 2020 uitgebracht en de game developers zagen 16GB unified geheugen als "We kunnen de lat van minimumvereisten van de zwakste gaming PC op 12, 13, 14,... GB VRAM in gebruik leggen.". 3 jaren later was de plaag van bijna alle releases gaan over 8GB VRAM goed begonnen.

Nu is 16GB VRAM de nieuwe 8GB. PS5 Pro is een mid life update van de huidige gameconsole generatie en in 3 á 4 jaren wordt de volgende generatie gameconsole met grensverleggende hoeveelheid geheugen uitgebracht. Tegen dat de game developers ook grensverleggende VRAM vereisten naar PC gaming brengen, zitten we al in 2030.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
HugoBoss1985 schreef op donderdag 9 januari 2025 @ 11:04:
[...]


@Sissors

Merci.

Zeg ik het dan kort door de bocht zo goed:

Meer VRAM buffer met een clamshell maar dezelfde prestaties (bahalve dan als de vram buffer vol raakt van de "mindere" kaart)?
Of levert zo'n config nog een latency op?
Ik kan me voorstellen dat er iets van een latency impact is, maar exact weten doe ik het niet. Je zou eens kunnen kijken naar de 4060Ti en 4060Ti 16GB, die laatste heeft een clamshell config en de overige specificaties zijn volgens mij gelijk op het TBP na, wat volgens mij een paar wat hoger ligt voor de clamshell versie omdat er meer geheugen chips zijn en dus iets meer verbruik.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
rapture schreef op donderdag 9 januari 2025 @ 11:04:
[...]

Voor 2023 was het overschrijden van 8GB VRAM geen factor en 8GB VRAM kon je al in 2017 op een RX 580 voor 229 dollar MSRP krijgen.

Negende generatie gameconsoles werden in 2020 uitgebracht en de game developers zagen 16GB unified geheugen als "We kunnen de lat van minimumvereisten van de zwakste gaming PC op 12, 13, 14,... GB VRAM in gebruik leggen.". 3 jaren later was de plaag van bijna alle releases gaan over 8GB VRAM goed begonnen.

Nu is 16GB VRAM de nieuwe 8GB. PS5 Pro is een mid life update van de huidige gameconsole generatie en in 3 á 4 jaren wordt de volgende generatie gameconsole met grensverleggende hoeveelheid geheugen uitgebracht. Tegen dat de game developers ook grensverleggende VRAM vereisten naar PC gaming brengen, zitten we al in 2030.
Goede uitleg en deducering m.b.t. de PS5 Pro.
Dan denk n.a.v. dit "tot 2030 zitten we goed met 16gb vram"

Maar... we hebben nu al een game als Indiana Jones (the monkey in the wrench).
Wat prima draait op 16gb vram als je (wat) concessies wilt doen.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dennism schreef op donderdag 9 januari 2025 @ 10:32:
[...]


grappige leak weer inderdaad, ziet er daar, op het flink hoger dan verwachte TDP na, niet verkeerd uit.
Is het hoger dan verwacht? Er waren vorige maand al geruchten over 330W:
Radeon RX 9070 XT will have a TBP (Total Board Power) of around 260W, while custom models may go as high as 330W. This represents a visible gap of 70W (approximately 27%) between AMD’s design and what board partners are working on.
Dat verklaart ook waarom sommige modellen drie PEG8 connectoren hebben, en andere maar twee.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
XWB schreef op donderdag 9 januari 2025 @ 11:16:
[...]


Is het hoger dan verwacht? Er waren vorige maand al geruchten over 330W:


[...]


Dat verklaart ook waarom sommige modellen drie PEG8 connectoren hebben, en andere maar twee.
Die heb ik dan gemist denk ik, alle geruchten die ik gezien heb gingen uit van de eerder genoemde +- 260W als officieel TBP (dat OC kaarten er dan overheen gaan klopt, maar dat zijn vaak geen officiële TBP's, want overclock en dus buiten AMD spec)

Als overclock kaarten nu dan bij een gesanctioneerd 330W TBP beginnen en dan bij een verdere overclock inderdaad flink over de 375W zouden gaan (wat je bij een 260W officieel TBP niet direct verwacht, zoveel overklok ruimte is er vaak niet meer bij hedendaagse GPU's / CPU's), is een 3de PCIE power connector inderdaad wel logisch.

[ Voor 23% gewijzigd door Dennism op 09-01-2025 11:25 ]


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 20:41

rapture

Zelfs daar netwerken?

HugoBoss1985 schreef op donderdag 9 januari 2025 @ 11:04:
[...]


@Sissors

Merci.

Zeg ik het dan kort door de bocht zo goed:

Meer VRAM buffer met een clamshell maar dezelfde prestaties (bahalve dan als de vram buffer vol raakt van de "mindere" kaart)?
Of levert zo'n config nog een latency op?
Clamshell kan je vrij letterlijk vertalen/visualiseren.

Je tekent/trekt printbanen vanuit de GPU naar de gebruikelijke locatie van de geheugenchips op een grafische kaart. De gewone configuratie is geheugenchips aan de voorkant van een grafische kaart. Clamshell is alsof je mosselschelpen over een printplaat klemt, een geheugenchip aan de voorkant en een geheugenchip aan de achterkant. De printbanen in het midden.

Er is minimale impact op latency wegens de tweede geheugenchip ligt op dezelfde afstand van de GPU en er wordt klein beetje aan printbanen bijgetekend. Het is geen tweede geheugenslot dat van de eerste geheugenslot doorgelust wordt en wat verder van de CPU ligt.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Dennism schreef op donderdag 9 januari 2025 @ 11:20:
[...]


Die heb ik dan gemist denk ik, alle geruchten die ik gezien heb gingen uit van de eerder genoemde +- 260W als officieel TBP (dat OC kaarten er dan overheen gaan klopt, maar dat zijn vaak geen officiële TBP's, want overclock en dus buiten AMD spec)

Als overclock kaarten nu dan bij een gesanctioneerd 330W TBP beginnen en dan bij een verdere overclock inderdaad flink over de 375W zouden gaan (wat je bij een 260W officieel TBP niet direct verwacht, zoveel overklok ruimte is er vaak niet meer bij hedendaagse GPU's / CPU's), is een 3de PCIE power connector inderdaad wel logisch.
Ik had het voorbij zien komen maar was het eigenlijk weer kwijt.
In mijn post verderop heb ik aanpast/aangegeven dat het om een Asus kaart gaat en dus waarschijnlijk eentje met 3 connectoren.

Acties:
  • 0 Henk 'm!

  • tweak_dude
  • Registratie: Februari 2001
  • Laatst online: 16:34
Eerste indrukken van FSR 4

FSR 4 lijkt veelbelovend, als je af mag gaan van een Youtube video opgenomen op de beursvloer.

Edit: al gepost zie ik.

[ Voor 6% gewijzigd door tweak_dude op 09-01-2025 11:36 . Reden: Overbodige post ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
@Dennism @HugoBoss1985

Er is technisch gezien meer latency, omdat er nu extra cycles nodig zijn voor dezelfde data. Dat doet er echter niet zo heel veel toe, omdat latency met GDDR sowieso al hoog is. GDDR wordt gebruikt vanwege de bandbreedte, latency wordt opgevangen door de caches.

Met een clamshell setup verandert er niets aan de adres bus, dat werkt gewoon normaal (anders zou je dat extra geheugen ook niet aan kunnen spreken :p). De 32-bit databus wordt echter gehalveerd; elke chip krijgt slechts 16 bits, dus er zijn 2 cycles nodig.

Je zou zeggen dat clamshell dus de betere optie is, want je kunt je bus smaller maken. Niets is echter minder waar, want wat je bespaart aan bus breedte verlies je aan PCB complexiteit en warmte dissipatie. Je hebt nu ineens aan beide kanten van het PCB een stel hete geheugen chips die gewoon hetzelfde aantal traces willen hebben voor data, stroom, etc. - en dat heeft ook een impact op je VRM setup.

[ Voor 21% gewijzigd door Werelds op 09-01-2025 11:52 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
https://videocardz.com/ne...-samples-shipping-already

Embargo lift 22 januari (?) nog meer prijs speculaas (ongeveer wat ik voor mijn TUF 6800XT OC heb betaald).

Wie herkend de tafel, de plant en de kast met dozen?

[ Voor 11% gewijzigd door HugoBoss1985 op 09-01-2025 12:28 ]


Acties:
  • 0 Henk 'm!

  • Tricolores
  • Registratie: Februari 2017
  • Laatst online: 13:30
Rasterization op 4080 niveau zou wel onverhoopt zijn.

Ryzen 7 9800X3D - Gigabyte X870E AORUS ELITE WIFI7 - G.Skill Flare X5 F5-6000 (32GB) - Sapphire Nitro+ RX9070XT


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:31
Lol, net even het filmpje van Der8auer gekeken over de CES keynotes en hij snapte ook weinig van het vreemde gedrag van AMD.

Wel was AMD de 'AI' kampioen door het benoemen / vermelden van AI gemiddeld iedere 26 seconden in hun keynote :+

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw:

AMD Radeon RX 9070 XT Benchmarked in 3D Mark Time Spy Extreme and Speed Way

Although it has only been a few days since the RDNA 4-based GPUs from Team Red hit the scene, it appears that we have already been granted a first look at the 3D Mark performance of the highest-end Radeon RX 9070 XT GPU, and to be perfectly honest, the scores seemingly live up to our expectations - although with disappointing ray tracing performance. Unsurprisingly, the thread has been erased over at Chiphell, but folks have managed to take screenshots in the nick of time.

The specifics reveal that the Radeon RX 9070 XT will arrive with a massive TBP in the range of 330 watts, as revealed by a FurMark snap, which is substantially higher than the previous estimated numbers. With 16 GB of GDDR6 memory, along with base and boost clocks of 2520 and 3060 MHz, the Radeon RX 9070 XT managed to rake in an impressive 14,591 points in Time Spy Extreme, an around 6,345 points in Speed Way. Needless to say, the drivers are likely far from mature, so it is not outlandish to expect a few more points to get squeezed out of the RDNA 4 GPU.

Regarding the scores we currently have, it appears that the Radeon RX 9070 XT fails to match the Radeon RX 7900 XTX in both the tests, although it easily exceeds the GeForce RTX 4080 Super in the non-ray-traced TS Extreme test. In the Speed Way test, which is a ray-traced benchmark, the RX 9070 XT fails to match the RTX 4080 Super, falling noticeably short. Considering that it costs less than half the price of the RTX 4080 Super, this is no small feat. Interestingly, an admin at Chiphell, commented that those planning on grabbing an RTX 50 card should wait, further hinting that the GPU world has "completely changed". Considering the lack of context, the interpretation of the statement is debatable, but it does seem RDNA 4 might pack impressive price-to-performance that may give mid-range Blackwell a run for its money.

[ Voor 89% gewijzigd door Help!!!! op 09-01-2025 19:48 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 18:51
Help!!!! schreef op donderdag 9 januari 2025 @ 19:47:
fwiw:

AMD Radeon RX 9070 XT Benchmarked in 3D Mark Time Spy Extreme and Speed Way

Although it has only been a few days since the RDNA 4-based GPUs from Team Red hit the scene, it appears that we have already been granted a first look at the 3D Mark performance of the highest-end Radeon RX 9070 XT GPU, and to be perfectly honest, the scores seemingly live up to our expectations - although with disappointing ray tracing performance. Unsurprisingly, the thread has been erased over at Chiphell, but folks have managed to take screenshots in the nick of time.

The specifics reveal that the Radeon RX 9070 XT will arrive with a massive TBP in the range of 330 watts, as revealed by a FurMark snap, which is substantially higher than the previous estimated numbers. With 16 GB of GDDR6 memory, along with base and boost clocks of 2520 and 3060 MHz, the Radeon RX 9070 XT managed to rake in an impressive 14,591 points in Time Spy Extreme, an around 6,345 points in Speed Way. Needless to say, the drivers are likely far from mature, so it is not outlandish to expect a few more points to get squeezed out of the RDNA 4 GPU.

Regarding the scores we currently have, it appears that the Radeon RX 9070 XT fails to match the Radeon RX 7900 XTX in both the tests, although it easily exceeds the GeForce RTX 4080 Super in the non-ray-traced TS Extreme test. In the Speed Way test, which is a ray-traced benchmark, the RX 9070 XT fails to match the RTX 4080 Super, falling noticeably short. Considering that it costs less than half the price of the RTX 4080 Super, this is no small feat. Interestingly, an admin at Chiphell, commented that those planning on grabbing an RTX 50 card should wait, further hinting that the GPU world has "completely changed". Considering the lack of context, the interpretation of the statement is debatable, but it does seem RDNA 4 might pack impressive price-to-performance that may give mid-range Blackwell a run for its money.
Allemaal leuk en aardig, maar deze kaart is geen concurrent meer van de RTX 4000 familie, maar die van de 5000 serie. Vergelijkingen maken op prestaties en prijs van de vorige gen is echt irrelevant. Een 4080 doet het ook goed tegen een 3090ti en voor een betere prijs..... water is inderdaad nat :+
Geen ziel zal het nog een biet zijn wat een 9xxx kaart doet tegen een RTX 4xxx kaart als de tweede eol is.

Sowieso moet AMD echt eens stoppen met haar producten met die van Nvidia te vergelijken in presentaties. Gewoon afzetten tegen je eigen producten en daar op focussen. Nu komen ze nog meer naar voren als een goedkope Nvidia kloon en dat helpt niet om jezelf te profileren.

Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 19:59
sjekneck schreef op donderdag 9 januari 2025 @ 22:21:
[...]

Allemaal leuk en aardig, maar deze kaart is geen concurrent meer van de RTX 4000 familie, maar die van de 5000 serie. Vergelijkingen maken op prestaties en prijs van de vorige gen is echt irrelevant. Een 4080 doet het ook goed tegen een 3090ti en voor een betere prijs..... water is inderdaad nat :+
Geen ziel zal het nog een biet zijn wat een 9xxx kaart doet tegen een RTX 4xxx kaart als de tweede eol is.

Sowieso moet AMD echt eens stoppen met haar producten met die van Nvidia te vergelijken in presentaties. Gewoon afzetten tegen je eigen producten en daar op focussen. Nu komen ze nog meer naar voren als een goedkope Nvidia kloon en dat helpt niet om jezelf te profileren.
Als hij ruwweg op 4080 S niveau zit zal hij waarschijnlijk ook op 5070 niveau zitten. De naamgeving is dan zo gek nog niet.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sjekneck schreef op donderdag 9 januari 2025 @ 22:21:
[...]

Allemaal leuk en aardig, maar deze kaart is geen concurrent meer van de RTX 4000 familie, maar die van de 5000 serie. Vergelijkingen maken op prestaties en prijs van de vorige gen is echt irrelevant. Een 4080 doet het ook goed tegen een 3090ti en voor een betere prijs..... water is inderdaad nat :+
Geen ziel zal het nog een biet zijn wat een 9xxx kaart doet tegen een RTX 4xxx kaart als de tweede eol is.

Sowieso moet AMD echt eens stoppen met haar producten met die van Nvidia te vergelijken in presentaties. Gewoon afzetten tegen je eigen producten en daar op focussen. Nu komen ze nog meer naar voren als een goedkope Nvidia kloon en dat helpt niet om jezelf te profileren.
Het is natuurlijk moeilijk vergelijken met een kaart die nog niet verkrijgbaar is…..

Het is maar een leak he. Maar nu is er tenminste iets van een idee vd prestaties.

[ Voor 5% gewijzigd door Help!!!! op 10-01-2025 01:08 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
3dmark is leuk maar een xtx maakt gehakt van een 4080s in timespy terwijl ze in games gelijkwaardig zijn vaak.

En RT in 3dmark is ook niet zwaar genoeg waardoor ook een 7000 serie hier nog aardig scoort.

Leuk die leaks maar het zegt weer helemaal niks.

Acties:
  • 0 Henk 'm!

  • Derr_Hans
  • Registratie: December 2001
  • Niet online
Nox schreef op woensdag 8 januari 2025 @ 20:34:
[...]

Oh het is hier wel eerst zien dan geloven. Soms komen dit soort dingen in de buurt van wat er beloofd is. Benchmarks en reviews tellen, niks meer niks minder. Maar het is eigenlijk de vraag of ik een XT, non-XT of 7900XT koop :+ een nvidia kaart zal ik niet snel kopen, ga liever naar intel.
Ik denk niet dat ik een 7900XT of XTX overweeg, vanwege RT. Ik geef er geen bal om maar als games een variant RT vereist zoals Indiana Jones dan zullen er meer volgen. Als FSR4 alleen compatible is met deze 90X0 serie kaarten dan valt alles ouder meteen af voor mij.

Gezien de Hardware Unbox FSR4 performance mode preview op CES heb ik best hoge verwachtingen van FSR4 en als Performance er nog zo uit ziet dan denk ik dat je redelijk wat rek uit deze kaart kan halen.

Maar ja, de prijs moet wel goed zijn voor ik mijn 6800XT wil vervangen, een prijs tussen de 5070Ti en 5070 voor de 9070XT wil ik hem wel overwegen mits de prestaties goed zijn.

[ Voor 10% gewijzigd door Derr_Hans op 10-01-2025 14:17 ]

WoW: Doutz @ Defias brotherhood


Acties:
  • +3 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
https://videocardz.com/ne...x-7800-xt-and-rx-7900-gre

Deze stond onder de link op Videocardz.

Afbeeldingslocatie: https://tweakers.net/i/w8URtb5gzcqtVoXwBdleuX8jet8=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/pZZJ0waAvT7shV2DakzfqU8A.jpg?f=user_large

Acties:
  • +1 Henk 'm!

  • FrankoNL
  • Registratie: December 2004
  • Laatst online: 19-09 19:50
Ja dit is altijd het probleem, en dan tot nu toe altijd fors minder in RT / upscaler. Het is even afwachten hoe FSR4 uiteindelijk landt, eerste tekenen zijn gunstig.

AMD moet deze generatie echt wel een stuk onder nvidia gaan zitten om weer wat marktaandeel terug te kunnen winnen.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
De 70 staat dat dan voor een x700 klasse kaart?

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 20:24
Nature schreef op vrijdag 10 januari 2025 @ 21:07:
De 70 staat dat dan voor een x700 klasse kaart?
Nieuwe naamgeving van AMD > tegenover Nvidia 5070 / 5070ti (is de verwachting)

Je zou deze generatie kunnen vergelijken met de 5700 / 5700 XT.

[ Voor 25% gewijzigd door HugoBoss1985 op 10-01-2025 22:02 ]

Pagina: 1 ... 97 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.