Acties:
  • +1 Henk 'm!

  • bertware
  • Registratie: December 2013
  • Laatst online: 23:20
Interessant om dit nu te zien passeren, net 2 dagen geleden mijn (Nvidia) Asus 3070 TI van nieuwe koelpasta voorzien. Kaart ging na enkele seconden benchmark al throttlen van ongeveer 240 naar ongeveer 190w als ik me goed herinner, en bleef daarbij op 83 graden (maximum ingestelde temperatuur) hangen met fans op maximum. Hotspot temp werd dan 106 graden. Tijdens games verloor het scherm na een tijdje signaal en was een reboot nodig, ik vermoed wegens nog hogere hotspot temperaturen in de GPU.

Na de repaste met MX-4 pasta is de hotspot temperatuur niet boven 87 graden uitgekomen, en komt de "gewone" temperatuur niet boven de 70 graden tijdens benchmarks. Tijdens games is het geraas van de kaart vervangen door een zacht blazen op de achtergrond. Alle instabiliteitsproblemen waren onmiddellijk verholpen.

Moest voorbij 1 sticker op een schroef, maar kaart was toch tweedehands zonder garantie, dus het was repareren of als paperweight gebruiken

[ Voor 5% gewijzigd door bertware op 19-07-2024 16:55 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Hoe lang had je deze kaart al? Nieuw gekocht ? En hoe lang duurde het ongeveer voordat je die klachten kreeg?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wat een jaar geleden al gedaan is. ;)
Toen is dit al uitgebreid besproken in het RDNA3 ervaringen topic. Specifiek welke modellen eigenlijk niet vertrouwd werden. Natuurlijk was het alweer de gebruikelijke conclusie. Als je Radeon koopt, dan koop je Sapphire, XFX, Powercolor etc. De reden is vrij duidelijk. Die bedrijven verdienen hun geld voornamelijk met de verkoop van Radeon videokaarten. Verprutsen ze het, dan gaan ze failliet. Ze moeten dus wel hun best doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • bertware
  • Registratie: December 2013
  • Laatst online: 23:20
Help!!!! schreef op vrijdag 19 juli 2024 @ 18:13:
^
Hoe lang had je deze kaart al? Nieuw gekocht ? En hoe lang duurde het ongeveer voordat je die klachten kreeg?
Tweedehands gekocht in december 2022, weet niet meer wanneer de oorspronkelijke aanschafdatum was maar eerste shop vermelding op tweakers is van midden 2021. Toen ik ze kreeg en testte was de kaart al luider dan ze nu is, maar waren er geen functionele problemen. Totaal gezien was het dus echter maximum 3 jaar tussen verkoop in de winkel en falen door oververhitting nu. Behalve kwaliteit van de koelpasta kan het ook aan het gewicht van het koelblok liggen, waardoor de koelers lostrekken van de chips onder de zwaartekracht, wat me ook best plausibel lijkt als ik zie hoe de kaart "hangt" aan het pci slot en de brackets achteraan de behuizing.

Ik ben zelf best verbaasd dat ik hier niet eerder over gelezen heb, aangezien me lijkt dat dit met alle videokaarten zou moeten voorkomen van dezelfde fabrikant/reeks (in dit geval Asus TUF) ongeacht wie de gpu levert. Wel een reden te meer om in het vervolg voor bvb powercolor of Sapphire te gaan, nu was de keuze beperkt door het lokale tweedehands aanbod.

Misschien dat sommige gpus net iets beter warmte afvoeren of tolereren, waardoor men het vaak gewoon accepteert als een luidruchtige kaart en denkt dat de eisen van games gewoon zwaarder worden.

[ Voor 24% gewijzigd door bertware op 20-07-2024 00:15 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
bertware schreef op zaterdag 20 juli 2024 @ 00:10:
[...]

Tweedehands gekocht in december 2022, weet niet meer wanneer de oorspronkelijke aanschafdatum was maar eerste shop vermelding op tweakers is van midden 2021. Toen ik ze kreeg en testte was de kaart al luider dan ze nu is, maar waren er geen functionele problemen. Totaal gezien was het dus echter maximum 3 jaar tussen verkoop in de winkel en falen door oververhitting nu. Behalve kwaliteit van de koelpasta kan het ook aan het gewicht van het koelblok liggen, waardoor de koelers lostrekken van de chips onder de zwaartekracht, wat me ook best plausibel lijkt als ik zie hoe de kaart "hangt" aan het pci slot en de brackets achteraan de behuizing.

Ik ben zelf best verbaasd dat ik hier niet eerder over gelezen heb, aangezien me lijkt dat dit met alle videokaarten zou moeten voorkomen van dezelfde fabrikant/reeks (in dit geval Asus TUF) ongeacht wie de gpu levert. Wel een reden te meer om in het vervolg voor bvb powercolor of Sapphire te gaan, nu was de keuze beperkt door het lokale tweedehands aanbod.

Misschien dat sommige gpus net iets beter warmte afvoeren of tolereren, waardoor men het vaak gewoon accepteert als een luidruchtige kaart en denkt dat de eisen van games gewoon zwaarder worden.
Zo'n koeler gaat over het algemeen niet los/ niet lostrekken van de chips.

Wat nog plausibeler is, m.b.t. het gewicht, en het doorhangen van de kaart (en opwarmen/afkoelen door de jaren heen): dat is dat het het koelblok ten opzichte van het pcb en de gpu (chip) iets is gaan schuiven.
Een pcb kan ook iets vervormen (krom trekken) door een koelblok, het gewicht en de thermische cycles.
Dat i.c.m. oude, uitgeharde, koelpasta zorgt wellicht ook voor een verplaatsing van die harde koelpasta waardoor de warmte overdracht nu nog slechter is.

In sommige gevallen gebruiken moderne games de grafische kaarten veel meer.
Als ik kijk naar Unreal Engine 5 games en tech demo's dan verstoken 6000 en 7000 series kaarten veel meer wattage dan in sommige andere omstandigheden!
Soms spelen mensen cpu limited (bottleneck) games waarbij het gpu gebruik (en dus het wattage en de warmte) heel erg mee vallen t.o.v. games die wel de gpu volledig benutten.

[ Voor 9% gewijzigd door HugoBoss1985 op 20-07-2024 09:19 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op vrijdag 19 juli 2024 @ 18:52:
[...]


Wat een jaar geleden al gedaan is. ;)
Toen is dit al uitgebreid besproken in het RDNA3 ervaringen topic. Specifiek welke modellen eigenlijk niet vertrouwd werden. Natuurlijk was het alweer de gebruikelijke conclusie. Als je Radeon koopt, dan koop je Sapphire, XFX, Powercolor etc. De reden is vrij duidelijk. Die bedrijven verdienen hun geld voornamelijk met de verkoop van Radeon videokaarten. Verprutsen ze het, dan gaan ze failliet. Ze moeten dus wel hun best doen.
Is er een lijst met fabrikanten / kaarten die hier dan wel en geen last van hebben?

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Ik had uiteindelijk nog zo'n Radeon Pro VII gekocht, vanwege de FP64-prestaties & ECC. Ben benieuwd hoe die het gaat houden (er zijn ook nogal wat negatieve verhalen over VII-kaarten), en vooral ben ik benieuwd hoe de OpenCL- (of alternatieven)-support zich gaat ontwikkelen.

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Voor hoe veel veranderen de MI kaarten op de 2e-hands markt eigenlijk van eigenaar?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Onder enthusiasts werd over dit produkt al vrij veel over gesproken. Toch wel interessant voor mensen (met te hoge GPU temps) om het ook op deze manier getest te zien worden.

Igor: Not over-hyped: Honeywell PTM7950 in a lab test and a real game changer for graphics cards

Summary and conclusion

The temperatures speak for themselves, as does the long-term experience of workstation graphics card manufacturers and various AMD board partners. The fact that companies such as Powercolor and XFX have now also jumped on this bandwagon shows once again that a rethink has begun, at least in part.

Whether you use the Honeywell PTM7950 or one of the similar products is of secondary importance, because the only thing that matters is durability. The fact that the whole thing then performs at least as well over a long period as the best pastes on their first day before the onset of degradation is a real game changer in my view.


Of course, wherever there is a lot of light, there is also some shadow. On the one hand, handling and applying the pads is not without its difficulties and requires some practice, and on the other hand, availability and price are not yet ideal. What’s more, the material is somewhat brittle, which could possibly crack with very large GPUs under high thermal loads and temperature changes. This has already been noticed on the H100 chips. However, this is rather rare in the consumer sector.
Torn pad after testing and booting the head

Where I see problems are with water coolers and water blocks, where there might not be a complete phase change, at least on the cooler side. But you need at least 55 to 60 degrees throughout the pad for a complete change of state. “Half-defrosted” pads are counterproductive and are even more prone to cracking. At least that’s what one of the OEMs has now confirmed to me. Everyone has to work out for themselves how to solve this properly. I wouldn’t use a pad on a water block, at least not a PCM,

That concludes this test once again and we will soon be moving on. However, I would like to take this opportunity to remind you once again of my request for more pastes, because the selection and stock can never be large enough!

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Help!!!! schreef op maandag 22 juli 2024 @ 08:27:
Onder enthusiasts werd over dit produkt al vrij veel over gesproken. Toch wel interessant voor mensen (met te hoge GPU temps) om het ook op deze manier getest te zien worden.

Igor: Not over-hyped: Honeywell PTM7950 in a lab test and a real game changer for graphics cards

Summary and conclusion

The temperatures speak for themselves, as does the long-term experience of workstation graphics card manufacturers and various AMD board partners. The fact that companies such as Powercolor and XFX have now also jumped on this bandwagon shows once again that a rethink has begun, at least in part. Whether you use the Honeywell PTM7950 or one of the similar products is of secondary importance, because the only thing that matters is durability. The fact that the whole thing then performs at least as well over a long period as the best pastes on their first day before the onset of degradation is a real game changer in my view.
Fresh pad before the burn-in

Of course, wherever there is a lot of light, there is also some shadow. On the one hand, handling and applying the pads is not without its difficulties and requires some practice, and on the other hand, availability and price are not yet ideal. What’s more, the material is somewhat brittle, which could possibly crack with very large GPUs under high thermal loads and temperature changes. This has already been noticed on the H100 chips. However, this is rather rare in the consumer sector.
Torn pad after testing and booting the head

Where I see problems are with water coolers and water blocks, where there might not be a complete phase change, at least on the cooler side. But you need at least 55 to 60 degrees throughout the pad for a complete change of state. “Half-defrosted” pads are counterproductive and are even more prone to cracking. At least that’s what one of the OEMs has now confirmed to me. Everyone has to work out for themselves how to solve this properly. I wouldn’t use a pad on a water block, at least not a PCM,

That concludes this test once again and we will soon be moving on. However, I would like to take this opportunity to remind you once again of my request for more pastes, because the selection and stock can never be large enough!
Ik ben wel benieuwd welke XFX kaarten dan al reeds van deze oplossing gebruik maken.

Megekko had pas een batch "oude" (een stuk of 30-40 kaarten) XFX SWFT 6800 kaarten.
Ik had er eentje voor mijn pa gekocht en de gpu had een hotspot delta van maar 9 graden ahoewel dat nog niet alles zegt met een nieuwe kaart met nieuwe pasta/pad.

Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:07

Damic

Tijd voor Jasmijn thee

ocf81 schreef op zaterdag 20 juli 2024 @ 23:50:
Voor hoe veel veranderen de MI kaarten op de 2e-hands markt eigenlijk van eigenaar?
VII tussen de 250 en 400$ zonder shipping en import er zijn uitzonderingen https://www.benl.ebay.be/...tion=4&rt=nc&LH_PrefLoc=6

AMD Instinct https://www.benl.ebay.be/...00&_osacat=0&LH_PrefLoc=6
Alles onder MI100 is niet interessant want dat zijn gewone GPU cores. https://www.techpowerup.c...specs/?mfgr=AMD&sort=name en dan Instinct ingeven en enter drukken

[ Voor 29% gewijzigd door Damic op 22-07-2024 10:43 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

HugoBoss1985 schreef op maandag 22 juli 2024 @ 10:20:
[...]


Ik ben wel benieuwd welke XFX kaarten dan al reeds van deze oplossing gebruik maken.

Megekko had pas een batch "oude" (een stuk of 30-40 kaarten) XFX SWFT 6800 kaarten.
Ik had er eentje voor mijn pa gekocht en de gpu had een hotspot delta van maar 9 graden ahoewel dat nog niet alles zegt met een nieuwe kaart met nieuwe pasta/pad.
Via google: Tomshardware: XFX unveils Radeon RX 7900 XTX Phoenix Nirvana graphics card with phase-change thermal pad

Afbeeldingslocatie: https://tweakers.net/i/UuZbShhMkFwt37RuN_K-kjuNDIY=/x800/filters:strip_exif()/f/image/5P6NvkNOiB3F6lCm72s1dQkZ.png?f=fotoalbum_large

Voor videokaarten, en zeker de high end, vind ik dit echt the way to go. Hopelijk gaat dit breed toegepast worden.

Voor cpu's kan ik op zich prima leven met een normale paste. Een basic paste zoals bijv. Noctua NT-H1 werkt voor mij goed genoeg.

Maar ook daar zit ik zelf te kijken om tzt eventueel over te stappen naar PCM.

[ Voor 39% gewijzigd door Help!!!! op 22-07-2024 10:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dat ze deze kaarten verkopen is op zich al goed nieuws, want dat betekent dat ze het qua inkoop- en fabricagekosten (geautomatiseerd plaatsen van de PCM op de chip) wel zien zitten, en ze nu alleen nog moeten uittesten hoe het in de praktijk houdt, bij de klant.

Ik zie het in elk geval als een stevig pluspunt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Inderdaad.

Die PCM padz scheuren vrij makkelijk dus kan me voorstellen dat het in het produktieproces wel een stuk lastiger is dan een dot paste erop plaatsen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Help!!!! schreef op maandag 22 juli 2024 @ 11:04:
^
Inderdaad.

Die PCM padz scheuren vrij makkelijk dus kan me voorstellen dat het in het produktieproces wel een stuk lastiger is dan een dot paste erop plaatsen.
Is dat de reden dat Igor ze eerst 15 minuten in de koeling legt?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hij doet dat volgensmij om de pad stijver te maken zodat je de protective film er makkelijker af kan halen.

Door te koelen wordt de pad weliswaar stijver maar breekt / scheurt het blijkbaar ook makkelijker.

Anyway het grote nadeel van dit soort pads is wat mij betreft de bewerkelijkheid.

Daarom denk ik dat dit vooral heel goed is voor GPU's 'af fabriek' waar ze hopelijk professionele oplossingen hebben om het goed te verwerken.

Voor CPU's lijkt het me vooral interessant voor mensen die langer met hun CPU willen doen en geen zin hebben om tussentijds met pasta aan de gang te gaan.

[ Voor 8% gewijzigd door Help!!!! op 22-07-2024 12:05 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +6 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Help!!!! schreef op maandag 22 juli 2024 @ 12:01:
Daarom denk ik dat dit vooral heel goed is voor GPU's 'af fabriek' waar ze hopelijk professionele oplossingen hebben om het goed te verwerken.
Even opgezocht en ik ben er vrijwel zeker van dat ze in fabrieken de vloeibare variant gebruiken.

Hierbij voegen ze een oplosmiddel toe aan de PCM waardoor het geheel vloeibaar wordt, dus dan kunnen ze dat vrij makkelijk met een mondstuk op de koeler spuiten. Daarna 'bakken' ze het 5 minuten op 100 graden, waardoor het oplosmiddel verdampt. Deze stap doen ze dus na het aanbrengen op het koelblok, maar voordat het koelblok op de kaart wordt gemonteerd.

Een voordeel van deze variant is ook dat de dikte van de pasta kunnen varieren. Dus als er in een fabriek verschillende chips, koelers, etc worden gebruikt voor verschillende modellen, dan hoeven ze niet verschillende diktes te kopen van de PCM-pads, maar ze kunnen de machine even anders configureren om precies dezelfde pasta dikker of dunner aan te brengen.

Dit is hoe het er dan zo'n beetje uitziet na het aanbrengen op het koelblok:

Afbeeldingslocatie: https://tweakers.net/i/MkuWf13LTnwLfyyqLO4cX7kmb9g=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/uYyzU7X9h1QGjny79D3nM68V.png?f=user_large

En dit zijn de installatiestappen:

Afbeeldingslocatie: https://tweakers.net/i/plzQA10oQesbzGJrsV9xnOhJlUI=/800x/filters:strip_exif()/f/image/stfZzJRQcallbLOqjChb0U9o.png?f=fotoalbum_large

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Bij stap 3 wordt er vermeld dat 10 PSI aan kracht waarmee het koelblok op de kaart gemonteerd zit het minimum is, maar tot zo'n beetje tot 40 PSI krijg je betere prestaties en daarna niet meer.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik ben wel benieuwd:

Poll: Hoeveel extra zou je betalen voor een kaart met PCM?
Niets extra, geef mij maar hoge temps, lekker warm
10 euro
20 euro
30 euro
40 euro
50 euro
Meer dan 50 euro
Tussenstand:
Afbeeldingslocatie: http://poll.dezeserver.nl/results.cgi?pid=406661&layout=6&sort=prc
Ook een poll maken? Klik hier

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik heb zelf gekozen voor 30 euro, want het is een flink voordeel om je geen zorgen meer te hoeven maken om oplopende temperaturen door pumpout of opdroging & dat je vermoedelijk de kaart nooit meer open hoeft te maken, ook als je hem lang gebruikt.

Aan de andere kant draai ik het liefst met een undervolt en verwacht ik ook niet zo lang met een kaart te doen dat ik per se onderhoud moet gaan doen. Het is ook maar de vraag in hoeverre PCM de tweedehandsprijs verhoogd. De meeste consumenten zijn niet zo snugger.

Hier trouwens nog een leuk plaatje uit de tests van PTM7950:

Afbeeldingslocatie: https://tweakers.net/i/15R3u0CK0zmdgnAWtmdNYmevbwQ=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/uPSlJgL39QfldqkFnI0ZBw7Y.png?f=user_large

De PCM ging dus alleen maar beter presteren na 1000 hitte-koude wisselingen, met een minimale afname in hoe consistent de warmtegeleiding was. En de test om de PCM langdurig bloot te stellen aan 85 graden was ook prima, met ook een betere prestatie na verloop van tijd en hierbij nam de consistentie in de warmtegeleiding ook toe:

Afbeeldingslocatie: https://tweakers.net/i/2v9Z_adbDxxGeKQhzOn7EdSuvH0=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/zZSy0qJSNWatzUX0x8ANbvHY.png?f=user_large

Hieruit maak ik op dat PCM bij uitstek geschikt is voor GPUs, aangezien je normaliter vrij langdurig de kaart belast. Daar houdt PCM wel van. Dat autobedrijven dit spul ook lusten is een goed teken, want zij willen dat de chips in de auto decennia lang meegaan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Dit zie ik wel echt als iets voor de toekomst van videokaart/gpu TIM toepassing (daar hoop ik tenminste op).

Ik vind die poll nog wel lastig om te beantwoorden/om te kiezen.

Powercolor, XFX en MSI passen dit dus al toe... zijn die kaarten nou persé duurder?

Anders(om) kun je ook vragen wat het de fabrikanten (goodwill, minder RMA's, de andere fabrikanten volgen, etc) waard is ;)

Met de videokaart prijzen en gezien hoe relevant bijvoorbeeld een 6000 series met 16gb nog is vind ik dat we mogen verwachten dat dit gewoon een non-issue moet zijn.
Goed er gaat wel een hoop R&D in zitten en de hele productielijnen zullen aangepast moeten worden maar hebben het dan niet over €0-10 kosten stijging per kaart?

Met dit soort bedragen voor videokaarten mag het wel 100% goed zijn aangezien het geld wat ze van de consument krijgen ook 100% goed is.
Een 4080 van €1000+ (Igorslab) met dit soort ongein is te idioot voor woorden.
Maar ik zou zelf geneigd zijn om €10 te stemmen.
Als ik de prijzen van zo'n pad zie, met marges, zal het wel om meer dan €10 kosten steiging gaan per kaart.

Je zou nog wat entries aan de poll toe kunnen voegen :P

De tweedehands waarde zal vaster blijven/hoger zijn aangezien er ook niet meer aan videokaart gesleuteld hoeft te worden behalve thermal pads (VRAM, VRM'S) en fans.
Ik ben altijd huiverig voor het kopen van een videokaart waar aan gewerkt is (schroefkoppen beschadigd, warranty sticker weg).

[ Voor 22% gewijzigd door HugoBoss1985 op 23-07-2024 08:24 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik denk dat de meerkosten voor de fabrikant (op termijn) minder dan een euro zijn, maar de poll gaat er niet om wat de fabrikanten volgens jou zouden mogen vragen, maar wat je daadwerkelijk bereid zou zijn om te betalen.

Dus in de webwinkel staat links een XFX met koelpasta die gegarandeerd na verloop van tijd uitdroogt of wegpompt, en rechts staat precies dezelfde kaart, maar dan met PCM. Tot welk prijsverschil ga je voor de PCM-variant en wanneer switch je naar de koelpasta-versie?

PS. Ik vind het zelf redelijk als de eerste kaarten met PCM een redelijk hoge meerprijs hebben gezien de extra investeringen en risico's, maar zou dan wel willen dat het na verloop van tijd standaard wordt. In elk geval op de duurdere kaarten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ludewig schreef op maandag 22 juli 2024 @ 13:47:
Ik ben wel benieuwd:

Poll: Hoeveel extra zou je betalen voor een kaart met PCM?
Niets extra, geef mij maar hoge temps, lekker warm
10 euro
20 euro
30 euro
40 euro
50 euro
Meer dan 50 euro
Tussenstand:
[Afbeelding]
Ook een poll maken? Klik hier
Niks extra, dit moet gewoon de standaard worden. Zo duur is het spul nu ook weer niet, dus wat mij betreft mag je dit gewoon verwachten van een kaart die meer dan €1000 kost.

[ Voor 5% gewijzigd door ocf81 op 22-07-2024 14:18 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ludewig schreef op maandag 22 juli 2024 @ 13:28:
[...]


Even opgezocht en ik ben er vrijwel zeker van dat ze in fabrieken de vloeibare variant gebruiken.

Hierbij voegen ze een oplosmiddel toe aan de PCM waardoor het geheel vloeibaar wordt, dus dan kunnen ze dat vrij makkelijk met een mondstuk op de koeler spuiten. Daarna 'bakken' ze het 5 minuten op 100 graden, waardoor het oplosmiddel verdampt. Deze stap doen ze dus na het aanbrengen op het koelblok, maar voordat het koelblok op de kaart wordt gemonteerd.

Een voordeel van deze variant is ook dat de dikte van de pasta kunnen varieren. Dus als er in een fabriek verschillende chips, koelers, etc worden gebruikt voor verschillende modellen, dan hoeven ze niet verschillende diktes te kopen van de PCM-pads, maar ze kunnen de machine even anders configureren om precies dezelfde pasta dikker of dunner aan te brengen.

Dit is hoe het er dan zo'n beetje uitziet na het aanbrengen op het koelblok:

[Afbeelding]

En dit zijn de installatiestappen:

[Afbeelding]
Nice find en mooie post!

Wat ik extra wil betalen vind ik een lastige vraag. Ik doe meestal max 2 jaar met een GPU en heb tot nu toe nog niet echt problemen met pump out of slechte paste en temps te maken gehad.

Het is ook niet zo dat normale koelpasta niet langdurig goed kan functioneren maar dan moet je wel normale kwaliteit toepassen.

Ik vind namelijk dat je van een conform produkt mag verwachten dat het gedurende de technische maar zeker de economische levensduur correct functioneert. Dus geen materiele afwijkingen van de out of the box / review ervaring.

Dus als we nu zien dat fabrikanten over de linie blijkbaar slechte(re) paste toepassen en dat vervolgens mogelijk gebruiken om meer te vragen voor een kaart die wel normaal functioneert over de levensduur word ik daar een beetje mies van.

Het zelf vervangen van koelpasta bij een GPU vind ik ook niet heel doorsnee. Sommige kaarten gaan behoorlijk lastig uitelkaar. Kans op scheuren / kapotmaken van de memory padz. Lastig te vinden welke vervangende padz precies goed zijn voor jouw kaart, evt. garantie issues, etc.

Maar goed mocht het zo zijn dat je eigenlijk geen normale kaart meer zou kunnen vinden zonder dat je binnen een jaar zelf aan de gang moet heb ik er wel E50 voor over. Dat hangt m.i. dan wel tegen oplichting aan als het dat al niet is.

Het zou een belachelijke situatie zijn want in feite zou een correcte paste/pad niet meer moeten en mogen kosten. De extra kosten bij massaproduktie lijken me minimaal.

Ik denk dat het massaal testen van GPU thermal solutions zoals Igor dat gedaan heeft en vervolgens druk op de fabrikanten uitoefenen nog de beste weg is.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AMD Releases Frame Latency Meter (FLM) Utility through GPUOpen

AMD today released the first public version of FLM, or Frame Latency Meter, a utility that lets you measure the response time of games with mouse movements. The tool targets advanced gamers, power users, and game developers wanting to optimize whole-system latency or reducing input latency. It measures the time it takes for a mouse movement to translate into a new frame on the screen. Options are included to use frame capture codecs such as AMF (optimized for AMD GPUs) or DXGI (any brand of GPUs). The tool generates detailed latency and effective-framerate statistics that can be exported to CSVs for data analysis. A key difference between FLM and NVIDIA LDAT is that it doesn't rely on "muzzle flashes" on the screens to measure latency, which means your measurement data can span any amount of time without worrying about running out of ammo during your test session.

DOWNLOAD: AMD Frame Latency Meter (FLM) v1.0

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Interessant, van drivers tot koelers en PCM, alles komt hier aan bod!

Kleine update voor RDNA5, RedGamingTech noemt 360 of 380 CU's.



Eerder zagen we een geannuleerd high end RDNA4 design met tot 9 "shader engine dies" (chiplets), niet hetzelfde als shader engines. RDNA5 Navi50? 360 CU is dan 9x40, 380 geen idee.

Dit zou tegen die tijd (eind 2025/begin 2026) de strijd aangaan met de RTX5090 met max 192 SM, misschien dat er daarom een TITAN versie komt.

We zullen zien.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AMD Rolls Out Fluid Motion Frames 2 Technical Preview with Significant Upgrades

AMD has introduced Fluid Motion Frames 2 (AFMF 2), an upgraded version of its frame generation technology designed to improve gameplay smoothness and frame rates. This new iteration brings several enhancements and expanded compatibility across Radeon RX 6000 and 7000 series graphics cards. AMD debuted Fluid Motion Frames (AFMF) in September 2023 introducing frame generation capabilities across a broad spectrum of GPUs, including those from NVIDIA, and Intel. This technology was compatible with all DirectX 12 and DirectX 11 games, potentially doubling performance when frame generation was activated.

Following its initial release, AMD addressed major concerns such as stuttering and frame-pacing through substantial driver improvements. The refined version of AFMF was officially incorporated into AMD's driver package in January of this year. Now, AMD is offering Fluid Motion Frames 2 as a technical preview using a special driver to convince gamers that they can have an even faster and smoother gaming experience.

etc

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RDNA en CDNA worden dus weer samengevoegd tot UDNA.
nieuws: AMD gaat gpu-architecturen voor gaming- en datacenter-gpu's samenvoegen

Tja, AMD blijft zo wel innoveren, maar of dit nu ook een goede manier is...
RDNA en CNDA begonnen best sterk, maar AMD heeft zo wel hun beperkte middelen verdeeld over twee producten. RDNA lijkt er inmiddels onder te lijden. De enorme verbeteringen in RDNA3 hardware worden nog steeds nauwelijks gebruikt. FSR2 naar FSR3 duurde enorm lang, het AFMF debacle dat ze het zo lanceerde en natuurlijk AntiLag+. En ik zit nog steeds te wachten op een ML gebaseerde upscaling, want RDNA3 kan dat makkelijk. Zit betere matrix hardware in dan Turing, eerder on par met Ampere en zelfs Lovelace qua relevante instructies.

Qua professionele kant is CDNA aardig aan de weg aan het timmeren. Maar de beste manier om dit te leren, is waarschijnlijk klooien met een goedkopere desktop GPU. En dat is nu RDNA en niet CDNA. Zeker omdat Nvidia dit ook steeds moeilijker aan het maken is met de enorme prijzen en veel te weinig VRAM. Iets zoals een RX7900XTX is er in theorie geweldig voor gezien de prijs, gewoon wel 24GB aan VRAM en wat voor hardware je eigenlijk hebt, maar dat hebben ze ook niet goed uitgebuit.

Ik snap de zet dus wel, maar het voelt alsof ze weer achter feiten aanlopen. Ondertussen heeft Nvidia zo bizar veel geld verdiend de afgelopen twee jaar. Als ze ook maar een fractie herinvesteren, dan lopen ze gewoon keihard weg. In dat licht zie ik RDNA4 misschien ook een beetje. Op software features in high end, zie ik AMD gewoon niks kunnen leveren. Dan maar echt midrange en marktaandeel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Ik heb er helaas ook wel mijn vraagtekens bij. Net als die 'focus' op marktaandeel. Hoe gaan ze dat dan doen, kaarten gratis weggeven (flink gechargeerd natuurlijk), je ziet gewoon dat ze het al niet redden met een (software) feature set die achter loopt, raster performance die vaak gelijk of iets hoger ligt dan de concurrentie en dan vaak er een eurotje of 50 onder gaan zitten in de midrange, misschien wat minder in het low end en wat meer in het 'high end'.

Dan moeten ze haast nog wel meer 'korting' gaan geven in die markt aandeel push, of flink meer performance dan de concurrentie in een vergelijkbare positie in de stack. Maar is dat het dan wel waard?

Acties:
  • 0 Henk 'm!

  • Ardjee
  • Registratie: Februari 2009
  • Laatst online: 16-09 09:44
De afgelopen jaren zijn de nvidia prestaties per dollar eigenlijk niet veranderd: de snellere gen was ook duurder.

Als AMD net als de polaris voor een goede prijs/performance gaan, kan dat zeker werken. De volumes zit vooral bij midrange.

Een 4080 equivalent voor 600 dollar is bijna 2x betere performance per dollar. Daar kan zeker marketshare mee gewonnen worden

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-09 16:49
Ardjee schreef op dinsdag 10 september 2024 @ 22:10:
De afgelopen jaren zijn de nvidia prestaties per dollar eigenlijk niet veranderd: de snellere gen was ook duurder.

Als AMD net als de polaris voor een goede prijs/performance gaan, kan dat zeker werken. De volumes zit vooral bij midrange.

Een 4080 equivalent voor 600 dollar is bijna 2x betere performance per dollar. Daar kan zeker marketshare mee gewonnen worden
Dat lijkt me echt niet haalbaar binnen 1 generatie... Qua raytracing niet en ook qua Raster niet. 7900XT "ongeveer" kan in Amd taal tegenwoordig net zo goed 7900GRE of 7800xt zijn. Tis nou niet dat hun toezeggingen nog zo vaak uitkomen tegenwoordig.

Een prima 1080p/1440p met 12gb/16gb is waarschijnlijk ook wat voor de meesten voldoende is voorlopig. Ik denk dus voor de verwachte 500-600 euro ongeveer GRE prestaties met minder verbruik en wat betere RT.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Alles hangt ervan af of de prijs/prestatie-verhouding flink verbeterd, of dat AMD weer eens het onderste uit de kan probeert te krijgen, en daardoor de deksel op de neus krijgt.

De chip zelf zou in elk geval flink goedkoper moeten zijn en door bij GDDR6 te blijven zouden de geheugenkosten ook vrij laag moeten zijn.
meljor schreef op woensdag 11 september 2024 @ 10:11:
Ik denk dus voor de verwachte 500-600 euro ongeveer GRE prestaties met minder verbruik en wat betere RT.
De GRE kost al 600 euro, dus diezelfde prijs voor vergelijkbare prestaties zou totaal kansloos zijn. Maar bij AMD lopen allemaal mensen rond die ook denken dat ze vrij kleine verbeteringen, zoals een lager verbruik of wat betere RT, de hoofdprijs kunnen vragen.

Overigens gaat het gerucht dat het topmodel van de nieuwe kaarten tussen de 7900 XT en XTX uitkomt. Maar dat hangt er heel erg vanaf welke kloksnelheden ze echt kunnen halen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • meljor
  • Registratie: November 2004
  • Laatst online: 20-09 16:49
Ludewig schreef op woensdag 11 september 2024 @ 10:27:
Alles hangt ervan af of de prijs/prestatie-verhouding flink verbeterd, of dat AMD weer eens het onderste uit de kan probeert te krijgen, en daardoor de deksel op de neus krijgt.

De chip zelf zou in elk geval flink goedkoper moeten zijn en door bij GDDR6 te blijven zouden de geheugenkosten ook vrij laag moeten zijn.


[...]


De GRE kost al 600 euro, dus diezelfde prijs voor vergelijkbare prestaties zou totaal kansloos zijn. Maar bij AMD lopen allemaal mensen rond die ook denken dat ze vrij kleine verbeteringen, zoals een lager verbruik of wat betere RT, de hoofdprijs kunnen vragen.

Overigens gaat het gerucht dat het topmodel van de nieuwe kaarten tussen de 7900 XT en XTX uitkomt. Maar dat hangt er heel erg vanaf welke kloksnelheden ze echt kunnen halen.
GRE is circa 4070 super prestaties. Die kost ruim 600. Als ze die evenaren met lager verbruik, gelijkwaardige RT en 16gb (4070S heeft 12gb) voor een iets lagere prijs dan heb je een prima midrange kaart waar ze echt nog wel het nodige voor willen hebben. Ik verwacht geen cadeautjes...

XT-XTX prestaties is ook een gerucht idd, helaas komen er maar weinig uit dus ik verwacht dat gewoon niet. Een XTX met lager verbruik en betere RT voor bijna de helft van de prijs klinkt namelijk wel als een cadeautje.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Maar zoiets zal het dan denk ik wel echt moeten zijn wil je echt aandeel gaan pushen, en dan hopen dat Nvidia niet mee gaat doen in de strijd om aandeel.

Ik zie het echt winnen van marktaandeel in ieder geval niet lukken op AMD's oude, vertrouwde wijze van 'een iets minder compleet product hebben dan Nvidia' en en dan iets van €30 tot €100 minder vragen afhankelijk van positie in de stack.

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 22:25
Zo vaak als dat we al geruchten hebben gehoord dat de volgende generatie midrange kaarten prestaties van de topper en de één na snelste kaart zullen gaan leveren voor een vriendelijk prijsje, neem ik dat nu echt met een flink pak zout.

Eerst zien, dan geloven. De 7000 generatie had de 6000 generatie ook in het stof moeten laten bijten. Maar als je dus de 6800XT als referentie neemt, dan is de 7800XT het upgraden nooit waard geweest. Zelfs een upgrade naar de 7900GRE zou ik me bij achter de oren krabben of het de moeite wel waard is.

Bij een gen-on-gen verbetering, zoals eigenlijk Laat staan dat zelfs een 7700XT ook maar de prestaties van een 6800XT zou kunnen bieden, wat werkelijk ijdele hoop geweest bleek te zijn.

Wil AMD potten kunnen breken, dan zou ik 7900XT prestaties verwachten voor 7800XT prijzen. Dus:
7900XT ~= 8800XT (7800XT prijspunt)
7800XT ~= 8700XT (7700XT prijspunt)

enzovoorts.

Dat zou een mooie stap naar meer marktaandeel zijn, maar het lijkt me echt wishful thinking.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@meljor
GRE is circa 4070 super prestaties. Die kost ruim 600.
609 euro om exact te zijn. Dan kun je geen 600 euro vragen voor identieke prestaties.

@Cid Highwind

De 7000-serie had een technisch probleem waardoor hij vrij slecht presteerde ten opzichte van de hardware. Dan is het logisch dat ze niet erg scherp kunnen beprijzen, want ze willen uiteraard geen verlies maken.

Als de 8000-serie erin slaagt om de winst te pakken van het fixen van de fout in de 7000-serie, plus extra prestaties door naar N4P te gaan, plus wat architecturele verbeteringen, dan kunnen ze volgens mij een goede prijs/prestatie bieden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-09 16:49
Ludewig schreef op woensdag 11 september 2024 @ 14:01:
@meljor


[...]


609 euro om exact te zijn. Dan kun je geen 600 euro vragen voor identieke prestaties.

@Cid Highwind

De 7000-serie had een technisch probleem waardoor hij vrij slecht presteerde ten opzichte van de hardware. Dan is het logisch dat ze niet erg scherp kunnen beprijzen, want ze willen uiteraard geen verlies maken.

Als de 8000-serie erin slaagt om de winst te pakken van het fixen van de fout in de 7000-serie, plus extra prestaties door naar N4P te gaan, plus wat architecturele verbeteringen, dan kunnen ze volgens mij een goede prijs/prestatie bieden.
Mark my words.. misschien 550 maar ze gaan echt geen cadeautjes weggeven, zeker niet in een tijd waar ze met AI mega veel kunnen verdienen aan de hardware ( vandaar ook geen high-end nu denk ik, daar kunnen ze veel meer aan verdienen via bedrijven).

Dit is hetzelfde bedrijf die recent een stuk meer durft te vragen voor een cpu die niet sneller is toch?

Ik heb in deze graag ongelijk hoor :) maar vrees het ergste.

Acties:
  • +4 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Als ze een keer echt willen scoren moeten ze een keer als eerste zijn en vervolgens een aggressieve prijs neerzetten, zodat Nvidia moet kiezen tussen de presentatie van een zeer tegenvallend product of meegaan met de aggressieve prijs.

Want als AMD altijd probeert om zo veel mogelijk te vragen, dan blijft het steeds hetzelfde verhaal, waarbij we eerst maar moeten afwachten hoe Nvidia verkoopt en daarop reageert, om daarna pas te kijken waar AMD uiteindelijk uitkomt met de prijs.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar duikt opeens FSR4 op. Zat er allang aan te komen. :z
Because FSR2 and FSR3 were analytical based generation. It was filter based. Now, we did that because we wanted something with a very fast time to market. What I told the team was, "Guys, that's not where the future is going." So we completely pivoted the team about 9-12 months ago to go AI based.
https://www.tomshardware....maximize-power-efficiency

[ Voor 50% gewijzigd door DaniëlWW2 op 14-09-2024 09:29 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Hoop wel dat dit niet weer een marketing fiasco gaat worden, en dat ze wel zorgen dat dit op alle RDNA kaarten gaat werken (of misschien minimaal vanaf RDNA2), aangezien ze in het verleden natuurlijk wel een beetje hebben zitten 'poken' richting Nvidia dat FSR op 'alle' kaarten werkt, terwijl Nvidia DSLSS maar op een 'paar' kaarten supporte destijds. Niet dat ze dit RDNA 3 (of zelfs 4) exclusief maken, en dat commentaar van destijds uiteraard weer als een boomerang terug gaat komen.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Op dit moment is FSR al zo lang 'net niet' geweest dat het belangrijker is dat ze het gat eindelijk eens dichten. FSR2 kan ook gewoon blijven, net zoals FSR1 ook niet verdween.

Een eerlijk verhaal dat het toch nodig is om bepaalde hardware-afhankelijkheid te hebben, is een stuk beter dan het huidige verhaal waar ze het maar niet lukt om op niveau te komen en Sony uit frustratie maar met hun eigen variant is gekomen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Er kan altijd een fallback laag zijn met DP4a. Dat zal alleen niet werken op Navi 10 omdat die chip nog niet deze instructie had. Navi 14 wel.

Maar als er nu gezeur komt dat het niet werkt op elke videokaart van 5 jaar geleden, dan is dat ook gewoon hypocriet. AMD biedt behoorlijke backwards compability met FSR2 en nu FSR3. Resultaat is dat er constant geklaagd dat het niet zo goed is als DLSS versies die wel werken met dedicated hardware, dus koop maar een (nieuwe) Nvidia GPU. Ze worden zo gewoon gestraft omdat ze veel meer gamers toegang geven tot dit soort technologieën waarmee mensen hun videokaart langer kan gebruiken. :z

Ik zou niet verbaast zijn als FSR4 uiteindelijk wel voor RDNA3+ is en misschien via een fallback laag voor RDNA2. En dan hoop ik dat AMD het naar capaciteiten ondersteund voor Arc en Turing+. Want de brede comptabiliteit werkt namelijk voor geen meter. Blijkbaar kan er niet gewaardeerd worden wat FSR2 en FSR3 voor veel gamers met een mindere videokaart heeft gebracht. Nota bene zijn dit soort technieken juist daar relevanter.

De enige waardering is voor AFMF omdat Nvidia dat enorm heeft beperkt met hun miserabele RTX40 serie waar een aanzienlijk deel van die generatie, gewoon waardeloos is. Als ze dat niet hadden gedaan, dan was er ook geen waardering voor AFMF.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
DaniëlWW2 schreef op zaterdag 14 september 2024 @ 11:00:
Er kan altijd een fallback laag zijn met DP4a. Dat zal alleen niet werken op Navi 10 omdat die chip nog niet deze instructie had. Navi 14 wel.

Maar als er nu gezeur komt dat het niet werkt op elke videokaart van 5 jaar geleden, dan is dat ook gewoon hypocriet. AMD biedt behoorlijke backwards compability met FSR2 en nu FSR3. Resultaat is dat er constant geklaagd dat het niet zo goed is als DLSS versies die wel werken met dedicated hardware, dus koop maar een (nieuwe) Nvidia GPU. Ze worden zo gewoon gestraft omdat ze veel meer gamers toegang geven tot dit soort technologieën waarmee mensen hun videokaart langer kan gebruiken. :z
Ben ik zeker met je eens, maar je weet gewoon dat als ze er niet voor zorgen dat het ook werkt op oudere kaarten (Ik vermoed dat RDNA2 daar mogelijk wel een grens gaat zijn in de community), dat er gewoon commentaar zal gaan komen op basis van hun eerdere marketing uitspraken aangaande FSR. En dat wil je eigenlijk gewoon voorkomen om een goede launch te hebben.

Als ze het RDNA3+ kunnen maken en zorgen dat ze het marketing technisch gezien op orde hebben heb ik daar trouwens geen enkel probleem mee. Maar even kijkende vanuit mijn aandeelhouders p.o.v. denk ik niet dat een eventueel marketing 'issue' zal helpen mochten ze daar toch weer tegenaan lopen, waar ik eigenlijk wel een beetje bang voor ben.

[ Voor 13% gewijzigd door Dennism op 14-09-2024 11:44 ]


  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 17:58
Dennism schreef op zaterdag 14 september 2024 @ 11:38:
[...]


Ben ik zeker met je eens, maar je weet gewoon dat als ze er niet voor zorgen dat het ook werkt op oudere kaarten (Ik vermoed dat RDNA2 daar mogelijk wel een grens gaat zijn in de community), dat er gewoon commentaar zal gaan komen op basis van hun eerdere marketing uitspraken aangaande FSR. En dat wil je eigenlijk gewoon voorkomen om een goede launch te hebben.
Nouja, RDNA2 mag inmiddels wel als half-afgeschreven beschouwd worden imo. Dat zijn zo'n oude kaarten, daar hoef je echt geen support meer voor te bieden (qua nieuwe features). RDNA3, dat is net wat anders. Denk als ze daarmee zouden breken, dat is lastig, maar ook niet onvoorstelbaar.

Ja, even backlash, maar als het resultaat een stuk beter is, nog altijd de juiste keuze. En al deze kaarten kunnen nog altijd gebruik maken van de oude FSR. Dat zal misschien even bij de nieuwe launch een kleine backlash hebben, maar in general denk ik wel dat het positief zal worden ontvangen (als het resultaat beter is).

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Snowdog schreef op zaterdag 14 september 2024 @ 11:44:
[...]


Nouja, RDNA2 mag inmiddels wel als half-afgeschreven beschouwd worden imo. Dat zijn zo'n oude kaarten, daar hoef je echt geen support meer voor te bieden (qua nieuwe features). RDNA3, dat is net wat anders. Denk als ze daarmee zouden breken, dat is lastig, maar ook niet onvoorstelbaar.
Ik vermoed dat relatief veel kopers het daar niet mee eens zullen zijn, hou er immers rekening mee dat deze kaarten op dit moment nog steeds actief verkocht worden (bepaalde Sku's) en de range als een geheel nog lang na RDNA3 lancering gepushed is. Als AMD 2 jaar geleden gestopt was met RDNA2 zou ik zo'n redenatie sneller kunnen volgen.

Daarnaast kwam ik in een reddit comment het volgende al tegen van ik vermoed een RDNA2 eigenaar, 'mocht het RDNA3-4 exclusief worden hebben wij alleen de slechte versies gehad en de (mogelijk) goede versie gaan we niet krijgen'. Wat imo nu juist het sentiment is dat je wil voorkomen. Je wil immers straks niet dat RDNA2 klanten zich niet gewaardeerd vinden wanneer zij straks mogelijk gaat kiezen tussen RDNA4 en Blackwell.

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 17:58
Dennism schreef op zaterdag 14 september 2024 @ 11:55:
[...]


Ik vermoed dat relatief veel kopers het daar niet mee eens zullen zijn, hou er immers rekening mee dat deze kaarten op dit moment nog steeds actief verkocht worden (bepaalde Sku's) en de range als een geheel nog lang na RDNA3 lancering gepushed is. Als AMD 2 jaar geleden gestopt was met RDNA2 zou ik zo'n redenatie sneller kunnen volgen.

Daarnaast kwam ik in een reddit comment het volgende al tegen van ik vermoed een RDNA2 eigenaar, 'mocht het RDNA3-4 exclusief worden hebben wij alleen de slechte versies gehad en de (mogelijk) goede versie gaan we niet krijgen'. Wat imo nu juist het sentiment is dat je wil voorkomen. Je wil immers straks niet dat RDNA2 klanten zich niet gewaardeerd vinden wanneer zij straks mogelijk gaat kiezen tussen RDNA4 en Blackwell.
Nouja, iedereen die voor RDNA2 is gegaan heeft dat bewust gedaan omdat het goedkoper was dan RDNA3 en de juiste prestaties gaf. Ze weten zelf ook wel dat je dan soms features mist die naar nieuwe kaarten komen. Zelfs ik als RDNA3-kaarthebben zou er geen probleem mee hebben als het RDNA4-exclusive zou zijn. Soms hebben die kaarten gewoon niet de extra hardware aan boord om dat soort taken te doen.

Qua marktaandeel zal het weinig uitmaken, dat hebben ze op t moment sowieso al niet. En daarnaast is het nog maar de vraag of het uberhaupt beter zal zijn. Het is niet alsof nVidia het hele gebeuren ineens heeft opgezet en het direct beter was. Dat heeft ook vele jaren geduurd. Ik heb meer het idee dat het AI-woordje wordt toegevoegd omdat dat tegenwoordig hip is.

Anyway, wat het ook moge zijn, ik denk dat het allemaal niet zoveel verschil gaat maken en ik denk dat de mensen die nu al zoveel waarde hechten aan het hele upscaling gebeuren sowieso wel voor nVidia kiezen, zelfs als dat een stuk meer zou kosten. En AMD gaat nog jaren nodig hebben om op dat niveau te komen. Hoewel het verschil klein is, maken al die frame-perfect channels wel duidelijk dat er wel verschil is. Of je dat nou ziet tijdens gamen of niet.

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Dennism schreef op zaterdag 14 september 2024 @ 11:55:
[...]


Daarnaast kwam ik in een reddit comment het volgende al tegen van ik vermoed een RDNA2 eigenaar, 'mocht het RDNA3-4 exclusief worden hebben wij alleen de slechte versies gehad en de (mogelijk) goede versie gaan we niet krijgen'. Wat imo nu juist het sentiment is dat je wil voorkomen. Je wil immers straks niet dat RDNA2 klanten zich niet gewaardeerd vinden wanneer zij straks mogelijk gaat kiezen tussen RDNA4 en Blackwell.
Ik verwacht zelf dat FSR RDNA4 exclusive wordt, puur omdat ik denk dat er nieuwe hardware voor nodig is. En hoewel ik dat best jammer ga vinden (heb net mn 6600 geupgrade naar een 7800xt), heb ik niet persee de illusie dat het bij nvidia beter gaat, daar zijn de nieuwe features per definitie latest-gen only.

Kwa RDNA2-kopers, ik verwacht dat iedereen die post-rdna3 launch een rdna2 kaart kocht, toch soort van zich bewust was van het feit dat ie een oudere generatie kocht (en daar hopelijk een goeie deal mee heeft kunnen krijgen), net als dat iemand die nu een 3060 koopt niet persee verrast mag zijn dat DLSS 3 niet werkt.

Daarnaast, iemand die in het afgelopen jaar een higher end rdna2 kaart heeft gekocht, zou ik niet persee als early rdna4 adopter verwachten. De enige reden dat ik mijn 6600 heb vervangen is omdat ik van 1080p naar 3440*1440 ben gegaan.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ze hebben het juist over de handhelds, dus dan gaat het om de RDNA4-APUs. Het is logisch dat ze daarvoor dan een nieuwe generatie nodig hebben, maar of het dan ook nodig is voor de GPUs moeten we dan nog maar zien.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Ludewig schreef op zaterdag 14 september 2024 @ 17:45:
Ze hebben het juist over de handhelds, dus dan gaat het om de RDNA4-APUs. Het is logisch dat ze daarvoor dan een nieuwe generatie nodig hebben, maar of het dan ook nodig is voor de GPUs moeten we dan nog maar zien.
Tenzij desktop RDNA2/3 features/hardware aan boord hebben, die niet in mobile/handheld RDNA2/3 chips zitten zie ik het niet gebeuren dat FSR4 dan wel op desktop RDNA 2/3 spul gaat draaien.

en om eerlijk te zijn lijkt dat me bijzonder onwaarschijnlijk, zowel kwa SOC ontwikkeling als driver maintenance lijkt het me bijzonder klote als de ene RDNA2 chip andere capabilities heeft dan de andere, dan moet je wel bijzonder veel winst kunnen halen uit het schrappen van wat "desktop" features. En als die al geschrapt kunnen worden, waarom heeft de desktop versie ze dan? (zeker als er kennelijk noemenswaardige winst te halen is door ze te schrappen)

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:40

rapture

Zelfs daar netwerken?

DaniëlWW2 schreef op dinsdag 10 september 2024 @ 15:28:
Qua professionele kant is CDNA aardig aan de weg aan het timmeren. Maar de beste manier om dit te leren, is waarschijnlijk klooien met een goedkopere desktop GPU. En dat is nu RDNA en niet CDNA. Zeker omdat Nvidia dit ook steeds moeilijker aan het maken is met de enorme prijzen en veel te weinig VRAM. Iets zoals een RX7900XTX is er in theorie geweldig voor gezien de prijs, gewoon wel 24GB aan VRAM en wat voor hardware je eigenlijk hebt, maar dat hebben ze ook niet goed uitgebuit.

Ik snap de zet dus wel, maar het voelt alsof ze weer achter feiten aanlopen. Ondertussen heeft Nvidia zo bizar veel geld verdiend de afgelopen twee jaar. Als ze ook maar een fractie herinvesteren, dan lopen ze gewoon keihard weg. In dat licht zie ik RDNA4 misschien ook een beetje. Op software features in high end, zie ik AMD gewoon niks kunnen leveren. Dan maar echt midrange en marktaandeel.
Nvidia heeft 15+ jaren lang in CUDA geïnvesteerd en de developers zijn in voorbije 15+ jaren met een GeForce opgegroeid. In de scholen wordt de voorkeur voor Microsoft, Adobe, CUDA,... erin gelepeld.

AMD kan nu dankzij Nvidia prijsstelling (upsellen naar je budget verdubbelen) en karige VRAM de volgende generatie developers met AMD GPU's laten opgroeien en het wordt 10 tot 15 jaren later zichtbaar. 2040 is wel ver.

Wat wel helpt is dat niemand op een Nvidia monopolie zit te wachten zoals hoe Wintel vroeger was. Er zijn meerdere partijen die niet snel genoeg CUDA en Nvidia-afhankelijkheid eruit willen trappen.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ludewig schreef op zaterdag 14 september 2024 @ 10:47:
Sony uit frustratie maar met hun eigen variant is gekomen.
Komt hoogstwaarschijnlijk juist uit AMD's lade. Sony en AMD werken heel nauw samen, dus waar Sony nu mee komt is waarschijnlijk een voorloper/variant van FSR4. Die samenwerking gaat een stuk verder dan ze voorheen met partners werkten en GNM ligt een stuk dichter op Mantle/Vulkan dan PSGL bij Nvidia's CG lag (dat was de API op de PS3, die losjes op CG gebaseerd was).
Snowdog schreef op zaterdag 14 september 2024 @ 11:44:
Nouja, RDNA2 mag inmiddels wel als half-afgeschreven beschouwd worden imo. Dat zijn zo'n oude kaarten, daar hoef je echt geen support meer voor te bieden (qua nieuwe features).
Oud? De voorlaatste generatie? Met hoe GPU's gestagneerd zijn en er weinig tot geen vooruitgang in de render snelheid zat in de laatste generatie (raster omdat ze daar tegen een muur aan lopen, RT omdat geen van beide daar daadwerkelijk iets nieuws gedaan heeft), zijn juist de 6000's en 3000's belangrijk. Velen zullen niet zo rap upgraden naar de volgende generatie (zeker als ze geen absolute performance kroon halen) en een exclusieve FSR4 zou AMD juist tegen werken. Als het op oudere generaties werkt, zetten ze Nvidia een hak omdat zij hun eerdere generaties wél uitsluiten van nieuwere features. Dat werkt mindshare in de hand en dát is wat AMD nodig heeft. Dat is stap 1 naar marktaandeel, een plek náást Nvidia in de gedachten van 95% van de gamers verkrijgen. Turing en Pascal worden nog steeds bizar veel gebruikt door de absurde prijzen van tegenwoordig.

Áls (en dat is een hele dikke áls) ze het voor elkaar kunnen krijgen FSR4 op z'n minst zo effectief kunnen laten zijn als FSR2 op oudere kaarten, maar dan met licht verbeterde IQ, is dat de manier om mensen te overtuigen dat ze het weldegelijk kunnen.

Het andere deel van het verhaal is doen wat met name Nvidia nooit zou doen: optimaliseren voor de concurrent. Laat FSR4 maar fijn op CUDA draaien op Nvidia als dat sneller is dan OpenCL (CUDA is niet altijd sneller, er zijn toepassingen waar je beter OpenCL kunt gebruiken).

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Je hebt gelijk dat ik aan het speculeren was. Het zou kunnen dat Sony een voorschot neemt op waar AMD al mee bezig was, maar het kan natuurlijk ook dat Sony dit afgedwongen heeft bij AMD.

En wat betreft de 4000-serie is de grote winst de sterk verbeterde efficiëntie. Ik heb zelf net zeer voordelig kunnen overstappen naar een 4070 en met een undervolt is hij echt superzuinig. Al komt dit voor een deel doordat Nvidia is overgestapt van Samsung naar TSMC.

AMD zit nog op N5 met de 6000-serie, maar hopelijk kunnen ze met de komende kaarten ook een hoge efficiëntie halen.

[ Voor 11% gewijzigd door Ludewig op 23-09-2024 09:30 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ludewig schreef op maandag 23 september 2024 @ 09:29:
Je hebt gelijk dat ik aan het speculeren was. Het zou kunnen dat Sony een voorschot neemt op waar AMD al mee bezig was, maar het kan natuurlijk ook dat Sony dit afgedwongen heeft bij AMD.
Zal een beetje van beide zijn. Sony wilde een beter, "eigen" upscaling algoritme, AMD wist ook al dat het nodig was dus daar zal door beide geld in gestoken zijn. Het is het trainen van het netwerk dat tijd, moeite en dus geld kost maar Sony heeft bij uitstek toegang tot een breed scala aan games om op te trainen.

De Xbox APU en omliggende chips liggen veel dichter op "standaard" ontwerpen van Zen/RDNA dan de PS5. Die laatste zou op papier ook een stuk trager dan de Xbox moeten zijn, maar in de praktijk ligt dat anders. Zoiets als de PS5's audio chip komt ook bij AMD vandaan, dat is een evolutie van TrueAudio (iets dat op de PC helaas nooit echt is doorgebroken :(). De I/O is waar Sony (vooral Cerny waarschijnlijk :p) bij AMD aanklopte met de vraag of dat sneller kon, et voilá, je hebt dat absurd snelle systeem dat het ding heeft. Allerlei kleine tweaks die er voor zorgen dat die kleine APU verrekte snel is, samen met GNM(X) natuurlijk.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Werelds

Het heeft wel erg lang geduurd voordat AMD het roer omgooide. Dat kan een indicatie zijn dat Sony wat geforceerd heeft, terwijl AMD de stand van zaken eigenlijk wel goed genoeg vond (of er geen ontwikkelcapaciteit voor wilde vrijmaken). Maar FSR 4 kan ook weer afhankelijk zijn van hardware features, en ze beginnen al lang voordat een GPU in de winkel ligt met het ontwerp. Dus misschien is het besluit al lang geleden genomen, maar moest het wachten op de nieuwe generatie. Het blijft lastig om te bepalen wat er nu aan de hand is met de te beperkte info die we hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
@Ludewig kan ook zijn dat AMD gewoon meer tijd nodig heeft om het goed te laten werken op meerdere GPU's zónder matrix ALU's (tensor cores) :)

We weten nog steeds niet wat er wel of niet in de PS5 Pro APU zit, maar het is twijfelachtig of dat een stap van RDNA2+tweaks naar RDNA3 is, laat staan 4. We weten ook niet of AMD de matrix ALU's van CDNA al in RDNA4 brengt. Vooralsnog ga ik uit van een getweaked ontwerp, geen volledig ander ontwerp, omdat er anders een te groot compatibiliteitsprobleem ontstaat in het PS ecosysteem. En dan is het logischer dat AMD hun netwerk op hun normale ALU's moet laten werken, wat behoorlijk wat optimalisatie vergt.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
We weten nog niet wat de vereisten zijn van FSR 4. Het zou mij niet verbazen als dat niet werkt op alle kaarten.

En de PS5 is eigenlijk gewoon een PC op basis van een APU, dus dan kunnen ze in principe zonder compatibiliteitsproblemen naar een nieuwe RDNA versie gaan. Je games blijven op de PC immers ook gewoon werken als je een nieuwere kaart koopt.

[ Voor 52% gewijzigd door Ludewig op 23-09-2024 13:28 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ludewig schreef op maandag 23 september 2024 @ 13:27:
We weten nog niet wat de vereisten zijn van FSR 4. Het zou mij niet verbazen als dat niet werkt op alle kaarten.
Dat is mijn punt juist; FSR4 en Sony's upscaling maken beide gebruik van een neuraal netwerk, maar het ligt voor de hand dat ze het netwerk delen. De kans dat Sony dat geheel zelfstandig heeft ontwikkeld is extreem klein...dus dan is het de hardware die dicteert hoe het werkt. Tenzij de PS5 Pro's APU dan matrix ALU's, moet het geheel ook op "ouderwetse" ALU's werken, waarom zou AMD dat dan niet ook uitrollen naar desktop? ;)
En de PS5 is eigenlijk gewoon een PC op basis van een APU, dus dan kunnen ze in principe zonder compatibiliteitsproblemen naar een nieuwe RDNA versie gaan. Je games blijven op de PC immers ook gewoon werken als je een nieuwere kaart koopt.
Werken, ja. Optimaal? Nee. De PS5 zit dichter op een desktop PC qua hardware, waardoor sommige optimalisaties makkelijker cross-platform te doen zijn, maar dat gaat vooral om x86 vs PowerPC voorheen. Dat is ook waar de vergelijking ophoudt, want op een PC (ongeacht of dat Windows of Linux) heb je te maken met algemene API's en drivers; op consoles zit dat alles veel dichter op elkaar en heb je stukken minder overhead.

Aan de GPU kant is het anders dan met de CPU. Je hebt van de ene GPU generatie tot de volgende altijd nét iets andere optimalisaties en juist RDNA 3 (en dus ook 4) heeft enkele flinke veranderingen. Pixel shaders zijn bijvoorbeeld fors verbeterd, in RDNA2 en eerder kun je veel makkelijker tegen een bottleneck aanlopen en zijn compute shaders soms veel sneller wanneer je het niet verwacht. Een even eenvoudig voorbeeld aan de andere kant is bijvoorbeeld de grotere L2$ in Ada; zo'n wijziging maakt voor consoles veel meer uit omdat er op consoles veel meer micro-optimalisaties op een heel laag niveau toegepast worden omdat het een vaste set hardware is.

Voor Sony is het belangrijk dat PS5 games gewoon werken op de Pro, dus een architectuur upgrade is niet zo voor de handliggend als je zou denken.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Is er al iets bekend (gerucht) over welke stroom connectoren de RX 8000 / RDNA 4 kaarten krijgen?

Ik meen er iets over gelezen te hebben maar kan in dit forum en m.b.v. google niets (meer) vinden.

Gezien het feit dat het "midrange" kaarten worden hoop ik/verwacht ik gewoon 6/8-pins connectoren?

[ Voor 20% gewijzigd door HugoBoss1985 op 24-09-2024 11:40 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
HugoBoss1985 schreef op dinsdag 24 september 2024 @ 11:40:
Is er al iets bekend (gerucht) over welke stroom connectoren de RX 8000 / RDNA 4 kaarten krijgen?

Ik meen er iets over gelezen te hebben maar kan in dit forum en m.b.v. google niets (meer) vinden.

Gezien het feit dat het "midrange" kaarten worden hoop ik/verwacht ik gewoon 6/8-pins connectoren?
Qua TDP zijn alle geruchten voor RDNA4 onder de 300W, dus gewoon 6/8-pins connectoren ja.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
HugoBoss1985 schreef op dinsdag 24 september 2024 @ 11:40:
Is er al iets bekend (gerucht) over welke stroom connectoren de RX 8000 / RDNA 4 kaarten krijgen?

Ik meen er iets over gelezen te hebben maar kan in dit forum en m.b.v. google niets (meer) vinden.

Gezien het feit dat het "midrange" kaarten worden hoop ik/verwacht ik gewoon 6/8-pins connectoren?
Lees dat er informatie komt op 7 januari, tegelijk met Nvidia?

https://computercity.com/...20in%20the%20tech%20world.

Ben ik ook wel benieuwd naar en vooral naar de levertijd. Net nieuw scherm gekocht wat 240hz heeft. Momenteel kan alleen de 7900 XTX dit leveren.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Wackmack schreef op dinsdag 26 november 2024 @ 13:30:
[...]


Lees dat er informatie komt op 7 januari, tegelijk met Nvidia?

https://computercity.com/...20in%20the%20tech%20world.

Ben ik ook wel benieuwd naar en vooral naar de levertijd. Net nieuw scherm gekocht wat 240hz heeft. Momenteel kan alleen de 7900 XTX dit leveren.
Het wordt toch wel interessant met AMD, Intel en NVIDIA die nieuwe generaties gaan presenteren.
Intel wellicht al rond Black Friday.
Ik hoop dat dit resulteert in leuke kaartjes voor leuke prijzen.

Ik meen ergens iets gelezen te hebben dat Intel in ieder geval bij de traditionele PCI-E power stekkers blijft.
Wellicht op videocardz.com

AMD lijkt verbazend goed in het beperken van leaks over RDNA 4.

[ Voor 6% gewijzigd door HugoBoss1985 op 26-11-2024 13:34 ]


Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
HugoBoss1985 schreef op dinsdag 26 november 2024 @ 13:32:
[...]


Het wordt toch wel interessant met AMD, Intel en NVIDIA die nieuwe generaties gaan presenteren.
Intel wellicht al rond Black Friday.
Ik hoop dat dit resulteert in leuke kaartjes voor leuke prijzen.

Ik meen ergens iets gelezen te hebben dat Intel in ieder geval bij de traditionele PCI-E power stekkers blijft.
Wellicht op videocardz.com

AMD lijkt verbazend goed in het beperken van leaks over RDNA 4.
AMD lijkt verbazend goed in het beperken van leaks over RDNA 4. = omdat ze misschien weten ze helaas toch niet in de buurt komen van Nvidea?

Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Wackmack schreef op dinsdag 26 november 2024 @ 13:37:
[...]


AMD lijkt verbazend goed in het beperken van leaks over RDNA 4. = omdat ze misschien weten ze helaas toch niet in de buurt komen van Nvidea?
Het is schijnbaar helemaal niet het plan van AMD om in de buurt te komen van Nvidia qua top end.
De geruchten zijn midrange, max 7900XT performance qua raster.

Ik ben zelf ook niet geïnteresseerd in kaarten van niveau 4080/4090, door de prijzen die daar bij horen.

500-600 is mooi zat.
Als daar een 7900XT performance met betere RT (RT is niet doorslaggevend voor mij) en een acceptabel stroomverbruik bij hoort dan heeft AMD wat mij betreft al een winnaar.
Die markt is veel groter dan de enkeling die 1000-2000 neerlegt voor een videokaart.
Maar de kans is groot dat ik nog even lekker door doe met de 6800 XT.
Een upgrade zou ik anders wel leuk vinden zodat de 6800 XT in mijn 1440p bak kan.
Wederom 16gb zou ik dan jammer vinden maar ze willen denk ik nog ruimte overlaten om hun 7900XT met 20gb te kunnen verkopen.
Als je naar Flight Simulator 2024 kijkt dan is is er al een reëel bestaansrecht en usecase voor kaarten met 20gb (of nou ja, meer dan 16gb) of meer vram.

Plaatje van internet; de meeste gebruikers zullen hier 18.849 gb zien in hun overlay en/of HWinfo64 maar dat is puur dedicated.
Het daadwerkelijke gebruik gaat wel gewoon lekker over de 16gb heen.
En Nvidia gaat schijnbaar de 5070 releasen met wéér 12gb erop (zodat men volgende gen van de 5070 naar de 6070 met 14gb gaat upgraden :+) 8)7

Afbeeldingslocatie: https://tweakers.net/i/DBlOOjz1XHb7eudOYUe81ufAjX0=/800x/filters:strip_exif()/f/image/yzPoH7KUAofy6ANg6LRMQMFk.png?f=fotoalbum_large

Bovenstaande puur vanuit gaming perspectief.

Wie weet wat AMD gaat doen, wellicht hebben ze NVIDIA geplayed en komt er wel een high end kaart :P

[ Voor 44% gewijzigd door HugoBoss1985 op 26-11-2024 13:58 ]


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
HugoBoss1985 schreef op dinsdag 26 november 2024 @ 13:40:
[...]


Het is schijnbaar helemaal niet het plan van AMD om in de buurt te komen van Nvidia qua top end.
De geruchten zijn midrange, max 7900XT performance qua raster.

Ik ben zelf ook niet geïnteresseerd in kaarten van niveau 4080/4090, door de prijzen die daar bij horen.

500-600 is mooi zat.
Als daar een 7900XT performance met betere RT (RT is niet doorslaggevend voor mij) en een acceptabel stroomverbruik bij hoort dan heeft AMD wat mij betreft al een winnaar.
Die markt is veel groter dan de enkeling die 1000-2000 neerlegt voor een videokaart.
Maar eigenlijk is dat toch ook armoe troef?

Kijk naar bijvoorbeeld je eigen 6800XT, een kaart van destijds €669 bij introductie, al zou een RDNA 4 kaart 7900XT performance leveren voor 600 (Euro of dollar?), is dat nog steeds niet heel erg goed 2 generaties later. Immers kijkende naar wat reviews van destijds is een 7900XT slechts zo'n +-27% sneller. De vorige generatie was dat al niet goed (+-27% sneller terwijl +-39% duurder kijkende naar de dollar prijzen bij
introductie).

Kijk je dan 2 generaties later en zouden RDNA4 +- hetzelfde kosten als destijds een 6800XT dan is 4+ jaar later +-27% meer snelheid op een gelijk prijspunt ook gewoon niet goed te noemen.

En dan nog de vraag wat je bedoelde met '600', daar iets met een consumenten prijs van €600 hier in de US 'slechts' $519 mag kosten op het moment. En ergens verwacht ik AMD's top model, ook al gaan ze niet voor het echte high end, en dus ergens in het hogere middensegment toch wel wat duurder dan dat. Rn dan kom je dus in de buurt vermoed ik van de prijs van de 6800XT destijds ($649). Echter waar destijds een $649 adviesprijs hier een adviesprijs in euro's van €669 (volgens de Tweakers review) opleverde, zou dat nu met de formule die AMD normaal hanteert om adviesprijzen om te rekenen van dollar naar euro op dit moment al €750 zijn.

Als AMD echt een redelijke gen on gen on gen verbetering wil leveren zou je eigenlijk +-4080 / 7900XTX prestaties willen zien voor +- $649. Dan krijg je +- 45% prestatie verbetering verdeeld over 2 generaties (dus gemiddeld 22.5% per generatie) op het zelfde prijspunt. Niet al te lang geleden werd minimaal 30% verbetering gen on gen bij een gelijk prijspunt eigenlijk nog als minimaal gezien.

[ Voor 8% gewijzigd door Dennism op 26-11-2024 17:46 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Dennism schreef op dinsdag 26 november 2024 @ 17:39:
[...]


Maar eigenlijk is dat toch ook armoe troef?

Kijk naar bijvoorbeeld je eigen 6800XT, een kaart van destijds €669 bij introductie, al zou een RDNA 4 kaart 7900XT performance leveren voor 600 (Euro of dollar?), is dat nog steeds niet heel erg goed 2 generaties later. Immers kijkende naar wat reviews van destijds is een 7900XT slechts zo'n +-27% sneller. De vorige generatie was dat al niet goed (+-27% sneller terwijl +-39% duurder kijkende naar de dollar prijzen bij
introductie).

Kijk je dan 2 generaties later en zouden RDNA4 +- hetzelfde kosten als destijds een 6800XT dan is 4+ jaar later +-27% meer snelheid op een gelijk prijspunt ook gewoon niet goed te noemen.

En dan nog de vraag wat je bedoelde met '600', daar iets met een consumenten prijs van €600 hier in de US 'slechts' $519 mag kosten op het moment. En ergens verwacht ik AMD's top model, ook al gaan ze niet voor het echte high end, en dus ergens in het hogere middensegment toch wel wat duurder dan dat. Rn dan kom je dus in de buurt vermoed ik van de prijs van de 6800XT destijds ($649). Echter waar destijds een $649 adviesprijs hier een adviesprijs in euro's van €669 (volgens de Tweakers review) opleverde, zou dat nu met de formule die AMD normaal hanteert om adviesprijzen om te rekenen van dollar naar euro op dit moment al €750 zijn.
Helemaal mee eens!

De "upgrade" naar 8800XT voor 500-600 Euro (dat bedoelde ik/ging ik voor het gemak vanuit) is dan puur die 27% raster, wat meer RT en wellicht iets minder stroomverbruik (?).
Wie weet wat de 8800XT gaat doen qua stroomverbruik.

T.o.v. de 7900XT is het dan alleen RT en stroomverbruik.

Oef dus een 8800XT wordt wellicht al gauw €750... ?
Ik heb met de btw niet meegerekend in de USA versus hier niet echt rekening gehouden O-)

Ik heb in het verleden wel eens een "vergelijkbare" upgrade gedaan (nouja sidegrade... hobby he ;)) van een R9 290 4gb naar een RX480 8gb.
Als ik mijn 7900XT nog zou hebben zou dat vergelijkbaar zijn naar de 8800XT (als specs een beetje leaks kloppen).

Die 8gb heeft op de langere termijn wel geholpen maar het stroomverbruik was fors minder.
Qua prestaties hoefde ik dat ook niet te doen.

[ Voor 11% gewijzigd door HugoBoss1985 op 26-11-2024 17:58 ]


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
HugoBoss1985 schreef op dinsdag 26 november 2024 @ 17:47:


Oef dus een 8800XT wordt wellicht al gauw €750... ?
Dat weet natuurlijk alleen AMD, echter een consumentenprijs van $649 (in de US adverteren ze zonder belastingen) is hier met de koers van vandaag en inclusief BTW (hier is immers adverteren naar consumenten met een incl. BTW prijs wettelijk verplicht) op dit moment +- €750 omdat de dollar omhoog gekropen is ten opzichte van de euro.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Dennism schreef op dinsdag 26 november 2024 @ 17:49:
[...]


Dat weet natuurlijk alleen AMD, echter een consumentenprijs van $649 (in de US adverteren ze zonder belastingen) is hier met de koers van vandaag en inclusief BTW (hier is immers adverteren naar consumenten met een incl. BTW prijs wettelijk verplicht) op dit moment +- €750 omdat de dollar omhoog gekropen is ten opzichte van de euro.
Ja je hebt gelijk.
Nou ja, ik zie het wel.
Wellicht hou ik de 6800 XT voor "4k" (met upscaling en framegen...) gaming en koop ik iets simpelers voor 1440p gaming op de andere pc.

Het is ook meer dat het upgrade virus er is en dat ik voor die 1440p pc een beter grafische kaart wil.
Als die 4k bak dan ook wat snellers heeft is dat mooi.
Maar voor €750 ga ik wellicht geen 8800XT overwegen.
En wie weet wat de AIB's er bovenop gooien.

Ik ga zowieso even wachten tot volgend jaar januari/februari alle "kaarten" van dat moment op tafel liggen.
Maar dat het geen Nvidia wordt weet ik al wel.

De 6800 en 6900 kaarten zijn juweeltjes (als je niet om RT geeft).

[ Voor 14% gewijzigd door HugoBoss1985 op 26-11-2024 18:02 ]


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wackmack schreef op dinsdag 26 november 2024 @ 13:37:
[...]


AMD lijkt verbazend goed in het beperken van leaks over RDNA 4. = omdat ze misschien weten ze helaas toch niet in de buurt komen van Nvidea?
Eerder omdat AMD in de regel altijd heel goed is in niks lekken over hun videokaarten. Dat RDNA(1) bestond en het geen GCN was, lekte minder dan een week voor de aankondiging pas uit. :z
De meeste leaks over RDNA2 waren gewoon fout want RDNA2 bleek een stuk sneller te zijn. RDNA3 ging ook fout. Daar lekte de specificaties goed uit, maar de performance bleek heel wat minder te zijn.

Maar we weten stiekem al best wat:
-Vrijwel zeker een focus op midrange, geen high end.
-Focus op betere RT.
-Sony heeft PSSR aan AMD gegeven als basis voor een ML based FSR upscaling. En er vallen hints dat AMD daar nu echt mee bezig is.

Verder wat maakt het uit dat ze niet competitief met Nvidia hun high end zijn? Vrijwel niemand kocht het.
Het maakt alleen wat uit als je toch high end Nvidia kocht en nu kan rekenen op de hoofdprijs die Nvidia gaat vragen. Maar ondertussen snakt deze markt al jaren naar een fatsoenlijk midrange product. Ampere/RDNA2 generatie is verpest door cryptomining. Ada was en is veel te duur en de "midrange" SKU's zijn gewoon een belediging. Bij RDNA3 kwam de RX7800XT veel te laat en die was alsnog aan de dure kant. RX7700XT is ook nog te duur, voornamelijk tegenover de RX7800XT. Videokaarten met 8GB aan VRAM zijn gewoon geldverspilling voor gaming en dat was anderhalf jaar geleden al zo. Het is gewoon te weinig en dat mag ook eindelijk wel eens.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
DaniëlWW2 schreef op dinsdag 26 november 2024 @ 18:27:
[...]


Eerder omdat AMD in de regel altijd heel goed is in niks lekken over hun videokaarten. Dat RDNA(1) bestond en het geen GCN was, lekte minder dan een week voor de aankondiging pas uit. :z
De meeste leaks over RDNA2 waren gewoon fout want RDNA2 bleek een stuk sneller te zijn. RDNA3 ging ook fout. Daar lekte de specificaties goed uit, maar de performance bleek heel wat minder te zijn.

Maar we weten stiekem al best wat:
-Vrijwel zeker een focus op midrange, geen high end.
-Focus op betere RT.
-Sony heeft PSSR aan AMD gegeven als basis voor een ML based FSR upscaling. En er vallen hints dat AMD daar nu echt mee bezig is.

Verder wat maakt het uit dat ze niet competitief met Nvidia hun high end zijn? Vrijwel niemand kocht het.
Het maakt alleen wat uit als je toch high end Nvidia kocht en nu kan rekenen op de hoofdprijs die Nvidia gaat vragen. Maar ondertussen snakt deze markt al jaren naar een fatsoenlijk midrange product. Ampere/RDNA2 generatie is verpest door cryptomining. Ada was en is veel te duur en de "midrange" SKU's zijn gewoon een belediging. Bij RDNA3 kwam de RX7800XT veel te laat en die was alsnog aan de dure kant. RX7700XT is ook nog te duur, voornamelijk tegenover de RX7800XT. Videokaarten met 8GB aan VRAM zijn gewoon geldverspilling voor gaming en dat was anderhalf jaar geleden al zo. Het is gewoon te weinig en dat mag ook eindelijk wel eens.
Vind jij ook dat 12gb vram het nieuwe minimum is?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
HugoBoss1985 schreef op dinsdag 26 november 2024 @ 22:09:
[...]


Vind jij ook dat 12gb vram het nieuwe minimum is?
Voor gaming zou ik zeggen ja, tenzij misschien echt aan de onderkant van de range gaat zitten. Maar dan wil je geen €400 of meer (en eigenlijk ook niet neer dan €300 imho) voor een GPU betalen.

[ Voor 6% gewijzigd door Dennism op 26-11-2024 23:49 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
DaniëlWW2 schreef op dinsdag 26 november 2024 @ 18:27:
Maar ondertussen snakt deze markt al jaren naar een fatsoenlijk midrange product.
Eens, maar ik vraag me wel af of RDNA4 dat dan wel gaat zijn. Generatie na generatie komt het er niet echt van, en er is altijd wel een reden voor. En ik zie eigenlijk gebaseerd op de spaarzame geruchten dat bijvoorbeeld Navi 48 dat gat ook niet direct vullen als die geruchten kloppen, of die 56 CU's waar ik laatst was over las, gecombineerd met relatief traag geheugen moet uiteindelijk toch niet kloppen of de winst per CU moet enorm zijn.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op dinsdag 26 november 2024 @ 22:09:
[...]


Vind jij ook dat 12gb vram het nieuwe minimum is?
Voor low end ja, voor midrange is het 16GB.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
DaniëlWW2 schreef op woensdag 27 november 2024 @ 08:43:
[...]


Voor low end ja, voor midrange is het 16GB.
Heel eerlijk zie ik dat niet gebeuren, het zou mij in ieder geval weinig verbazen als het echte low end 'gewoon' 8GB blijft, je 12 GB gaat zien in de lower midrange / midrange (en misschien bij Nvidia zelfs in upper midrange) en dan pas 16GB in upper midrange en hoger (en bij AMD misschien ook in midrange daar ze een kleinere range zullen hebben).

Maar ik zie echt niet alle 60/600 serie en 70/700 serie kaarten van zowel AMD and Nvidia minimaal 16GB krijgen. Al is tegenwoordig een 60/600 kaart afhankelijk van de definitie die je daarvoor aanhoud eigenlijk al geen midrange meer te noemen omdat ze tegenwoordig al een paar generaties lang (vrijwel) aan de onderkant van de range zitten en niet meer ongeveer in het midden.

En dat is misschien ook een vraag die gesteld moet worden, wat zien we tegenwoordig als midrange met alle verschuivingen qua positionering bij beide merken op zowel het vlak van kosten als het eroderen van de range aan de onderkant en het uitbreiden aan de bovenkant.

[ Voor 12% gewijzigd door Dennism op 27-11-2024 09:46 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Het ligt vast erg aan wat je speelt, wat mijn RTX3070 heb ik één spel waarbij ik denk dat bij hogere instellingen hij tegen zijn VRAM aan loopt (een VR spel, die zijn vaak niet heel geweldig geoptimaliseerd, maar goed, impact veranderd niet natuurlijk).

Nu zou ik bij een moderne mid-end zeker meer verwachten, geen discussie daar. Maar ik denk als je nu een "low-end" zou kopen, dat 8GB VRAM echt bijna nooit de limiterende factor gaat zijn. Want het is leuk als je met de textures voor 4k kan spelen op je low end GPU, die dan nog 15 FPS haalt omdat hij gewoon te weinig rekenkracht heeft.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
https://wccftech.com/amd-...x-on-par-rtx-4080-raster/

8800 XT

+45% RT vs 7900XTX (RE4 of RE 7 Biohazard?)
Raster = 4080
Power = 250-270 watt (4070ti /Super)

[ Voor 14% gewijzigd door HugoBoss1985 op 02-12-2024 15:39 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:56
Maar wat wordt de prijs...

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 19:24

Mars Warrior

Earth, the final frontier

Als de performance rond de 40470 Ti/4080 ligt, dan zou ik als boerenpummel zeggen: niet boven de prijs van de 4080. Dus dan hangt het af wat nVidia gaat neerzetten met de 5000 serie en wat het gevolg is voor de 4000 serie.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
https://videocardz.com/ne...-xt-as-220w-graphics-card

2x 8pin pci-e power... laat het AUB waar zijn :)

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Vanwaar? Als in, daarmee kan je 375W TDP nog hebben. Als dat ding daar in de buurt komt is hij DOA. Of als je bedoelt niet de 12 pin, ze hebben nog nooit laten zien bij AMD dat ze naar de 12 pin connector willen.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Meer wat is de die size nu.
Want dat dicteert uiteindelijk de prijs vooral en ik denk minder hoe Navi 48 zal presteren. Want dat lijkt wel aardig te zitten en high end gaat het toch niet zijn. Gaat al meer dan een jaar steeds tussen de RX7900XT en RX7900XTX rond en een forse RT verbetering.

Want bij Nvidia kan je rekenen op forse chips vanwege alle andere features die ze tegenwoordig hebben. Als AMD dan met een relatief kleine chip, goede raster en RT kan leveren, dan kunnen ze daadwerkelijk op prijs gaan concurreren. Daarnaast kan dit wel eens de kans zijn dat Nvidia niet al te scherp zal reageren omdat ze op het moment zoveel verdienen met AI.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
HugoBoss1985 schreef op maandag 2 december 2024 @ 13:51:
https://wccftech.com/amd-...x-on-par-rtx-4080-raster/

8800 XT

+45% RT vs 7900XTX (RE4 of RE 7 Biohazard?)
Raster = 4080
Power = 250-270 watt (4070ti /Super)
Misschien een aankondiging op CES, of zou dat te vroeg zijn?

nieuws: AMD houdt op 6 januari persconferentie tijdens CES 2025

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Volgens mij is het al tijden de verwachting dat zowel Nvidia als AMD de nieuwe kaarten op CES gaan presenteren. Te vroeg vermoed ik dus ook eigenlijk niet, ik denk dat het eerder verbazingwekkend gaat zijn (en dan niet in goede zin qua verwachtingspatroon in de tech community) als een van deze beide partijen de boel niet op CES zou aankondigen maar later.

[ Voor 3% gewijzigd door Dennism op 03-12-2024 20:40 ]


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:40

rapture

Zelfs daar netwerken?

Er zijn 2 benaderingen:
  • Kijken naar de historische verbeteringen in process verkleining of optimalisatie zoals van 7nm naar goedkopere efficiëntere 6nm, 5nm naar 4nm,... gaan. Als dezelfde performance behaald wordt door van 500+ mm2 die size naar 350 mm2 inkrimpen en een heel eind omhoog klokken dan daalt het naar de prijsklasse van RX 7700 XT en RX 7800 XT.
  • 30% korting op de Nvidia GPU winkelprijs toepassen of 30% meer performance voor hetzelfde geld geven. 30% korting op de winkelprijs van een RTX 4070 Ti Super of RTX 4080 geven, is een prijs waarop AMD kan richten. Dat is wat verschil in features, software ondersteuning en mindshare met de prijsstelling doet. Voor AMD is high-end GPU niet zinvol als ze altijd 30% korting moeten geven en niet de hoofdprijs kunnen krijgen. Als Nvidia de prijs van een halo product verdubbelt, dan verkoopt dat nog altijd even goed aan mensen die niet op paar duizend dollar moeten kijken.

Acties:
  • +5 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zag deze eerder vandaag ook al voorbij komen bij HWU. Goed dat Computerbase hier aandacht aan geeft.

[ Voor 78% gewijzigd door Help!!!! op 06-12-2024 18:27 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • Majestici
  • Registratie: Juli 2013
  • Laatst online: 18-09 23:11
Help!!!! schreef op vrijdag 6 december 2024 @ 18:24:
Zag deze eerder vandaag ook al voorbij komen bij HWU. Goed dat Computerbase hier aandacht aan geeft.
[Twitter]
De reden waarom de 6800XT en 7800XT beter oud gaan worden dan de 4070, inclusief raytracing. Omdat dit VRAM kost. Fine wine meme is vaak niets meer dan iets meer hardware resources hebben.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Niets nieuws: "Nvidia: the way you are meant to be played"

@Help!!!! Dat zijn op 1080p zelfs al ontzettende verschillen zeg!
Jammer dat ze de 3060 (en 2060) 12gb niet hebben getest, daar was ik wel erg benieuwd naar in dit geval (t.o.v. de 4060 8gb).

[ Voor 69% gewijzigd door HugoBoss1985 op 06-12-2024 20:53 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op vrijdag 6 december 2024 @ 20:50:
Niets nieuws: "Nvidia: the way you are meant to be played"

@Help!!!! Dat zijn op 1080p zelfs al ontzettende verschillen zeg!
Jammer dat ze de 3060 (en 2060) 12gb niet hebben getest, daar was ik wel erg benieuwd naar in dit geval (t.o.v. de 4060 8gb).
Maar hoeveel scheelt resolutie echt in geheugen? Als in, frame buffer is gerommel in de marge, maar welke andere zaken hebben echt impact? Wat normaal het verschil maakt, zover ik weet, zijn vooral de texture resoluties. Maar hoewel je die vaak schaalt met resolutie van het scherm, is dat natuurlijk niet noodzakelijkerwijs nodig.

Ze hebben dan ook niet een ultra preset gebruikt, niet een giga preset gebruikt, maar de hyper preset. En ze noemen zelf dat het spel nogal slecht met VRAM omgaat: Hij gebruikt niet wat nodig is, maar eist gewoon een vaste hoeveelheid geheugen (granted de onderliggende reden maakt je weinig uit natuurlijk als het niet lekker draait). Schijnbaar vanaf medium preset draait het goed op 8GB geheugen. Grote vraag is dan natuurlijk hoe het eruit ziet tov de high, ultra, giga en hyper presets.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Sissors schreef op vrijdag 6 december 2024 @ 22:46:
[...]

Maar hoeveel scheelt resolutie echt in geheugen? Als in, frame buffer is gerommel in de marge, maar welke andere zaken hebben echt impact? Wat normaal het verschil maakt, zover ik weet, zijn vooral de texture resoluties. Maar hoewel je die vaak schaalt met resolutie van het scherm, is dat natuurlijk niet noodzakelijkerwijs nodig.
Het is niet alleen de frame buffers (en gerelateerde buffers). Het is in sommige spellen ook texture LOD, wat je zelf aangeeft. Toevallig laatst nog tegengekomen met de Dead Space remaster, ik dacht slim te zijn door het spel te renderen op 5160x2160 en dan FSR te gebruiken om op 6880x2880 te komen. Helaas passen ze de LOD bias niet aan met FSR en DLSS en worden de textures blurry..... in Windows kan je dat makkelijk genoeg aanpassen met een reg edit, in Linux weet ik het niet direct zo :P.

Wat een belabberde RT implementatie heeft dat spel eigenlijk, het voegt letterlijk en figuurlijk niks toe, dus om te compenseren voor de slechte AA in het spel gebruik ik de extra rekenkracht die ik over hou door geen RT te gebruiken voor supersampling :+ .

Het valt mij op dat tegenwoordig alle nieuwe spellen TAA hebben en dat het er niet uit ziet, en dat veel shading ook voor geen meter meer werkt als je TAA uitzet.... met niet meer werken, het ziet er niet uit en heeft gigantisch veel last van shimmering.
Echt TAA :X :X :X :r :r

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op vrijdag 6 december 2024 @ 18:24:
Zag deze eerder vandaag ook al voorbij komen bij HWU. Goed dat Computerbase hier aandacht aan geeft.
[Twitter]
Het speelt al bijna twee jaar en eigenlijk al langer. HWU begon er bijna twee jaar geleden al over.
Maar zoveel mensen met 8GB videokaarten of andere motiveringen die het gewoon negeren. 8GB is nota bene tien jaar geleden geïntroduceerd en werd mainstream in 2016. Kom op zeg. Zeker met al die XSX en PS5 games die verwachten dat ze 16GB aan RAM hebben. Dan moet je op PC ook echt 16GB VRAM hebben omdat het daar niet gedeeld is tussen CPU en GPU. Je moet dus een kopie hebben van CPU RAM voor je GPU, dus 16GB VRAM.

Waarom denk je dat ik een RX7900XT met 20GB heb? Ik beschouw 16GB al bijna twee jaar als het minimum voor upper midrange/high end. 12GB is voor mij midrange en 8GB low end.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 22:33
Sissors schreef op vrijdag 6 december 2024 @ 22:46:
[...]

Maar hoeveel scheelt resolutie echt in geheugen? Als in, frame buffer is gerommel in de marge, maar welke andere zaken hebben echt impact? Wat normaal het verschil maakt, zover ik weet, zijn vooral de texture resoluties. Maar hoewel je die vaak schaalt met resolutie van het scherm, is dat natuurlijk niet noodzakelijkerwijs nodig.

Ze hebben dan ook niet een ultra preset gebruikt, niet een giga preset gebruikt, maar de hyper preset. En ze noemen zelf dat het spel nogal slecht met VRAM omgaat: Hij gebruikt niet wat nodig is, maar eist gewoon een vaste hoeveelheid geheugen (granted de onderliggende reden maakt je weinig uit natuurlijk als het niet lekker draait). Schijnbaar vanaf medium preset draait het goed op 8GB geheugen. Grote vraag is dan natuurlijk hoe het eruit ziet tov de high, ultra, giga en hyper presets.
Wel interessant.

Goed punt van jou w.b.t. de beeld details, ik heb daar niet echt genuanceerd over gereageerd en ook niet echt op gelet...
De uber/super/infinity/hyper (wat een termen tegenwoordig...) detail setting kan dan natuurlijk ook veel meer VRAM vragen, ongeacht de resolutie.

Wellicht vraagt het spel een vaste hoeveelheid VRAM omdat er niet dynamisch (door het spel zelf) geschaald wordt?
Dan kun je met Indiana Jones dus misschien beter appels met appels vergelijken dan met mening andere game?
Ik denk overigens terug aan Doom 3 waar je met de "ultra" preset een waarschuwing kreeg over 512mb vram.
Ongeacht de resolutie.
Doom 2016 was ook zo'n game waarbij je, meen ik, ultra textures & shadows niet aan kon zetten als je kaart niet x hoeveelheid vram had.

Ik vraag me ook af of dat de 4060 8gb daardoor soms niet sneller lijkt.
Aangezien veel spellen (beeldkwaliteit, textures e.d.) naar beneden schalen als de VRAM buffer vol raakt.
Dan zou een 4060 8gb dus inderdaad sneller zijn als de beeldkwaliteit gewoon lager is dan bijvoorbeeld versus een 7600 XT 16gb
Ongeacht wat de gamer instelt qua details.

Maargoed dan heb je nog het verschil in fps met een momentopname (een 3Dmark score) en dan nog wat er daadwerkelijk gebeurd als de VRAM buffer vol zit zonder dat er dynamisch kwaliteit geschaald wordt.
Een zeer lage fps en stotters, waarbij ik het laatste het meest vervelende vind tijdens gamen.

[ Voor 16% gewijzigd door HugoBoss1985 op 09-12-2024 11:25 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
DaniëlWW2 schreef op maandag 9 december 2024 @ 11:03:
[...]


Het speelt al bijna twee jaar en eigenlijk al langer. HWU begon er bijna twee jaar geleden al over.
Maar zoveel mensen met 8GB videokaarten of andere motiveringen die het gewoon negeren. 8GB is nota bene tien jaar geleden geïntroduceerd en werd mainstream in 2016. Kom op zeg. Zeker met al die XSX en PS5 games die verwachten dat ze 16GB aan RAM hebben. Dan moet je op PC ook echt 16GB VRAM hebben omdat het daar niet gedeeld is tussen CPU en GPU. Je moet dus een kopie hebben van CPU RAM voor je GPU, dus 16GB VRAM.

Waarom denk je dat ik een RX7900XT met 20GB heb? Ik beschouw 16GB al bijna twee jaar als het minimum voor upper midrange/high end. 12GB is voor mij midrange en 8GB low end.
Ik denk niet zozeer dat mensen het negeren, maar dat simpelweg de realiteit in de markt anders is dan dat mensen het graag zouden zien. Als het aan 'ons' Tweakers had gelezen zou je waarschijnlijk inderdaad voor gaming al tijden geen <12GB GPU's meer gezien hebben en zou alles z.s.m. naar 16+ GB gaan. Met dan mogelijk nog een 8GB Sku voor de mensen die niet of zeer incidenteel gamen, maar om wat voor reden dan ook wel een dGPU willen hebben aan de onderkant van de markt.

Maar dat is ook waarom ik eerder de vraag al stelde, wat zien we tegenwoordig als midrange. Zowel AMD als Nvidia gaan niet lager meer dan een 7600 / 4600 in desktop. Maar blijven we dan vasthouden aan segmenten waar soms geen tot amper een recente kaart meer in te vinden is gebaseerd op kostprijs waarbij we zeggen als voorbeeld $100-$299 is low end - $300 tot $600 is midrange en alles daarboven is high end of kijken we naar de in de retail meer gebruikelijke definitie waar gekeken wordt naar de product range en waarbij je eigenlijk ziet dat alle tiers naar beneden gedrukt worden om aan de bovenkant ruimte te maken voor tiers die hoger gesegmenteerd worden dan voorheen.

Waar vroeger immers bij de x60/x600 kaarten de 'midrange' begon, dit doorliep tot de x70/x700 en dan bij x800 of soms zelfs een hoog gepositioneerde x70/x700 Sku het hogere segment begon, zie je nu eigenlijk al even dat x60/x600 de onderkant van de range is, x70/x700 midrange is, soms zelfs met Sku's schurend tegen wat je lowend zou kunnen noemen en dan de hogere segmenten daarboven.

Ik postte laatste bijvoorbeeld dit plaatje (even de Nvidia range als voorbeeld, want makkelijker plaatje voorhanden) al eens op Tweakers gebaseerd op het 'retail' voorbeeld van het bepalen van een range verdeling:

Afbeeldingslocatie: https://i.imgur.com/hKAZqcw.png

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Haaha dat plaatje :+

Het youtube algoritme heeft dit kanaal mij voorgeschoteld, zover mijn kennis gaat lijkt hij in veel gevallen te weten waar het over gaat als het gaat om computer graphics. Ik zie hem wel een keer TFlops een op een vergelijken tussen gpus, wat niet zo handig is :P.
https://www.youtube.com/@ThreatInteractive/videos

Acties:
  • +3 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:40

rapture

Zelfs daar netwerken?

Dennism schreef op maandag 9 december 2024 @ 11:30:
[...]


Ik denk niet zozeer dat mensen het negeren, maar dat simpelweg de realiteit in de markt anders is dan dat mensen het graag zouden zien. Als het aan 'ons' Tweakers had gelezen zou je waarschijnlijk inderdaad voor gaming al tijden geen <12GB GPU's meer gezien hebben en zou alles z.s.m. naar 16+ GB gaan. Met dan mogelijk nog een 8GB Sku voor de mensen die niet of zeer incidenteel gamen, maar om wat voor reden dan ook wel een dGPU willen hebben aan de onderkant van de markt.

Maar dat is ook waarom ik eerder de vraag al stelde, wat zien we tegenwoordig als midrange. Zowel AMD als Nvidia gaan niet lager meer dan een 7600 / 4600 in desktop. Maar blijven we dan vasthouden aan segmenten waar soms geen tot amper een recente kaart meer in te vinden is gebaseerd op kostprijs waarbij we zeggen als voorbeeld $100-$299 is low end - $300 tot $600 is midrange en alles daarboven is high end of kijken we naar de in de retail meer gebruikelijke definitie waar gekeken wordt naar de product range en waarbij je eigenlijk ziet dat alle tiers naar beneden gedrukt worden om aan de bovenkant ruimte te maken voor tiers die hoger gesegmenteerd worden dan voorheen.

Waar vroeger immers bij de x60/x600 kaarten de 'midrange' begon, dit doorliep tot de x70/x700 en dan bij x800 of soms zelfs een hoog gepositioneerde x70/x700 Sku het hogere segment begon, zie je nu eigenlijk al even dat x60/x600 de onderkant van de range is, x70/x700 midrange is, soms zelfs met Sku's schurend tegen wat je lowend zou kunnen noemen en dan de hogere segmenten daarboven.

Ik postte laatste bijvoorbeeld dit plaatje (even de Nvidia range als voorbeeld, want makkelijker plaatje voorhanden) al eens op Tweakers gebaseerd op het 'retail' voorbeeld van het bepalen van een range verdeling:

[Afbeelding]
De fabrikanten kunnen sjoemelen met definities en een lagere klasse product als een hogere klasse product proberen te verkopen en prijzen uit het verleden extrapoleren. Laten we aan de prijzen van 3 of 4 jaren geleden vasthouden en je betaalt 40% meer voor 40% meer performance.

Dit is hoe ze na inflatiecorrectie nog een prijsverdubbeling toegepast hebben. Maal 1,2 is hoe je 2019 dollar/euro naar 2024 dollar/euro omrekent. Niet 250*1,2*2=600

Graaiflatie is wat ze in de supermarkten doen. Niet maal 1,2, ze verhoogden de prijzen met 1/3, 1/2, 2/3,... om te zien tot hoe ver dat ze kunnen gaan. Dit gaat inverteren als de consumenten op hun geld moeten letten (Pepsi, Delta,... hebben al in de earnings gezegd dat de consumenten op hun geld letten en naar zoveel mogelijk bang for buck zoeken) en de fabrikanten gaan het verlies van marktaandeel moeten bestrijden. En dan zie je Trump met z'n tariffs de winkeliers weer een excuus voor prijsverhogingen geven.

Bij de CPU's zie je dat de prijzen van 10 jaren geleden hanteren wel kan. Voor iets meer dan 200 euro haalde je in 2014 een mid-end gaming CPU (i5 4670K) en dat kan nu nog altijd (Ryzen 7700).

De oude high-end (500+, 600+ mm² die size) wordt de nieuwe mid-end (200+, 300+ mm² die size) en de performanceniveau waarvoor je 500 euro betaalde werd 250 euro, 700 euro werd 350 euro,...

Afbeeldingslocatie: https://tweakers.net/i/HNqgVkAomL4H7s3TvF5yX3UdQpM=/800x/filters:strip_icc():strip_exif()/f/image/Ae0krTYeURcmzt0wB2Htk85Q.jpg?f=fotoalbum_large

Deze grafiek laat zien dat 1080p niet genoeg MegaPixels heeft om krachtigere GPU's bezig te houden.

1440p is de nieuwe 1080p wegens te goedkope 1440p high refresh rate gaming monitors.

Afbeeldingslocatie: https://tweakers.net/i/_ndeZXIlAacPvZsrU4n28tU8s_8=/800x/filters:strip_icc():strip_exif()/f/image/kdTlzpoXMwhowdgntPbhAGec.jpg?f=fotoalbum_large

RTX 4070 en RX 7800 XT zijn mid-end tegenover de voorgaande generatie.

RTX 4060, RTX 4060 Ti en RX 7600 XT zijn low-end tegenover de vorige generatie en zit op het niveau dat 3 jaren geleden mid-end was.

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@rapture :Y
Ik ga echt niet mee in wat zeker Nvidia, maar ook AMD hebben gedaan met naamgeving.
Vrijwel alles is minstens een klasse te hoog gepositioneerd. Dat er nu ook nog eens zoveel SKU's met 128 bit bussen zijn ontworpen, maakte het alleen maar erger. Je hebt zo een low end generatie gekregen die al niet goed zijn, en vervolgens als midrange gepositioneerd zijn, en dan ook nog eens te duur. En dan presteren ze ook nog eens zo matig dat het nauwelijks een upgrade is voor velen. Je kan beter een tweedehands videokaart van de vorige generatie kopen en deze generatie overslaan. Nota bene is de RTX3060 12GB gewoon beter dan de RTX4060 8GB. :F

Of een RX7800XT, RX7900GRE, RTX4070Ti Super of RX7900XT kopen.
En als dat echt te duur is, je wil geen tweedehands en je moet iets nieuws kopen omdat je oude videokaart echt te oud of stuk is, tja de RX7600XT 16GB.


Dit is gewoon een miserabele generatie. De enige reden waarom ik die RX7900XT heb is omdat mijn RX5700XT met 8GB, te weinig was en omdat ik die vorig jaar zomer met korting kon krijgen. Als ik een RX6700XT had gehad, dan had ik niks in deze generatie zelfs maar overwogen.

En ik hoop dat AMD dit zich nu echt beseft. Het is eigenlijk al grotendeels miserabel sinds Pascal in het €300-€500 segment. Daar moet je gaan zitten met een fatsoenlijk product.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
DaniëlWW2 schreef op maandag 9 december 2024 @ 13:58:

Ik ga echt niet mee in wat zeker Nvidia, maar ook AMD hebben gedaan met naamgeving.
Vrijwel alles is minstens een klasse te hoog gepositioneerd. Dat er nu ook nog eens zoveel SKU's met 128 bit bussen zijn ontworpen, maakte het alleen maar erger.
Zeker eens, maar waarom blijven mensen dan alsnog dat soort kaarten zien als midrange, alleen 'omdat de x60/x600' altijd midrange was? Of omdat het in een bepaalde prijs bracket valt die mensen nog steeds associëren met midrange? Ik zie dat momenteel echt gewoon als 'bottom of the stack'.

Als ik naar "mijn" leverancier kijk waar ik het vaakst shop is de enige kaart van de huidige generatie die je voor <300 euro kan krijgen een Radeon 7600 en zelfs die zit me te dicht tegen de €300 aan voor zo'n op zijn best matig product.
En ik hoop dat AMD dit zich nu echt beseft. Het is eigenlijk al grotendeels miserabel sinds Pascal in het €300-€500 segment. Daar moet je gaan zitten met een fatsoenlijk product.
Dat hoopt denk ik iedereen wel. Maar verwachten we dit ook echt? Of is het meer 'hoop doet leven'. Want de geruchten die ik gezien heb vond ik nu niet direct zo heel hoopgevend, tenzij ze inderdaad echt gaan stunten met prijzen. Wat ik ook bijvoorbeeld in deze post: Dennism in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144" al een beetje uiteenzette.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 18-09 11:19
rapture schreef op maandag 9 december 2024 @ 13:36:
[...]
Bij de CPU's zie je dat de prijzen van 10 jaren geleden hanteren wel kan. Voor iets meer dan 200 euro haalde je in 2014 een mid-end gaming CPU (i5 4670K) en dat kan nu nog altijd (Ryzen 7700).
Dit vind ik een kromme vergelijking. De 7700 is immers bijna 2 jaar oud en is al 100€ goedkoper dan release. De MSRP van een 7700 is wel degelijk 70-80% hoger dan wat je er 10 jaar geleden voor betaalde.

Bij GPUs zie je hetzelfde fenomeen.

[ Voor 3% gewijzigd door napata op 10-12-2024 09:25 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dennism schreef op maandag 9 december 2024 @ 16:23:
tenzij ze inderdaad echt gaan stunten met prijzen
Wat niet geheel on-AMD's (/ATI's) zou zijn. Hebben ze in het verleden al gedaan en dat werkte toen. Ook met Ryzen deden ze dat. En dat hebben ze nu ook nodig bij de GPU's. Dus een sprankje hoop is er.


De realiteit is echter dat we nu, zelfs als je corrigeert voor inflatie, dubbel zo veel betalen voor chipgrootte. Zoals de meesten van jullie wel weten heb ik schijt aan de marketing naamgeving, dat is sowieso nooit consistent geweest - chip benamingen zijn dat in verhouding wel (hoewel we met AD103 een vreemde eend in de bijt hebben). Als je gewoon kijkt naar de afmetingen, zie je dat zelfs de kleinste chips al twee keer zo duur zijn. Een AD107/4060 is wat vroeger hooguit een x50 zou zijn maar met 159mm² zit dat ding al dicht op wat een x30/x40 geweest zou zijn. En dat trekt zich door vanaf daar. Zonder inflatie correctie betaal je voor de grotere chips 2,5 tot 3 keer zo veel; met inflatie correctie nog steeds richting 2x. Bij AMD zit dat niet heel erg anders met de huidige generatie.

En het gevolg daarvan is dat de marges fors omlaag moeten als ze dat segment waar de meeste kopers zitten willen bedienen. Nogmaals: wat nu een 4060 is zou vroeger iets van een GTS x50 geweest zijn en die chip kleiner maken is zinloos. RT kost een hoop ruimte, dus het enige alternatief is dat er uit slopen, en dat gaat niet gebeuren.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op dinsdag 10 december 2024 @ 11:56:
[...]

De realiteit is echter dat we nu, zelfs als je corrigeert voor inflatie, dubbel zo veel betalen voor chipgrootte.
Maar dan is het eigenlijk toch ook logisch? Per vierkante millimeter zijn moderne procedés gewoon duurder geworden. Of dat dubbel zoveel is weet ik niet, maar vroeger bleef dat constanter, waardoor de kosten per transistor hard naarbeneden ging. Tegenwoordig nemen kosten per wafer zo snel toe dat kosten per transistor slechts beperkt naarbeneden gaat bij nieuwe, kleinere, procedés. Zie eg: https://www.electronicswe...ising-wafer-cost-2020-10/

En niet alleen doordat nieuwe processen duurder zijn, maar ook door inflatie: https://www.guru3d.com/st...nts-by-tsmc-in-2025-rise/. Dus inflatie is grotere impact dan dat het goedkoper kan worden door meer ervaring met het proces (danwel omdat TSMC een defacto monopolie heeft, maar voor AMD/Nvidia is het resultaat hetzelfde).
Pagina: 1 ... 95 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.