Acties:
  • +1 Henk 'm!

  • Tjona100
  • Registratie: December 2006
  • Laatst online: 12-09 11:25
ItalianStyle schreef op maandag 12 december 2022 @ 02:14:
Nvidia moet het duurder maken, alleen maar goed voor de consument.
Loop je nou te trollen of ben je serieus? Waarom zouden hogere prijzen goed voor de consument zijn? :')

Kendrick Lamar - Ignorance is Bliss


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Tjona100 schreef op maandag 12 december 2022 @ 09:09:
[...]


Loop je nou te trollen of ben je serieus? Waarom zouden hogere prijzen goed voor de consument zijn? :')
Nee ik loop juist niet te trollen. Ik bedoel hier mee te zeggen dat een prijsverlaging sommige mensen niet eens meer boeit omdat het Nvidia is, Nvidia zal het nooit goed doen voor sommige mensen. Maar goed deze discussie gaat nergens heen, het zal niets oplossen. Ik zelf hoop dat Nvidia de prijzen gaat verlagen, met dank aan AMD, want nu zijn de RTX kaarten te duur.

https://www.techpowerup.c...better-compete-with-rdna3

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
ItalianStyle schreef op maandag 12 december 2022 @ 10:44:
Nee ik loop juist niet te trollen. Ik bedoel hier mee te zeggen dat een prijsverlaging sommige mensen niet eens meer boeit omdat het Nvidia is, Nvidia zal het nooit goed doen voor sommige mensen.
Het punt is juist dat het geen prijsverlaging is. Dat is wat sommigen van ons duidelijk proberen te maken. De 4090 is nog steeds $1599 en de 4080 is nog steeds $1199. Dat valt nu in Euro's iets lager uit doordat de koers in de afgelopen ~6-8 weken even veel is gezakt als over heel 2020 (!).

Het heeft geen donder met "de grond intrappen", de manier waarop wij het benaderen is juist hartstikke neutraal. De koers wijzigt en zij passen de prijzen daarop aan, zoals het hoort. Dat hebben ze omgekeerd óók gedaan, door begin dit jaar de prijzen van de RTX 30 FE kaarten te verhogen omdat de dollar in 2021 weer terug was geklommen naar z'n piek van begin 2020. Daar heeft werkelijk níemand in dit topic iets over gezegd.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Werelds schreef op maandag 12 december 2022 @ 11:38:
[...]

Het punt is juist dat het geen prijsverlaging is. Dat is wat sommigen van ons duidelijk proberen te maken. De 4090 is nog steeds $1599 en de 4080 is nog steeds $1199. Dat valt nu in Euro's iets lager uit doordat de koers in de afgelopen ~6-8 weken even veel is gezakt als over heel 2020 (!).

Het heeft geen donder met "de grond intrappen", de manier waarop wij het benaderen is juist hartstikke neutraal. De koers wijzigt en zij passen de prijzen daarop aan, zoals het hoort. Dat hebben ze omgekeerd óók gedaan, door begin dit jaar de prijzen van de RTX 30 FE kaarten te verhogen omdat de dollar in 2021 weer terug was geklommen naar z'n piek van begin 2020. Daar heeft werkelijk níemand in dit topic iets over gezegd.
Dan brengen dit soort berichten wel wat verwarring
NVIDIA is lowering GeForce RTX 4090/4080 pricing in Europe by 5%

NVIDIA GeForce RTX 4090 has dropped to €1,859 from €1,949, while GeForce RTX 4080 is now available at €1,399 from €1,469. These are the new prices of RTX 40 GPUs in Europe according to official NVIDIA store.

The company was forced to lower the prices due to increasing value of the Euro compared to US Dollar. This means that the price cut is likely not a result of the upcoming Radeon RX 7900 launch.
Dus dat Nvidia de prijzen verlaagt, wat in het artikel staat, klopt dus niet.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
ItalianStyle schreef op maandag 12 december 2022 @ 11:49:
Dus dat Nvidia de prijzen verlaagt, wat in het artikel staat, klopt dus niet.
De Euro prijzen zijn weldegelijk verlaagd, echter is het geen prijsverlaging van de adviesprijs - en dat is wat jij in je post stelde. De adviesprijzen (MSRP) zijn nog steeds hetzelfde; echter worden die in USD vast gesteld, waardoor het in Euro's fluctueert. Dat is niets nieuws, dat is altijd al zo geweest. Het is zoals ik al zei ook niet nieuw dat Nvidia zich daaraan aan past, dat deden ze eerder ook al (in omgekeerde richting).

Dat is ook waarom wij hier in Europa zo'n fluctuerende prijzen hebben en waarom we veel meer sites zoals Tweakers' Pricewatch of Geizhals hebben. In de VS zijn prijzen veel constanter en moet je juist zoeken naar rebates - mits het aanbod gezond is tenminste, wat twee jaar geleden uiteraard niet het geval was, waardoor ook zij met fluctuaties te maken hadden :p

Nogmaals, niemand wil er een negatieve draai aan proberen te geven of Nvidia de grond in stampen (en al helemaal jou persoonlijk niet), maar het gaat ook te ver om ze neer te zetten als "good guy Nvidia" omdat ze de consument in Europa geen poot uitdraaien door zich níet aan de koers aan te passen. Het is een heel normale prijsaanpassing - die overigens ook alléén van toepassing is op de FE's zoals verkocht door Nvidia zelf. Wat dat betreft is dit hetzelfde als alle webshops in de PW die hun prijzen constant aanpassen aan de prijzen die de distributeurs hanteren + marge :)

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ItalianStyle schreef op maandag 12 december 2022 @ 11:49:
[...]
Dan brengen dit soort berichten wel wat verwarring
In het bericht dat je aanhaalt staat niets over een officiële prijsverlaging die bekend gemaakt is door Nvidia, maar alleen over een prijsaanpassing in de EU store.

Zoals Werelds aangeeft zijn de echte MSRP's van Nvidia, AMD en Intel altijd in dollars (en exclusief BTW). Het zijn alle drie Amerikaanse bedrijven.

Daarom is de wisselkoers ook zo belangrijk voor ons. Overigens doet AMD precies hetzelfde als AMD, namelijk hun EU store prijzen aanpassen aan de wisselkoers. Daarvoor krijgen ze dezelfde neutrale reacties als Nvidia, want het is nooit een compliment waard als ze de Europese consument niet teveel laten betalen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 01-09 16:45
Werelds schreef op dinsdag 15 november 2022 @ 21:39:
[...]

Alles kan :+


[...]

Dat is wat ik al tijden zeg. De enige reden dat het verbruik van de 4090 in de praktijk mee valt is omdat het ding gewoon stil ligt. 76,3 miljard transistors, waarvan zeker de helft het grootste deel van de tijd stil ligt.


[...]

Zeker wel Nvidia's schuld. Zij hebben met Turing de perf/$ al laten stagneren en met Ampère zelfs omlaag getrokken. Men kan er over twisten zoveel men wil, maar een 780 Ti, 980 Ti, 1080 Ti, 2080 Ti , 3090 en 4090 zijn allemaal dezelfde klasse chip. Big die met net een paar stukjes uitgeschakeld. Pascal valt qua vierkante millimeters wat kleiner uit omdat ze daar een grote node sprong maakten zonder de GPU bizar veel groter dan z'n voorganger, terwijl Turing juist groter uit valt omdat daar géén node sprong bij kwam kijken. Maar het zijn gewoon dezelfde soort chips en daar betaalde je zelfs 2 jaar geleden qua MSRP al dubbel zo veel voor.

MSRP is Nvidia's keuze. En ze hebben bewezen dat het kan, want mensen kopen het gewoon. Ik hoop dat je beseft dat uitgerekend jouw 3090 voor €1600 daar het bewijs van is. Dubbel zo duur als een 1080 Ti 3,5 jaar eerder (mijn 1080 Ti kostte me mét waterblok €901,95) en ook ongeveer dubbel zo snel. 0,0 vooruitgang qua perf/$ (raster uiteraard). Dat jij het er voor neer wilde leggen is jouw zaak, maar prijstechnisch was dat gewoon al slecht. Ik neem het Nvidia niet kwalijk dat ze nu kijken hoe ver ze precies kunnen gaan.

Eergisteren helaas m'n 1080 Ti dood moeten verklaren (RIP), maar deze keer kan Nvidia volledig aan m'n reet roesten en overweeg ik ze niet eens. Ik zie gewoon niets dat een ware opvolger is, dus na 10 jaar ga ik weer eens in het rode kamp zitten. Moet wel iets zien te regelen om de komende maand (misschien langer) te overbruggen, want de iGPU van een 7700X gamed niet geweldig :+
Moet ik nu met het kopen van mijn GPU rekening houden met alle toekomstige klanten van NVIDIA ? Dacht het niet 8)7
Als ik een 4080 Strix koop voor 1750€ dan zal het mij een worst zijn wat dat voor consequenties heeft voor de buurman echt hoor daar heb ik echt schijt aan.

Vorig jaar kocht ik een Tuf 3090 voor 2000€ omdat er een te groot tekort was en dus iedereen tegelijk die kaarten wilde :) Nu heb ik voor 250€ minder een Strix 4080 versie _/-\o_ .

Nu alvast weer sparen voor een GPU van de 5000 series over 2 jaar. :+

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Werelds schreef op maandag 12 december 2022 @ 11:38:
[...]

Het punt is juist dat het geen prijsverlaging is. Dat is wat sommigen van ons duidelijk proberen te maken. De 4090 is nog steeds $1599 en de 4080 is nog steeds $1199. Dat valt nu in Euro's iets lager uit doordat de koers in de afgelopen ~6-8 weken even veel is gezakt als over heel 2020 (!).

Het heeft geen donder met "de grond intrappen", de manier waarop wij het benaderen is juist hartstikke neutraal. De koers wijzigt en zij passen de prijzen daarop aan, zoals het hoort. Dat hebben ze omgekeerd óók gedaan, door begin dit jaar de prijzen van de RTX 30 FE kaarten te verhogen omdat de dollar in 2021 weer terug was geklommen naar z'n piek van begin 2020. Daar heeft werkelijk níemand in dit topic iets over gezegd.
Als er een prijs verhoging is, is dat niet een "niet prijs verhoging" omdat wisselkoersen en inflatie. Het is nog steeds een prijs verhoging. Je kunt inflatie, wisselkoersen, etc gebruiken hooguit gebruiken als reden voor die prijs verhoging. En dat geldt ook bij prijs verlagingen.

Dat je blijkbaar niet eens toe kunt geven dat een prijs verlagen een prijs verlagen is, zegt veel. Dat is niet "harstikke neutraal".

[ Voor 5% gewijzigd door cnieuweboer op 13-12-2022 11:54 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@cnieuweboer

Er is wel degelijk verschil tussen een verandering van de prijs die de fabrikant rekent en een verandering van de prijs in de winkel omdat de wisselkoers anders is geworden. Sowieso is het idee dat er 1 prijs is voor een product dat mondiaal wordt verkocht eigenlijk een illusie. Doordat koersen veranderen, kun je hoogstens een vaste prijs hebben in 1 munteenheid, maar dan fluctueert de prijs in andere eenheden.

En het is een feit dat de echte prijzen van videokaarten, zoals die door fabrikanten worden vastgesteld, bekend gemaakt en berekend aan afnemers, in dollars zijn.

Stel een videokaart is in de VS voor $1000 te koop. Als ik daar dan op vakantie ga met euro's op zak, die omwissel tegen een koers van 1:1 en de kaart koop, dan betaal ik 1000 euro. Maar als de koers nu veranderd naar 0,8:1, betaal ik opeens maar 800 euro. In beide gevallen is de prijs die wordt gerekend echter hetzelfde en is het dus onzin te beweren dat de prijs is aangepast.

De werkelijkheid is dat mijn koopkracht is toegenomen ten opzichte van de dollar en ik dus meer dollars kan kopen voor mijn euro's.

Bij videokaarten lijkt het anders omdat je zelf je euro's niet omwisselt, maar eigenlijk is het gewoon hetzelfde omdat de kaarten worden afgerekend in dollars. Dus de importeur wisselt je euro's om in dollars en die profiteert dan van een waardestijging van de euro. Dus horen ze dat door te berekenen. Als ze dat niet doen is er feitelijk sprake van een prijsverhoging.
Dat je blijkbaar niet eens toe kunt geven dat een prijs verlagen een prijs verlagen is, zegt veel.
Het zegt dat hij weet hoe het economisch echt werkt.

Een echte prijsverlaging van de fabrikant betekent dat de prijzen overal omlaag gaan. Dat kondigen ze ook heel anders aan dan deze prijscorrecties. De fabrikanten zelf weten namelijk wel hoe het echt zit.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
cnieuweboer schreef op dinsdag 13 december 2022 @ 11:52:
[...]


Als er een prijs verhoging is, is dat niet een "niet prijs verhoging" omdat wisselkoersen en inflatie. Het is nog steeds een prijs verhoging. Je kunt inflatie, wisselkoersen, etc gebruiken hooguit gebruiken als reden voor die prijs verhoging. En dat geldt ook bij prijs verlagingen.

Dat je blijkbaar niet eens toe kunt geven dat een prijs verlagen een prijs verlagen is, zegt veel. Dat is niet "harstikke neutraal".
Nogmaals: adviesprijs, MSRP. Daar ging het om.

Die staat vast in USD en prijzen in álle andere valuta, inclusief EUR, zijn nevengevolgen. Dat wordt soms afgerond naar "mooie" cijfers, soms niet (AMD doet dat bijvoorbeeld niet). En de MSRP is nu niet gewijzigd.

Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
De koers van de Euro heeft minder invloed op 2e handse kaarten en gezien de huidige prijs van 4080 heb ik een jong gebruikte 3090 aangeschaft met nog ruim garantie voor de helft van de 4080 prijs.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tour van wat EVGA faciliteiten. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 11-09 14:49

Ultraman

Moderator Harde Waren

Boefje

Leuk zo'n tour. Eens kijken :)

Wel even een klein modbreak om wat aan te geven:
Modbreak:Discussies over de koers van de Euro, prijzen van kaarten en verhogingen/verlagingen... mag wel wat minder.
Dank u :)

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • Simbob
  • Registratie: December 2009
  • Niet online
Nieuwe kachel aangekondigd, ziet er wel erg gelikt uit.

https://videocardz.com/ne...rtx-4090-ti-graphics-card

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 18:33
Ik kwam gisteren deze link tegen: https://www.gpucheck.com/gpu/nvidia-geforce-rtx-4080-ti

Ze hebben het over de RTX 4080 Ti en noemen specs en komen met benchmarks, maar ik heb nog nergens anders iets gelezen over een RTX 4080 Ti. Kan iemand deze website verklaren? Ik snap er geen dol van hoe ze bij deze data komen...

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Die hele website is gewoon onzin.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
https://www.gpucheck.com/graphics-cards

Volgens die website kost een 4080 $699 en een 4090 $1499. Laten we weer naar websites gaan die geen fictieve cijfers voor zowel benchmarks, specs als prijzen noemen :+.

[ Voor 4% gewijzigd door Paprika op 15-12-2022 11:42 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Heeft Userbenchmark een nieuw project gestart? :+

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 18:33
Bizar.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gigabyte heeft ook geen chill. :P
[Twitter: https://twitter.com/AorusOfficial/status/1604598905580273669]

Afbeeldingslocatie: https://pbs.twimg.com/media/FkSuLzBXgAAiifZ?format=png&name=900x900

Moet erbij zeggen dat voor zover ik weet, Gigabyte ook de meest belachelijk grote RTX4090 heeft. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op maandag 19 december 2022 @ 17:27:
Gigabyte heeft ook geen chill. :P
[Embed]

[Afbeelding]

Moet erbij zeggen dat voor zover ik weet, Gigabyte ook de meest belachelijk grote RTX4090 heeft. :+
Dat formaat is bijna werkelijkheid:

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Net als je denkt dat ze niet gekker kunnen gaan bij nvidia, dropt dit nieuws...... 8)7

Het lijkt me verder niet dat de volle AD102 dit nodig heeft anders dan om totaal onnodige wattages te supporten. :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Help!!!! schreef op woensdag 21 december 2022 @ 20:50:
^
Net als je denkt dat ze niet gekker kunnen gaan bij nvidia, dropt dit nieuws...... 8)7

Het lijkt me verder niet dat de volle AD102 dit nodig heeft anders dan om totaal onnodige wattages te supporten. :?
Er zijn al mensen die klagen als het maximale powerlimit van een 4090 onder de 600W ligt en sommigen vinden zelfs dat te weinig ... :')

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Echt :? Bizar. Misschien leuk voor diehard oc'ers/LN2'ers maar zo'n kaart lijkt me typische een mooie uitdaging voor de AIB partners. Niet voor een FE kaart. Een volle AD102 kan volgensmij makkelijk met het 4090 formaat en power enveloppe.

ps: Ik ben dan alweer heel blij dat mijn kaart standaard en 100% PL (volgens Afterburner) 'slechts' rond de 300-315W zit. En waarschijnlijk zal ik de PL nog wel iets gaan terugschroeven omdat de prestatieafname zeer beperkt is en er nog wel watts te besparen zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • JWFpeters
  • Registratie: Mei 2020
  • Laatst online: 10-09 19:12
Avalaxy schreef op donderdag 15 december 2022 @ 11:27:
Ik kwam gisteren deze link tegen: https://www.gpucheck.com/gpu/nvidia-geforce-rtx-4080-ti

Ze hebben het over de RTX 4080 Ti en noemen specs en komen met benchmarks, maar ik heb nog nergens anders iets gelezen over een RTX 4080 Ti. Kan iemand deze website verklaren? Ik snap er geen dol van hoe ze bij deze data komen...
Vandaag de 4080 op 70% gehad scheelt weer paar graden en ruim 100 watt miste weinig performance moet ik zeggen…..

Acties:
  • +1 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 03-09 00:20
Nvidia lijkt toch beetje het noorden kwijt te zijn met hun TITAN :p te ambitieus zijn kan ook soms tegenvallen.
Dacht dat mijn RTX 4090 een overkill was maar.... 8)7

[ Voor 35% gewijzigd door jody2k op 22-12-2022 00:22 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 21 december 2022 @ 13:50:
Voor Turing -> Ampère -> Ada geldt dit absoluut; vooral die laatste. Ampère had tenminste nog betere RT cores dan Turing.
Ada ook. ;)
Nvidia is van 1 ray/intersection per RT core in Turing, naar 2 in Ampere en 4 in Ada Lovelace gegaan.
Probleem is dat je het nauwelijks terugziet in de meeste mixed raster/RT games en ik vermoed zelf dat het komt omdat Nvidia tegen een enorme BvH bottleneck aanloopt. En daarom zijn er waarschijnlijk die Micro Meshes die overigens nog steeds in de aankondigingsfase lijken te zitten en dat is waarom ze het steeds over Path Tracing inclusief demo's zoals Portal hebben. Ada is erg goed in daadwerkelijk ray/intersection testen, maar juist niet zo goed in hybride raster/RT. De winst komt in veel games uit meer RT cores en fors hogere clock speeds.

Je kan het ook terugzien in die enige twee games waarbij ik daadwerkelijk interesse zou hebben in RT. Cyberpunk 2077 en Witcher 3 zijn helaas behoorlijk rond Nvidia hun implementatie opgebouwd, draaien in RT ronduit slecht op de RX7900XTX (en helemaal dramatisch op N21) en juist winsten laten zien met Lovelace.

Bijvoorbeeld de RTX4090 is gemiddeld 45% sneller (4K) met FSR2/DLSS2 wat je in principe toch moet gebruiken voor die resolutie.
https://www.computerbase....s_2x_inklusive_raytracing

Bij Cyberpunk hier kom je op 103% sneller voor de RTX4090 uit met FSR2/DLSS2.
YouTube: RTX 4080 Killer? Radeon RX 7900 XTX Review & Benchmarks

En in Witcher 3 is het opeens 76% (5800X3D resultaten) en draait de RX7900XTX eigenlijk echt voor geen ene meter. Er zijn dan ook nogal wat problemen met die next gen update buiten hoe RT geïmplementeerd is...
https://www.computerbase....marks_mit_preset_rt_ultra

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op donderdag 22 december 2022 @ 08:44:
Ada ook. ;)
Nvidia is van 1 ray/intersection per RT core in Turing, naar 2 in Ampere en 4 in Ada Lovelace gegaan. Probleem is dat je het nauwelijks terugziet in de meeste mixed raster/RT games en ik vermoed zelf dat het komt omdat Nvidia tegen een enorme BvH bottleneck aanloopt.
Och ja, die was ik even vergeten, maar dat komt ook doordat het in de praktijk nergens te zien is behalve de Portal tech demo. Die BvH bottleneck weet ik wel zeker, want AD102 haalt nu met pijn en moeite de winst die de kloksnelheid op levert, laat staan de 52% meer RT cores in de 4090 of de dubbele throughput per RT core die er zou moeten zijn. Als je even heel grof rekent met 2700 over 2000 (4090 vs 3090 Ti), zitten ze daar zo'n 12-13% boven.

Er wordt vaak gekeken naar de cijfertjes die er uiteindelijk uit rollen, maar er wordt maar zelden gekeken naar wat er uit zou moeten rollen. Op papier zou Ada, zelfs zonder verbeterde RT cores, 105% sneller moeten zijn dan Ampère. En voor RT zou elke verbetering op papier er nagenoeg 100% uit moeten komen, omdat we met die workloads nog steeds volledig GPU bound zijn, zelfs met de RT implementaties die nog steeds zwaar beperkt zijn. Het maakt Ada gewoon een nog luier product dan het al is, er mist gewoon minstens 50% performance in zo'n beetje alles - en dat is rekenend op Ampère's RT cores.

Daarom bestaat Portal RTX ook - de geometry is simpel genoeg om zo hard op rays in te zetten. Dat is het énige waar de theoretische performance er uit komt - maar wel pas op 2160p (native, geen DLSS). Daaronder is het nog steeds waardeloos. Maar op 2160p zijn er genoeg pixels om alle RT cores aan te zwengelen en met die implementatie komen ze tenminste enigszins in de buurt van wat 52% meer RT cores op 35% hogere kloksnelheden met dubbel zo veel throughput per core zou moeten doen. Maar dan heb je het alsnog over <30 FPS :P

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 22 december 2022 @ 12:04:
[...]

Och ja, die was ik even vergeten, maar dat komt ook doordat het in de praktijk nergens te zien is behalve de Portal tech demo. Die BvH bottleneck weet ik wel zeker, want AD102 haalt nu met pijn en moeite de winst die de kloksnelheid op levert, laat staan de 52% meer RT cores in de 4090 of de dubbele throughput per RT core die er zou moeten zijn. Als je even heel grof rekent met 2700 over 2000 (4090 vs 3090 Ti), zitten ze daar zo'n 12-13% boven.

Er wordt vaak gekeken naar de cijfertjes die er uiteindelijk uit rollen, maar er wordt maar zelden gekeken naar wat er uit zou moeten rollen. Op papier zou Ada, zelfs zonder verbeterde RT cores, 105% sneller moeten zijn dan Ampère. En voor RT zou elke verbetering op papier er nagenoeg 100% uit moeten komen, omdat we met die workloads nog steeds volledig GPU bound zijn, zelfs met de RT implementaties die nog steeds zwaar beperkt zijn. Het maakt Ada gewoon een nog luier product dan het al is, er mist gewoon minstens 50% performance in zo'n beetje alles - en dat is rekenend op Ampère's RT cores.

Daarom bestaat Portal RTX ook - de geometry is simpel genoeg om zo hard op rays in te zetten. Dat is het énige waar de theoretische performance er uit komt - maar wel pas op 2160p (native, geen DLSS). Daaronder is het nog steeds waardeloos. Maar op 2160p zijn er genoeg pixels om alle RT cores aan te zwengelen en met die implementatie komen ze tenminste enigszins in de buurt van wat 52% meer RT cores op 35% hogere kloksnelheden met dubbel zo veel throughput per core zou moeten doen. Maar dan heb je het alsnog over <30 FPS :P
Ik denk dan ook dat mensen de RT capaciteiten van Ada verkeerd inschatten. :)
Naar mijn mening word er te veel te veel gedacht aan games terwijl alle verbeteringen in Ada eigenlijk niet voor gaming zijn. Alles is juist voor rendering en computing waarbij bepaalde dingen toevallig ook wel aardig werken voor gaming. Op die manier zijn de RTX4080 en al helemaal de RTX4090 opeens logische producten met niet volstrekt bezopen prijsstellingen. Die RTX4090 is misschien wel gunstig geprijsd voor wat je ermee kan.

Zo ook RT. Want ik denk dat Nvidia hun RT voornamelijk heeft doorontwikkeld voor GCI rendering. Als ze het ook voor gamers hadden willen verbeteren, dan hadden ze ook BvH en denoising moeten aanpakken en dat hebben ze niet gedaan. Het lijkt ook precies de tegenovergestelde aanpak van RDNA3 te zijn. AMD lijkt juist geïnvesteerd te hebben in betere BvH, denoising, culling van onnodige ray/intersection tests en juist niet in meer ray/intersection tests te kunnen uitvoeren. Helpt ook niet dat N31 de vervelende neiging heeft om nog meer clock speed te verliezen als de GPU ook RT doet en juist in voor RDNA3 slechtere titels verliezen ze ook nog eens meer.
https://www.computerbase....chen_taktraten_unter_last

Ergens zou ik niet verbaast zijn als RDNA3 eigenlijk beter is in BvH dan Ada. RDNA3 hoeft geen cache te delen tussen verschillende concurrent workloads, heeft veel meer en directere cache beschikbaar per rekencluster (192KB per 32/64ALU's CU tegenover 128KB voor 4x SIMD32 + RT core). Ze lijken het alleen af te leggen in rauwe ray/intersection tests wat ze dus niet wensten te doen. Het punt lijkt juist te zijn geweest om zo weinig mogelijk ray/intersection tests te hoeven uitvoeren. De vraag zoals altijd zal dan ook zijn, hoeveel gaat daar nog uitgehaald worden?


Ik ben toch al niet erg onder de indruk deze generatie, van beide kampen, voor gaming. Nvidia heeft niet zoveel inhoudelijks verbeterd en AMD heft tot dusver in mijn optiek gefaald met N31 die zeker clock speed 500MHz lijkt te missen. Ik begin me ook steeds meer de noodzaak van een upgrade met mijn RX5700XT te overwegen. Dat is nota bene 5 jaar oude high end prestatieniveau (GTX1080Ti) en nog steeds eigenlijk goed genoeg. Het is niet alsof de uitstekende games due een nieuwe videokaart rechtvaardigen, nu voor het oprapen liggen. Een upgrade voor mij zou voornamelijk oudere games op hogere instellingen kunnen spelen zijn...

Ik ben ook een beetje bang voor de volgende generatie als die naar TSMC N3 gaan. Want van wat er nu bekend is, lijkt dat echt een heel erg zwakke node te worden die vooral duur zal zijn. En nog duurdere videokaarten met beperkte prestatieverbeteringen is precies waar ik vooral niet op zit te wachten. De oorspronkelijke N3 is nu N3B en lijkt min of meer al dood te zijn en alleen door Apple gebruikt te gaan worden. De verbeterde N3E zou als kosten en productieoverweging vervolgens letterlijk dezelfde SRAM cell dichtheid van N5 overnemen, dus geen SRAM schaling meer. Dat gaat nog wat worden om prestatieverbeteringen door te voeren als het oude trucje van meer SRAM niet meer kan...
https://fuse.wikichip.org...itness-the-death-of-sram/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Met N3 worden chiplets dan misschien ook echt noodzaak. Dat is misschien juist ook de reden waarom AMD daarop overgestapt is. Niet zozeer voor deze generatie, maar met name voor de volgende. Dan kunnen ze met deze generatie de problemen in hun drivers met chiplets oplossen.

Maar ik vraag me af of het voor de consument niet beter zou zijn als ze zouden overstappen naar een 3-jaarscyclus, waarbij er meer afgeprijst wordt. Dus dan betaal je in het eerste half jaar na de release de hoofdprijs en hoe langer je wacht, hoe beter de prijs wordt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Nvidia lijkt te komen met een 3050 met een GA107 chip. Deze heeft in elk geval een stuk minder CUDA cores.

https://wccftech.com/nvid...power-consumption-by-15w/

Eens even kijken of ze hier netjes een andere naam aan geven of dat ze wederom mensen proberen te misleiden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ludewig schreef op dinsdag 27 december 2022 @ 13:40:
Nvidia lijkt te komen met een 3050 met een GA107 chip. Deze heeft in elk geval een stuk minder CUDA cores.

https://wccftech.com/nvid...power-consumption-by-15w/

Eens even kijken of ze hier netjes een andere naam aan geven of dat ze wederom mensen proberen te misleiden.
Nee, want de GA106 in de 3050 is geen volledige chip. Die is geknipt naar 2560, wat ook de volledige configuratie van een GA107 is. De volledige GA106 bestaat ook niet in desktop GPU's, enkel in de laptop versie van de 3060. Desktop 3060 is 3584 en kan dan een geknipte 106 of 104 zijn.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

XanderDrake schreef op donderdag 22 september 2022 @ 08:58:

Ik ben niet verbaast dat de huidige RTX 4000 line-up meer kost dan de MSRP van de RTX 3000, volgens mij niemand hier. Maar ik ben wél verbaast over dat nVidia de durft heeft om de RTX 4070 te verpakken als een RTX 4080 12GB en die te verkopen voor $899!! Een top end SKU + prijs alloceren aan een kaart met een memory bus van 192 bit :o !!!
En dat terwijl ze volgens geruchten nog extreem veel RTX 3000 GPUs in voorraad hebben én een overschot aan TSMC 4N wafers!

In mijn ogen proberen ze nog nét even te profiteren van de mensen die nu een nieuwe GPU willen en niet goed de reviews lezen of alles pre-orderen, gezien de ervaring met de vorige launch. Ik vind het echt een anti-consumer move, deze RTX 4080 12GB.... Ik ga wederom wachten tot het moment dat de komende recessie er voor zorgt dat bijna niemand meer een GPU koopt en dan is nVidia mooi in zn eigen sop is gaar gekookt. :( Eens kijken wat de prijzen van de RTX 4000 doen op dat moment!
Daarnet op de frontpage: de vermoedelijke GTX 4070 Ti heeft de specs van een GTX 4080 12GB met een prijspeil van 100$ lager.

Mooi om te zien dat ons boos maken toch heeft geleid naar een betere SKU èn een betere prijs :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Die prijs is nog steeds $200 hoger dan de 3070 Ti, dus laten we niet doen alsof dit goed is.

Als deze kaart ook in de schappen blijft liggen zal het wel gaan doordringen dat de prijzen niet zo veel omhoog kunnen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ludewig schreef op donderdag 29 december 2022 @ 18:18:
Die prijs is nog steeds $200 hoger dan de 3070 Ti, dus laten we niet doen alsof dit goed is.
En, voor diegenen die dit niet door hebben, die heeft een chip die 33% groter is dan deze 4070 Ti, met een 256-bits bus. Dit ding is de opvolger van de 3060 (originele GA106 versie), niet de 3070 of Ti.

Ik heb het al eerder gezegd, maar AD103 is wat xyz4 was, AD104 is wat xyz6 was. Zelfs GP104 was nog iets groter dan dit ding - en Pascal viel ontzettend klein uit omdat het een grote node sprong was, zonder dat ze echt veel meer ruimte gebruikten.

Acties:
  • +1 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 19:04
XanderDrake schreef op donderdag 29 december 2022 @ 18:01:
[...]

Daarnet op de frontpage: de vermoedelijke GTX 4070 Ti heeft de specs van een GTX 4080 12GB met een prijspeil van 100$ lager.

Mooi om te zien dat ons boos maken toch heeft geleid naar een betere passendere SKU èn een betereminder slechte prijs :)
Ftfy :+

De sku xx70TI vind ik nog steeds optimistisch (sowieso launchen met een ti versie?) Voor de die size... En 800 dollar zónder taxes vind ik nog steeds een hele klap geld voor een 70 series kaart....

Ik verwacht hetzelfde als bij de 10xx en 20xx series. Introductie 10xx was competitief. Niet veel later kwam de crypto explosie en was er een tekort aan 10xx kaarten stegen de prijzen. Met de release van de 20xx serie was de cryptobubbel weer leeggelopen en waren ze lang niet zo gewild.

De 30xx werd dus competitief in de markt gezet kwa prijs..? En toen begon het riedeltje opnieuw, alleen omdat men het verhaal kende ging de prijs nog veel hoger..... O-)

Dus nee. Zo'n overwinning vind ik het nog niet. 100$ minder is nog steeds een paar 100$ teveel. O-)

Acties:
  • +2 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 22:39
XanderDrake schreef op donderdag 29 december 2022 @ 18:01:
[...]

Daarnet op de frontpage: de vermoedelijke GTX 4070 Ti heeft de specs van een GTX 4080 12GB met een prijspeil van 100$ lager.

Mooi om te zien dat ons boos maken toch heeft geleid naar een betere SKU èn een betere prijs :)
Het is nog altijd onacceptabel. Het is duurder als een 3080 msrp en waarschijnlijk zo goed als niets sneller. De prijs per frame zal echt belabberd zijn.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

Maar beste mensen, MSRP is toch een soort Fata morgana? :+ We gaan zien wat Nvidia er mee gaat doen, en of we inderdaad Turing achtige prijsverlagingen krijgen. De dedicated GPU markt in ingestort, en Nvidia zal zijn wafers op een manier moeten opmaken. Tot die tijd is deze kaart iig 100$ goedkoper.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Skyline GT-R
  • Registratie: Januari 2004
  • Laatst online: 08-09 08:43

Skyline GT-R

RB26DETT

Ondertussen heeft nvidia FR de specs voor de RTX 4070 Ti al getoont..
https://www.techpowerup.c...geforce-rtx-4070-ti-specs

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het enige dat ik de RTX4070Ti voor $800 eigenlijk zie doen, is nogmaals demonstreren hoe slecht de prijs voor de RTX4080 is. Want ik vermoed dat het prestatieverschil eigenlijk minder dan 30%, misschien zelfs richting de 20% zal zijn, maar de RTX4080 is wel mooi nog eens $400 extra, dus 50% duurder...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Geen idee of het echt is, maar dit zou een RTX 4090 met blower koeler zijn:

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/12/RTX4090-BLOWER-HERO.jpg

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/12/RTX4090-BLOWER-3.jpg

https://videocardz.com/ne...r-is-now-on-sale-in-china

March of the Eagles


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Blijkbaar is de RX4070Ti er. Reviews blijkbaar morgen, verkoop donderdag en $799 zoals verwacht. :)
https://videocardz.com/ne...0-ti-graphics-card-at-799

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Er komt geen FE van de 4070 Ti. Dus of hij voor die prijs te koop is moet ik dan nog maar zien.

Overigens kan de aankondiging dat de 4080 nu al beschikbaar is voor Geforce Now gezien worden als een indicatie dat de verkopen tegenvallen, want blijkbaar is het geen probleem om nu al 4080's weg te houden uit de winkel en in plaats daarvan in de server-rekken te stoppen.

[ Voor 9% gewijzigd door Ludewig op 03-01-2023 18:13 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 23:27
Ludewig schreef op dinsdag 3 januari 2023 @ 18:13:
Er komt geen FE van de 4070 Ti. Dus of hij voor die prijs te koop is moet ik dan nog maar zien.

Overigens kan de aankondiging dat de 4080 nu al beschikbaar is voor Geforce Now gezien worden als een indicatie dat de verkopen tegenvallen, want blijkbaar is het geen probleem om nu al 4080's weg te houden uit de winkel en in plaats daarvan in de server-rekken te stoppen.
Dat valt mee lijkt mij, met de 3080 was dit ook meteen beschikbaar, weet ik doordat ik die toen gratis een jaar kon gebruiken bij aanschaf van mijn 3080. Nooit gebruikt overigens, maar was wel beschikbaar.

Dan nog geloof ik niet dat de 4080 een goedlopend product is hoor, maar dat kan je dus niet stellen door dit punt.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 20:24
Ludewig schreef op dinsdag 3 januari 2023 @ 18:13:
Er komt geen FE van de 4070 Ti. Dus of hij voor die prijs te koop is moet ik dan nog maar zien.

Overigens kan de aankondiging dat de 4080 nu al beschikbaar is voor Geforce Now gezien worden als een indicatie dat de verkopen tegenvallen, want blijkbaar is het geen probleem om nu al 4080's weg te houden uit de winkel en in plaats daarvan in de server-rekken te stoppen.
Maakt dat zoveel uit of hij voor die prijs te koop is? Het is gewoon nog altijd veel te duur. Ongetwijfeld zullen er weer genoeg mensen de kaart alsnog kopen, maar het zijn zo'n belachelijke prijzen. Hoop dat de whales binnenkort wel uitgedund zijn er er toch echt prijsverlagingen komen anders worden het wel heel bedroevende jaren.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Deze slide van deze pagina is afgrijselijk.

Geen enkele voetnoot er bij, gewoon keihard claimen dat de 4070 Ti 3 keer zo snel is als een 3090 Ti in Cyberpunk (ze zetten er in elk geval bij dat het wéér een speciale Nvidia-RT modus wordt). Zucht. M'n hekel aan de upscalers en FG wordt er alleen maar groter door.

[ Voor 8% gewijzigd door Werelds op 04-01-2023 08:26 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 4 januari 2023 @ 08:25:
Deze slide van deze pagina is afgrijselijk.

Geen enkele voetnoot er bij, gewoon keihard claimen dat de 4070 Ti 3 keer zo snel is als een 3090 Ti in Cyberpunk (ze zetten er in elk geval bij dat het wéér een speciale Nvidia-RT modus wordt). Zucht. M'n hekel aan de upscalers en FG wordt er alleen maar groter door.
Al die games hebben DLSS 3.0. ;)
Verder valt het nog wel mee hoor. Ze hadden ook Witcher 3 next gen erbij kunnen doen. Die is ook leuk omdat er zo belachelijk veel ray/intersection tests worden uitgevoerd voor GI dat het werkelijk voor geen meter draait zonder een Ada Lovelace GPU met de hogere ray/intersection testcapaciteit. Dus is er al een mod die het voor de quality mode al halveert (voor nauwelijks visueel verlies) en voor performance ga je naar 1/4de (gering verlies). :z
https://www.nexusmods.com/witcher3/mods/7432
Tweede keer dat Nvidia tech die uitzonderlijk goede game probeert te verpesten. }:|

Verder is Steve er ook al ingedoken. Thanks Steve. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DaniëlWW2 schreef op woensdag 4 januari 2023 @ 09:25:
[...]

Tweede keer dat Nvidia tech die uitzonderlijk goede game probeert te verpesten. }:|
Dit staat los van Nvidia dat de game met RT aan slecht presteerd, dit komt door CDPR zelf. Het is ook geen Nvidia tech, CDPR kan een voorbeeld nemen aan 4A Games om RT toe te passen :)

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De presentaties van Nvidia kun je ondertussen niet anders noemen dan frauduleus. Overigens vond ik de slide waar bij zowel bij de mobiele 4070, 4060 en 4050 stond dat deze even snel zijn als de 3080 ook nogal bijzonder. Ik vermoed dat ze bedoelden dat het 'Up to 3080' was, en dan nog de mobiele 3080 en niet de desktop. Maar blijkbaar nemen ze niet eens meer de moeite om hun misleiding enigszins verdedigbaar te maken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ItalianStyle schreef op woensdag 4 januari 2023 @ 10:15:
[...]


Dit staat los van Nvidia dat de game met RT aan slecht presteerd, dit komt door CDPR zelf. Het is ook geen Nvidia tech, CDPR kan een voorbeeld nemen aan 4A Games om RT toe te passen :)
En als dit nu een eenmalig incident zou zijn geweest.
Maar inmiddels gebeuren er nu al meer dan tien jaar steeds van dit soort rare beslissingen bij games die gesponsord zijn door Nvidia. En geheel toevallig is het altijd hetzelfde patroon van een onnodig zware instelling (was vaak tesselation) zonder daadwerkelijk visueel voordeel, die performance van veel Nvidia GPU's onnodig schaad, maar die van AMD helemaal laat instorten. En na ruim een decennium ben ik er een beetje klaar mee om Nvidia nog het voordeel van de twijfel te geven. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
ItalianStyle schreef op woensdag 4 januari 2023 @ 10:15:
[...]


Dit staat los van Nvidia dat de game met RT aan slecht presteerd, dit komt door CDPR zelf. Het is ook geen Nvidia tech, CDPR kan een voorbeeld nemen aan 4A Games om RT toe te passen :)
Neen, asjeblieft niet. De oorspronkelijke RT implementatie in Metro was slecht op alle vlakken en een stap terug van baked lighting. De Enhanced versie ziet er tenminste beter uit en is met vlagen zelfs de performance hit waard, maar laat alsnog steken vallen, zoals de zaklamp.

RT in Cyberpunk, W3 en Metro zijn stuk voor stuk projecten waar Nvidia meer dan een vinger in de pap heeft. De manier waarop RT daarin toegepast wordt is niet optimaal; zowel qua uiterlijk vertoon als prestaties op de hardware van concurrenten. En in CDPR's geval is dat ook niet nieuw, want W3 had bij release ook al problemen met Hairworks door Nvidia's belachelijke 64xT sampling. Dat had CDPR toen wel aan kunnen passen (ik ga er van uit dat zij toen de broncode al kregen), maar het kwam van Nvidia uit. Nu zie je weer dat mods de slechte implementaties fixen door zinvolle waarden voor de parameters te gebruiken.


Edit: wat we nodig hebben zijn UE5 games met Lumen, waarbij de ontwikkelaars ook fatsoenlijk gebruik maken van de flexibiliteit daarvan. Maakt gewoon gebruik van DXR hardware wanneer mogelijk, maar de manier waarop je dat kunt tweaken en wat er wel of niet via RT gedaan kan worden, laat zo veel meer toe.

[ Voor 10% gewijzigd door Werelds op 04-01-2023 11:09 ]


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DaniëlWW2 schreef op woensdag 4 januari 2023 @ 10:52:
[...]


En als dit nu een eenmalig incident zou zijn geweest.
Maar inmiddels gebeuren er nu al meer dan tien jaar steeds van dit soort rare beslissingen bij games die gesponsord zijn door Nvidia. En geheel toevallig is het altijd hetzelfde patroon van een onnodig zware instelling (was vaak tesselation) zonder daadwerkelijk visueel voordeel, die performance van veel Nvidia GPU's onnodig schaad, maar die van AMD helemaal laat instorten. En na ruim een decennium ben ik er een beetje klaar mee om Nvidia nog het voordeel van de twijfel te geven. :z
Dit staat helemaal los van Nvidia dat RT er zo zwaar inhakt, ik denk eerder dat het aan de game engine ligt. Het zelfde geldt voor Unreal Engine 4 met RT want The Callisto Protocol, een game die gesponsord word door AMD, heeft het probleem ook als RT word ingeschakeld, sterker nog RT doet het net wat beter op Navi 31. Beide games draaien ook belabberd met ADA, dus nee dit heeft niets met met Nvidia te maken die moedwillig games wil verkloten in hun voordeel. Iets wat jij als feit brenkt

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DaniëlWW2 schreef op woensdag 4 januari 2023 @ 10:52:
[...]


En als dit nu een eenmalig incident zou zijn geweest.
Maar inmiddels gebeuren er nu al meer dan tien jaar steeds van dit soort rare beslissingen bij games die gesponsord zijn door Nvidia. En geheel toevallig is het altijd hetzelfde patroon van een onnodig zware instelling (was vaak tesselation) zonder daadwerkelijk visueel voordeel, die performance van veel Nvidia GPU's onnodig schaad, maar die van AMD helemaal laat instorten. En na ruim een decennium ben ik er een beetje klaar mee om Nvidia nog het voordeel van de twijfel te geven. :z
Dit staat helemaal los van Nvidia dat RT er zo zwaar inhakt, ik denk eerder dat het aan de game engine ligt. Het zelfde geldt voor Unreal Engine 4 met RT want The Callisto Protocol, een game die gesponsord word door AMD, heeft het probleem ook als RT word ingeschakeld, sterker nog RT doet het net wat beter op Navi 31. Beide games draaien ook belabberd met ADA, dus nee dit heeft niets met met Nvidia te maken die moedwillig games wil verkloten in hun voordeel. Iets wat jij als feit brenkt

@Werelds
In het geval van DXR weiger ik mee te gaan om Nvidia als de schuldige aan te wijzen, DXR is totaal wat anders dan Gamework en niet Nvidia eigen. Ik ga er pas in mee als er bewijs voor is en dat is er niet. Neem ook The Callisto Protocol waar RT er zo hard in hakt en het iets beter doet op Navi 31.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
DaniëlWW2 schreef op woensdag 4 januari 2023 @ 10:52:
[...]


En als dit nu een eenmalig incident zou zijn geweest.
Maar inmiddels gebeuren er nu al meer dan tien jaar steeds van dit soort rare beslissingen bij games die gesponsord zijn door Nvidia. En geheel toevallig is het altijd hetzelfde patroon van een onnodig zware instelling (was vaak tesselation) zonder daadwerkelijk visueel voordeel, die performance van veel Nvidia GPU's onnodig schaad, maar die van AMD helemaal laat instorten. En na ruim een decennium ben ik er een beetje klaar mee om Nvidia nog het voordeel van de twijfel te geven. :z
Zelfs als Nvidia inderdaad opdracht zou geven expliciet zulke zware instellingen te gebruiken ten overstaande van een zak geld (wat ik me nog altijd afvraag gezien de legal complicaties die optreden zou er eens iemand uit de school klappen), dan zou ik de schuld nog steeds grotendeels bij de dev leggen. Als die welwillend zijn om hun game te vernaggelen voor een groot deel van hun playerbase voor enkel een zak geld dan doen ze dat toch echt zelf, ze hoeven die zak geld niet aan te nemen.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Er is trouwens nu een Lumen game beschikbaar. Uiteraard Fortnight en de RX7900XTX is eigenlijk net beter.
YouTube: Radeon RX 7900 XTX vs. GeForce RTX 4080, 50+ Game Benchmark @ 1440p ...
Verder is AMD uit mijn hoofd 16x tesselation gaan forceren in drivers voor Witcher 3 toen het eenmaal duidelijk was wat het probleem was. Het is voor zover ik weet ook nooit opgelost en het ziet er niet eens goed uit op Geralt. Daarom is er ook een mod die Hairworks alleen op Geralt uitschakelt omdat beesten zonder Hairworks aan, er ook kaal uitzien en daar is de impact ook veel minder van.

@ItalianStyle Je negeert compleet wat ik zeg. Het lijkt nauwelijks een week geduurd te hebben voordat al duidelijk was hoe slecht de implementatie was voor alles buiten Ada Lovelace GPU's. En het was ook nog eens onnodig zwaar op ray/intersection tests waar alleen Ada Lovelace iets mee kan. Dan is er ook nog eens de factor DLSS3 om een gigantisch prestatieverschil te creëren.

En als je een RTX4080/RTX4090 hebt, dan maakt het weinig voor je uit. Voor de rest dus wel. Het gaat hier om RTGI. Het hele punt hiervan is dat je met relatief weinig ray/intersection tests die zo ontiegelijk zwaar zijn voor elke GPU, een enorme sprong in belichting kan bereiken. Dat is ook het enige dat de meeste RT hardware een beetje aankan.

En dan komt er een door Nvidia gesponsorde game aanzetten met een bizarre hoeveelheid ray/intersection tests die ook performance voor bijvoorbeeld een Ampere GPU zwaar saboteren. Die gegeven benchmark getallen hieronder gaan ook om een RTX2060S, een van de minst capabele RT videokaarten die er is.
Vanilla :

Average framerate : 36.6 FPS
Minimum framerate : 31.2 FPS
Maximum framerate : 46.5 FPS
1% low framerate : 17.5 FPS

Modded v0.5 Performance :

Average framerate : 54.0 FPS
Minimum framerate : 46.7 FPS
Maximum framerate : 67.9 FPS
1% low framerate : 35.3 FPS

Modded v0.5 Quality :

Average framerate : 46.2 FPS
Minimum framerate : 40.9 FPS
Maximum framerate : 57.9 FPS
1% low framerate : 32.9 FPS
En ik kan me ook niet voorstellen dat een developer die dit implementeert, dit niet zelf zou zien. Ik kan best begrijpen dat de eerste text implementatie met een RTX4090 gedaan word. Maar als je daarna even zou testen met een RTX2070S of RX6700XT dan zie je meteen al dat je implementatie veel en veel te zwaar is voor de meeste GPU's met RT hardware. Dan kan je ray/intersection tests verminderen en dan zie je dat het nauwelijks verschil oplevert. Dat doe je dan ook omdat je zo betere framerates krijgt voor die RTX4090 en het voor de rest speelbaar is.

Het gaat hier wederom om RTGI. Het hele punt is dat dit juist niet zo intensief is en nu hebben we een implementatie die haar doel volstrekt voorbij schiet. En er zijn ook geen niveaus van GI implementatie in een game die heel wat grafische instellingen heeft. Het is aan of uit.

Of hier met een RTX3060 (DLSS2 quality)
Je ziet wel een klein verschil tussen de optimised quality en optimised performance. Maar wat je vooral ziet is de frameratewinst van die vrij simpele mod.


En als laatste wederom als dit nu eenmaal gebeurde bij een Nvidia gesponsorde titel, maar dit gebeurd niet zelden. En het treft iedereen onnodig die niet de nieuwste high end videokaart van Nvidia heeft. Dit is ook geen AMD vs. Nvidia probleem meer. Dit is ook belangrijk voor mensen die een Turing of Ampere RTX videokaart van Nvidia hebben gekocht en nu ook uit wat misschien wel een van de meest daadwerkelijk gameplay toevoegende RT implementaties gelocked worden. Want Witcher 3 is perfect voor RTGI in tegenstelling tot veel FPS games waar je het niet snel zal gebruiken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DaniëlWW2 schreef op woensdag 4 januari 2023 @ 12:16:
@Werelds Er is trouwens nu een Lumen game beschikbaar. Uiteraard Fortnight en de RX7900XTX is eigenlijk net beter.
YouTube: Radeon RX 7900 XTX vs. GeForce RTX 4080, 50+ Game Benchmark @ 1440p ...
Verder is AMD uit mijn hoofd 16x tesselation gaan forceren in drivers voor Witcher 3 toen het eenmaal duidelijk was wat het probleem was. Het is voor zover ik weet ook nooit opgelost en het ziet er niet eens goed uit op Geralt. Daarom is er ook een mod die Hairworks alleen op Geralt uitschakelt omdat beesten zonder Hairworks aan, er ook kaal uitzien en daar is de impact ook veel minder van.

@ItalianStyle Je negeert compleet wat ik zeg. Het lijkt nauwelijks een week geduurd te hebben voordat al duidelijk was hoe slecht de implementatie was voor alles buiten Ada Lovelace GPU's. En het was ook nog eens onnodig zwaar op ray/intersection tests waar alleen Ada Lovelace iets mee kan. Dan is er ook nog eens de factor DLSS3 om een gigantisch prestatieverschil te creëren.

En als je een RTX4080/RTX4090 hebt, dan maakt het weinig voor je uit. Voor de rest dus wel. Het gaat hier om RTGI. Het hele punt hiervan is dat je met relatief weinig ray/intersection tests die zo ontiegelijk zwaar zijn voor elke GPU, een enorme sprong in belichting kan bereiken. Dat is ook het enige dat de meeste RT hardware een beetje aankan.

En dan komt er een door Nvidia gesponsorde game aanzetten met een bizarre hoeveelheid ray/intersection tests die ook performance voor bijvoorbeeld een Ampere GPU zwaar saboteren. Die gegeven benchmark getallen hieronder gaan ook om een RTX2060S, een van de minst capabele RT videokaarten die er is.


[...]


En ik kan me ook niet voorstellen dat een developer die dit implementeert, dit niet zelf zou zien. Ik kan best begrijpen dat de eerste text implementatie met een RTX4090 gedaan word. Maar als je daarna even zou testen met een RTX2070S of RX6700XT dan zie je meteen al dat je implementatie veel en veel te zwaar is voor de meeste GPU's met RT hardware. Dan kan je ray/intersection tests verminderen en dan zie je dat het nauwelijks verschil oplevert. Dat doe je dan ook omdat je zo betere framerates krijgt voor die RTX4090 en het voor de rest speelbaar is.

Het gaat hier wederom om RTGI. Het hele punt is dat dit juist niet zo intensief is en nu hebben we een implementatie die haar doel volstrekt voorbij schiet. En er zijn ook geen niveaus van GI implementatie in een game die heel wat grafische instellingen heeft. Het is aan of uit.

Of hier met een RTX3060 (DLSS2 quality)
Je ziet wel een klein verschil tussen de optimised quality en optimised performance. Maar wat je vooral ziet is de frameratewinst van die vrij simpele mod.
[YouTube: The Witcher 3 Next-Gen Optimized Ray Tracing Mod - Up To 40% FPS Boost | RTX 3060 | i7 10700F]

En als laatste wederom als dit nu eenmaal gebeurde bij een Nvidia gesponsorde titel, maar dit gebeurd niet zelden. En het treft iedereen onnodig die niet de nieuwste high end videokaart van Nvidia heeft. Dit is ook geen AMD vs. Nvidia probleem meer. Dit is ook belangrijk voor mensen die een Turing of Ampere RTX videokaart van Nvidia hebben gekocht en nu ook uit wat misschien wel een van de meest daadwerkelijk gameplay toevoegende RT implementaties gelocked worden. Want Witcher 3 is perfect voor RTGI in tegenstelling tot veel FPS games waar je het niet snel zal gebruiken.
Ik negeer je niet. The Witcher 3 loopt ook net zo brak met RT aan op ADA, alleen wanneer je FG aan zet loopt het beter, ik spreek uit ervaring. Ik wil alleen duidelijk maken dat dit niet door Nvidia komt die de boel loopt te manipuleren in het geval van DXR. Dit probleem komt omdat CDPR DXR functies zo slecht implementeerd. Dit hele probleem zie je ook terug bij AMD sponsored games met DXR functies, wat ook door de gameontwikkelaar komt.

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
ItalianStyle schreef op woensdag 4 januari 2023 @ 11:22:
In het geval van DXR weiger ik mee te gaan om Nvidia als de schuldige aan te wijzen, DXR is totaal wat anders dan Gamework en niet Nvidia eigen. Ik ga er pas in mee als er bewijs voor is en dat is er niet. Neem ook The Callisto Protocol waar RT er zo hard in hakt en het iets beter doet op Navi 31.
[/small]
Eerst even over Callisto Protocol: AMD's "sponsoring" is heel anders dan Nvidia's - het gaat hen enkel om marketing. AMD stelt helemaal geen eisen over technologie die wel of niet gebruikt moet/mag worden, wat Nvidia wel doet. Gevolg is dat het spel gewoon PhysX gebruikt ;)

Wat je in vredesnaam bedoelt met RT dat het "beter" zou doen op N31 in dat spel, weet ik niet. Het hakt er ongeveer even hard in als op Nvidia hardware. Dat Nvidia met RT geen gigantische voorsprong heeft komt niet door iets van AMD's "sponsoring", dat komt doordat het spel RT op een andere manier gebruikt (en ook minder) dan dingen als CP (CyberPunk :P), W3, Metro, Control. RT heeft geen vaste performance hit, dat hangt heel erg van van wat er gedaan wordt. Nvidia en AMD zijn beide goed in andere delen van het hele RT traject. AMD kan sneller uitvogelen wát er geraakt wordt dan Nvidia, terwijl Nvidia juist (veel) sneller berekent hóe iets geraakt wordt. Kijk voor de gein eens naar Watch Dogs: Legion; RDNA3 doet het daar stukken beter dan RDNA2 op lagere resoluties door hun verbeterde RA's, maar valt op 2160p weer terug door een gebrek aan throughput voor alle pixels.

Het gaat verder ook niet om DXR of de performance impact daarvan. Dat laatste is er altijd en is te verwachten. Het gaat om de oorzaak daarvan. Wil je bewijs hebben dat daar iets niet deugt? Kijk gewoon eens naar de fixes voor W3, het zijn enkel waarden die getweakt worden. De implementatie is niets mis mee, RT doet wat het moet doen en de belichting klopt beter. Echter zijn de gebruikte waarden onzin en veel te hoog.

Is dat CDPR aan te rekenen? Absoluut! Zij hadden dat moeten zien en aan moeten passen, net zoals ze dat met de 64xT samples in Hairworks hadden moeten doen.

Echter, die code komt in eerste instantie bij Nvidia vandaan (zie hieronder waarom ik daar zo zeker van ben). En veel ontwikkelaars krijgen van Nvidia alsnog slechts de blobs, geen broncode, dus dan zijn dat soort dingen vaak niet aan te passen. Dat hebben we in de broncode van Hairworks kunnen zien toen dat eindelijk open werd. Ik zou graag de regels code hier plakken, maar het repo is van GitHub verdwenen (ik zit in de GameWorks organisatie en het repo is er gewoon niet meer). Geen idee wanneer dat gebeurd is, of misschien zit het ergens in een ander repo nu. Zoek ik later wel naar.

In het geval van W3 heeft CDPR echt wel compensatie van Nvidia ontvangen om RT daarin te krijgen - niet noodzakelijkerwijs geld. Het zou me niets verbazen als Nvidia daar programmeurs voor gestuurd heeft...en dat is waar die idiote waarden dan vandaan komen. CDPR heeft geen enkel financiëel belang bij deze update voor W3, ze verkopen het spel er echt niet nog meer door na al die jaren.

Ik reken het dus ook niet enkel Nvidia aan, ik reken het beide betrokken partijen aan. Dat soort ongein is gewoon nadelig voor ons als consument. Als het nu sporadisch voor kwam, zou je het op onkunde van de ontwikkelaars kunnen gooien. Maar het gebeurt systematisch bij titels waar Nvidia een vinger in de pap heeft. En dankzij de broncode van HW hebben we weldegelijk al kunnen zien dat Nvidia bewust dingen doet die nergens op slaan omdat ze er zelf geen/weinig last van hebben.


En ik ga nu toch eindelijk maar eens demonstreren waarom zulke hoge standaardwaarden zo achterlijk zijn. Ik gebruik namelijk al jaren Nvidia's tessellation praktijken als voorbeeld, maar ik heb volgens mij nooit laten zien waarom zulke dingen zo enorm destructief zijn. Dit komt uit een demo applicatie die AMD ooit online heeft gegooid in GPU Open, maar dan ietwat gemoderniseerd (oorspronkelijke applicatie ging tot slechts 16 samples :P). De 64xT afbeeldingen renderen beide op ~50% performance (we hebben het over duizenden frames, dus exacte aantal is irrelevant :P).

Wat paddestoelen:

5xT:
Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/12uRPQNm/6cdc85df-7663-464a-914b-5fb6a94e02a8.jpeg

64xT:
Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/wbuv85WE/382a155c-67d3-47c8-b1da-336b61a0089c.jpeg

Spot de verschillen.

Utah Teapot dan maar? Mooie vloeiende rondingen, moet er baat bij hebben, toch?

3xT (ja, drie):
Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/2Nu6PWyl/f272ca55-a199-4576-a1bc-75f5cc425162.jpeg

64xT:
Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/Z4umrpkG/51f4e4dd-2351-4df0-96ce-aefa2d6fc97f.jpeg

Yep. En dan zou 64xT op haren van een pixel breed nuttig zijn? Laat me niet lachen :')

Dit is hoe het wireframe er uit ziet met 3 samples:

Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/yAuA0nKK/8b93c070-05db-46b2-ba58-c24af339a408.jpeg

En dit is zonder enige tessellation:

Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/mXubPvxl/8f31e3ba-a6b5-4834-a7c5-3fc84b29684b.jpeg

Met 64xT hoef ik niet te posten, want dan heb je zo veel poly's en zijn ze zo klein dat je het wireframe niet eens meer ziet.

Voor verreweg de meeste objecten in games is 8 samples al te veel, laat staan 16 of meer. En dan zijn dit nog low-poly models ook, die dus meer baat bij tessellation hebben.
ItalianStyle schreef op woensdag 4 januari 2023 @ 12:43:
Ik negeer je niet. The Witcher 3 loopt ook net zo brak met RT aan op ADA, alleen wanneer je FG aan zet loopt het beter, ik spreek uit ervaring.
En juist daarom zou ook jij heel kritisch moeten zijn over de impact van RT (en andere features) in sommige games. Zoals in de oorspronkelijke versie van Metro Exodus, waar RT niets toevoegde ten opzichte van baked lighting. Of zoals in W3, waar de gebruikte waarden nergens op slaan. Want als AMD baat heeft bij zinvollere waarden, heeft Nvidia dat ook. Waarschijnlijk in mindere mate, maar meer daadwerkelijke frames is altijd beter.

FG is een pleister op een wonde die je überhaupt niet zou moeten hebben.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik geloof nog steeds niet dat Nvidia RT in TW3 heeft laten toevoegen om beter uit te komen met ADA gezien de RX 7900 XTX met RT ook beter presteerd dan de RTX 4080. RT is niet zoals Gameworks van Nvidia het komt van Microsoft.

Voorbeeld waar de 7900 XTX beter presteerd
https://youtu.be/bb6NeQnJYqo

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
ItalianStyle schreef op woensdag 4 januari 2023 @ 13:12:
Ik geloof nog steeds niet dat Nvidia RT in TW3 heeft laten toevoegen om beter uit te komen met ADA gezien de RX 7900 XTX met RT ook beter presteerd dan de RTX 4080. RT is niet zoals Gameworks van Nvidia het komt van Microsoft.

Voorbeeld waar de 7900 XTX beter presteerd
https://youtu.be/bb6NeQnJYqo
10900K, Nvidia's driver loopt daar tegen een CPU bottleneck aan :)

HUB: YouTube: Radeon RX 7900 XTX vs. GeForce RTX 4080, 50+ Game Benchmark @ 1440p ... (of te lezen op TechSpot natuurlijk: https://www.techspot.com/...-xtx-vs-geforce-rtx-4080/).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ItalianStyle schreef op woensdag 4 januari 2023 @ 13:12:
Ik geloof nog steeds niet dat Nvidia RT in TW3 heeft laten toevoegen om beter uit te komen met ADA gezien de RX 7900 XTX met RT ook beter presteerd dan de RTX 4080. RT is niet zoals Gameworks van Nvidia het komt van Microsoft.

Voorbeeld waar de 7900 XTX beter presteerd
https://youtu.be/bb6NeQnJYqo
Nog meer benchmarks en demonstraties die iets heel anders laten zien. En of de RTX4080 en al helemaal de RTX4090 een flink stuk sneller zijn. Ook wat er gebeurd met een RTX3080 of RX6800XT. ;)
https://www.computerbase....xt-gen-update-benchmarks/



ItalianStyle schreef op woensdag 4 januari 2023 @ 12:43:
[...]


Ik negeer je niet. The Witcher 3 loopt ook net zo brak met RT aan op ADA, alleen wanneer je FG aan zet loopt het beter, ik spreek uit ervaring. Ik wil alleen duidelijk maken dat dit niet door Nvidia komt die de boel loopt te manipuleren in het geval van DXR. Dit probleem komt omdat CDPR DXR functies zo slecht implementeerd. Dit hele probleem zie je ook terug bij AMD sponsored games met DXR functies, wat ook door de gameontwikkelaar komt.
Het heeft alleen niks met die brakke DX12 implementatie te maken. Het is puur een belachelijke ray/intersection test hoeveelheid voor RTGI. Het is zo simpel dat een mod het met een .ini bestand van 1KB kan aanpassen. Het is letterlijk dit:

0.6 performance
[RTXGI/GlobalGrid]
ProbeMaxRayDist=200
NumClassificationRaysPerProbe=200
MaxProbesShadedPerFrame=4000
MaxProbesClassificatedPerFrame=64000
MaxProbesClassificatedPerFrameAfterFirstPass=16000

[RTXGI/Grid1]
ProbeGridSpacingX=1.920000
ProbeGridSpacingY=1.920000
ProbeGridSpacingZ=1.200000
ProbeGridCountsX=40
ProbeGridCountsY=40
ProbeGridCountsZ=16
NumClassificationRaysPerProbe=52
ProbeMaxRayDist=200
MaxProbesShadedPerFrame=64000
MaxProbesClassificatedPerFrame=64000
NumShadingDirectionPerCycle=16000
ShadingRaysPerFrameBudget=128000
Origineel
[RTXGI/GlobalGrid]
ProbeMaxRayDist=128
NumClassification**RaysPerProbe=128
MaxProbesShadedPerFrame=16384
MaxProbesClassificatedPerFrame=262144
MaxProbesClassificatedPerFrameAfterFirstPass=65536

[RTXGI/Grid1]
ProbeGridSpacingX=1.200000
ProbeGridSpacingY=1.200000
ProbeGridSpacingZ=1.200000
ProbeGridCountsX=64
ProbeGridCountsY=64
ProbeGridCountsZ=16
NumClassification**RaysPerProbe=32
ProbeMaxRayDist=128
MaxProbesShadedPerFrame=262144
MaxProbesClassificatedPerFrame=262144
NumShadingDirection**PerCycle=65536
ShadingRaysPerFrameBudget=524288

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
De CPU bottleneck met 99% GPU verbruik. Dat is een nieuwe :).

Dat zijn trouwens geen framerates waar een 10900K een bottleneck vormt in White Orchard.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
napata schreef op woensdag 4 januari 2023 @ 14:14:
[...]

De CPU bottleneck met 99% GPU verbruik. Dat is een nieuwe :).

Dat zijn trouwens geen framerates waar een 10900K een bottleneck vormt in White Orchard.
Dat heb ik al vaker uitgelegd. "GPU usage" is een misleidende term, want geen enkele GPU is daadwerkelijk ooit zelfs maar 80% in gebruik, tenzij je een extreem specifieke compute workload er op gooit en zelfs dan is het waarschijnlijk niet mogelijk omdat geen van de fabrikanten al hun units constant aan het werk kan houden.

In werkelijkheid is het een tijd waarde; met andere woorden, het is een waarde die aan geeft hoeveel % van de tijd de GPU iets aan het doen is. Dat betekent niet dat hij niet meer zou kunnen doen. Met RT doet de CPU meer werk dan je wellicht denkt, want het is de CPU die bepaalt wat er gesampled wordt.

Je moet het zo zien: of er nu 1 of 128 SM's belast worden, "GPU usage" is in beide gevallen "99%" als dat constant achter elkaar gebeurt. En dat is ook wat er in werkelijkheid gebeurt: op enig moment tijdens een frame kun je er op rekenen dat minder dan de helft van alle SM's daadwerkelijk iets aan het doen is. Maar de GPU als geheel is op dat moment wél bezig. Dat is ook waarom het verbruik van een 4090 met RT zo veel hoger ligt, want dan zijn alle 128 RT cores (en daarmee hun SM's) belast, wat met raster workloads niet zo is.


In dit geval maakt het allemaal echter niets uit, want ik kijk zojuist nog eens naar die video en merk eens op hoe de CPU 0,0 belasting vertoont op alle cores? Of hoe de framegraph op de 4090 ontzettend instabiel is, maar op de 4080 volledig stabiel is. Of hoe de CPU met de 4080 minder verbruikt, maar wel warmer is met dezelfde fanspeed als met de 7900 XTX? Laat staan met de 4090, waar het ding bijna twee keer zo heet is.

En dan klik je door op het kanaal en zie je dat hij op 8 december al 7900 XTX video's had. En 3 dagen geleden al een 4070 Ti video ;)

Ik had daarstraks niet eens naar iets anders gekeken dan de specs en framerates en trok daar (overhaast) m'n conclusie uit. Tot dusver zie je overal dat de 7900 XTX flink op z'n bek krijgt met RT in W3, behalve bij deze faker ;)

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit zag ook werkelijk niemand aankomen denk ik. O-)




https://www.computerbase...._raytracing_in_3840__2160
review: Nvidia GeForce RTX 4070 Ti - De gedegradeerde 4080

Snel gekeken en het lijkt dus RTX3090 niveau te zijn op 4K en RTX3090Ti op 1440p. 4K RT is het ook ongeveer RTX3090Ti en op 1440p lijkt de RTX4070Ti nipt sneller. Nu als de prijs nou minstens $300 lager was Nvidia. :z

[ Voor 48% gewijzigd door DaniëlWW2 op 04-01-2023 15:19 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Proshop heeft ze voor 1000 euro.

Acties:
  • +5 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Dan mogen ze ze houden.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
Net ff HUB gekeken, je koopt zoals verwacht dus een RTX 3090 Ti voor $800, met ook nog eens flink efficiëntie stap.

Volgens Steve zou dit $700 moeten kosten (en de RX 7900XTX $900). Op $800 MSRP is het een 'fine product', maar vooral niet kopen boven MSRP, zou je bijv. $900 moeten betalen dan is het 'hot garbage' :P

Eigenlijk redelijk in lijn met wat je mocht verwachten op basis van de unlaunched specs.

Nog wel weer even de sneer naar AMD op het einde dat het eigenlijk niet te geloven is dat het AMD gelukt is om deze Nvidia producten er goed uit te laten zien.

[ Voor 16% gewijzigd door Dennism op 04-01-2023 17:02 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Ik snap die prijsstelling van de 4000 series echt niet. Deze chip is minder dan de helft van de 4090. Verspil je minder van de wafer aan de randen, je hebt een veel hoger slagingspercentage en het is geen halo product waar je een enorme marge zou verwachten.

toch wil nvidia de helft van de prijs voor de helft van de kaart lijkt het, procentueel misschien zelfs een hogere marge op de 4070Ti dan de 4090.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
haarbal schreef op woensdag 4 januari 2023 @ 17:28:
Ik snap die prijsstelling van de 4000 series echt niet. Deze chip is minder dan de helft van de 4090. Verspil je minder van de wafer aan de randen, je hebt een veel hoger slagingspercentage en het is geen halo product waar je een enorme marge zou verwachten.

toch wil nvidia de helft van de prijs voor de helft van de kaart lijkt het, procentueel misschien zelfs een hogere marge op de 4070Ti dan de 4090.
De halo prijs (4090) is dan ook amper gestegen en misschien zelfs relatief gezien gedaald als je de gestegen kosten (TSMC, inflatie en loon etc) meetelt. De rest van de line-up is helaas stevig omhoog gegaan in prijs.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Werelds schreef op woensdag 4 januari 2023 @ 12:53:
[...]
En ik ga nu toch eindelijk maar eens demonstreren waarom zulke hoge standaardwaarden zo achterlijk zijn.
Natuurlijk kan x64 identiek zijn aan x8. Je kunt ook een heel veel vertices kubus maken, maar dat ziet er exact hetzelfde uit als een 8 vertices kubus. Je paddenstoelen en theepot maken niet goed gebruik van welk tesselation nivo dan ook. De theepot heeft tesselation niet echt nodig, de als de paddestoelen al een displacement map gebruikt is die wel heel subtiel. En aangenomen dat het geen reusachtige versies van een theepot of paddestoel voorstellen, zijn ze voor game assets begrippen niet bepaald "low-poly". Als je aan wil tonen dat dat tesselation x8 voldoende is, zijn je theepot en paddestoel voorbeelden onvoldoende.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Werelds schreef op woensdag 4 januari 2023 @ 12:53:
[...]

Eerst even over Callisto Protocol: AMD's "sponsoring" is heel anders dan Nvidia's - het gaat hen enkel om marketing. AMD stelt helemaal geen eisen over technologie die wel of niet gebruikt moet/mag worden, wat Nvidia wel doet. Gevolg is dat het spel gewoon PhysX gebruikt ;)

Wat je in vredesnaam bedoelt met RT dat het "beter" zou doen op N31 in dat spel, weet ik niet. Het hakt er ongeveer even hard in als op Nvidia hardware. Dat Nvidia met RT geen gigantische voorsprong heeft komt niet door iets van AMD's "sponsoring", dat komt doordat het spel RT op een andere manier gebruikt (en ook minder) dan dingen als CP (CyberPunk :P), W3, Metro, Control. RT heeft geen vaste performance hit, dat hangt heel erg van van wat er gedaan wordt. Nvidia en AMD zijn beide goed in andere delen van het hele RT traject. AMD kan sneller uitvogelen wát er geraakt wordt dan Nvidia, terwijl Nvidia juist (veel) sneller berekent hóe iets geraakt wordt. Kijk voor de gein eens naar Watch Dogs: Legion; RDNA3 doet het daar stukken beter dan RDNA2 op lagere resoluties door hun verbeterde RA's, maar valt op 2160p weer terug door een gebrek aan throughput voor alle pixels.

Het gaat verder ook niet om DXR of de performance impact daarvan. Dat laatste is er altijd en is te verwachten. Het gaat om de oorzaak daarvan. Wil je bewijs hebben dat daar iets niet deugt? Kijk gewoon eens naar de fixes voor W3, het zijn enkel waarden die getweakt worden. De implementatie is niets mis mee, RT doet wat het moet doen en de belichting klopt beter. Echter zijn de gebruikte waarden onzin en veel te hoog.

Is dat CDPR aan te rekenen? Absoluut! Zij hadden dat moeten zien en aan moeten passen, net zoals ze dat met de 64xT samples in Hairworks hadden moeten doen.

Echter, die code komt in eerste instantie bij Nvidia vandaan (zie hieronder waarom ik daar zo zeker van ben). En veel ontwikkelaars krijgen van Nvidia alsnog slechts de blobs, geen broncode, dus dan zijn dat soort dingen vaak niet aan te passen. Dat hebben we in de broncode van Hairworks kunnen zien toen dat eindelijk open werd. Ik zou graag de regels code hier plakken, maar het repo is van GitHub verdwenen (ik zit in de GameWorks organisatie en het repo is er gewoon niet meer). Geen idee wanneer dat gebeurd is, of misschien zit het ergens in een ander repo nu. Zoek ik later wel naar.

In het geval van W3 heeft CDPR echt wel compensatie van Nvidia ontvangen om RT daarin te krijgen - niet noodzakelijkerwijs geld. Het zou me niets verbazen als Nvidia daar programmeurs voor gestuurd heeft...en dat is waar die idiote waarden dan vandaan komen. CDPR heeft geen enkel financiëel belang bij deze update voor W3, ze verkopen het spel er echt niet nog meer door na al die jaren.

Ik reken het dus ook niet enkel Nvidia aan, ik reken het beide betrokken partijen aan. Dat soort ongein is gewoon nadelig voor ons als consument. Als het nu sporadisch voor kwam, zou je het op onkunde van de ontwikkelaars kunnen gooien. Maar het gebeurt systematisch bij titels waar Nvidia een vinger in de pap heeft. En dankzij de broncode van HW hebben we weldegelijk al kunnen zien dat Nvidia bewust dingen doet die nergens op slaan omdat ze er zelf geen/weinig last van hebben.


En ik ga nu toch eindelijk maar eens demonstreren waarom zulke hoge standaardwaarden zo achterlijk zijn. Ik gebruik namelijk al jaren Nvidia's tessellation praktijken als voorbeeld, maar ik heb volgens mij nooit laten zien waarom zulke dingen zo enorm destructief zijn. Dit komt uit een demo applicatie die AMD ooit online heeft gegooid in GPU Open, maar dan ietwat gemoderniseerd (oorspronkelijke applicatie ging tot slechts 16 samples :P). De 64xT afbeeldingen renderen beide op ~50% performance (we hebben het over duizenden frames, dus exacte aantal is irrelevant :P).

Wat paddestoelen:

5xT:
[Afbeelding]

64xT:
[Afbeelding]

Spot de verschillen.

Utah Teapot dan maar? Mooie vloeiende rondingen, moet er baat bij hebben, toch?

3xT (ja, drie):
[Afbeelding]

64xT:
[Afbeelding]

Yep. En dan zou 64xT op haren van een pixel breed nuttig zijn? Laat me niet lachen :')

Dit is hoe het wireframe er uit ziet met 3 samples:

[Afbeelding]

En dit is zonder enige tessellation:

[Afbeelding]

Met 64xT hoef ik niet te posten, want dan heb je zo veel poly's en zijn ze zo klein dat je het wireframe niet eens meer ziet.

Voor verreweg de meeste objecten in games is 8 samples al te veel, laat staan 16 of meer. En dan zijn dit nog low-poly models ook, die dus meer baat bij tessellation hebben.


[...]

En juist daarom zou ook jij heel kritisch moeten zijn over de impact van RT (en andere features) in sommige games. Zoals in de oorspronkelijke versie van Metro Exodus, waar RT niets toevoegde ten opzichte van baked lighting. Of zoals in W3, waar de gebruikte waarden nergens op slaan. Want als AMD baat heeft bij zinvollere waarden, heeft Nvidia dat ook. Waarschijnlijk in mindere mate, maar meer daadwerkelijke frames is altijd beter.

FG is een pleister op een wonde die je überhaupt niet zou moeten hebben.
Dar The Callisto Protocol een AMD sponsored game is zegt ook niets, wat ik er mee wil zeggen dat die game ook extra brak draaid met RT aan, het zelfde als met The Witcher. Dus nee Nvidia zit er niet achter bij TW3 omdat Nvidia ook niets heeft in te brengen bij The Callisto Protocol want je ziet daar het zelfde gebeuren met zo wel Nvidia als AMD. Met RT aan gaat het GPU gebruik gigantisch naar beneden want de videokaarten worden nog maar voor halve kracht gebruikt door slechte optimalisaties van de game met RT aan. Dit is iets wat je niet terug ziet met andere games waar bij je RT aan zet dus het moet wel aan de game optimalisatie liggen zo ver dat mogelijk is met de engine. FSR en DLSS verhelpen dat probleem ookniet, het bied geen extra performance.

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Ik ga alvast oude nostalgie filmpjes opzoeken die alleen in <= 720p bestaan. :D
So in February I will be able to watch this video with AI upscaling and make the left part look like the right ? mhhh... How will the right part look like ?
:+

[ Voor 16% gewijzigd door Paprika op 05-01-2023 11:08 ]


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
cnieuweboer schreef op woensdag 4 januari 2023 @ 21:03:
Natuurlijk kan x64 identiek zijn aan x8. Je kunt ook een heel veel vertices kubus maken, maar dat ziet er exact hetzelfde uit als een 8 vertices kubus. Je paddenstoelen en theepot maken niet goed gebruik van welk tesselation nivo dan ook. De theepot heeft tesselation niet echt nodig, de als de paddestoelen al een displacement map gebruikt is die wel heel subtiel. En aangenomen dat het geen reusachtige versies van een theepot of paddestoel voorstellen, zijn ze voor game assets begrippen niet bepaald "low-poly". Als je aan wil tonen dat dat tesselation x8 voldoende is, zijn je theepot en paddestoel voorbeelden onvoldoende.
Point taken, zal er eens een keer wat betere voorbeelden doorheen gooien (en dan ook met textures en wat meer belichting) :)

Maar met een bal (specifiek icosphere) van 35 poly's zie je na 5 samples ook geen verschil meer -zelfs zo dichtbij-, want dan zit je ook al ruim over de 1000 poly's. En dat was vooral mijn punt, Nvidia heeft o.a. in HairWorks (maar ook elders) standaard heel hoge tessellation sample counts ingesteld staan, omdat zij daar nog steeds heel veel hardware tegenaan gooien (meer dan er nodig is). Ze gooien standaard 64 samples tegen die minuscule haartjes van 3 poly's rondom, wat gewoon geen visueel effect heeft. Je komt dan op meerdere poly's per pixel uit, wat gewoon absurd is.
ItalianStyle schreef op donderdag 5 januari 2023 @ 10:07:
Dar The Callisto Protocol een AMD sponsored game is zegt ook niets, wat ik er mee wil zeggen dat die game ook extra brak draaid met RT aan, het zelfde als met The Witcher. Dus nee Nvidia zit er niet achter bij TW3 omdat Nvidia ook niets heeft in te brengen bij The Callisto Protocol want je ziet daar het zelfde gebeuren met zo wel Nvidia als AMD. Met RT aan gaat het GPU gebruik gigantisch naar beneden want de videokaarten worden nog maar voor halve kracht gebruikt door slechte optimalisaties van de game met RT aan. Dit is iets wat je niet terug ziet met andere games waar bij je RT aan zet dus het moet wel aan de game optimalisatie liggen zo ver dat mogelijk is met de engine. FSR en DLSS verhelpen dat probleem ookniet, het bied geen extra performance.
Je mist nog steeds volledig het punt.

RT gaat altijd performance kosten. Daar gaat het niet om. Het gaat er om dat in bijvoorbeeld W3, Cyberpunk of Metro, AMD disproportioneel performance verliest doordat de gebruikte instellingen meer impact op AMD's hardware hebben dan die van Nvidia door de verschillende aanpak van beide. Tegelijkertijd betekent dat dat Nvidia daar ook meer performance verliest dan nodig, maar de performance ziet er relatief tot AMD dan wel beter uit. En Nvidia's oudere GPU's lijden er even veel onder als AMD. En sterker nog, slimmere instellingen kunnen juist betere beeldkwaliteit geven én meer performance, zoals met de W3 mod.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit zou nogal interessant zijn.


Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik kan me voorstellen dat je een dynamische compilatie doet waar je de compiler steeds laat variëren hoe hij dingen compileert en dan een benchmark draait. Er zijn allerlei compileerbesluiten waar de compiler eigenlijk maar een gok doet wat de beste oplossing is. Dan houdt je de beste keuzes.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En het laatste deel van het saga.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Mooie mini documentaire inderdaad! Erg jammer dat ze geen kaarten meer maken...

Acties:
  • +3 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
haarbal schreef op woensdag 4 januari 2023 @ 17:28:
Ik snap die prijsstelling van de 4000 series echt niet. Deze chip is minder dan de helft van de 4090. Verspil je minder van de wafer aan de randen, je hebt een veel hoger slagingspercentage en het is geen halo product waar je een enorme marge zou verwachten.

toch wil nvidia de helft van de prijs voor de helft van de kaart lijkt het, procentueel misschien zelfs een hogere marge op de 4070Ti dan de 4090.
Zowel de 4090, 4080 als 4070 Ti zijn tijdelijk met $200-400 extra winst door Jensen Huang verhoogd bovenop de Nvidia bruto marge van 60-70%, omdat ze hun RTX 3000 voorraad nog moeten verkopen aan AIB partners.

Nu geldt voor de 4090 klasse altijd een hoge prijs, maar we zagen met de 3090 ook op een gegeven moment een 3080 Ti die daar $300 onder zat met vergelijkbare prestraties.

De "echte" 4000 prijzen, met 60-70% bruto marge en ~$100 extra winst zoals bij de 3070 en 3080 (en $450 extra winst voor de 3080 Ti / 4090, de 3090 was nog gekker met $600 extra winst), zouden zijn:
RTX 4090: $1599
RTX 4080: $899
RTX 4070 Ti: $699

Nu denk ik wel dat Nvidia gaat proberen om nog een 4070 12GB model te lanceren in Q1 voor $699, en in Q2 een 4070 8GB met 128-bit bus voor $499 om gamers "tegemoet te komen". Maar dat is meer door gebrek aan concurrentie door AMD.

Pas in Q3 verwacht ik dat Nvidia weer een beetje "normaal" gaat doen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • gizmokat
  • Registratie: September 2005
  • Laatst online: 18:28
sunsmountain schreef op zondag 15 januari 2023 @ 22:57:
[...]

Zowel de 4090, 4080 als 4070 Ti zijn tijdelijk met $200-400 extra winst door Jensen Huang verhoogd bovenop de Nvidia bruto marge van 60-70%, omdat ze hun RTX 3000 voorraad nog moeten verkopen aan AIB partners.

Nu geldt voor de 4090 klasse altijd een hoge prijs, maar we zagen met de 3090 ook op een gegeven moment een 3080 Ti die daar $300 onder zat met vergelijkbare prestraties.

De "echte" 4000 prijzen, met 60-70% bruto marge en ~$100 extra winst zoals bij de 3070 en 3080 (en $450 extra winst voor de 3080 Ti / 4090, de 3090 was nog gekker met $600 extra winst), zouden zijn:
RTX 4090: $1599
RTX 4080: $899
RTX 4070 Ti: $699

Nu denk ik wel dat Nvidia gaat proberen om nog een 4070 12GB model te lanceren in Q1 voor $699, en in Q2 een 4070 8GB met 128-bit bus voor $499 om gamers "tegemoet te komen". Maar dat is meer door gebrek aan concurrentie door AMD.

Pas in Q3 verwacht ik dat Nvidia weer een beetje "normaal" gaat doen.
Als dit hun strategie is om hun RTX3000 kaarten te verkopen moeten ze ook eerst daar van hun prijzen verlagen anders raken ze aan de straat stenen niet kwijt.

Ik wou zelf een RTX3060 ti kopen, de goedkoopste die ik kan vinden is op dit moment 450 euro, een AMD RADEON 6650 XT is te koop voor 309 euro is maar een iets langzamer maar wel zuiniger, uiteindelijk zelf een AMD RADEON 6700 gekocht voor 360 euro, die kaart is iets sneller en zuiniger dan een RTX 3060 TI maar wel 90 euro goedkoper.
En zo is het met meer RTX3000 kaarten, de beter presterende RADEON kaarten zijn nu een stuk goedkoper.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Even wat lucht in dit topic blazen.

Het beest is gesignaleerd:
https://videocardz.com/ne...cs-card-has-been-pictured



Waarschijnlijk 600W (~800W overclock BIOS) en $1999+ :D


En waarom de YouTuber MLID een blaaskaak is:

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Deze vond ik ook wel interessant.
Hogwarts Legacy met RT vraagt op 4K om dusdanig veel VRAM dat de RTX4070Ti het niet trekt. Framerate verdubbeld zowat met de RTX4080. En de RTX3080 trekt het niet eens meer op 1440p met RT. Nvidia is in het verleden altijd heel erg goed geweest om net afdoende VRAM te leveren dat het geen probleem werd, in ieder geval totdat de volgende generatie kwam. Maar ditmaal lijken ze toch echt die plank mis te hebben geslagen als het met de eerste echt grote titel in deze generatie al zo gaat.




Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
Inderdaad niet super, al moet ik wel zeggen dat ik de 4070ti niet zie als 4K Ultra + Ultra RT kaart.

Dat is imho meer een kaart voor 1440P / 1440P + RT of 4K op lagere settings.

Ook wel lekker geoptimaliseerd lijkt het, als een RTX 3090 maar zo'n 33 FPS doet, ben erg benieuwd wat de RTX 6000 kaarten dan doen, lijkt me dan ook niet heel super :/

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 9 februari 2023 @ 09:55:
Inderdaad niet super, al moet ik wel zeggen dat ik de 4070ti niet zie als 4K Ultra + Ultra RT kaart.

Dat is imho meer een kaart voor 1440P / 1440P + RT of 4K op lagere settings.

Ook wel lekker geoptimaliseerd lijkt het, als een RTX 3090 maar zo'n 33 FPS doet, ben erg benieuwd wat de RTX 6000 kaarten dan doen, lijkt me dan ook niet heel super :/
Leuk he, RTX en RX series. :P
Maar het word nog interessanter. Op 1440p ultra zonder RT wint de RX6700XT ook zeer ruim van RTX3060Ti. Want daar lijk je toch minstens 9GB aan VRAM echt nodig te hebben in een meer intensief gebied met ultra settings.

Ook heeft de RTX4090 een gigantische CPU overhead bottleneck tot het punt dat 4K ultra met RT en DLSS performance, je rond de 60-65fps zit. Ondertussen doet RX7900XT net iets meer dan 50fps met FSR2 quality.

Maar de echte klapper is 4K zonder RT. Daar zit de RTX4090 met DLSS performance ergens rond de 90fps met dips in de 70, De RX7900XTX met FSR2 quality zit over de 100fps.


Uiteraard zijn er al klachten te vinden over hoe slecht geoptimaliseerd deze game is. Dat is die dus niet. Dit is een game die keihard Nvidia hun zwaktes bloot lijkt te leggen. Zowel qua VRAM als CPU scheduling.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
haha ja
Uiteraard zijn er al klachten te vinden over hoe slecht geoptimaliseerd deze game is. Dat is die dus niet. Dit is een game die keihard Nvidia hun zwaktes bloot lijkt te leggen. Zowel qua VRAM als CPU scheduling.
Volgens HUB is dit mogelijk een AMD cpu gerelateerd issue (Daniel Owen test geloof ik met een AMD Zen 4 cpu, al heb ik nog geen tijd gehad het door jouw gelinkte filmpje te kijken).



En

[Twitter: https://twitter.com/HardwareUnboxed/status/1623619530143723521]

[ Voor 6% gewijzigd door Dennism op 09-02-2023 17:10 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 9 februari 2023 @ 17:08:
[...]


haha ja


[...]


Volgens HUB is dit mogelijk een AMD cpu gerelateerd issue (Daniel Owen test geloof ik met een AMD Zen 4 cpu, al heb ik nog geen tijd gehad het door jouw gelinkte filmpje te kijken).

[Twitter]

En

[Twitter]
7700X ja. Maar het verklaard niet waarom de RX7900XTX redelijk goed lijkt te presteren met diezelfde 7700X. Daarom neig ik eerder naar Nvidia. Want het is ook niet de eerste keer dat Nvidia rare driverproblemen met Ryzen CPU's heeft. En daarnaast blijft VRAM welk staan als inadequaat voor veel Ampere modellen. Want de RTX3060Ti, RTX3070 en RTX3070Ti lijken inadequaat te zijn met 8GB op 1440p en de RTX3080 op 4K met 10GB. Moet de game zelf nog opstarten met mijn RX5700XT, 8GB dus. Dat zal meteen even wat experimenteren worden want ik vermoed dat enige instellingen omlaag moeten omdat ik ook tegen dat probleem aan zal lopen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
DaniëlWW2 schreef op donderdag 9 februari 2023 @ 17:24:
[...]


7700X ja. Maar het verklaard niet waarom de RX7900XTX redelijk goed lijkt te presteren met diezelfde 7700X. Daarom neig ik eerder naar Nvidia. Want het is ook niet de eerste keer dat Nvidia rare driverproblemen met Ryzen CPU's heeft. En daarnaast blijft VRAM welk staan als inadequaat voor veel Ampere modellen. Want de RTX3060Ti, RTX3070 en RTX3070Ti lijken inadequaat te zijn met 8GB op 1440p en de RTX3080 op 4K met 10GB. Moet de game zelf nog opstarten met mijn RX5700XT, 8GB dus. Dat zal meteen even wat experimenteren worden want ik vermoed dat enige instellingen omlaag moeten omdat ik ook tegen dat probleem aan zal lopen. :)
Dit noem je goed presteren? Je kijkt veel te rooskleuring naar de AMD resultaten want die botsen net op dezelfde CPU bottleneck. Die kan al dan niet meer of minder zijn dan bij Nvidia maar dit is moeilijk op te maken uit een dergelijke vergelijking.
Afbeeldingslocatie: https://tweakers.net/i/FrBKv-fev5ai7zdl1Xyjd6dyNOc=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/xYparBfnUqKGbHpRFKN5cyGt.png?f=user_large

Je kan dit ook gemakkelijk zien aan de frametimes in de video. Bij een GPU bottleneck zonder RT zijn ze relatief vlak terwijl bij RT de frametimes op en neer gaan omdat de CPU niet consistent de frames kan aanleveren.

[ Voor 19% gewijzigd door napata op 09-02-2023 18:35 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op donderdag 9 februari 2023 @ 18:32:
[...]

Dit noem je goed presteren? Je kijkt veel te rooskleuring naar de AMD resultaten want die botsen net op dezelfde CPU bottleneck. Die kan al dan niet meer of minder zijn dan bij Nvidia maar dit is moeilijk op te maken uit een dergelijke vergelijking.
[Afbeelding]

Je kan dit ook gemakkelijk zien aan de frametimes in de video. Bij een GPU bottleneck zonder RT zijn ze relatief vlak terwijl bij RT de frametimes op en neer gaan omdat de CPU niet consistent de frames kan aanleveren.
Ik vind 100+ fps met een RX7900XTX op 4K met FSR2 quality, vrij goed ja. Zeker omdat de RTX4090 het niet kan met zelfs DLSS op performance mode. Dat negeer je hier volledig want daar slaat mijn opmerking dat de RX7900XTX het best aardig doet op.

Vervolgens koester ik weinig verwachten rond RT voor zowel framerate als framerate consistentie. Ik zie een halvering aan framerates en het is minder stabiel, tja business as usual. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 23:27
DaniëlWW2 schreef op donderdag 9 februari 2023 @ 18:54:
[...]


Ik vind 100+ fps met een RX7900XTX op 4K met FSR2 quality, vrij goed ja. Zeker omdat de RTX4090 het niet kan met zelfs DLSS op performance mode. Dat negeer je hier volledig want daar slaat mijn opmerking dat de RX7900XTX het best aardig doet op.

Vervolgens koester ik weinig verwachten rond RT voor zowel framerate als framerate consistentie. Ik zie een halvering aan framerates en het is minder stabiel, tja business as usual. :z
Dit is aardig stemmingmakerij en cherry picken om een punt te maken. De 4090 is in de overgrote meerderheid van de situaties veel beter.
Mag ook wel, maar om nu vanuit een spel een dergelijke conclusie te trekken, zegt veel over de subjectiviteit en voegt vrij weinig toe aan een discussie.

Andersom gebeurt het ook, kijk, de 7900XTX is bagger, want bij spel X haalt het niet eens 50% van de performance van de 4090. Allemaal nutteloze manieren van een punt proberen te maken.

Als je puur en alleen dat spel speelt, zegt het iets, maar je moet het altijd in een groter plaatje bekijken, wat de goede reviewers gelukkig ook doen. Dan kan je een conclusie trekken over hoe een bepaalde kaart tegen een andere kaart staat.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
enigszins OT, maar dit beantwoord ook mijn eerdere vraag over hoe AMD GPU's het zouden doen in deze game, simpelweg niet best zo lijkt het.
In terms of performance, the hit from RT is just shocking. Basically your performance gets cut in half on modern NVIDIA GPUs, and on AMD things just fall apart, with not a single Radeon card reaching 30 FPS at 1080p (!), and you get sub-10 FPS at 4K. It seems nobody tested the game on Radeon with ray tracing, because they would have noticed the white trees that turn to the correct green color once you walk up to them. Let's hope that a new driver from AMD can fix that.

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Koldur schreef op donderdag 9 februari 2023 @ 19:30:
[...]


Dit is aardig stemmingmakerij en cherry picken om een punt te maken. De 4090 is in de overgrote meerderheid van de situaties veel beter.
Mag ook wel, maar om nu vanuit een spel een dergelijke conclusie te trekken, zegt veel over de subjectiviteit en voegt vrij weinig toe aan een discussie.

Andersom gebeurt het ook, kijk, de 7900XTX is bagger, want bij spel X haalt het niet eens 50% van de performance van de 4090. Allemaal nutteloze manieren van een punt proberen te maken.

Als je puur en alleen dat spel speelt, zegt het iets, maar je moet het altijd in een groter plaatje bekijken, wat de goede reviewers gelukkig ook doen. Dan kan je een conclusie trekken over hoe een bepaalde kaart tegen een andere kaart staat.
Dit is inderdaad aardige stemmingmakerij en cherry picking, maar niet van mij.
Lees nu mijn reacties eens terug in plaats van zo te reageren. Nergens stel ik dat de RTX4090 bagger is. Nergens stel ik dat de RX7900XTX sneller is dan de RTX4090.

Ik stel dat die game, serieus zware VRAM vereisten laat zien waarmee Nvidia videokaarten die meestal net afdoende VRAM hebben, nu duidelijk tekort komen. Ik heb namelijk niet bedacht dat een RTX3060Ti of zelfs de RTX3070Ti maar 8GB heeft en in deze game al in problemen komen waar de RX6700XT dit probleem niet heeft. Idem voor de RTX3080 10GB. Nota bene bevestigd TPU dat punt nogmaals:
Afbeeldingslocatie: https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/vram.png

Ook stel ik dat er nu meteen gewezen word op de Zen 4 processoren op basis van tests met Nvidia. Mijn punt daarin was dat dit te snel en te makkelijk was omdat het probleem niet lijkt te bestaan met de RX7900XTX. De RX7900XTX hoort circa 35% minder te presteren dan de RTX4090 en opeens presteert die beter dan de RTX4090. Dan is er dus geen probleem met een Zen 4 processor, maar een probleem met de videokaart die niet goed omgaat met die processor. En als ik dan weer naar TPU kijk, dan zie ik dat met een Intel CPU, de RX7900XTX redelijk gelijkwaardig lijkt te presteren op 4K dan met de 7700X. Het lijkt zelfs iets slechter te zijn omdat ze bij TPU op 60fps zitten met een 13900K en Daniel Owen rond de 73fps zit met een 7700X. Dit lijkt alleen redelijk te verklaren te zijn door gebruikt testgebied. Maar de RTX4090 schiet opeens wel omhoog met die 13900K naar waar die hoort. Iets dat dus niet gebeurd met de 7700X wat ze bij HWU blijkbaar ook hebben geconstateerd.

Afbeeldingslocatie: https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-3840-2160.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 23:27
@DaniëlWW2
Dat is echt niet uit je posts te halen, zou handig zijn als je die informatie ook gewoon benoemt. Dan krijg je ook niet dergelijke misverstanden ;)

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
@DaniëlWW2 Die 4K test van TPU die je lijkt is schijnbaar wel zonder RT, terwijl HUB met RT test maar wel op 1080P, en Daniel Owen mogelijk ook. Mogelijk dat dit ook nog verschil maakt in de uiteindelijke verhoudingen.

[ Voor 11% gewijzigd door Dennism op 09-02-2023 21:30 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 9 februari 2023 @ 21:26:
@DaniëlWW2 Die 4K test van TPU die je lijkt is schijnbaar wel zonder RT, terwijl HUB met RT test maar wel op 1080P, en Daniel Owen mogelijk ook. Mogelijk dat dit ook nog verschil maakt in de uiteindelijke verhoudingen.
HUB heeft nog niks concreets laten zien en Daniel Owen testte zowel met als zonder RT. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
Steve van HWU beweert ook al maanden dat DDR-5 de optimale keuze is voor budget builds, bijv icm een 12100F, en is verre van een betrouwbare bron. ;)

Acties:
  • +3 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
icall5s schreef op vrijdag 10 februari 2023 @ 00:25:
Steve van HWU beweert ook al maanden dat DDR-5 de optimale keuze is voor budget builds, bijv icm een 12100F, en is verre van een betrouwbare bron. ;)
Onbetrouwbaar op basis waarvan? Juist de trackrecords van bijvoorbeeld HUB en GN zijn vrij goed tot zeer goed en staan over het algemeen als zeer betrouwbaar bekend in de community.

Nu ken ik het specifieke advies waar je op doelt niet, echter je moet echter bij eventuele aanbevelingen die zij doen altijd wel even kijken naar de markt, zij bevelen namelijk aan op basis van US prijzen en acties, die hier uiteraard anders kunnen zijn.

Als je bij Microcenter bijvoorbeeld een DDR5 kitje gratis krijgt bij je cpu levert dat een hele andere aanbeveling op dan wanneer dat hier niet het geval is en die kit hier €200 kost.


Edit:

Het mogelijke Ryzen issue dat HUB gevonden had is schijnbaar een issue met de ingame menu's

[ Voor 8% gewijzigd door Dennism op 10-02-2023 11:36 ]


Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23:15
@DaniëlWW2 Het feit dat mét RT de Intel A770 ineens op RTX3080 niveau presteert en AMD nog flink verder onderaan bungelt dan normaalgesproken het geval is, duidt toch wel enigszins op dat er nog wel wat winst te behalen valt middels optimalisaties. Ondanks de betere efficiëntie waarmee een RTX 3060 z'n raytracing doet zou deze toch niet beter mogen presteren dan een RX 7900 XT.

Wat de RTX 3080 / 4070Ti en VRAM betreft: Ik zie in de grafieken van TPU deze kaarten nergens door het ijs zakken. Wat zie ik hier over het hoofd? Die 4070Ti trekt 4K nog niet met een acceptabele framerate zonder dat RT is ingeschakeld. Hetzelfde voor de 3080. Tenzij je wellicht 4k/40 op het oog hebt op een 120hz OLED.

Wat dat betreft zijn de statements van HUB en TPU behoorlijk tegenstrijdig. De eerste slaat alarm, de tweede stelt wat ik hierboven schrijf.

Acties:
  • 0 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
Dennism schreef op vrijdag 10 februari 2023 @ 11:03:
[...]


Onbetrouwbaar op basis waarvan? Juist de trackrecords van bijvoorbeeld HUB en GN zijn vrij goed tot zeer goed en staan over het algemeen als zeer betrouwbaar bekend in de community.
Onbetrouwbaar op basis van zijn beweringen over DDR5 en test setup. Zo stond 4000CL19 geheugen in gear 2 waardoor 3200CL14 geheugen sneller was in zijn test, hij wist dat blijkbaar niet bij het maken van de video. En hij gaf aan dat je beter een DDR5 mobo kunt kopen omdat je dan in de toekomst een snellere kit kan kopen. Maar in plaats daarvan een 12600K kopen is goedkoper en levert meer prestaties op. Techtubers hadden videoreacties gemaakt op deze videos, een aantal daarvan zijn door Steve geblokt, wat natuurlijk niet netjes is om het zacht uit te drukken. Om DDR4 b-die te verslaan moet je naar de 7200-7600 DDR5 range en dan heb je momenteel een UNIFY-X of APEX nodig om dat werkend te krijgen Niks mis mee en zelfs wel leuk, maar dan zit je in een andere prijsklasse dan 99% van het publiek van Steve. :)

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

icall5s schreef op vrijdag 10 februari 2023 @ 17:45:
[...]


Onbetrouwbaar op basis van zijn beweringen over DDR5 en test setup. Zo stond 4000CL19 geheugen in gear 2 waardoor 3200CL14 geheugen sneller was in zijn test, hij wist dat blijkbaar niet bij het maken van de video. En hij gaf aan dat je beter een DDR5 mobo kunt kopen omdat je dan in de toekomst een snellere kit kan kopen. Maar in plaats daarvan een 12600K kopen is goedkoper en levert meer prestaties op. Techtubers hadden videoreacties gemaakt op deze videos, een aantal daarvan zijn door Steve geblokt, wat natuurlijk niet netjes is om het zacht uit te drukken. Om DDR4 b-die te verslaan moet je naar de 7200-7600 DDR5 range en dan heb je momenteel een UNIFY-X of APEX nodig om dat werkend te krijgen Niks mis mee en zelfs wel leuk, maar dan zit je in een andere prijsklasse dan 99% van het publiek van Steve. :)
Als je zulke beweringen maakt dan wil ik er graag ook de bijbehorende video bijzien. Los van of je nu wel of niet gelijk hebt, het is voor andere mensen die meelezen handig om een bron te hebben.
Edit:
Dus de video van HU en de video's die erop in gaan.

Gebasseerd op je vorige bericht, met een 12100F zit er waarschijnlijk ook een goedkoop bord bij waarmee je het geheugen of je nu DDR4 of DDR5 gebruikt waarschijnlijk niet eens uit gear 2 kan halen. Nu volg ik het Intel platform niet echt dus ik kan er naast zitten :+.

Acties:
  • 0 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
Sp3ci3s8472 schreef op vrijdag 10 februari 2023 @ 17:52:
[...]


Als je zulke beweringen maakt dan wil ik er graag ook de bijbehorende video bijzien. Los van of je nu wel of niet gelijk hebt, het is voor andere mensen die meelezen handig om een bron te hebben.
Edit:
Dus de video van HU en de video's die erop in gaan.

Gebasseerd op je vorige bericht, met een 12100F zit er waarschijnlijk ook een goedkoop bord bij waarmee je het geheugen of je nu DDR4 of DDR5 gebruikt waarschijnlijk niet eens uit gear 2 kan halen. Nu volg ik het Intel platform niet echt dus ik kan er naast zitten :+.
Dit lijkt me veel te off-topic voor deze draad, het ging er meer om welke bronnen je beter niet/wel kunt aanhalen.
Pagina: 1 ... 126 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.