Acties:
  • +3 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Woordje uitleg over het nieuwe power spike management:

NVIDIA Details new Power Spike Management

Afbeeldingslocatie: https://www.techpowerup.com/img/5wTpTV9WTdU7ZlZe.jpg
While the RTX 4090 operates at 450 W by default, the power delivery capability allows you to increase the power limit up to 600 W for overclocking. The card features a 23-phase VRM (20-phase GPU + 3-phase memory). NVIDIA claims that it has re-architected its VRM to offer superior transient voltage management. This is specifically to minimize the kind of spikes or excursions we've seen with previous-gen high-end graphics cards such as the RTX 3090 Ti and Radeon RX 6900 Series. These spikes often causes spontaneous shutdowns on some power supplies, even if they had a much higher wattage rating than required.

In the chart above, NVIDIA shows how current spikes get mitigated by their new VRM design, which uses a PID controller feedback loop. While the RTX 3090 bounces up and down, the RTX 4090 stays relatively stable, and just follows the general trend of the current loading pattern thanks to a 10x improvement in power management response time. It's also worth pointing out that the peak power current spike on the RTX 3090 is higher than the RTX 4090, even though the RTX 3090 is rated 100 W lower than the RTX 4090 (350 W vs 450 W).

March of the Eagles


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 00:17
Ze zetten er alleen geen schaal bij zoals gewoonlijk.
Waarschijnlijk is dit een uitvergroot plaatje en zie je alleen de globale stroom bij het in- & uitschakelen van een belasting.
Ik heb sterk mijn twijfels of ze daarmee ook het echte probleem van transients aanpakken, de korte pieken rond 1-10ms:
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2020/09/6b-Gaming-Current.png
3090 Founders editie met 20ms intervals.

Uit: https://www.igorslab.de/n...preis-nicht-alles-ist/16/

Ik lees uit het bericht trouwens ook dat de geheugenchips bij de founders edition, nu op 1 zijde zitten en de temperatuur 10°C lager is. Dus van borderline kapotkoken naar borderline acceptabel :+ ?

[ Voor 14% gewijzigd door CMT op 22-09-2022 05:44 ]


Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 00:17
Is iemand anders ook opgevallen dat de RTX4xxx kaarten, zéér beperkte display uitgangen heeft?
1x HDMI 2.1 en 3x Displaypoort 1.4a

DP 1.4a is beperkt tot 4k, 10bit rgb (zegmaar HDR) en theoretisch max 98Hz (60Hz officieel).
Ik begrijp werkelijk niet waarom er niet voor DP 2.0 gekozen is, helemaal vanwege de exorbitante prijsstelling.
Het komt er dus op neer dat de RTX4*** slechts 1 HDMI uitgang heeft voor 4k HDR >100Hz.

De teleurstelling begint hoe langer hoe groter te worden met deze serie. :/ .
Met name de prijsstelling doet wat mij betreft de das om.
Voor mijn hobby is dit totaal niet meer te verantwoorden, hoe graag ik ook weer een Nvidia kaart aan de tand zou willen voelen. Dan koop ik liever een spectrofotometer.

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 08:15
Dat lijkt mij interessant voor de eisen/specificaties van de PSU's.
Totaal wattage gaat omhoog versus de 3090(ti) maar spikes zijn minder heftig/stabieler.

Zou je dan met een "mindere kwaliteit" voeding uit de voeten kunnen?

[ Voor 6% gewijzigd door HugoBoss1985 op 22-09-2022 08:43 ]


Acties:
  • +5 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

DaniëlWW2 schreef op woensdag 21 september 2022 @ 21:56:
Dit hebben we volgens mij nog nooit gezien. Opeens lijkt er een deuk te zitten in de gedachte dat Nvidia onfeilbaar en altijd beter is. Dat is op zijn zachts gezegd opvallend te noemen.
Mmmjjaaa... We hebben dit nog niet gezien rondom een nieuwe GPU launch. Maar de afgelopen 2 jaar is er echt zeer veel kritiek gekieperd over zowel nVidia als AMD vanwege de hoge prijzen en slechte beschikbaarheid van RTX 3000 en RX 6000 GPU's.
Ik zie de huidige kritiek als een doorzetting van deze kritische narratief. Niemand dacht dat nVidia onfeilbaar was toen de RTX 3060 $900 kostte in webshops...


Ik ben niet verbaast dat de huidige RTX 4000 line-up meer kost dan de MSRP van de RTX 3000, volgens mij niemand hier. Maar ik ben wél verbaast over dat nVidia de durft heeft om de RTX 4070 te verpakken als een RTX 4080 12GB en die te verkopen voor $899!! Een top end SKU + prijs alloceren aan een kaart met een memory bus van 192 bit :o !!!
En dat terwijl ze volgens geruchten nog extreem veel RTX 3000 GPUs in voorraad hebben én een overschot aan TSMC 4N wafers!

In mijn ogen proberen ze nog nét even te profiteren van de mensen die nu een nieuwe GPU willen en niet goed de reviews lezen of alles pre-orderen, gezien de ervaring met de vorige launch. Ik vind het echt een anti-consumer move, deze RTX 4080 12GB.... Ik ga wederom wachten tot het moment dat de komende recessie er voor zorgt dat bijna niemand meer een GPU koopt en dan is nVidia mooi in zn eigen sop is gaar gekookt. :( Eens kijken wat de prijzen van de RTX 4000 doen op dat moment!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
XanderDrake schreef op donderdag 22 september 2022 @ 08:58:
[...]


Ik ben niet verbaast dat de huidige RTX 4000 line-up meer kost dan de MSRP van de RTX 3000, volgens mij niemand hier. Maar ik ben wél verbaast over dat nVidia de durft heeft om de RTX 4070 te verpakken als een RTX 4080 12GB en die te verkopen voor $899!! Een top end SKU + prijs alloceren aan een kaart met een memory bus van 192 bit :o !!!
En dat terwijl ze volgens geruchten nog extreem veel RTX 3000 GPUs in voorraad hebben én een overschot aan TSMC 4N wafers!
Ik begin me toch steeds meer af te vragen waarom mensen dat zo vreemd vinden, zoals ik al aangaf, de memes waren leuk, maar een full fat x04 GPU al 4070 had toch niemand serieus verwacht kijkende naar de history de laatste generaties van full fat x04 dies en hun Sku naamgeving?

Zie ook bijv. deze post van mij hier: Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

En dit schema dat ik gister ook al linkte:

Afbeeldingslocatie: https://tweakers.net/camo/8a3f8ae4d887017fe5e4f8153d30271a4195922a/?url=https%3A%2F%2Fi.redd.it%2F0xar0aacj9p91.png

Kijkende naar de laatste 12 jaar is de full fat x04 die altijd een x80 kaart geweest, met 1 uitzondering, de 3070 Ti. Ik vraag me dan echt af op basis waarvan mensen verwachten dat de full fat x04 nu ineens wel een 4070 zou zijn, en niet een 4080, of mogelijk een 4070 Ti.

Niet dat je geen kritiek mag hebben op die chip, dat is natuurlijk volledig terecht, maar de het naamgeving argument snap ik dus niet direct, het lag naar mijn mening namelijk nooit in de lijn der verwachting dat de full fat x04 die een 4070 zou zijn.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

FWIW:

Update Sep 21st: Jensen Huang responded to a question about his thoughts on EVGA in a Q&A session today:

Jensen Huang
You know, Andrew (EVGA CEO) wanted to wind down the business, and he's wanted to do that for a couple of years. Andrew and EVGA were, are great partners and we're great partners, and I'm sad to see them leave the market. But, he's got other plans and he's been thinking about it for several years, so I guess that's about it. The market has a lot of great players and it will be served well after EVGA, but I'll always miss them, they were an important part of our history, Andrew is a great friend. I think that it was just time for him to go do something else."

Jensen Confirms: NVLink Support in Ada Lovelace is Gone

NVIDIA CEO Jensen Huang in a call with the press today confirmed that Ada loses the NVLink connector. This marks the end of any possibility of explicit multi-GPU, and marks the complete demise of SLI (over a separate physical interface). Jensen stated that the reason behind removing the NVLink connector was because they needed the I/O for "something else," and decided against spending the resources to wire out an NVLink interface. NVIDIA's engineers also wanted to make the most out of the silicon area at their disposal to "cram in as much AI processing as we could". Jen-Hsun continued with "and also, because Ada is based on Gen 5, PCIe Gen 5, we now have the ability to do peer-to-peer cross-Gen 5 that's sufficiently fast that it was a better tradeoff".

We reached out to NVIDIA to confirm and their answer is:

NVIDIA: Ada does not support PCIe Gen 5, but the Gen 5 power connector is included.
PCIe Gen 4 provides plenty of bandwidth for graphics usages today, so we felt it wasn't necessary to implement Gen 5 for this generation of graphics cards. The large framebuffers and large L2 caches of Ada GPUs also reduce utilization of the PCIe interface.


NVIDIA Ada AD102 Block Diagram and New Architectural Features Detailed

Afbeeldingslocatie: https://www.techpowerup.com/img/s9HiJStSiiEh4yIB.jpg

[ Voor 50% gewijzigd door Help!!!! op 22-09-2022 10:44 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 30-06 18:05
Komt perfect overeen met het verhaal van EVGA: ze waren altijd al dikke vrienden, de tijd is nu alleen even daar om wat anders te doen. Dat hij er al "enkele jaren" over dacht heeft dan ook niets te maken met wat Nvidia deed. _O-

Als er voortaan een AIB eens moeilijk doet kunnen ze een "maybe it's time for you to go do something else" van Huang verwachten...

[ Voor 22% gewijzigd door MneoreJ op 22-09-2022 10:35 ]

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


  • utbone
  • Registratie: September 2002
  • Laatst online: 10:22
Ik wacht wel even op de 4080Ti versie die meestal een half jaar later komt. Ten opzichte van mijn 2070S wil ik minimaal een verdubbeling van de performance. (helaas ook een verdubbeling van het energie verbruik)

[ Voor 47% gewijzigd door utbone op 22-09-2022 10:36 ]

U heeft de melk horen klotsen maar weet niet waar de tepel hangt


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op donderdag 22 september 2022 @ 10:26:
[...]


Ik begin me toch steeds meer af te vragen waarom mensen dat zo vreemd vinden, zoals ik al aangaf, de memes waren leuk, maar een full fat x04 GPU al 4070 had toch niemand serieus verwacht kijkende naar de history de laatste generaties van full fat x04 dies en hun Sku naamgeving?

Zie ook bijv. deze post van mij hier: Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

En dit schema dat ik gister ook al linkte:

[Afbeelding]

Kijkende naar de laatste 12 jaar is de full fat x04 die altijd een x80 kaart geweest, met 1 uitzondering, de 3070 Ti. Ik vraag me dan echt af op basis waarvan mensen verwachten dat de full fat x04 nu ineens wel een 4070 zou zijn, en niet een 4080, of mogelijk een 4070 Ti.

Niet dat je geen kritiek mag hebben op die chip, dat is natuurlijk volledig terecht, maar de het naamgeving argument snap ik dus niet direct, het lag naar mijn mening namelijk nooit in de lijn der verwachting dat de full fat x04 die een 4070 zou zijn.
Het zijn natuurlijk maar naampjes.

Ik zou er weer dieper in moeten duiken maar de 103 chip is volgensmij relatief nieuw. Je had de GA103 in de 3080Ti en nu de AD103 als 4080 -16.

Even geen zin om het uit te zoeken en er zijn hier genoeg tweakers die dit zo uit hun hoofd oplepelen maar het voelt voor mij alsof door het ertussen schuiven van de AD103 de karakteristieken van de aloude 102vs104 niet meer op gaan of goed te vergelijken zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +6 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En een info dump van na de show.










En het belangrijkste is dat het inderdaad een Ampere SM is met nieuwe RT en Tensor Cores. @Werelds

Afbeeldingslocatie: https://pbs.twimg.com/media/FdM6aVZXgAEm-gG?format=jpg&name=large
Afbeeldingslocatie: https://pbs.twimg.com/media/FdM6Lh9XEAET1qo?format=jpg&name=4096x4096


Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op donderdag 22 september 2022 @ 10:26:
[...]
Ik begin me toch steeds meer af te vragen waarom mensen dat zo vreemd vinden, zoals ik al aangaf, de memes waren leuk, maar een full fat x04 GPU al 4070 had toch niemand serieus verwacht kijkende naar de history de laatste generaties van full fat x04 dies en hun Sku naamgeving?
Vanwege de 192 bit bus ben ik ervan overtuigd dat AD104 oorspronkelijk is ontworpen voor de 4070, niet voor de 4080. Zelfs de 2060 Super heeft nog een 256 bit bus.

Het is ook zonder precedent dat Nvidia bij een top-kaart dezelfde naam plakt op kaarten die zoveel verschillen qua performance. Zulke smerige trucjes waarbij een kaart wordt geadverteerd alsof deze slechts minder geheugen heeft, maar eigenlijk een volle tier lager is, heeft Nvidia bij de 1000 serie gedaan met de 1050 en 1060, maar nooit met zulke top-kaarten.

Doordat Nvidia wat dat betreft overduidelijk niet eerlijk bezig is, en ook een overduidelijk motief heeft om het gat groter te laten lijken tot de 3000 kaarten die ze blijven verkopen, is het niet vreemd om de conclusie te trekken dat AD104 eigenlijk bedoeld was voor de 4070 en daar ook beter past.

[ Voor 13% gewijzigd door Ludewig op 22-09-2022 11:28 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
@DaniëlWW2 shocking :+

Mijn verwachtingen voor non-RT/tensor effectieve rekenkracht blijven laag. Nvidia is gewoon een softwarebedrijf aan het worden, het meeste nieuws is software. De nieuwe RT cores zullen vast wel iets interessants hebben, maar daar blijft het ook bij.

Wat overigens SER en het woord "shader" betreft, dat gaat over shader programs en zegt niets over welke hardware units het aan spreekt. Met die tweet over SER wordt het weer duidelijk dat dat om RT draait. Wat ik vermoed dat ze daar doen is dat ze zorgen dat RT ops binnen dezelfde SM vallen als het rekenwerk dat er aan vooraf gaat zodat ze op de L1 kunnen leunen. In veel gevallen gebeurt dat "automatisch" omdat het binnen dezelfde warp valt.

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Dennism schreef op donderdag 22 september 2022 @ 10:26:
Niet dat je geen kritiek mag hebben op die chip, dat is natuurlijk volledig terecht, maar de het naamgeving argument snap ik dus niet direct, het lag naar mijn mening namelijk nooit in de lijn der verwachting dat de full fat x04 die een 4070 zou zijn.
Goede punten, de 192 bit bus is één aspect dat ik vreemd vind voor een xx80 SKU, zoals @Ludewig aanstipt, maar er is ook nog iets anders aan de hand. En dat is de SKU van de RTX 4080 16GB. Die draait namelijk op een AD103 GPU, en dat is een trendbreuk, want de laatste 103 chip was de RTX 3060 Ti, verre van een 3080. In jou overzicht zijn alle Flagship videokaarten voorzien van een x02 GPU, de AD103 valt daarbuiten. In feite goochelt nVidia met chip naamgeving om ons te misleiden, denk ik.

In mijn ogen is het simpeler, de AD102 zou normaliter een AD104 worden genoemd en de AD103 normaliter een AD102. Het maakt mij overigens niet veel uit: ik zou normaal een stevige top-end GPU halen, maar nu weiger ik de RTX 4080 12GB te halen, gezien het een Ferrari met een Fiat motor is.... Iets wat normale consumenten niet door hebben!

Ik wacht tot de prijzen dalen zoals bij de RTX 3000 serie, momenteel haal je tweedehands een RTX 3070 voor €425 terwijl je daar nieuw niet eens een jaar geleden nog €1150 voor betaalde.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

I know. :P
Zeer teleurstellend blijft het alleen wel...
Mijn verwachtingen voor non-RT/tensor effectieve rekenkracht blijven laag. Nvidia is gewoon een softwarebedrijf aan het worden, het meeste nieuws is software. De nieuwe RT cores zullen vast wel iets interessants hebben, maar daar blijft het ook bij.
Die Cyberpunk demo roept dan eigenlijk ook de vraag op of Lovelace wel een grote, praktisch bruikbare RT verbetering heeft? Want de baseline zonder DLSS lijkt behoorlijk vergelijkbaar met Ampere. De focus van Nvidia lijkt ook veel meer op path tracing te liggen, tot het punt dat ik me afvraag of deze 3th gen RT cores het niet vooral beter gaan doen in GCI rendering en niet zozeer in games die RT lichteffecten krijgen. Immers is path tracing compleet onrealistisch voor games.
Wat overigens SER en het woord "shader" betreft, dat gaat over shader programs en zegt niets over welke hardware units het aan spreekt. Met die tweet over SER wordt het weer duidelijk dat dat om RT draait. Wat ik vermoed dat ze daar doen is dat ze zorgen dat RT ops binnen dezelfde SM vallen als het rekenwerk dat er aan vooraf gaat zodat ze op de L1 kunnen leunen. In veel gevallen gebeurt dat "automatisch" omdat het binnen dezelfde warp valt.
Daar lijkt het inderdaad op. Hoewel, ik vermoed dat ze misschien ook willen gaan schuiven met execution order van operations om het proces te versnellen. Zoveel suggereren ze in ieder geval. Voor mij is de logica van developer implementatie dan ook dat dit gebeurd voordat een shader programma bij de GPU is aanbeland en gedecodeerd word in thread blocks die naar de SM's gaan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
XanderDrake schreef op donderdag 22 september 2022 @ 11:57:


In mijn ogen is het simpeler, de AD102 zou normaliter een AD104 worden genoemd en de AD103 normaliter een AD102. Het maakt mij overigens niet veel uit: ik zou normaal een stevige top-end GPU halen, maar nu weiger ik de RTX 4080 12GB te halen, gezien het een Ferrari met een Fiat motor is.... Iets wat normale consumenten niet door hebben!
Zo werkt het zeker niet, bij Nvidia gaat het van klein getal naar groot, waar het kleinste getal, in dit geval AD102 de grootste en dus duurste die is. x02 dies zul je normaliter dus altijd in flagships zien, zoals Ti's, Titans, x90's en soms x80 kaarten.

AD102 is de tegen hanger van GA102, die zou zeker normaliter geen AD104 worden genoemd.
AD103 heeft geen directe tegenhanger in Ampere desktop, maar dat zouden de GA102 Cut downs geweest zijn in deze vergelijking, voor GA103 zie hieronder
AD104 is de tegenhanger van GA104

GA103 lijkt een beetje een vreemde eet in de bijt, die die is immers groter dan GA104, zoals gebruikelijk bij Nvidia, maar alleen gebruikt voor de 3060 Ti binnen het desktop segment (zal wel een cut geweest zijn denk ik?, is inderdaad een grote cut, 37% lijkt uitgeschakeld te zijn), terwijl de duurdere 3070 bijv. een goedkopere en kleinere GA104 die had, en daarnaast is deze gebruikt voor mobile RTX 3080 varianten en de RTX A5500 zakelijke variant als ik TPU mag geloven. Wel gebruikt voor hogere segment 'kaarten' dus, alleen niet op de desktop, lijkt erop dat de afdankertjes van GA103 verkocht zijn als 3060 Ti's om meer volume te creëren, aangezien er ook 3060 Ti's zijn met GA104.

Ik zou zelf trouwens ook nooit de RTX 4080 12GB halen om die redenen, en van mij had het bijv. ook best RTX 4070 ti mogen heten, het gaat er mij alleen om, dat het simpelweg op basis van naamgeving bij Nvidia de laatste 12 jaar niet te verwachten was dat de full fat 104 die een plain 4070 zou worden.

[ Voor 28% gewijzigd door Dennism op 22-09-2022 14:21 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 11:16
Afbeeldingslocatie: https://pbs.twimg.com/media/FdL34KFWYAAeCJA?format=jpg&name=medium

Weer zo'n mini uitgesneden PCB dus. Viel te verwachten met de koeler uiteraard.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Paprika schreef op donderdag 22 september 2022 @ 12:12:
Weer zo'n mini uitgesneden PCB dus. Viel te verwachten met de koeler uiteraard.
Het was al duidelijk dat het board-ontwerp van de 3090 Ti de basis zou worden voor de 4090. Niet voor niets presenteerde MSI de 4090 door een 3090 Ti uit elkaar te pulken.

[ Voor 3% gewijzigd door Ludewig op 22-09-2022 12:24 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Ik zat gisteravond trouwens even naar het CGI die shot te kijken en daar moet ik toch even mee gaan puzzelen als ik tijd heb dit weekend. Hele aparte indeling. Die 96 MB L2$ waar men het ooit over had zag ik niet. "Significantly larger" lijkt me dan ook een behoorlijk overstatement, het is volgens mij 12. Maar absoluut geen 96, bij lange na niet.

[ Voor 6% gewijzigd door Werelds op 22-09-2022 12:46 ]


Acties:
  • +7 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
Ludewig schreef op donderdag 22 september 2022 @ 11:24:
[...]


Vanwege de 192 bit bus ben ik ervan overtuigd dat AD104 oorspronkelijk is ontworpen voor de 4070, niet voor de 4080. Zelfs de 2060 Super heeft nog een 256 bit bus.

Het is ook zonder precedent dat Nvidia bij een top-kaart dezelfde naam plakt op kaarten die zoveel verschillen qua performance. Zulke smerige trucjes waarbij een kaart wordt geadverteerd alsof deze slechts minder geheugen heeft, maar eigenlijk een volle tier lager is, heeft Nvidia bij de 1000 serie gedaan met de 1050 en 1060, maar nooit met zulke top-kaarten.

Doordat Nvidia wat dat betreft overduidelijk niet eerlijk bezig is, en ook een overduidelijk motief heeft om het gat groter te laten lijken tot de 3000 kaarten die ze blijven verkopen, is het niet vreemd om de conclusie te trekken dat AD104 eigenlijk bedoeld was voor de 4070 en daar ook beter past.
Find the odd one :+
Afbeeldingslocatie: https://i.redd.it/vq0bjcg4jcp91.png

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 08:15
Achter de GTX 660 staat "Ti" dus die zal het wel zijn!!! :+

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Exact. Als het de 4070 was geworden was het alsnog de eerste keer dat een xx70 kaart een 192 bit bus krijgt, maar dat is te verdedigen omdat ze veel meer cache hebben toegevoegd en je dus kunt beargumenteren dat ze de 6700 XT hebben gekopieerd. Veel cache en een kleinere bus, wat goedkoper is en even goed werkt op lagere resoluties.

Maar de dubbele stap om de 192 bits bus die je bij de 3060 hebt ook te gebruiken bij een 4080 is voor mij totaal niet logisch vanuit technisch opzicht, maar ook niet als je de 4080 als 4K kaart ziet, wat het volgens mij zou moeten zijn.

Ik hoop echt dat gamers de 4080's massaal links laten liggen en dat Nvidia dan gedwongen wordt om de 4080 12 GB uit de roulatie te nemen en opnieuw te releasen als een 4070 Ti of 4070 voor een normalere prijs.

[ Voor 4% gewijzigd door Ludewig op 22-09-2022 14:22 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 22 september 2022 @ 12:45:
Ik zat gisteravond trouwens even naar het CGI die shot te kijken en daar moet ik toch even mee gaan puzzelen als ik tijd heb dit weekend. Hele aparte indeling. Die 96 MB L2$ waar men het ooit over had zag ik niet. "Significantly larger" lijkt me dan ook een behoorlijk overstatement, het is volgens mij 12. Maar absoluut geen 96, bij lange na niet.
Dat probeerde ik dinsdag al. Tja de helft lijkt onzin te zijn. Zeker het hele stuk in het midden waar je zou verwachten dat het L2 cache is, lijkt gewoon ingetekende onzin. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

De koelers beginnen wel onmogelijke formaten aan te nemen:

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Sp3ci3s8472 schreef op donderdag 22 september 2022 @ 14:24:
De koelers beginnen wel onmogelijke formaten aan te nemen:
Ja, zo kun je inderdaad geen high-end ITX PCs maken. De 3080FE paste altijd net, maar zo gaat dat natuurlijk niet.

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
Ludewig schreef op donderdag 22 september 2022 @ 14:20:

Ik hoop echt dat gamers de 4080's massaal links laten liggen en dat Nvidia dan gedwongen wordt om de 4080 12 GB uit de roulatie te nemen en opnieuw te releasen als een 4070 Ti of 4070 voor een normalere prijs.
Dat zie ik niet direct gebeuren, al verwacht ik niet dat het bij geïnformeerde kopers een hardloper gaat worden.
Ik zie ze bijvoorbeeld ook wel een RTX 4070 Ti met een relatief kleine cut of bijv. geen cut maar met gewoon GDDR6 gaat verkopen en dan zoals, dacht ik, Kopite al leakte dat de 4070 een grotere cutdown gaat worden van AD104.

Het zou mij echter niet verbazen als de RTX 4080 12GB wel relatief veel OEM exposure gaat krijgen.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
Klopt, al vind ik het vaak wel mooi. Net als bijv. die 4090 FE, vind ik er wel gewoon weer echt mooi uitzien ingebouwd in een systeem zoals je bijv. in een van die youtube filmpjes. Moet wel zeggen dat die kaarten met 'weeb' doelgroep me echt te ver gaan, dat vind ik dan wel weer echt een clownfiesta. Maar goed, er zal vast vraag naar zijn, anders zouden ze het niet produceren :+

Zoals @zzzzz wel aangeeft natuurlijk voor bepaalde builds in kleinere kasten echt niet ideaal.

[ Voor 5% gewijzigd door Dennism op 22-09-2022 14:36 ]


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 00:22
Ik baal vooral dat ze allemaal over gegaan zijn naar de nieuwe 12 pin stekker, hierdoor moet je je case mods gaan aanpassen en velen gaan echt geen nieuwe voeding kopen en gebruiken dus gewoon een 3x 8 pin adapter kabel...

Daarnaast zitten ze net als de 30 series FE op bizarre plaatsen ipv gewoon netjes aan 1 uiteinde van de kaart...Al met al zal er dus bijna niemand zijn die echt een nieuwe dure ATX 3 voeding gaat gebruiken bij deze kaarten maar de rest zit wel met een adapter opgezadeld. Ik had stille hoop dat AIB deze dan zouden negeren maar ik denk dat Nvidia ze dit opgelegd heeft.

En dan is er nog het dingetje van brandende 12 pin stekkers wat ik voorbij zag komen. Dit gebeurd als de pins van de stekker niet helemaal recht in de female stekker zaten waardoor er minder contact is en er dus brand kan ontstaan in deze voedingen wat voor velen een reden zou moeten zijn deze voorlopig links te laten liggen en voor geteste voedingen te gaan. Deze 12 pin stekkers moeten namelijk dezelfde en meer stroom verwerken van 3x8 pins.

Acties:
  • +2 Henk 'm!

  • Abbadon
  • Registratie: Februari 2000
  • Laatst online: 11:14
Werelds schreef op donderdag 22 september 2022 @ 12:45:
Ik zat gisteravond trouwens even naar het CGI die shot te kijken en daar moet ik toch even mee gaan puzzelen als ik tijd heb dit weekend. Hele aparte indeling. Die 96 MB L2$ waar men het ooit over had zag ik niet. "Significantly larger" lijkt me dan ook een behoorlijk overstatement, het is volgens mij 12. Maar absoluut geen 96, bij lange na niet.
Heb deze gevonden, iemand die al bezig was. Zou denken dat 96MB sram wel iets meer die-space in zou nemen, maar de puzzel lijkt toch te kloppen:

Afbeeldingslocatie: https://pbs.twimg.com/media/FdLpbPdXEAErt-S.jpg

Just pick a dead end and chill out 'till you die.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Abbadon schreef op donderdag 22 september 2022 @ 15:00:
[...]


Heb deze gevonden, iemand die al bezig was. Zou denken dat 96MB sram wel iets meer die-space in zou nemen, maar de puzzel lijkt toch te kloppen:

[Afbeelding]
Dat klopt waarschijnlijk wel, maar wat er daadwerkelijk is ingetekend door Nvidia, lijkt nogal twijfelachtig te zijn. :)
Het lijkt totaal niet op wat je voor L2 cache cellen zou verwachten.
Afbeeldingslocatie: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/nvidia-ada-lovelace-geforce-rtx-40-series-architecture.jpg

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
DaniëlWW2 schreef op donderdag 22 september 2022 @ 15:04:
[...]


Dat klopt waarschijnlijk wel, maar wat er daadwerkelijk is ingetekend lijkt nogal twijfelachtig te zijn. :)
Het lijkt totaal niet op wat je voor L2 cache cellen zou verwachten.
[Afbeelding]
Aan de ene kant zeg ik, inderdaad, aan de andere kant is het toch wel Locuza die het ingetekend heeft, toch niet de minste op dit vlak, die heeft het volgens mij normaal gesproken wel bij het rechte eind wat dit soort zaken betreft. Marketing render zal zijn werk wel doen hier inderdaad.

[ Voor 3% gewijzigd door Dennism op 22-09-2022 15:11 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 22 september 2022 @ 15:10:
[...]


Aan de ene kant zeg ik, inderdaad, aan de andere kant is het toch wel Locuza die het ingetekend heeft, toch niet de minste op dit vlak, die heeft het volgens mij normaal gesproken wel bij het rechte eind wat dit soort zaken betreft. Marketing render zal zijn werk wel doen hier inderdaad.
Ik betwist dan ook niet of het klopt. Ik merk op dat die GCI van Nvidia niet bepaald logisch lijkt. Die L2 cache is waarschijnlijk een onderbouwde gok omdat het daar wel moet zitten. Immers kwam die 96MB uit die Nvidia hack net zoals 144SM's.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

Over het algemeen is de meest geknepen variant van een chip een goede deal vergeleken met een volle chip die een tier lager is. De geknepen chip heeft dan een relatief brede bus waardoor de SM's relatief goed presteren, terwijl de top van een kleinere chip meer bottlenecked word door de smallere bus. Zo was de 3060 Ti een goede deal voor MSRP omdat dit de meest geknepen GA104 is op 256 bit (meer dan de 4080 12 GB!), terwijl de 3060 een volle GA106 is met een smallere bus.

Dus ik verwacht dat de 4070 dan relatief een goede deal is (voor zover dat mogelijk is bij de 4000 serie), als dit de meest geknepen AD104 wordt.

@computerjunky

De power connector zit wel degelijk aan het eind van de kaart, maar het koelblok is veel groter dan de PCB.

Als je de power connector aan het eind van de koeler wilt hebben, moet er een verlengstuk toegevoegd worden, waardoor de productiekosten hoger zijn en het lastiger is om de kaart te servicen (want extra verbinding tussen de PCB en de koeler).

[ Voor 6% gewijzigd door Ludewig op 22-09-2022 15:29 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Abbadon schreef op donderdag 22 september 2022 @ 15:00:
[...]


Heb deze gevonden, iemand die al bezig was. Zou denken dat 96MB sram wel iets meer die-space in zou nemen, maar de puzzel lijkt toch te kloppen:

[Afbeelding]
Locuza weet wat hij doet, maar hij gaat er nu wel van uit dat Lovelace op Hopper lijkt, terwijl dat toch een heel andere chip is. Ik geloof namelijk niet dat Lovelace CPC's heeft (SM clusters); dat is zoiets waar Nvidia wel melding van had gemaakt. Cache is ook extreem symmetrisch en de 6x16 MB die hij aan tekent is niet symmetrisch. Er zijn wel gespiegelde blokken, maar elk blok an sich is niet geheel symmetrisch, dus ik denk niet dat het allemaal L2 is. Bekijk Navi 10, Navi 21, GA102 of inderdaad H100 maar eens. Cache is meestal heel makkelijk te spotten juist omdat dat hartstikke symmetrisch is. De cellen worden altijd tegen elkaar aan gelegd.

Die middelste stukjes zien er wel uit als L2 (zeker gezien de dichtheid), maar ernaast zitten volgens mij eerder de 6 memory controllers (dat is dus op de 4 hoeken van de command processor + midden aan de "buitenkant"), hoewel dat ook twee MC's dichterbij de interfaces zet dan de andere 4. Nu zouden die ook boven en onder de CP kunnen zitten, aan de crossbar, maar dat zou best raar zijn.

Ik weet niet wat hij met 3D FF bedoelt, maar ik ging er stiekem van uit dat dat alle "raster" (ROP) zooi is, omdat ze dat opgeschaald hebben en op de "juiste" plek zit. Die zooi tussen de SM's in zou heel goed geometry kunnen zijn, maar dan hebben ze dat ook behoorlijk opgeschaald ten opzichte van GA102.

Maar zoals ik al zei, het is en blijft een CGI shot. Ik heb nog niet in proberen te zoomen en daadwerkelijk de aantallen proberen te controleren. Het zal best kloppen, maar dan is het CGI shot wel heel raar opgezet :p

  • Abbadon
  • Registratie: Februari 2000
  • Laatst online: 11:14
Locuza zelf zegt ook het volgende over de de AD102 render: The previous rendering for Ampere GA102 was fairly close to reality, but now it’s again just some artsy depiction of the real chip.

De render van de GA102 zag er idd levensechter uit. En ik herken ook geen L2 sram in de AD102 render.

Just pick a dead end and chill out 'till you die.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw, ook coreteks laat in zijn video geen spaan heel van nvidia's 40 launch.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
YouTube: DLSS 3 Increases Latency | How fast is RTX 4000 without fake frames?

Misschien al gemeld, DLSS 3 lijkt latency te verhogen.

Zo krijg je extra frames: er 1tje achterhouden/vertragen, om een 2e te genereren die er tussen in zit...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Volgens 1 van de Nvidia developers zou je met Reflex de extra latency grotendeels kunnen compenseren, maar natuurlijk kun je Reflex ook aanzetten zonder DLSS 3 en dan heb je dus lagere latency.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Cloggs
  • Registratie: April 2004
  • Laatst online: 30-06 12:23
Dennism schreef op donderdag 22 september 2022 @ 10:26:
[...]


Ik begin me toch steeds meer af te vragen waarom mensen dat zo vreemd vinden, zoals ik al aangaf, de memes waren leuk, maar een full fat x04 GPU al 4070 had toch niemand serieus verwacht kijkende naar de history de laatste generaties van full fat x04 dies en hun Sku naamgeving?

Zie ook bijv. deze post van mij hier: Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

En dit schema dat ik gister ook al linkte:

[Afbeelding]

Kijkende naar de laatste 12 jaar is de full fat x04 die altijd een x80 kaart geweest, met 1 uitzondering, de 3070 Ti. Ik vraag me dan echt af op basis waarvan mensen verwachten dat de full fat x04 nu ineens wel een 4070 zou zijn, en niet een 4080, of mogelijk een 4070 Ti.

Niet dat je geen kritiek mag hebben op die chip, dat is natuurlijk volledig terecht, maar de het naamgeving argument snap ik dus niet direct, het lag naar mijn mening namelijk nooit in de lijn der verwachting dat de full fat x04 die een 4070 zou zijn.
Omdat je twee 4080 kaarten hebt met totaal verschillende chips en Nvidia het presenteert alsof het enige verschil de hoeveelheid RAM is. Je moet diep in de specs duiken om te achterhalen dat de 12GB veel minder is. Als ze die 4080 16GB de 4080 Ti hadden genoemd dan was het minder misleidend geweest. Nog steeds te duur maar in ieder geval namen die duidelijk maken dat er een flink verschil in prestaties zit.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

Cloggs schreef op donderdag 22 september 2022 @ 20:34:
[...]

Omdat je twee 4080 kaarten hebt met totaal verschillende chips en Nvidia het presenteert alsof het enige verschil de hoeveelheid RAM is. Je moet diep in de specs duiken om te achterhalen dat de 12GB veel minder is. Als ze die 4080 16GB de 4080 Ti hadden genoemd dan was het minder misleidend geweest. Nog steeds te duur maar in ieder geval namen die duidelijk maken dat er een flink verschil in prestaties zit.
En als een consument dan nog naar de specs kijkt; maar deze (de 12GB versie) heeft hogere GHz!!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
Cloggs schreef op donderdag 22 september 2022 @ 20:34:
[...]

Omdat je twee 4080 kaarten hebt met totaal verschillende chips en Nvidia het presenteert alsof het enige verschil de hoeveelheid RAM is. Je moet diep in de specs duiken om te achterhalen dat de 12GB veel minder is. Als ze die 4080 16GB de 4080 Ti hadden genoemd dan was het minder misleidend geweest. Nog steeds te duur maar in ieder geval namen die duidelijk maken dat er een flink verschil in prestaties zit.
Maar dat is uiteraard een terechte klacht die ik ook zeker deel, waar ik het over heb zijn die hordes klagers die ineens roepen dat de full fat x04 normaal gesproken de 70 tier kaart is, terwijl dat traditioneel helemaal niet zo is.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cloggs schreef op donderdag 22 september 2022 @ 20:34:
[...]

Omdat je twee 4080 kaarten hebt met totaal verschillende chips en Nvidia het presenteert alsof het enige verschil de hoeveelheid RAM is. Je moet diep in de specs duiken om te achterhalen dat de 12GB veel minder is. Als ze die 4080 16GB de 4080 Ti hadden genoemd dan was het minder misleidend geweest. Nog steeds te duur maar in ieder geval namen die duidelijk maken dat er een flink verschil in prestaties zit.
En je moet ook begrijpen wat je leest. Weinig mensen die begrijpen wat voor een impact die Cuda Cores echt hebben. :/


Aansluitend is iets waar ik ook al even mee zit. We weten dat AD102 iets meer dan 600mm2 is en de RTX4090, 89% van het volledig aantal SM's actief heeft. Er is dus nog zeker ruimte voor (bijna) de volledige chip als RTX4090Ti alsmede een verdere cut down RTX4080Ti. Maar dan?

De RTX4080 heeft 90,5% van de volledige AD103 chip actief. Daar kan je nog een RTX4080S verwachten met de volledige chip, maar wat moet je eronder plaatsen? Immers is de nep RTX4080 gebaseerd op de volledige AD104 chip. Nu weten we volgens mij nog steeds niet hoe groot AD103 precies is, waarschijnlijk 350-400mm2 range.Ik durf wel te stellen dat Nvidia waarschijnlijk een verdere cut down richting de 20% zou willen doen alsmede misschien nog een derde. Ze hebben alleen geen SKU naam meer vrij.

AD104 heeft eigenlijk hetzelfde probleem. De volle chip is nu de nep RTX4080. Er zal ongetwijfeld een gedeeltelijk uitgeschakelde RTX4070(Ti) komen en dan? Deze chip is waarschijnlijk van een formaat dat meerdere cut downs niet erg realistisch zijn. Misschien een derde maar dat is het ook.

Vervolgens komt AD106 pas. Tja uit de Nvidia hack weten wet dat dit 4608 Cuda Cores/36SM's is. Realistisch gezien gaat deze hooguit GA104, dus de RTX3070Ti matchen. Dat is niet te verkopen als RTX4070. Nvidia zit dus eigenlijk ook een beetje klem met wat ze nu hebben gedaan. Waferkosten zijn waarschijnlijk aardig richting 3x gegaan ten opzichte van Ampere en ze hebben zichzelf de mogelijkheid om heel veel SKU's te maken voor de duurdere chips ontnomen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Broodro0ster
  • Registratie: September 2014
  • Laatst online: 10:29
Ik ben benieuwd naar de benchmarks zonder DLSS en RTX van deze nieuwe kaarten. Moet wel zeggen dat ze goed doorgerekend hebben voor de 4000 serie. Wellicht zagen ze dat de 3000 serie aan 2-2.5x MSRP nog vlot verkocht geraakte en hebben ze nu hun prijs daar iets onder gezet?

30x Jinko JKM380M-6RL3 (11.4kWp) 12x oost 90° - 18x west 270°, 45° incl. | Marstek Venus 5.12kWh | Vaillant Arotherm 75/5 | Zehnder ComfoAir Q450 | Tesla Model 3 RWD 2023


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Q&A van Nvidia waar ze ook de moeilijke vragen beantwoorden, wat ik op zich waardeer, al zijn sommige antwoorden niet erg naar m'n zin:

https://www.nvidia.com/en...x-40-series-community-qa/

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op donderdag 22 september 2022 @ 23:30:
Q&A van Nvidia waar ze ook de moeilijke vragen beantwoorden, wat ik op zich waardeer, al zijn sommige antwoorden niet erg naar m'n zin:

https://www.nvidia.com/en...x-40-series-community-qa/
Inderdaad...
Bijvoorbeeld:
The current DisplayPort 1.4 standard already supports 8K at 60Hz. Support for DisplayPort 2.0 in consumer gaming displays are still a ways away in the future.
Ze liepen van de daken te schreeuwen dat de 3090 8k kon in die DigitalFoundry Nvidia sponsored video. Dan zou je verwachten dat een kaart die 2x-4x (Nvidia's eigen woorden) sneller is wel meer dan 60Hz kan halen op 8k.
The RTX 4090 achieves up to 2-4x performance through a combination of software and hardware enhancements. We’ve upgraded all three RTX processors - Shader Cores, RT Cores and Tensor Cores. Combined with our new DLSS 3 AI frame generation technology the RTX 4090 delivers up to 2x performance in the latest games and creative applications vs. RTX 3090 Ti. When looking at next generation content that puts a higher workload on the GPU we see up to 4x performance gains. These are not minimum performance gains - they are the gains you can expect to see on the more computationally intensive games and applications.
Duidelijk, zonder DLSS 3 blijft er dus weinig over.
The GeForce RTX 4080 16GB and 12GB naming is similar to the naming of two versions of RTX 3080 that we had last generation, and others before that. There is an RTX 4080 configuration with a 16GB frame buffer, and a different configuration with a 12GB frame buffer. One product name, two configurations.

The 4080 12GB is an incredible GPU, with performance exceeding our previous generation flagship, the RTX 3090 Ti and 3x the performance of RTX 3080 Ti with support for DLSS 3, so we believe it’s a great 80-class GPU. We know many gamers may want a premium option so the RTX 4080 16GB comes with more memory and even more performance. The two versions will be clearly identified on packaging, product details, and retail so gamers and creators can easily choose the best GPU for themselves.
Dus omdat de kaart DLSS 3 kan krijgt hij de naam 4080 ipv 4070.

Het lijkt mij dus niet meer dan een marketing post die om de feiten heendraait (niet dat AMD's posts van marketing beter zijn maar we zitten hier in het Nvidia topic).

Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Sp3ci3s8472 schreef op donderdag 22 september 2022 @ 23:37:
[...]


Inderdaad...
Bijvoorbeeld:

[...]

Ze liepen van de daken te schreeuwen dat de 3090 8k kon in die DigitalFoundry Nvidia sponsored video. Dan zou je verwachten dat een kaart die 2x-4x (Nvidia's eigen woorden) sneller is wel meer dan 60Hz kan halen op 8k.


[...]

Duidelijk, zonder DLSS 3 blijft er dus weinig over.


[...]

Dus omdat de kaart DLSS 3 kan krijgt hij de naam 4080 ipv 4070.

Het lijkt mij dus niet meer dan een marketing post die om de feiten heendraait (niet dat AMD's posts van marketing beter zijn maar we zitten hier in het Nvidia topic).
Afbeeldingslocatie: https://tweakers.net/i/QvIiErxgS82Xi3PdnZSMYB6DB6M=/800x/filters:strip_icc():strip_exif()/f/image/k3Z1B3Hn8SQTJE7qBG4YydxI.jpg?f=fotoalbum_large

Als ik het goed begrijp uit de tekst is links (today’s games) zonder DLSS…

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Die Q&A is damage control. Het probleem is en blijft dat Nvidia weet dat ze niks hebben om het narratief te veranderen anders dan gigantische prijsverlagingen. En dat zullen ze niet doen.

Het fundamentele probleem is en blijft ook dat Lovelace in de markt word gezet als gaming GPU terwijl juist de primaire workload van games, FP32, vrijwel compleet genegeerd is. Daar valt gewoon niet omheen te draaien en zodra de reviews van met name de nep RTX4080 gaan verschijnen, tja dan gaat het pas echt losbarsten.

Dit is een keuze van Nvidia. Ze hadden ervoor kunnen kiezen om Ampere niveau tensor cores te kunnen aanhouden voor Lovelace, tenminste AD103 en lager en hun focus te leggen op het verbeteren van de Ampere SM. Daar is waarschijnlijk heel wat te winnen waardoor ik eigenlijk nog steeds ietwat verbaast ben dat ze niks hebben gedaan. Ook hadden ze kunnen kiezen voor een 12288ALU/96SM configuratie voor AD103 in combinatie met tensor cores die geen DLSS3.0 kunnen. Dat is alsnog 14% extra ALU's over wat AD103 nu heeft. Net afdoende om GA102 echt voor te blijven zodat Nvidia hun traditionele 25-30% verbetering haalt. Want die halen ze waarschijnlijk niet eens meer over een groot deel van deze generatie.

Het ergste is misschien wel dat als Nvidia voor zoiets has gekozen met AD103 en AD102 veel exclusiever had gemaakt, je dit probleem minder had. Immers is de RTX4090 alsnog 50-70% sneller dan een RTX3090Ti. Dat is helemaal niet slecht, verre van. Het is makkelijk de grootste generatie op generatie uplift in vele jaren. Het probleem is de prijs, de realisatie dat de rest van de line-up weinig verbeteringen gaat brengen alsmede de vermoede realisatie dat AMD met nog veel meer gaat komen. Uiteindelijk lijkt dit een beetje op de periode van 300 series van AMD vs. Maxwell. AMD had toen ook bijna niks en Nvidia kwam met een echte winnaar, hun beste serie sinds Tesla/8000 series. En in die situatie wil je niet terechtkomen.

Nvidia probeert dit te compenseren met DLSS3.0 alsmede een beginpunt bij 450W TDP voor de top, maar zelfs Nvidia kon dit gewoon niet verkopen nu ze nog enige controle over het narratief hadden. Over een maand gaat het denk ik nog erger worden. Want met elk stukje informatie dat over RDNA3 verschijnt, lijkt dat indrukwekkender en indrukwekkender te worden. Dat lijkt minstens een aanstaand Maxwell moment te worden, als het niet echt een 8800 moment gaat worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Jensen laat nog eens horen dat wafers fors duurder zijn geworden:
Jensen's focus seems to be on the latter half of Moore's law, the part related to semiconductors getting cheaper, which in turn makes computers cheaper. However, this hasn't been true for some time now and Jensen's argument in this case is that NVIDIA's costs of making semiconductors have gone up. Jensen is quoted as saying "A 12-inch wafer is a lot more expensive today than it was yesterday, and it's not a little bit more expensive, it is a ton more expensive," "Moore's Law is dead … It's completely over, and so the idea that a chip is going to go down in cost over time, unfortunately, is a story of the past." What he actually meant is that we shouldn't expect semiconductors to be as cheap as they've been in the past, although part of the issue NVIDIA is having is that their products have to be produced on cutting edge notes, which cost significantly more than more mature nodes. It'll be interesting to see if AMD can deliver graphics chips and cards with a more competitive price point than NVIDIA, as that would refute some of Jensen's claims.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 23 september 2022 @ 00:16:
Jensen laat nog eens horen dat wafers fors duurder zijn geworden:


[...]
Ja waarschijnlijk ergens richting 3x omdat Nvidia op een veel oudere node zat.
Maar daar kan je wat aan doen met intelligent en innovatief ontwerp. Immers is dit een probleem voor iedereen.
* DaniëlWW2 moppert iets over chiplets :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
computerjunky schreef op donderdag 22 september 2022 @ 14:37:
Ik baal vooral dat ze allemaal over gegaan zijn naar de nieuwe 12 pin stekker, hierdoor moet je je case mods gaan aanpassen en velen gaan echt geen nieuwe voeding kopen en gebruiken dus gewoon een 3x 8 pin adapter kabel...

Daarnaast zitten ze net als de 30 series FE op bizarre plaatsen ipv gewoon netjes aan 1 uiteinde van de kaart...Al met al zal er dus bijna niemand zijn die echt een nieuwe dure ATX 3 voeding gaat gebruiken bij deze kaarten maar de rest zit wel met een adapter opgezadeld. Ik had stille hoop dat AIB deze dan zouden negeren maar ik denk dat Nvidia ze dit opgelegd heeft.

En dan is er nog het dingetje van brandende 12 pin stekkers wat ik voorbij zag komen. Dit gebeurd als de pins van de stekker niet helemaal recht in de female stekker zaten waardoor er minder contact is en er dus brand kan ontstaan in deze voedingen wat voor velen een reden zou moeten zijn deze voorlopig links te laten liggen en voor geteste voedingen te gaan. Deze 12 pin stekkers moeten namelijk dezelfde en meer stroom verwerken van 3x8 pins.
Tja, als je deze bedragen gaat betalen aan Nvidia, dan zal een nieuwe voeding of case mods er bij relatief gesproken niet de meeste kosten zijn. Het brandgevaar is wel een ding ja, let goed op welke voeding je koopt.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

Thomas schreef op vrijdag 23 september 2022 @ 00:13:
[...]


[Afbeelding]

Als ik het goed begrijp uit de tekst is links (today’s games) zonder DLSS…
Nee, alleen de eerste 3 games maken geen gebruik van DLSS3. Zie de lijst:
https://www.nvidia.com/en...ports-over-35-games-apps/

Die 50-70% sneller is best leuk. Alleen kost het veel stroom en vind ik de sprong in performance voor het aantal extra TFlops wat ze hebben nogal klein.

Wat ik mij steeds afvraag; waarom heeft Nvidia ervoor gekozen om in elk spel DLSS in performance mode te gebruiken? De enige reden die ik mij kan bedenken is dat je express een cpu limiet introduceert waardoor DLSS 3 beter lijkt en omdat DLSS 3 waarschijnlijk op te lage framerates te veel input lag geeft.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Abbadon schreef op donderdag 22 september 2022 @ 17:19:
Locuza zelf zegt ook het volgende over de de AD102 render: The previous rendering for Ampere GA102 was fairly close to reality, but now it’s again just some artsy depiction of the real chip.

De render van de GA102 zag er idd levensechter uit. En ik herken ook geen L2 sram in de AD102 render.
Nou ja, levensecht is ook relatief. Zet er een IR shot naast en geen enkele render ziet er uit als de werkelijkheid :P

De vormen in zo'n render zijn altijd onzin, maar de grove indeling en schaal kloppen meestal wel. En daar klopt de schaal gewoon niet. AD102 heeft meer SM's met daarin RT cores die H100 niet heeft, bergen meer ROP's, tensor cores die beter lijken te zijn, enzovoort. Er zit meer van alles in. En toch, zelfs als hij gebakken zou zijn met dezelfde dichtheid als H100, zou hij alsnog kleiner zijn. En dan moet er óók bijna het dubbele aan L2$ in zitten. Wederom, qua oppervlak lijken die dingen naast de CP op het oog pakweg even veel ruimte in te nemen als die 4 blokken in H100 (in verhouding tot de hele die), misschien zelfs iets minder. Dus dan is de dichtheid daar zo'n beetje verdubbeld.

Nu zal H100 bewust wat losser gebakken zijn en was die 96 MB op gelekte gegevens gebaseerd, maar het is nog niet bevestigd, dus ik heb er nog twijfels bij. Morgen eens even die leak opzoeken en kijken wat daar precies in stond. Ik geloof dat het een aanpassing van een verhouding was?

[ Voor 3% gewijzigd door Werelds op 23-09-2022 01:12 ]


Acties:
  • 0 Henk 'm!

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 30-06 21:01

SinergyX

____(>^^(>0o)>____

Sp3ci3s8472 schreef op vrijdag 23 september 2022 @ 00:39:

Wat ik mij steeds afvraag; waarom heeft Nvidia ervoor gekozen om in elk spel DLSS in performance mode te gebruiken? De enige reden die ik mij kan bedenken is dat je express een cpu limiet introduceert waardoor DLSS 3 beter lijkt en omdat DLSS 3 waarschijnlijk op te lage framerates te veel input lag geeft.
Die eerste 3 games zijn nu niet bepaald games die een CPU limit zouden hebben, even random Div2 opgezocht:
YouTube: The Division 2 Ultra Settings 1440p | RTX 3090 Ti | i9 12900K 5.2GHz

1440 op een 3090ti, maar die CPU zit daar de helft van de tijd niet eens op 30% kracht, misschien met een native 1080 of 720 (dat is niet echt duidelijk welke native resolutie ze draaien) dat meer zou zijn, maar dat lijkt me dan toch flink ten nadelen te gaan van de scherpheid. Enige logische wat ik zie is dat de relatieve winst van DLSS2 (of 3) op deze kaarten blijkbaar hoger is dan de 'kale' winst op native hogere resoluties.

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Acties:
  • +4 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Dennism schreef op donderdag 22 september 2022 @ 12:10:
[...]


Zo werkt het zeker niet, bij Nvidia gaat het van klein getal naar groot, waar het kleinste getal, in dit geval AD102 de grootste en dus duurste die is. x02 dies zul je normaliter dus altijd in flagships zien, zoals Ti's, Titans, x90's en soms x80 kaarten.

AD102 is de tegen hanger van GA102, die zou zeker normaliter geen AD104 worden genoemd.
AD103 heeft geen directe tegenhanger in Ampere desktop, maar dat zouden de GA102 Cut downs geweest zijn in deze vergelijking, voor GA103 zie hieronder
AD104 is de tegenhanger van GA104

GA103 lijkt een beetje een vreemde eet in de bijt, die die is immers groter dan GA104, zoals gebruikelijk bij Nvidia, maar alleen gebruikt voor de 3060 Ti binnen het desktop segment (zal wel een cut geweest zijn denk ik?, is inderdaad een grote cut, 37% lijkt uitgeschakeld te zijn), terwijl de duurdere 3070 bijv. een goedkopere en kleinere GA104 die had, en daarnaast is deze gebruikt voor mobile RTX 3080 varianten en de RTX A5500 zakelijke variant als ik TPU mag geloven. Wel gebruikt voor hogere segment 'kaarten' dus, alleen niet op de desktop, lijkt erop dat de afdankertjes van GA103 verkocht zijn als 3060 Ti's om meer volume te creëren, aangezien er ook 3060 Ti's zijn met GA104.

Ik zou zelf trouwens ook nooit de RTX 4080 12GB halen om die redenen, en van mij had het bijv. ook best RTX 4070 ti mogen heten, het gaat er mij alleen om, dat het simpelweg op basis van naamgeving bij Nvidia de laatste 12 jaar niet te verwachten was dat de full fat 104 die een plain 4070 zou worden.
Je hoeft een 104 geen 4070 te noemen, maar dit is de eerste keer dat de 3 na krachtigste chip een x080 wordt genoemd door Nvidia. Dat zou vergelijkbaar zijn met dat bijvoorbeeld je een GP106 (1060) een 1080 noemt, waarbij de meeste generaties die je noemt geen 103 chip hadden.

Als je dan zegt, dat is niet eerlijk vergelijken, kijk dan naar het oppervlakte van de chips (nog niet 100% bevestigd, maar goed genoeg om je een beeld te geven):

4090 = 608 mm² = $1599
4080 16GB = 380 mm² = $1199
4080 12GB = 300 mm² = $899

3090 = 628.4 mm² = $1499
3070/3070Ti = 392.5 mm² = $499-599
3060 = 276 mm² = $329

Natuurlijk, "4N" is veel duurder dan Samsung 8nm, maar de marges zijn wel heel erg groot nu. Je krijgt weinig waar voor je geld.

Dus historisch gezien mag je een 104 chip een xx80 noemen, maar als je AD104 ziet als de 3e chip en het oppervlakte wat je er voor krijgt, dan mag je AD104 eigenlijk geen xx80 noemen. En zo zien veel gamers en tech tubers AD104. Ook omdat kopite7kimi de 4070 met exact dezelfde specs als AD104 had gelekt begin Augustus:

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
oli4100 schreef op woensdag 21 september 2022 @ 16:51:
[...]


Mbt scaling: waar blijkt uit dat het zo slecht is?

De 4090 is geen product voor een normale kast en een normale huissetting, dus moet je het denk ik ook niet als zodanig evalueren. Voor die settings zijn de lager gepositioneerde kaarten.
Ik weet niet deze al beantwoord was, maar tot nu toe blijkt dat uit de teleurstellende performance plaatjes van Nvidia zelf:

Afbeeldingslocatie: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Kijk daarbij vooral links bij de 3 games zonder ray tracing of software truckjes, en laten we daar +60% FPS game performance aan toekennen. Als je dan zegt nou 60% is toch niet slecht voor 128 SMs vs 84 SMs (+52%)? Bedenk dan dat de kloksnelheid (boost clock) 2,52 GHz is tegenover de oude 1860 MHz (+35,5%).

https://www.nvidia.com/en...cs-cards/40-series/#specs

Bij elkaar zou dat +105% moeten geven, dus dan valt 60% een beetje tegen. Voor compute en modelling merk je daar niks van, want daarbij kan je de SMs van Ampere en Lovelace volledig bij gebruiken (met 128 FP32 per SM tegelijkertijd). Voor gaming (met INT32 er bij) schalen die SMs echter veel minder goed bij Nvidia. We hopen dat dat bij RDNA3 beter zal zijn.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
sunsmountain schreef op zaterdag 17 september 2022 @ 14:02:
Alles is relatief, en ik probeer er alleen maar mee aan te geven dat de kans bestaat, dat 75,38 10^6 transistors correct kan zijn. Ook als de density jump dan historisch ongekend zou zijn.
Werelds schreef op zaterdag 17 september 2022 @ 15:14:
Alles kan en ik laat me graag verrassen en geheel fout zitten. Het is echter gewoon heel onwaarschijnlijk. Juist ook omdat we het over Nvidia hebben, die gewoon nooit de beste of eerste zijn geweest in het daadwerkelijke bakwerk.
Ondanks de dramatische launch heeft Nvidia jou dus wel verrast @Werelds :)

Overigens had je helemaal gelijk over de kopite7kimi eigen speculaties wat betreft de 192 FP32 per SM of onze eigen suggesties van 2 dispatch processors ipv 1, wat dacht ik wel niet. Dat Nvidia ingenieurs ook maar een fluit zouden geven om efficiëntie, met een TGP van 450W/660W _O-

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

SinergyX schreef op vrijdag 23 september 2022 @ 01:01:
[...]

Die eerste 3 games zijn nu niet bepaald games die een CPU limit zouden hebben, even random Div2 opgezocht:
YouTube: The Division 2 Ultra Settings 1440p | RTX 3090 Ti | i9 12900K 5.2GHz

1440 op een 3090ti, maar die CPU zit daar de helft van de tijd niet eens op 30% kracht, misschien met een native 1080 of 720 (dat is niet echt duidelijk welke native resolutie ze draaien) dat meer zou zijn, maar dat lijkt me dan toch flink ten nadelen te gaan van de scherpheid. Enige logische wat ik zie is dat de relatieve winst van DLSS2 (of 3) op deze kaarten blijkbaar hoger is dan de 'kale' winst op native hogere resoluties.
Je mist mijn punt; de Division 2 heeft helemaal geen DLSS 3 dus die vergelijking kunnen ze daar niet maken. Als je die vergelijking wilt maken pak dan een van de spellen die wel DLSS 3 heeft.

Ik ga er van uit dat je Nvidia bedoelt? Als je kijkt naar de kleine lettertjes dan zie je dat ze op 4k draaien met DLSS performance mode wat een effectieve resolutie geeft van 1920x1080. Dat gaat voor die kaarten, in veel gevallen een cpu limiet geven. Als je kijkt naar de schaling van de 3080-3090 (Ti) van 1080p tot 4k dan zie je dat die kaarten pas bij 4k hun benen echt kunnen strekken.

Ik geloof dat Warhammer een cpu limiet heeft zei het een lichte. Flight Simulator staat er om bekend dat het cpu gelimiteerd is.

Laatste punt; je kan niet kijken naar cpu load als je wilt weten of je een cpu limiet hebt. Op mijn 3950x heb ik in een aantal spellen maar 3-4% cpu load maar ik kan je garanderen dat ik hardstikke cpu limited ben want mijn kaart komt niet eens boven de 500Mhz.
Als je wilt weten of je een cpu limiet hebt dan moet je kijken naar de gpu load. Als deze onder de 85% is (90% zelfs) dan heb je een cpu limiet.
Als een spel perfect zou schalen over meerdere cores, alleen dan kan je beoordelen of je een cpu limiet hebt door te kijken naar het gebruik of als een cpu 100% gebruikt dan weet je ook vaak genoeg.

[ Voor 2% gewijzigd door Sp3ci3s8472 op 23-09-2022 01:53 . Reden: tpu bron ]


Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 00:17
Sp3ci3s8472 schreef op donderdag 22 september 2022 @ 23:37:
[...]


Inderdaad...
Bijvoorbeeld:

[...]

Ze liepen van de daken te schreeuwen dat de 3090 8k kon in die DigitalFoundry Nvidia sponsored video. Dan zou je verwachten dat een kaart die 2x-4x (Nvidia's eigen woorden) sneller is wel meer dan 60Hz kan halen op 8k.


[...]

Duidelijk, zonder DLSS 3 blijft er dus weinig over.


[...]

Dus omdat de kaart DLSS 3 kan krijgt hij de naam 4080 ipv 4070.

Het lijkt mij dus niet meer dan een marketing post die om de feiten heendraait (niet dat AMD's posts van marketing beter zijn maar we zitten hier in het Nvidia topic).
En halve waarheid vertellen (imho liegen).
8k, 60Hz is niet mogelijk met Displaypoort 1.4a, zonder toepassing van DSC (display stream compression).
Dat hadden ze er expliciet bij moeten zetten.

DSC is naar verluid 'visueel verliesvrij', maar dat is eigenlijk een eufemisme voor lossy waarbij het verschil niet 'merkbaar' is. Het introduceert ook wat latency, al kan ik nergens vinden hoeveel precies. In ieder geval is de noodzaak voor DSC er niet meer met HDMI 2.1 en Displaypoort 2.0.

Hier is behoorlijk wat techy info te vinden over hoe DSC werkt:
https://www.quantumdata.c...dsc_protocols_webinar.pdf
Info over Displaypoort versies en bandbreedte: Wikipedia: DisplayPort

Acties:
  • +2 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 00:22
sunsmountain schreef op vrijdag 23 september 2022 @ 00:32:
[...]

Tja, als je deze bedragen gaat betalen aan Nvidia, dan zal een nieuwe voeding of case mods er bij relatief gesproken niet de meeste kosten zijn. Het brandgevaar is wel een ding ja, let goed op welke voeding je koopt.
Ja en nee ik heb net 200 euro uitgegeven aan een nieuwe voeding. Ik denk er niet over om een nieuwe te kopen komende 5 jaar.

Niet dat ik zelf deze generatie upgrade zo te zien renzij AMD een geniale kaart uit de hoed tovert die beter is als mijn 6900xt en wel goed is voor streaming maar ik denk het zelf niet.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op donderdag 22 september 2022 @ 22:28:
[...]


Maar dat is uiteraard een terechte klacht die ik ook zeker deel, waar ik het over heb zijn die hordes klagers die ineens roepen dat de full fat x04 normaal gesproken de 70 tier kaart is, terwijl dat traditioneel helemaal niet zo is.
Het is de vraag in hoeverre de huidige 104 daadwerkelijk te vergelijken is met de 104's uit het verleden. Het is maar een naampje wat nvidia er op plakt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +4 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 30-06 14:44
Meer detail over de chips + bevestiging van de caches. Gek hoe AD104 25% meer transistors heeft dan GA102.

1100€ voor een 300 mm² is |:( Dat is kleiner dan N22.

Afbeeldingslocatie: https://tweakers.net/i/DmnqrX9SV3UKQXP2sp_fY2oPU5U=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Od4I1NYgmE2P768zqNxvwVvy.png?f=user_large

Edit: nog meer details

Afbeeldingslocatie: https://tweakers.net/i/w6_kKDMig86Raoax_4N6PoFPcwI=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Ewa1spbMYeNtsFsBKFJJNgLv.png?f=user_large

[ Voor 23% gewijzigd door napata op 23-09-2022 09:21 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 11:16
Her en der beginnen er al berichten/tegen geluiden te komen van mensen dat het verbruik niet veel uitmaakt, want de kaart zou goed koel blijven tijdens gebruik. Ongeacht de grote koeler geldt nog altijd dat het rendement van een kaart laag is, waardoor er veel warmte vrij gaat komen. Ik weet dan ook niet of je in dit geval moet zeggen dat deze mensen van een koude kermis gaan thuiskomen, of juist in een bloedhitte :+.

[ Voor 3% gewijzigd door Paprika op 23-09-2022 09:37 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Paprika schreef op vrijdag 23 september 2022 @ 09:34:
Her en der beginnen er al berichten/tegen geluiden te komen van mensen dat het verbruik niet veel uitmaakt, want de kaart zou goed koel blijven tijdens gebruik. Ongeacht de grote koeler geldt nog altijd dat het rendement van een kaart laag is, waardoor er veel warmte vrij gaat komen. Ik weet dan ook niet of je in dit geval moet zeggen dat deze mensen van een koude kermis gaan thuiskomen, of juist in een bloedhitte :+.
Lekker voor in de winter, vooralsnog goedkoper dan een airco die warmte uitblaast per uur en je hebt nog leuke entertainment eraan ook :+

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 23 september 2022 @ 09:34:
Her en der beginnen er al berichten/tegen geluiden te komen van mensen dat het verbruik niet veel uitmaakt, want de kaart zou goed koel blijven tijdens gebruik. Ongeacht de grote koeler geldt nog altijd dat het rendement van een kaart laag is, waardoor er veel warmte vrij gaat komen. Ik weet dan ook niet of je in dit geval moet zeggen dat deze mensen van een koude kermis gaan thuiskomen, of juist in een bloedhitte :+.
offtopic:
Ligt eraan hoe je nationale compensatieplan voor de energierekening eruit ziet. Als je vooral moet besparen op gas en minder op elektriciteit, tja dan is de RTX4090 een gat in de markt. :P



Maar dus toch circa 380mm en 300mm met de verwachte L2 cache sizes. Die geruchten kloppen dan ook. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Sp3ci3s8472 schreef op vrijdag 23 september 2022 @ 00:39:
[...]


Nee, alleen de eerste 3 games maken geen gebruik van DLSS3. Zie de lijst:
https://www.nvidia.com/en...ports-over-35-games-apps/

Die 50-70% sneller is best leuk. Alleen kost het veel stroom en vind ik de sprong in performance voor het aantal extra TFlops wat ze hebben nogal klein.

Wat ik mij steeds afvraag; waarom heeft Nvidia ervoor gekozen om in elk spel DLSS in performance mode te gebruiken? De enige reden die ik mij kan bedenken is dat je express een cpu limiet introduceert waardoor DLSS 3 beter lijkt en omdat DLSS 3 waarschijnlijk op te lage framerates te veel input lag geeft.
Aha, scherp. Zullen het wel zien als er daadwerkelijke reviews verschijnen. Moet zeggen dat mijn enthousiasme voor de 40xx serie aardig aan het kelderen is. Ja, een 4080 (16G) is op zich een prima kaart, maar geen great leap forward en voor die prijs... Nope.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
sunsmountain schreef op vrijdag 23 september 2022 @ 01:47:
Ondanks de dramatische launch heeft Nvidia jou dus wel verrast @Werelds :)
Jawel:
Werelds schreef op dinsdag 20 september 2022 @ 23:25:
I stand corrected. Ik ga er van uit dat Ryan dit wel rechtstreeks van Nvidia heeft.
:+

En blijkbaar klopt die 96 MB L2$ dus ook, weer volgens Ryan. Geometry zit dan 100% bij de rest van het rekenspul.

Lijkt er op dat de HP cellen van N5/N4 dus een stuk compacter zijn in verhouding tot hun HD tegenhangers dan voorheen het geval was. Zou ook wel eens heel goed uit kunnen pakken voor AMD, maar dat is iets voor het andere draadje.
Overigens had je helemaal gelijk over de kopite7kimi eigen speculaties wat betreft de 192 FP32 per SM of onze eigen suggesties van 2 dispatch processors ipv 1, wat dacht ik wel niet. Dat Nvidia ingenieurs ook maar een fluit zouden geven om efficiëntie, met een TGP van 450W/660W _O-
Mja, maar het is ook gewoon een heel lui ontwerp. Even los van efficiëntie qua stroomverbruik, is deze chip, net als GA10x, gewoon bar slecht qua transistor efficiëntie. Je zit nog steeds met de helft van de FP32 ALU's die slechts een deel van de tijd iets kunnen doen. De grotere L2 verandert daar niets aan.

Blijkbaar is het alsnog kosteneffectiever om er gewoon transistors tegenaan te gooien en op te schalen naar het tensor niveau dat ze willen hebben, dan daadwerkelijk een betere architectuur te ontwerpen. Want dat lijkt het enige doel geweest te zijn, de tensor cores. Ze hadden niet zomaar meer van die krengen in een SM kunnen stoppen, want dan had de aansturing ook moeten veranderen. Ze kunnen nú al slechts 1 FP óf 1 INT óf 1 RT óf 1 Tensor instructie per clock uitdelen, een tweede tensor core had dus niets uit gemaakt.

Ik ben nog steeds niet onder de indruk van deze krengen. Ook denk ik nog steeds dat de raster performance écht vies tegen gaat vallen. RT performance zonder DLSS zal wel aardig worden en eindelijk op een niveau komen waar ik het nuttig acht. Gevaar daarvan is echter dat we meer Metro-achtige gevallen krijgen, waar "RT ON/OFF" eigenlijk iets anders betekent: "LIGHTING ON/OFF". Even 25 jaar terug in de tijd, waarom niet.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomas schreef op vrijdag 23 september 2022 @ 10:24:
[...]


Aha, scherp. Zullen het wel zien als er daadwerkelijke reviews verschijnen. Moet zeggen dat mijn enthousiasme voor de 40xx serie aardig aan het kelderen is. Ja, een 4080 (16G) is op zich een prima kaart, maar geen great leap forward en voor die prijs... Nope.
Zoals ik ook al te vaak heb gezegd nu, lijkt de RTX4080 12GB rond RTX3080Ti niveau uit te gaan komen. RTX4080 16GB iets van 15-20% sneller dan de RTX3090Ti en RTX4090 50-70% sneller dan RTX3090Ti.

De problemen zitten niet in halo SKU terrein. Nee alles eronder is gewoon slecht. Voor de rest van de RTX40 generatie is nu al duidelijk dat je naar 15-20% verbetering over Ampere kijkt met waarschijnlijk wat winst in efficiëntie. Immers is nu al een halfjaar duidelijk wat de specificaties van de chips ongeveer zijn door die Nvidia hack. En als je dan gaat inschatten wat elke SKU ongeveer zal zijn, dan kom je op dat niveau aan verbetering uit. Misschien hier en daar een positieve uitschieter, maar dat zal de trend zijn. Oh en de prijzen gaan ook omhoog. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nieuws: Ceo Nvidia: kelderende gpu-prijzen behoren tot het verleden en Moore's Law is dood

‘Moore’s Law’s dead,’ Nvidia CEO Jensen Huang says in justifying gaming-card price hike


De GA102 ~:
Die Size: 628mm2
Transistors: 28 Billion

De AD102~:
Die Size: 608mm2
Transistors: 76 Billion

Dan is Moore toch niet dood :?

[ Voor 58% gewijzigd door Help!!!! op 23-09-2022 11:29 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
sunsmountain schreef op vrijdag 23 september 2022 @ 01:47:
[...]

Overigens had je helemaal gelijk over de kopite7kimi eigen speculaties wat betreft de 192 FP32 per SM of onze eigen suggesties van 2 dispatch processors ipv 1, wat dacht ik wel niet. Dat Nvidia ingenieurs ook maar een fluit zouden geven om efficiëntie, met een TGP van 450W/660W _O-
De geruchten gaan dat Navi 31 ook 400W of meer zal trekken. AMD heeft in een blogpost uitgelegd wat het probleem hierachter is, ik denk dat het verhaal ook van toepassing is op Nvidia. Het is niet zo dat ingenieurs niets om efficiëntie geven, maar de nieuwe nodes resulteren al lang niet meer in een verlaging van stroomverbruik zoals we dat vroeger gewend waren.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De hogere kloksnelheden zorgen sowieso ook voor meer stroomgebruik.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:16
Ligt er denk ik aan hoe je er naar kijken, 2x zoveel transistors halen ze nog wel. Dus als je enkel daar naar kijkt lijkt het inderdaad niet dood te zijn. Er wordt echter ook regelmatig beargumenteerd dat Moore gezegd heeft of bedoelde bij gelijkblijvende of dalende consumenten prijzen. Dit laatste halen ze niet meer.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik zit nu zelf ook in dubio om de 4090 te halen of niet. Die prijs is toch een messteek in de rug vind ik.
Wil heel graag upgraden en wil het beste uit mijn centen halen voor de meeste prestaties die ik nu eruit kan halen (wacht nog op Raptor Lake en hun prijzen)

Maar 4090 1959 euro en moet je je nog maar afvragen wat de AIB's ervoor gaan vragen en de webshops. Denk dat het gauw richting de 2300 - 2500 euro zal gaan. Qua levertijd zullen deze veel gemakkelijker zijn t.o.v. van de 3xxx variant. Maar ik zie voor nu niet het voordeel van 3090 naar 4090 met de huidige prijs. Toch maar onafhankelijke benchmarks afwachten.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 30-06 18:25

OMD

Xtr3me4me schreef op vrijdag 23 september 2022 @ 12:15:
Ik zit nu zelf ook in dubio om de 4090 te halen of niet. Die prijs is toch een messteek in de rug vind ik.
Wil heel graag upgraden en wil het beste uit mijn centen halen voor de meeste prestaties die ik nu eruit kan halen (wacht nog op Raptor Lake en hun prijzen)

Maar 4090 1959 euro en moet je je nog maar afvragen wat de AIB's ervoor gaan vragen en de webshops. Denk dat het gauw richting de 2300 - 2500 euro zal gaan. Qua levertijd zullen deze veel gemakkelijker zijn t.o.v. van de 3xxx variant. Maar ik zie voor nu niet het voordeel van 3090 naar 4090 met de huidige prijs. Toch maar onafhankelijke benchmarks afwachten.
Je hebt met de 3090 een dijk van een kaart. Ik zou als ik jou was echt even een tijdje uitzitten. Het zal mij niks verbazen, zoals ik vaker geroepen heb, dat nVidia de MSRP gaat verlagen zodra de 30 serie volledig weg is of nog een ergere naaistreek, dat ze DLSS 3 compatible maken met de 30 serie. De 30 serie heeft dan wel een stuk minder tensor cores etc maar ze beweren dat DLSS 3 een aardige leap in performance is.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +9 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik kwam dit net tegen. Dit is een afbeelding vanuit die Digital Foundry teaser waarbij alle artefacts omcirkeld zijn.

Dat zijn op zijn zachts gezegd nogal wat artefacts...
Afbeeldingslocatie: https://uploads.disquscdn.com/images/6ab92de20687a9f077a1eca19d1f397a55fee4f12cc664f01470fd7494f7d372.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

OMD schreef op vrijdag 23 september 2022 @ 12:19:
[...]


Je hebt met de 3090 een dijk van een kaart. Ik zou als ik jou was echt even een tijdje uitzitten. Het zal mij niks verbazen, zoals ik vaker geroepen heb, dat nVidia de MSRP gaat verlagen zodra de 30 serie volledig weg is of nog een ergere naaistreek, dat ze DLSS 3 compatible maken met de 30 serie. De 30 serie heeft dan wel een stuk minder tensor cores etc maar ze beweren dat DLSS 3 een aardige leap in performance is.
Ja alleen de latency zal dan erger zijn op de 3xxx kaarten met DLSS 3, hoeveel is ook maar de vraag eigenlijk.
Heel veel vragen en weinig antwoorden en de vijand is tijd, want 12 oktober is nog 3 weken tot de echte reviews binnen komen.

3090 is een dijk van een kaart maar alsnog Triple A games met RT aan op 4K = gemiddeld ook maar 70fps
Daarom benieuwd hoeveel beter de 4090 is t.o.v. de 3090 qua performance. Haal ik 10fps meer, hoeft het voor mij gelijk al niet meer. Is het gauw 30-40fps meer, dan wordt het een ander verhaal.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

DaniëlWW2 schreef op vrijdag 23 september 2022 @ 12:21:
Ik kwam dit net tegen. Dit is een afbeelding vanuit die Digital Foundry teaser waarbij alle artefacts omcirkeld zijn.

Dat zijn op zijn zachts gezegd nogal wat artefacts...
[Afbeelding]
Oh wauw...jeetje die hand dan. Dat is niet een beetje ook.

Ugh als dit echt zo zal gaan dan is die FG voor mij al een no go en houd ik het lekker bij DLSS 2.1

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 30-06 18:05
Xtr3me4me schreef op vrijdag 23 september 2022 @ 12:15:
Ik zit nu zelf ook in dubio om de 4090 te halen of niet. Die prijs is toch een messteek in de rug vind ik.
Wil heel graag upgraden en wil het beste uit mijn centen halen voor de meeste prestaties die ik nu eruit kan halen (wacht nog op Raptor Lake en hun prijzen)
Sowieso is iedereen die nu naar de winkel rent in plaats van even te wachten waar AMD mee gaat komen deze generatie een dief van de eigen portemonnee, tenminste wel als je "het beste uit je centen wil halen".

Of je moet principieel al nooit AMD willen natuurlijk, maar dan hoef je ook niet in dubio te zitten.
Maar ik zie voor nu niet het voordeel van 3090 naar 4090 met de huidige prijs. Toch maar onafhankelijke benchmarks afwachten.
Dat laatste natuurlijk altijd. Zeker bij deze generatie is afgaan op Nvidia's eigen schaalloze fopgrafiekjes waar ze DLSS erbij getrokken hebben alsof dat gratis performance is waanzin.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +3 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik zou in elk geval zowel de reviews als de presentatie van RDNA3 afwachten. Er is nog zoveel onzeker op dit moment. Het zou me bijvoorbeeld zeker niet verbazen als DLSS 3 erg tegen gaat vallen en 120 Hz met DLSS 3 meer aanvoelt als 60 Hz. En misschien zijn de artifacts ook heel erg.

[ Voor 8% gewijzigd door Ludewig op 23-09-2022 12:30 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

MneoreJ schreef op vrijdag 23 september 2022 @ 12:26:
[...]

Sowieso is iedereen die nu naar de winkel rent in plaats van even te wachten waar AMD mee gaat komen deze generatie een dief van de eigen portemonnee, tenminste wel als je "het beste uit je centen wil halen".

Of je moet principieel al nooit AMD willen natuurlijk, maar dan hoef je ook niet in dubio te zitten.


[...]

Dat laatste natuurlijk altijd. Zeker bij deze generatie is afgaan op Nvidia's eigen schaalloze fopgrafiekjes waar ze DLSS erbij getrokken hebben alsof dat gratis performance is waanzin.
Ik ging altijd naar Intel en puur vanwege de Single core performance in games zelf, altijd hoger lag dan die van het rode team.
Veel multicore applicaties doe ik niet.

Uiteraard wacht ik net als elk gezonde en verstandige persoon op onafhankelijke tests. Bedoel ik ga niet van mijzelf een ginny pig maken voor andere entertainment. Geld groeit niet op me rug :P

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 30-06 18:05
Xtr3me4me schreef op vrijdag 23 september 2022 @ 12:28:
Ik ging altijd naar Intel en puur vanwege de Single core performance in games zelf, altijd hoger lag dan die van het rode team.
Veel multicore applicaties doe ik niet.
Ik bedoelde specifiek RDNA3. Intel vs. AMD voor CPU is weer een heel andere discussie. :P

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Dennism schreef op vrijdag 23 september 2022 @ 12:00:
[...]


Ligt er denk ik aan hoe je er naar kijken, 2x zoveel transistors halen ze nog wel. Dus als je enkel daar naar kijkt lijkt het inderdaad niet dood te zijn. Er wordt echter ook regelmatig beargumenteerd dat Moore gezegd heeft of bedoelde bij gelijkblijvende of dalende consumenten prijzen. Dit laatste halen ze niet meer.
Nee, dat heeft hij nooit gezegd. Dit zijn de exacte woorden:
The complexity for minimum component costs has increased at a rate of roughly a factor of two per year (see graph on next page). Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimum cost will be 65,000.
Dat heeft hij later bij gesteld naar elke 2 jaar in plaats van elk jaar, maar meer niet. Prestaties heeft hij nooit expliciet iets over gezegd; toentertijd was dat natuurlijk wel zo, met die "domme" chips tegenover het hedendaagse geweld. Over verbruik heeft hij losjes wel iets gezegd:
In fact, shrinking dimensions on an integrated structure makes it possible to operate the structure at
higher speed for the same power per unit area.
Dat klopt ook nog steeds. Dat daar geen gebruik gemaakt van wordt is een ander verhaal, maar het is nog steeds zo dat je met een shrink de kloksnelheden iets kunt verhogen zonder meer sap te slurpen.

Dat alles gezegd hebbende:
Help!!!! schreef op vrijdag 23 september 2022 @ 10:57:

De GA102 ~:
Die Size: 628mm2
Transistors: 28 Billion

De AD102~:
Die Size: 608mm2
Transistors: 76 Billion

Dan is Moore toch niet dood :?
Jawel, want GA102 was gebakken op een ouder procedé, bij een andere fab. Je kunt beter naar de cijfers van de fabs zelf kijken, of bijvoorbeeld Apple. We zitten al een tijdje onder de 2x en er werd 10 jaar geleden al voorspeld dat het rond de 5-3nm erg lastig zou worden. N7 was al een stukje minder vooruitgang dan N10 en N5 is wéér minder.

Het grootste probleem is echter dat de tegenhanger van Moore's Law nu eindelijk tegen "Rock's Law" aan loopt. Dat is een soortgelijke stelling, maar dan van de andere kant van het verhaal: productie kosten verdubbelen elke 4 jaar. Dat is een tijd lang níet zo geweest, omdat de R&D kosten niet zo extreem waren. Maar we zijn inmiddels op een niveau beland waar die stelling meer dan klopt.

Dat betekent dat het economisch minder boeiend is om überhaupt naar Moore's stelling te streven.
DaniëlWW2 schreef op vrijdag 23 september 2022 @ 12:21:
Ik kwam dit net tegen. Dit is een afbeelding vanuit die Digital Foundry teaser waarbij alle artefacts omcirkeld zijn.

Dat zijn op zijn zachts gezegd nogal wat artefacts...
[Afbeelding]
Maakt niet uit joh, ik heb het apologist excuus al klaar liggen: "you won't notice that in motion!". Uiteraard zie je onvolmaaktheden in baked lighting wél in motion, daarom is RT extreem hard nodig.


:+

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Xtr3me4me schreef op vrijdag 23 september 2022 @ 12:28:
[...]
Ik ging altijd naar Intel en puur vanwege de Single core performance in games zelf, altijd hoger lag dan die van het rode team.
We hebben het nu over GPU's :P

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

MneoreJ schreef op vrijdag 23 september 2022 @ 12:30:
[...]

Ik bedoelde specifiek RDNA3. Intel vs. AMD voor CPU is weer een heel andere discussie. :P
Oh sorry :P Ja uiteraard wacht ik op RDNA3. Je wilt het best bang for value, alleen AMD is niet al te sterk in RT en sorry ik vind het zelf erg veel toevoegen op me games en helemaal met HDR on in een OLED scherm.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Werelds schreef op vrijdag 23 september 2022 @ 10:41:
[...]

Jawel:


[...]


:+

En blijkbaar klopt die 96 MB L2$ dus ook, weer volgens Ryan. Geometry zit dan 100% bij de rest van het rekenspul.

Lijkt er op dat de HP cellen van N5/N4 dus een stuk compacter zijn in verhouding tot hun HD tegenhangers dan voorheen het geval was. Zou ook wel eens heel goed uit kunnen pakken voor AMD, maar dat is iets voor het andere draadje.


[...]

Mja, maar het is ook gewoon een heel lui ontwerp. Even los van efficiëntie qua stroomverbruik, is deze chip, net als GA10x, gewoon bar slecht qua transistor efficiëntie. Je zit nog steeds met de helft van de FP32 ALU's die slechts een deel van de tijd iets kunnen doen. De grotere L2 verandert daar niets aan.

Blijkbaar is het alsnog kosteneffectiever om er gewoon transistors tegenaan te gooien en op te schalen naar het tensor niveau dat ze willen hebben, dan daadwerkelijk een betere architectuur te ontwerpen. Want dat lijkt het enige doel geweest te zijn, de tensor cores. Ze hadden niet zomaar meer van die krengen in een SM kunnen stoppen, want dan had de aansturing ook moeten veranderen. Ze kunnen nú al slechts 1 FP óf 1 INT óf 1 RT óf 1 Tensor instructie per clock uitdelen, een tweede tensor core had dus niets uit gemaakt.

Ik ben nog steeds niet onder de indruk van deze krengen. Ook denk ik nog steeds dat de raster performance écht vies tegen gaat vallen. RT performance zonder DLSS zal wel aardig worden en eindelijk op een niveau komen waar ik het nuttig acht. Gevaar daarvan is echter dat we meer Metro-achtige gevallen krijgen, waar "RT ON/OFF" eigenlijk iets anders betekent: "LIGHTING ON/OFF". Even 25 jaar terug in de tijd, waarom niet.
Helemaal mee eens. Zo te zien zijn Nvidia ingenieurs vooral goed in meer van hetzelfde, en volproppen.

Hey kijk, de auto van een Nvidia ingenieur:
Afbeeldingslocatie: https://www.storiesofjade.nl/wp-content/uploads/2015/07/overladen-300x199.jpg

Dit zal de ideale kans worden voor RDNA3, behalve dan dat het economisch wereldwijd tegen zit.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 30-06 18:05
Xtr3me4me schreef op vrijdag 23 september 2022 @ 12:32:
Oh sorry :P Ja uiteraard wacht ik op RDNA3. Je wilt het best bang for value, alleen AMD is niet al te sterk in RT en sorry ik vind het zelf erg veel toevoegen op me games en helemaal met HDR on in een OLED scherm.
Ja maar dat is het mooie, je weet nog niet wat RDNA3 gaat doen met RT. RDNA2 was nog niet bepaald het beste dat AMD kon doen op dat vlak. Dikke kans dat NV de voorsprong blijft houden overigens, dat wel, maar dan is de vraag tegen welke prijs (zowel in euro's als vermogen).

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op vrijdag 23 september 2022 @ 09:46:
[...]


offtopic:
Ligt eraan hoe je nationale compensatieplan voor de energierekening eruit ziet. Als je vooral moet besparen op gas en minder op elektriciteit, tja dan is de RTX4090 een gat in de markt. :P



Maar dus toch circa 380mm en 300mm met de verwachte L2 cache sizes. Die geruchten kloppen dan ook. :)
offtopic:
Nou ja, stroom wordt nog steeds gesubsidieerd, en voor mijn studeerkamer zou een RTX 4090 ideaal zijn in de winter, dan kan de verwarming op de eerste verdieping uit. :P Ik verdien die 4090 net zo snel terug als een miner de 3090!

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Help!!!! schreef op vrijdag 23 september 2022 @ 10:57:
De GA102 ~:
Die Size: 628mm2
Transistors: 28 Billion

De AD102~:
Die Size: 608mm2
Transistors: 76 Billion

Dan is Moore toch niet dood :?
Nou... Als de chip-prijs en de ook het energieverbruik totaal de pan uit rijzen dan heb ik nog wel twijfels over dat Moore nog leeft.

Ik denk dat 450watt piek warmte generatie eigenlijk niet meer praktisch is voor mensen zoals ik. Zeker als je bedenkt dat CPU's (Intel 13de generatie doet piek 250-300 watt makkelijk) en bijv NVME's steeds meer hitte uitstoten. Mijn huis is heel goed geïsoleerd, niet meer gamen in de zomer??? 8)7

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Ludewig schreef op vrijdag 23 september 2022 @ 12:28:
Ik zou in elk geval zowel de reviews als de presentatie van RDNA3 afwachten. Er is nog zoveel onzeker op dit moment. Het zou me bijvoorbeeld zeker niet verbazen als DLSS 3 erg tegen gaat vallen en 120 Hz met DLSS 3 meer aanvoelt als 60 Hz. En misschien zijn de artifacts ook heel erg.
Mij bekruipt ook een beetje het gevoel dat we deze generatie een Quality vs Quantity match krijgen.
Met AMD krijg je mooie frames die allemaal kloppen, maar zal er per saldo wel fors minder krijgen (mogelijk).
Met Nvidia krijg je meer frames dan je misschien ooit nodig zal hebben, maar de kans dat het een poppenkast word is groot.
Dat maakt het als consument echt niet makkelijker. ;w

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 23 september 2022 @ 12:31:
Maakt niet uit joh, ik heb het apologist excuus al klaar liggen: "you won't notice that in motion!". Uiteraard zie je onvolmaaktheden in baked lighting wél in motion, daarom is RT extreem hard nodig.
:+
Je weet toch dat nadat mensen €2000 hebben betaald voor een nieuwe videokaart, ze er alles aan zullen doen om zichzelf te overtuigen dat ze de juiste keuze hebben gemaakt? :+

Dat is uiteindelijk ook het probleem. Je betaalt een flink bedrag voor een luxeproduct en vervolgens probeer je deze aanschaf voor jezelf te rechtvaardigen. Nvidia hun marketing is hierop gebaseerd. Daarom vind ik wat er nu gebeurd ook zo opvallend en interessant. Bijna niemand lijkt het nog te accepteren. Alleen die Q&A al waar Nvidia nogmaals probeerde om duidelijk te maken hoe geweldig het voor gaming gaat zijn. Het is damage control en sinds wanneer moet Nvidia dit doen?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Bij die DLSS 3 Quality maakt de 4090 er dus extra frames bij, "gratis" waar je niet op kunt reageren in-game via je CPU: die frames bestaan immers niet voor de CPU. Dat is nog los van de artefacten in die extra frame. En als je nou al die frames op 1707x960 (niet 1440p want nog steeds upscaling) meetelt en deelt door het lagere stroomverbruik (de GPU hoeft veel minder te doen bij 960p), ja dan krijg je een "bizar goede" performance/Watt. LOL.

Als Nvidia nou betere performance/Watt uit hun architectuur / hardware design had gehaald, maar nee. Ze houden het bij software truckjes. Met verlies van visuele kwaliteit en speelbaarheid tot gevolg (vooral bij First-Person Shooters). DLSS 3 zuigt en ik denk dat bijna niemand het gaat gebruiken. Misschien voor MS Flight Simulator...

[ Voor 4% gewijzigd door sunsmountain op 23-09-2022 12:59 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 10:01
sunsmountain schreef op vrijdag 23 september 2022 @ 12:59:
[...]


Bij die DLSS 3 Quality maakt de 4090 er dus extra frames bij, "gratis" waar je niet op kunt reageren in-game via je CPU: die frames bestaan immers niet voor de CPU. Dat is nog los van de artefacten in die extra frame. En als je nou al die frames op 1707x960 (niet 1440p want nog steeds upscaling) meetelt en deelt door het lagere stroomverbruik (de GPU hoeft veel minder te doen bij 960p), ja dan krijg je een "bizar goede" performance/Watt. LOL.

Als Nvidia nou betere performance/Watt uit hun architectuur / hardware design had gehaald, maar nee. Ze houden het bij software truckjes. Met verlies van visuele kwaliteit en speelbaarheid tot gevolg (vooral bij First-Person Shooters). DLSS 3 zuigt en ik denk dat bijna niemand het gaat gebruiken. Misschien voor MS Flight Simulator...
Je geeft aan dat er geen betere performance/watt is. In die tabel hierboven zien we wat anders toch, met dlss disabled?

Overigens is de 3090 ti een erg inefficiente kaart. Maar als de 3090 rond de 0.09 komt in de tabel, is het toch 40% verbetering, zonder trucjes.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op vrijdag 23 september 2022 @ 12:31:
Jawel, want GA102 was gebakken op een ouder procedé, bij een andere fab. Je kunt beter naar de cijfers van de fabs zelf kijken, of bijvoorbeeld Apple. We zitten al een tijdje onder de 2x en er werd 10 jaar geleden al voorspeld dat het rond de 5-3nm erg lastig zou worden. N7 was al een stukje minder vooruitgang dan N10 en N5 is wéér minder.
Het wordt een beetje semantisch. Als de wet niet 100% gehaald wordt maar bijv. 80% is die wet dan dood? Je kan stellen dat hij niet meer geldt want er wordt niet aan voldaan en dus dood is. Echter wmb gaat hij dan hooguit iets minder op. Het is maar net hoe je er naar wilt kijken.

Hetzelfde geldt voor die fab vergelijking. Ja op die manier wordt het niet 100% gehaald maar volgensmij heeft Moore nooit gezegd / bedoeld dat dit binnen dezelfde fab of binnen hetzelfde procede gezien moet worden.

Volgens de data uit mijn post is voor het product GPU het aantal tranistors per mm2 ruim verdubbeld in twee jaar tijd. Onder de streep lijkt mij de boodschap van Jensen dan onjuist.

Dat er ook een kosten kant is, is bekend maar gestegen productie kosten betekent niet dat Moore's first law al dood is.
Blijkbaar vind nvidia/tsmc het nog steeds aantrekkelijk genoeg om de benodigde capex er in te steken. Daarnaast kan er nog heel wat af van die Brutomarge bij o.a. nvidia alvorens ze daar de stekker er uit gaan trekken.

Want uiteindelijk is dat waar het om gaat. nvidia wil niet dat hun zéér riante BM van ~62% aangetast wordt.
Ik heb daar dan weer niet zo'n probleem mee want 'ik' moet die BM betalen 8)

[ Voor 5% gewijzigd door Help!!!! op 23-09-2022 13:24 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op vrijdag 23 september 2022 @ 12:21:
Ik kwam dit net tegen. Dit is een afbeelding vanuit die Digital Foundry teaser waarbij alle artefacts omcirkeld zijn.

Dat zijn op zijn zachts gezegd nogal wat artefacts...
[Afbeelding]
Ik had persoonlijk niet verwacht dat het zo erg zou zijn :/.
Ze introduceren een cpu limiet (door de lagere resolutie) waardoor die 4090 in feite uit zijn neus staat te vreten. Nogal logisch dat hij dan minder gebruikt :+.

Op 1440p geeft DLSS 2-3 op quality de volgende resolutie:
Quality: 1707x960p

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 23 september 2022 @ 13:32:
[...]

Ik had persoonlijk niet verwacht dat het zo erg zou zijn :/.
Ik ergens wel. Als je het opzoekt dan lijkt deze afbeelding waarschijnlijk net een AI geregenereerd frame te pakken te hebben in een stuk met veel beweging. Dat trekt DLSS3.0 dus niet en dat was te verwachten. In bewegende beelden is het minder makkelijk zichtbaar.

Dus we gaan inderdaad ook heel wat excuses krijgen dat je het toch niet ziet en kijk eens hoeveel fps extra. Ironisch genoeg gaat dat vooral komen van mensen die FSR1.0 compleet de grond in hebben geboord omdat het niet zo goed was als DLSS2.0. Onacceptabel verlies in scherpte van je frames etc. :+ :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +6 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op vrijdag 23 september 2022 @ 13:38:
[...]


Ik ergens wel. Als je het opzoekt dan lijkt deze afbeelding waarschijnlijk net een AI geregenereerd frame te pakken te hebben in een stuk met veel beweging. Dat trekt DLSS3.0 dus niet en dat was te verwachten. In bewegende beelden is het minder makkelijk zichtbaar.

Dus we gaan inderdaad ook heel wat excuses krijgen dat je het toch niet ziet en kijk eens hoeveel fps extra. Ironisch genoeg gaat dat vooral komen van mensen die FSR1.0 compleet de grond in hebben geboord omdat het niet zo goed was als DLSS2.0. Onacceptabel verlies in scherpte van je frames etc. :+ :z
Ben heel benieuwd wat de uiteindelijk niet betaalde DF analyse is en of ze de artifacts niet zien of dat ze er overheen kijken of met het argument komen dat je het niet ziet in beweging :+.

Oh en ik kan deze niet laten liggen:
Afbeeldingslocatie: https://tweakers.net/i/yu112Qhft-THWfG7CXfB6QPG9BE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/jbUX5OD2PK24qHUyPgbFMwUA.png?f=user_large

[ Voor 11% gewijzigd door Sp3ci3s8472 op 24-09-2022 15:53 . Reden: typo ]


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
t0mmiiiii schreef op vrijdag 23 september 2022 @ 13:14:
[...]


Je geeft aan dat er geen betere performance/watt is. In die tabel hierboven zien we wat anders toch, met dlss disabled?

Overigens is de 3090 ti een erg inefficiente kaart. Maar als de 3090 rond de 0.09 komt in de tabel, is het toch 40% verbetering, zonder trucjes.
Voor native resolution gaat de efficiëntie qua performance/Watt van 0,079 naar 0,135, correct. Dat is +71%, wat voornamelijk voortkomt uit de nieuwe "4N" TSMC node ipv 8nm Samsung, en "volproppen".
128 SMs vs 84 SMs (+52%)
2,52 GHz vs 1860 MHz (+35,5%)
Bij elkaar zou dat +105% performance moeten geven, dus dan valt 71% nog steeds een beetje tegen. En Nvidia vergelijkt inderdaad een relatief overgeclockte 3090 Ti met een relatief normaal geclockte 4090, wat best wel veel verschil maakt qua stroomverbruik. Ja logisch dat perf/Watt dan beter wordt...

Doe de vergelijking nog een keer met de 3090, de 3080, of wacht totdat de 4090 Ti uit komt met 144 SMs. En je krijgt teleurstellende resultaten.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 07:02
DaniëlWW2 schreef op vrijdag 23 september 2022 @ 13:38:
[...]


Ik ergens wel. Als je het opzoekt dan lijkt deze afbeelding waarschijnlijk net een AI geregenereerd frame te pakken te hebben in een stuk met veel beweging. Dat trekt DLSS3.0 dus niet en dat was te verwachten. In bewegende beelden is het minder makkelijk zichtbaar.

Dus we gaan inderdaad ook heel wat excuses krijgen dat je het toch niet ziet en kijk eens hoeveel fps extra. Ironisch genoeg gaat dat vooral komen van mensen die FSR1.0 compleet de grond in hebben geboord omdat het niet zo goed was als DLSS2.0. Onacceptabel verlies in scherpte van je frames etc. :+ :z
Wat een aannames en vooroordelen staan er in dit stukje.

De tekenen zijn niet erg goed, maar dat is allemaal nog op niet concrete zaken gebaseerd. Echte testen moeten nog komen.

*knip* op de man, daarvoor zijn topicreports.

Laten we het bij de feiten houden en als er gespeculeerd wordt, niet als (halve) feiten stellen. Gewoon objectief benaderen.

Enige feit is, dat de prijzen objectief hoog zijn in vergelijking met de vorige generaties. Mijn mening hierin is dat dit voor mij veel te hoog is om over na te denken.
Andere feit is, als het verkoopt, dan zijn de prijzen markt conform, want het wordt ervoor betaald.
Het geklaag daarover doet niemand goed, want het verandert niets aan de situatie. Dan is het blijkbaar niet meer voor ons weggelegd om een top GPU te kopen.
Zou ik daar van balen? Ja, maar klagen hierover is niet alleen nutteloos, ook onvolwassen.

Nog een objectief punt, er wordt vanuit Nvidia veel ingezet op DLSS en weinig op echte FPS.
Minder objectief statement vanuit mij, dat lijkt mij niet veel goeds voorspellen. We gaan de reviews met bijbehorende benches hierin afwachten, want dan kunnen we er echt een mening over vormen.

[ Voor 8% gewijzigd door br00ky op 23-09-2022 15:15 ]

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DaniëlWW2 schreef op vrijdag 23 september 2022 @ 12:21:
Ik kwam dit net tegen. Dit is een afbeelding vanuit die Digital Foundry teaser waarbij alle artefacts omcirkeld zijn.

Dat zijn op zijn zachts gezegd nogal wat artefacts...
[Afbeelding]
Oef. Leuke technologie hoor, maar met dit soort artefacten doe je meer af aan de grafische pracht en praal dan met het verlagen van de instellingen is mijn bescheiden mening.

Nou we gaan het zien. Ben ook heel benieuwd wat er met de prijzen gaat gebeuren, ook bij AMD. Heb enerzijds het idee dat er echt wel weer lui zijn die zullen gaan scalpen, anderzijds lijkt het me bijna uitgesloten dat een weldenkend mens meer dan de MSRP gaat dokken.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Koldur schreef op vrijdag 23 september 2022 @ 14:04:
[...]


Wat een aannames en vooroordelen staan er in dit stukje.

De tekenen zijn niet erg goed, maar dat is allemaal nog op niet concrete zaken gebaseerd. Echte testen moeten nog komen.

Het laatste stuk is wel erg generaliserend en opruiend. Had ik niet van een mod hier verwacht, maar je doet het meermaals in dit topic.
In het licht van een prettigere community wat laatst verkondigd werd, is dit wel een vreemde reactie.
Jij bent niet de enige die zich hier schuldig aan maakt, maar als mod vind ik wel dat je hier een voorbeeldrol in hebt.
Niet aan mij of jou om mods te beoordelen, maar Daniel is niet de enige die speculeert in het licht van nieuws. Of dat mag of niet in de mod rules of de regels van dit forum weet ik niet, interesseert mij ook niet, eerlijk gezegd. Ik vind het vermakelijk om speculaties of meningen te lezen, en ik weet van Daniel dat hij als geschiedkundige graag een boekje open doet en niet alles hard onderbouwt.

We moeten wel wat meer on topic blijven, dus nieuws + speculatie + mening over Nvidia 4xxx videokaarten, niet AMD CPUs (ook al is AMD een relevante concurrent).
Koldur schreef op vrijdag 23 september 2022 @ 14:04:
[...]

Laten we het bij de feiten houden en als er gespeculeerd wordt, niet als (halve) feiten stellen. Gewoon objectief benaderen.

Enige feit is, dat de prijzen objectief hoog zijn in vergelijking met de vorige generaties. Mijn mening hierin is dat dit voor mij veel te hoog is om over na te denken.
Andere feit is, als het verkoopt, dan zijn de prijzen markt conform, want het wordt ervoor betaald.
Het geklaag daarover doet niemand goed, want het verandert niets aan de situatie. Dan is het blijkbaar niet meer voor ons weggelegd om een top GPU te kopen.
Voor iemand bij de feiten wil blijven, vind ik deze uitspraak wel vrij dramatisch: het klinkt mij in de oren als "[oh jee] het is niet meer voor ons [gewone kleine gamers] weggelegd" om een top GPU te kopen. Natuurlijk wel, al maken ze er 3000 EUR van, we gaan toch ook op vakantie voor meer dan dat? Of dat een verstandige keuze is, nee, maar als je Daniel aanvalt op tendentieuze uitspraken, doe ze zelf dan ook niet.
Koldur schreef op vrijdag 23 september 2022 @ 14:04:
[...]
Zou ik daar van balen? Ja, maar klagen hierover is niet alleen nutteloos, ook onvolwassen.
En dit is het in de hoek zetten van forum gebruikers als kinderen, alleen maar omdat ze terecht klagen over hoge prijzen.

Ik zie dat je al jaren lid bent van tweakers en het forum, en ik weet niet of Daniel laatst bij de Moam (jaarlijkse mod meeting) geweest is, maar misschien kan je je grieven beter tijdens een dergelijk event bespreken.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes

Pagina: 1 ... 115 ... 135 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.