• biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Werelds schreef op vrijdag 14 augustus 2020 @ 10:25:
[...]

Jij weet meer dan de rest van ons? ;)

Dit wordt bij elke generatie geroepen en de laatste jaren klopt er geen reet van.


[...]

Het is niet eens 5%.


[...]

Welke geruchten? Heeft ook niets met de CPU te maken.
Nee, gewoon het nieuws rondom de nieuwe GPU's volgen? Ampère gaat een flinke verbetering zijn ten opzichte van Turing. Gezien er al Ampère kaarten uit zijn in de zakelijk markt kun je daar dus al genoeg van afleiden.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
biggydeen2 schreef op vrijdag 14 augustus 2020 @ 14:07:
Nee, gewoon het nieuws rondom de nieuwe GPU's volgen? Ampère gaat een flinke verbetering zijn ten opzichte van Turing. Gezien er al Ampère kaarten uit zijn in de zakelijk markt kun je daar dus al genoeg van afleiden.
Welk "nieuws"? Het zijn allemaal geruchten en tot dusver zijn die geruchten niet bepaald schokkend of zelfs bijzonder hoopvol. Volgens de meest recente leaks zou het gaan om 13% meer shaders. Zelfs met de beste wil in de wereld gaat dat niet schokkend zijn, tenzij de kloksnelheden 50% hoger liggen. De meeste leaks van PCB's zijn ook met een overdaad qua stroomvoorziening, dus het ziet er ook niet naar uit dat het ding extreem veel efficiënter wordt. 2160p60 is nu al te doen in veel games; op basis van de leaks lijkt het er echter niet op dat 2160p120 ineens binnen bereik komt. Of dat er aan ligt dat de leaks niet kloppen of dat ze wel kloppen en de nieuwe chips vooralsnog niet indrukwekkend lijken te zijn laat ik in het midden ;)

En die "zakelijke" Ampère producten kun je helemaal niets uit afleiden. Die zijn op alle vlakken anders: geheugen, indeling van de chip en vooral ook kloksnelheden. Maar als we daar dan toch naar willen kijken, dan zijn alles leaks hartstikke fout. Want A100 heeft maar liefst 6912 shaders. Dan komen die 5248 in de leaks niet eens in de buurt. Het is dan ook geen "zakelijk" product; het is specifiek voor de HPC markt. Zakelijk impliceert dat het ook nuttig is voor dezelfde doelgroep als workstations, maar dat is niet zo. Deze dingen hebben slechts één doel en dat is compute. Daarom zitten er ook geen display outputs op ;)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RobinNL schreef op vrijdag 14 augustus 2020 @ 13:54:
NVIDIA GeForce RTX 3090 gets 21Gbps GDDR6X memory
Micron heeft bevestigd dat het werkt aan GDDR6X geheugen in samenwerking met Nvidia voor de Ampere videokaarten.


[...]


[...]


The new information would therefore confirm:
- Next-generation GeForce RTX series are codenamed “30”
- The flagship model is indeed called GeForce RTX 3090
- NVIDIA GeForce RTX series will have GDDR6X memory
- RTX 3090 would sport 21 Gbps memory modules with bandwidth up to 1 TB/s

[Afbeelding]
Als dit klopt, dan hebben we eindelijk eens iets dat merkbaar positief zou zijn. Een paar honderd GB/s aan geheugenbandbreedte extra zou simpelweg een impact moeten hebben op de chips. De vraag blijft alleen clocks, node, ALU's en architectuur. Is het werkelijk maar 5375 ALU's voor GA-102, dan is dat niet indrukwekkend veel over TU-102. Het gaat dan waarschijnlijk om clock speeds voor de serieuze prestatieverbeteringen en daar is natuurlijk de vraag of het TSMC 7nm of Samsung 8nm gaat zijn. Je mag er gerust vanuit gaan dan TSMC 7nm beter is.

Ik vind het alleen wel opvallend dat het GDDR6X zou zijn. Ik volg dit hieronder losjes en met enige scepsis de afgelopen maanden. Ergens koester ik namelijk een zekere mate van wantrouwen, het gevoel dat er iets niet klopt wat ik maar niet kan afschudden, maar ik begin te vermoeden dat het echt wel eens kan kloppen.


Ik ga hier alleen in op Nvidia, maar AMD en Intel zitten er ook tussen.

Immers heeft hij het steeds over zaken zoals GDDR6X, 7nm vs. 8nm, die 5376 ALU's en nu (7:37) ook NVCache wat mij uiteraard het meest interesseert omdat dit zowel DDR als je SSD zou kunnen aanspreken voor snellere laadtijden en VRAM gebruik. Waarschijnlijk alleen voor Quadro en Titan, maar toch. Prestaties zouden ook afhangen van de node, met als het 7nm is, 45-60% sneller dan RTX2080ti.

Weet je, ik hoop dat laatste ook zo is. Dat zou in een keer een einde maken aan de luie mentaliteit dan 20 a 30% elke twee jaar afdoende is. Dat is het niet, zeker niet als de prijzen elke generatie ook nog eens omhoog gaan en het is onderbelicht, maar de gemiddelde kwaliteit van GeForce partnerkaarten is ook aan het zakken, generatie op generatie.

Zulke stappen zetten zou meteen ook een einde maken aan het idee dat ze niet beter kunnen en het gaat lastig worden om maar een langzame iteratie na iteratie uit te voeren als mensen weer een verwachtingspatroon ontwikkelen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Anand heeft er ook een redelijk uitgebreid artikel over:

Micron Spills on GDDR6X: PAM4 Signaling For Higher Rates, Coming to NVIDIA’s RTX 3090

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Werelds schreef op vrijdag 14 augustus 2020 @ 14:40:
[...]

Welk "nieuws"? Het zijn allemaal geruchten en tot dusver zijn die geruchten niet bepaald schokkend of zelfs bijzonder hoopvol. Volgens de meest recente leaks zou het gaan om 13% meer shaders. Zelfs met de beste wil in de wereld gaat dat niet schokkend zijn, tenzij de kloksnelheden 50% hoger liggen. De meeste leaks van PCB's zijn ook met een overdaad qua stroomvoorziening, dus het ziet er ook niet naar uit dat het ding extreem veel efficiënter wordt. 2160p60 is nu al te doen in veel games; op basis van de leaks lijkt het er echter niet op dat 2160p120 ineens binnen bereik komt. Of dat er aan ligt dat de leaks niet kloppen of dat ze wel kloppen en de nieuwe chips vooralsnog niet indrukwekkend lijken te zijn laat ik in het midden ;)

En die "zakelijke" Ampère producten kun je helemaal niets uit afleiden. Die zijn op alle vlakken anders: geheugen, indeling van de chip en vooral ook kloksnelheden. Maar als we daar dan toch naar willen kijken, dan zijn alles leaks hartstikke fout. Want A100 heeft maar liefst 6912 shaders. Dan komen die 5248 in de leaks niet eens in de buurt. Het is dan ook geen "zakelijk" product; het is specifiek voor de HPC markt. Zakelijk impliceert dat het ook nuttig is voor dezelfde doelgroep als workstations, maar dat is niet zo. Deze dingen hebben slechts één doel en dat is compute. Daarom zitten er ook geen display outputs op ;)
De geruchten tot dusver zijn dat de RTX3090 rond de 50% sneller zal zijn dan de 2080TI. Dat noem ik toch vrij hoopvol gezien de 2080Ti nog steeds een beest is. Qua efficiëntie en stroom gebruik zal het wellicht iets minder zijn relatief gezien, gezien ze de naar vermoeden 8nm van Samsung moeten gebruiken ipv de 7nm van TSMC. Dus hogere clocks nodig hebben ten opzichte van Big Navi omdat deze wel op 7nm zit.

Uiteraard zegt de performance van de zakelijke kaarten niks maar als je de zakelijke kaarten onderling vergelijkt is de A100 43% sneller dan de Turing variant. Dat is dus in lijn met de 40-50% performance geruchten ten opzichte van een 2080TI.

2160p 60fps is te doen maar met pijn en moeite. En daarvoor heb je een 1200 euro kostende 2080ti voor nodig. Ik verwacht dat de RTX3000 serie toch echt een stuk sneller en goedkoper zal zijn. Maar goed, het blijven geruchten. Nog even wachten en we weten het. Ik verwacht niks minder dan 40-50% performance over de 2080TI in ieder geval.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
biggydeen2 schreef op vrijdag 14 augustus 2020 @ 19:24:
[...]


De geruchten tot dusver zijn dat de RTX3090 rond de 50% sneller zal zijn dan de 2080TI. Dat noem ik toch vrij hoopvol gezien de 2080Ti nog steeds een beest is.
Die 50% die je regelmatig ziet voorbij komen gaat over de raytracing performance.

March of the Eagles


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
XWB schreef op vrijdag 14 augustus 2020 @ 19:38:
[...]


Die 50% die je regelmatig ziet voorbij komen gaat over de raytracing performance.
Het lijkt me sterk dat de nieuwe generatie maar 50% meer RT performance zou hebben. Dit is gebaseerd op een TimeSpy gaming benchmark. Niet echt realistisch voor echte games maar zegt wel iets over de performance mocht het waar zijn.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 14 augustus 2020 @ 19:38:
[...]


Die 50% die je regelmatig ziet voorbij komen gaat over de raytracing performance.
Ik mag toch hopen van niet zeg. Als het 50% voor RT is en minder voor shaders, tja wat voor goeds moeten we daar precies van vinden? Is RT nu iets minder waardeloos omdat het je framerate niet meer door de helft hakt voor wat simpele effecten die overdreven worden omdat de meeste RTX games, fatsoenlijke shader based lichteffecten missen. :z

Als er iets is dat Ampère echt moet verbeteren, dan is het RT. Je kan niet twee jaar lang maar RT lopen marketen als de reden waarom je een Nvidia moet kopen en dan nauwelijks vooruitgang boeken.
Als Anandtech er moeite aan gaat besteden, dan zit het er waarschijnlijk wel aan te komen. In ieder geval dus iets nieuws. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
biggydeen2 schreef op vrijdag 14 augustus 2020 @ 19:24:
Uiteraard zegt de performance van de zakelijke kaarten niks maar als je de zakelijke kaarten onderling vergelijkt is de A100 43% sneller dan de Turing variant. Dat is dus in lijn met de 40-50% performance geruchten ten opzichte van een 2080TI.
Er is geen "Turing variant" van dezelfde reeks waar A100 onder valt. TU102 is de grootste chip en die is gewoon op rendering gericht. A100 is enkel verkrijgbaar in DGX, waar je dus meteen 8 stuks krijgt voor het zachte prijsje van $199k. Er is geen Tesla of Quadro variant van Ampere waar mee te vergelijken valt.

Als je het over Tesla Turing hebt, dan is zelfs 50% niet genoeg want de Tesla T4 is gebaseerd op de TU104, de chip van de 2070S/2080/2080S.

En als je het over Quadro RTX hebt dan kan die 43% ook nooit kloppen aangezien zelfs de rauwe rekenkracht van A100 nog geen 20% hoger ligt dan die van een Quadro 8000.

Die 43% baseer jij op een OctaneBench resultaat van begin dit jaar. Dat percentage klopte sowieso al niet, want dat was naar de median van TU102 gerekend, die flink omlaag is getrokken door slechte resultaten. Het was eerder zo'n 30% met een normaal draaiende TU102. Maar zelfs die 43% zou niet indrukwekkend zijn omdat A100 over de 400W kan trekken. En als je het dan vergelijkt met V100 (dat is dus Pascal + Tensor cores uit 2017) dan was die score slechts zo'n 25% hoger. En dat komt bijna 100% overeen met de rauwe rekenkracht. Maar dan wel met een TDP dat 33% hoger ligt.

Ik raad je aan sites als WCCFtech met een zakje zout te nemen, want die nuanceren helemaal niets. Dat zijn clickbait titels waar je echt 0,0 waarde aan moet hechten. Duik zelf eens in de cijfers. Nogmaals, niets van wat er "gelekt" is of wat er beschikbaar is aan bench resultaten duidt tot nu toe op de cijfers die jij lijkt te verwachten.

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Werelds schreef op vrijdag 14 augustus 2020 @ 22:46:
[...]

Er is geen "Turing variant" van dezelfde reeks waar A100 onder valt. TU102 is de grootste chip en die is gewoon op rendering gericht. A100 is enkel verkrijgbaar in DGX, waar je dus meteen 8 stuks krijgt voor het zachte prijsje van $199k. Er is geen Tesla of Quadro variant van Ampere waar mee te vergelijken valt.

Als je het over Tesla Turing hebt, dan is zelfs 50% niet genoeg want de Tesla T4 is gebaseerd op de TU104, de chip van de 2070S/2080/2080S.

En als je het over Quadro RTX hebt dan kan die 43% ook nooit kloppen aangezien zelfs de rauwe rekenkracht van A100 nog geen 20% hoger ligt dan die van een Quadro 8000.

Die 43% baseer jij op een OctaneBench resultaat van begin dit jaar. Dat percentage klopte sowieso al niet, want dat was naar de median van TU102 gerekend, die flink omlaag is getrokken door slechte resultaten. Het was eerder zo'n 30% met een normaal draaiende TU102. Maar zelfs die 43% zou niet indrukwekkend zijn omdat A100 over de 400W kan trekken. En als je het dan vergelijkt met V100 (dat is dus Pascal + Tensor cores uit 2017) dan was die score slechts zo'n 25% hoger. En dat komt bijna 100% overeen met de rauwe rekenkracht. Maar dan wel met een TDP dat 33% hoger ligt.
Ik bedoel inderdaad de V100 vs A100. Maar gezien dat verschillende architecturen zijn ten opzichte van RTX kaarten valt daar niet zoveel uit te halen.

Ik verwacht zeker wel meer dan 25% van 12nm vs 8nm/7nm + een verbeterde architectuur en naar verluidhogere TDP.

En wat betreft leaks heb je zeker gelijk. Het blijft gissen maar vorig jaar zijn er zeker dingen geleaked die ook waar bleken te zijn. In dat opzicht kunnen we maar beter wachten tot eind dit jaar totdat zowel Big Navi, beide consoles en RTX3000 verkrijgbaar zijn en alles naast elkaar te gooien.

Mocht de RTX3000 top model maar 25% sneller zijn dan de 2080ti heeft Nvidia wel echt een probleem. Aan de andere kant is DLSS 2.0 en DLSS 3.0 wel echt veel belovend. Als deze technieken nog flink verbeterd worden heb je geen native 4k meer nodig. Precies hetzelfde als Faux 4k vs native 4k beamers.

[ Voor 3% gewijzigd door biggydeen2 op 15-08-2020 10:27 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Rogame, dus met iets minder zout dan normaal te nemen. ;)

RTX3090


GA-102 zonder naam (vermoed zelf RTX3080)


Nee, dit is niet indrukwekkend, verre van. Waarschijnlijk boosten de videokaarten wederom ver boven de geadverteerde boost clocks, maar het zijn geen ruime marges die vertrouwen doen wekken. Op deze manier gaat het om forse architectuur verbeteringen, toch een veel grotere chip dan eentje met 5376 ALU's en veel sneller geheugen voor de echte winst.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
biggydeen2 schreef op zaterdag 15 augustus 2020 @ 09:09:
[...]


Ik bedoel inderdaad de V100 vs A100. Maar gezien dat verschillende architecturen zijn ten opzichte van RTX kaarten valt daar niet zoveel uit te halen.

Ik verwacht zeker wel meer dan 25% van 12nm vs 8nm/7nm + een verbeterde architectuur en naar verluidhogere TDP.

En wat betreft leaks heb je zeker gelijk. Het blijft gissen maar vorig jaar zijn er zeker dingen geleaked die ook waar bleken te zijn. In dat opzicht kunnen we maar beter wachten tot eind dit jaar totdat zowel Big Navi, beide consoles en RTX3000 verkrijgbaar zijn en alles naast elkaar te gooien.

Mocht de RTX3000 top model maar 25% sneller zijn dan de 2080ti heeft Nvidia wel echt een probleem. Aan de andere kant is DLSS 2.0 en DLSS 3.0 wel echt veel belovend. Als deze technieken nog flink verbeterd worden heb je geen native 4k meer nodig. Precies hetzelfde als Faux 4k vs native 4k beamers.
Waarom zou dat een probleem zijn voor Nvidia? Met een 25% boost zitten ze waarschijnlijk alsnog (ruim) boven AMD met het topmodel. En behalve de hele kleine groep voor wie geld geen bezwaar is, gaat het bij de meeste om prijs/performance. Als de 3080TI/3090 'maar' 25% sneller is dan de 2080TI, maar doordat ze op een goedkoop Samsung proces zitten voor €800 wordt aangeboden, denk ik dat heel veel mensen heel blij zijn, en Nvidia hele goede verkopen doet. Of wat waarschijnlijker is, hij wordt voor €1200 aangeboden, mensen kopen hem alsnog, en de Nvidia aandeelhouders zijn heel erg blij :+

Maar de TL;DR is dat performance op zichzelf absoluut niks zegt voor de consument, en dus het succes van de 30XX lijn. Het gaat om prijs/performance. Dat Nvidia voor een Samsung proces is gegaan zal niet zijn omdat die superieure performance haalt tov TSMC. Dus lijkt het mij niet heel vergezocht dat ze een aantrekkelijke aanbieding hebben gehad (vooral gezien het probleem van Samsung om klanten voor hun Foundry business te vinden, en toch de wens van ze om een serieuze concurrent van TSMC te worden).

[ Voor 13% gewijzigd door Sissors op 15-08-2020 13:06 ]


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Sissors schreef op zaterdag 15 augustus 2020 @ 13:04:
[...]

Waarom zou dat een probleem zijn voor Nvidia? Met een 25% boost zitten ze waarschijnlijk alsnog (ruim) boven AMD met het topmodel. En behalve de hele kleine groep voor wie geld geen bezwaar is, gaat het bij de meeste om prijs/performance. Als de 3080TI/3090 'maar' 25% sneller is dan de 2080TI, maar doordat ze op een goedkoop Samsung proces zitten voor €800 wordt aangeboden, denk ik dat heel veel mensen heel blij zijn, en Nvidia hele goede verkopen doet. Of wat waarschijnlijker is, hij wordt voor €1200 aangeboden, mensen kopen hem alsnog, en de Nvidia aandeelhouders zijn heel erg blij :+

Maar de TL;DR is dat performance op zichzelf absoluut niks zegt voor de consument, en dus het succes van de 30XX lijn. Het gaat om prijs/performance. Dat Nvidia voor een Samsung proces is gegaan zal niet zijn omdat die superieure performance haalt tov TSMC. Dus lijkt het mij niet heel vergezocht dat ze een aantrekkelijke aanbieding hebben gehad (vooral gezien het probleem van Samsung om klanten voor hun Foundry business te vinden, en toch de wens van ze om een serieuze concurrent van TSMC te worden).
Dat is zeker een goed punt. Ik denk dat de meeste mensen daar blij mee zullen zijn. Echter 4k60fps+ met alle toeters en bellen op ultra (in de grotere games) is nu niet of net aan mogelijk op een 2080ti. Stel het nieuwe vlaggenschip zal 25% sneller zijn is het dus wel mogelijk maar veel marge heb je ook niet. Ook al zal de kaart $800 kosten lijkt me dat niet echt een toekomstbestendige uitgave als je op 4k met alle toeters en bellen wilt spelen. Tenzij je al een 2080ti hebt en deze tweedehands kunt verkopen voor $600. Gezien er ook nieuwe consoles uitkomen gaan games er de komende jaren veel meer vragen van een pc.

Ik denk dat de markt ook een beetje gaat verschuiven langzamerhand. Je gaat geen 3000 serie kopen om op 1080p te gamen. Dus kom je direct bij 1440p en 2160p uit. Het duurdere segment. Persoonlijk hoop ik dat met een 3080 1440p 144hz met alle toeters en bellen mogelijk is. Mochten ze toch langzamer zijn dan verwacht dan ga ik niet upgraden ongeacht de prijs. Of ze moeten al heel goedkoop worden maar dat verwacht ik niet.

Wat betreft Samsung vs TSMC heb ik gelezen (geruchten) dat AMD voorrang heeft bij TSMC vanwege o.a. corona (capaciteit problemen) en dat Nvidia daardoor op de 8nm van Samsung zit. Andere geruchten zijn dat daardoor het stroomverbruik ook hoger is zodat hogere clocks mogelijk zijn. 7nm is wat dat beteft over het algemeen beter dan 8nm. Volgens mij zit de A100 ook op 7nm van TSMC.

Nvidia kennende willen ze altijd de performance crown en gaan niet zomaar op een grotere node zitten. Gezien de grote winsten die ze maken vraag ik me af of prijs een probleem is. En uiteindelijk maakt de kostprijs niet zoveel uit. Ook al zijn ze qua kostprijs veel beter uit, de eerste tijd zal er geen concurrentie zijn. Ze kunnen dus vragen wat ze willen. Ik hoop dat de prijzen mee gaan vallen met een flinke boost ten opzichte van Turing. Maar wellicht gooien ze het dit keer over een andere boeg. Ik denk wel dat als Nvidia doet wat jij schetst ze wel (veel) meer kaarten gaan verkopen.

Wat dat betreft verwacht ik toch zeker een behoorlijke boost ten opzichte van turing gezien de node verkleining naar 8nm en het veel hogere verbruik. Normaal gesproken zou een kleinere node efficienter zijn qua verbruik.

Maar goed, we zullen het eind deze maand wel zien :)

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
biggydeen2 schreef op zaterdag 15 augustus 2020 @ 14:13:
[...]

Echter 4k60fps+ met alle toeters en bellen op ultra (in de grotere games) is nu niet of net aan mogelijk op een 2080ti. Stel het nieuwe vlaggenschip zal 25% sneller zijn is het dus wel mogelijk maar veel marge heb je ook niet. Ook al zal de kaart $800 kosten lijkt me dat niet echt een toekomstbestendige uitgave als je op 4k met alle toeters en bellen wilt spelen.
But why?

Tenzij op een grote 4K TV, waarom zou je op een PC 4k willen voor games?

Ik bedoel sure als je (net als mijn partner) 2x een 32" scherm voor je neus hebt snap ik 4K in games een beetje, maar daaronder qua scherm maat wat is het voordeel in 4K gaming tegenover 1440p?

En ik vraag mij dit serieus af, ik ken iemand die recent zijn oude 4k 60 scherm heeft vervangen voor een 4k 144hz maar dat ding is 27" en in games viel het verschil mij best wel tegen (van 22" 1080p naar 1440p 27" zie ik meer verschil) en het kost wel fors wat meer rekenkracht voor dat kleine verschil (want meer pixels)

ik tel non gaming taken niet mee, 4K heeft daar absoluut nut voor omdat je onder andere meer plek hebt op je desktop

Ik denk dat 4K gewoon nog een poos op zich laat wachten, ik ken iemand die al 9 jaar op 1440p/1600p games speelt en wij hadden nog recent discussie over dat het best lang duurde voordat je "met alle toeters en bellen" 1440p 60 kon behalen met bijna alle games zonder top of the line GPU, ik denk zelf dat de komende Nvidia/AMD generatie ons wel dichterbij 4K 60 brengt, maar dat het gewoon nog niet genoeg zal zijn.

De generatie na deze zou 4K 60 misschien eerder kunnen, en dan doel ik op alles erop en eraan 4K 60 met nadruk op misschien, want in feite met de juiste settings is 4K 60 nu al prima mogelijk, want de nieuwe consoles gaan heus niet op PC settings die 4K halen, soms moet je een beetje reëel blijven.

om maar over te zwijgen dat ik vrij recent met iemand nog een discussie had waarom 8K gaming nog een lange poos niet gaat gebeuren, en dat omdat diegene in 8K op zijn Tv wil gamen...

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Sowieso omdat de details steeds fijner worden bij hogere resolutie, gaat upscalen met bijvoorbeeld DLSS ook gewoon een betere optie worden. Kleine foutjes in upscale algorithmes vallen dan toch niet zo snel op.

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
Sissors schreef op zaterdag 15 augustus 2020 @ 15:51:
Sowieso omdat de details steeds fijner worden bij hogere resolutie, gaat upscalen met bijvoorbeeld DLSS ook gewoon een betere optie worden. Kleine foutjes in upscale algorithmes vallen dan toch niet zo snel op.
Als je het op die manier bekijkt dan is dat redelijk logisch.

Misschien ben ik ouderwets, maar ik speel liever op 1440p zonder DLSS dan op 4k met (ik zou zelf pas overstappen op 4k als dat native zou werken)

Maar misschien zijn DLSS en non native resoluties de nieuwe toekomst qua PC gaming, wie weet.

[ Voor 4% gewijzigd door Mizgala28 op 15-08-2020 15:58 ]


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Mizgala28 schreef op zaterdag 15 augustus 2020 @ 15:41:

But why?

Tenzij op een grote 4K TV, waarom zou je op een PC 4k willen voor games?
1440p is voor mij prima qua gaming. Maar ik heb ook een 4k beamer aan mijn pc hangen. Alleen 4k gamen op een 2070S (zonder gsync) is gewoon geen doen. Dus voor mijn perfecte scenario hoop ik op 1440p 144hz gsync met alle toeters en bellen en 60fps op 4k met vsync.

Aan de andere kant, als ze DLSS goed doorontwikkelen is native 4k niet eens meer nodig. Ik heb nu ook een faux 4k beamer en geen native 4k. Heb zowel faux als native 4k in het echt gezien en je ziet het verschil gewoon niet (alleen van heel dichtbij wat niet realistisch is in de praktijk). Echter voor een native 4k beamer leg je wel het dubbele neer. TJa dan is de keuze snel gemaakt.

Ik heb resoluties die niet passen bij het beeldformaat nog nooit begrepen. Waarom zou je 4k op een 27inch scherm willen spelen. Net zoals 1280x1024 op een 27inch scherm dat past gewoon niet goed.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
biggydeen2 schreef op zaterdag 15 augustus 2020 @ 14:13:
[...]


Echter 4k60fps+ met alle toeters en bellen op ultra (in de grotere games) is nu niet of net aan mogelijk op een 2080ti.
Je legt de lat wel heel hoog voor jezelf ;)

March of the Eagles


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Mizgala28 schreef op zaterdag 15 augustus 2020 @ 15:57:
[...]


Als je het op die manier bekijkt dan is dat redelijk logisch.

Misschien ben ik ouderwets, maar ik speel liever op 1440p zonder DLSS dan op 4k met (ik zou zelf pas overstappen op 4k als dat native zou werken)

Maar misschien zijn DLSS en non native resoluties de nieuwe toekomst qua PC gaming, wie weet.
Dat is ook mijn eerste idee hoor, en ik heb uberhaupt geen Nvidia kaart momenteel om mee te proberen. Tegelijk komt er hier een 4k VR headset aan. En in zijn algemeenheid zie ik foveated rendering nog steeds als de heilige graal voor VR performance, maar DLSS moet ook een goede toevoeging kunnen zijn om hoog resolutie headsets alsnog op 90Hz aan te kunnen sturen (of sneller).

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
biggydeen2 schreef op zaterdag 15 augustus 2020 @ 15:59:
Aan de andere kant, als ze DLSS goed doorontwikkelen is native 4k niet eens meer nodig. Ik heb nu ook een faux 4k beamer en geen native 4k. Heb zowel faux als native 4k in het echt gezien en je ziet het verschil gewoon niet (alleen van heel dichtbij wat niet realistisch is in de praktijk).
Begrijp mij niet verkeerd, op een 4K bij een kennis zien games met DLSS er goed uit op 4K (op een afstand van ongeveer 2.5 meter, betreft een 60" TV)

Maar ik speel games 90% van de tijd aan mijn bureau, en op ongeveer 60cm tot 65cm afstand dat ik van mijn scherm zit, zie ik dat verschil er wel (minus Control, daar is dat verschil erg moeilijk te zien)

Maar ik blijf bij mijn punt, ik ben ouderwets echter als het een TV betreft of zoals in jouw geval een beamer dan lijkt DLSS mij een goede oplossing (helaas is de ondersteuning ervan waardeloos en ik zie dat niet snel veranderen)
Ik heb resoluties die niet passen bij het beeldformaat nog nooit begrepen. Waarom zou je 4k op een 27inch scherm
Voor productiviteit snap ik het wel, maar voor gaming lijkt 4K onder 32" mij persoonlijk niet zinvol (niet nu, als wij inmiddels op het punt zijn dat 4k 60 op max settings een eitje is, dan heeft het wel enige nut. Want voor nu lever je gewoon te veel performance in om dat te behalen)

[ Voor 6% gewijzigd door Mizgala28 op 15-08-2020 16:30 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Weet je, ik durf te stellen dat we 4K nooit gaan halen als Nvidia niet eens met wat meer komt dan 20 a 30% elke twee jaar. Immers moet Nvdidia de afgelopen jaren de kar trekken terwijl Radeon wat goedkopere opties in de marge had. Volgens mij gaat het namelijk al sinds Maxwell over dat je nu 4K aankan met insert xx80Ti naar keuze, maar telkens blijken de videokaarten eigenlijk tekort te schieten als er iets grafisch intens verschijnt qua games. :z

Het 4K streven is zinloos als wat tegenwoordig door moet gaan voor high end, al moeite heeft met 1440p in de zware games zoals RDR2. 4K is onderhand weinig meer dan een loze marketingkreet. Ik ga bijvoorbeeld rustig wachten wat Cyperpunk 2077 met de komende generatie gaat doen. En hopen dat Nvidia die game niet gaat verpesten voor de mensen zonder een Ampère...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Kaarten gaan 4k pas aankunnen als de gemiddelde gamer op 4k zit, of op zijn minst of 1440p. Als Nvidia morgen een kaart released met 2x de rekenkracht voor dezelfde prijs als we nu hebben, dan releasen overmorgen de game developers nieuwe games met meer textures, mooiere schaduwen, etc, zodat de framerates weer vergelijkbaar zijn en 4k alsnog niet/nauwelijks te doen is.

[ Voor 5% gewijzigd door Sissors op 15-08-2020 17:18 ]


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 12:51
Nvidia rond de overname van ARM mogelijk in de zomer al af
Bron: https://www.standard.co.u...ipmaker-arm-a4524761.html

Hoe groot is de kans eigenlijk dat dit echt door zou gaan?

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

Weet niet wat de oorpsrong is, en of dit relevant en/of waar is:Afbeeldingslocatie: https://tweakers.net/i/kl_dbfDkz2qkJ52iP2kxA0i8CKg=/800x/filters:strip_icc():strip_exif()/f/image/elCQDsEusMRFenylBv73B5vF.jpg?f=fotoalbum_large


https://forums.guru3d.com...fx-part-2.423193/page-133

Niet op voorraad.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Adored denkt nu dat Ampere gaming gpu's op Samsung 5LPE gemaakt worden wat wellicht de betere performance deels kan verklaren.

Ik neem het voorlopig allemaal voor kennisgeving aan en zie wel wat het wordt. Hoop smoke en mirrors. En dan krijgen we zo eerst weer dat hele uitmelken vd launch. Aankondiging vd aankondiging. Aankondiging met wat details. Aankondiging met alle details. Reviews. Wachten op launch. Moeilijk te leveren. :X :P

Voor mijn nieuwe monitor (3840*1600) heb ik denk ik aan klassieke render performance, dus zonder RT, toch wel minimaal 2080Ti performance met freesync nodig om gevoelsmatig ongeveer vergelijkbare prestaties te hebben als nu met een 1080Ti op 1440p zonder freesync. Maar misschien overwaardeer ik invloed freesync wel wat teveel gezien het 66% meer pixels zijn.

Een 3070 /3080 gaat dat vast wel leveren. :o

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het probleem is dat Adored ging speculeren. De laatste keer dat hij dat deed, tja toen kregen we 5GHz Zen 2 voor veel te lage prijzen. :z

Verder als de volle GA102, 24TFLOPS FP32 haalt, uh wat ik dan precies het punt van de 19,5TFLOPS GA100. Je weet wel, die gigantische 826 mm² chip met een TDP van 400W, geproduceerd op TSMC 7nm. Verder waarom zou Nvidia haar vlaggenschip GA100 op TSMC 7nm laten produceren, als Samsung "5nm", een geëvolueerd 7nm EUV node, ook beschikbaar is.

Als laatste wordt de bron ook aardig afgemaakt door de leakers die in de regel goed zitten. Zie deze hele thread. In ieder geval al tekenend dat RDNA2 kennelijk een perf/watt verlies van 45% zou hebben over RDNA1. Right.


Maar ik heb ook nog wat simpele, praktische bezwaren naast dat GA102, GA100 dus niet gaat verslaan, want gigantische 826 mm² chip. Zaken zoals die floating points omzetten in 3D vraagt om nogal wat extra hardware voorbij het shader stadium. Dat kost ook ruimte. Verder is er nog RT en dat is denk ik de oplossing. GA100 haar tensorcores zijn geüpdatet naar FP32 capable en dat zou wel eens overgedragen kunnen worden naar GA102. Dat is waarschijnlijk niet voor shaders, maar voor denoising van RT. Krijg je dus fors betere, AI denoised RT prestaties. Zou me niks verbazen als je dan alsnog een relatief miserabel aantal rays hebt, maar Nvidia nog veel beter kan denoisen waardoor het lijkt alsof het betere, echte RT is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

Weer goede punten Daniel, al weet ik even niet of de GA100 nog mee had kunnen liften op een evt. 5nm procedé als die al bestaat/gereed is.

Niet op voorraad.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op zaterdag 15 augustus 2020 @ 20:27:
Als laatste wordt de bron ook aardig afgemaakt door de leakers die in de regel goed zitten. Zie deze hele thread. In ieder geval al tekenend dat RDNA2 kennelijk een perf/watt verlies van 45% zou hebben over RDNA1. Right.
Zelfde reden is dat ik de geruchten van 3080TI/3090 met +25/30% performance op 350W niet geloof. Dat zou een -15% in perf/watt zijn ruwweg, wat wel een extreem slechte prestatie zou zijn.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

edward2 schreef op zaterdag 15 augustus 2020 @ 21:30:
Weer goede punten Daniel, al weet ik even niet of de GA100 nog mee had kunnen liften op een evt. 5nm procedé als die al bestaat/gereed is.
Dat was kantje boord geweest omdat Samsung 5nm kennelijk afgelopen kwartaal in massaproductie is gegaan. Maar of je er nu een 800mm2 of 500mm2 klasse chip op gaat produceren is denk ik vrij academisch. Yields zullen slecht zijn zo vroeg. Het is misschien een refresh optie, of voor Hopper, maar ik denk dat Ampère echt te vroeg is. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
biggydeen2 schreef op zaterdag 15 augustus 2020 @ 15:59:
[...]

Waarom zou je 4k op een 27inch scherm willen spelen.
Omdat ik het verschil met een 27 inch 1440p scherm gewoon goed kan zien. Voorheen had ik 4 1440p schermen (eentje was 144hz, de rest 60) en nu 3 4k schermen (120hz) met een van de 1440p schermen erboven voor bv een walk through of livestream.

De onderliggende resolutie waar ik op game boeit me overigens niet. Als ze 1 bij 1 pixel kunnen upscalen op 'n manier dat 't er beter uitziet dan native 32k dan wil ik best op 1 bij 1 spelen, maar resolutie is ook maar 'n klein deel van 't verhaal. Je kunt prima de eerste Pac-Man game op 64K renderen en dan downscalen op je 8k tv, het zal alsnog niet tippen aan 'n goede grafische game op 720p.

[ Voor 28% gewijzigd door Paprika op 16-08-2020 10:21 ]


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Paprika schreef op zondag 16 augustus 2020 @ 10:15:
[...]

Omdat ik het verschil met een 27 inch 1440p scherm gewoon goed kan zien. Voorheen had ik 4 1440p schermen (eentje was 144hz, de rest 60) en nu 3 4k schermen (120hz) met een van de 1440p schermen erboven voor bv een walk through of livestream.

De onderliggende resolutie waar ik op game boeit me overigens niet. Als ze 1 bij 1 pixel kunnen upscalen op 'n manier dat 't er beter uitziet dan native 32k dan wil ik best op 1 bij 1 spelen, maar resolutie is ook maar 'n klein deel van 't verhaal. Je kunt prima de eerste Pac-Man game op 64K renderen en dan downscalen op je 8k tv, het zal alsnog niet tippen aan 'n goede grafische game op 720p.
Ik bedoel de grootte van het scherm vs de resolutie. Op 27 inch past 1440p het beste qua resolutie. Zo heb je ook 1280x1024 27 inch schermen en laptops met relatief nog veel kleinere 4k schermen maar dat past voor geen meter. Tenminste, ik heb nooit begrepen wat hier precies het voordeel van is.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
Ja maar ik heb dus 27 inch en zou niet meer terug willen.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

IK speel al jaren op 5K op een 27" :D

Niet op voorraad.


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 01-02 20:54
Ik kan niet wachten om mijn MSI GTX 980 te upgraden. Voor 1080P in de nieuwste games is hij nu toch echt de bottleneck. Een tijd was dat wellicht mijn i7 3770K maar sinds die vervangen is voor de 10700K weet ik zeker dat het overal de GPU is :)...

Duimen dat de 3080 onder de 1000 euro is dan wil ik 'm wel kopen! Onder andere benieuwd hoe City Skylines en Farcry 5 erop reageren. Ook hoop ik met de nieuwe GPU in de meeste games 1440P te kunnen spelen ipv 1080P..

Ja ik heb verwachtingen jongens O-)

[ Voor 13% gewijzigd door MetalSonic op 16-08-2020 17:36 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
https://videocardz.com/ne...ed-with-2-1-ghz-gpu-clock

Device ID tijd

[ Voor 9% gewijzigd door Paprika op 16-08-2020 20:47 ]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

Perf. Ampere SKU's tov de 1080Ti:

Afbeeldingslocatie: https://tweakers.net/i/p2Vvj_S71bOkWUMNnCSKIVrzUZg=/800x/filters:strip_exif()/f/image/RI3iCVzYnGvMK6QVrAyfTwRf.png?f=fotoalbum_large

Chiphell

De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?

[ Voor 11% gewijzigd door edward2 op 17-08-2020 13:52 ]

Niet op voorraad.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Performance ziet er dan niet verkeerd uit, maar qua energieverbruik zal een 3090 dan rond de 350W zitten. En een 3070 rond de 250W, wat ook een redelijke stap omhoog is tov de 2070(S).

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

edward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:

[Afbeelding]

Chiphell

De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
Begrijp ik die grafiek goed en zijn de prestaties op 4k relatief een stuk meer toegenomen dan op 1080p en 1440p :? (volgens deze grafiek dan 8) )

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 13:18
Beetje appart wel een 3070 TI maar geen 3080 TI.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Help!!!! schreef op maandag 17 augustus 2020 @ 14:53:
[...]

Begrijp ik die grafiek goed en zijn de prestaties op 4k relatief een stuk meer toegenomen dan op 1080p en 1440p :? (volgens deze grafiek dan 8) )
Dat lijkt me vrij logisch, op 1080p heb je gelijk al een cpu bottleneck die het verschil limiteert.
Psyonara schreef op maandag 17 augustus 2020 @ 15:15:
Beetje appart wel een 3070 TI maar geen 3080 TI.
Dan is er nog ruimte om een 3080 ti te brengen mocht er een AMD kaart komen die de reguliere 3080 kan beaten. Ach voorlopig blijft het een hoop speculatie :)

[ Voor 36% gewijzigd door sjekneck op 17-08-2020 15:32 ]


  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

edward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:

[Afbeelding]

Chiphell

De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
Ziet er netjes uit. Ben benieuwd hoe groot die kaarten worden en wat ze gaan kosten. Hopelijk past een 3070ti in mijn kast (en in mijn budget ;-) ). Dan kunnen we wel weer even vooruit in VR land hoop ik.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op maandag 17 augustus 2020 @ 14:53:
[...]

Begrijp ik die grafiek goed en zijn de prestaties op 4k relatief een stuk meer toegenomen dan op 1080p en 1440p :? (volgens deze grafiek dan 8) )
Dat is goed mogelijk gezien de nu meermaals en waarschijnlijk geloofwaardige geheugenbandbreedte waarden.
edward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:

[Afbeelding]

Chiphell

De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
Paar observaties. Ten eerste lijkt de verhouding ten opzichte van Turing en RDNA1 te kloppen. Dat is in iedere geval de eerste barrière voor echtheid overleeft. Ik heb ook een paar geheugensnelheden doorgerekend die ook lijken te kloppen met andere leaks. Tweede is dat ik vermoed dat het hier gaat om best case scenario qua clock speeds. RTX3080, RTX3090 en Titan lijken kunstmatig op 2000MHz te draaien, maar uit andere leaks lijkt dat zeker niet de gewone boostclock te zijn. Dit is dus of een handmatige overclock of het resultaat van GPU boost met een begrenzing op 2000MHz. RTX3070Ti en RTX3070 lijken dan GA-104 te zijn.

Maar als dit ongeveer klopt, tja dan krijgen we eindelijk een serieuze stap vanuit Nvidia in high end. Het sluit alleen niks uit qua "winnaar" want de befaamde "Big Navi", tja daar mag je toch ook tweemaal zo snel als RX5700XT van verwachten. Dan zou je al kijken naar iets tussen RTX3080 en RTX3090 als dit klopt. En dat zou geweldig zijn, voor ons. ;)

Het zou ook redelijk aansluiten bij 5376 ALU's (FP32 Cuda cores) voor GA-102 vs. 5120 ALU's (SP's) voor Navi 21. Immers zijn RDNA1 en Turing al zeer vergelijkbaar qua snelheid op ALU voor ALU basis en dat zou goed mogelijk kunnen zijn voor RDNA2 vs. Ampère.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
DaniëlWW2 schreef op maandag 17 augustus 2020 @ 16:31:
[...]


Dat is goed mogelijk gezien de nu meermaals en waarschijnlijk geloofwaardige geheugenbandbreedte waarden.


[...]


Paar observaties. Ten eerste lijkt de verhouding ten opzichte van Turing en RDNA1 te kloppen. Dat is in iedere geval de eerste barrière voor echtheid overleeft. Ik heb ook een paar geheugensnelheden doorgerekend die ook lijken te kloppen met andere leaks. Tweede is dat ik vermoed dat het hier gaat om best case scenario qua clock speeds. RTX3080, RTX3090 en Titan lijken kunstmatig op 2000MHz te draaien, maar uit andere leaks lijkt dat zeker niet de gewone boostclock te zijn. Dit is dus of een handmatige overclock of het resultaat van GPU boost met een begrenzing op 2000MHz. RTX3070Ti en RTX3070 lijken dan GA-104 te zijn.

Maar als dit ongeveer klopt, tja dan krijgen we eindelijk een serieuze stap vanuit Nvidia in high end. Het sluit alleen niks uit qua "winnaar" want de befaamde "Big Navi", tja daar mag je toch ook tweemaal zo snel als RX5700XT van verwachten. Dan zou je al kijken naar iets tussen RTX3080 en RTX3090 als dit klopt. En dat zou geweldig zijn, voor ons. ;)

Het zou ook redelijk aansluiten bij 5376 ALU's (FP32 Cuda cores) voor GA-102 vs. 5120 ALU's (SP's) voor Navi 21. Immers zijn RDNA1 en Turing al zeer vergelijkbaar qua snelheid op ALU voor ALU basis en dat zou goed mogelijk kunnen zijn voor RDNA2 vs. Ampère.
Big Navi kun je niet zomaar extrapoleren met een verdubbeling in prestaties op vrijwel dezelfde node ;). Even kort door de bocht zou deze dan heel veel extra besparingen moeten doorvoeren in het verbruik om dat de kunnen bewerkstelligen en met een veel grotere die ook nog eens dezelfde clocks moeten halen. De 5700XT zit al op 7nm en verbruikt nu al 225 WATT. Verdubbel de diesize dan moet je het verbruik ook linear gaan verdubbelen.
Veel mensen roepen doodleuk dat Big Navi 2x de 5700xt gaat worden in spec en de kloksnelheid nog hoger gaat worden, maar dat lijkt me niet zomaar even te doen. En als het ze wel lukt kuddos.

Wat Nv betreft ben ik benieuwd of ze echt bij Samsung produceren en of dit geen negatief effect gaat hebben op het verbruik. Ik vind de kaarten die rond de 200 watt verstoken een stuk prettiger dan de heethoofden van 300 watt of meer. Bij voorkeur zou ik niet meer kaart kopen die meer dan 250Watt gaat verstoken. Dat is veel prettiger gamen en scheelt gewoon veel onnodige warmte ontwikkeling in en rond een case.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
sjekneck schreef op maandag 17 augustus 2020 @ 15:29:
[...]

Dan is er nog ruimte om een 3080 ti te brengen mocht er een AMD kaart komen die de reguliere 3080 kan beaten. Ach voorlopig blijft het een hoop speculatie :)
En die 3090 dan?

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

sjekneck schreef op maandag 17 augustus 2020 @ 17:04:
[...]


Veel mensen roepen doodleuk dat Big Navi 2x de 5700xt gaat worden in spec en de kloksnelheid nog hoger gaat worden, maar dat lijkt me niet zomaar even te doen. En als het ze wel lukt kuddos.
Ik hoop toch echt dat het nou eindelijk eens een keertje in de buurt komt, maar wat je zegt, er zijn nogal wat hobbels te nemen. 2x5700xt zou al 3090 terrein worden en met een hogere frequentie al helemaal.

Alleen balen dat AMD weer zoveel later komt (okt/nov.?)

[ Voor 5% gewijzigd door edward2 op 17-08-2020 18:18 ]

Niet op voorraad.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
sjekneck schreef op maandag 17 augustus 2020 @ 17:04:
[...]

Big Navi kun je niet zomaar extrapoleren met een verdubbeling in prestaties op vrijwel dezelfde node ;). Even kort door de bocht zou deze dan heel veel extra besparingen moeten doorvoeren in het verbruik om dat de kunnen bewerkstelligen en met een veel grotere die ook nog eens dezelfde clocks moeten halen. De 5700XT zit al op 7nm en verbruikt nu al 225 WATT. Verdubbel de diesize dan moet je het verbruik ook linear gaan verdubbelen.
Veel mensen roepen doodleuk dat Big Navi 2x de 5700xt gaat worden in spec en de kloksnelheid nog hoger gaat worden, maar dat lijkt me niet zomaar even te doen. En als het ze wel lukt kuddos.

Wat Nv betreft ben ik benieuwd of ze echt bij Samsung produceren en of dit geen negatief effect gaat hebben op het verbruik. Ik vind de kaarten die rond de 200 watt verstoken een stuk prettiger dan de heethoofden van 300 watt of meer. Bij voorkeur zou ik niet meer kaart kopen die meer dan 250Watt gaat verstoken. Dat is veel prettiger gamen en scheelt gewoon veel onnodige warmte ontwikkeling in en rond een case.
Op basis van deze gegevens, wat redelijk overeen lijkt te komen met eerdere leaks, al is er nog wel een redelijke spreiding gezien het niet duidelijk is bij welke resolutie de performance/watt is genomen, lijkt het dus op 250W ruwweg voor 3070, en 350W voor de 3090. De rest zal er wel tussenin zitten.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Alle vakanties voor 2021 worden ingetrokken! :p

Rumor: GeForce RTX 3090 Pricing to Arrive Around the $2,000 Mark

March of the Eagles


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 12:51
Dit zijn toch geen prijzen meer?! Ik weet dat er voor de 2080Ti een markt was, maar zou dit ook zijn voor de 3090 met deze prijs?

Ik hoop zelf dat dit gerucht niet klopt...

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Een artikel over een gerucht waarbij het gerucht al zegt dat één prijs waarschijnlijk niet klopt, en toch zetten ze dat als titel van het gerucht :P.

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
RobinNL schreef op maandag 17 augustus 2020 @ 20:20:
[...]


Dit zijn toch geen prijzen meer?! Ik weet dat er voor de 2080Ti een markt was, maar zou dit ook zijn voor de 3090 met deze prijs?

Ik hoop zelf dat dit gerucht niet klopt...
Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Enchantress schreef op maandag 17 augustus 2020 @ 20:26:
[...]

Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.
Lijkt me erg onwaarschijnlijk dat introductieprijs van de 3070 onder die van de 2070 ligt. Ik zou er een honderd euro iig bij optellen.

Maar goed, ik ben mijn vertrouwen in AMD drivers voor deze generatie wel kwijt.

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

Enchantress schreef op maandag 17 augustus 2020 @ 20:26:
[...]

Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.
Zou ik ook niet vanuit gaan.

Zoek zelf iets tot ~600, met USB-C voor VR (werkt beter dan rechtstreeks op mijn moederbord voor de een of andere reden). Een 2070s kost nu al tegen de 600 met USB-C, met een beetje gelukt valt de normale 3070 binnen deze range.

Ben benieuwd of de adviesprijzen meteen bekend zijn 1 Sept.

[ Voor 12% gewijzigd door Jay-v op 17-08-2020 20:34 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Enchantress schreef op maandag 17 augustus 2020 @ 20:26:
[...]

Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.
Big Navi zal ook niet bepaald goedkoop zijn verwacht ik. TSMC 7nm wafers zijn duurder dan Samsung 8nm bijvoorbeeld, maar ook het geheugen en andere high end componenten zijn nu eenmaal duur.

March of the Eagles


  • Jackson6
  • Registratie: Oktober 2010
  • Niet online
Hopelijk de 3070 Ti zo rond de 550-600 euro.. dan kan ik mooi m'n 5700XT gaan vervangen.

  • Matthias87
  • Registratie: Juli 2013
  • Laatst online: 30-01 08:05
Jackson6 schreef op maandag 17 augustus 2020 @ 22:39:
Hopelijk de 3070 Ti zo rond de 550-600 euro.. dan kan ik mooi m'n 5700XT gaan vervangen.
Ik hoop het echt. Ik vermoed eerder 750.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
edward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:

[Afbeelding]

Chiphell

De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
De Titan is haast precies 50% sneller dan een 2080Ti op 4k? Verdacht :P.
Tenminste als ik 141.4 * 1.5 doe is 212.1; of bereken ik dingen op de verkeerde manier hier.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
Sp3ci3s8472 schreef op dinsdag 18 augustus 2020 @ 13:14:
[...]


De Titan is haast precies 50% sneller dan een 2080Ti op 4k? Verdacht :P.
Tenminste als ik 141.4 * 1.5 doe is 212.1; of bereken ik dingen op de verkeerde manier hier.
https://www.startpagina.n...ncipe,dus%3A%2038%2C75%25. :+

(en ja het is 50%)

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

De 3090 dus "maar" ~40% sneller dan de 2080TI (zonder RT)...komen deze waarden uit deze chart niet gewoon uit publicatie slides waarin bv de rasterperf. met 40% is toegenomen?

[ Voor 78% gewijzigd door edward2 op 18-08-2020 20:51 ]

Niet op voorraad.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
biggydeen2 schreef op zaterdag 15 augustus 2020 @ 14:13:
[...]


Wat betreft Samsung vs TSMC heb ik gelezen (geruchten) dat AMD voorrang heeft bij TSMC vanwege o.a. corona (capaciteit problemen) en dat Nvidia daardoor op de 8nm van Samsung zit. Andere geruchten zijn dat daardoor het stroomverbruik ook hoger is zodat hogere clocks mogelijk zijn. 7nm is wat dat beteft over het algemeen beter dan 8nm. Volgens mij zit de A100 ook op 7nm van TSMC.

Nvidia kennende willen ze altijd de performance crown en gaan niet zomaar op een grotere node zitten. Gezien de grote winsten die ze maken vraag ik me af of prijs een probleem is. En uiteindelijk maakt de kostprijs niet zoveel uit. Ook al zijn ze qua kostprijs veel beter uit, de eerste tijd zal er geen concurrentie zijn. Ze kunnen dus vragen wat ze willen. Ik hoop dat de prijzen mee gaan vallen met een flinke boost ten opzichte van Turing. Maar wellicht gooien ze het dit keer over een andere boeg. Ik denk wel dat als Nvidia doet wat jij schetst ze wel (veel) meer kaarten gaan verkopen.

Wat dat betreft verwacht ik toch zeker een behoorlijke boost ten opzichte van turing gezien de node verkleining naar 8nm en het veel hogere verbruik. Normaal gesproken zou een kleinere node efficienter zijn qua verbruik.

Maar goed, we zullen het eind deze maand wel zien :)
Die nodes zijn sowieso moeilijk met elkaar te vergelijken. Wel is het zo dat Samsung een betere prijs voor zijn wafers biedt. Dat kan in Nvidia's voordeel zijn wanneer er een echte prijzenoorlog zou uitbreken met AMD.

March of the Eagles


  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
XWB schreef op dinsdag 18 augustus 2020 @ 21:00:
[...]


Dat kan in Nvidia's voordeel zijn wanneer er een echte prijzenoorlog zou uitbreken met AMD.
Ik denk niet dat AMD het daarop zal laten aankomen. Dat hebben ze in het verleden geprobeerd toen ze een beter product hadden, en de grote meerderheid gebruikte de prijzenoorlog om goedkoper toch een nVidia te kopen. Dat zullen ze niet vergeten zijn.
AMD zal net onder de nVidia prijs zitten (zoals ze de afgelopen reeksen gedaan hebben), omdat te laag zichzelf in de vingers snijdt.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-02 09:59

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Wat ik niet begrijp aan die chart is hoe de performance per watt slechts 20% toe kan nemen bij de stap van 12nm naar 7nm/8nm/5nm.

Dan moeten de nieuwe kaarten zwaar voorbij hun sweet spot geclockt zijn.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
https://twitter.com/NVIDIAGeForce/with_replies
Voor mensen die nog wat nostalgia willen. Even door de jaren heen scrollen ;).

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Paprika schreef op woensdag 19 augustus 2020 @ 10:30:
https://twitter.com/NVIDIAGeForce/with_replies
Voor mensen die nog wat nostalgia willen. Even door de jaren heen scrollen ;).
Hehehe sommige producten hebben niet bestaan zo lijkt het. De FX 5800ultra is nergens te bekennen :+

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
sjekneck schreef op woensdag 19 augustus 2020 @ 11:31:
[...]

De FX 5800ultra is nergens te bekennen :+
Die staat in de categorie haardrogers :7

March of the Eagles


  • Simbob
  • Registratie: December 2009
  • Niet online

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XWB schreef op woensdag 19 augustus 2020 @ 12:18:
[...]


Die staat in de categorie haardrogers :7
Ah shit, was al bij de stofzuigers aan het zoeken :+

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47

NVIDIA Announces Financial Results for Second Quarter Fiscal 2021

Record revenue of $3.87 billion, up 50 percent from a year earlier
Record Data Center revenue of $1.75 billion, up 167 percent from a year earlier
Mellanox growth accelerated in its first quarter as part of NVIDIA, contributed 14 percent of revenue
NVIDIA today reported record revenue for the second quarter ended July 26, 2020, of $3.87 billion, up 50 percent from $2.58 billion a year earlier, and up 26 percent from $3.08 billion in the previous quarter.

GAAP earnings per diluted share for the quarter were $0.99, up 10 percent from $0.90 a year ago, and down 33 percent from $1.47 in the previous quarter. Non-GAAP earnings per diluted share were $2.18, up 76 percent from $1.24 a year earlier, and up 21 percent from $1.80 in the previous quarter.
Afbeeldingslocatie: https://i.imgur.com/DsbvscP.png
NVIDIA’s outlook for the third quarter of fiscal 2021 is as follows:

Revenue is expected to be $4.40 billion, plus or minus 2 percent.
GAAP and non-GAAP gross margins are expected to be 62.5 percent and 65.5 percent, respectively, plus or minus 50 basis points.
GAAP and non-GAAP operating expenses are expected to be approximately $1.54 billion and $1.09 billion, respectively.
GAAP and non-GAAP other income and expense are both expected to be an expense of approximately $55 million.
GAAP and non-GAAP tax rates are both expected to be 8 percent, plus or minus 1 percent, excluding any discrete items. GAAP discrete items include excess tax benefits or deficiencies related to stock-based compensation, which are expected to generate variability on a quarter by quarter basis.
Gaming

Second-quarter revenue was $1.65 billion, up 24 percent from the previous quarter and up 26 percent from a year earlier.
Ramped 100+ new GeForce laptops to deliver outstanding performance to students, creators and gamers across a range of price points.
Announced a range of games now supporting NVIDIA RTX ray tracing and DLSS AI super resolution, including, Justice, Cyberpunk 2077 and Death Stranding. Introduced new worlds for Minecraft with RTX.
Expanded GeForce NOW™ to Chromebooks, enabling millions of users to play games in the cloud.
Announced that Square Enix is adding its extensive catalog to GeForce NOW, including franchises such as Deus Ex and Just Cause, plus Shadow of the Tomb Raider, which returned with RTX On.
Afbeeldingslocatie: https://i.imgur.com/dglgY0O.png

Afbeeldingslocatie: https://i.imgur.com/nyfh5HP.png

Weer een slecht kwartaal achter de rug bij het groene kamp. B) De beurswaarde is op dit moment, met ± 300 miljard, gelijk aan AMD (± 95 miljard) en Intel (± 205 miljard) gecombineerd.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 12:51
De RTX 3080/3090 heeft inmiddels ook de RRA certificatie gekregen.

https://videocardz.com/ne...rd-gets-rra-certification

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Belachelijk duur weer, maar zolang mensen het blijven kopen.. Het zal me niets verbazen als we over 10 jaar 5000 dollar moeten betalen voor een top segment kaart.

Ik ben wel benieuwd naar de marges op de kaarten.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
Ferio schreef op donderdag 20 augustus 2020 @ 09:01:
Belachelijk duur weer, maar zolang mensen het blijven kopen.. Het zal me niets verbazen als we over 10 jaar 5000 dollar moeten betalen voor een top segment kaart.
Toch ben ik benieuwd welke games je over 10 jaar gaat aantreffen die een dergelijke kaart nodig hebben en benutten. Er zijn heel wat landen waar 5000 dollar gewoon het hele jaarsalaris betreft, dus je target audience wordt er heel klein door en consoles worden meer en meer populair in de moderne snelle-potjes setting. Het merendeel van de populatie zal hier geen behoefte aan hebben en daar zit als ontwikkelaar ook niet het grote geld. Het grote geld zit immers in spellen als MOBA's, Battle Royales, builder games (Minecraft, Factorio, ...), simpele modes games (Autochess, Hearthstone, ...). Ze kunnen prima 5000 dollar vragen voor een videokaart, maar dit betreft zo'n klein deel van de markt dat je als gameontwikkelaar amper rond zal komen als je je op die market richt bij development en gezien een console nooit een GPU van een dergelijk bedrag gaat bevatten zal het merendeel van de wereld nog niet eens een 10e van dat bedrag uitgeven aan videokaarten.

In de pc wereld hoor je alleen de enthousiasts, want de gemiddelde gamer weet niet eens wat er in zijn of haar pc zit en zelfs binnen de enthousiast wereld blijft $2000 gewoonweg veel geld. Er zullen er vast weer voldoende verkopen. Zo heb ik zelf vakanties die dat bedrag ruim voorbij schieten en als iemand niet van vakanties houdt en liever een videokaart koopt, prima toch? Ik voel me niet minder dat er geen RTX Titan of iets in mijn pc zit. Zelf ben ik bereid om alles onder de 1000 euro te betalen, maar dan houdt het voor mij op, maar dat heeft er ook een beetje mee te maken dat ik eigenlijk amper games speel die grafisch ertoe doen. Mijn RTX 2080 draait de meeste spellen die ik speel op > 90 fps op 4K, dus daar hoef ik het niet voor te doen.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Uberhaupt vind ik het totaal irrelevant hoe duur de duurste kaart is. Waar het mij om gaat is hoeveel prestaties ik krijg als ik een bepaald bedrag wil uitgeven. Ik heb geen bijzondere noodzaak om de snelst mogelijke kaart te hebben.

En eerlijk is eerlijk, qua prijs/prestatie gaat het momenteel nou ook niet heel geweldig. En goedkopere kaarten zou ik heel blij mee zijn. Tegelijk, het is een hobby, en hobbies mogen geld kosten.

  • New Yorker
  • Registratie: Augustus 2013
  • Niet online
Hahaha. 2300 dollar in euro komt er nog BTW erbij. Dit soort prijzen waren verwacht... Misschien toch maar voor een Xbox en een ps gaan 8)7 8)7

Weg


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Paprika schreef op donderdag 20 augustus 2020 @ 09:29:
[...]

Toch ben ik benieuwd welke games je over 10 jaar gaat aantreffen die een dergelijke kaart nodig hebben en benutten.
Als je kijkt naar huidig bv naar rdr2 die vraagt enorm veel, waarbij de huidige Ti modellen zelfs moeite mee hebben. Ik ben zelf ook wel benieuwd waar het heen gaat, tot nu gaan de prijzen alleen maar omhoog.

Zal de tijd voorbij zijn dat we nog normale prijzen gaan zien?

Heb zelf overigens een 2070s van msi voor 400, dat vind ik nog wel redelijk en speelt alles ook goed af.

Ik hoef ook niet het beste te hebben.

[ Voor 3% gewijzigd door Ferio op 20-08-2020 09:40 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
New Yorker schreef op donderdag 20 augustus 2020 @ 09:37:
Hahaha. 2300 dollar in euro komt er nog BTW erbij. Dit soort prijzen waren verwacht... Misschien toch maar voor een Xbox en een ps gaan 8)7 8)7
Of weet je, niet de allerduurst mogelijke kaart uit China importeren?

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
Ferio schreef op donderdag 20 augustus 2020 @ 09:37:
[...]


Als je kijkt naar huidig bv naar rdr2 die vraagt enorm veel, waarbij de huidige Ti modellen zelfs moeite mee hebben.
Dat blijft ook maar een resolutie ding. Op 1080p draait ie voluit gewoon 100 fps op een 2080Ti. 4K is ongeveer de helft, maar een volgende serie GPUs is dus al voldoende om dat spel gewoon voluit te draaien.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Paprika schreef op donderdag 20 augustus 2020 @ 09:41:
[...]

Dat blijft ook maar een resolutie ding. Op 1080p draait ie voluit gewoon 100 fps op een 2080Ti. 4K is ongeveer de helft, maar een volgende serie GPUs is dus al voldoende om dat spel gewoon voluit te draaien.
Dat moet nog blijken. Ik ben wel benieuwd naar beide kampen dit jaar en vooral waarmee amd komt.

  • New Yorker
  • Registratie: Augustus 2013
  • Niet online
Sissors schreef op donderdag 20 augustus 2020 @ 09:40:
[...]

Of weet je, niet de allerduurst mogelijke kaart uit China importeren?
Zelfs als het beetje goedkoper is er komt altijd BTW erbij

Weg


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
Ferio schreef op donderdag 20 augustus 2020 @ 09:42:
[...]


Dat moet nog blijken. Ik ben wel benieuwd naar beide kampen dit jaar en vooral waarmee amd komt.
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=62530

Met 30% performance verbetering over ene 2080Ti zit je al op 60+ op een 4K scherm. Dat is voor een spel als RDR2 ruim voldoende.

  • CoronelHimself
  • Registratie: Mei 2006
  • Laatst online: 07:58

CoronelHimself

Division Brabant

Sissors schreef op donderdag 20 augustus 2020 @ 09:33:
Uberhaupt vind ik het totaal irrelevant hoe duur de duurste kaart is. Waar het mij om gaat is hoeveel prestaties ik krijg als ik een bepaald bedrag wil uitgeven. Ik heb geen bijzondere noodzaak om de snelst mogelijke kaart te hebben.

En eerlijk is eerlijk, qua prijs/prestatie gaat het momenteel nou ook niet heel geweldig. En goedkopere kaarten zou ik heel blij mee zijn. Tegelijk, het is een hobby, en hobbies mogen geld kosten.
Klopt, dit staat me eigenlijk meer tegen. De 20 serie was ook een soort zijstap in de prijs/prestatie. De 2080TI was 35% sneller dan de 1080TI, maar ook 50% duurder. :+

De 2080 daarentegen was ongeveer net zo snel, maar ook net zo duur als de 1080TI. En ja je kreeg er RTX bij, maar zolang er maar een handvol games er gebruik van maken en de 20 serie RTX ook alleen op low definition (1080p) kunnen draaien heeft de gross van de mensen er ook niks aan.

Ik ben bang dat de 30 serie dit ook niet gaat veranderen, de prijzen gaan nog verder omhoog. En de prijs/prestatie zal niet echt verbeteren. Of AMD moet iets ontketenen. :+

Steam - PTR83


  • Sissors
  • Registratie: Mei 2005
  • Niet online
New Yorker schreef op donderdag 20 augustus 2020 @ 09:43:
[...]

Zelfs als het beetje goedkoper is er komt altijd BTW erbij
Een 'beetje' goedkoper? Ze schrijven in dat artikel dat hij het equivalent van $1800 kost ($2300 enkel door dingen als belastingen en heffingen). En dan kom jij van $1800 naar meer dan €2300. Om het er nog niet over te hebben dat dit over een gerucht gaat van een specifieke high-end versie uit China, terwijl het andere gerucht is dat de FE 'maar' $1399 gaat kosten. Nog steeds een hele hoop geld natuurlijk, maar het is iig iets logischer om daar naar te kijken.

  • New Yorker
  • Registratie: Augustus 2013
  • Niet online
Sissors schreef op donderdag 20 augustus 2020 @ 09:47:
[...]

Een 'beetje' goedkoper? Ze schrijven in dat artikel dat hij het equivalent van $1800 kost ($2300 enkel door dingen als belastingen en heffingen). En dan kom jij van $1800 naar meer dan €2300. Om het er nog niet over te hebben dat dit over een gerucht gaat van een specifieke high-end versie uit China, terwijl het andere gerucht is dat de FE 'maar' $1399 gaat kosten. Nog steeds een hele hoop geld natuurlijk, maar het is iig iets logischer om daar naar te kijken.
Idd voorlopig is het maar een gerucht

Weg


  • Hulleman
  • Registratie: December 2009
  • Laatst online: 11:48
Sissors schreef op donderdag 20 augustus 2020 @ 09:47:
[...]

Een 'beetje' goedkoper? Ze schrijven in dat artikel dat hij het equivalent van $1800 kost ($2300 enkel door dingen als belastingen en heffingen). En dan kom jij van $1800 naar meer dan €2300. Om het er nog niet over te hebben dat dit over een gerucht gaat van een specifieke high-end versie uit China, terwijl het andere gerucht is dat de FE 'maar' $1399 gaat kosten. Nog steeds een hele hoop geld natuurlijk, maar het is iig iets logischer om daar naar te kijken.
Wat zijn dit voor prijzen man..... Voor de prijs van een 2080Ti of 3090 kocht je 10 jaar terug een hele high-end pc zonder randapparatuur.

LG OLED C3 65" | Marantz SR5010 | Focal Aria 926 | Focal Aria CC900 | Boston Acoustics A25 | SVS PB-1000 | Nvidia Shield 2017 | Playstation 5 | Playstation Portal | Xbox Series X |


  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-02 09:59

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Het zou me niks verbazen als die prijzen echt blijken te zijn.

nVidia komt ermee weg, want de kaarten verkopen wel. Ze zouden dan dief van eigen portemonnee zijn als ze het niet zouden proberen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • ChronoTtrigger
  • Registratie: Januari 2019
  • Laatst online: 27-02-2025
Idd launch word toch gewoon peper duur want mensen kopen toch wel. Het enige wat de prijzen zou kunnen redden is concurrentie.

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 01-02 20:54
Ik denk zelf op basis van vorige series en dat er nu geen concurrentie is tot de release van AMD dat de prijzen zullen lijken op onderstaande:
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550

maar we gaan 't zien :) mijn MSI GTX 980 was toender tijd volgens mij 700 euro (correct me if im wrong)

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

MetalSonic schreef op donderdag 20 augustus 2020 @ 10:48:
Ik denk zelf op basis van vorige series en dat er nu geen concurrentie is tot de release van AMD dat de prijzen zullen lijken op onderstaande:
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550

maar we gaan 't zien :) mijn MSI GTX 980 was toender tijd volgens mij 700 euro (correct me if im wrong)
Er moet nog een 3070ti tussen in en denk dat de 3060 en 3070 erg hoog geschat zijn. 1060, 1660, 2060 zijn behoorlijk populair (bron: https://store.steampowered.com/hwsurvey/videocard/) en er moet toch een betaalbare low-end zijn.

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

MetalSonic schreef op donderdag 20 augustus 2020 @ 10:48:
Ik denk zelf op basis van vorige series en dat er nu geen concurrentie is tot de release van AMD dat de prijzen zullen lijken op onderstaande:
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550

maar we gaan 't zien :) mijn MSI GTX 980 was toender tijd volgens mij 700 euro (correct me if im wrong)
Ja, ik vrees hetzelfde. Van de pot gerukt dit. Ik kocht mijn 1080TI voor €649, destijds was de GTX 680 €499.
Ik vind het het al vrij verbijsterend dat iedereen vrolijk de RTX kaarten kocht, gezien de prijzen. Dit helpt niet.

[Edit]Het gaat natuurlijk over vraag en aanbod. Blijkbaar is er nog geen drop-off gevonden, ivm de consumenten uitgaven vs. verkochten GPUs.
Ikzelf doe niet hieraan mee. Das al de derde markt-"spel" waar ik weiger aan mee te doen, naast de huizenmarkt en high-end Smartphones :Y)

[ Voor 17% gewijzigd door XanderDrake op 20-08-2020 11:12 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Paprika schreef op donderdag 20 augustus 2020 @ 09:29:
Er zijn heel wat landen waar 5000 dollar gewoon het hele jaarsalaris betreft
Is nog wel heel wat erger hoor, genoeg landen waar 5000 niet eens een jaarsalaris betreft. En als je dan ook nog in een land woont waar ze dit soort luxe artikelen (wat het zijn) extra belasten wordt het helemaal absurd. Neem bijvoorbeeld Egypte, waar maandsalarissen variëren van zo'n 2000 EGP (~120 EUR) tot 45000 EGP (~2400 EUR) en hoger. Naast een BTW tarief van 14% zit er ook nog een belasting van 40% voor luxe artikelen op. Prijzen voor dit soort artikelen liggen daarnaast sowieso al hoger omdat ze lastiger te importeren zijn. Nu is Egypte natuurlijk niet het beste voorbeeld van een voortvarend land, maar in verhouding is de leefstandaard daar niet eens zo heel slecht. Maar een 1060 is daar makkelijk 50% duurder dan hier...en dan met dat soort salarissen? 8)7

Ook binnen Europa is het echter niet al te best gesteld. In de Balkan landen is een maandsalaris van pakweg 600-800 EUR helemaal niet ongewoon. Of bijvoorbeeld in Portugal. De "oude" high-end prijzen van 600-700 moest men daar al flink voor sparen, met bedragen van 4 cijfers zullen velen er niet eens aan denken.

Als dit nu halo-producten betrof had ik er geen problemen mee. Immers, de Mars en Ares SKU's hebben altijd bestaan. Wat we nu echter hebben gezien is dat je na 2 jaar ook 2 keer zo veel geld uit moet geven voor een bijzonder magere upgrade. Als die trend zich door zet, betekent dat dat veel mensen hooguit 2 keer per decennium een nieuwe GPU kopen en komt er niets terecht van bijvoorbeeld raytracing adoptie.


Helaas zijn er te veel mensen die meer geld dan hersencellen hebben en de "enthousiast" producten kopen, terwijl ze geen snars begrijpen van wat ze gekocht hebben. Zie een groot deel van Titan (of Mars, Ares, etc.) eigenaren, het overgrote deel van hen snapt er niets van. Excuses aan enige Titan eigenaren die hier rond hangen en wél begrijpen wat/waarom ze gekocht hebben en zich daar ook niet voor schamen, maar jullie zijn in de minderheid. Ik heb door de jaren heen zo veel onbegrijpelijk domme posts gezien van eigenaren van dat soort producten, dat ik echt bang ben voor wat er gebeurt als AMD niet snel weerstand gaat bieden.

Overigens geldt dat ook voor de voormalig high-end range; genoeg mensen die 700 EUR neerleggen omdat "het snel is" zonder dat ze weten wat ze precies kopen. Maar als dat het duurste segment is, betekent dat dat minder bedeelde mensen tenminste óók opties hebben. En dat is nu langzaamaan aan het verdwijnen.

Voor mezelf maakt het allemaal niets uit. Als m'n GPU niet meer voldoet of ik de drang niet meer kan weerstaan, koop ik toch wel weer iets. En als het moet, ga ik daarbij best buiten wat ik zinnig vind (als het nog niet duidelijk was; alle Titans en de 2080 Ti krijgen van mij een "onzinnig" stickertje), het doet me financieel toch geen pijn. Ik heb echter te veel vrienden en kennissen die niet zo'n goed salaris hebben en daar geef ik toch wel een beetje om :p

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Overigens geldt dat ook voor de voormalig high-end range; genoeg mensen die 700 EUR neerleggen omdat "het snel is" zonder dat ze weten wat ze precies kopen. Maar als dat het duurste segment is, betekent dat dat minder bedeelde mensen tenminste óók opties hebben. En dat is nu langzaamaan aan het verdwijnen.
Want als NVidia de 2095TI voor €3000 introduceert, dan verminderd dat de opties voor andere mensen?

En nogmaals, ik zou ook willen dat prijzen lager worden. Tegelijk laten we nou niet net gaan doen alsof dat moet zodat ook de gemiddelde Egyptenaar een 3090 kan kopen. Als je wil dat die leuk kan spelen, dan moet je kijken naar de prijs/prestaties van de 16xx serie (of het AMD equivalent).

Daarnaast moet je ook realistisch zijn, we gaan nu niet ineens een 100% verbetering in prijs/prestatie krijgen. Als we een 3070 krijgen met 2080TI performance, dan ben je gewoon onrealistisch als je verwacht dat die voor €400 verkocht gaat worden.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:47
Afbeeldingslocatie: https://i.imgur.com/DMtnWbQ.png

:+

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Zal je zien dat Ampère ook gemiddeld 30% duurder wordt :9

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sissors schreef op donderdag 20 augustus 2020 @ 11:24:
[...]

Want als NVidia de 2095TI voor €3000 introduceert, dan verminderd dat de opties voor andere mensen?

En nogmaals, ik zou ook willen dat prijzen lager worden. Tegelijk laten we nou niet net gaan doen alsof dat moet zodat ook de gemiddelde Egyptenaar een 3090 kan kopen. Als je wil dat die leuk kan spelen, dan moet je kijken naar de prijs/prestaties van de 16xx serie (of het AMD equivalent).

Daarnaast moet je ook realistisch zijn, we gaan nu niet ineens een 100% verbetering in prijs/prestatie krijgen. Als we een 3070 krijgen met 2080TI performance, dan ben je gewoon onrealistisch als je verwacht dat die voor €400 verkocht gaat worden.
Je mist het punt volledig. Ja, als Nvidia de prijs van hun duurste kaart op bijvoorbeeld €2000 zet, vermindert dat de opties voor mensen met een kleiner budget. Want de prijs van het snelste product bepaalt ook de positionering van alle producten eronder. Oudere kaarten kopen is ook niet altijd een optie, want dat aanbod is er simpelweg niet altijd. Het gaat er niet om dat een Egyptenaar een 3090 of whatever zou moeten kunnen kopen, het gaat er om dat er opties daar onder zijn.

Deze "logica" (het is sneller dus het "mag" duurder zijn) gaat simpelweg niet op. Op die manier houd je geen upgradecycle in leven en worden producten alsmaar duurder. Volgens die logica hadden we nu al op €8000 (disclaimer: willekeurig hoog bedrag gekozen; een Voodoo 2 kostte toentertijd al €250 dus €8000 is waarschijnlijk te laag) moeten zitten. En dan had mijn auto enkele tonnen moeten kosten.

Dat we geen 100% verbetering in prijs/prestatie moeten verwachten is logisch. De laatste generatie was echter 0,0 verbetering. Sterker nog, het was in sommige segmenten een achteruitgang. Elke twee jaar upgraden voor hetzelfde geld met in elk geval íets van een verbetering is altijd mogelijk geweest*, tot twee jaar geleden. Die trend moet niemand blij mee zijn en al zeker niet aanmoedigen. Het heeft niets te maken met goedkoper worden, het heeft te maken met de verhoudingen tussen generaties.

Zeg nu zelf, zou jij iemand met een 1060 of hoger aanraden om naar een RTX 2xxx te sidegraden? Want dat is wat het is. Voor het geld van een 1060, 1070 of 1080 in 2016 krijg je nu respectievelijk een 1660, 2060 of 2070. En dan rek ik de budgetten nog enigszins. En die 3 zijn ook niet allemaal in 2018 uitgekomen. Iedereen die nu een 10xx kaart heeft, heeft geen reet aan de hele 20xx range (binnen hetzelfde budget). Mijn 1080 Ti heeft pas vorig jaar in de vorm van de 2080S iets gekregen wat op een upgrade lijkt voor hetzelfde geld. Echter vreet dat ding ook meer stroom in plaats van minder, omdat de chip groter is en hoger geklokt is. Komt min of meer neer op een sidegrade naar een overgeklokte kaart. Maar och, dan mis ik de RT en Tensor cores, want ik zou toch o zo graag m'n framerate halveren na de "upgrade" :+


* niet noodzakelijkerwijs bij slechts één kamp. Vaak genoeg geweest dat je van de ene naar de andere generatie tussen Nvidia en ATI/AMD moest springen om er op vooruit te gaan, maar ook dat is helaas niet aan de orde. AMD heeft de laatste jaren ook niet meer op prijs kunnen concurreren.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Op een gegeven moment loopt dit nvidia pad denk ik toch dood. Dan maar niet Raytracen zullen veel mensen wellicht denken. Heb mijn 1080Ti ook nog niet geupdate. Enige reden dat ik dat nu waarschijnlijk wel ga doen is omdat er een aanzienlijk grotere monitor komt 3840*1600 en ik de klassieke renderpower nodig heb. RT zie ik over een x aantal jaar wel weer.

Pricing raakt stevig uit het lood ook in vergelijking tot wat consoles inmiddels kunnen.

nvidia aan de andere kant boeit het misschien minder. Restricted door waarschijnlijk redelijk fixed wafer aanbod bij de foundries verkopen ze het silicon denk ik, zolang die vraag er is, liever in de zakelijke markt waar de opbrengst per mm2 silicon hoger is.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 09:15

flessuh

Set sail for fail!

Het prijs "probleem" zie je vooral wanneer de nieuwe consoles er bij komen. Op dat moment heb je grafisch nog niet zo'n groot verschil dan tussen consoles en top onderdelen PC's aan het eind van de generatie consoles.
Wanneer dat grafische verschil veel beter te zien is hebben mensen sneller er geld voor over.

https://www.dutchsolarboat.com


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op donderdag 20 augustus 2020 @ 12:21:
[...]

Je mist het punt volledig. Ja, als Nvidia de prijs van hun duurste kaart op bijvoorbeeld €2000 zet, vermindert dat de opties voor mensen met een kleiner budget. Want de prijs van het snelste product bepaalt ook de positionering van alle producten eronder. Oudere kaarten kopen is ook niet altijd een optie, want dat aanbod is er simpelweg niet altijd. Het gaat er niet om dat een Egyptenaar een 3090 of whatever zou moeten kunnen kopen, het gaat er om dat er opties daar onder zijn.
En die 1 op 1 logica van: Als er een sneller product komt, moeten er dus minder tragere producten zijn, zie ik niet. Als er een markt is voor kaarten van €200, zullen er kaarten van €200 worden gemaakt. Dat er ook een kaart is van €3000 doet daar niks aan af.

Dat ik een Toyota Supra van €100k kan kopen, betekend niet dat ik geen Aygo kan kopen. Of dat een Aygo goedkoper zou zijn geweest als er geen Supra was geweest.

En is het punt dat de kaarten van €200 te weinig prestaties voor hun kosten bieden, klaag daar dan over. Dat er geen kaarten van €50 zijn komt denk ik voornamelijk omdat het bij moderne APU's gewoon niet meer interessant is om die te hebben.

En nogmaals, dit gaat niet erover dat de prijs/prestatie belabberd weinig toe is genomen de recente jaren, daar ben ik het helemaal mee eens. Alleen die focus op de prijs van de duurste GPU is mijn inziens gewoon vreemd.

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 02-02 22:28
Sommige mensen hier vergeten weleens dat NVIDIA een bedrijf is. Het is geen verplichting om een van deze kaarten te kopen. Je kan gewoon met je portemonnee stemmen en blijkbaar heeft de prijs van RTX 2080 Ti niet voldoende mensen afgeschrikt, waardoor NVIDIA (mogelijk) nog een stapje hoger gaat zitten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

flessuh schreef op donderdag 20 augustus 2020 @ 13:34:
Het prijs "probleem" zie je vooral wanneer de nieuwe consoles er bij komen. Op dat moment heb je grafisch nog niet zo'n groot verschil dan tussen consoles en top onderdelen PC's aan het eind van de generatie consoles.
Wanneer dat grafische verschil veel beter te zien is hebben mensen sneller er geld voor over.
Ja, alleen is het niveau vd consoles inmiddels zo goed, niet alleen qua graphics maar ook user experience dat dit naar mijn gevoel minder een rol gaat spelen zolang verbeterde graphics vooral RT betekent.

Het hele RT verhaal moet echt een stuk overtuigender worden willen mensen hier veel extra voor betalen verwacht ik.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Visgek82
  • Registratie: December 2002
  • Laatst online: 02-02 10:49
NotSoSteady schreef op donderdag 20 augustus 2020 @ 13:41:
Sommige mensen hier vergeten weleens dat NVIDIA een bedrijf is. Het is geen verplichting om een van deze kaarten te kopen. Je kan gewoon met je portemonnee stemmen en blijkbaar heeft de prijs van RTX 2080 Ti niet voldoende mensen afgeschrikt, waardoor NVIDIA (mogelijk) nog een stapje hoger gaat zitten.
Je hebt 100% gelijk. Mensen bepalen voor een heel groot deel zelf de prijs. als Nvidia, of welk bedrijf dan ook een product op de markt zet wat teveel kost waardoor niemand het koopt, gaat de prijs naar beneden of het wordt geschrapt. Doordat de veel te dure RTX reeks toch vrij goed verkocht is , weet Nvidia dat ze er wss wel weer mee weg komen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sissors schreef op donderdag 20 augustus 2020 @ 13:36:
En die 1 op 1 logica van: Als er een sneller product komt, moeten er dus minder tragere producten zijn, zie ik niet. Als er een markt is voor kaarten van €200, zullen er kaarten van €200 worden gemaakt. Dat er ook een kaart is van €3000 doet daar niks aan af.

Dat ik een Toyota Supra van €100k kan kopen, betekend niet dat ik geen Aygo kan kopen. Of dat een Aygo goedkoper zou zijn geweest als er geen Supra was geweest.

En is het punt dat de kaarten van €200 te weinig prestaties voor hun kosten bieden, klaag daar dan over. Dat er geen kaarten van €50 zijn komt denk ik voornamelijk omdat het bij moderne APU's gewoon niet meer interessant is om die te hebben.

En nogmaals, dit gaat niet erover dat de prijs/prestatie belabberd weinig toe is genomen de recente jaren, daar ben ik het helemaal mee eens. Alleen die focus op de prijs van de duurste GPU is mijn inziens gewoon vreemd.
Dit is waar de vergelijking met auto's echter niet 1:1 werkt. Een Aygo staat op een geheel ander platform dan een Supra; geinig dat je ook juist die twee neemt, aangezien de laatste nu een BMW is ;)

Neem bijvoorbeeld de VAG groep. Als zij de basis prijs van de Golf nu op €50k zouden stellen, dan heeft dat gevolgen voor de prijzen van de A3, León en (in mindere mate) Octavia. Die staan allemaal op hetzelfde platform en worden in de markt gezet om verschillende prijs segmenten te bedienen. De Polo zou echter óók duurder worden, dat product wordt immers als een baby-Golf op de markt gezet. Dat is de positionering, ook al zijn het verschillende platforms. En daardoor de Up! ook.

Zou dat werken? Van z'n leven niet. Uiteraard is het een feit dat VW wél harde concurrentie heeft. Daarnaast zou de consument het echter niet pikken als de Golf 8 pas bij €50k zou beginnen, want wat is de meerwaarde over een Golf 7.5? Iets zuiniger, iets meer tech in het interieur, iets opgefrist aan de buitenkant. En dat is het wel zo'n beetje. Daar gaat niemand dubbel zo veel voor betalen en VW zou binnen enkele weken die prijzen volledig terug draaien, want zelfs als lease bak zouden ze dan niet meer boeiend zijn.

Het is niet zo dat de segmenten nooit moeten verschuiven. Dat gebeurt overal, ook met auto's. Dat gezegd hebbende, zijn de segmenten binnen GPU's eigenlijk al 20 jaar niet veel verschoven.

Nogmaals, je mist volledig het punt. Het gaat er niet om of er wel of niet producten binnen een bepaalde prijsrange zijn. Als er in dat segment iets te verkopen valt, komen er inderdaad vast wel producten. Het gaat er om dat in de bestaande segmenten er al 4 jaar nauwelijks een verschuiving is doordat alle producten zo'n beetje een heel segment omhoog geschoven zijn - de 2080 Ti zelfs wel twee of drie segmenten. Nogmaals, zelfs in het segment van een 1080 Ti / 2080 Super (pak 'm beet €700) is er geen reden om een nieuwere kaart te kopen, behalve dan de e-peen factor.

Het gaat niet specifiek om de prijs van een specifiek product. Het gaat om wat de prijs van het top product betekent voor de rest van de range. Stel nu dat de 3090 een GA102 (de "big daddy chip") betreft en bijvoorbeeld +50% levert over TU102 (2080 Ti). Als Nvidia die op €2000 positioneert, betekent dat automatisch dat je in elk segment minimaal 50% meer moet gaan betalen voor diezelfde 30% bump. Tegen de tijd dat je dan in het "sweet spot" (€300-€400) segment komt (waar het meeste verkocht wordt) is er gewoon geen mogelijkheid om daar iets te bieden dat beter is dan het huidige (of het vorige) aanbod in dat segment. De 3090 of 2080 Ti zijn geen halo producten.

En om dan toch weer terug naar de auto's te gaan, Nvidia is geen Ferrari of Lamborghini. Het zijn geen statement producten die toevallig ook nog vrij rap zijn. Ze gaan geen 5 jaar mee. De restwaarde van hun producten is ook niet zo vast als die van een Ferrari, laat staan dat de restwaarde zelfs omhoog zou kunnen schieten. Ze kunnen ook niet met materiaalkwaliteit of iets dergelijks hun producten differentiëren.
Pagina: 1 ... 70 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.