Nee, gewoon het nieuws rondom de nieuwe GPU's volgen? Ampère gaat een flinke verbetering zijn ten opzichte van Turing. Gezien er al Ampère kaarten uit zijn in de zakelijk markt kun je daar dus al genoeg van afleiden.Werelds schreef op vrijdag 14 augustus 2020 @ 10:25:
[...]
Jij weet meer dan de rest van ons?
Dit wordt bij elke generatie geroepen en de laatste jaren klopt er geen reet van.
[...]
Het is niet eens 5%.
[...]
Welke geruchten? Heeft ook niets met de CPU te maken.
Welk "nieuws"? Het zijn allemaal geruchten en tot dusver zijn die geruchten niet bepaald schokkend of zelfs bijzonder hoopvol. Volgens de meest recente leaks zou het gaan om 13% meer shaders. Zelfs met de beste wil in de wereld gaat dat niet schokkend zijn, tenzij de kloksnelheden 50% hoger liggen. De meeste leaks van PCB's zijn ook met een overdaad qua stroomvoorziening, dus het ziet er ook niet naar uit dat het ding extreem veel efficiënter wordt. 2160p60 is nu al te doen in veel games; op basis van de leaks lijkt het er echter niet op dat 2160p120 ineens binnen bereik komt. Of dat er aan ligt dat de leaks niet kloppen of dat ze wel kloppen en de nieuwe chips vooralsnog niet indrukwekkend lijken te zijn laat ik in het middenbiggydeen2 schreef op vrijdag 14 augustus 2020 @ 14:07:
Nee, gewoon het nieuws rondom de nieuwe GPU's volgen? Ampère gaat een flinke verbetering zijn ten opzichte van Turing. Gezien er al Ampère kaarten uit zijn in de zakelijk markt kun je daar dus al genoeg van afleiden.
En die "zakelijke" Ampère producten kun je helemaal niets uit afleiden. Die zijn op alle vlakken anders: geheugen, indeling van de chip en vooral ook kloksnelheden. Maar als we daar dan toch naar willen kijken, dan zijn alles leaks hartstikke fout. Want A100 heeft maar liefst 6912 shaders. Dan komen die 5248 in de leaks niet eens in de buurt. Het is dan ook geen "zakelijk" product; het is specifiek voor de HPC markt. Zakelijk impliceert dat het ook nuttig is voor dezelfde doelgroep als workstations, maar dat is niet zo. Deze dingen hebben slechts één doel en dat is compute. Daarom zitten er ook geen display outputs op
Als dit klopt, dan hebben we eindelijk eens iets dat merkbaar positief zou zijn. Een paar honderd GB/s aan geheugenbandbreedte extra zou simpelweg een impact moeten hebben op de chips. De vraag blijft alleen clocks, node, ALU's en architectuur. Is het werkelijk maar 5375 ALU's voor GA-102, dan is dat niet indrukwekkend veel over TU-102. Het gaat dan waarschijnlijk om clock speeds voor de serieuze prestatieverbeteringen en daar is natuurlijk de vraag of het TSMC 7nm of Samsung 8nm gaat zijn. Je mag er gerust vanuit gaan dan TSMC 7nm beter is.RobinNL schreef op vrijdag 14 augustus 2020 @ 13:54:
NVIDIA GeForce RTX 3090 gets 21Gbps GDDR6X memory
Micron heeft bevestigd dat het werkt aan GDDR6X geheugen in samenwerking met Nvidia voor de Ampere videokaarten.
[...]
[...]
The new information would therefore confirm:
- Next-generation GeForce RTX series are codenamed “30”
- The flagship model is indeed called GeForce RTX 3090
- NVIDIA GeForce RTX series will have GDDR6X memory
- RTX 3090 would sport 21 Gbps memory modules with bandwidth up to 1 TB/s
[Afbeelding]
Ik vind het alleen wel opvallend dat het GDDR6X zou zijn. Ik volg dit hieronder losjes en met enige scepsis de afgelopen maanden. Ergens koester ik namelijk een zekere mate van wantrouwen, het gevoel dat er iets niet klopt wat ik maar niet kan afschudden, maar ik begin te vermoeden dat het echt wel eens kan kloppen.
Ik ga hier alleen in op Nvidia, maar AMD en Intel zitten er ook tussen.
Immers heeft hij het steeds over zaken zoals GDDR6X, 7nm vs. 8nm, die 5376 ALU's en nu (7:37) ook NVCache wat mij uiteraard het meest interesseert omdat dit zowel DDR als je SSD zou kunnen aanspreken voor snellere laadtijden en VRAM gebruik. Waarschijnlijk alleen voor Quadro en Titan, maar toch. Prestaties zouden ook afhangen van de node, met als het 7nm is, 45-60% sneller dan RTX2080ti.
Weet je, ik hoop dat laatste ook zo is. Dat zou in een keer een einde maken aan de luie mentaliteit dan 20 a 30% elke twee jaar afdoende is. Dat is het niet, zeker niet als de prijzen elke generatie ook nog eens omhoog gaan en het is onderbelicht, maar de gemiddelde kwaliteit van GeForce partnerkaarten is ook aan het zakken, generatie op generatie.
Zulke stappen zetten zou meteen ook een einde maken aan het idee dat ze niet beter kunnen en het gaat lastig worden om maar een langzame iteratie na iteratie uit te voeren als mensen weer een verwachtingspatroon ontwikkelen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
^
Anand heeft er ook een redelijk uitgebreid artikel over:
Micron Spills on GDDR6X: PAM4 Signaling For Higher Rates, Coming to NVIDIA’s RTX 3090
Anand heeft er ook een redelijk uitgebreid artikel over:
Micron Spills on GDDR6X: PAM4 Signaling For Higher Rates, Coming to NVIDIA’s RTX 3090
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
De geruchten tot dusver zijn dat de RTX3090 rond de 50% sneller zal zijn dan de 2080TI. Dat noem ik toch vrij hoopvol gezien de 2080Ti nog steeds een beest is. Qua efficiëntie en stroom gebruik zal het wellicht iets minder zijn relatief gezien, gezien ze de naar vermoeden 8nm van Samsung moeten gebruiken ipv de 7nm van TSMC. Dus hogere clocks nodig hebben ten opzichte van Big Navi omdat deze wel op 7nm zit.Werelds schreef op vrijdag 14 augustus 2020 @ 14:40:
[...]
Welk "nieuws"? Het zijn allemaal geruchten en tot dusver zijn die geruchten niet bepaald schokkend of zelfs bijzonder hoopvol. Volgens de meest recente leaks zou het gaan om 13% meer shaders. Zelfs met de beste wil in de wereld gaat dat niet schokkend zijn, tenzij de kloksnelheden 50% hoger liggen. De meeste leaks van PCB's zijn ook met een overdaad qua stroomvoorziening, dus het ziet er ook niet naar uit dat het ding extreem veel efficiënter wordt. 2160p60 is nu al te doen in veel games; op basis van de leaks lijkt het er echter niet op dat 2160p120 ineens binnen bereik komt. Of dat er aan ligt dat de leaks niet kloppen of dat ze wel kloppen en de nieuwe chips vooralsnog niet indrukwekkend lijken te zijn laat ik in het midden
En die "zakelijke" Ampère producten kun je helemaal niets uit afleiden. Die zijn op alle vlakken anders: geheugen, indeling van de chip en vooral ook kloksnelheden. Maar als we daar dan toch naar willen kijken, dan zijn alles leaks hartstikke fout. Want A100 heeft maar liefst 6912 shaders. Dan komen die 5248 in de leaks niet eens in de buurt. Het is dan ook geen "zakelijk" product; het is specifiek voor de HPC markt. Zakelijk impliceert dat het ook nuttig is voor dezelfde doelgroep als workstations, maar dat is niet zo. Deze dingen hebben slechts één doel en dat is compute. Daarom zitten er ook geen display outputs op
Uiteraard zegt de performance van de zakelijke kaarten niks maar als je de zakelijke kaarten onderling vergelijkt is de A100 43% sneller dan de Turing variant. Dat is dus in lijn met de 40-50% performance geruchten ten opzichte van een 2080TI.
2160p 60fps is te doen maar met pijn en moeite. En daarvoor heb je een 1200 euro kostende 2080ti voor nodig. Ik verwacht dat de RTX3000 serie toch echt een stuk sneller en goedkoper zal zijn. Maar goed, het blijven geruchten. Nog even wachten en we weten het. Ik verwacht niks minder dan 40-50% performance over de 2080TI in ieder geval.
Die 50% die je regelmatig ziet voorbij komen gaat over de raytracing performance.biggydeen2 schreef op vrijdag 14 augustus 2020 @ 19:24:
[...]
De geruchten tot dusver zijn dat de RTX3090 rond de 50% sneller zal zijn dan de 2080TI. Dat noem ik toch vrij hoopvol gezien de 2080Ti nog steeds een beest is.
Het lijkt me sterk dat de nieuwe generatie maar 50% meer RT performance zou hebben. Dit is gebaseerd op een TimeSpy gaming benchmark. Niet echt realistisch voor echte games maar zegt wel iets over de performance mocht het waar zijn.XWB schreef op vrijdag 14 augustus 2020 @ 19:38:
[...]
Die 50% die je regelmatig ziet voorbij komen gaat over de raytracing performance.
Ik mag toch hopen van niet zeg. Als het 50% voor RT is en minder voor shaders, tja wat voor goeds moeten we daar precies van vinden? Is RT nu iets minder waardeloos omdat het je framerate niet meer door de helft hakt voor wat simpele effecten die overdreven worden omdat de meeste RTX games, fatsoenlijke shader based lichteffecten missen.XWB schreef op vrijdag 14 augustus 2020 @ 19:38:
[...]
Die 50% die je regelmatig ziet voorbij komen gaat over de raytracing performance.
Als er iets is dat Ampère echt moet verbeteren, dan is het RT. Je kan niet twee jaar lang maar RT lopen marketen als de reden waarom je een Nvidia moet kopen en dan nauwelijks vooruitgang boeken.
Als Anandtech er moeite aan gaat besteden, dan zit het er waarschijnlijk wel aan te komen. In ieder geval dus iets nieuws.Help!!!! schreef op vrijdag 14 augustus 2020 @ 17:51:
^
Anand heeft er ook een redelijk uitgebreid artikel over:
Micron Spills on GDDR6X: PAM4 Signaling For Higher Rates, Coming to NVIDIA’s RTX 3090
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Er is geen "Turing variant" van dezelfde reeks waar A100 onder valt. TU102 is de grootste chip en die is gewoon op rendering gericht. A100 is enkel verkrijgbaar in DGX, waar je dus meteen 8 stuks krijgt voor het zachte prijsje van $199k. Er is geen Tesla of Quadro variant van Ampere waar mee te vergelijken valt.biggydeen2 schreef op vrijdag 14 augustus 2020 @ 19:24:
Uiteraard zegt de performance van de zakelijke kaarten niks maar als je de zakelijke kaarten onderling vergelijkt is de A100 43% sneller dan de Turing variant. Dat is dus in lijn met de 40-50% performance geruchten ten opzichte van een 2080TI.
Als je het over Tesla Turing hebt, dan is zelfs 50% niet genoeg want de Tesla T4 is gebaseerd op de TU104, de chip van de 2070S/2080/2080S.
En als je het over Quadro RTX hebt dan kan die 43% ook nooit kloppen aangezien zelfs de rauwe rekenkracht van A100 nog geen 20% hoger ligt dan die van een Quadro 8000.
Die 43% baseer jij op een OctaneBench resultaat van begin dit jaar. Dat percentage klopte sowieso al niet, want dat was naar de median van TU102 gerekend, die flink omlaag is getrokken door slechte resultaten. Het was eerder zo'n 30% met een normaal draaiende TU102. Maar zelfs die 43% zou niet indrukwekkend zijn omdat A100 over de 400W kan trekken. En als je het dan vergelijkt met V100 (dat is dus Pascal + Tensor cores uit 2017) dan was die score slechts zo'n 25% hoger. En dat komt bijna 100% overeen met de rauwe rekenkracht. Maar dan wel met een TDP dat 33% hoger ligt.
Ik raad je aan sites als WCCFtech met een zakje zout te nemen, want die nuanceren helemaal niets. Dat zijn clickbait titels waar je echt 0,0 waarde aan moet hechten. Duik zelf eens in de cijfers. Nogmaals, niets van wat er "gelekt" is of wat er beschikbaar is aan bench resultaten duidt tot nu toe op de cijfers die jij lijkt te verwachten.
Ik bedoel inderdaad de V100 vs A100. Maar gezien dat verschillende architecturen zijn ten opzichte van RTX kaarten valt daar niet zoveel uit te halen.Werelds schreef op vrijdag 14 augustus 2020 @ 22:46:
[...]
Er is geen "Turing variant" van dezelfde reeks waar A100 onder valt. TU102 is de grootste chip en die is gewoon op rendering gericht. A100 is enkel verkrijgbaar in DGX, waar je dus meteen 8 stuks krijgt voor het zachte prijsje van $199k. Er is geen Tesla of Quadro variant van Ampere waar mee te vergelijken valt.
Als je het over Tesla Turing hebt, dan is zelfs 50% niet genoeg want de Tesla T4 is gebaseerd op de TU104, de chip van de 2070S/2080/2080S.
En als je het over Quadro RTX hebt dan kan die 43% ook nooit kloppen aangezien zelfs de rauwe rekenkracht van A100 nog geen 20% hoger ligt dan die van een Quadro 8000.
Die 43% baseer jij op een OctaneBench resultaat van begin dit jaar. Dat percentage klopte sowieso al niet, want dat was naar de median van TU102 gerekend, die flink omlaag is getrokken door slechte resultaten. Het was eerder zo'n 30% met een normaal draaiende TU102. Maar zelfs die 43% zou niet indrukwekkend zijn omdat A100 over de 400W kan trekken. En als je het dan vergelijkt met V100 (dat is dus Pascal + Tensor cores uit 2017) dan was die score slechts zo'n 25% hoger. En dat komt bijna 100% overeen met de rauwe rekenkracht. Maar dan wel met een TDP dat 33% hoger ligt.
Ik verwacht zeker wel meer dan 25% van 12nm vs 8nm/7nm + een verbeterde architectuur en naar verluidhogere TDP.
En wat betreft leaks heb je zeker gelijk. Het blijft gissen maar vorig jaar zijn er zeker dingen geleaked die ook waar bleken te zijn. In dat opzicht kunnen we maar beter wachten tot eind dit jaar totdat zowel Big Navi, beide consoles en RTX3000 verkrijgbaar zijn en alles naast elkaar te gooien.
Mocht de RTX3000 top model maar 25% sneller zijn dan de 2080ti heeft Nvidia wel echt een probleem. Aan de andere kant is DLSS 2.0 en DLSS 3.0 wel echt veel belovend. Als deze technieken nog flink verbeterd worden heb je geen native 4k meer nodig. Precies hetzelfde als Faux 4k vs native 4k beamers.
[ Voor 3% gewijzigd door biggydeen2 op 15-08-2020 10:27 ]
Rogame, dus met iets minder zout dan normaal te nemen.
RTX3090
GA-102 zonder naam (vermoed zelf RTX3080)
Nee, dit is niet indrukwekkend, verre van. Waarschijnlijk boosten de videokaarten wederom ver boven de geadverteerde boost clocks, maar het zijn geen ruime marges die vertrouwen doen wekken. Op deze manier gaat het om forse architectuur verbeteringen, toch een veel grotere chip dan eentje met 5376 ALU's en veel sneller geheugen voor de echte winst.
RTX3090
[Nvidia Ampere] 🧐
— _rogame 🇵🇸 (@_rogame) 14 augustus 2020
GA102 24GB / 3090
> 1410MHz base clock
> 1740MHz boost clock
Compared to the Titan RTX these clocks are +60MHz/-30MHz
Titan RTX is 1350MHz/1770MHz https://t.co/bYGbIsF4z6
GA-102 zonder naam (vermoed zelf RTX3080)
[Nvidia Ampere] 🧐
— _rogame 🇵🇸 (@_rogame) 13 juli 2020
GA102 clocks
One of variant has :
> 1485MHz base clock
> 1740MHz boost clock
that's +135MHz/+195MHz over 2080 Ti and +135MHz/+105MHz over 2080 Ti FE
I don't know how much headroom is there for GPU Boost
Nee, dit is niet indrukwekkend, verre van. Waarschijnlijk boosten de videokaarten wederom ver boven de geadverteerde boost clocks, maar het zijn geen ruime marges die vertrouwen doen wekken. Op deze manier gaat het om forse architectuur verbeteringen, toch een veel grotere chip dan eentje met 5376 ALU's en veel sneller geheugen voor de echte winst.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waarom zou dat een probleem zijn voor Nvidia? Met een 25% boost zitten ze waarschijnlijk alsnog (ruim) boven AMD met het topmodel. En behalve de hele kleine groep voor wie geld geen bezwaar is, gaat het bij de meeste om prijs/performance. Als de 3080TI/3090 'maar' 25% sneller is dan de 2080TI, maar doordat ze op een goedkoop Samsung proces zitten voor €800 wordt aangeboden, denk ik dat heel veel mensen heel blij zijn, en Nvidia hele goede verkopen doet. Of wat waarschijnlijker is, hij wordt voor €1200 aangeboden, mensen kopen hem alsnog, en de Nvidia aandeelhouders zijn heel erg blijbiggydeen2 schreef op zaterdag 15 augustus 2020 @ 09:09:
[...]
Ik bedoel inderdaad de V100 vs A100. Maar gezien dat verschillende architecturen zijn ten opzichte van RTX kaarten valt daar niet zoveel uit te halen.
Ik verwacht zeker wel meer dan 25% van 12nm vs 8nm/7nm + een verbeterde architectuur en naar verluidhogere TDP.
En wat betreft leaks heb je zeker gelijk. Het blijft gissen maar vorig jaar zijn er zeker dingen geleaked die ook waar bleken te zijn. In dat opzicht kunnen we maar beter wachten tot eind dit jaar totdat zowel Big Navi, beide consoles en RTX3000 verkrijgbaar zijn en alles naast elkaar te gooien.
Mocht de RTX3000 top model maar 25% sneller zijn dan de 2080ti heeft Nvidia wel echt een probleem. Aan de andere kant is DLSS 2.0 en DLSS 3.0 wel echt veel belovend. Als deze technieken nog flink verbeterd worden heb je geen native 4k meer nodig. Precies hetzelfde als Faux 4k vs native 4k beamers.
Maar de TL;DR is dat performance op zichzelf absoluut niks zegt voor de consument, en dus het succes van de 30XX lijn. Het gaat om prijs/performance. Dat Nvidia voor een Samsung proces is gegaan zal niet zijn omdat die superieure performance haalt tov TSMC. Dus lijkt het mij niet heel vergezocht dat ze een aantrekkelijke aanbieding hebben gehad (vooral gezien het probleem van Samsung om klanten voor hun Foundry business te vinden, en toch de wens van ze om een serieuze concurrent van TSMC te worden).
[ Voor 13% gewijzigd door Sissors op 15-08-2020 13:06 ]
Dat is zeker een goed punt. Ik denk dat de meeste mensen daar blij mee zullen zijn. Echter 4k60fps+ met alle toeters en bellen op ultra (in de grotere games) is nu niet of net aan mogelijk op een 2080ti. Stel het nieuwe vlaggenschip zal 25% sneller zijn is het dus wel mogelijk maar veel marge heb je ook niet. Ook al zal de kaart $800 kosten lijkt me dat niet echt een toekomstbestendige uitgave als je op 4k met alle toeters en bellen wilt spelen. Tenzij je al een 2080ti hebt en deze tweedehands kunt verkopen voor $600. Gezien er ook nieuwe consoles uitkomen gaan games er de komende jaren veel meer vragen van een pc.Sissors schreef op zaterdag 15 augustus 2020 @ 13:04:
[...]
Waarom zou dat een probleem zijn voor Nvidia? Met een 25% boost zitten ze waarschijnlijk alsnog (ruim) boven AMD met het topmodel. En behalve de hele kleine groep voor wie geld geen bezwaar is, gaat het bij de meeste om prijs/performance. Als de 3080TI/3090 'maar' 25% sneller is dan de 2080TI, maar doordat ze op een goedkoop Samsung proces zitten voor €800 wordt aangeboden, denk ik dat heel veel mensen heel blij zijn, en Nvidia hele goede verkopen doet. Of wat waarschijnlijker is, hij wordt voor €1200 aangeboden, mensen kopen hem alsnog, en de Nvidia aandeelhouders zijn heel erg blij
Maar de TL;DR is dat performance op zichzelf absoluut niks zegt voor de consument, en dus het succes van de 30XX lijn. Het gaat om prijs/performance. Dat Nvidia voor een Samsung proces is gegaan zal niet zijn omdat die superieure performance haalt tov TSMC. Dus lijkt het mij niet heel vergezocht dat ze een aantrekkelijke aanbieding hebben gehad (vooral gezien het probleem van Samsung om klanten voor hun Foundry business te vinden, en toch de wens van ze om een serieuze concurrent van TSMC te worden).
Ik denk dat de markt ook een beetje gaat verschuiven langzamerhand. Je gaat geen 3000 serie kopen om op 1080p te gamen. Dus kom je direct bij 1440p en 2160p uit. Het duurdere segment. Persoonlijk hoop ik dat met een 3080 1440p 144hz met alle toeters en bellen mogelijk is. Mochten ze toch langzamer zijn dan verwacht dan ga ik niet upgraden ongeacht de prijs. Of ze moeten al heel goedkoop worden maar dat verwacht ik niet.
Wat betreft Samsung vs TSMC heb ik gelezen (geruchten) dat AMD voorrang heeft bij TSMC vanwege o.a. corona (capaciteit problemen) en dat Nvidia daardoor op de 8nm van Samsung zit. Andere geruchten zijn dat daardoor het stroomverbruik ook hoger is zodat hogere clocks mogelijk zijn. 7nm is wat dat beteft over het algemeen beter dan 8nm. Volgens mij zit de A100 ook op 7nm van TSMC.
Nvidia kennende willen ze altijd de performance crown en gaan niet zomaar op een grotere node zitten. Gezien de grote winsten die ze maken vraag ik me af of prijs een probleem is. En uiteindelijk maakt de kostprijs niet zoveel uit. Ook al zijn ze qua kostprijs veel beter uit, de eerste tijd zal er geen concurrentie zijn. Ze kunnen dus vragen wat ze willen. Ik hoop dat de prijzen mee gaan vallen met een flinke boost ten opzichte van Turing. Maar wellicht gooien ze het dit keer over een andere boeg. Ik denk wel dat als Nvidia doet wat jij schetst ze wel (veel) meer kaarten gaan verkopen.
Wat dat betreft verwacht ik toch zeker een behoorlijke boost ten opzichte van turing gezien de node verkleining naar 8nm en het veel hogere verbruik. Normaal gesproken zou een kleinere node efficienter zijn qua verbruik.
Maar goed, we zullen het eind deze maand wel zien
But why?biggydeen2 schreef op zaterdag 15 augustus 2020 @ 14:13:
[...]
Echter 4k60fps+ met alle toeters en bellen op ultra (in de grotere games) is nu niet of net aan mogelijk op een 2080ti. Stel het nieuwe vlaggenschip zal 25% sneller zijn is het dus wel mogelijk maar veel marge heb je ook niet. Ook al zal de kaart $800 kosten lijkt me dat niet echt een toekomstbestendige uitgave als je op 4k met alle toeters en bellen wilt spelen.
Tenzij op een grote 4K TV, waarom zou je op een PC 4k willen voor games?
Ik bedoel sure als je (net als mijn partner) 2x een 32" scherm voor je neus hebt snap ik 4K in games een beetje, maar daaronder qua scherm maat wat is het voordeel in 4K gaming tegenover 1440p?
En ik vraag mij dit serieus af, ik ken iemand die recent zijn oude 4k 60 scherm heeft vervangen voor een 4k 144hz maar dat ding is 27" en in games viel het verschil mij best wel tegen (van 22" 1080p naar 1440p 27" zie ik meer verschil) en het kost wel fors wat meer rekenkracht voor dat kleine verschil (want meer pixels)
ik tel non gaming taken niet mee, 4K heeft daar absoluut nut voor omdat je onder andere meer plek hebt op je desktop
Ik denk dat 4K gewoon nog een poos op zich laat wachten, ik ken iemand die al 9 jaar op 1440p/1600p games speelt en wij hadden nog recent discussie over dat het best lang duurde voordat je "met alle toeters en bellen" 1440p 60 kon behalen met bijna alle games zonder top of the line GPU, ik denk zelf dat de komende Nvidia/AMD generatie ons wel dichterbij 4K 60 brengt, maar dat het gewoon nog niet genoeg zal zijn.
De generatie na deze zou 4K 60 misschien eerder kunnen, en dan doel ik op alles erop en eraan 4K 60 met nadruk op misschien, want in feite met de juiste settings is 4K 60 nu al prima mogelijk, want de nieuwe consoles gaan heus niet op PC settings die 4K halen, soms moet je een beetje reëel blijven.
om maar over te zwijgen dat ik vrij recent met iemand nog een discussie had waarom 8K gaming nog een lange poos niet gaat gebeuren, en dat omdat diegene in 8K op zijn Tv wil gamen...
Sowieso omdat de details steeds fijner worden bij hogere resolutie, gaat upscalen met bijvoorbeeld DLSS ook gewoon een betere optie worden. Kleine foutjes in upscale algorithmes vallen dan toch niet zo snel op.
Als je het op die manier bekijkt dan is dat redelijk logisch.Sissors schreef op zaterdag 15 augustus 2020 @ 15:51:
Sowieso omdat de details steeds fijner worden bij hogere resolutie, gaat upscalen met bijvoorbeeld DLSS ook gewoon een betere optie worden. Kleine foutjes in upscale algorithmes vallen dan toch niet zo snel op.
Misschien ben ik ouderwets, maar ik speel liever op 1440p zonder DLSS dan op 4k met (ik zou zelf pas overstappen op 4k als dat native zou werken)
Maar misschien zijn DLSS en non native resoluties de nieuwe toekomst qua PC gaming, wie weet.
[ Voor 4% gewijzigd door Mizgala28 op 15-08-2020 15:58 ]
1440p is voor mij prima qua gaming. Maar ik heb ook een 4k beamer aan mijn pc hangen. Alleen 4k gamen op een 2070S (zonder gsync) is gewoon geen doen. Dus voor mijn perfecte scenario hoop ik op 1440p 144hz gsync met alle toeters en bellen en 60fps op 4k met vsync.Mizgala28 schreef op zaterdag 15 augustus 2020 @ 15:41:
But why?
Tenzij op een grote 4K TV, waarom zou je op een PC 4k willen voor games?
Aan de andere kant, als ze DLSS goed doorontwikkelen is native 4k niet eens meer nodig. Ik heb nu ook een faux 4k beamer en geen native 4k. Heb zowel faux als native 4k in het echt gezien en je ziet het verschil gewoon niet (alleen van heel dichtbij wat niet realistisch is in de praktijk). Echter voor een native 4k beamer leg je wel het dubbele neer. TJa dan is de keuze snel gemaakt.
Ik heb resoluties die niet passen bij het beeldformaat nog nooit begrepen. Waarom zou je 4k op een 27inch scherm willen spelen. Net zoals 1280x1024 op een 27inch scherm dat past gewoon niet goed.
Je legt de lat wel heel hoog voor jezelfbiggydeen2 schreef op zaterdag 15 augustus 2020 @ 14:13:
[...]
Echter 4k60fps+ met alle toeters en bellen op ultra (in de grotere games) is nu niet of net aan mogelijk op een 2080ti.
Dat is ook mijn eerste idee hoor, en ik heb uberhaupt geen Nvidia kaart momenteel om mee te proberen. Tegelijk komt er hier een 4k VR headset aan. En in zijn algemeenheid zie ik foveated rendering nog steeds als de heilige graal voor VR performance, maar DLSS moet ook een goede toevoeging kunnen zijn om hoog resolutie headsets alsnog op 90Hz aan te kunnen sturen (of sneller).Mizgala28 schreef op zaterdag 15 augustus 2020 @ 15:57:
[...]
Als je het op die manier bekijkt dan is dat redelijk logisch.
Misschien ben ik ouderwets, maar ik speel liever op 1440p zonder DLSS dan op 4k met (ik zou zelf pas overstappen op 4k als dat native zou werken)
Maar misschien zijn DLSS en non native resoluties de nieuwe toekomst qua PC gaming, wie weet.
Begrijp mij niet verkeerd, op een 4K bij een kennis zien games met DLSS er goed uit op 4K (op een afstand van ongeveer 2.5 meter, betreft een 60" TV)biggydeen2 schreef op zaterdag 15 augustus 2020 @ 15:59:
Aan de andere kant, als ze DLSS goed doorontwikkelen is native 4k niet eens meer nodig. Ik heb nu ook een faux 4k beamer en geen native 4k. Heb zowel faux als native 4k in het echt gezien en je ziet het verschil gewoon niet (alleen van heel dichtbij wat niet realistisch is in de praktijk).
Maar ik speel games 90% van de tijd aan mijn bureau, en op ongeveer 60cm tot 65cm afstand dat ik van mijn scherm zit, zie ik dat verschil er wel (minus Control, daar is dat verschil erg moeilijk te zien)
Maar ik blijf bij mijn punt, ik ben ouderwets echter als het een TV betreft of zoals in jouw geval een beamer dan lijkt DLSS mij een goede oplossing (helaas is de ondersteuning ervan waardeloos en ik zie dat niet snel veranderen)
Voor productiviteit snap ik het wel, maar voor gaming lijkt 4K onder 32" mij persoonlijk niet zinvol (niet nu, als wij inmiddels op het punt zijn dat 4k 60 op max settings een eitje is, dan heeft het wel enige nut. Want voor nu lever je gewoon te veel performance in om dat te behalen)Ik heb resoluties die niet passen bij het beeldformaat nog nooit begrepen. Waarom zou je 4k op een 27inch scherm
[ Voor 6% gewijzigd door Mizgala28 op 15-08-2020 16:30 ]
Weet je, ik durf te stellen dat we 4K nooit gaan halen als Nvidia niet eens met wat meer komt dan 20 a 30% elke twee jaar. Immers moet Nvdidia de afgelopen jaren de kar trekken terwijl Radeon wat goedkopere opties in de marge had. Volgens mij gaat het namelijk al sinds Maxwell over dat je nu 4K aankan met insert xx80Ti naar keuze, maar telkens blijken de videokaarten eigenlijk tekort te schieten als er iets grafisch intens verschijnt qua games. 
Het 4K streven is zinloos als wat tegenwoordig door moet gaan voor high end, al moeite heeft met 1440p in de zware games zoals RDR2. 4K is onderhand weinig meer dan een loze marketingkreet. Ik ga bijvoorbeeld rustig wachten wat Cyperpunk 2077 met de komende generatie gaat doen. En hopen dat Nvidia die game niet gaat verpesten voor de mensen zonder een Ampère...
Het 4K streven is zinloos als wat tegenwoordig door moet gaan voor high end, al moeite heeft met 1440p in de zware games zoals RDR2. 4K is onderhand weinig meer dan een loze marketingkreet. Ik ga bijvoorbeeld rustig wachten wat Cyperpunk 2077 met de komende generatie gaat doen. En hopen dat Nvidia die game niet gaat verpesten voor de mensen zonder een Ampère...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Kaarten gaan 4k pas aankunnen als de gemiddelde gamer op 4k zit, of op zijn minst of 1440p. Als Nvidia morgen een kaart released met 2x de rekenkracht voor dezelfde prijs als we nu hebben, dan releasen overmorgen de game developers nieuwe games met meer textures, mooiere schaduwen, etc, zodat de framerates weer vergelijkbaar zijn en 4k alsnog niet/nauwelijks te doen is.
[ Voor 5% gewijzigd door Sissors op 15-08-2020 17:18 ]
Nvidia rond de overname van ARM mogelijk in de zomer al af
Bron: https://www.standard.co.u...ipmaker-arm-a4524761.html
Hoe groot is de kans eigenlijk dat dit echt door zou gaan?
Bron: https://www.standard.co.u...ipmaker-arm-a4524761.html
Hoe groot is de kans eigenlijk dat dit echt door zou gaan?
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Weet niet wat de oorpsrong is, en of dit relevant en/of waar is::strip_exif()/f/image/elCQDsEusMRFenylBv73B5vF.jpg?f=fotoalbum_large)
https://forums.guru3d.com...fx-part-2.423193/page-133
:strip_exif()/f/image/elCQDsEusMRFenylBv73B5vF.jpg?f=fotoalbum_large)
https://forums.guru3d.com...fx-part-2.423193/page-133
Niet op voorraad.
^
Adored denkt nu dat Ampere gaming gpu's op Samsung 5LPE gemaakt worden wat wellicht de betere performance deels kan verklaren.
Ik neem het voorlopig allemaal voor kennisgeving aan en zie wel wat het wordt. Hoop smoke en mirrors. En dan krijgen we zo eerst weer dat hele uitmelken vd launch. Aankondiging vd aankondiging. Aankondiging met wat details. Aankondiging met alle details. Reviews. Wachten op launch. Moeilijk te leveren.

Voor mijn nieuwe monitor (3840*1600) heb ik denk ik aan klassieke render performance, dus zonder RT, toch wel minimaal 2080Ti performance met freesync nodig om gevoelsmatig ongeveer vergelijkbare prestaties te hebben als nu met een 1080Ti op 1440p zonder freesync. Maar misschien overwaardeer ik invloed freesync wel wat teveel gezien het 66% meer pixels zijn.
Een 3070 /3080 gaat dat vast wel leveren.
Adored denkt nu dat Ampere gaming gpu's op Samsung 5LPE gemaakt worden wat wellicht de betere performance deels kan verklaren.
Ik neem het voorlopig allemaal voor kennisgeving aan en zie wel wat het wordt. Hoop smoke en mirrors. En dan krijgen we zo eerst weer dat hele uitmelken vd launch. Aankondiging vd aankondiging. Aankondiging met wat details. Aankondiging met alle details. Reviews. Wachten op launch. Moeilijk te leveren.
Voor mijn nieuwe monitor (3840*1600) heb ik denk ik aan klassieke render performance, dus zonder RT, toch wel minimaal 2080Ti performance met freesync nodig om gevoelsmatig ongeveer vergelijkbare prestaties te hebben als nu met een 1080Ti op 1440p zonder freesync. Maar misschien overwaardeer ik invloed freesync wel wat teveel gezien het 66% meer pixels zijn.
Een 3070 /3080 gaat dat vast wel leveren.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Het probleem is dat Adored ging speculeren. De laatste keer dat hij dat deed, tja toen kregen we 5GHz Zen 2 voor veel te lage prijzen.
Verder als de volle GA102, 24TFLOPS FP32 haalt, uh wat ik dan precies het punt van de 19,5TFLOPS GA100. Je weet wel, die gigantische 826 mm² chip met een TDP van 400W, geproduceerd op TSMC 7nm. Verder waarom zou Nvidia haar vlaggenschip GA100 op TSMC 7nm laten produceren, als Samsung "5nm", een geëvolueerd 7nm EUV node, ook beschikbaar is.
Als laatste wordt de bron ook aardig afgemaakt door de leakers die in de regel goed zitten. Zie deze hele thread. In ieder geval al tekenend dat RDNA2 kennelijk een perf/watt verlies van 45% zou hebben over RDNA1. Right.
Maar ik heb ook nog wat simpele, praktische bezwaren naast dat GA102, GA100 dus niet gaat verslaan, want gigantische 826 mm² chip. Zaken zoals die floating points omzetten in 3D vraagt om nogal wat extra hardware voorbij het shader stadium. Dat kost ook ruimte. Verder is er nog RT en dat is denk ik de oplossing. GA100 haar tensorcores zijn geüpdatet naar FP32 capable en dat zou wel eens overgedragen kunnen worden naar GA102. Dat is waarschijnlijk niet voor shaders, maar voor denoising van RT. Krijg je dus fors betere, AI denoised RT prestaties. Zou me niks verbazen als je dan alsnog een relatief miserabel aantal rays hebt, maar Nvidia nog veel beter kan denoisen waardoor het lijkt alsof het betere, echte RT is.
Verder als de volle GA102, 24TFLOPS FP32 haalt, uh wat ik dan precies het punt van de 19,5TFLOPS GA100. Je weet wel, die gigantische 826 mm² chip met een TDP van 400W, geproduceerd op TSMC 7nm. Verder waarom zou Nvidia haar vlaggenschip GA100 op TSMC 7nm laten produceren, als Samsung "5nm", een geëvolueerd 7nm EUV node, ook beschikbaar is.
Als laatste wordt de bron ook aardig afgemaakt door de leakers die in de regel goed zitten. Zie deze hele thread. In ieder geval al tekenend dat RDNA2 kennelijk een perf/watt verlies van 45% zou hebben over RDNA1. Right.
@hms1193 @wccftechdotcom @AdoredTV @MConnatserAPC @RedGamingTech @boot_sequence 1/6
— Avery (@Avery78) 14 augustus 2020
Summary of leaks from Baidu forums. The main leaker beats with time stamps KatCorgi and Kopitekimi in places. Make of what will just sharing... pic.twitter.com/Twt0KvuARa
Maar ik heb ook nog wat simpele, praktische bezwaren naast dat GA102, GA100 dus niet gaat verslaan, want gigantische 826 mm² chip. Zaken zoals die floating points omzetten in 3D vraagt om nogal wat extra hardware voorbij het shader stadium. Dat kost ook ruimte. Verder is er nog RT en dat is denk ik de oplossing. GA100 haar tensorcores zijn geüpdatet naar FP32 capable en dat zou wel eens overgedragen kunnen worden naar GA102. Dat is waarschijnlijk niet voor shaders, maar voor denoising van RT. Krijg je dus fors betere, AI denoised RT prestaties. Zou me niks verbazen als je dan alsnog een relatief miserabel aantal rays hebt, maar Nvidia nog veel beter kan denoisen waardoor het lijkt alsof het betere, echte RT is.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Weer goede punten Daniel, al weet ik even niet of de GA100 nog mee had kunnen liften op een evt. 5nm procedé als die al bestaat/gereed is.
Niet op voorraad.
Zelfde reden is dat ik de geruchten van 3080TI/3090 met +25/30% performance op 350W niet geloof. Dat zou een -15% in perf/watt zijn ruwweg, wat wel een extreem slechte prestatie zou zijn.DaniëlWW2 schreef op zaterdag 15 augustus 2020 @ 20:27:
Als laatste wordt de bron ook aardig afgemaakt door de leakers die in de regel goed zitten. Zie deze hele thread. In ieder geval al tekenend dat RDNA2 kennelijk een perf/watt verlies van 45% zou hebben over RDNA1. Right.
Dat was kantje boord geweest omdat Samsung 5nm kennelijk afgelopen kwartaal in massaproductie is gegaan. Maar of je er nu een 800mm2 of 500mm2 klasse chip op gaat produceren is denk ik vrij academisch. Yields zullen slecht zijn zo vroeg. Het is misschien een refresh optie, of voor Hopper, maar ik denk dat Ampère echt te vroeg is.edward2 schreef op zaterdag 15 augustus 2020 @ 21:30:
Weer goede punten Daniel, al weet ik even niet of de GA100 nog mee had kunnen liften op een evt. 5nm procedé als die al bestaat/gereed is.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Omdat ik het verschil met een 27 inch 1440p scherm gewoon goed kan zien. Voorheen had ik 4 1440p schermen (eentje was 144hz, de rest 60) en nu 3 4k schermen (120hz) met een van de 1440p schermen erboven voor bv een walk through of livestream.biggydeen2 schreef op zaterdag 15 augustus 2020 @ 15:59:
[...]
Waarom zou je 4k op een 27inch scherm willen spelen.
De onderliggende resolutie waar ik op game boeit me overigens niet. Als ze 1 bij 1 pixel kunnen upscalen op 'n manier dat 't er beter uitziet dan native 32k dan wil ik best op 1 bij 1 spelen, maar resolutie is ook maar 'n klein deel van 't verhaal. Je kunt prima de eerste Pac-Man game op 64K renderen en dan downscalen op je 8k tv, het zal alsnog niet tippen aan 'n goede grafische game op 720p.
[ Voor 28% gewijzigd door Paprika op 16-08-2020 10:21 ]
Ik bedoel de grootte van het scherm vs de resolutie. Op 27 inch past 1440p het beste qua resolutie. Zo heb je ook 1280x1024 27 inch schermen en laptops met relatief nog veel kleinere 4k schermen maar dat past voor geen meter. Tenminste, ik heb nooit begrepen wat hier precies het voordeel van is.Paprika schreef op zondag 16 augustus 2020 @ 10:15:
[...]
Omdat ik het verschil met een 27 inch 1440p scherm gewoon goed kan zien. Voorheen had ik 4 1440p schermen (eentje was 144hz, de rest 60) en nu 3 4k schermen (120hz) met een van de 1440p schermen erboven voor bv een walk through of livestream.
De onderliggende resolutie waar ik op game boeit me overigens niet. Als ze 1 bij 1 pixel kunnen upscalen op 'n manier dat 't er beter uitziet dan native 32k dan wil ik best op 1 bij 1 spelen, maar resolutie is ook maar 'n klein deel van 't verhaal. Je kunt prima de eerste Pac-Man game op 64K renderen en dan downscalen op je 8k tv, het zal alsnog niet tippen aan 'n goede grafische game op 720p.
Ja maar ik heb dus 27 inch en zou niet meer terug willen.
IK speel al jaren op 5K op een 27"
Niet op voorraad.
Ik kan niet wachten om mijn MSI GTX 980 te upgraden. Voor 1080P in de nieuwste games is hij nu toch echt de bottleneck. Een tijd was dat wellicht mijn i7 3770K maar sinds die vervangen is voor de 10700K weet ik zeker dat het overal de GPU is
...
Duimen dat de 3080 onder de 1000 euro is dan wil ik 'm wel kopen! Onder andere benieuwd hoe City Skylines en Farcry 5 erop reageren. Ook hoop ik met de nieuwe GPU in de meeste games 1440P te kunnen spelen ipv 1080P..
Ja ik heb verwachtingen jongens
Duimen dat de 3080 onder de 1000 euro is dan wil ik 'm wel kopen! Onder andere benieuwd hoe City Skylines en Farcry 5 erop reageren. Ook hoop ik met de nieuwe GPU in de meeste games 1440P te kunnen spelen ipv 1080P..
Ja ik heb verwachtingen jongens
[ Voor 13% gewijzigd door MetalSonic op 16-08-2020 17:36 ]
https://videocardz.com/ne...ed-with-2-1-ghz-gpu-clock
Device ID tijd
Device ID tijd
[ Voor 9% gewijzigd door Paprika op 16-08-2020 20:47 ]
Performance ziet er dan niet verkeerd uit, maar qua energieverbruik zal een 3090 dan rond de 350W zitten. En een 3070 rond de 250W, wat ook een redelijke stap omhoog is tov de 2070(S).
Begrijp ik die grafiek goed en zijn de prestaties op 4k relatief een stuk meer toegenomen dan op 1080p en 1440pedward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:
[Afbeelding]
Chiphell
De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Beetje appart wel een 3070 TI maar geen 3080 TI.
Dat lijkt me vrij logisch, op 1080p heb je gelijk al een cpu bottleneck die het verschil limiteert.Help!!!! schreef op maandag 17 augustus 2020 @ 14:53:
[...]
Begrijp ik die grafiek goed en zijn de prestaties op 4k relatief een stuk meer toegenomen dan op 1080p en 1440p(volgens deze grafiek dan
)
Dan is er nog ruimte om een 3080 ti te brengen mocht er een AMD kaart komen die de reguliere 3080 kan beaten. Ach voorlopig blijft het een hoop speculatiePsyonara schreef op maandag 17 augustus 2020 @ 15:15:
Beetje appart wel een 3070 TI maar geen 3080 TI.
[ Voor 36% gewijzigd door sjekneck op 17-08-2020 15:32 ]
Ziet er netjes uit. Ben benieuwd hoe groot die kaarten worden en wat ze gaan kosten. Hopelijk past een 3070ti in mijn kast (en in mijn budget ;-) ). Dan kunnen we wel weer even vooruit in VR land hoop ik.edward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:
[Afbeelding]
Chiphell
De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
Dat is goed mogelijk gezien de nu meermaals en waarschijnlijk geloofwaardige geheugenbandbreedte waarden.Help!!!! schreef op maandag 17 augustus 2020 @ 14:53:
[...]
Begrijp ik die grafiek goed en zijn de prestaties op 4k relatief een stuk meer toegenomen dan op 1080p en 1440p(volgens deze grafiek dan
)
Paar observaties. Ten eerste lijkt de verhouding ten opzichte van Turing en RDNA1 te kloppen. Dat is in iedere geval de eerste barrière voor echtheid overleeft. Ik heb ook een paar geheugensnelheden doorgerekend die ook lijken te kloppen met andere leaks. Tweede is dat ik vermoed dat het hier gaat om best case scenario qua clock speeds. RTX3080, RTX3090 en Titan lijken kunstmatig op 2000MHz te draaien, maar uit andere leaks lijkt dat zeker niet de gewone boostclock te zijn. Dit is dus of een handmatige overclock of het resultaat van GPU boost met een begrenzing op 2000MHz. RTX3070Ti en RTX3070 lijken dan GA-104 te zijn.edward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:
[Afbeelding]
Chiphell
De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
Maar als dit ongeveer klopt, tja dan krijgen we eindelijk een serieuze stap vanuit Nvidia in high end. Het sluit alleen niks uit qua "winnaar" want de befaamde "Big Navi", tja daar mag je toch ook tweemaal zo snel als RX5700XT van verwachten. Dan zou je al kijken naar iets tussen RTX3080 en RTX3090 als dit klopt. En dat zou geweldig zijn, voor ons.
Het zou ook redelijk aansluiten bij 5376 ALU's (FP32 Cuda cores) voor GA-102 vs. 5120 ALU's (SP's) voor Navi 21. Immers zijn RDNA1 en Turing al zeer vergelijkbaar qua snelheid op ALU voor ALU basis en dat zou goed mogelijk kunnen zijn voor RDNA2 vs. Ampère.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Big Navi kun je niet zomaar extrapoleren met een verdubbeling in prestaties op vrijwel dezelfde nodeDaniëlWW2 schreef op maandag 17 augustus 2020 @ 16:31:
[...]
Dat is goed mogelijk gezien de nu meermaals en waarschijnlijk geloofwaardige geheugenbandbreedte waarden.
[...]
Paar observaties. Ten eerste lijkt de verhouding ten opzichte van Turing en RDNA1 te kloppen. Dat is in iedere geval de eerste barrière voor echtheid overleeft. Ik heb ook een paar geheugensnelheden doorgerekend die ook lijken te kloppen met andere leaks. Tweede is dat ik vermoed dat het hier gaat om best case scenario qua clock speeds. RTX3080, RTX3090 en Titan lijken kunstmatig op 2000MHz te draaien, maar uit andere leaks lijkt dat zeker niet de gewone boostclock te zijn. Dit is dus of een handmatige overclock of het resultaat van GPU boost met een begrenzing op 2000MHz. RTX3070Ti en RTX3070 lijken dan GA-104 te zijn.
Maar als dit ongeveer klopt, tja dan krijgen we eindelijk een serieuze stap vanuit Nvidia in high end. Het sluit alleen niks uit qua "winnaar" want de befaamde "Big Navi", tja daar mag je toch ook tweemaal zo snel als RX5700XT van verwachten. Dan zou je al kijken naar iets tussen RTX3080 en RTX3090 als dit klopt. En dat zou geweldig zijn, voor ons.
Het zou ook redelijk aansluiten bij 5376 ALU's (FP32 Cuda cores) voor GA-102 vs. 5120 ALU's (SP's) voor Navi 21. Immers zijn RDNA1 en Turing al zeer vergelijkbaar qua snelheid op ALU voor ALU basis en dat zou goed mogelijk kunnen zijn voor RDNA2 vs. Ampère.
Veel mensen roepen doodleuk dat Big Navi 2x de 5700xt gaat worden in spec en de kloksnelheid nog hoger gaat worden, maar dat lijkt me niet zomaar even te doen. En als het ze wel lukt kuddos.
Wat Nv betreft ben ik benieuwd of ze echt bij Samsung produceren en of dit geen negatief effect gaat hebben op het verbruik. Ik vind de kaarten die rond de 200 watt verstoken een stuk prettiger dan de heethoofden van 300 watt of meer. Bij voorkeur zou ik niet meer kaart kopen die meer dan 250Watt gaat verstoken. Dat is veel prettiger gamen en scheelt gewoon veel onnodige warmte ontwikkeling in en rond een case.
En die 3090 dan?sjekneck schreef op maandag 17 augustus 2020 @ 15:29:
[...]
Dan is er nog ruimte om een 3080 ti te brengen mocht er een AMD kaart komen die de reguliere 3080 kan beaten. Ach voorlopig blijft het een hoop speculatie
Ik hoop toch echt dat het nou eindelijk eens een keertje in de buurt komt, maar wat je zegt, er zijn nogal wat hobbels te nemen. 2x5700xt zou al 3090 terrein worden en met een hogere frequentie al helemaal.sjekneck schreef op maandag 17 augustus 2020 @ 17:04:
[...]
Veel mensen roepen doodleuk dat Big Navi 2x de 5700xt gaat worden in spec en de kloksnelheid nog hoger gaat worden, maar dat lijkt me niet zomaar even te doen. En als het ze wel lukt kuddos.
Alleen balen dat AMD weer zoveel later komt (okt/nov.?)
[ Voor 5% gewijzigd door edward2 op 17-08-2020 18:18 ]
Niet op voorraad.
Op basis van deze gegevens, wat redelijk overeen lijkt te komen met eerdere leaks, al is er nog wel een redelijke spreiding gezien het niet duidelijk is bij welke resolutie de performance/watt is genomen, lijkt het dus op 250W ruwweg voor 3070, en 350W voor de 3090. De rest zal er wel tussenin zitten.sjekneck schreef op maandag 17 augustus 2020 @ 17:04:
[...]
Big Navi kun je niet zomaar extrapoleren met een verdubbeling in prestaties op vrijwel dezelfde node. Even kort door de bocht zou deze dan heel veel extra besparingen moeten doorvoeren in het verbruik om dat de kunnen bewerkstelligen en met een veel grotere die ook nog eens dezelfde clocks moeten halen. De 5700XT zit al op 7nm en verbruikt nu al 225 WATT. Verdubbel de diesize dan moet je het verbruik ook linear gaan verdubbelen.
Veel mensen roepen doodleuk dat Big Navi 2x de 5700xt gaat worden in spec en de kloksnelheid nog hoger gaat worden, maar dat lijkt me niet zomaar even te doen. En als het ze wel lukt kuddos.
Wat Nv betreft ben ik benieuwd of ze echt bij Samsung produceren en of dit geen negatief effect gaat hebben op het verbruik. Ik vind de kaarten die rond de 200 watt verstoken een stuk prettiger dan de heethoofden van 300 watt of meer. Bij voorkeur zou ik niet meer kaart kopen die meer dan 250Watt gaat verstoken. Dat is veel prettiger gamen en scheelt gewoon veel onnodige warmte ontwikkeling in en rond een case.
Alle vakanties voor 2021 worden ingetrokken!
Rumor: GeForce RTX 3090 Pricing to Arrive Around the $2,000 Mark
Rumor: GeForce RTX 3090 Pricing to Arrive Around the $2,000 Mark
Dit zijn toch geen prijzen meer?! Ik weet dat er voor de 2080Ti een markt was, maar zou dit ook zijn voor de 3090 met deze prijs?XWB schreef op maandag 17 augustus 2020 @ 20:13:
Alle vakanties voor 2021 worden ingetrokken!![]()
Rumor: GeForce RTX 3090 Pricing to Arrive Around the $2,000 Mark
Ik hoop zelf dat dit gerucht niet klopt...
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Een artikel over een gerucht waarbij het gerucht al zegt dat één prijs waarschijnlijk niet klopt, en toch zetten ze dat als titel van het gerucht
.
Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.RobinNL schreef op maandag 17 augustus 2020 @ 20:20:
[...]
Dit zijn toch geen prijzen meer?! Ik weet dat er voor de 2080Ti een markt was, maar zou dit ook zijn voor de 3090 met deze prijs?
Ik hoop zelf dat dit gerucht niet klopt...
Lijkt me erg onwaarschijnlijk dat introductieprijs van de 3070 onder die van de 2070 ligt. Ik zou er een honderd euro iig bij optellen.Enchantress schreef op maandag 17 augustus 2020 @ 20:26:
[...]
Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.
Maar goed, ik ben mijn vertrouwen in AMD drivers voor deze generatie wel kwijt.
Zou ik ook niet vanuit gaan.Enchantress schreef op maandag 17 augustus 2020 @ 20:26:
[...]
Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.
Zoek zelf iets tot ~600, met USB-C voor VR (werkt beter dan rechtstreeks op mijn moederbord voor de een of andere reden). Een 2070s kost nu al tegen de 600 met USB-C, met een beetje gelukt valt de normale 3070 binnen deze range.
Ben benieuwd of de adviesprijzen meteen bekend zijn 1 Sept.
[ Voor 12% gewijzigd door Jay-v op 17-08-2020 20:34 ]
Big Navi zal ook niet bepaald goedkoop zijn verwacht ik. TSMC 7nm wafers zijn duurder dan Samsung 8nm bijvoorbeeld, maar ook het geheugen en andere high end componenten zijn nu eenmaal duur.Enchantress schreef op maandag 17 augustus 2020 @ 20:26:
[...]
Ben bang van wel Nvidia kennende. Hoop alleen dat de 3070 rond de 450 euro zit anders moet ik het helaas weer proberen bij AMD.
Ik hoop het echt. Ik vermoed eerder 750.Jackson6 schreef op maandag 17 augustus 2020 @ 22:39:
Hopelijk de 3070 Ti zo rond de 550-600 euro.. dan kan ik mooi m'n 5700XT gaan vervangen.
De Titan is haast precies 50% sneller dan een 2080Ti op 4k? Verdachtedward2 schreef op maandag 17 augustus 2020 @ 13:48:
Perf. Ampere SKU's tov de 1080Ti:
[Afbeelding]
Chiphell
De 3090 een kleine 60% sneller dan de 2080TI dus, maar daar zullen vermoedelijk ook Raytrace gamebenchmarks tussen zitten?
Tenminste als ik 141.4 * 1.5 doe is 212.1; of bereken ik dingen op de verkeerde manier hier.
https://www.startpagina.n...ncipe,dus%3A%2038%2C75%25.Sp3ci3s8472 schreef op dinsdag 18 augustus 2020 @ 13:14:
[...]
De Titan is haast precies 50% sneller dan een 2080Ti op 4k? Verdacht.
Tenminste als ik 141.4 * 1.5 doe is 212.1; of bereken ik dingen op de verkeerde manier hier.
(en ja het is 50%)
De 3090 dus "maar" ~40% sneller dan de 2080TI (zonder RT)...komen deze waarden uit deze chart niet gewoon uit publicatie slides waarin bv de rasterperf. met 40% is toegenomen?
[ Voor 78% gewijzigd door edward2 op 18-08-2020 20:51 ]
Niet op voorraad.
Die nodes zijn sowieso moeilijk met elkaar te vergelijken. Wel is het zo dat Samsung een betere prijs voor zijn wafers biedt. Dat kan in Nvidia's voordeel zijn wanneer er een echte prijzenoorlog zou uitbreken met AMD.biggydeen2 schreef op zaterdag 15 augustus 2020 @ 14:13:
[...]
Wat betreft Samsung vs TSMC heb ik gelezen (geruchten) dat AMD voorrang heeft bij TSMC vanwege o.a. corona (capaciteit problemen) en dat Nvidia daardoor op de 8nm van Samsung zit. Andere geruchten zijn dat daardoor het stroomverbruik ook hoger is zodat hogere clocks mogelijk zijn. 7nm is wat dat beteft over het algemeen beter dan 8nm. Volgens mij zit de A100 ook op 7nm van TSMC.
Nvidia kennende willen ze altijd de performance crown en gaan niet zomaar op een grotere node zitten. Gezien de grote winsten die ze maken vraag ik me af of prijs een probleem is. En uiteindelijk maakt de kostprijs niet zoveel uit. Ook al zijn ze qua kostprijs veel beter uit, de eerste tijd zal er geen concurrentie zijn. Ze kunnen dus vragen wat ze willen. Ik hoop dat de prijzen mee gaan vallen met een flinke boost ten opzichte van Turing. Maar wellicht gooien ze het dit keer over een andere boeg. Ik denk wel dat als Nvidia doet wat jij schetst ze wel (veel) meer kaarten gaan verkopen.
Wat dat betreft verwacht ik toch zeker een behoorlijke boost ten opzichte van turing gezien de node verkleining naar 8nm en het veel hogere verbruik. Normaal gesproken zou een kleinere node efficienter zijn qua verbruik.
Maar goed, we zullen het eind deze maand wel zien
Ik denk niet dat AMD het daarop zal laten aankomen. Dat hebben ze in het verleden geprobeerd toen ze een beter product hadden, en de grote meerderheid gebruikte de prijzenoorlog om goedkoper toch een nVidia te kopen. Dat zullen ze niet vergeten zijn.XWB schreef op dinsdag 18 augustus 2020 @ 21:00:
[...]
Dat kan in Nvidia's voordeel zijn wanneer er een echte prijzenoorlog zou uitbreken met AMD.
AMD zal net onder de nVidia prijs zitten (zoals ze de afgelopen reeksen gedaan hebben), omdat te laag zichzelf in de vingers snijdt.
Wat ik niet begrijp aan die chart is hoe de performance per watt slechts 20% toe kan nemen bij de stap van 12nm naar 7nm/8nm/5nm.
Dan moeten de nieuwe kaarten zwaar voorbij hun sweet spot geclockt zijn.
Dan moeten de nieuwe kaarten zwaar voorbij hun sweet spot geclockt zijn.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
https://twitter.com/NVIDIAGeForce/with_replies
Voor mensen die nog wat nostalgia willen. Even door de jaren heen scrollen
.
Voor mensen die nog wat nostalgia willen. Even door de jaren heen scrollen
Hehehe sommige producten hebben niet bestaan zo lijkt het. De FX 5800ultra is nergens te bekennenPaprika schreef op woensdag 19 augustus 2020 @ 10:30:
https://twitter.com/NVIDIAGeForce/with_replies
Voor mensen die nog wat nostalgia willen. Even door de jaren heen scrollen.
Ah shit, was al bij de stofzuigers aan het zoeken
NVIDIA Announces Financial Results for Second Quarter Fiscal 2021
Record revenue of $3.87 billion, up 50 percent from a year earlier
Record Data Center revenue of $1.75 billion, up 167 percent from a year earlier
Mellanox growth accelerated in its first quarter as part of NVIDIA, contributed 14 percent of revenue
NVIDIA today reported record revenue for the second quarter ended July 26, 2020, of $3.87 billion, up 50 percent from $2.58 billion a year earlier, and up 26 percent from $3.08 billion in the previous quarter.
GAAP earnings per diluted share for the quarter were $0.99, up 10 percent from $0.90 a year ago, and down 33 percent from $1.47 in the previous quarter. Non-GAAP earnings per diluted share were $2.18, up 76 percent from $1.24 a year earlier, and up 21 percent from $1.80 in the previous quarter.

NVIDIA’s outlook for the third quarter of fiscal 2021 is as follows:
Revenue is expected to be $4.40 billion, plus or minus 2 percent.
GAAP and non-GAAP gross margins are expected to be 62.5 percent and 65.5 percent, respectively, plus or minus 50 basis points.
GAAP and non-GAAP operating expenses are expected to be approximately $1.54 billion and $1.09 billion, respectively.
GAAP and non-GAAP other income and expense are both expected to be an expense of approximately $55 million.
GAAP and non-GAAP tax rates are both expected to be 8 percent, plus or minus 1 percent, excluding any discrete items. GAAP discrete items include excess tax benefits or deficiencies related to stock-based compensation, which are expected to generate variability on a quarter by quarter basis.
Gaming
Second-quarter revenue was $1.65 billion, up 24 percent from the previous quarter and up 26 percent from a year earlier.
Ramped 100+ new GeForce laptops to deliver outstanding performance to students, creators and gamers across a range of price points.
Announced a range of games now supporting NVIDIA RTX ray tracing and DLSS AI super resolution, including, Justice, Cyberpunk 2077 and Death Stranding. Introduced new worlds for Minecraft with RTX.
Expanded GeForce NOW™ to Chromebooks, enabling millions of users to play games in the cloud.
Announced that Square Enix is adding its extensive catalog to GeForce NOW, including franchises such as Deus Ex and Just Cause, plus Shadow of the Tomb Raider, which returned with RTX On.


Weer een slecht kwartaal achter de rug bij het groene kamp.
De RTX 3080/3090 heeft inmiddels ook de RRA certificatie gekregen.
https://videocardz.com/ne...rd-gets-rra-certification
https://videocardz.com/ne...rd-gets-rra-certification
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Belachelijk duur weer, maar zolang mensen het blijven kopen.. Het zal me niets verbazen als we over 10 jaar 5000 dollar moeten betalen voor een top segment kaart.
Ik ben wel benieuwd naar de marges op de kaarten.
Ik ben wel benieuwd naar de marges op de kaarten.
Pff 2300 dollar lolSimbob schreef op woensdag 19 augustus 2020 @ 12:21:
De eerste geruchten van prijzen
https://wccftech.com/nvid...ard-rumored-cost-1399-us/
Toch ben ik benieuwd welke games je over 10 jaar gaat aantreffen die een dergelijke kaart nodig hebben en benutten. Er zijn heel wat landen waar 5000 dollar gewoon het hele jaarsalaris betreft, dus je target audience wordt er heel klein door en consoles worden meer en meer populair in de moderne snelle-potjes setting. Het merendeel van de populatie zal hier geen behoefte aan hebben en daar zit als ontwikkelaar ook niet het grote geld. Het grote geld zit immers in spellen als MOBA's, Battle Royales, builder games (Minecraft, Factorio, ...), simpele modes games (Autochess, Hearthstone, ...). Ze kunnen prima 5000 dollar vragen voor een videokaart, maar dit betreft zo'n klein deel van de markt dat je als gameontwikkelaar amper rond zal komen als je je op die market richt bij development en gezien een console nooit een GPU van een dergelijk bedrag gaat bevatten zal het merendeel van de wereld nog niet eens een 10e van dat bedrag uitgeven aan videokaarten.Ferio schreef op donderdag 20 augustus 2020 @ 09:01:
Belachelijk duur weer, maar zolang mensen het blijven kopen.. Het zal me niets verbazen als we over 10 jaar 5000 dollar moeten betalen voor een top segment kaart.
In de pc wereld hoor je alleen de enthousiasts, want de gemiddelde gamer weet niet eens wat er in zijn of haar pc zit en zelfs binnen de enthousiast wereld blijft $2000 gewoonweg veel geld. Er zullen er vast weer voldoende verkopen. Zo heb ik zelf vakanties die dat bedrag ruim voorbij schieten en als iemand niet van vakanties houdt en liever een videokaart koopt, prima toch? Ik voel me niet minder dat er geen RTX Titan of iets in mijn pc zit. Zelf ben ik bereid om alles onder de 1000 euro te betalen, maar dan houdt het voor mij op, maar dat heeft er ook een beetje mee te maken dat ik eigenlijk amper games speel die grafisch ertoe doen. Mijn RTX 2080 draait de meeste spellen die ik speel op > 90 fps op 4K, dus daar hoef ik het niet voor te doen.
Uberhaupt vind ik het totaal irrelevant hoe duur de duurste kaart is. Waar het mij om gaat is hoeveel prestaties ik krijg als ik een bepaald bedrag wil uitgeven. Ik heb geen bijzondere noodzaak om de snelst mogelijke kaart te hebben.
En eerlijk is eerlijk, qua prijs/prestatie gaat het momenteel nou ook niet heel geweldig. En goedkopere kaarten zou ik heel blij mee zijn. Tegelijk, het is een hobby, en hobbies mogen geld kosten.
En eerlijk is eerlijk, qua prijs/prestatie gaat het momenteel nou ook niet heel geweldig. En goedkopere kaarten zou ik heel blij mee zijn. Tegelijk, het is een hobby, en hobbies mogen geld kosten.
Hahaha. 2300 dollar in euro komt er nog BTW erbij. Dit soort prijzen waren verwacht... Misschien toch maar voor een Xbox en een ps gaan
Weg
Als je kijkt naar huidig bv naar rdr2 die vraagt enorm veel, waarbij de huidige Ti modellen zelfs moeite mee hebben. Ik ben zelf ook wel benieuwd waar het heen gaat, tot nu gaan de prijzen alleen maar omhoog.Paprika schreef op donderdag 20 augustus 2020 @ 09:29:
[...]
Toch ben ik benieuwd welke games je over 10 jaar gaat aantreffen die een dergelijke kaart nodig hebben en benutten.
Zal de tijd voorbij zijn dat we nog normale prijzen gaan zien?
Heb zelf overigens een 2070s van msi voor 400, dat vind ik nog wel redelijk en speelt alles ook goed af.
Ik hoef ook niet het beste te hebben.
[ Voor 3% gewijzigd door Ferio op 20-08-2020 09:40 ]
Of weet je, niet de allerduurst mogelijke kaart uit China importeren?New Yorker schreef op donderdag 20 augustus 2020 @ 09:37:
Hahaha. 2300 dollar in euro komt er nog BTW erbij. Dit soort prijzen waren verwacht... Misschien toch maar voor een Xbox en een ps gaan![]()
Dat blijft ook maar een resolutie ding. Op 1080p draait ie voluit gewoon 100 fps op een 2080Ti. 4K is ongeveer de helft, maar een volgende serie GPUs is dus al voldoende om dat spel gewoon voluit te draaien.Ferio schreef op donderdag 20 augustus 2020 @ 09:37:
[...]
Als je kijkt naar huidig bv naar rdr2 die vraagt enorm veel, waarbij de huidige Ti modellen zelfs moeite mee hebben.
Dat moet nog blijken. Ik ben wel benieuwd naar beide kampen dit jaar en vooral waarmee amd komt.Paprika schreef op donderdag 20 augustus 2020 @ 09:41:
[...]
Dat blijft ook maar een resolutie ding. Op 1080p draait ie voluit gewoon 100 fps op een 2080Ti. 4K is ongeveer de helft, maar een volgende serie GPUs is dus al voldoende om dat spel gewoon voluit te draaien.
Zelfs als het beetje goedkoper is er komt altijd BTW erbijSissors schreef op donderdag 20 augustus 2020 @ 09:40:
[...]
Of weet je, niet de allerduurst mogelijke kaart uit China importeren?
Weg
Ferio schreef op donderdag 20 augustus 2020 @ 09:42:
[...]
Dat moet nog blijken. Ik ben wel benieuwd naar beide kampen dit jaar en vooral waarmee amd komt.
Met 30% performance verbetering over ene 2080Ti zit je al op 60+ op een 4K scherm. Dat is voor een spel als RDR2 ruim voldoende.
Klopt, dit staat me eigenlijk meer tegen. De 20 serie was ook een soort zijstap in de prijs/prestatie. De 2080TI was 35% sneller dan de 1080TI, maar ook 50% duurder.Sissors schreef op donderdag 20 augustus 2020 @ 09:33:
Uberhaupt vind ik het totaal irrelevant hoe duur de duurste kaart is. Waar het mij om gaat is hoeveel prestaties ik krijg als ik een bepaald bedrag wil uitgeven. Ik heb geen bijzondere noodzaak om de snelst mogelijke kaart te hebben.
En eerlijk is eerlijk, qua prijs/prestatie gaat het momenteel nou ook niet heel geweldig. En goedkopere kaarten zou ik heel blij mee zijn. Tegelijk, het is een hobby, en hobbies mogen geld kosten.
De 2080 daarentegen was ongeveer net zo snel, maar ook net zo duur als de 1080TI. En ja je kreeg er RTX bij, maar zolang er maar een handvol games er gebruik van maken en de 20 serie RTX ook alleen op low definition (1080p) kunnen draaien heeft de gross van de mensen er ook niks aan.
Ik ben bang dat de 30 serie dit ook niet gaat veranderen, de prijzen gaan nog verder omhoog. En de prijs/prestatie zal niet echt verbeteren. Of AMD moet iets ontketenen.
Steam - PTR83
Een 'beetje' goedkoper? Ze schrijven in dat artikel dat hij het equivalent van $1800 kost ($2300 enkel door dingen als belastingen en heffingen). En dan kom jij van $1800 naar meer dan €2300. Om het er nog niet over te hebben dat dit over een gerucht gaat van een specifieke high-end versie uit China, terwijl het andere gerucht is dat de FE 'maar' $1399 gaat kosten. Nog steeds een hele hoop geld natuurlijk, maar het is iig iets logischer om daar naar te kijken.New Yorker schreef op donderdag 20 augustus 2020 @ 09:43:
[...]
Zelfs als het beetje goedkoper is er komt altijd BTW erbij
Idd voorlopig is het maar een geruchtSissors schreef op donderdag 20 augustus 2020 @ 09:47:
[...]
Een 'beetje' goedkoper? Ze schrijven in dat artikel dat hij het equivalent van $1800 kost ($2300 enkel door dingen als belastingen en heffingen). En dan kom jij van $1800 naar meer dan €2300. Om het er nog niet over te hebben dat dit over een gerucht gaat van een specifieke high-end versie uit China, terwijl het andere gerucht is dat de FE 'maar' $1399 gaat kosten. Nog steeds een hele hoop geld natuurlijk, maar het is iig iets logischer om daar naar te kijken.
Weg
Wat zijn dit voor prijzen man..... Voor de prijs van een 2080Ti of 3090 kocht je 10 jaar terug een hele high-end pc zonder randapparatuur.Sissors schreef op donderdag 20 augustus 2020 @ 09:47:
[...]
Een 'beetje' goedkoper? Ze schrijven in dat artikel dat hij het equivalent van $1800 kost ($2300 enkel door dingen als belastingen en heffingen). En dan kom jij van $1800 naar meer dan €2300. Om het er nog niet over te hebben dat dit over een gerucht gaat van een specifieke high-end versie uit China, terwijl het andere gerucht is dat de FE 'maar' $1399 gaat kosten. Nog steeds een hele hoop geld natuurlijk, maar het is iig iets logischer om daar naar te kijken.
LG OLED C3 65" | Marantz SR5010 | Focal Aria 926 | Focal Aria CC900 | Boston Acoustics A25 | SVS PB-1000 | Nvidia Shield 2017 | Playstation 5 | Playstation Portal | Xbox Series X |
Het zou me niks verbazen als die prijzen echt blijken te zijn.
nVidia komt ermee weg, want de kaarten verkopen wel. Ze zouden dan dief van eigen portemonnee zijn als ze het niet zouden proberen.
nVidia komt ermee weg, want de kaarten verkopen wel. Ze zouden dan dief van eigen portemonnee zijn als ze het niet zouden proberen.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Idd launch word toch gewoon peper duur want mensen kopen toch wel. Het enige wat de prijzen zou kunnen redden is concurrentie.
Ik denk zelf op basis van vorige series en dat er nu geen concurrentie is tot de release van AMD dat de prijzen zullen lijken op onderstaande:
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550
maar we gaan 't zien
mijn MSI GTX 980 was toender tijd volgens mij 700 euro (correct me if im wrong)
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550
maar we gaan 't zien
Er moet nog een 3070ti tussen in en denk dat de 3060 en 3070 erg hoog geschat zijn. 1060, 1660, 2060 zijn behoorlijk populair (bron: https://store.steampowered.com/hwsurvey/videocard/) en er moet toch een betaalbare low-end zijn.MetalSonic schreef op donderdag 20 augustus 2020 @ 10:48:
Ik denk zelf op basis van vorige series en dat er nu geen concurrentie is tot de release van AMD dat de prijzen zullen lijken op onderstaande:
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550
maar we gaan 't zienmijn MSI GTX 980 was toender tijd volgens mij 700 euro (correct me if im wrong)
Ja, ik vrees hetzelfde. Van de pot gerukt dit. Ik kocht mijn 1080TI voor €649, destijds was de GTX 680 €499.MetalSonic schreef op donderdag 20 augustus 2020 @ 10:48:
Ik denk zelf op basis van vorige series en dat er nu geen concurrentie is tot de release van AMD dat de prijzen zullen lijken op onderstaande:
RTX 3090: € 1600
RTX 3080: € 900
RTX 3070: € 750
RTX 3060: € 550
maar we gaan 't zienmijn MSI GTX 980 was toender tijd volgens mij 700 euro (correct me if im wrong)
Ik vind het het al vrij verbijsterend dat iedereen vrolijk de RTX kaarten kocht, gezien de prijzen. Dit helpt niet.
[Edit]Het gaat natuurlijk over vraag en aanbod. Blijkbaar is er nog geen drop-off gevonden, ivm de consumenten uitgaven vs. verkochten GPUs.
Ikzelf doe niet hieraan mee. Das al de derde markt-"spel" waar ik weiger aan mee te doen, naast de huizenmarkt en high-end Smartphones
[ Voor 17% gewijzigd door XanderDrake op 20-08-2020 11:12 ]
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Is nog wel heel wat erger hoor, genoeg landen waar 5000 niet eens een jaarsalaris betreft. En als je dan ook nog in een land woont waar ze dit soort luxe artikelen (wat het zijn) extra belasten wordt het helemaal absurd. Neem bijvoorbeeld Egypte, waar maandsalarissen variëren van zo'n 2000 EGP (~120 EUR) tot 45000 EGP (~2400 EUR) en hoger. Naast een BTW tarief van 14% zit er ook nog een belasting van 40% voor luxe artikelen op. Prijzen voor dit soort artikelen liggen daarnaast sowieso al hoger omdat ze lastiger te importeren zijn. Nu is Egypte natuurlijk niet het beste voorbeeld van een voortvarend land, maar in verhouding is de leefstandaard daar niet eens zo heel slecht. Maar een 1060 is daar makkelijk 50% duurder dan hier...en dan met dat soort salarissen?Paprika schreef op donderdag 20 augustus 2020 @ 09:29:
Er zijn heel wat landen waar 5000 dollar gewoon het hele jaarsalaris betreft
Ook binnen Europa is het echter niet al te best gesteld. In de Balkan landen is een maandsalaris van pakweg 600-800 EUR helemaal niet ongewoon. Of bijvoorbeeld in Portugal. De "oude" high-end prijzen van 600-700 moest men daar al flink voor sparen, met bedragen van 4 cijfers zullen velen er niet eens aan denken.
Als dit nu halo-producten betrof had ik er geen problemen mee. Immers, de Mars en Ares SKU's hebben altijd bestaan. Wat we nu echter hebben gezien is dat je na 2 jaar ook 2 keer zo veel geld uit moet geven voor een bijzonder magere upgrade. Als die trend zich door zet, betekent dat dat veel mensen hooguit 2 keer per decennium een nieuwe GPU kopen en komt er niets terecht van bijvoorbeeld raytracing adoptie.
Helaas zijn er te veel mensen die meer geld dan hersencellen hebben en de "enthousiast" producten kopen, terwijl ze geen snars begrijpen van wat ze gekocht hebben. Zie een groot deel van Titan (of Mars, Ares, etc.) eigenaren, het overgrote deel van hen snapt er niets van. Excuses aan enige Titan eigenaren die hier rond hangen en wél begrijpen wat/waarom ze gekocht hebben en zich daar ook niet voor schamen, maar jullie zijn in de minderheid. Ik heb door de jaren heen zo veel onbegrijpelijk domme posts gezien van eigenaren van dat soort producten, dat ik echt bang ben voor wat er gebeurt als AMD niet snel weerstand gaat bieden.
Overigens geldt dat ook voor de voormalig high-end range; genoeg mensen die 700 EUR neerleggen omdat "het snel is" zonder dat ze weten wat ze precies kopen. Maar als dat het duurste segment is, betekent dat dat minder bedeelde mensen tenminste óók opties hebben. En dat is nu langzaamaan aan het verdwijnen.
Voor mezelf maakt het allemaal niets uit. Als m'n GPU niet meer voldoet of ik de drang niet meer kan weerstaan, koop ik toch wel weer iets. En als het moet, ga ik daarbij best buiten wat ik zinnig vind (als het nog niet duidelijk was; alle Titans en de 2080 Ti krijgen van mij een "onzinnig" stickertje), het doet me financieel toch geen pijn. Ik heb echter te veel vrienden en kennissen die niet zo'n goed salaris hebben en daar geef ik toch wel een beetje om
Want als NVidia de 2095TI voor €3000 introduceert, dan verminderd dat de opties voor andere mensen?Overigens geldt dat ook voor de voormalig high-end range; genoeg mensen die 700 EUR neerleggen omdat "het snel is" zonder dat ze weten wat ze precies kopen. Maar als dat het duurste segment is, betekent dat dat minder bedeelde mensen tenminste óók opties hebben. En dat is nu langzaamaan aan het verdwijnen.
En nogmaals, ik zou ook willen dat prijzen lager worden. Tegelijk laten we nou niet net gaan doen alsof dat moet zodat ook de gemiddelde Egyptenaar een 3090 kan kopen. Als je wil dat die leuk kan spelen, dan moet je kijken naar de prijs/prestaties van de 16xx serie (of het AMD equivalent).
Daarnaast moet je ook realistisch zijn, we gaan nu niet ineens een 100% verbetering in prijs/prestatie krijgen. Als we een 3070 krijgen met 2080TI performance, dan ben je gewoon onrealistisch als je verwacht dat die voor €400 verkocht gaat worden.
Je mist het punt volledig. Ja, als Nvidia de prijs van hun duurste kaart op bijvoorbeeld €2000 zet, vermindert dat de opties voor mensen met een kleiner budget. Want de prijs van het snelste product bepaalt ook de positionering van alle producten eronder. Oudere kaarten kopen is ook niet altijd een optie, want dat aanbod is er simpelweg niet altijd. Het gaat er niet om dat een Egyptenaar een 3090 of whatever zou moeten kunnen kopen, het gaat er om dat er opties daar onder zijn.Sissors schreef op donderdag 20 augustus 2020 @ 11:24:
[...]
Want als NVidia de 2095TI voor €3000 introduceert, dan verminderd dat de opties voor andere mensen?
En nogmaals, ik zou ook willen dat prijzen lager worden. Tegelijk laten we nou niet net gaan doen alsof dat moet zodat ook de gemiddelde Egyptenaar een 3090 kan kopen. Als je wil dat die leuk kan spelen, dan moet je kijken naar de prijs/prestaties van de 16xx serie (of het AMD equivalent).
Daarnaast moet je ook realistisch zijn, we gaan nu niet ineens een 100% verbetering in prijs/prestatie krijgen. Als we een 3070 krijgen met 2080TI performance, dan ben je gewoon onrealistisch als je verwacht dat die voor €400 verkocht gaat worden.
Deze "logica" (het is sneller dus het "mag" duurder zijn) gaat simpelweg niet op. Op die manier houd je geen upgradecycle in leven en worden producten alsmaar duurder. Volgens die logica hadden we nu al op €8000 (disclaimer: willekeurig hoog bedrag gekozen; een Voodoo 2 kostte toentertijd al €250 dus €8000 is waarschijnlijk te laag) moeten zitten. En dan had mijn auto enkele tonnen moeten kosten.
Dat we geen 100% verbetering in prijs/prestatie moeten verwachten is logisch. De laatste generatie was echter 0,0 verbetering. Sterker nog, het was in sommige segmenten een achteruitgang. Elke twee jaar upgraden voor hetzelfde geld met in elk geval íets van een verbetering is altijd mogelijk geweest*, tot twee jaar geleden. Die trend moet niemand blij mee zijn en al zeker niet aanmoedigen. Het heeft niets te maken met goedkoper worden, het heeft te maken met de verhoudingen tussen generaties.
Zeg nu zelf, zou jij iemand met een 1060 of hoger aanraden om naar een RTX 2xxx te sidegraden? Want dat is wat het is. Voor het geld van een 1060, 1070 of 1080 in 2016 krijg je nu respectievelijk een 1660, 2060 of 2070. En dan rek ik de budgetten nog enigszins. En die 3 zijn ook niet allemaal in 2018 uitgekomen. Iedereen die nu een 10xx kaart heeft, heeft geen reet aan de hele 20xx range (binnen hetzelfde budget). Mijn 1080 Ti heeft pas vorig jaar in de vorm van de 2080S iets gekregen wat op een upgrade lijkt voor hetzelfde geld. Echter vreet dat ding ook meer stroom in plaats van minder, omdat de chip groter is en hoger geklokt is. Komt min of meer neer op een sidegrade naar een overgeklokte kaart. Maar och, dan mis ik de RT en Tensor cores, want ik zou toch o zo graag m'n framerate halveren na de "upgrade"
* niet noodzakelijkerwijs bij slechts één kamp. Vaak genoeg geweest dat je van de ene naar de andere generatie tussen Nvidia en ATI/AMD moest springen om er op vooruit te gaan, maar ook dat is helaas niet aan de orde. AMD heeft de laatste jaren ook niet meer op prijs kunnen concurreren.
^
Op een gegeven moment loopt dit nvidia pad denk ik toch dood. Dan maar niet Raytracen zullen veel mensen wellicht denken. Heb mijn 1080Ti ook nog niet geupdate. Enige reden dat ik dat nu waarschijnlijk wel ga doen is omdat er een aanzienlijk grotere monitor komt 3840*1600 en ik de klassieke renderpower nodig heb. RT zie ik over een x aantal jaar wel weer.
Pricing raakt stevig uit het lood ook in vergelijking tot wat consoles inmiddels kunnen.
nvidia aan de andere kant boeit het misschien minder. Restricted door waarschijnlijk redelijk fixed wafer aanbod bij de foundries verkopen ze het silicon denk ik, zolang die vraag er is, liever in de zakelijke markt waar de opbrengst per mm2 silicon hoger is.
Op een gegeven moment loopt dit nvidia pad denk ik toch dood. Dan maar niet Raytracen zullen veel mensen wellicht denken. Heb mijn 1080Ti ook nog niet geupdate. Enige reden dat ik dat nu waarschijnlijk wel ga doen is omdat er een aanzienlijk grotere monitor komt 3840*1600 en ik de klassieke renderpower nodig heb. RT zie ik over een x aantal jaar wel weer.
Pricing raakt stevig uit het lood ook in vergelijking tot wat consoles inmiddels kunnen.
nvidia aan de andere kant boeit het misschien minder. Restricted door waarschijnlijk redelijk fixed wafer aanbod bij de foundries verkopen ze het silicon denk ik, zolang die vraag er is, liever in de zakelijke markt waar de opbrengst per mm2 silicon hoger is.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Het prijs "probleem" zie je vooral wanneer de nieuwe consoles er bij komen. Op dat moment heb je grafisch nog niet zo'n groot verschil dan tussen consoles en top onderdelen PC's aan het eind van de generatie consoles.
Wanneer dat grafische verschil veel beter te zien is hebben mensen sneller er geld voor over.
Wanneer dat grafische verschil veel beter te zien is hebben mensen sneller er geld voor over.
En die 1 op 1 logica van: Als er een sneller product komt, moeten er dus minder tragere producten zijn, zie ik niet. Als er een markt is voor kaarten van €200, zullen er kaarten van €200 worden gemaakt. Dat er ook een kaart is van €3000 doet daar niks aan af.Werelds schreef op donderdag 20 augustus 2020 @ 12:21:
[...]
Je mist het punt volledig. Ja, als Nvidia de prijs van hun duurste kaart op bijvoorbeeld €2000 zet, vermindert dat de opties voor mensen met een kleiner budget. Want de prijs van het snelste product bepaalt ook de positionering van alle producten eronder. Oudere kaarten kopen is ook niet altijd een optie, want dat aanbod is er simpelweg niet altijd. Het gaat er niet om dat een Egyptenaar een 3090 of whatever zou moeten kunnen kopen, het gaat er om dat er opties daar onder zijn.
Dat ik een Toyota Supra van €100k kan kopen, betekend niet dat ik geen Aygo kan kopen. Of dat een Aygo goedkoper zou zijn geweest als er geen Supra was geweest.
En is het punt dat de kaarten van €200 te weinig prestaties voor hun kosten bieden, klaag daar dan over. Dat er geen kaarten van €50 zijn komt denk ik voornamelijk omdat het bij moderne APU's gewoon niet meer interessant is om die te hebben.
En nogmaals, dit gaat niet erover dat de prijs/prestatie belabberd weinig toe is genomen de recente jaren, daar ben ik het helemaal mee eens. Alleen die focus op de prijs van de duurste GPU is mijn inziens gewoon vreemd.
Sommige mensen hier vergeten weleens dat NVIDIA een bedrijf is. Het is geen verplichting om een van deze kaarten te kopen. Je kan gewoon met je portemonnee stemmen en blijkbaar heeft de prijs van RTX 2080 Ti niet voldoende mensen afgeschrikt, waardoor NVIDIA (mogelijk) nog een stapje hoger gaat zitten.
Ja, alleen is het niveau vd consoles inmiddels zo goed, niet alleen qua graphics maar ook user experience dat dit naar mijn gevoel minder een rol gaat spelen zolang verbeterde graphics vooral RT betekent.flessuh schreef op donderdag 20 augustus 2020 @ 13:34:
Het prijs "probleem" zie je vooral wanneer de nieuwe consoles er bij komen. Op dat moment heb je grafisch nog niet zo'n groot verschil dan tussen consoles en top onderdelen PC's aan het eind van de generatie consoles.
Wanneer dat grafische verschil veel beter te zien is hebben mensen sneller er geld voor over.
Het hele RT verhaal moet echt een stuk overtuigender worden willen mensen hier veel extra voor betalen verwacht ik.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Je hebt 100% gelijk. Mensen bepalen voor een heel groot deel zelf de prijs. als Nvidia, of welk bedrijf dan ook een product op de markt zet wat teveel kost waardoor niemand het koopt, gaat de prijs naar beneden of het wordt geschrapt. Doordat de veel te dure RTX reeks toch vrij goed verkocht is , weet Nvidia dat ze er wss wel weer mee weg komen.NotSoSteady schreef op donderdag 20 augustus 2020 @ 13:41:
Sommige mensen hier vergeten weleens dat NVIDIA een bedrijf is. Het is geen verplichting om een van deze kaarten te kopen. Je kan gewoon met je portemonnee stemmen en blijkbaar heeft de prijs van RTX 2080 Ti niet voldoende mensen afgeschrikt, waardoor NVIDIA (mogelijk) nog een stapje hoger gaat zitten.
Dit is waar de vergelijking met auto's echter niet 1:1 werkt. Een Aygo staat op een geheel ander platform dan een Supra; geinig dat je ook juist die twee neemt, aangezien de laatste nu een BMW isSissors schreef op donderdag 20 augustus 2020 @ 13:36:
En die 1 op 1 logica van: Als er een sneller product komt, moeten er dus minder tragere producten zijn, zie ik niet. Als er een markt is voor kaarten van €200, zullen er kaarten van €200 worden gemaakt. Dat er ook een kaart is van €3000 doet daar niks aan af.
Dat ik een Toyota Supra van €100k kan kopen, betekend niet dat ik geen Aygo kan kopen. Of dat een Aygo goedkoper zou zijn geweest als er geen Supra was geweest.
En is het punt dat de kaarten van €200 te weinig prestaties voor hun kosten bieden, klaag daar dan over. Dat er geen kaarten van €50 zijn komt denk ik voornamelijk omdat het bij moderne APU's gewoon niet meer interessant is om die te hebben.
En nogmaals, dit gaat niet erover dat de prijs/prestatie belabberd weinig toe is genomen de recente jaren, daar ben ik het helemaal mee eens. Alleen die focus op de prijs van de duurste GPU is mijn inziens gewoon vreemd.
Neem bijvoorbeeld de VAG groep. Als zij de basis prijs van de Golf nu op €50k zouden stellen, dan heeft dat gevolgen voor de prijzen van de A3, León en (in mindere mate) Octavia. Die staan allemaal op hetzelfde platform en worden in de markt gezet om verschillende prijs segmenten te bedienen. De Polo zou echter óók duurder worden, dat product wordt immers als een baby-Golf op de markt gezet. Dat is de positionering, ook al zijn het verschillende platforms. En daardoor de Up! ook.
Zou dat werken? Van z'n leven niet. Uiteraard is het een feit dat VW wél harde concurrentie heeft. Daarnaast zou de consument het echter niet pikken als de Golf 8 pas bij €50k zou beginnen, want wat is de meerwaarde over een Golf 7.5? Iets zuiniger, iets meer tech in het interieur, iets opgefrist aan de buitenkant. En dat is het wel zo'n beetje. Daar gaat niemand dubbel zo veel voor betalen en VW zou binnen enkele weken die prijzen volledig terug draaien, want zelfs als lease bak zouden ze dan niet meer boeiend zijn.
Het is niet zo dat de segmenten nooit moeten verschuiven. Dat gebeurt overal, ook met auto's. Dat gezegd hebbende, zijn de segmenten binnen GPU's eigenlijk al 20 jaar niet veel verschoven.
Nogmaals, je mist volledig het punt. Het gaat er niet om of er wel of niet producten binnen een bepaalde prijsrange zijn. Als er in dat segment iets te verkopen valt, komen er inderdaad vast wel producten. Het gaat er om dat in de bestaande segmenten er al 4 jaar nauwelijks een verschuiving is doordat alle producten zo'n beetje een heel segment omhoog geschoven zijn - de 2080 Ti zelfs wel twee of drie segmenten. Nogmaals, zelfs in het segment van een 1080 Ti / 2080 Super (pak 'm beet €700) is er geen reden om een nieuwere kaart te kopen, behalve dan de e-peen factor.
Het gaat niet specifiek om de prijs van een specifiek product. Het gaat om wat de prijs van het top product betekent voor de rest van de range. Stel nu dat de 3090 een GA102 (de "big daddy chip") betreft en bijvoorbeeld +50% levert over TU102 (2080 Ti). Als Nvidia die op €2000 positioneert, betekent dat automatisch dat je in elk segment minimaal 50% meer moet gaan betalen voor diezelfde 30% bump. Tegen de tijd dat je dan in het "sweet spot" (€300-€400) segment komt (waar het meeste verkocht wordt) is er gewoon geen mogelijkheid om daar iets te bieden dat beter is dan het huidige (of het vorige) aanbod in dat segment. De 3090 of 2080 Ti zijn geen halo producten.
En om dan toch weer terug naar de auto's te gaan, Nvidia is geen Ferrari of Lamborghini. Het zijn geen statement producten die toevallig ook nog vrij rap zijn. Ze gaan geen 5 jaar mee. De restwaarde van hun producten is ook niet zo vast als die van een Ferrari, laat staan dat de restwaarde zelfs omhoog zou kunnen schieten. Ze kunnen ook niet met materiaalkwaliteit of iets dergelijks hun producten differentiëren.
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
/f/image/RI3iCVzYnGvMK6QVrAyfTwRf.png?f=fotoalbum_large)
