• Paprika
  • Registratie: September 2007
  • Laatst online: 11:44
choogen schreef op zaterdag 6 juni 2020 @ 18:17:
[...]

Ben ook wel benieuwd naar de bron voor deze foto. Kun je die er nog bij plaatsen?
Het logo van de bron staat op de foto :+.

https://www.chiphell.com/...236&page=1&authorid=34649

Verwijderd

Ja chiphell was de bron, videocardz and hwi waren er ook al als de kippen bij zag ik.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op zaterdag 6 juni 2020 @ 16:30:
[...]


Mijn eerste reactie, als hier al zo'n blok op zit. Dan vraag ik mij af wat er zo op de Ti versie zit. Ik krijg een zwaar vermoeden dat Nvidia AMD niet met de perf kroon wil laten weglopen met RDNA2.
Het is dan ook de vraag of deze op Samsung 10/8nm geproduceerd zal worden of op TSMC 7nm. Tweede is in welke staat dat zal gebeuren. Nvidia heeft nul ervaring met beide nodes wat niet zal helpen met vroege yields of optimaliseren van clock speeds. 10/8nm is toch al een onbekende voor een prestatie georiënteerd product omdat het officieel een low power node is. De architectuur van Ampère lijkt een "tick" te zijn op Turing. Dan ga je het niet zomaar redden op efficiëntie als AMD met 50% perf/watt komt en via de PS5 al bewijst dat ze ruim voorbij de 2GHz kunnen gaan.

Als het moet dan gaat Nvidia denk ik welk naar de 250W voor "maar" een RTX3080. Een koelblok zoals dit lijkt daar ook op te hinten. Qua tijdschema kan dit het zijn als Ampère in september komt, maar zeken weten doen we dat niet. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Simbob
  • Registratie: December 2009
  • Niet online

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Goede links allemaal, maar de TDP's van 320W-350W voor deze kaarten vallen me nogal tegen. Ik wil in mijn kleine kast sowieso geen enorme energieslurper/hitte-generator.

Verwijderd

Ik blijf het maar een vreemd ontwerp vinden. De ventilator onder krijgt zo gewoon veel warme lucht binnen van de ventilator boven die de warmte naar onder blaast. En de ventilator boven zuigt gewoon weer de warme opstijgende warme lucht naar onder om weer door de videokaart te gaan. Zo krijg je een airflow van lucht rond de videokaart die alleen maar warmer wordt.

Bij twee ventilators zoals bij reference videokaarten van de huidige generaties heb je hier geen last van. Daar kun je ook gewoon een stuk PCB open houden zodat de warmte gemakkelijker uit de videokaart kan.
choogen schreef op dinsdag 9 juni 2020 @ 12:50:
Goede links allemaal, maar de TDP's van 320W-350W voor deze kaarten vallen me nogal tegen. Ik wil in mijn kleine kast sowieso geen enorme energieslurper/hitte-generator.
Alles draait om de performance per watt (en natuurlijk prijs/prestatie) als die flink omhoog gaat en daar zou ik wel vanuit gaan door de grote stap in productieproces. Dan is een minder snelle kaart met een TDP van 200W ook een interessante optie.

[ Voor 31% gewijzigd door Verwijderd op 09-06-2020 13:02 ]


  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 11:02

thijsco19

KTM 990 SMT

Verwijderd schreef op dinsdag 9 juni 2020 @ 12:57:
Ik blijf het maar een vreemd ontwerp vinden. De ventilator onder krijgt zo gewoon veel warme lucht binnen van de ventilator boven die de warmte naar onder blaast. En de ventilator boven zuigt gewoon weer de warme opstijgende warme lucht naar onder om weer door de videokaart te gaan. Zo krijg je een airflow van lucht rond de videokaart die alleen maar warmer wordt.

Bij twee ventilators zoals bij reference videokaarten van de huidige generaties heb je hier geen last van. Daar kun je ook gewoon een stuk PCB open houden zodat de warmte gemakkelijker uit de videokaart kan.
De ventilator die 'boven' zit (gemonteerde toestand) zal zeer waarschijnlijk een pull ventilator zijn. Dus zuigt de lucht aan van onder naar boven. Het ontwerp is duidelijk anders dan de andere ventilator die dus normaal zal werken en vergelijkbaar zal zijn als de huidige generatie ontwerpen.

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


Verwijderd

thijsco19 schreef op dinsdag 9 juni 2020 @ 13:05:
[...]

De ventilator die 'boven' zit (gemonteerde toestand) zal zeer waarschijnlijk een pull ventilator zijn. Dus zuigt de lucht aan van onder naar boven. Het ontwerp is duidelijk anders dan de andere ventilator die dus normaal zal werken en vergelijkbaar zal zijn als de huidige generatie ontwerpen.
Je kunt aan de vorm van de bladen zien dat te beiden push zijn. Pull werkt overigens ook veel slechter, dus dat zou helemaal onlogisch zijn.

[ Voor 7% gewijzigd door Verwijderd op 09-06-2020 13:09 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Het verbaasd mij vooral dat als je een PCB blijkbaar zoveel kleiner kan maken, dat andere dat niet ook hebben gedaan. Dan krijg je net als wat mijn R9 Fury had een fan aan het uiteinde die niet op het PCB staat de blazen, maar rechtstreeks lucht door de koelvinnen kan blazen, dat zou toch de koeling behoorlijk ten goede moeten komen.

En tja, de hele dual fan optie aan verschillende kanten lijkt mij gewoon een esthetische keuze. Net als dat mensen het bij de 5700XT founders edition ook helemaal aan het bedenken waren waarom de deuk voor betere airflow zou zorgen, terwijl ook dat uiteraard gewoon een keuze was om hem er leuker uit te laten zien. Je kan dit ontwerp mooi of lelijk vinden, maar hij is in ieder geval opvallend.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik denk eigenlijk dat Nvidia iets aan het proberen is. De geruchten dat de RTX3080 een GA102 zou zijn, heb ik al eerder gezien. Idem voor de 384 bit bus wat 12GB impliceert. Cut down naar 320bit en je hebt 10GB. De 300W+ is op zich ook niet helemaal nieuw. 4352 cuda cores gecombineerd met de constatering dat Ampère waarschijnlijk geen grote architecturale verbeteringen buiten RT kent, impliceert dat de RTX3080 zal presteren als een serieus overclockte RTX2080Ti, misschien nog wel wat meer gezien de 300W+ TDP. Als die RTX3090 dan de volle GA102 is met 4608 cuda cores is, dan heeft Nvidia voor het eerst in jaren geen sprong gemaakt in shader rekeneenheden en dan gaan ze puur voor clockspeeds. Buiten de RT verbeteringen zou dat eigenlijk best teleurstellend zijn, maar ergens ook voorspelbaar. Volgens mij heb ik in 2018 al eens aangestipt dat Nvidia voor de volgende generatie waarschijnlijk tegen een veel kleinere redicle limit aan zou gaan lopen met de overstap naar 7nm en ze zouden moeten gaan kiezen tussen RT of shader verbeteringen. Voorspelbaar genoeg zou Nvidia dan kiezen voor RT.

Maar het gaat hier dus waarschijnlijk om het koelen van een serieus verbruikende chip en omdat het een FE is, moet dat met enige kwaliteit en stijl. Het lijkt ook legitiem te zijn aangezien Nvidia kennelijk dit lek aan het onderzoeken is. Een simpele drie ventilatoren optie zie ik Nvidia eigenlijk niet accepteren en dan moet je gaan kijken naar iets speciaals. De Turing FE's waren goed functioneren kaarten, maar eigenlijk ook niet zo bijzonder. Bizar veel schroeven, complex ontwerp en esthetisch georiënteerd, maar ze presteerde. Ik zou dus eerder in de richting zoeken van iets esthetisch, maar wel iets dat 300W+ moet kunnen afvoeren zonder terug te vallen op een drie ventilatoren ontwerp. Dan kan je zoiets als dit krijgen.

De implicaties zijn alleen dat Nvidia het kennelijk nodig vind om een zeer kostbaar ontwerp als FE te positioneren. Deze koeloplossing zou namelijk $150 kosten. Een serieuze premium prijskaartje waar Nvidia waarschijnlijk nog meer gaat concurreren met hun partners. Die zullen blij zijn. Goedkoop zal dit ook niet worden, maar dat zijn we nu wel gewend van Nvidia. Tweede en waarschijnlijk veel relevanter is dat een 300W+ TDP en het positioneren van GA102 als xx80 sterk impliceert dat Nvidia wat te vrezen heeft omtrent RDNA2. Krijgen we misschien weer eens echte concurrentie in high end, voor het eerst sinds 2013. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Sissors schreef op dinsdag 9 juni 2020 @ 13:17:
Het verbaasd mij vooral dat als je een PCB blijkbaar zoveel kleiner kan maken, dat andere dat niet ook hebben gedaan. Dan krijg je net als wat mijn R9 Fury had een fan aan het uiteinde die niet op het PCB staat de blazen, maar rechtstreeks lucht door de koelvinnen kan blazen, dat zou toch de koeling behoorlijk ten goede moeten komen.
Kleiner PCB is regelmatig prima mogelijk, bij een RX5700XT is dat bijvoorbeeld ook duidelijk te zien.
https://www.techpowerup.c...-radeon-rx-5700-xt/5.html Alleen is het bij deze videokaart niet echt nuttig. De lengte is nodig voor de koeler en een stukje extra PCB kost niet zoveel. Korter PCB is overigens regelmatig duurder omdat het vaak betekend dat je meer lagen nodig hebt en dat maakt het vooral duurder. Het PCB voor een ITX moederbord is hierdoor ook regelmatig duurder dan een vergelijkbare ATX versie.
En tja, de hele dual fan optie aan verschillende kanten lijkt mij gewoon een esthetische keuze. Net als dat mensen het bij de 5700XT founders edition ook helemaal aan het bedenken waren waarom de deuk voor betere airflow zou zorgen, terwijl ook dat uiteraard gewoon een keuze was om hem er leuker uit te laten zien. Je kan dit ontwerp mooi of lelijk vinden, maar hij is in ieder geval opvallend.
Een deukje in een koeler is een esthetische keuze, dat is vrij duidelijk. Dit is geen esthetische keuze, dit is een zeer grote verandering in het ontwerp van de koeler. Zo groot en zo vreemd dat het moeilijk voor te stellen is dat het klopt.

  • Simbob
  • Registratie: December 2009
  • Niet online
RTX 3090?

https://wccftech.com/nvidia-rtx-3090-graphics-card/

Wat een monster, 24 GB en 350W.
Poe daar zal best een prijzig prijskaartje aanhangen als dat echt is.

[ Voor 45% gewijzigd door Simbob op 09-06-2020 17:50 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wat die koeler betreft, volgens Igor zijn er meerdere koeloplossingen in ontwikkeling en alles wat we nu zien hoeft niet per se het uiteindelijke product te worden. RTX 3080 / 3090 zou pas in de DVT fase zijn.
According to insiders, the leaked image is only one variant, which means that at the time of taking the pictures, the company was probably still in the so-called DVT (Design Validation Test) phase, in which various variants and options are played through before finally deciding on a design. Here, performance, the question of costs (purchasing from the OEM, subsequent production costs) and the consideration of long-term durability are the decisive factors for the final application.

In addition to a classic heatsink solution, there is probably also a significantly more cost-intensive cooler variant with a specially designed vapor-chamber (VC), which could also explain the circulated cooler price of 150 USD. Whereby it was also not clear whether this refers to a Small Series Product.
Een mogelijke tijdlijn kan er als volgt uitzien:

Afbeeldingslocatie: https://tweakers.net/i/q3FHipJOooiXjvBXzu-Pq5cibxc=/800x/filters:strip_exif()/f/image/Prmdni47tbZKhSqlkoV1h5B1.png?f=fotoalbum_large

March of the Eagles


  • ravw
  • Registratie: Augustus 2000
  • Laatst online: 11:04
Simbob schreef op dinsdag 9 juni 2020 @ 17:49:
RTX 3090?

https://wccftech.com/nvidia-rtx-3090-graphics-card/

Wat een monster, 24 GB en 350W.
Poe daar zal best een prijzig prijskaartje aanhangen als dat echt is.
ik denk dat die wel tegen de 2000/3000 euro gaan aanlopen ... nog even dan hoef je alleen maar een HD aan te koppelen en klaar ben je :9~

Systeem:AMD Ryzen 7 9800X3D ,RTX 5080 OC,FURY 64 GB DDR5-6000,ASUS TUF Gaming B850M-PLUS WIFI, SAMSUNG 990 EVO Plus 4 TB


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44


Coreteks heeft een analyse gedaan en denkt dat de fan op de achterkant ook gewoon push is, en dat er op die plek nog een (upgradebare) coprocessor zit die bedoelt is voor RT. Dit is tot nu toe de meest interessante analyse hierover :P.

Verwijderd

XWB schreef op zondag 14 juni 2020 @ 14:35:
Wat die koeler betreft, volgens Igor zijn er meerdere koeloplossingen in ontwikkeling en alles wat we nu zien hoeft niet per se het uiteindelijke product te worden.
Dan lijkt het mij het meest logische dat die er niet zo uit gaat zien. :P
Sp3ci3s8472 schreef op maandag 15 juni 2020 @ 00:03:
Coreteks heeft een analyse gedaan en denkt dat de fan op de achterkant ook gewoon push is
Je hoeft weinig aan te analyseren. Je kunt het gewoon duidelijk op de foto zien. De vorm van de bladen maken maar één draairichting mogelijk. De andere kant op draaien gaat niet werken, dan doet de fan zo goed als niks.

  • Simbob
  • Registratie: December 2009
  • Niet online
Nieuwe geruchten. Het lijkt erop dat de 3080 de mainstream kaart voor gamers moet worden en de rest daarboven high end monsters.
Zelf ben ik ook benieuwd wat de prijs gaat doen voor een 3080. De PS5 en de Xbox gaan waarschijnlijk voor 500-600 euro over de toonbank eind van het jaar. Ik denk dat Nvidia daar niet veel vanaf gaat zitten qua prijs.

Afbeeldingslocatie: https://tweakers.net/i/WgxVO-QebxXt7c87KLfxDIQL0hM=/800x/filters:strip_exif()/f/image/FiurmVSHG5Hzj6HRpFhKc5UH.png?f=fotoalbum_large

[ Voor 19% gewijzigd door Simbob op 19-06-2020 11:42 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op maandag 15 juni 2020 @ 00:03:
[YouTube: A REVOLUTION in graphics is coming]

Coreteks heeft een analyse gedaan en denkt dat de fan op de achterkant ook gewoon push is, en dat er op die plek nog een (upgradebare) coprocessor zit die bedoelt is voor RT. Dit is tot nu toe de meest interessante analyse hierover :P.
Uh ja, dat klopt zeer waarschijnlijk niet. We weten dat er een vrij klein PCB op dat prototype zat en het zeer waarschijnlijk GA-102 is. Er zal niks meer passen op het PCB naast de GPU, VRAM en VRM's. Er zou een aparte RT chip bij elke RTX 3000 videokaart zitten. Nou waar zit die dan? Zoiets zal om koeling vragen en dat zou de tweede ventilator verklaren. En dat is precies het probleem.

Op het moment is ray tracing het uitzenden van een beperkt aantal rays die intersection testen uitvoeren op geometrie. Als ze dus tegen objecten, dan gaan ze hierop acteren voor belichting, schaduwen etc. Je moet deze dus weten waar objecten zich bevinden.

En daar zit het probleem namelijk latency. Wat hier wordt voorgesteld is dat de Ampère GPU een beetje RT doet, vervolgens de hele frame naar de framebuffer gaat en vervolgens gaat alles naar die aparte chip, veel meer RT en dan weer terug naar de frame buffer en dan pas naar je beeldscherm. Hoeveel frames aan latency gaat dat zijn? Verder kan je wel zoveel data verplaatsen tussen twee chips? Als dit al zal kunnen, wat ik betwijfel, dan moet die RT chip aan de andere kant van het PCB zitte om de verbinding zo kort mogelijk te maken. Daar zit alleen geen koeling en die ventilator verklaart het ook niet. Het idee dat die RT chip op een apart PCB zit, tja dat is een latency penalty zo substantieel dat ik het niet eens voor mogelijk acht, naast de onmogelijkheid om dat via een kabel te gaan verbinden. Dat is veel te langzaam. Zoiets ga je merken met serieuze input lag en dat ga je ervaren als onspeelbaar.

Dus nee, ik denk dat alles op de GPU chip, binnen de SM zal blijven. Ik denk dat Nvidia met krachtigere RT cores en sterk verbeterde Tensor cores komt om meer rays uit te zenden en ze beter te denoisen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Simbob schreef op vrijdag 19 juni 2020 @ 11:39:
Ik denk dat Nvidia daar niet veel vanaf gaat zitten qua prijs.
Dat is helemaal afhankelijk van de prestaties en prijs van de AMD tegenhangers. Ze zullen vooral naar elkaar kijken, console is niet een echte concurrent. Een Xbox One S was in november met Black Friday ook maar 127 euro, kreeg je er ook nog games bij. Had ook geen invloed op de videokaart prijzen. Het is niet dat je de videochip van een Xbox of PS in je PC kan zetten. :p
DaniëlWW2 schreef op zaterdag 20 juni 2020 @ 19:36:
[...]
We weten dat er een vrij klein PCB op dat prototype zat en het zeer waarschijnlijk GA-102 is.
Het enige wat we echt weten is dat we het niet weten. De rest zijn alleen nog maar geruchten.

[ Voor 22% gewijzigd door Verwijderd op 20-06-2020 20:25 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Nieuwe geruchten o.b.v. twitteraar Kopite7kimi over de RTX 3060 en RTX 3050 plus eventuele varianten ($300 - $400): https://wccftech.com/nvid...e-gaming-gpu-specs-rumor/

The latest rumors are once again being tweeted out by Kopite7kimi who has revealed that NVIDIA has taped out two new GPUs in the past few weeks. These include the Ampere GA106 and GA107.

[..]

Also, it's interesting that most previous rumors pointed to the GA106-300 SKU featuring 6 GB VRAM while the RTX 2060 SUPER features 8 GB VRAM. While the specifications are not set in the stone yet, it will definitely feel like a downgrade in terms of memory size for users upgrading from a GeForce RTX 2060 SUPER to the GeForce RTX 3060 even if the latter offers better performance. So its slightly early to say whether we will once again see 6 GB memory on the RTX 3060 or will NVIDIA finally up the VRAM on its mainstream lineup too.


https://twitter.com/kopite7kimi
Maybe,
RTX 3090 5248 24G GDDR6X 350W
RTX 3080 4352 10G GDDR6X 320W
RTX 3070Ti 3072 8G GDDR6X 250W
RTX 3070 2944 8G GDDR6 220W
For reference only.

----------------------------------------------------------------------------------------------------------------------------------

Edit: toevoeging 13 juli.

Nvidia Allegedly Kills Off Four Turing Graphics Cards In Anticipation Of Ampere

The media alleges that Nvidia has purportedly suggested that its partners raise the prices on the aforementioned Turing graphics cards at the beginning of this month. The rumored reasons behind the chipmaker's recommendation are the rising interest in cryptocurrency mining and insufficient supply on TSMC's part.
https://www.tomshardware....cards-anticipation-ampere

[ Voor 37% gewijzigd door choogen op 13-07-2020 15:57 ]


  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Niet normaal meer die prijzen, eerst had je nog een 8800 GTX voor 600 euro nieuw. Maar dat ging ook wel ff lang mee.

Mag wel een keer iets komen wat dubbel zo snel is als een 2080ti!
https://videocardz.com/ne...super-graphics-cards-soon

Allegedly discontinued GeForce RTX 20 graphics cards:

GeForce RTX 2080 Ti
GeForce RTX 2080 SUPER
GeForce RTX 2070 SUPER
GeForce RTX 2070

[ Voor 149% gewijzigd door A87 op 19-07-2020 12:47 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
A87 schreef op zondag 19 juli 2020 @ 12:41:
Niet normaal meer die prijzen, eerst had je nog een 8800 GTX voor 600 euro nieuw. Maar dat ging ook wel ff lang mee.
helaas denkt niet iedereen er zo over en gaan ze als warme broodjes over de toonbank.

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ziet er uit dat MSI ook graag de SUPERS in verkoop wilt.. weg ermee.. met gratis steam code
https://videocardz.com/bu...up-to-60-usd-steam-wallet

Precies net voor mogelijke launch

Graphic cards and matching redemption item:

$20 steam wallet code
GeForce RTX 2060 SUPER GAMING
GeForce RTX 2060 SUPER GAMING X
$40 (2x$20 steam wallet code)
GeForce RTX 2070 SUPER GAMING X
GeForce RTX 2070 SUPER GAMING TRIO
GeForce RTX 2070 SUPER GAMING X TRIO
$60 (3x$20 steam wallet code)
GeForce RTX 2080 SUPER GAMING TRIO
GeForce RTX 2080 SUPER GAMING X TRIO

[ Voor 46% gewijzigd door A87 op 19-07-2020 23:15 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 02-02 22:01
Er was eerder deze week een gerucht dat nieuwe Nvidia videokaarten een nieuwe 12-pin connector nodig hebben. Dit gerucht is op Twitter ontkracht, terwijl andere websites met 'welgeplaatste bronnen binnen de industrie' zeggen dat deze connector wel bestaat.

Hoe groot is de kans dat dit gerucht zou kunnen kloppen en dat Nvidia videokaarten de nieuwe 12-pin connector nodig zal hebben?

Afbeeldingslocatie: https://content.hwigroup.net/images/editorial/1920/086025_xysajrzzfgv5oxwk.jpg
Hardware Info: Onduidelijkheid over Nvidia's PSU-stekker met 12 pinnen duurt voort

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
zouden ze een dealtje hebben met PSU manufacturers?

Als je een nieuwe kaart koopt, moet je ook een nieuwe kabel kopen (of een hele nieuwe PSU?).

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Sowieso zal er dan een verloopkabel zijn. Maar ik mis waarom iemand die zou willen, inclusief de PSU fabrikanten. Oh korte termijn is het leuk hoor voor ze, als mensen een nieuwe willen kopen ondanks de verloopkabel. Maar gezien ze totaal niet compatibel zijn qua pinnen, moeten ze dus in de toekomst altijd een extra GPU kabel meeleveren, wat hun kosten hoger maakt, oftewel de winstmarge kleiner. (En ja, aan het begin kan je daardoor meer voor je PSU vragen, met als verkoopargument dat hij de 12-pins connector heeft, maar na loop van tijd heeft elke PSU dat).

Edit: de gelekte (potentiele) koeler had een klein PCB. Vanuit dat oogpunt is er misschien reden voor deze stekker om evenveel stroom te krijgen als 2x8 / 2x8 + 1x6 connector in een fysiek kleinere area. Dat zou een redelijk punt zijn, en ook de onduidelijkheid verklaren: Afhankelijk van welke koeler/PCB ze uiteindelijk willen is het wel/niet nodig. Maar het lijkt mij echt niet dat ze voedingsfabrikanten hiermee blij maken.

[ Voor 27% gewijzigd door Sissors op 20-07-2020 08:28 ]


Verwijderd

RobinNL schreef op maandag 20 juli 2020 @ 00:13:
Er was eerder deze week een gerucht dat nieuwe Nvidia videokaarten een nieuwe 12-pin connector nodig hebben. Dit gerucht is op Twitter ontkracht, terwijl andere websites met 'welgeplaatste bronnen binnen de industrie' zeggen dat deze connector wel bestaat.
De connector bestaat sowieso al jaren. Het is een 12 pins Micro-FIT connector. En nVidia gaat er ook mee komen. Is alleen de vraag met welke videokaarten. Is het de eerst volgende generatie? Is het direct een flink aantal of is het maar één en heeft de rest gewoon de huidige aansluitingen? Dat zijn nog de onduidelijkheden.
bluebear schreef op maandag 20 juli 2020 @ 03:00:
zouden ze een dealtje hebben met PSU manufacturers?
Er zijn honderden fabrikanten die voedingen produceren, daar kun je geen deal mee sluiten. Zelfs de 8 grootsten (AcBel, Chicony, Delta, Flextronics, FSP, Lite-On, GreatWall, Huntkey) lijkt mij al lastig. Ook omdat je hiermee ook niet het grootste deel van de retail markt pakt.

Intel is degene die de ATX standaard onderhoud, alleen ditmaal heeft nVidia op eigen houtje bezig met een andere connector voor de videokaarten. Een connector welke al wel bestaat, maar niet gebruikt wordt voor ATX voedingen.
Als je een nieuwe kaart koopt, moet je ook een nieuwe kabel kopen (of een hele nieuwe PSU?).
Fabrikanten zullen als ze het nodig vinden vaak genoeg een kabel weggeven of opsturen tegen verzendkosten. Bij de duurdere voedingen, doen ze nu ook al. En een goedkope voeding wil je toch sowieso niet gebruiken.

Maar dat staat natuurlijk weer los van de fabrikanten die de voeding maken. Aangezien de meeste retail voedingen komen van fabrikanten die zelf niks produceren.

[ Voor 6% gewijzigd door Verwijderd op 20-07-2020 09:06 ]


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Interessante nieuwe video van Moore's Law is Dead waarin hij stelt dat het arrogant geworden Nvidia het zwaar gaat krijgen om dit jaar de performance kroon vast te houden wanneer AMD's Big Navi in november uitkomt. Een en ander heeft te maken met de voor Nvidia mislukte onderhandelingen met TSMC waardoor het bedrijf voornamelijk moet werken met 8nm chips (van Samsung) i.p.v. met 7nm chips van TSMC. AMD heeft betere banden met TSMC en kan daarom wel aan op 7nm geproduceerde chips komen. De YouTuber verwacht verder dat Nvidia dan al in 2021 weer terug zal slaan met een "Super" refresh versie van Ampere die wel op 7nm is gebaseerd, maar tegen die tijd zit AMD mogelijk al weer bijna op 5nm. Hoe dan ook worden het interessante tijden voor gamers, want de concurrentie is spoedig terug in alle hevigheid (maar dat moet zich dan hopelijk wel gaan vertalen in betere prijzen).


  • HajoK
  • Registratie: Augustus 2012
  • Laatst online: 27-01 10:27
Had 'm ook gezien. Hij heeft het erover dat er geen HDMI 2.1 in zou zitten, dat zou ik wel erg jammer vinden i.v.m. het willen aansluiten op (nieuwe) TV van m'n volgende PC..

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

HajoK schreef op maandag 20 juli 2020 @ 14:03:
Had 'm ook gezien. Hij heeft het erover dat er geen HDMI 2.1 in zou zitten, dat zou ik wel erg jammer vinden i.v.m. het willen aansluiten op (nieuwe) TV van m'n volgende PC..
Op 10m:14 zegt hij juist dat er op Ampere wel een HDMI 2.1 poort zit. Staat ook op zijn slide.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
choogen schreef op maandag 20 juli 2020 @ 11:33:
Interessante nieuwe video van Moore's Law is Dead waarin hij stelt dat het arrogant geworden Nvidia het zwaar gaat krijgen om dit jaar de performance kroon vast te houden wanneer AMD's Big Navi in november uitkomt. Een en ander heeft te maken met de voor Nvidia mislukte onderhandelingen met TSMC waardoor het bedrijf voornamelijk moet werken met 8nm chips (van Samsung) i.p.v. met 7nm chips van TSMC. AMD heeft betere banden met TSMC en kan daarom wel aan op 7nm geproduceerde chips komen. De YouTuber verwacht verder dat Nvidia dan al in 2021 weer terug zal slaan met een "Super" refresh versie van Ampere die wel op 7nm is gebaseerd, maar tegen die tijd zit AMD mogelijk al weer bijna op 5nm. Hoe dan ook worden het interessante tijden voor gamers, want de concurrentie is spoedig terug in alle hevigheid (maar dat moet zich dan hopelijk wel gaan vertalen in betere prijzen).

[YouTube: Nvidia Ampere Arrogance Leak: AMD Really Could Win with RDNA 2]
Iemand met als naam "Moore's Law is Dead" zou toch moeten beseffen dat tegenwoordig voor HPC het niet zo kritiek meer is om op de nieuwste node te zitten. Waar vroeger nog de GPU fabrikanten voorop liepen, zijn dat nu de mobiele fabrikanten met een reden.

Dat zie je ook eraan dat Navi nou niet significant veel beter is dan wat Nvidia heeft, ondanks dat ze op 7nm zitten terwijl Nvidia op 12nm zit. En ook op CPU vlak zie je het: Ja ik ga echt niet ontkennen dat gemiddeld genomen Ryzen zeker de betere keuze is tov het Intel aanbod, maar Ryzen zit op 7nm, Intel op 14nm, Als we het equivalent van een tijdje geleden pakken: 130nm vs 65nm, dan was het performance verschil echt heel veel groter geworden.

Ik weet niet precies hoe goed 8nm zal presteren, maar het zal allicht beter zijn dan hun huidige 12nm node. En Samsung zal wel blij zijn eens een grote klant te hebben voor een nieuwe technologie, dus dat zal de prijs ook wel drukken.

Met Navi heeft AMD redelijk de achterstand ingelopen op Nvidia, maar er waren ook enorme verwachtingen die niet zijn waargemaakt. Dus ik moet Big Navi eerst zien voor ik geloof dat die een enorme stap voorwaarts is.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Sissors schreef op maandag 20 juli 2020 @ 15:43:
[...]

Iemand met als naam "Moore's Law is Dead" zou toch moeten beseffen dat tegenwoordig voor HPC het niet zo kritiek meer is om op de nieuwste node te zitten. Waar vroeger nog de GPU fabrikanten voorop liepen, zijn dat nu de mobiele fabrikanten met een reden.

Dat zie je ook eraan dat Navi nou niet significant veel beter is dan wat Nvidia heeft, ondanks dat ze op 7nm zitten terwijl Nvidia op 12nm zit. En ook op CPU vlak zie je het: Ja ik ga echt niet ontkennen dat gemiddeld genomen Ryzen zeker de betere keuze is tov het Intel aanbod, maar Ryzen zit op 7nm, Intel op 14nm, Als we het equivalent van een tijdje geleden pakken: 130nm vs 65nm, dan was het performance verschil echt heel veel groter geworden.

Ik weet niet precies hoe goed 8nm zal presteren, maar het zal allicht beter zijn dan hun huidige 12nm node. En Samsung zal wel blij zijn eens een grote klant te hebben voor een nieuwe technologie, dus dat zal de prijs ook wel drukken.

Met Navi heeft AMD redelijk de achterstand ingelopen op Nvidia, maar er waren ook enorme verwachtingen die niet zijn waargemaakt. Dus ik moet Big Navi eerst zien voor ik geloof dat die een enorme stap voorwaarts is.
Alleen zijn de geruchten dat de Samsung 8nm node niet de hoge clocksnelheden kan waarmaken die Nvidia wil. Waar het eerst ging om 2200+ op TSMC hebben ze het nu over 1900+ op Samsung. Dat wordt volgens mij juist in het filmpje uitgelegd. Het is wellicht mogelijk, maar op 400 Watt. Wat waarschijnlijk wel mooi is is dat je nu wel fatsoenlijk RT performance gaat krijgen.
Misschien dat ze later dus nog op 7nm van TSMC de echte highend uitbrengen.

Ik ben het met je eens dat de node op zichzelf een slechte architectuur niet goedmaakt. Wat je wel ziet met Navi 1 is dat AMD een grote inhaalslag heeft gemaakt op verbruik en het efficienter gebruiken van het aantal flops dat ze beschikbaar hebben. Navi 2 gaat dat nog eens verbeteren zonder dat ze een kleinere node gaan gebruiken.
Volgens mij heeft AMD express een mid-high range kaart uitgebrach met Navi 1, ik denk dat als ze gewilt hadden ze best in staat waren een grotere variant uit te brengen maar dat ze dat niet hebben gedaan omdat ze Navi 1 als tussen architectuur zien en als een stopgap tot Navi 2.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Dat denk ik ook. Ondanks 7nm was de die-size relatief groot geweest bij een Big Navi 1. Terwijl het product eigenlijk niet goed genoeg zou zijn qua architectuur om met nvidia te strijden. In combinatie met beschikbare 7nm capaciteit zou dat geen zin hebben en niet logisch zijn.

Het was logischer om de beschikbare (bespaarde) 7nm capaciteit te gebruiken voor wel succesvolle producten zoals Ryzen en pas bij een beter architectuur en meer beschikbare 7nm capacity een Big Navi uit te brengen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 02-02 22:01
Bovenstaande video heb ik nog niet bekeken, dus misschien kan er wat dubbele info in zitten.

Gerucht: Tensor-geheugencompressie van Nvidia’s Ampere-kaarten kan VRAM-gebruik tot 40% verminderen

Afbeeldingslocatie: https://content.hwigroup.net/images/editorial/1920/086101_2.jpg
Afbeeldingslocatie: https://content.hwigroup.net/images/editorial/1920/086100_1.jpg
Afbeeldingslocatie: https://content.hwigroup.net/images/editorial/1920/086102_3.jpg

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Exacte info van het filmpje (zie watermark), maar wel handig als een screenshot :+.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Sp3ci3s8472 schreef op maandag 20 juli 2020 @ 18:46:
[...]

Volgens mij heeft AMD express een mid-high range kaart uitgebrach met Navi 1,
Dat hebben ze zeker bewust gedaan. Een kleine mid-tier (251mm is geen high end) chip gemaakt als massa product op 7nm.

Men hoeft echt niet gelijk een Nvidia/AMD uber high end chip te gaan verwachten als eerste 5nm gpu als die node beschikbaar is. Een die shrink van een bestaand product of een low end/mid tier chip is best case.
Tel daarbij op dat de nieuwe nodes steeds prijziger worden, nog meer rede om voorzichtig te zijn.
ik denk dat als ze gewilt hadden ze best in staat waren een grotere variant uit te brengen maar dat ze dat niet hebben gedaan omdat ze Navi 1 als tussen architectuur zien en als een stopgap tot Navi 2.
Stopgap ja, maar niet omdat stopgap naar Navi2 omdat het zo liep. Een nieuwe node + nieuwe architectuur voor grote high end chips= problemen

Lage yields, hoog verbruik door lekstroom en weinig goed werkende chips op acceptabele speeds. Nvidia gaat bewust niet meer gelijk op een nieuwste node met high end chip mede omdat ze heel goed weten dat dit kostbaar is en resulteert in lage aantallen van functionele chips op specs. AMD doet al langer niet meer eerst nieuwe high end chips op een nieuwe node om vergelijkbare redenen. Daarom was Navi10 eerst, om te testen en de nieuwe node eerst op niveau te krijgen. Nvidia gaat groot op een bewezen proces.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
sjekneck schreef op maandag 20 juli 2020 @ 22:01:
[...]


Dat hebben ze zeker bewust gedaan. Een kleine mid-tier (251mm is geen high end) chip gemaakt als massa product op 7nm.

Men hoeft echt niet gelijk een Nvidia/AMD uber high end chip te gaan verwachten als eerste 5nm gpu als die node beschikbaar is. Een die shrink van een bestaand product of een low end/mid tier chip is best case.
Tel daarbij op dat de nieuwe nodes steeds prijziger worden, nog meer rede om voorzichtig te zijn.


[...]


Stopgap ja, maar niet omdat stopgap naar Navi2 omdat het zo liep. Een nieuwe node + nieuwe architectuur voor grote high end chips= problemen

Lage yields, hoog verbruik door lekstroom en weinig goed werkende chips op acceptabele speeds. Nvidia gaat bewust niet meer gelijk op een nieuwste node met high end chip mede omdat ze heel goed weten dat dit kostbaar is en resulteert in lage aantallen van functionele chips op specs. AMD doet al langer niet meer eerst nieuwe high end chips op een nieuwe node om vergelijkbare redenen. Daarom was Navi10 eerst, om te testen en de nieuwe node eerst op niveau te krijgen. Nvidia gaat groot op een bewezen proces.
Ben ik het niet helemaal mee eens, onder de 350 is mid-end. Tusen de 350-500 is mid-highend (dus nog geen highend); daarboven 450-650 is highend en daar weer boven is enthausiast. Onder de 200 is lowend. Maar dit zijn de definities waar ik van uit ga, dat staat niet in steen geschreven :P.

Geen idee wat de yields waren van de 5700, maar volgens mij heeft AMD 7nm goed onder controle en was prima in staat om begin 2020 een snellere variant te maken. Alleen denk ik dat ze er meer brood in zagen om cpu's te bakken in de ruimte die ze hadden. Ze kunnen veel meer Zen 2 dies uit diezelfde 251mm halen en voor (veel) meer verkopen.
Alles wat ik over het 7nm process heb gehoord van TSMC was positief; positiever dan sommige voorgaande nodes.

Het klopt dat AMD dat al langer niet meer.

Is Samsung 8nm een bewezen process? Volgens mij echt niet meer bewezen dat 7nm van TSMC. Denk dat de vraag is wanneer is een process een bewezen process, ik denk dat dat het moment is dat het in bulk productie gaat.
Ze zijn rond dezelfde tijd uitgekomen risk production in begin 2018. AMD kwam op 7 Juli 2019 met de 5700; Nu weet ik niet genoeg over het hele process maar ik denk dat TSMC rond die tijd al zeker 6 maanden risk production achter de rug heeft en waarschijnlijk al over was op bulk.
https://www.extremetech.c...euv-manufacturing-in-2019
https://en.wikichip.org/wiki/7_nm_lithography_process
https://www.eteknix.com/t...risk-production-in-april/

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
A87 schreef op zondag 19 juli 2020 @ 12:41:
Niet normaal meer die prijzen, eerst had je nog een 8800 GTX voor 600 euro nieuw. Maar dat ging ook wel ff lang mee.

Mag wel een keer iets komen wat dubbel zo snel is als een 2080ti!
https://videocardz.com/ne...super-graphics-cards-soon

Allegedly discontinued GeForce RTX 20 graphics cards:

GeForce RTX 2080 Ti
GeForce RTX 2080 SUPER
GeForce RTX 2070 SUPER
GeForce RTX 2070
Dat is wel appels met peren vergelijken. In de tijd van een 8800GTX had je geen 1440p en 4k 144hz gsync mainstream gaming schermen. Als je op dit moment een 1080p scherm hebt en een degelijke kaart zoals een RTX2070S hoef je de komende 5 jaren niet eens up te graden.

De 3000 serie is dan ook voornamelijk bedoeld voor de mensen die op 1440p en/of 4k willen gamen. Of hun 200hz + gaming schermen op 1080p willen voltrekken. De meeste mensen gamen nog op 1080p en hebben deze kaarten dus helemaal niet nodig.

Wat betreft de 3000 serie is DLSS 3.0 toch wel veruit het meest interessante. Als ze dit goed aanpakken, en zoals ik lees gaan ze "any game" ondersteunen dan maakt het helemaal niet meer uit waar AMD mee komt. DLSS blaast elke AMD kaart weg. Zal in de kinderschoenen staan voor "any game" maar DLSS 2.0 is nu al meer dan veelbelovend.

[ Voor 13% gewijzigd door biggydeen2 op 04-08-2020 16:21 ]


  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

oeps verkeerd topic gepost

[ Voor 165% gewijzigd door A87 op 04-08-2020 23:07 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
biggydeen2 schreef op dinsdag 4 augustus 2020 @ 16:13:
Dat is wel appels met peren vergelijken. In de tijd van een 8800GTX had je geen 1440p en 4k 144hz gsync mainstream gaming schermen.
Deze opmerking raakt kant noch wal, sluit als een haspel in een zak en slaat daarbij als een tang op een varken. Volgens die logica hadden de eerste Pentium, Voodoo, eerste GeForce/Radeon allemaal hooguit enkele tientjes mogen kosten omdat de gangbare resolutie toentertijd 640x480 was en we nog geen 1080p hadden 8)7

De meeste mensen hadden ook geen 8800 GTX ($599) nodig, aangezien de gangbare ("de meeste mensen" dus) resolutie toentertijd 1280x1024 was, terwijl dat ding wel veel dingen op 2560x1600 kon draaien (in verhouding ligt dat niet ver van 2160p vs 1080p vandaan).

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Werelds schreef op dinsdag 4 augustus 2020 @ 20:22:
[...]

Deze opmerking raakt kant noch wal, sluit als een haspel in een zak en slaat daarbij als een tang op een varken. Volgens die logica hadden de eerste Pentium, Voodoo, eerste GeForce/Radeon allemaal hooguit enkele tientjes mogen kosten omdat de gangbare resolutie toentertijd 640x480 was en we nog geen 1080p hadden 8)7

De meeste mensen hadden ook geen 8800 GTX ($599) nodig, aangezien de gangbare ("de meeste mensen" dus) resolutie toentertijd 1280x1024 was, terwijl dat ding wel veel dingen op 2560x1600 kon draaien (in verhouding ligt dat niet ver van 2160p vs 1080p vandaan).
Zo gek is dat toch niet? Je kunt nu veel meer met een GPU dan in die tijd. Nvidia heeft vele miljarden besteed aan RTX en AI en hebben hiervoor zelfs aparte RTX en Tensor cores toegevoegd. Ik snap niet dat mensen dan verwachten dat de prijs dan maar gelijk blijft? Even afgezien van kunstmatige prijzen omdat er geen of weinig concurrentie is. Tel daarbij inflatie en cryptomining op dan zijn de huidige prijzen vrij logisch.

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Als je echt denkt dat de hogere prijzen enkel is om de hogere productie kosten te dekken...
De marges zijn vele malen hoger dan destijds. waarom? Omdat de mensen het toch betalen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
biggydeen2 schreef op dinsdag 4 augustus 2020 @ 20:41:
Zo gek is dat toch niet? Je kunt nu veel meer met een GPU dan in die tijd. Nvidia heeft vele miljarden besteed aan RTX en AI en hebben hiervoor zelfs aparte RTX en Tensor cores toegevoegd. Ik snap niet dat mensen dan verwachten dat de prijs dan maar gelijk blijft? Even afgezien van kunstmatige prijzen omdat er geen of weinig concurrentie is. Tel daarbij inflatie en cryptomining op dan zijn de huidige prijzen vrij logisch.
In die tijd kon je met die CPU's, GPU's ook veel meer dan de chips daarvoor. Sterker nog, de sprong die je met die chips maakte (met name de genoemde Voodoo bijvoorbeeld) was vele malen groter dan wat we de afgelopen jaren hebben gezien. Zeker vergeleken met Turing. En miljarden aan RTX en "AI" besteed? Dat laatste is software, waar jij op doelt zijn Tensor Cores die gebruikt kunnen worden voor verschillende ML/DL toepassingen. En die zijn niet nieuw en al helemaal niet door Nvidia "bedacht". Een TC is niets meer dan een matrix ALU, die al eerder bestonden. En specifiek voor ML/DL hebben Google, Microsoft en IBM elk al jaren geleden verschillende FPGA's en ASIC's gebruikt. Google's TPU (ik laat het aan de lezer om uit te vogelen waar deze 3 letters voor staan :+) stamt alweer uit 2015.

Tensor cores zijn ook helemaal niet boeiend voor games en wat mij betreft mogen ze die er uit gooien, want ze kosten wel veel ruimte in de chip. De toepassingen voor games zijn extreem beperkt en met DLSS (tot nog toe de enige "nuttige" toepassing in games) heeft Nvidia meteen ook laten zien hoe slecht dat kan gaan. DLSS 1.0 is gewoon slecht, DLSS 2.0 doet in elk geval niet onder voor wat AMD puur op shaders kan en we zullen wel zien hoe 3.0 er uit gaat zien. In plaats van het te faken heb ik liever hardware die daadwerkelijk 2160p144 kan leveren. Dat is wat de Voodoo gaf in verhouding tot alles daarvoor. Dat is wat ATI's R300 deed voor MSAA. Dat is wat G80 in z'n algemeen deed.

En RT? Wederom, niets nieuws. Daarmee wil ik niet zeggen dat wat de RT cores doen niet slim is, het is echter bedacht door anderen. De RT cores zijn (op dit moment) een hardware implementatie van een BVH. Ray Tracing zelf wordt al 40 jaar gedaan en is zeker niet Nvidia's uitvinding.

Waarom hebben Nvidia/AMD/Intel dat dan niet eerder gedaan? Omdat het relatief grote units zijn en er voorheen simpelweg dusdanig weinig in een chip zouden passen dat het nog minder nuttig zou zijn dan het nu is. Het heeft meer te maken met het werk dat "ons" ASML en bakkers zoals TSMC doen om kleinere, compactere chips te maken dan iets anders.

Je betaalt zo'n 60% meer voor TU102 en dat krijg je er niet voor terug. Zeker niet in performance, maar ook niet in beeldkwaliteit omdat er te veel compromissen gesloten moeten worden. Dus nee, ik kan me niet vinden in de stelling dat de prijzen het waard zijn voor de vooruitgang in technologie. Turing is geen G80, R300 of Voodoo vergeleken met z'n voorgangers of zelfs de concurrentie. Beter dan de concurrentie? Absoluut. Een stap voorwaarts ten opzichte van z'n voorgangers? Ja. Maar geen 60% beter.

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Werelds schreef op dinsdag 4 augustus 2020 @ 23:35:
[...]

In die tijd kon je met die CPU's, GPU's ook veel meer dan de chips daarvoor. Sterker nog, de sprong die je met die chips maakte (met name de genoemde Voodoo bijvoorbeeld) was vele malen groter dan wat we de afgelopen jaren hebben gezien. Zeker vergeleken met Turing. En miljarden aan RTX en "AI" besteed? Dat laatste is software, waar jij op doelt zijn Tensor Cores die gebruikt kunnen worden voor verschillende ML/DL toepassingen. En die zijn niet nieuw en al helemaal niet door Nvidia "bedacht". Een TC is niets meer dan een matrix ALU, die al eerder bestonden. En specifiek voor ML/DL hebben Google, Microsoft en IBM elk al jaren geleden verschillende FPGA's en ASIC's gebruikt. Google's TPU (ik laat het aan de lezer om uit te vogelen waar deze 3 letters voor staan :+) stamt alweer uit 2015.

Tensor cores zijn ook helemaal niet boeiend voor games en wat mij betreft mogen ze die er uit gooien, want ze kosten wel veel ruimte in de chip. De toepassingen voor games zijn extreem beperkt en met DLSS (tot nog toe de enige "nuttige" toepassing in games) heeft Nvidia meteen ook laten zien hoe slecht dat kan gaan. DLSS 1.0 is gewoon slecht, DLSS 2.0 doet in elk geval niet onder voor wat AMD puur op shaders kan en we zullen wel zien hoe 3.0 er uit gaat zien. In plaats van het te faken heb ik liever hardware die daadwerkelijk 2160p144 kan leveren. Dat is wat de Voodoo gaf in verhouding tot alles daarvoor. Dat is wat ATI's R300 deed voor MSAA. Dat is wat G80 in z'n algemeen deed.

En RT? Wederom, niets nieuws. Daarmee wil ik niet zeggen dat wat de RT cores doen niet slim is, het is echter bedacht door anderen. De RT cores zijn (op dit moment) een hardware implementatie van een BVH. Ray Tracing zelf wordt al 40 jaar gedaan en is zeker niet Nvidia's uitvinding.

Waarom hebben Nvidia/AMD/Intel dat dan niet eerder gedaan? Omdat het relatief grote units zijn en er voorheen simpelweg dusdanig weinig in een chip zouden passen dat het nog minder nuttig zou zijn dan het nu is. Het heeft meer te maken met het werk dat "ons" ASML en bakkers zoals TSMC doen om kleinere, compactere chips te maken dan iets anders.

Je betaalt zo'n 60% meer voor TU102 en dat krijg je er niet voor terug. Zeker niet in performance, maar ook niet in beeldkwaliteit omdat er te veel compromissen gesloten moeten worden. Dus nee, ik kan me niet vinden in de stelling dat de prijzen het waard zijn voor de vooruitgang in technologie. Turing is geen G80, R300 of Voodoo vergeleken met z'n voorgangers of zelfs de concurrentie. Beter dan de concurrentie? Absoluut. Een stap voorwaarts ten opzichte van z'n voorgangers? Ja. Maar geen 60% beter.
Het zal niet door Nvidia bedacht zijn maar ze hebben dit wel allemaal (RTX en Tensor) samen op een GPU weten te plakken. Ook voor TSMC zal dit nieuw zijn. Dat is nog niet eerder door een andere partij gedaan. Ik ben geen techneut op dit vlak maar het lijkt mij dat je hier toch zeker een aantal jaren en veel geld aan kwijt bent om dat goed samen te laten werken en gezamenlijk op een chip te plakken.

Waarom zou DLSS 2.0 of 3.0 niks toevoegen? De meest recente video's die je kunt zien op Youtube laten een performance boost van wel 40-50% zien zonder dat je details verliest. Sterker nog, het ziet er zelfs beter uit. Oftewel je speelt op 1440p met 4k kwaliteit. Vrijwel iedereen is hier zeer te spreken over (DLSS 1.0 was niet zo best overigens). Kun je aangeven waarom dit niks zou toevoegen? Heb je ook een voorbeeld waarbij AMD exact hetzelfde doet met enkel shaders? Ik heb een tijdje lopen zoeken maar ik kan hier niks over vinden.

Even afgezien van een performance boost voor RTX kunnen mensen met een oudere RTX kaart straks 40-50% meer performance krijgen en hoeven dus de komende tijd niet up te graden (zolang games DLSS gaan ondersteunen). Ik zie dit als de toekomst voor gaming op hogere resoluties.

Rechtvaardigt dit de hoge prijzen? Nee maar je kunt ook niet zomaar alles met elkaar vergelijken. De markt is compleet anders, Nvidia heeft vrijwel geen concurrentie, crypto mining is booming etc. Tel daar inflatie bij op en nieuwe features die hoe dan ook ergens terug verdiend moeten worden en je komt bij dergelijke prijzen uit. En natuurlijk zal het ook voor Nvidia een proefballontje zijn geweest om te zien hoeveel mensen willen uitgeven voor een nieuwe GPU.

We zullen zien wat de 3000 serie gaat doen qua prijs. Als ze voor de RTX3080 rond de 700-800 euro zitten is dat zeer netjes naar mijn idee.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
biggydeen2 schreef op woensdag 5 augustus 2020 @ 08:58:
Het zal niet door Nvidia bedacht zijn maar ze hebben dit wel allemaal (RTX en Tensor) samen op een GPU weten te plakken. Ook voor TSMC zal dit nieuw zijn. Dat is nog niet eerder door een andere partij gedaan. Ik ben geen techneut op dit vlak maar het lijkt mij dat je hier toch zeker een aantal jaren en veel geld aan kwijt bent om dat goed samen te laten werken en gezamenlijk op een chip te plakken.
Voor TSMC maakt dat niets uit, dat onderdeel van de chip wordt niet anders gemaakt dan andere onderdelen. Dat het in een GPU zit maakt ook niet veel uit; met die logica moet je elk onderdeel van een GPU als revolutionair en supercomplex beschouwen. Vroeger hadden we overal pipelines voor en had bijna elk stukje graphics wel een eigen stukje hardware.
Waarom zou DLSS 2.0 of 3.0 niks toevoegen? De meest recente video's die je kunt zien op Youtube laten een performance boost van wel 40-50% zien zonder dat je details verliest. Sterker nog, het ziet er zelfs beter uit. Oftewel je speelt op 1440p met 4k kwaliteit. Vrijwel iedereen is hier zeer te spreken over (DLSS 1.0 was niet zo best overigens). Kun je aangeven waarom dit niks zou toevoegen? Heb je ook een voorbeeld waarbij AMD exact hetzelfde doet met enkel shaders? Ik heb een tijdje lopen zoeken maar ik kan hier niks over vinden.
DLSS 1.0 was gewoon echt ronduit slecht. DLSS 2.0 ziet er op sommige momenten iets beter uit dan wat AMD met FidelityFX produceert, maar dat is het probleem juist: op sommige momenten. Het is niet constant beter. Wat 2.0 zo veel beter maakt dan 1.0 is dat er nu een sharpening filter overheen gaat, waarmee je de upscaling artifacts verbergt - en dat is precies wat AMD met FidelityFX doet. Ze zijn er echter nog weldegelijk, waardoor DLSS er niet per definitie "beter" uit ziet dan native rendering. De enige uitzondering daarop is Control, maar dat is omdat Control uit een pot vaseline getrokken wordt, dus elke vorm van sharpening geeft dat spel al meer detail.

Native 2160p zal er (in een degelijke game/engine, dus niet Control :P) altijd beter uit ziet en dát moet dus ook het streven zijn.
Even afgezien van een performance boost voor RTX kunnen mensen met een oudere RTX kaart straks 40-50% meer performance krijgen en hoeven dus de komende tijd niet up te graden (zolang games DLSS gaan ondersteunen). Ik zie dit als de toekomst voor gaming op hogere resoluties.
En daar verschillen wij van mening. DLSS en vergelijkbare technieken bewijzen slechts één ding: dat GPU's zijn gestagneerd. De toekomst is daadwerkelijk al die pixels kunnen renderen. Dit is alsof je de teller in een auto op laat lopen naar 250 km/u en het gevoel van snelheid simuleert met projecties op de ramen terwijl je slechts 130 rijdt.

Is upscaling + sharpening een oplossing voor mensen die niet de ultra high-end kunnen betalen? Zeker. Maar juist voor de ultra high-end zou dit helemaal geen paradepaardje moeten zijn. En zo'n hoge meerprijs betalen voor een compromis (want dat DLSS) is het niet waard als dat compromis ook voor 95% benaderd kan worden op bestaande hardware.

"Oudere" RTX kaarten (de huidige dus, als er eenmaal een nieuwe generatie is) zijn wat mij betreft ook waardeloos, met uitzondering van de 2060 die redelijk goed in de markt staat (zou nog een €50 goedkoper moeten om RT adoptie te helpen). Er is een hoop real estate toegewijd aan RT cores, maar bij lange na niet genoeg om mee te kunnen wanneer RT gemeengoed wordt. Ze zijn helemaal niet futureproof. Het is nog te vroeg voor RT; we hebben 2-3x de performance van een 2080 Ti nodig voordat RT toegepast kan worden zónder in te boeten aan beeldkwaliteit op andere vlakken (laat staan wat het kost aan performance). Soft shadows via RT is hartstikke goed te doen op de huidige hardware (sterker nog, dat kan met RT soms zelfs performance winst opleveren!), maar daar blijft het ook bij. Ambient occlusion kan wel, maar dat is met HBAO veel "goedkoper" te doen, zonder dat iemand het merkt - de meeste mensen weten niet eens wat dat is. Reflecties hebben minimaal 3-4 bounces nodig omdat je anders hele gare reflecties krijgt. En global illumination is nog helemaal niet interessant, daar willen we we minimaal 4-5 bounces hebben, omdat je anders betere resultaten met baked maps krijgt. Daarom zie je dat elke game met RT dat op dit moment enkel op één vlak doet: ze doen óf reflecties, óf soft shadows, óf reflecties, óf GI - en zelfs dan is het vaak nog beperkt en vrijwel altijd is er geen fallback voor mensen zonder RT. Het gevolg is dat "RT on vs off" er dan geweldig uit ziet, maar in werkelijkheid ziet de "on" versie er vaak enkel uit als bestaande graphics. Helaas kiest vrijwel niemand voor soft shadows, omdat dat minder cool uitziet in on/off vergelijkingen.

Ik heb hem al eerder gelinkt, maar deze video laat goed zien wat ik bedoel: YouTube: A Hands-on Look at Using Ray Tracing in Games with UE 4.22 | GDC 201...

Let wel, Epic heeft overal fallbacks voor; als RT uit staat, vallen ze terug op baked maps, iets wat sommige developers nu níet doen, waardoor er zonder RT maar weinig over blijft. Metro is wat dat betreft het beste voorbeeld: geen soft shadows van je zaklamp (ziet er gewoon belachelijk uit) en geen AO. De enige AO die ze hebben komt samen met RT GI.

Je betaalt nu meer dan de hoofdprijs voor hardware die vooral dient als ontwikkelplatform. Goed genoeg om mee te testen, maar veel te traag voor serieuze implementaties van RT. Dus dan blijft DLSS over. Als men graag de hoofdprijs betaalt om gecompromitteerd te gamen moet men dat zelf weten, maar ik verwacht van zo'n duur stuk hardware dat het ook iets levert.
Rechtvaardigt dit de hoge prijzen? Nee maar je kunt ook niet zomaar alles met elkaar vergelijken. De markt is compleet anders, Nvidia heeft vrijwel geen concurrentie, crypto mining is booming etc.
Het probleem is puur het gebrek aan concurrentie. Ik hoop oprecht dat AMD binnenkort een Ryzen GPU uit hun hoed kan toveren en lekker laag in zet qua prijs. Ze hebben het al eerder gedaan en we hebben het nu heel hard nodig.
We zullen zien wat de 3000 serie gaat doen qua prijs. Als ze voor de RTX3080 rond de 700-800 euro zitten is dat zeer netjes naar mijn idee.
Als die 700 betekent dat ze het dubbele aan performance van GP102 (1080 Ti, Titan X(p)) kunnen leveren, ja. Maar anders niet. Vergeet niet dat die chip alweer 4 jaar op de markt is en de enige "upgrade" TU102 is, voor 65% meer dan een 1080 Ti 3,5 jaar geleden kostte. Dan krijg je met een beetje geluk 30% meer performance (zonder DLSS en RT). GP102 tegenover GM200 gaf minstens 50% performance. GM200 tegenover GK110 hikte daar tegenaan. GK110 tegenover GF100/GF110 is niet eens meer te vergelijken (vooral ook omdat Fermi zo ruk was :+).

  • SpcCwb
  • Registratie: Maart 2010
  • Laatst online: 01-02 00:11
DLSS is niet alleen bedoeld om hogere framerates te halen. Het is ook een vorm van AA. Volle 2160p mist AA waardoor dat er minder goed uitziet dan DLSS.
DLSS heeft enkele beperkingen, maar als je daardoor meer RT kan gebruiken en dus ook eerder volledige RT, heeft dat mijn voorkeur boven de kosten van 2160p. Alle manieren om nu schaduwen/reflecties/GI te doen hebben namelijk veel grotere artefacten (baked lighting is niet dynamisch, SSR valt weg als object niet in screen space is e.d.) dan DLSS.

Dus, zoals je zegt is volledige RT nog niet mogelijk, dat is ook vreselijk zwaar en kon tot voor kort alleen op grote supercomputers (die voor CGI uren staan te stampen). Maar er moet ergens een start gemaakt worden. Uiteindelijk zou volle RT op volle 2160p natuurlijk ideaal zijn. Ik tot die tijd veel liever zoveel mogelijk RT + DLSS dan geen RT + 2160p. Zoals jij het stelt, lijk je te zeggen dat er eerst op 2160p gerenderd moet worden voor we RT kunnen gaan gebruiken, lijkt me zonde (zeker omdat veel mensen op 1440/1080p spelen).

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
SpcCwb schreef op woensdag 5 augustus 2020 @ 11:55:
DLSS is niet alleen bedoeld om hogere framerates te halen. Het is ook een vorm van AA. Volle 2160p mist AA waardoor dat er minder goed uitziet dan DLSS.
DLSS heeft enkele beperkingen, maar als je daardoor meer RT kan gebruiken en dus ook eerder volledige RT, heeft dat mijn voorkeur boven de kosten van 2160p. Alle manieren om nu schaduwen/reflecties/GI te doen hebben namelijk veel grotere artefacten (baked lighting is niet dynamisch, SSR valt weg als object niet in screen space is e.d.) dan DLSS.

Dus, zoals je zegt is volledige RT nog niet mogelijk, dat is ook vreselijk zwaar en kon tot voor kort alleen op grote supercomputers (die voor CGI uren staan te stampen). Maar er moet ergens een start gemaakt worden. Uiteindelijk zou volle RT op volle 2160p natuurlijk ideaal zijn. Ik tot die tijd veel liever zoveel mogelijk RT + DLSS dan geen RT + 2160p. Zoals jij het stelt, lijk je te zeggen dat er eerst op 2160p gerenderd moet worden voor we RT kunnen gaan gebruiken, lijkt me zonde (zeker omdat veel mensen op 1440/1080p spelen).
Het gaat niet eens om volledige RT. Daar zijn we nog jaren van verwijderd. Maar zelfs voor reflecties is er nog niet genoeg hardware, laat staan om alle verlichting te vervangen door RT.

Mijn punt is ook helemaal niet dat we eerst comfortabel 2160p144 moeten kunnen trekken voordat er wat aan RT komt, of dat het doel van DLSS geen nut heeft. Mijn punt is dat de meerprijs voor de RT cores en Tensor cores het niet waard is. Nogmaals, de tensor cores worden alleen voor DLSS gebruikt en dat is het gewoon niet waard. Het enige wat DLSS is/doet, is upscalen met een sharpening filter (2.0 tenminste). Leuk en aardig dat Nvidia daar een buzzword als "AI" aan vast hangt, maar ze hebben inmiddels ook zelf bewezen dat dat niet rendabel is. ML/DL heeft altijd een getraind model nodig en het is gewoon niet mogelijk om voor elk mogelijk frame in een game de juiste transities in te leren, dus DLSS blijft altijd een benadering. Het resultaat is dat het meestal niet of nauwelijks beter uit ziet dan andere oplossingen, zoals FidelityFX.

Intussen kosten die krengen wel pakweg 25% aan real estate in de chip. Laat dat nou fijn achterwege en maak de chip kleiner (en dus goedkoper) en zuiniger, of stop er meer rekenhardware in zodat hogere resoluties makkelijker gaan, terwijl RT ondersteuning breder wordt. MSAA lost het gros van aliasing dan wel op (en zeker met tiled rendering kost x4 amper iets aan performance).

Of ik gooi het helemaal op z'n kop en suggereer dat we nog veel hogere resoluties dan 2160p moeten kunnen renderen, want dan kun je supersamplen, wat nog veel betere resultaten geeft als het op AA aan komt ;)

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Werelds schreef op woensdag 5 augustus 2020 @ 14:13:
[...]

Het gaat niet eens om volledige RT. Daar zijn we nog jaren van verwijderd. Maar zelfs voor reflecties is er nog niet genoeg hardware, laat staan om alle verlichting te vervangen door RT.

Mijn punt is ook helemaal niet dat we eerst comfortabel 2160p144 moeten kunnen trekken voordat er wat aan RT komt, of dat het doel van DLSS geen nut heeft. Mijn punt is dat de meerprijs voor de RT cores en Tensor cores het niet waard is. Nogmaals, de tensor cores worden alleen voor DLSS gebruikt en dat is het gewoon niet waard. Het enige wat DLSS is/doet, is upscalen met een sharpening filter (2.0 tenminste). Leuk en aardig dat Nvidia daar een buzzword als "AI" aan vast hangt, maar ze hebben inmiddels ook zelf bewezen dat dat niet rendabel is. ML/DL heeft altijd een getraind model nodig en het is gewoon niet mogelijk om voor elk mogelijk frame in een game de juiste transities in te leren, dus DLSS blijft altijd een benadering. Het resultaat is dat het meestal niet of nauwelijks beter uit ziet dan andere oplossingen, zoals FidelityFX.

Intussen kosten die krengen wel pakweg 25% aan real estate in de chip. Laat dat nou fijn achterwege en maak de chip kleiner (en dus goedkoper) en zuiniger, of stop er meer rekenhardware in zodat hogere resoluties makkelijker gaan, terwijl RT ondersteuning breder wordt. MSAA lost het gros van aliasing dan wel op (en zeker met tiled rendering kost x4 amper iets aan performance).

Of ik gooi het helemaal op z'n kop en suggereer dat we nog veel hogere resoluties dan 2160p moeten kunnen renderen, want dan kun je supersamplen, wat nog veel betere resultaten geeft als het op AA aan komt ;)
Of RT het waard is moet nog gaan blijken, er is nu mondjesmaat wat support en leuke proof of concepts. Een stuk beter dan de aftrap met brakke RT/DLSS implementatie in BF5 als paradepaardje :+ .
Nu de concurrent met Navi2 ook onboard is wat betreft RT lijkt het duidelijk een feature te worden waar rekening mee gehouden moet worden. Jij mag het de meerprijs niet waard vinden, dat is niet leidend voor de markt natuurlijk ;). Als er echte killer apps voor komen en het niet absurd duur is why not.

Ik mag aannemen dat tensor/rt cores niet features zijn waar ze over een jaar mee stoppen. Het is immers dedicated opgenomen in het ontwerp van de chip. Deze keuze is bewust gepushed, daar zal echt wel een meerjarenplan voor zijn gemaakt. De progressie moet ook ergens vandaan komen, zeker nu er hardware te koop is wat comfortabel met hogere framerates 4K games kan doen op hoge settings. Je kunt daar dan wel wel elke 2 jaar 30% bovenop gooien op nieuwe nodes, maar dan stagneert het een keer. Je voorbeelden zijn allemaal meer van hetzelfde, daar verkoop je over een paar jaar dan geen nieuwe hardware mee. Als ze geen killer features blijven maken die de GPU blijft pushen dan gaat het letterlijk binnen enkele jaren naar overpriced matige APU's toe. Dat wil Nvidia zeker niet :P

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
sjekneck schreef op woensdag 5 augustus 2020 @ 16:34:
Of RT het waard is moet nog gaan blijken, er is nu mondjesmaat wat support en leuke proof of concepts. Een stuk beter dan de aftrap met brakke RT/DLSS implementatie in BF5 als paradepaardje :+ .
Nu de concurrent met Navi2 ook onboard is wat betreft RT lijkt het duidelijk een feature te worden waar rekening mee gehouden moet worden. Jij mag het de meerprijs niet waard vinden, dat is niet leidend voor de markt natuurlijk ;). Als er echte killer apps voor komen en het niet absurd duur is why not.
Dat is het hem nou juist. RT is de toekomst, daar bestaat geen twijfel over en dat zeg ik ook al heel lang. De huidige hardware is echter niet in staat tot veel meer dan de PoC's die er zijn; daar reken ik de implementaties in games ook in mee. Daarom is het is nu ook wél absurd duur.

Nogmaals, ik heb helemaal niets tegen RT. Integendeel, liever gisteren dan morgen. Maar de manier waarop Nvidia het nu in de markt zet, met chips die te weinig RT hardware bevatten voor écht goede toepassingen en tegelijkertijd een hoop hardware die voor games nagenoeg geen toepassingen heeft, is niet goed voor ons als consument.

Er moet brede adoptie komen. Dat gebeurt niet met zulke prijzen. Het zal helaas AMD zijn die voor acceptatie zorgt (dmv de consoles) en Nvidia die er de vruchten van zal plukken. Zelfs als RDNA2 een kanon van het kaliber Voodoo is, zal dat niet genoeg zijn om Nvidia op korte termijn pijn te doen.
Ik mag aannemen dat tensor/rt cores niet features zijn waar ze over een jaar mee stoppen. Het is immers dedicated opgenomen in het ontwerp van de chip. Deze keuze is bewust gepushed, daar zal echt wel een meerjarenplan voor zijn gemaakt.
RT cores zeker niet. Tensor cores ben ik niet zo zeker van.

Er zijn gewoon heel weinig ML/DL toepassingen in games. DLSS en de denoiser zijn de enige huidige toepassingen; en voor geen van beide zijn er zo veel TC nodig als er in GP102 zitten. Het hele punt van ML is voorspelbaarheid en als games iets niet zijn, is het wel voorspelbaar :P

Er zijn nog wel toepassingen waar ze nuttig voor zouden zijn in en rondom games (beeld-/audioherkenning bijvoorbeeld; VR kan daar wel wat mee), maar dat is maar heel beperkt en vereist ook niet meer dan er nu beschikbaar is. Sterker nog, alle tensor cores nu aan de praat krijgen schijnt al verdomd lastig te zijn, zelfs met dedicated workloads in CUDA.

RT is een ander verhaal. Daar gaat een omslagpunt komen. Niet zo abrupt als de omslag van pipelines naar unified shaders (hoewel er toen ook al deels programmeerbare units waren, dus ook dat gebeurde niet in één nacht), maar wel iets in die aard. Er gaat een punt komen waar de shaders zo'n beetje de ondersteunende units worden.

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Werelds schreef op woensdag 5 augustus 2020 @ 11:11:

En daar verschillen wij van mening. DLSS en vergelijkbare technieken bewijzen slechts één ding: dat GPU's zijn gestagneerd. De toekomst is daadwerkelijk al die pixels kunnen renderen. Dit is alsof je de teller in een auto op laat lopen naar 250 km/u en het gevoel van snelheid simuleert met projecties op de ramen terwijl je slechts 130 rijdt.

Is upscaling + sharpening een oplossing voor mensen die niet de ultra high-end kunnen betalen? Zeker. Maar juist voor de ultra high-end zou dit helemaal geen paradepaardje moeten zijn. En zo'n hoge meerprijs betalen voor een compromis (want dat DLSS) is het niet waard als dat compromis ook voor 95% benaderd kan worden op bestaande hardware.
Volgens mij valt dat reuze mee qua stagnatie. 1440p ultra settings 60+ fps is al geruime tijd makkelijk haalbaar op high end systemen. 4k 60 fps nog net niet. Daar gaat de 3080 en 3080ti/3090/big navi ook verandering in brengen. Het enige wat dan nog overblijft is 4k 144hz/fps. Alles daar boven (zowel resolutie en fps) voegt vrijwel niks meer toe. Dus de ultieme gaming ervaring hebben we al bijna bereikt. Dus zijn ze nu op zoek naar nieuwe features zoals raytracing om in de toekomst op te focussen.

DLSS is wat dat betreft ook overbodig en is naar mijn idee voornamelijk bedoelt om real time raytracing goed te laten draaien. Daar moeten nu helaas concessies voor gedaan worden. Of de tensor cores op dit moment hun geld waard zijn kun je inderdaad in twijfel trekken. Maar dat kan natuurlijk veranderen in de toekomst.

Qua PC gaming gaan we binnen nu een 1-2 jaar tegen een limiet aanlopen, namelijk 4k 144hz gaming. Dan is volgens mij het ultieme doel bereikt qua performance. Alles daarboven merk je niet en voegt nauwelijks iets toe. En wellicht heeft Nvidia dat ook al door omdat ze steeds meer features toevoegen om instellingen zelf te pimpen en aan te passen naar wens. Ik kan geen games meer spelen zonder Reshade (Nvidia freestyle) en sharpening filters. Simpelweg omdat het er daardoor gewoon veel beter uit ziet. Je bent niet meer afhankelijk van de game maar kunt alles zelf instellen.

Zelfde idee met films. Ook daar kun je Reshade toepassen voor extra detail en betere sharpening. Ik kan tegenwoordig ook geen 24 fps films (oftewel alle films/series) meer kijken sinds ik een aantal maanden op 144hz werk en game. Het is gewoon niet meer om aan te gluren zo schokkerig. Ik kan het gewoon niet meer volgen. Gelukkig zijn er daarvoor weer frame interpolatie software implementaties waarmee je de fps kan aanpassen. Geeft af en toe wat artifacts maar is veel beter te volgen.Perfect? Zeker niet maar ben er zeer over te spreken.

Simulatie is helemaal niet erg als het goed wordt toegepast. Qua detail doet DLSS 2.0. niks onder aan de native resolutie qua detail. Daar zijn meerdere video's over te vinden op YT. Je moet echt al inzoemen om het verschil te zien. Uiteraard is het allermooiste om native 4k te gamen maar dat zit er op dit moment gewoon niet in. Al helemaal niet als je niet veel geld te besteden hebt. Want je kunt wel een 3080 kopen maar dan moet je daarnaast ook een high end CPU/geheugen/mobo en beeldscherm hebben om het maximale er uit te halen.

Met beamers zie je precies hetzelfde. Het verschil tussen een faux 4k beamer en een native 4k beamer zie je in de praktijk niet. Tenzij je heel dichtbij het scherm gaat staan. Maar een native 4k beamer is wel twee keer zo duur. Dan kun je twee dingen doen, wachten/sparen voor een native 4k beamer of een faux 4k beamer kopen. Als je het verschil niet ziet, waarom zou je dan een native 4k beamer kopen? Ik vermoed dat mensen ook het verschil niet gaan zien tussen DLSS 2.0 4k en native 4k als je de beelden afzonderlijk laat zien. Maargoed daar heb ik zelf geen ervaring mee, ik ga voornamelijk af wat ik tot nu toe heb gezien in YT filmpjes en de comments.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@biggydeen2 Je beseft je dat we nog niet eens in de buurt van foto realistische graphics zijn of dat de steeds verdere stagnatie eigenlijk al een decennia bezig is? ;)

Voor Fermi was het normaal om minstens 50% perf per generatie te verwachten. 50% was eigenlijk al zwak. Sinds Fermi mogen we al blij zijn met 30% en mag je altijd rekenen op een prijsverhoging voor dat beetje extra. Fermi naar Kepler was nog een aardige stap, voornamelijk omdat Fermi zo slecht was. Kepler naar Maxwell ook nog, maar dat was meteen de laatste keer dat Nvidia echt een stap heeft gezet in architectuur. Pascal was letterlijk Maxwell naar 16nm porten met fors hogere clock speeds. Met Turing kon dat niet meer en i.p.v. die gigantische oppervlakten te gebruiken voor fors meer shader hardware, kwam Nvidia met een hele hoop fixed function hardware voor RT. RT die voor zelfs de zeer matige implementatie, je framerate door de helft hakt.

Het hielp ook echt niet dat AMD zowat failliet ging rond 2012 en ze na Hawaï (R9 290) het botweg niet eens meer geprobeerd hebben tot hopelijk dit najaar. De stagnatie versnelde in ieder geval toen het duidelijk werd dat AMD eruit lag voor de komende jaren. De resultaten daarvan zijn Pascal en al helemaal Turing.

DLSS komt mij een beetje over als een poging om iets te doen met die tensor cores, maar wenselijk is anders. Het kan best fijn zijn voor mensen die hooguit een toch al veel te dure RTX2060 kunnen betalen, maar die hadden ook een stuk sneller kunnen zijn zonder tensor cores. Sloop die eruit en vervang het gewonnen oppervlakte voor shaders en je kijkt waarschijnlijk eerder naar RTX2080S prestaties. Daarnaast kan je beter inzetten op echte RT i.p.v. denoising wat die tensor cores doen. Dat prefereer ik over upscaling die voor een paar games überhaupt werkt, en alsnog niet zaligmakend is. Idem voor sharpening filters. Het kan best handig zijn voor games waar ze echt met de pet naar hebben gegooid, maar ik heb liever gewoon een fatsoenlijke grafische ervaring out of the box.

Ik heb liever gewoon textures die echt gerenderd zijn op tenminste native revolution. Ben de eindeloze 256x256 of 512x512 background textures die je wat minder slecht maakt met sharpening filters dus ook echt meer dan zat. Ik wil gewoon echt native resolution. Bijvoorbeeld meer zoals dit. Ja, de game is vijf jaar oud, maar alsnog zijn er genoeg games die dit nog steeds niet voor elkaar hebben.



Ik lever graag wat meestal zinloze frames in voor dit en als het moet, dan koop ik wel een betere videokaart. Op het moment is het alleen zo dat ik me soms serieus afvraag waarom ik een RX5700XT heb. Er is bijna niks dat grafisch echt interessant is of die kaart al echt kan benutten. Veel games die ik speel, limiteer ik nota bene kunstmatig voor een beetje energiebesparing omdat de framerates zinloos zijn.

Komt er dan wel eens een game waar er wat grafische grenzen worden verlegd en ze dit soort zaken beter op orde hebben zoals RDR2, dan klagen mensen dat het slecht geoptimaliseerd is. Zelfs Battlefield is niet meer wat het geweest is. BF3 en BF4 kregen je videokaart nog op de knieën, BF5 echt niet. Daar was ook veel meer mogelijk geweest dan wat treurige RT effecten die je framerate halveren. Tegenwoordig is alles dat niet makkelijk 60fps/ultra doet op midrange hardware, slecht geoptimaliseerd. Dat is precies het probleem. Omdat videokaarten zo miserabel langzaam vooruit gaan, krijg je ook steeds minder games die nog de grenzen opzoeken. Er is toch geen verwachtingspatroon meer en als je het wel probeert, dan krijg je tegenwoordig verwijten dat het allemaal zo slecht draait...

Te veel mensen die ronduit beledigd leken te zijn dat hun veel te dure RTX2070S het niet makkelijk aankan. Dat xx70 nu de traditionele midrange is en zeker de RTX2070S echt belachelijk overpriced is alsmede een ronduit zwak product voor de prijs, daar komen mensen niet op.


Niet dat ik echt de illusie koester dat het veel beter gaat worden met Ampère. Het begint er steeds meer op te lijken dat GA-102 gewoon de volgende stap van circa 30% is. Van wat ik uit de geruchtenmolen opmaak lijkt 5375 cuda cores ongeveer de consensus. Dat is iets van 15% meer dan TU-102. Ongetwijfeld zal de RT hardware flink verbeterd worden zodat het niet zo miserabel meer is als nu, maar extreem veel verwacht ik ook niet. Nog wat clock speed erbij omdat ze waarschijnlijk naar Samsung 8nm gaan en dan heb je weer de tweejarige cyclus. Vervolgens moeten we hopen dat het niet nog duurder gaat worden en AMD dan gewoon volgt qua prijs...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
DaniëlWW2 schreef op donderdag 6 augustus 2020 @ 15:20:
Op het moment is het alleen zo dat ik me soms serieus afvraag waarom ik een RX5700XT heb. Er is bijna niks dat grafisch echt interessant is of die kaart al echt kan benutten. Veel games die ik speel, limiteer ik nota bene kunstmatig voor een beetje energiebesparing omdat de framerates zinloos zijn.
Vergelijkbare issue heb ik dus met mijn RTX 2070 Super

Hiervoor had ik een GTX 1060 6gb met een 1080p 60hz scherm, en van de games die speel kwam het nog met enige regelmaat voor dat ik settings moest aanpassen om die 60fps te halen.

Vorig jaar een systeem upgrade gedaan, RTX 2070 Super erin en... dat was een beetje te veel? Sowieso voor 1080p 60, ik kreeg belachelijke framerates en 1080 60 was gewoon zonde voor die kaart dus had ik de al geplande upgrade naar 1440p 144 maar versneld.

En zelfs dan haal ik met de games die ik speel makkelijk 60 of 100 fps, er zijn maar 3 games waar ik paar settings moet aanpassen om 60fps te halen op 1440p, maar anders benut ik de kaart zelden volledig (sowieso omdat ik bepaalde games op 60fps speel, meestal console ports)

Stiekem hoop ik dat de nieuwe consoles betere graphics met zich mee brengen, maar aan de andere kant kijk ik naar de huidge generatie consoles en het valt mij op dat er heel veel games zijn die de mogelijkheden van huidige generatie niet eens benutten... 4k gaming op next gen is wel leuk, maar de vraag is of men dat ook goed gaat benutten.

ik zie 1440p en 4k gaming als zinvol genoeg, maar ik had nog met iemand een discussie van de week die meteen roept dat 8k en 12k gaming de volgende stap zijn... maar is dat wel nodig? Is dat überhaupt zinvol?

Ik zie liever mooiere graphics, stabielere framerates en vooral native resoluties (vooral de laatste 2 eigenlijk)

Ik speelde nog van de week een game die bepaalde objecten in de verte op half framerate toont, dat stoorde mij en het is best raar dat er niet een toggle in die game was om ook die objecten op gelijke framerate te tonen als voor mijn neus, nee gewoon half framerate terwijl ik nog voldoende ruimte had qua performance.

[ Voor 10% gewijzigd door Mizgala28 op 06-08-2020 16:00 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Van mij hoeft die RT ook (nog) niet. Heb ook veel liever scherpe textures en geen shimmering. Lange view distances etc. Daarnaast is voor mij een goede framerate op een hoge resolutie en ingame IQ op minimaal High ook veel belangrijker.

Ben bezig om van een 1440p monitor naar 3840*1600 te gaan en daar schiet een 1080Ti / 5700XT toch wel wat tekort heb ik gemerkt.

Van mij hoeven ze pas echt wat met raytracing te gaan doen als 4k stabiel @144hz op IQ hoog makkelijk te doen is. Een grotere monitor met hoge resolutie is voor mij veel relevanter qua gebruikservaring dan RT.

Ben niet zo pessimistisch, ik zie AMD ergens in de komende paar jaar wel weer gelijk komen met nvidia. Althans, ze zijn daartoe denk ik stukken beter gepositioneerd dan een aantal jaren geleden.

ps: @ betaalbare prijzen!! was ik nog vergeten. <800 voor top end :o .

[ Voor 6% gewijzigd door Help!!!! op 06-08-2020 16:25 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
DaniëlWW2 schreef op donderdag 6 augustus 2020 @ 15:20:
@biggydeen2 Je beseft je dat we nog niet eens in de buurt van foto realistische graphics zijn of dat de steeds verdere stagnatie eigenlijk al een decennia bezig is? ;)
Dat is zeker een volgende stap maar dat wordt tegengehouden door consolehardware. Ken jij bedrijven die games maken enkel voor de PC en daar het maximale uithalen qua rekenkracht? Ik niet. Betere textures zijn volgens mij prima mogelijk. Voordat je een 8-12 core CPU met RTX2080Ti op 1080P daarmee voltrekt moet je toch echt van goede huizen komen.

Tegenwoordig moeten alle games eerst kunnen draaien op de consoles en daarna pas op de PC. Af en toe met een high ress texture pack maar meer dan dat is het vaak niet. De "next gen" waar ze nu over praten bij de nieuwe consoles is natuurlijk dikke onzin. Deze rekenkracht is allang beschikbaar op de PC maar wordt amper benut. In plaats daarvan zie 200+ fps op 1080p met high end kaarten. Als je een g/freesync scherm hebt heb je daar nog iets aan maar meer dan dat ook niet.

Dus ik vraag mij af of dat hardware gerelateerd is of omdat ontwikkelaars en bedrijven geen geld zien in zulke hoge resolutie textures die alleen mensen met een high end pc kunnen draaien. En eigenlijk is dat best logisch want daar zit het geld niet. Tenminste, dat is mijn mening.

De 2080Ti is toch een beest van een kaart? Die trekt alles makkelijk 100+ fps op 1080p en waarschijnlijk zelfs 144fps+. En dan heb je vaak ook nog te maken met console ports. Betere textures zijn dus volgens mij prima mogelijk.

Er zal altijd een moment komen van stagnatie. Er moeten nieuwe architecturen ontwikkeld worden op steeds kleinere nodes. Bij gebrek aan concurrentie zal er ook niet snel groot worden ingezet om alles er uit te halen wat er in zit. Een GPU is daarnaast ook afhankelijk van CPU's. Als er bij CPU's stagnatie optreedt heeft de GPU daar direct last van.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
1080p. Zal aan mij liggen maar wie wil dat nu nog hebben behalve als je echt geen geld hebt :?

Ik kijk ook niet meer op een CRT beeldbuis....

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
Help!!!! schreef op donderdag 6 augustus 2020 @ 16:24:
^
1080p. Zal aan mij liggen maar wie wil dat nu nog hebben behalve als je echt geen geld hebt :?

Ik kijk ook niet meer op een CRT beeldbuis....
Volgens Steam Hardware Survey heeft 65% van de mensen als primary display resolution 1080p. Slechts 6% 1440p en 4k slechts 2%. Veruit de meeste mensen gamen dus op 1080p. Overigens zou ik ook niet terug willen naar 1080p.

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
Help!!!! schreef op donderdag 6 augustus 2020 @ 16:24:
^
1080p. Zal aan mij liggen maar wie wil dat nu nog hebben behalve als je echt geen geld hebt :?

Ik kijk ook niet meer op een CRT beeldbuis....
Best wat mensen eigenlijk, en als ik kijk naar mijn eigen omgeving pretty much iedereen die niet in de laatste 1,5 jaar hun PC heeft geupgrade. (maar de meeste van die mensen draaien niks beters dan een GTX 1060/RX580)

Daarnaast even mijn eigen kring terzijde zijn er ook mensen die 1080p kiezen voor 144/240hz schermen.

Maar terug naar 1080p wil ik qua mijn PC niet, sterker nog mijn oude 1080p scherm staat ernaast voor chats enz maar ook die gaat binnenkort de deur uit, buiten gaming om heeft 1440p/4k ook genoeg voordelen.

[ Voor 5% gewijzigd door Mizgala28 op 06-08-2020 16:55 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tja als je nog op houten banden rijdt dan heb je meestal idd geen snellere motor nodig. :P

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
Help!!!! schreef op donderdag 6 augustus 2020 @ 16:55:
Tja als je nog op houten banden rijdt dan heb je meestal idd geen snellere motor nodig. :P
Varieert wat je hebt en wat je eisen zijn, ik ging mijn GTX 1060 upgraden omdat ik met die kaart in bepaalde games die ik vaak speel, de settings naar beneden moest aanpassen om stabiele 60fps te kunnen halen op 1080p.

En laat de GTX 1060 (11.64%) nou de populairste kaart zijn volgens Steam, tenzij je low accepteert of oudere/lichtere games speelt zou ik die kaart nooit met 1440p voor gaming combineren.

En het kan erger hoor, ik ken mensen die gamen met een i3 of oudere i5, en hebben vaak een oudere GPU zoals de 950, 1030, 280x en dergelijke, en het zijn mensen die gewoon niet beter willen of gaan overstappen op de console markt omdat die goedkoper is in hun ogen (en sommigen van hun spelen recente games ermee)

Er zijn tig redenen waarom sommige mensen op 1080p gamen, en als je naar Steam kijkt is die groep in combinatie met oude of zwakkere kaarten best groot.

[ Voor 4% gewijzigd door Mizgala28 op 06-08-2020 17:10 ]


  • schumi1986
  • Registratie: Februari 2014
  • Laatst online: 11:01
Nu Flight Simulator toch. best onverwacht deze maand uitkomt moet ik voor mijn 3700x build een tijdelijke videokaart kopen voordat de 3000 serie fatsoenlijk verkrijgbaar is.

wat dat betreft is het stepup programma van EVGA ideaal, koop nu een kaart en krijg 90 dagen de tijd om hem gratis te upgraden naar een andere/nieuwere kaart. en je betaald alleen het prijsverschil.

zo heb ik dat al eens gedaan van een 970 naar een 1080.

voor iedereen die nu twijfelt om te upgraden maar niet kan wachten kan ik dit echt aanraden!

  • SpcCwb
  • Registratie: Maart 2010
  • Laatst online: 01-02 00:11
DaniëlWW2 schreef op donderdag 6 augustus 2020 @ 15:20:
@biggydeen2 Je beseft je dat we nog niet eens in de buurt van foto realistische graphics zijn of dat de steeds verdere stagnatie eigenlijk al een decennia bezig is? ;)

Voor Fermi was het normaal om minstens 50% perf per generatie te verwachten. 50% was eigenlijk al zwak. Sinds Fermi mogen we al blij zijn met 30% en mag je altijd rekenen op een prijsverhoging voor dat beetje extra. Fermi naar Kepler was nog een aardige stap, voornamelijk omdat Fermi zo slecht was. Kepler naar Maxwell ook nog, maar dat was meteen de laatste keer dat Nvidia echt een stap heeft gezet in architectuur. Pascal was letterlijk Maxwell naar 16nm porten met fors hogere clock speeds. Met Turing kon dat niet meer en i.p.v. die gigantische oppervlakten te gebruiken voor fors meer shader hardware, kwam Nvidia met een hele hoop fixed function hardware voor RT. RT die voor zelfs de zeer matige implementatie, je framerate door de helft hakt.

Het hielp ook echt niet dat AMD zowat failliet ging rond 2012 en ze na Hawaï (R9 290) het botweg niet eens meer geprobeerd hebben tot hopelijk dit najaar. De stagnatie versnelde in ieder geval toen het duidelijk werd dat AMD eruit lag voor de komende jaren. De resultaten daarvan zijn Pascal en al helemaal Turing.

DLSS komt mij een beetje over als een poging om iets te doen met die tensor cores, maar wenselijk is anders. Het kan best fijn zijn voor mensen die hooguit een toch al veel te dure RTX2060 kunnen betalen, maar die hadden ook een stuk sneller kunnen zijn zonder tensor cores. Sloop die eruit en vervang het gewonnen oppervlakte voor shaders en je kijkt waarschijnlijk eerder naar RTX2080S prestaties. Daarnaast kan je beter inzetten op echte RT i.p.v. denoising wat die tensor cores doen. Dat prefereer ik over upscaling die voor een paar games überhaupt werkt, en alsnog niet zaligmakend is. Idem voor sharpening filters. Het kan best handig zijn voor games waar ze echt met de pet naar hebben gegooid, maar ik heb liever gewoon een fatsoenlijke grafische ervaring out of the box.

Ik heb liever gewoon textures die echt gerenderd zijn op tenminste native revolution. Ben de eindeloze 256x256 of 512x512 background textures die je wat minder slecht maakt met sharpening filters dus ook echt meer dan zat. Ik wil gewoon echt native resolution. Bijvoorbeeld meer zoals dit. Ja, de game is vijf jaar oud, maar alsnog zijn er genoeg games die dit nog steeds niet voor elkaar hebben.

[YouTube: The Witcher 3 HD Reworked Project 12.0 Ultimate - Environment Objects Quality Preview]

Ik lever graag wat meestal zinloze frames in voor dit en als het moet, dan koop ik wel een betere videokaart. Op het moment is het alleen zo dat ik me soms serieus afvraag waarom ik een RX5700XT heb. Er is bijna niks dat grafisch echt interessant is of die kaart al echt kan benutten. Veel games die ik speel, limiteer ik nota bene kunstmatig voor een beetje energiebesparing omdat de framerates zinloos zijn.

Komt er dan wel eens een game waar er wat grafische grenzen worden verlegd en ze dit soort zaken beter op orde hebben zoals RDR2, dan klagen mensen dat het slecht geoptimaliseerd is. Zelfs Battlefield is niet meer wat het geweest is. BF3 en BF4 kregen je videokaart nog op de knieën, BF5 echt niet. Daar was ook veel meer mogelijk geweest dan wat treurige RT effecten die je framerate halveren. Tegenwoordig is alles dat niet makkelijk 60fps/ultra doet op midrange hardware, slecht geoptimaliseerd. Dat is precies het probleem. Omdat videokaarten zo miserabel langzaam vooruit gaan, krijg je ook steeds minder games die nog de grenzen opzoeken. Er is toch geen verwachtingspatroon meer en als je het wel probeert, dan krijg je tegenwoordig verwijten dat het allemaal zo slecht draait...

Te veel mensen die ronduit beledigd leken te zijn dat hun veel te dure RTX2070S het niet makkelijk aankan. Dat xx70 nu de traditionele midrange is en zeker de RTX2070S echt belachelijk overpriced is alsmede een ronduit zwak product voor de prijs, daar komen mensen niet op.


Niet dat ik echt de illusie koester dat het veel beter gaat worden met Ampère. Het begint er steeds meer op te lijken dat GA-102 gewoon de volgende stap van circa 30% is. Van wat ik uit de geruchtenmolen opmaak lijkt 5375 cuda cores ongeveer de consensus. Dat is iets van 15% meer dan TU-102. Ongetwijfeld zal de RT hardware flink verbeterd worden zodat het niet zo miserabel meer is als nu, maar extreem veel verwacht ik ook niet. Nog wat clock speed erbij omdat ze waarschijnlijk naar Samsung 8nm gaan en dan heb je weer de tweejarige cyclus. Vervolgens moeten we hopen dat het niet nog duurder gaat worden en AMD dan gewoon volgt qua prijs...
Je spreekt jezelf tegen. Je wil dat er meer gevraagd wordt van videokaarten maar als er dan RT toe wordt gepast en de framerate zakt in, is het niet goed.
De volgende stap in graphics is echt RT. Kijk maar eens naar Minecraft met RT. Ziet er veel beter uit, zonder hoge resolutie textures. Het maakt games ontwikkelen ook eenvoudiger, waardoor er meer aandacht aan textures/materialen/polygonen besteed kan worden.
Alleen via RT komt fotorealisme dichterbij. Ben met je eens dat er nog een (kleine) stap gemaakt moet worden op gebied van resolutie en draw distance (en micro geometrisch detail zoals in de Unreal engine 5 demo).
Natuurlijke weergave van licht (en weerkaatsingen) is echter een enorme ontwikkeling en ik vind het te prijzen dat nVidia daarin juist de eerste stap heeft gezet en er speciale hardware voor heeft gemaakt.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
SpcCwb schreef op donderdag 6 augustus 2020 @ 23:18:
[...]


Je spreekt jezelf tegen. Je wil dat er meer gevraagd wordt van videokaarten maar als er dan RT toe wordt gepast en de framerate zakt in, is het niet goed.
De volgende stap in graphics is echt RT. Kijk maar eens naar Minecraft met RT. Ziet er veel beter uit, zonder hoge resolutie textures. Het maakt games ontwikkelen ook eenvoudiger, waardoor er meer aandacht aan textures/materialen/polygonen besteed kan worden.
Alleen via RT komt fotorealisme dichterbij. Ben met je eens dat er nog een (kleine) stap gemaakt moet worden op gebied van resolutie en draw distance (en micro geometrisch detail zoals in de Unreal engine 5 demo).
Natuurlijke weergave van licht (en weerkaatsingen) is echter een enorme ontwikkeling en ik vind het te prijzen dat nVidia daarin juist de eerste stap heeft gezet en er speciale hardware voor heeft gemaakt.
Is dat zo? Enige waar ik op dit moment van onder de indruk was is de Unreal Engine demo van de PS5. Volgens mij gebruiken ze daar nog geen eens RT maar een andere vorm om GI op te lossen.
Die demo is dus niet door RT gedreven maar juist door een enorme verbetering in opslag technologie; of beter de manier om de data aan te spreken.
Waarschijnlijk heeft iedereen de demo al gezien, daarom alleen als link:
https://www.youtube.com/watch?v=qC5KtatMcUw

Het zal uiteindelijk het ontwikkelen van spellen makkelijker maken, maar dat is pas op het moment als ze geen fallback methodes meer hoeven te gebruiken. Ik ben van mening dat RT pas echt tot zijn recht komt in "walking simulators" (bijv Death Stranding) en zoals je aangeeft Minecraft, omdat je dan de tijd hebt om het in je op te nemen. Voor de rest kan je de meeste dingen best goed faken.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

SpcCwb schreef op donderdag 6 augustus 2020 @ 23:18:
[...]


Je spreekt jezelf tegen. Je wil dat er meer gevraagd wordt van videokaarten maar als er dan RT toe wordt gepast en de framerate zakt in, is het niet goed.
De volgende stap in graphics is echt RT. Kijk maar eens naar Minecraft met RT. Ziet er veel beter uit, zonder hoge resolutie textures. Het maakt games ontwikkelen ook eenvoudiger, waardoor er meer aandacht aan textures/materialen/polygonen besteed kan worden.
Alleen via RT komt fotorealisme dichterbij. Ben met je eens dat er nog een (kleine) stap gemaakt moet worden op gebied van resolutie en draw distance (en micro geometrisch detail zoals in de Unreal engine 5 demo).
Natuurlijke weergave van licht (en weerkaatsingen) is echter een enorme ontwikkeling en ik vind het te prijzen dat nVidia daarin juist de eerste stap heeft gezet en er speciale hardware voor heeft gemaakt.
Is dit een contradictie dan?
Er zijn schattingen dat je 40 TFLOPS nodig gaat hebben voor fotorealisme. We zijn nauwelijks over een kwart op de weg daar naartoe, als dit niet alsnog te weinig blijkt te zijn. Dan kan Nvidia wel komen aanzetten met RT, maar zelfs de simpelste 1 bounce rays die ze casten, hakken je framerates al doormidden. Vervolgens is het ook nog eens grotendeels denoised door tensor cores omdat het er anders echt niet uitzag. Ook worden in de RTX titels in de regel, zaken zoals lichteffecten zonder RT, dusdanig zwaar gedowngraded of weggelaten dat het RTX on vs. off zwaar misleidend is.

Dit kan je namelijk al doen met shaders. ;)


Ik ontken nergens dat RT de toekomst is, maar die toekomst komt eigenlijk jaren te vroeg en zit actief in de weg van grotere stappen in grafische kwaliteit die je zou kunnen behalen met flink wat extra shaders. In ieder geval voor Turing is de RTXS hardware een kat in de zak gebleken voor de consument. Het is eerder bedoeld voor developers om ermee te beginnen en een marketing truc van Nvidia om te claimen dat RT allemaal door hun komt. Ampère en RDNA2 is afwachten, maar stel dat RDNA2 beter blijkt te zijn in RT, waar ik niet vanuit ga, tja dan zal je blijven horen dat dit door Nvidia komt. Dat was het punt van Turing haar RTX, niet een enorme stap in grafische kwaliteit. Die is er namelijk niet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Overigens, ben er nog niet zo over uit of fotorealisme wel zo fijn is, zeker voor bepaalde games zoals FPS shooters.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Laatst online: 11:44
Help!!!! schreef op donderdag 6 augustus 2020 @ 16:02:
Van mij hoeven ze pas echt wat met raytracing te gaan doen als 4k stabiel @144hz op IQ hoog makkelijk te doen is. Een grotere monitor met hoge resolutie is voor mij veel relevanter qua gebruikservaring dan RT.
Probleem blijft dat je altijd ergens een concessie maakt. Er zijn zat spellen die ik prima op 4K 120Hz met maximale graphics kan spelen (bv Divinity Original Sin 2), maar als de game er beter uit zou zien dan zou ik het niet halen en je kunt altijd meer detail toevoegen dus 4K 144Hz zal nooit echt 'af' zijn. We zijn echt nog ontzettend ver weg van 't CGI niveau van bv LOTR of Avatar films en zelfs die films hebben nog ruimte voor verbetering.

Zelf zou ik een LOTR achtige setting waarbij jij een willekeurige bewoner van die wereld speelt wel kunnen waarderen. Dat de wereld dus om je heen echt zou leven zoals in zo'n de boeken/film getoond, waarbij de wereld om je heen daadwerkelijk een doorlopend verhaal heeft ongeacht wat jij doet en waar je bent. Spellen zijn nu alsnog heel erg scripted en alles is al "voorbestemd". Ooit hebben we vast genoeg CPU kracht om een hele wereld live te simuleren, toch? :+

[ Voor 26% gewijzigd door Paprika op 07-08-2020 11:36 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ja enerzijds zou je zelfs op 720p mogelijk nog dusdanig veel detail kunnen toevoegen (zelfs niet zijnde RT) dat zelfs de beste GPU's het nu niet trekken.

Voor mijn game/pc experience doet een grotere monitor en hogere sustained refreshrate vooralsnog echter veel meer dan RT.

Op het gebied van monitoren en refreshrate zit er imo voor pc gebruik wel een soort natuurlijke grens. Ik heb even een 38" LG @3840*1600 -144/160Hz in huis gehad (moest terug ivm defect) en veel groter dan 38" is voor PC gebruik denk ik niet echt prettig meer omdat je toch dicht op je monitor zit.

Binnen die formfactor zou ik nog wel meer pixels willen maar ook dat houdt op een gegeven moment qua nut ook op. Refreshrate idem dito. 144/160hz is top maar veel hoger, voegt denk ik niet superveel meer toe.

Misschien denk ik er tzt wel heel anders over als ze een 50" 12K 12bits 500hz pc monitor maken :P

Anyway voor mij hoeft RT nog niet zo nodig ik zie liever focus op andere elementen. Als bij wijze van spreke de 2080Ti meerprijs komt vanwege 30% meer chipgrootte voor RT cores die ik niet belangrijk vind dan is het geen goede deal voor me.

Eens ook dat voor sommige games realisme wel heel gaaf kan zijn en uiteraard als de AI realistisch zou zijn, minder scripted.
Aan de andere kant nu heb ik veel plezier aan FPS games maar als dat fotorealistisch wordt dan kun je je afvragen hoe game en werkelijkheid gevoelsmatig nog verschillen.

Niet dat ik nou zo'n moraalridder ben. Echter, ik denk niet dat ik fotorealistisch Doom wil spelen en met een kettingzaag iemand door midden hakken. Denk niet dat dat goed voelt voor mij. Als er ISIS etc filmpjes voorbijkomen dan sla ik die ook over. Het is natuurlijk een ethische discussie maar voor mij maakt het feit dat je nog onderscheid ziet tussen een "getekend plaatje" en "fotorealisme" games met geweld e.d. acceptabel.

Maar goed, de wereld ontwikkelt zich zonder dat ik daar nu veel invloed op heb / kan hebben dus ik zie wel wat er gebeurt.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 7 augustus 2020 @ 11:27:
[...]

Probleem blijft dat je altijd ergens een concessie maakt. Er zijn zat spellen die ik prima op 4K 120Hz met maximale graphics kan spelen (bv Divinity Original Sin 2), maar als de game er beter uit zou zien dan zou ik het niet halen en je kunt altijd meer detail toevoegen dus 4K 144Hz zal nooit echt 'af' zijn. We zijn echt nog ontzettend ver weg van 't CGI niveau van bv LOTR of Avatar films en zelfs die films hebben nog ruimte voor verbetering.
Ik denk dat je helemaal niet moet kijken naar specifiek een resolutie en een refreshrate. Ik denk dat je moet kijken naar wat toepasselijk is voor de game. Daarom ben ik zelf eigenlijk wel blij met mijn 1440p 165Hz monitor. Je kan namelijk juist beide kanten op. Shooters ga je voor de 165Hz en RTS of RPG, zeker SP georiënteerd kan je veel lager gaan. Helaas zit daar het probleem, zoveel games die niet opschalen qua grafische kwaliteit waar het zinvol is. Dat mis ik de laatste jaren echt, naast simpelweg kwaliteit in veel games. Maar dit lijkt me offtopic genoeg. :)
Zelf zou ik een LOTR achtige setting waarbij jij een willekeurige bewoner van die wereld speelt wel kunnen waarderen. Dat de wereld dus om je heen echt zou leven zoals in zo'n de boeken/film getoond, waarbij de wereld om je heen daadwerkelijk een doorlopend verhaal heeft ongeacht wat jij doet en waar je bent. Spellen zijn nu alsnog heel erg scripted en alles is al "voorbestemd". Ooit hebben we vast genoeg CPU kracht om een hele wereld live te simuleren, toch? :+
Zen 4 kan dat waarschijnlijk al. We zijn er dus bijna. :Y)
Maar zoiets wil ik ook al jaren. Ik denk alleen dat het probleem niet zozeer de CPU is, maar het opslagmedium. Komen we dus terug bij die SSD's in de consoles die heel wat meer mogelijk zouden moeten maken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 7 augustus 2020 @ 12:46:
[...]

Komen we dus terug bij die SSD's in de consoles die heel wat meer mogelijk zouden moeten maken.
Kwestie van tijd voor dat soort SSD's ook naar de PC komen.

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 7 augustus 2020 @ 12:50:
[...]


Kwestie van tijd voor dat soort SSD's ook naar de PC komen.
Ze komen waarschijnlijk dit jaar al. ;)
Maar het gaat om directe toegang tot die SSD's door de GPU. Dat is wat beide consoles doen en het scheelt gewoon CPU overhead in de schaal van meerdere Zen 2 cores. De vraag is wanneer Nvidia en AMD daarmee gaan komen. Dat is denk ik ook een aardige sprong voorwaarts voor grafische kwaliteit als de videokaart opeens GB/s kan binnenhalen aan data van een SSD, zonder tussenkomst van de CPU.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 02-02 22:01
Weer een nieuw gerucht voor de RTX 3000 videokaarten... Volgens dit gerucht zal de onthulling van de 3080 en 3080 Ti plaatsvinden in september. Ook zouden er mogelijk verschillende versies van de RTX 3080 en RTX 3070 verschijnen (zie hieronder). Bronnen: Wccftech & Videocardz.com

PCB-IDvervanging voorVRAMbusbreedtelancering
PG132-102080 Ti24 GB384-bit2H september
PG132-202080 Super20 GB320-bit1H oktober
PG132-302080 Super10 GB320-bitmid. september
PG142-02070 Super16 GB??
PG142-102070 Super8 GB256-bit2H september
PG190-102060 Super8 GB256-bit?

Artikel van de buren: https://nl.hardware.info/...en-en-lancering-duiken-op

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • ravw
  • Registratie: Augustus 2000
  • Laatst online: 11:04
DaniëlWW2 schreef op vrijdag 7 augustus 2020 @ 12:56:
[...]


Ze komen waarschijnlijk dit jaar al. ;)
Maar het gaat om directe toegang tot die SSD's door de GPU. Dat is wat beide consoles doen en het scheelt gewoon CPU overhead in de schaal van meerdere Zen 2 cores. De vraag is wanneer Nvidia en AMD daarmee gaan komen. Dat is denk ik ook een aardige sprong voorwaarts voor grafische kwaliteit als de videokaart opeens GB/s kan binnenhalen aan data van een SSD, zonder tussenkomst van de CPU.
dat zou wel mooi wezen nog even is de CPU overbodig en hebben we alleen maar een GPU en SSD Nodig in onze pc omdat de rekenkracht van de GRaka sneller is dan de CPUs
Maar dat zal nog wel heel lang gaan duren denk ik ..
of een CPU ingebouwd in de Graka


maar zijner al prijzen bekent van de rts 3xxx

[ Voor 3% gewijzigd door ravw op 09-08-2020 11:36 ]

Systeem:AMD Ryzen 7 9800X3D ,RTX 5080 OC,FURY 64 GB DDR5-6000,ASUS TUF Gaming B850M-PLUS WIFI, SAMSUNG 990 EVO Plus 4 TB


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 11:11
DaniëlWW2 schreef op vrijdag 7 augustus 2020 @ 12:56:
[...]


Ze komen waarschijnlijk dit jaar al. ;)
Maar het gaat om directe toegang tot die SSD's door de GPU. Dat is wat beide consoles doen en het scheelt gewoon CPU overhead in de schaal van meerdere Zen 2 cores. De vraag is wanneer Nvidia en AMD daarmee gaan komen. Dat is denk ik ook een aardige sprong voorwaarts voor grafische kwaliteit als de videokaart opeens GB/s kan binnenhalen aan data van een SSD, zonder tussenkomst van de CPU.
Sowieso hebben ze allebei al zoiets toch? Voor professionele toepassingen met veel te grote datasets.

Mechwarrior Online: Flapdrol


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ravw schreef op zondag 9 augustus 2020 @ 11:35:
[...]


dat zou wel mooi wezen nog even is de CPU overbodig en hebben we alleen maar een GPU en SSD Nodig in onze pc omdat de rekenkracht van de GRaka sneller is dan de CPUs
Maar dat zal nog wel heel lang gaan duren denk ik ..
of een CPU ingebouwd in de Graka


maar zijner al prijzen bekent van de rts 3xxx
De CPU wordt niet overbodig. Het gaat om de CPU eruit halen tussen de SSD en GPU zodat de CPU andere dingen kan doen. Immers is een CPU een heel ander soort processor dan een GPU.

Het probleem is dat de CPU een bottleneck gaat worden als je GB/s aan data verplaatst van SSD, via de CPU naar de GPU. PS5 en XSX hebben beiden custom chips die dit vermijden. De oplossing van Sony is alleen heel wat sneller. Het gaat om zaken zoals gamewerelden die eindelijk open kunnen worden zonder enorme pop in, hoge kwaliteit textures en uiteindelijk ook veel meer data aan de GPU voeden zodat die elke clock cycle bezig blijft.

Kijk deze presentatie maar, tenminste het stuk over de SSD. :)


Voor de PC is het de vraag wanneer dit gaat komen in het gaming segment. Nvidia heeft het in ieder geval DMA's in Volta zitten om de CPU I/O bottleneck te verhelpen.
https://developer.nvidia.com/blog/gpudirect-storage/

AMD heeft het nu in beide custom APU's voor de consoles gestopt met een zeer specifieke gaming focus. Dat is het moment dat je moet gaan opletten. Als direct SSD to GPU DMA mogelijk is, dan ga je de voordelen van de consoles ook op PC zien. De vraag is wanneer gaat het verschijnen. Op het moment moet je namelijk met enige jaloezie naar die consoles gaan kijken. Die zijn waarschijnlijk krachtiger dan een modern systeem met een RX5700XT of RTX2070S, en dan komt de SSD er nog eens bovenop waar PC simpelweg geen goed antwoord op heeft. Een technische achterstand is uiteraard niet acceptabel, zeker niet voor Nvidia die niet meedoen met die consoles en hun omzet nog steeds grotendeels uit PC gaming halen. Het is een kwestie van tijd voordat ze dit gaan oplossen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • ravw
  • Registratie: Augustus 2000
  • Laatst online: 11:04
Nvidia die niet meedoen met die consoles en hun omzet nog steeds grotendeels uit PC gaming halen.
en de Nvidia Shield / pro dan :-)

Systeem:AMD Ryzen 7 9800X3D ,RTX 5080 OC,FURY 64 GB DDR5-6000,ASUS TUF Gaming B850M-PLUS WIFI, SAMSUNG 990 EVO Plus 4 TB


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik vraag me af of dat hele verhaal nou echt zo'n groot voordeel is. Het is vast een leuke optimalisatie, maar een wereld van verschil?

Als eerste vraag ik me af hoeveel CPU power het echt kost om spul van een SSD naar een GPU te krijgen. Zelfs als dat veel meer is dan ik verwacht, hebben we gelukkig geen gebrek aan CPU cores tegenwoordig tijdens gaming.

En wat gaat het oplossen? Texture popping? Dat is toch wel echt uitzonderlijk als dat gebeurd bij een fatsoenlijk spel. Zelfs als dat echt problematisch zou zijn, kunnen ze ook gewoon eens een 8GB regulier DDR geheugen bij een GPU plakken. Hoeft niet snel te zijn, want het is sowieso heel erg veel sneller dan welke SSD ook. En dan natuurlijk zou het mooi zijn als je zoiets overbodig kan maken met zo'n optimalisatie. Maar gezien er nog geen GPU bestaat die een stuk extra, relatief traag, geheugen erbij plakt voor zulk soort use cases, vraag ik me toch echt af in hoeverre dit nou echt een performance beperking is.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sissors schreef op zondag 9 augustus 2020 @ 12:48:
Ik vraag me af of dat hele verhaal nou echt zo'n groot voordeel is. Het is vast een leuke optimalisatie, maar een wereld van verschil?

Als eerste vraag ik me af hoeveel CPU power het echt kost om spul van een SSD naar een GPU te krijgen. Zelfs als dat veel meer is dan ik verwacht, hebben we gelukkig geen gebrek aan CPU cores tegenwoordig tijdens gaming.
Disclaimer: dit gaat over de PS5..

Het gaat niet enkel om de rekenkracht. Het gaat om de latency. In een console mist daar sowieso al een stap, want PC's moeten twee keer over de PCI-e bus; een console slechts één keer aangezien CPU en GPU het geheugen delen. Vervolgens zit er een decompressor in die dat veel sneller kan doen dan een CPU; bespaart iets aan rekenkracht, maar vooral in tijd scheelt het veel. Door die compressie is de effectieve bandbreedte dan ook nog hoger dan de aangegeven 5,5 GB/s. Dan zit er ook nog een DMA controller in en wordt er gecommuniceerd met de GPU om delen van de caches leeg te gooien op basis van wat de I/O controller en DMA controller doen.
En wat gaat het oplossen? Texture popping? Dat is toch wel echt uitzonderlijk als dat gebeurd bij een fatsoenlijk spel. Zelfs als dat echt problematisch zou zijn, kunnen ze ook gewoon eens een 8GB regulier DDR geheugen bij een GPU plakken. Hoeft niet snel te zijn, want het is sowieso heel erg veel sneller dan welke SSD ook. En dan natuurlijk zou het mooi zijn als je zoiets overbodig kan maken met zo'n optimalisatie. Maar gezien er nog geen GPU bestaat die een stuk extra, relatief traag, geheugen erbij plakt voor zulk soort use cases, vraag ik me toch echt af in hoeverre dit nou echt een performance beperking is.
Ik denk dat je niet beseft hoe veel data een gemiddelde game wel niet nodig heeft; die 150 GB schijfruimte van RDR2 is niet voor niets. Texture pop-in hoort hiermee zeker verleden tijd te zijn, maar het gaat hier vooral om laadtijden; zichtbaar of niet, want elke game met een beetje ruimte in de maps moet data streamen. Cerny noemt in z'n praatje "fast" travel in games. Eigenlijk een eufemisme, want zo snel is het niet. Met zulke leessnelheden kan dat daadwerkelijk snel. Niet alleen kan de data echter sneller gelezen worden, het kost ook nog eens minder tijd om het allemaal toe te wijzen in het geheugen en dergelijke. 4 GB aan data laden over PCI-e 3.0 kost je al meteen een halve seconde en dan heb je er nog niets mee gedaan. Dan heb ik nog niet gekeken naar de benodigde cycles voor compressie of adressen toewijzen.

Ja, meer geheugen zou uiteraard helpen. Echter blijft de hoeveelheid geheugen dan de beperkende factor en daar is niets aan te verbeteren. De PCI-e bus is over het algemeen ook niet volledig bezet, dus daar zit genoeg ruimte. En dan zijn er de kosten. Een SSD is (per GB) nu eenmaal goedkoper dan GDDR/HBM. En omdat het een los component is, is dat ook uit te breiden danwel te vervangen.

Dit is een gigantische verbetering, omdat het niet alleen bestaande moeilijkheden bijna laat verdwijnen, het maakt ook een hoop meer mogelijk. Denk bijvoorbeeld aan meer diversiteit in de omgeving in open werelden.

Zullen we het in PC's zien? Vast wel, maar niet op korte termijn. Want daar zijn we nog altijd gebonden aan een PCI-e bus en meerdere fabrikanten (Nvidia, AMD en wellicht ook nog eens Intel). Hoe graag ik ook zou willen dat AMD hier een patent voor heeft klaarliggen en een chip hiervoor op moederborden plakt (PCI-e 4.0 vanaf een NVME SSD -> controller -> PCI-e 4.0 naar grafische kaart), zal dat brede ondersteuning vergen. En dan nog is de kans heel klein dat het zo geavanceerd kan worden als in de PS5.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Maar je eerste helft gaat het erom dat het hoofdpunt latency is, en hetgeen je noemt in de tweede helft (texture popping, dynamisch zaken laden, etc) staat compleet los van latency. IIG bij de tijdsperiodes waar het hier over gaat.

Je schijft dat de PCIe bus zat ruimte heeft bij gaming. Echter als die GPU constant nieuwe textures aan het laden zou zijn via de CPU, zou je alsnog verwachten dat de PCIe bus behoorlijk vol zit. Maar dat is dus niet het geval. Kom je in de buurt van een nieuw gebied, dan als je een beetje op tijd begint met laden maakt het toch niks uit of je een seconde ervoor nodig hebt of niet? Sowieso hoe snel die SSD ook is, ten opzichte van geheugen blijft hij traag. Of je dan wat milliseconde extra latency hebt bij het laden via je CPU lijkt mij geen wereld van verschil maken bij de use cases die je beschrijft.

Moet zeggen dat het me sowieso wat verbaasd dat een CPU geen DMA engine heeft om data van ene naar andere PCIe bus te kunnen gooien.

[ Voor 7% gewijzigd door Sissors op 09-08-2020 19:47 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sissors schreef op zondag 9 augustus 2020 @ 19:35:
Maar je eerste helft gaat het erom dat het hoofdpunt latency is, en hetgeen je noemt in de tweede helft (texture popping, dynamisch zaken laden, etc) staat compleet los van latency. IIG bij de tijdsperiodes waar het hier over gaat.
Ik heb het niet over access latency, maar over de latency van laden van assets. Ik had er waarschijnlijk een ander woord voor moeten gebruiken, maar het is dus latency in de ruimste zin van het woord :)
Je schijft dat de PCIe bus zat ruimte heeft bij gaming. Echter als die GPU constant nieuwe textures aan het laden zou zijn via de CPU, zou je alsnog verwachten dat de PCIe bus behoorlijk vol zit. Maar dat is dus niet het geval. Kom je in de buurt van een nieuw gebied, dan als je een beetje op tijd begint met laden maakt het toch niks uit of je een seconde ervoor nodig hebt of niet? Sowieso hoe snel die SSD ook is, ten opzichte van geheugen blijft hij traag. Of je dan wat milliseconde extra latency hebt bij het laden via je CPU lijkt mij geen wereld van verschil maken bij de use cases die je beschrijft.
Als je echter nieuwe dingen moet laden en je geheugen zit vol, betekent ook dat je dingen er uit moet gooien. Het laden op zich is niet zo'n probleem, maar de timing ervan wel. Daarom wordt er nu bizar veel in het VRAM geladen. Ook al heb je in sommige games 9 GB aan VRAM vol zitten, waarschijnlijk is slechts de helft écht nodig. Dat is dan ook waar developers zich nu op richten en waar ze door beperkt worden. Als ze dingen sneller konden laden zonder dat het een grote impact had, was er meer ruimte voor hogere resolutie assets.

Je moet dit niet zien als een oplossing voor een probleem, je moet het zien als een vernieuwing die nieuwe dingen mogelijk maakt. Waar je nu tussen levels een laadscherm krijgt omdat er zo veel nieuwe assets geladen moeten worden (wat in de praktijk min of meer neer komt op alles er uit en opnieuw vullen; ook al worden sommige dingen hergebruikt), zou dat bijvoorbeeld weg kunnen. Of simpelweg korter. Of er kan bijvoorbeeld meer geladen worden voor langere draw distances. Er zijn heel veel kleine dingen die dit mogelijk zou maken.

Natuurlijk zijn SSD's nog steeds langzamer dan VRAM, maar op dit moment is dat niet eens de beperkende factor. Het pad van SSD naar VRAM is dusdanig lang dat de SSD veel headroom heeft (lees: wordt amper benut) en deze techniek verkort dat pad enorm. En als je sneller achter elkaar zonder tussenpozen data over de bus kan verstoken zal dat inderdaad voor hogere pieken zorgen, maar het betekent ook dat de bus tussen die pieken in veel rustiger wordt, wat dan ook weer mogelijkheden biedt ;)
Moet zeggen dat het me sowieso wat verbaasd dat een CPU geen DMA engine heeft om data van ene naar andere PCIe bus te kunnen gooien.
Vergeet niet dat we het over het VRAM hebben in een PC; in een console is dat er niet. Er is simpelweg "geheugen". In een PC communiceert de CPU over PCIe met zowel de SSD (NVMe tenminste :P) en de GPU. CPU en GPU hebben hierbij elk hun eigen geheugen (technisch gezien niet 100% correct maar dat is te specifiek :P) en bijbehorende adressering en dan is het geheugen ook nog drastisch anders van aard tussen die twee.

Niks van dat alles in de consoles. CPU en GPU delen het geheugen 1:1. Als je dus een extra controller hebt die meteen vanaf de schijf alles kan decomprimeren en in het geheugen flatsen, scheelt dat zowel CPU cycles als GPU cycles en je hebt een tripje minder over de bus.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds En toch ga ik nu even lastig doen. Ik breng het namelijk niet zomaar steeds SSD via DMA met de GPU op omdat dat ik ergens vermoed dat direct acces via DMA misschien niet zover is. We weten dat Nvidia het heeft voor hun deep learning hardware. Ik denk alleen dat AMD de interessantere casus is. Voor Fiji en later Vega hadden ze Radeon Pro SSG met SSD's op de videokaart. Vega had de high-bandwidth cache controller die ook SSD's direct kon aanspreken en nu heeft AMD custom chips voor zowel Sony als Microsoft ontwikkeld. Ik zou eigenlijk durven stellen dat AMD waarschijnlijk wel een patent klaar heeft liggen. Immers tovert AMD nu al sinds 2017 het ene na het andere konijn uit de hoge hoed. :P

Maar dat is offtopic genoeg over AMD. Ik deel je mening dat het niet zo snel zo geavanceerd als PS5 zal worden, mede omdat een 5,5GB/s sustained SSD natuurlijk hartstikke duur gaat zijn als ze eind dit jaar komen. XSX niveau is denk ik realistischer omdat het beduidend minder snel is, maar alsnog veel beter dan de HDD waar we echt eens vanaf moeten. Ik denk alleen wel dat beide kampen hier werk van zullen moeten maken, en snel ook, want anders ga je schreefgroei krijgen tussen console en PC.

Ik ga er volledig vanuit dat GA-102 merkbaar krachtiger zal zijn dan consoles hun RDNA2 chips. Dat gat zal de jaren erna alleen maar gaan groeien. Maar wat heb je aan theoretische TFLOPs als je tegengehouden gaat worden door databeperkingen? Je kan iedereen op PC wel verplicht aan de 16c/32t CPU helpen ter compensatie waar de halve CPU naar SDD verkeer gaat, maar dat is denk ik ook niet wenselijk of praktisch. Uiteindelijk willen mensen games spelen, ervaringen beleven. RT is natuurlijk mooi als het zich de komende jaren ontwikkeld tot iets dat echt wat toe begint te voegen, maar als de gameplay niet mee evolueert, dan heb je eerder een gameplay technisch verouderde techdemo dan een nieuwe ervaring die je op een console kan hebben.

Een heel ander punt is dat de bal nu bij Nvdia ligt. Zij zijn de PC marktleider en het is hun cash cow. Consoles die zaken kunnen zoals enorme spelwerelden die divers zijn, terwijl het niet op PC kan, gaat Nvidia aangerekend worden door de gewone consument. Waarom kan mijn dure GeForce dit niet? Waarom koop ik deze nog i.p.v. een console. Of wat als je tegen enorme CPU bottlenecks aan gaat lopen voor data van de SSD naar de GPU. Ik zie de meeste mensen dat ook afschuiven op de videokaart. Dat is het nachtmerrie scenario voor Nvidia. Ik denk dat het Nvidia er alles aan gelegen is om een tenminste werkbare oplossing te vinden. Ik hoef ook niet veel te googelen om zaken zoals dit te vinden: https://www.reddit.com/r/...mments/53bxrr/ssd_to_gpu/ Het lijkt een probleem te zijn waar de ML wereld al een aantal jaar mee bezig is. Laat Nvidia daar nu ook behoorlijk diep inzitten.

Het is ook een beetje persoonlijk. Als het om grafische pracht gaat, kan mij niks meer irriteren dan low res textures, slechte draw distances, pop in, eindeloos hergebruiken van assets of restrictief level ontwerp. Ik zeg ook niet dat je een of arme asset ontwerper bij bijvoorbeeld Ubisoft, handmatig tweeduizend verschillende bomen moet laten ontwerpen voor Assassins Ghosts Far Recon Cry Creed 7 waarna ze die ontslaan met de release van de game, want AAA publishers, maar iets meer variatie zou welkom zijn. Dan graag ook met eens wat echt detail in games, want dat mis ik de laatste jaren steeds meer. Je merkt de laatste jaren gewoon dat de polycon count wel omhoog gaat, maar zaken zoals variatie etc gewoon achter blijven. Dus ja, misschien ook wat wensdenken, maar ik wil het gewoon ja. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 11:44
En toch wordt het op consoles alleen maar gedoogd omdat het een gesloten systeem is. Texture-, model- en maphacks zijn met DMA letterlijk niets meer dan wat bestanden vervangen. Er moet wel iets meer veranderen dan alleen de hardware voordat dit realistisch gaat zijn voor een multiplayer game.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11-2025
Perhaps the more interesting aspect of this driver release, though only tangential to DirectX 12 Ultimate support, is that NVIDIA is enabling support for hardware accelerated GPU scheduling. This mysterious feature was added to the Windows display driver stack with WDDM 2.7 (shipping in Win10 2004), and as alluded to by the name, it allows GPUs to more directly manage their VRAM. Traditionally Windows itself has done a lot of the VRAM management for GPUs, so this is a distinctive change in matters.

At a high level, NVIDIA is claiming that hardware accelerated GPU scheduling should offer minor improvements to the user experience, largely by reducing latency and improving performance thanks to more efficient video memory handling. I would not expect anything too significant here – otherwise NVIDIA would be heavily promoting the performance gains – but it’s something to keep an eye out for. Meanwhile, absent any other details, I find it interesting that NVIDIA lumps video playback in here as a beneficiary as well, since video playback is rarely an issue these days. At any rate, the video memory handling changes are being instituted at a low level, so hardware scheduling is not only for DirectX games and the Windows desktop, but also for Vulkan and OpenGL games as well.
Nvidia zal niet pushen om zoiets van MS voor elkaar te krijgen voor enkel kleine verbeteringen, maw de (gehoopte) verbeteringen/reden moet nog komen aka, de nieuwe gen.

Weet je direct waarom 2004 persé gepushed moest worden voor september 8)
(Dat en het feit dat MS hun beide platformen gelijk wil houden, maar daarvoor kwam de najaars update ook nog vroeg genoeg voor).

Dat en het feit dat een goede implementatie (beter dan de concurrentie) van een scheduler je sowieso een edge geeft vs je tegenstander die traditioneel een beetje zwakker staat op software vlak … soit standaard disclaimer dat vroegere resultaten geen garantie bieden voor de toekomst .. blabla blaa .. maar je kan wel zien waarop Nvidia aan het gokken is :D

PS: Tzal ook van moetes/schrik zijn, beeld je in dat MS enkel nog voor hun console hardware hun algoritmes zou optimaliseren en dan zegt "werkt direct ook op amd gpu's, de rest we don't care" wat imo een logische redenatie zou zijn... de mogelijkheid om het zelf in beheer te doen is altijd zekerder …
en voor Nvidia ook gemakkelijker (hun arm/tegra hardware draait nu éénmaal op een ander OS met ander vram beheer .. alles gelijktrekken is gemakkelijker

trouwens mss minder belangrijk in het video subforum .. maar Nvidia's hoop om ARM over te nemen bots nogal met hun vooruitgang met hun mobiele socs/chips …
Tot nu toe zie ik t nog steeds geen nieuwe tegra chips … tword toch eens tijd voor een betere performance van de shield … de vernieuwde switch was ook alles behalve "wow" …
Iedere shield aankoper doet het voor de goede software support (kodi bv) niet voor de hardware die eigenlijk, sorry om het te zeggen, totaal ondermaats is voor de prijs die ze er voor vragen.
Moesten ze effectief ARM overnemen/maximaal gebruik willen maken van synergy zou hun focus op zo'n projecten moeten liggen
Wie weet hebben ze hun geplande productiecapaciteit voor tegra chips omgezet naar Geforce chips na het TMSC debacle …

Specs


  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03-2025
https://twitter.com/NVIDIAGeForce/status/1292808003897311232

Nog 21 dagen wachten.

Edit: GeForce 256 werd op 31 augustus 1999 aangekondigd. Vandaar 21 days. 21 years.

[ Voor 37% gewijzigd door ColinZ op 10-08-2020 16:40 ]


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 02-02 18:05
Poosje terug las ik overal dat men dacht voor de next Gen GPU's tegelijk next gen GPU's uit zou komen.
En ik had zoiets van waarom niet voor de release voor Cybepunk. Dat is de Next big Title die ook naar PC komt.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Psyonara schreef op maandag 10 augustus 2020 @ 19:52:
Poosje terug las ik overal dat men dacht voor de next Gen GPU's tegelijk next gen GPU's uit zou komen.
En ik had zoiets van waarom niet voor de release voor Cybepunk. Dat is de Next big Title die ook naar PC komt.
Volgens mij kwam Nvidia met een cyberpunk pack voor de nieuwe kaarten. Dus lijkt mij logisch de launch samen te doen. Daarbij ook nog is de nieuwe release op de consoles.. Doen ze goed bij cd red.

Ik ben nieuwsgierig naar de reviews en de prijzen van de nieuwe kaarten. Las ooit is dat AMD Wat duurder wordt en Nvidia weer wat goedkoper.

Ben benieuwd of dit eindelijk een waardige upgrade wordt ipv een tussenstap.

[ Voor 16% gewijzigd door Ferio op 11-08-2020 10:02 ]


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 02-02 18:05
Ferio schreef op dinsdag 11 augustus 2020 @ 09:59:
[...]


Volgens mij kwam Nvidia met een cyberpunk pack voor de nieuwe kaarten. Dus lijkt mij logisch de launch samen te doen. Daarbij ook nog is de nieuwe release op de consoles.. Doen ze goed bij cd red.

Ik ben nieuwsgierig naar de reviews en de prijzen van de nieuwe kaarten. Las ooit is dat AMD Wat duurder wordt en Nvidia weer wat goedkoper.

Ben benieuwd of dit eindelijk een waardige upgrade wordt ipv een tussenstap.
Big Navi staat geloof ik voor Oktober geplanned. Dus met enig geluk zijn ze competitive. En heb je een leuke price wars. Hoe graag ik ook weer AMD wil gaan voor GPU, denk ik dat Nvidia wel op Top blijft plus persoonlijke productiveits plannen is Team Groen helaas ook beter.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Psyonara schreef op dinsdag 11 augustus 2020 @ 13:46:
[...]


Big Navi staat geloof ik voor Oktober geplanned. Dus met enig geluk zijn ze competitive. En heb je een leuke price wars. Hoe graag ik ook weer AMD wil gaan voor GPU, denk ik dat Nvidia wel op Top blijft plus persoonlijke productiveits plannen is Team Groen helaas ook beter.
AMD heeft enorme stappen genomen de laatste tijd. Het zal mij echt niets verbazen als het verschil vrijwel nihil is of dat AMD zelfs Nvidia voorbij gaat. In elk geval hoop ik dat de geruchten waar zijn en de prijzen dit keer lager zullen uitvallen.

Zelf altijd Nvidia gehad, maar wie weet word het een keer AMD. :)

[ Voor 5% gewijzigd door Ferio op 11-08-2020 19:17 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Maar het gaat dus 1 september worden. Waarom techbedrijven een obsessie lijken te hebben met een dinsdag is mij een raadsel, maar enigszins voorspelbaar is het wel.

Maar eindelijk gaan we dan beginnen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 02-02 22:01
ColinZ schreef op maandag 10 augustus 2020 @ 16:31:
https://twitter.com/NVIDIAGeForce/status/1292808003897311232

Nog 21 dagen wachten.

Edit: GeForce 256 werd op 31 augustus 1999 aangekondigd. Vandaar 21 days. 21 years.
21 lijkt een belangrijk getal te zijn, dus het zou zomaar kunnen dat de nieuwe videokaarten niet de RTX 30x0 naam krijgen, maar RTX 21x0. Ik zou het zelf niet raar vinden, al bekt RTX 3000 net wat lekkerder.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Gropah
  • Registratie: December 2007
  • Niet online

Gropah

Oompa-Loompa 💩

DaniëlWW2 schreef op dinsdag 11 augustus 2020 @ 19:32:
Maar het gaat dus 1 september worden. Waarom techbedrijven een obsessie lijken te hebben met een dinsdag is mij een raadsel, maar enigszins voorspelbaar is het wel.

Maar eindelijk gaan we dan beginnen. :)
Why are video games typically released on Tuesdays? Wouldn't Fridays be more logical?

TLDR; De eerste wereldwijde release was op een dinsdag en heeft een toon gezet, releases later in de week bleken vaker logistieke problemen te hebben en het zorgt er voor dat je meer dagen verkoopperiode hebt voor records en dergelijke dan een release later in de week.

2 van de 3 argumenten kun je ook gebruiken voor de release van videokaarten.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gropah schreef op dinsdag 11 augustus 2020 @ 19:41:
[...]


Why are video games typically released on Tuesdays? Wouldn't Fridays be more logical?

TLDR; De eerste wereldwijde release was op een dinsdag en heeft een toon gezet, releases later in de week bleken vaker logistieke problemen te hebben en het zorgt er voor dat je meer dagen verkoopperiode hebt voor records en dergelijke dan een release later in de week.

2 van de 3 argumenten kun je ook gebruiken voor de release van videokaarten.
Ja, ik weet dat de games oorspronkelijk op dinsdag waren en op vrijdag voor de Britten en meestal dus ook de EU. Zo oud ben ik ook al. Het is alleen zo arbitrair dat het altijd dinsdag moet zijn. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 16-11-2025
DaniëlWW2 schreef op zondag 9 augustus 2020 @ 21:00:
Een heel ander punt is dat de bal nu bij Nvdia ligt. Zij zijn de PC marktleider en het is hun cash cow. Consoles die zaken kunnen zoals enorme spelwerelden die divers zijn, terwijl het niet op PC kan, gaat Nvidia aangerekend worden door de gewone consument. Waarom kan mijn dure GeForce dit niet? Waarom koop ik deze nog i.p.v. een console. Of wat als je tegen enorme CPU bottlenecks aan gaat lopen voor data van de SSD naar de GPU. Ik zie de meeste mensen dat ook afschuiven op de videokaart. Dat is het nachtmerrie scenario voor Nvidia. Ik denk dat het Nvidia er alles aan gelegen is om een tenminste werkbare oplossing te vinden. Ik hoef ook niet veel te googelen om zaken zoals dit te vinden: https://www.reddit.com/r/...mments/53bxrr/ssd_to_gpu/ Het lijkt een probleem te zijn waar de ML wereld al een aantal jaar mee bezig is. Laat Nvidia daar nu ook behoorlijk diep inzitten.

Het is ook een beetje persoonlijk. Als het om grafische pracht gaat, kan mij niks meer irriteren dan low res textures, slechte draw distances, pop in, eindeloos hergebruiken van assets of restrictief level ontwerp. Ik zeg ook niet dat je een of arme asset ontwerper bij bijvoorbeeld Ubisoft, handmatig tweeduizend verschillende bomen moet laten ontwerpen voor Assassins Ghosts Far Recon Cry Creed 7 waarna ze die ontslaan met de release van de game, want AAA publishers, maar iets meer variatie zou welkom zijn. Dan graag ook met eens wat echt detail in games, want dat mis ik de laatste jaren steeds meer. Je merkt de laatste jaren gewoon dat de polycon count wel omhoog gaat, maar zaken zoals variatie etc gewoon achter blijven. Dus ja, misschien ook wat wensdenken, maar ik wil het gewoon ja. :P
De snelle SSD zal er voor zorgen dat assets meer en sneller geladen kunnen worden. Echter moeten deze assets nog steeds gerenderd worden door de GPU. De kracht van de GPU bepaalt dus nog steeds op welke resolutie//fps je kunt spelen. Ik denk niet dat de PS5 of XBOX X elke game op native 4k 60fps gaat draaien.

Dat lukt een 2080TI ook niet welke toch een echt een stuk krachtiger is dan wat er in de nieuwe consoles zit. Een snelle SSD voegt natuurlijk wel iets toe maar de daadwerkelijke rekenkracht moet nog steeds voornamelijk door de CPU en GPU gedaan worden. Het blijft een lastige vergelijking maar ik geloof niet dat de CPU's gebruikt in de nieuwe consoles krachtiger zijn dan current high end CPU's in een PC.

Dan hebben we het nog niet eens gehad over de RTX3000 welke de GPU's in de nieuwe consoles toch wel aardig weg gaan blazen qua performance. Native 4k 60fps wordt met de RTX3000 makkelijk gehaald. Maar natuurlijk een compleet andere vergelijking qua prijs.

Die grafische pracht waar je het over hebt is een limitatie van consoles. Een high end PC van tegenwoordig is zoveel krachtiger dan een PS4 of Xbox dat die next gen werelden met veel meer details allang mogelijk zijn. Alleen wordt er vrijwel nooit dedicated voor de PC ontwikkeld. Daarnaast moet er ook rekening gehouden worden met wat gamers over het algemeen aan specs hebben. Je kunt wel gaan ontwikkelen voor de meest krachtige hardware maar dan kan slechts 5% van de mensen er echt van genieten. Financieel gezien is dat natuurlijk een slechte keuze. Elke game moet redelijk kunnen draaien op mid range hardware. Er moeten dus ergens concessies gedaan worden.

Games die op zowel de console als PC te spelen zijn, zijn vaak console ports. Het is aan de ontwikkelaar om bijvoorbeeld extra grafische opties in te bouwen of High res texture packs beschikbaar te stellen. Soms doen ontwikkelaars dat maar vaak ook niet. Hier een mooi voorbeeld van het recente Horizon Zero dawn op de PS4 PRO vs PC: YouTube: Horizon Zero Dawn PC vs PS4Pro | Direct Comparison

Het wordt al vrij snel duidelijk dat textures exact hetzelfde zijn of zelfs minder zijn op de PC, Terwijl huidige PC's vele malen krachtiger zijn dan de een PS4 pro. Betere textures zijn prima mogelijk maar worden gewoon niet toegepast om financiele redenen.

Met de nieuwe consoles zal dat niet anders zijn. Zodra Zen3 uitkomt icm met een 3000 serie van Nvidia of Big Navi van AMD blaas je de consoles qua performance gewoon weg. Wel zal de nieuwe SSD zorgen voor meer levende spelwerelden. De geruchten zijn dat de mogelijkheden van de PS5 al mogelijk zijn op de nieuwe AMD cpu's welke eind dit jaar uitkomen.

Ondanks dat alles is het een mooie ontwikkeling en kunnen we eindelijk weer de kracht van high end CPU's en GPU's op de PC aanspreken. Maar moet Nvidia zich nu zorgen gaan maken? Niet voor de nieuwe consoles in ieder geval. Het is eerder de vraag wat Big Navi gaat doen qua performance. Maar ook daar denk ik niet dat AMD de performance crown gaat pakken van Nvidia. Maar goed, we zullen het allemaal meemaken eind dit jaar. In dat opzicht een zeer leuk jaar voor alle type gamers!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
biggydeen2 schreef op vrijdag 14 augustus 2020 @ 07:42:
Dan hebben we het nog niet eens gehad over de RTX3000 welke de GPU's in de nieuwe consoles toch wel aardig weg gaan blazen qua performance. Native 4k 60fps wordt met de RTX3000 makkelijk gehaald.
Jij weet meer dan de rest van ons? ;)

Dit wordt bij elke generatie geroepen en de laatste jaren klopt er geen reet van.
dan kan slechts 5% van de mensen er echt van genieten
Het is niet eens 5%.
De geruchten zijn dat de mogelijkheden van de PS5 al mogelijk zijn op de nieuwe AMD cpu's welke eind dit jaar uitkomen.
Welke geruchten? Heeft ook niets met de CPU te maken.

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 01-02 15:19
4k 60 is eigenlijk al jaren mogelijk, het hangt alleen af wat je speelt, op welke settings en met welke kaart.

Want ook al zullen de nieuwe consoles 4k 60 halen, er zullen ergens wel grafische concessies gemaakt moeten worden.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 02-02 22:01
NVIDIA GeForce RTX 3090 gets 21Gbps GDDR6X memory
Micron heeft bevestigd dat het werkt aan GDDR6X geheugen in samenwerking met Nvidia voor de Ampere videokaarten.
Micron GDDR6X is the world’s fastest graphics memory, delivering legendary performance to help driveray tracing, shadow mapping and silky-smooth animation for an immersive PC gaming experience.
In Summer of 2020, Micron announced the next evolution of Ultra-Bandwidth Solutions in GDDR6X. Working closely with NVIDIA on their Ampere generation of graphics cards, Micron’s 8Gb GDDR6X will deliver up to 21Gb/s (data rate per pin) in 2020. At 21Gb/s, a graphic card with 12pcs of GDDR6X will be able to break the 1TB/s of system bandwidth barrier! Micron’s roadmap also highlights the potential for a 16Gb GDDR6X in 2021 with the ability to reach up to 24Gb/s. GDDR6X is powered by a revolutionary new PAM4 modulation technology for Ultra-Bandwidth Solutions. PAM4 has the potential to drive even more improvements in data rate.
The new information would therefore confirm:
- Next-generation GeForce RTX series are codenamed “30”
- The flagship model is indeed called GeForce RTX 3090
- NVIDIA GeForce RTX series will have GDDR6X memory
- RTX 3090 would sport 21 Gbps memory modules with bandwidth up to 1 TB/s

Afbeeldingslocatie: https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-Memory-Specifications-1.png

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x

Pagina: 1 ... 69 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.