• XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

Dit is een crosspost van het algemene VR topic, bedankt @Mirage

Het blijkt dat de GTX 3080 wint van de 6800 XT in VR games op de Valve Index. Dit komt denk ik waarschijnlijk door de hogere geheugen bandbreedte die je nodig hebt om op hogere resolutie van de Index te kunnen spelen.
Uit het artikel:
It is great to see AMD delivering a card that is performance competitive with the RX 3080. However, the RX 6800 XT only delivers higher unconstrained framerates in 4 of the 15 games we benchmarked. In addition, several of the FCAT VR frametime plots indicate the RTX 3080 delivers a smoother experience.
Dus niet alleen hogere lagere framerates voor nVidia maar ook betere stabiliteit (minder dropped frames en latency spikes).

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 23 november 2020 @ 15:35:
Dit is een crosspost van het algemene VR topic, bedankt @Mirage

Het blijkt dat de GTX 3080 wint van de 6800 XT in VR games op de Valve Index. Dit komt denk ik waarschijnlijk door de hogere geheugen bandbreedte die je nodig hebt om op hogere resolutie van de Index te kunnen spelen.
Uit het artikel:

[...]

Dus niet alleen hogere framerates voor nVidia maar ook betere stabiliteit (minder dropped frames en latency spikes).
Enige nuance is wel op z'n plaats. De conclusie is veel te kort door de bocht dankzij hun onkunde. Ze kijken vooral naar de maximale framerate (unconstrained noemen ze dat) en meten wel frametimes, maar doen er geen reet mee.

AMD's frametimes zijn over het algemeen veel consistenter in de games die ze testen. Dat is voor VR veel belangrijker. Daarnaast zijn er veel minder gedropte frames in veel games. Als extreem voorbeeld kijk je naar Skyrim; ja, AMD haalt daar slechts 135 FPS tegen 159, maar doet dat wel zonder frames te droppen. En als je dan naar de plots kijkt is AMD veel stabieler. Ik kan je uit ervaring vertellen dat NMS een goed voorbeeld is van hoe het niet moet (op beide); de ervaring in dat spel is niet zo lekker als het hoort, die onstabiele frametimes merk je heel erg.

Verdere opmerkingen:
- Ark is zwaar biased naar Nvidia (ongeacht of het VR is of niet) en draait van zichzelf al bijzonder onstabiel. Hoort niet thuis in enige benchmark suite, zeker niet voor VR. Speel je dat in VR dan ben je er op voor bereid dat het geen geweldige ervaring is
- FO4 en Subnautica zijn vreemd, daar moet ik eens naar kijken als ik tijd heb. Draaien op geen van beide echt stabiel, maar bij AMD droppen er frames, terwijl ze bij Nvidia via ASW gaan. Dat moet bij AMD ook kunnen, klinkt alsof beide games Nvidia API's gebruiken daarvoor

Verwijderd

XanderDrake schreef op vrijdag 20 november 2020 @ 13:59:
[...]
Ik zeg, iedereen een Oculus Quest 2 kopen, die zijn tenminste wel nog te krijgen :+
Leuk zo'n hoopje hardware waar je data verzameld wordt a.d.h.v. je bewegingen en verplicht gebruik van FaceBook. Niet voor niets zo'n aantrekkelijke prijs voor de specs.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XanderDrake schreef op maandag 23 november 2020 @ 15:35:
Dit is een crosspost van het algemene VR topic, bedankt @Mirage

Het blijkt dat de GTX 3080 wint van de 6800 XT in VR games op de Valve Index. Dit komt denk ik waarschijnlijk door de hogere geheugen bandbreedte die je nodig hebt om op hogere resolutie van de Index te kunnen spelen.
Uit het artikel:

[...]

Dus niet alleen hogere framerates voor nVidia maar ook betere stabiliteit (minder dropped frames en latency spikes).
Wat Werelds al zegt, de frametimes op de AMD kaart is over een hele grote reeks beter (tenminste van alle niet specifieke VR spellen). Ook al is de average en of max fps misschien minder, de frametimes zijn consistenter en dat is belangrijker met name voor VR.
De grote reden dat Nvidia als eerste met framepacing begon met SLI is omdat het voor een betere spelervaring zorgde. Een grote cache zorgt waarschijnlijk voor een stabielere framerate op RDNA2.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Tincahunter schreef op maandag 23 november 2020 @ 10:53:
De gemiddelde snelheid van de RTX 3080 en de RX 6800 XT van 17 review sites

https://www.guru3d.com/ne...han-geforce-rtx-3080.html
Jammer dat ze alleen de 4k data pakken. Op lagere resoluties is het een ander verhaal.
Het was al bekend dat je voor 4k beter af bent met een 3080/3090.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

Werelds schreef op maandag 23 november 2020 @ 17:10:

AMD's frametimes zijn over het algemeen veel consistenter in de games die ze testen. Dat is voor VR veel belangrijker. Daarnaast zijn er veel minder gedropte frames in veel games. Als extreem voorbeeld kijk je naar Skyrim; ja, AMD haalt daar slechts 135 FPS tegen 159, maar doet dat wel zonder frames te droppen. En als je dan naar de plots kijkt is AMD veel stabieler. Ik kan je uit ervaring vertellen dat NMS een goed voorbeeld is van hoe het niet moet (op beide); de ervaring in dat spel is niet zo lekker als het hoort, die onstabiele frametimes merk je heel erg.
Sorry hoor maar in mijn ogen heb je het mis. Inderdaad, unconstrained FPS is niet echt een nuttige metric, het geeft alleen weer wat de ruwe rekenkracht is zonder consistentie. Maar je zegt dat AMD consistenter is?

Ik heb te weinig tijd om elke game punt voor punt uit te gaan leggen dus ik pak effe alleen HL: Alyx, omdat het zo'n top titel is: dit is de FCAT analyse daarvan:
Afbeeldingslocatie: https://babeltechreviews.com/wp-content/uploads/2020/11/HL-Alyx-2.png
The RX 6800 XT delivered 145.62 unconstrained FPS with 43 dropped but no synthetic frames nor any warp misses.

The RTX 3080 delivered 158.82 unconstrained FPS and with 2 dropped and 14 synthetic frames with 2 warp misses.
Ten eerste, AMD haalt gewoon een hogere frametime, wat dus zeker niet goed is als je rond de of boven de 120 FPS wil halen. Het is de rode lijn he? Dat staat buiten kijf, toch? :/
Ten tweede, je kan zeggen dat er meer 'groene' frametime pieken zijn, dat klopt. Maar die resulteren niet in dropped frames (erg irritant) maar in warped/synth frames (gecompenseerd door async projection als ik het goed heb, en die merk je amper op!). Ik denk dat dit door betere drivers komen.

Al met al een duidelijke winst voor de GTX 3080.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 23 november 2020 @ 18:15:
[...]

Sorry hoor maar in mijn ogen heb je het mis. Inderdaad, unconstrained FPS is niet echt een nuttige metric, het geeft alleen weer wat de ruwe rekenkracht is zonder consistentie weer. Maar je zegt dat AMD consistenter is?

Ik heb te weinig tijd om elke game punt voor punt uit te gaan leggen dus ik pak effe alleen HL: Alyx, omdat het zo'n top titel is: dit is de FCAT analyse daarvan:
(afbeelding)

[...]

Ten eerste, AMD haalt gewoon een hogere frametime, wat dus zeker niet goed is als je rond de of boven de 120 FPS wil halen. Het is de rode lijn he? Dat staat buiten kijf, toch? :/
Ten tweede, je kan zeggen dat er meer 'groene' frametime pieken zijn, dat klopt. Maar die resulteren niet in dropped frames (erg irritant) maar in warped/synth frames (gecompenseerd door async projection als ik het goed heb, en die merk je amper op!). Ik denk dat dit door betere drivers komen.

Al met al een duidelijke winst voor de GTX 3080.
Even wat terminologie (niet specifiek voor jou, maar voor anderen die wellicht niet thuis zijn in VR):

- ASW of synthesized frames zijn het makkelijkst voor te stellen als interpolation in netcode van multiplayer games; het is een "gok" van waar alles in het volgende frame staat, wat in elk geval voor vloeiende animaties zorgt.
- Een dropped frame is mislukte ASW. Deze term heeft Nvidia heel ongelukkig gekozen, want er wordt weldegelijk een "nieuw" frame gepresenteerd. Waar bij ASW frame n echter gebaseerd is data van n-1, is een dropped frame vaak n-2 (of nog erger). Gevolg is dat je wel vloeiend beeld hebt, maar houterige animaties
- Een warp miss is wanneer je het v-sync window helemaal mist. Frame n is gewoon n-1 zonder enige wijziging. Op een plat scherm kun je dit vergelijken met microstuttering.

Nu, warp misses zijn meestal vervelender dan dropped frames, die op hun beurt vervelender dan ASW frames zijn. Een warp miss is in veel gevallen makkelijker te constateren dan een dropped of ASW frame, omdat er 0,0 verandert. Bij de andere twee gevallen verandert het beeld wel gewoon, het "klopt" alleen niet. Nu, een warp miss kan ook gewenst zijn. In games met veel relatief statische elementen zoals racegames en sims is een warp miss vaak fijner, omdat je minder "jitter" in de cockpit ziet.

Wat jij dus aan haalt bij Alyx is dat het spel op Nvidia twee keer echt helemaal niets kon doen en dus stotterde. Bij AMD zijn er wel aardig wat dropped frames, maar zoals gezegd hoeft dat niet noodzakelijkerwijs vervelend te zijn. Die warp misses zijn hoogstwaarschijnlijk duidelijker op te merken.

En dan frametimes. Ja, uiteraard zijn die van AMD hoger, dat is waar FPS vandaan komt. Als je frametimes echter variëren van 8 tot 10 ms (125 tot 100 FPS, 112,5 gemiddeld) is dat veel prettiger dan frametimes die variëren van 6 tot 11 (167 tot 90 FPS, 128,5 gemiddeld). Zelfs als ze slechts op 90 Hz weergegeven worden is het heel irritant als de tijd tussen frames variëert.

VR benchmarken is heel lastig. Een statische benchmark werkt daar nog minder voor dan op de desktop, juist omdat je te maken hebt met veel meer sensors en de beeldweergave veel subjectiever is. Je kunt geen framerates meten; of zelfs puur op ASW/drop/miss af gaan. Zoals ik zei is een miss in Assetto lang niet zo erg als in bijvoorbeeld Alyx :)

Overigens, de meeste VR headsets draaien op 90 Hz. Zelfs veel Index gebruikers hebben het ding gewoon op 90 staan. Juist omdat de frametimes voor 120 (laat staan 144) in veel games niet constant genoeg zijn. Zelf pas ik het aan per spel (dat + render resolutie).

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

Werelds schreef op maandag 23 november 2020 @ 18:54:
VR benchmarken is heel lastig. Een statische benchmark werkt daar nog minder voor dan op de desktop, juist omdat je te maken hebt met veel meer sensors en de beeldweergave veel subjectiever is. Je kunt geen framerates meten; of zelfs puur op ASW/drop/miss af gaan. Zoals ik zei is een miss in Assetto lang niet zo erg als in bijvoorbeeld Alyx :)
Bedankt voor de uitleg, het ligt inderdaad wat genuancerder. Ik kan uit het artikel niet hun definitie van dropped danwel synth frame halen dus ik weet niet of wat jij zegt overeenkomt met hun conclusies.
Maar nog steeds heeft de GTX 3080 een betere interne configuratie om meer frames te laten zien. Ik denk dus persoonlijk, als eigenaar van zowel een Index en Alyx, dat je enkele incorrecte frames niet snel gaat merken. Het zijn er een handvol op duizenden. Wat je wel gaat merken is het volgende:
Overigens, de meeste VR headsets draaien op 90 Hz. Zelfs veel Index gebruikers hebben het ding gewoon op 90 staan. Juist omdat de frametimes voor 120 (laat staan 144) in veel games niet constant genoeg zijn. Zelf pas ik het aan per spel (dat + render resolutie).
Dit ervaar ik helemaal niet zo. Ik heb juist de Index gehaald om hem op hoge FPSs te gebruiken: ik ben snel auto-ziek en wil dus een soepele ervaring. Dan is 120hz echt beter dan 90hz. Iedereen die ik ken met een Index tracht hetzelfde te halen: een High end ervaring voor een zeer dure (1000€+) headset, nog steeds, qua totaal VR kit, de beste op de markt, zelfs anderhalf jaar na release.
Het is een beetje raar dat je dat je 1100€ voor een Index en 700€+ voor een GTX 3080 neer gaat leggen, en dat je dan vervolgens het geheel niet tot z'n volle wilt benutten.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 23 november 2020 @ 20:08:
Bedankt voor de uitleg, het ligt inderdaad wat genuancerder. Ik kan uit het artikel niet hun definitie van dropped danwel synth frame halen dus ik weet niet of wat jij zegt overeenkomt met hun conclusies.
Hun definities zijn die van FCAT, Nvidia's tool ;)

Al deze termen heeft Nvidia jaren geleden bedacht, zo ergens rond de release van de Rift CV1.
Maar nog steeds heeft de GTX 3080 een betere interne configuratie om meer frames te laten zien. Ik denk dus persoonlijk, als eigenaar van zowel een Index en Alyx, dat je enkele incorrecte frames niet snel gaat merken. Het zijn er een handvol op duizenden. Wat je wel gaat merken is het volgende:
Refreshrate en framerate is niet alles. Zelfs op 120 Hz betekent een warp miss dat je ineens 16ms lang hetzelfde frame te zien krijgt - dat merk je gewoon. Op 90 Hz is dat nog erger, laat staan de 72 Hz van een Quest. En juist inconsistente frametimes zijn verantwoordelijk voor ASW/drops/misses.

Om maar even bij Alyx te blijven, daar gaat het om 6,87ms (AMD) en 6,30ms (Nvidia). Kijk je naar de plots, dan lijkt AMD met hooguit 0,2ms te schommelen per frame, terwijl dat bij Nvidia 0,4 is. Die 0,2 verschil kan zomaar het verschil maken tussen een VBLANK wel of niet halen. In beide gevallen blijft het bijna constant onder de 8ms dus de framerate wordt wel gehaald. Maar nu stel dat dat Nvidia's gemiddelde op 8,0ms had gelegen en AMD op 8,1. AMD hoeft dan niets te droppen, want zelfs met 0,2 variatie blijft dat onder de 8,33, terwijl met er met Nvidia's onstabiliteit ASW, drops of misses zijn. Dat is waarom de variatie in frametime net zo belangrijk is als het aantal frames (FPS) en de maximale frametime.

Om dus rechtstreeks op de quote in te gaan: het gaat er niet om hoe veel frames er gerenderd kunnen worden, het gaat om wanneer ze gerenderd worden. Vergeet niet dat je in VR altijd V-Sync hebt en geen VRR. Het nieuwe frame moet klaar staan als de VBLANK komt. Dat is het aantal frames dat daadwerkelijk wordt weergegeven. Je kunt 1200 frames renderen, maar er komen er toch maar 120 op het scherm. En 120 frames die allemaal op exact 8,33ms gerenderd worden zien er vloeiender uit dan 120 frames waarvan de helft op 8,66 en de helft op 8,0ms gerenderd wordt. Stel dat je om en om 8 en 8,66 doet, dan mist je 2e frame al meteen; en álle frames daarna ook tenzij je er regelmatig één over slaat. Framepacing kan het in dat geval ook niet meer oplossen ;)

Dat wil niet zeggen dat een hogere framerate per definitie niets zegt. Maar bij een verschil in framerate van slechts 13 ofwel 9% waarbij die framerate binnen schootsafstand van de beoogde refresh rate ligt, loont het om naar de frametime te kijken. Als je op 300 FPS zit maakt het allemaal geen reet meer uit, dan krijg je zelfs in het ergste geval (warp miss) een frame van minder dan 6,67ms oud te zien :p

Enfin, het ging mij er om dat hun conclusie volledig op FPS is gebaseerd. Zelfs het aantal ASW/drops/misses nemen ze niet mee; ze noemen ze wel, maar beoordelen er niet op.


Overigens is dit voor het eerst dat AMD het goed doet qua frametimes.
Dit ervaar ik helemaal niet zo. Ik heb juist de Index gehaald om hem op hoge FPSs te gebruiken: ik ben snel auto-ziek en wil dus een soepele ervaring. Dan is 120hz echt beter dan 90hz. Iedereen die ik ken met een Index tracht hetzelfde te halen: een High end ervaring voor een zeer dure (1000€+) headset, nog steeds, qua totaal VR kit, de beste op de markt, zelfs anderhalf jaar na release.
Het is een beetje raar dat je dat je 1100€ voor een Index en 700€+ voor een GTX 3080 neer gaat leggen, en dat je dan vervolgens het geheel niet tot z'n volle wilt benutten.
En toch zijn er genoeg mensen die dat doen :)

Met m'n 1080 Ti haal ik in sommige games de 120 simpelweg niet constant genoeg, dus dan schroef ik de render resolutie terug of ik verlaag de refreshrate (meestal resolutie, behalve in zoiets als Elite). Ik heb geen last van motion sickness, dus daar kan ik niet over oordelen, maar ik ben wel heel gevoelig voor microstuttering dus inconsistente frametimes merk ik meteen :p

Edit: overigens zijn de drops van AMD in Alyx juist een goed voorbeeld van timing die slecht uit pakt. Die zitten niet waar de pieken in rauwe tijden zitten. Vooral aan het begin van de run komt AMD slecht uit qua timing.

[ Voor 19% gewijzigd door Werelds op 24-11-2020 00:46 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

Waar ik best wel om kan lachen: vanwege de slechte leverbaarheid van de RTX 3000 serie en de RX 6800 serie zijn de prijzen van tweedehands GTX 2080 (Super/TI) weer aan het stijgen :D
Want ja, het is leuk om een 3070 te kopen die even snel is als een 2080 Ti, als die niet €499 maar €900 kost, kan je net zo goed een minder dure 2080 Ti kopen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Verwijderd

Blij dat ik in september voor 450 euro een nieuwe 2070S kunnen kopen heb. De nieuwe generatie is nog steeds slecht verkrijgbaar en duurder dan verwacht, de concurrentie doet het al even slecht en nu zijn de 2070S kaarten ook veel zeldzamer én duurder dan enkele maanden geleden. Ik heb gekocht op een moment dat de verwachtingen voor de 3000-reeks heel hoog waren, vandaar de lage prijs. Nog langer wachten was geen optie, anders zou het een heel saaie coronaherfst geweest zijn waarin ik ook nog veel verlof had... Het was een gok, maar blijkbaar een goede gok. Eigenlijk was ik ook niet van plan om meer dan 500 euro voor een videokaart te geven.

[ Voor 12% gewijzigd door Verwijderd op 27-11-2020 09:46 ]


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

'Flink deel van RTX 3000-kaarten gaat naar crypto-miners':
https://nl.hardware.info/...n-gaat-naar-crypto-miners

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
Meende dat de nieuwe GPU's zowel van Nvidia en AMD juist niet efficient zijn voor Cryptominers.
Of is het een gebrek aan huiswerk die deze kaarten kopen?

  • PigletCNC
  • Registratie: Oktober 2020
  • Laatst online: 24-10-2024
Psyonara schreef op vrijdag 27 november 2020 @ 20:50:
Meende dat de nieuwe GPU's zowel van Nvidia en AMD juist niet efficient zijn voor Cryptominers.
Of is het een gebrek aan huiswerk die deze kaarten kopen?
Volgens mij isdat vooral omdat het nieuwe architectuur is en de mining software dus herschreven moet worden (simpel uitgelegd zpdat je buurjochie het beter snapt).

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
PigletCNC schreef op vrijdag 27 november 2020 @ 21:52:
[...]

Volgens mij isdat vooral omdat het nieuwe architectuur is en de mining software dus herschreven moet worden (simpel uitgelegd zpdat je buurjochie het beter snapt).
Leuk 2017 herhaaling :(

Hopelijk valt het alsnog tegen voor de miners.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 10:22
Psyonara schreef op vrijdag 27 november 2020 @ 20:50:
Meende dat de nieuwe GPU's zowel van Nvidia en AMD juist niet efficient zijn voor Cryptominers.
Of is het een gebrek aan huiswerk die deze kaarten kopen?
Ik geloof dat de 3080 wel 90mh/s moet kunnen halen. Mijn 1080ti deed iets van 55 als ik het me goed herinner. Een goed getunede rx580 deed (nogmaals, als ik het me goed herinner) een kleine 40. Met de huidige koersen doet de 3080 ongeveer 2 euro 50 per dag exclusief stroomkosten.

Wie goed doet, die goed ontmoet.


  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03-01 03:41
Mijn Evga geforce rtx 3080 ftw3 ultra gaming loopt steeds vast met een kleine overclock.

Dus maar gewoon weer de standaard instellingen terug gezet .
Het is ook helemaal niet nodig om te overclokken want het draait snel genoeg op stock snelheid .

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Verwijderd

Volgens LinusTechTips zou het gaan om maarliefst 6% van de verkopen. Dus een korrel zout is wel op z'n plaats.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Verwijderd schreef op zondag 29 november 2020 @ 19:09:
[...]

Volgens LinusTechTips zou het gaan om maarliefst 6% van de verkopen. Dus een korrel zout is wel op z'n plaats.
Nee, die 250000 units zijn 6% van Nvidia's omzet. Dat is wat hij zei. Ik stel voor dat je even opnieuw luistert ;)

Per kwartaal worden er zelfs in een heel goed kwartaal nog geen 20 miljoen "discrete graphics cards" van AMD en Nvidia verscheept. Het gros daarvan zijn mobiele GPU's - die vallen gewoon onder discrete. Laat ik eens heel voorzichtig doen en zeggen dat er 5 miljoen desktop GPU's per kwartaal verkocht worden (hint: dat is niet zo, bij lange na niet). Wederom maken GPU's van boven de 500 euro daar slechts een klein deel van uit. Maar zelfs al zou het om 20% gaan (1 miljoen dus - en nee, dat is het bij lange na niet), dan is die 250k gewoon een kwart van het aantal verscheepte GPU's.

De realiteit is echter dat GPU's zoals de 3070 en hoger meestal niet eens de 6 cijfers per kwartaal halen - en dat zijn ze dan allemaal samen. Die 250k is waarschijnlijk het gros van wat ze konden produceren. Niks "we kunnen niet aan de vraag voldoen want die is te hoog", maar "we konden ze met meer marge aan miners verkopen". Die miners kopen geen volledige GPU's.

Verwijderd

Ik vind het prima om gecorrigeerd te worden hoor, daar heb ik geen voorstel met knipoog voor nodig. Bedankt voor de opheldering. :)

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
Zijn er nog recente leaks oid?! betreft 3070/3080 Ti's?

Vind het ineens wel bizar stil rond om dit!?

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Verwijderd schreef op maandag 30 november 2020 @ 00:11:
Ik vind het prima om gecorrigeerd te worden hoor, daar heb ik geen voorstel met knipoog voor nodig. Bedankt voor de opheldering. :)
Was ook geen aanval, excuses als je dat zo opvatte :p

Overigens zijn de leveringsproblemen inmiddels wel erg zorgwekkend. We zitten inmiddels 9 weken na release en er is nog steeds 0,0 beschikbaar. Zelfs een run die op de release date startte inmiddels klaar moeten zijn. We weten vrijwel niets over Samsung's 8nm (geen defect densities, geen productie capaciteit) maar zelfs als ik met TSMC's cijfers reken aan 15000 wafers per maand zouden er meer dan een miljoen chips van de band rollen, waarvan pakweg een half miljoen als GA102-200 dienst zou moeten kunnen doen. Maar aangezien we ook nergens een 3070 zien (wat een andere chip is en dus op een andere run zit), gaat het niet lekker met de productie. Of dat nu aan capaciteit of bizar veel defects ligt weet ik niet, maar zorgwekkend is het wel. Zelfs Polaris was gewoon goed leverbaar in een soortgelijk tijdsbestek.

Bij de concurrent is er ook nog geen voorraad, maar we zitten daar nog geen 2 weken na release én die hebben volgens de geruchten eventjes 120k wafers in Q4 besteld alleen al voor de consoles. Dat is een derde van TSMC's productie capaciteit voor het kwartaal. De 2/3e die over blijft is dus voor Zen 3, RDNA 2 (hopelijk geen RDNA 1 meer :P) en enige andere klanten (onder andere Apple en Qualcomm).

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik denk inmiddels ook dat het vrijwel zeker iets rond Samsung 8N moet zijn. De vraag daar blijft wat het precies is. Is de node nog steeds verschrikkelijk? Ik weet dat Qualcomm aardig wat problemen gehad zou hebben met Samsung 10nm, wat min of meer dezelfde node zal zijn. Samsung lijkt inderdaad ook niks te willen zeggen, en van derden hoor je alleen maar dat het (beduidend) slechter is dan TSMC en daarom goedkoper. Ik sluit alleen niet uit dat Nvidia weer een "Fermi" heeft gedaan en weer een chip heeft die gewoon niet te yielden is. Geruchten over een flinke stepping die problemen moeten oplossen, lopen namelijk ook al even. Zeker omdat werd aangegeven door de leren jasjes man zelf dat het wel tot april kan duren. Dat klinkt niet alsof het een probleem is dat ze met meer wafers bestellen, kunnen oplossen. Zeker omdat er niet bijzonder veel vraag lijkt te zijn voor Sansung nodes. Dat lijkt eerder te hinten op aanpassingen aan ontwerp.

Ik ben eigenlijk toch al niet onder de indruk van GA102, buiten eventuele fouten van Nvidia als het om productie gereedheid gaat. Het is een enorme chip, maar de chip schaalt echt dramatisch. Je hebt eigenlijk een 5K+ monitor nodig om echt wat extra uit de RTX3090 te halen als je gamed. Het product lijkt alleen te bestaan voor de 24GB aan VRAM. Het is eigenlijk nauwelijks beter dan Vega 56 en Vega 64. Niet bepaald een toonbeeld van een efficiënt schalende GPU architectuur. Zat daar ook nog eens een beduidend kleiner verschil in aantal ALU's. GA104 lijkt vooralsnog merkbaar beter te zijn qua schaalbaarheid, maar die is ook niet te krijgen.

AMD zit denk ik ook niet stil. Die gaan denk ik in Q1 echt helemaal los zodra de aantallen voor de launch van console APU's zijn geleverd en de vraag daar teruggaat naar een meer gestaag volume. Dat is ervan uitgaande dat Navi 21 niet ook rampzalig yield. Verder migreert Apple naar N5 en lijken de vrijgekomen N7 wafers allang geboekt te zijn door AMD. Misschien weten ze dan eens een product te lanceren op een minder bizar incompetente manier dan Navi 21. Wat? Ik mag toch dromen? :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Morgen is de officiële introductie van de RTX3060Ti door Nvidia. En woensdag gaan de AIB versies van de kaart dan in de verkoop. De FE heeft een MSRP van $400 (maar die FE versie kan waarschijnlijk weer niet worden besteld via de Nederlandse Nvidia site). Ook over de verkrijgbaarheid en de feitelijke retailprijzen maak ik me ditmaal geen illusies meer.

Videocardz heeft al een paar foto's van een Gigabyte AIB variant: https://videocardz.com/ne...riving-to-first-customers

Je kunt elders ook al een pre-built systeem met een RTX 3060Ti bestellen. Interessant is dat je voor deze kaart toe kunt met slechts een 500W voeding en een enkele 8-pin connector: https://videocardz.com/ne...x-3060-ti-prebuilt-system

[ Voor 5% gewijzigd door choogen op 30-11-2020 17:37 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Volgende ronde, volgende kans om geen videokaart te kunnen kopen, want 2020. :+



edit: https://www.techpowerup.c...3060-ti-founders-edition/
Kort samengevat, RTX2080S niveau die circa 200W verbruikt. GA104 lijkt dus inderdaad beter te presteren dan GA102.

[ Voor 21% gewijzigd door DaniëlWW2 op 01-12-2020 15:04 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

Nu ook op de frontpage: https://tweakers.net/nieu...ag-uit-voor-419-euro.html

Afgekeurde RTX 3070's dus. Redelijk goede prijs zou ik zeggen. Ik ben alleen verbaast over hoe groot dechip is, bijna 400mm² waar bijvoorbeeld de GTX 1070 maar 312mm² had. Vrij stevig voor een mid-high end GPU.

[edit] Ook een behoorlijk stuk sneller dan een GTX 1080 Ti, indrukwekkend.

[ Voor 10% gewijzigd door XanderDrake op 01-12-2020 16:06 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03-01 03:41
mmxmmx schreef op zondag 29 november 2020 @ 13:26:
Mijn Evga geforce rtx 3080 ftw3 ultra gaming loopt steeds vast met een kleine overclock.

Dus maar gewoon weer de standaard instellingen terug gezet .
Het is ook helemaal niet nodig om te overclokken want het draait snel genoeg op stock snelheid .
Update

Moest de power slider naar max gooien .
Nu werkt het goed.

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


  • Inflatable
  • Registratie: Oktober 2002
  • Laatst online: 03-02 05:49
Werelds schreef op maandag 30 november 2020 @ 15:53:
[...]

Was ook geen aanval, excuses als je dat zo opvatte :p

Overigens zijn de leveringsproblemen inmiddels wel erg zorgwekkend. We zitten inmiddels 9 weken na release en er is nog steeds 0,0 beschikbaar. Zelfs een run die op de release date startte inmiddels klaar moeten zijn. We weten vrijwel niets over Samsung's 8nm (geen defect densities, geen productie capaciteit) maar zelfs als ik met TSMC's cijfers reken aan 15000 wafers per maand zouden er meer dan een miljoen chips van de band rollen, waarvan pakweg een half miljoen als GA102-200 dienst zou moeten kunnen doen. Maar aangezien we ook nergens een 3070 zien (wat een andere chip is en dus op een andere run zit), gaat het niet lekker met de productie. Of dat nu aan capaciteit of bizar veel defects ligt weet ik niet, maar zorgwekkend is het wel. Zelfs Polaris was gewoon goed leverbaar in een soortgelijk tijdsbestek.

Bij de concurrent is er ook nog geen voorraad, maar we zitten daar nog geen 2 weken na release én die hebben volgens de geruchten eventjes 120k wafers in Q4 besteld alleen al voor de consoles. Dat is een derde van TSMC's productie capaciteit voor het kwartaal. De 2/3e die over blijft is dus voor Zen 3, RDNA 2 (hopelijk geen RDNA 1 meer :P) en enige andere klanten (onder andere Apple en Qualcomm).
Wereldwijde Covid-19 crisis.. Zorgt voor problemen bij productie en levering, en tegelijkertijd voor veel hogere vraag omdat de halve wereld thuis zit en PC hardware wil/moet hebben.. Producenten roepen ook niet voor niks dat deze situatie tot in 2021 gaat duren.. Dit is verre van een normale situatie..

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Moore's Law is Dead heeft in zijn laatste video nog wat interessante informatie en voorspellingen. Zo verwacht hij dat Nvidia begin volgend jaar (februari) inzet op een RTX3070Ti met het performance-niveau van een RTX3080 voor $600. Ook verwacht hij een RTX3080Ti met het performance-niveau van een RTX3090 voor $1000. De oude RTX3070 en RTX3080 modellen zullen mede daardoor schaars blijven. Verder verschaft hij nog wat inzicht in de corona-gerelateerde problemen rondom de logistiek en distributie van de nieuwe generatie GPU's, waarbij zeker Europa nadeel ondervindt van het sterk teruggelopen vliegverkeer tussen de continenten. Consumenten die nog voor de Kerst een nieuwe GPU in handen willen krijgen betalen daarvoor extra om tijdig transport per vliegtuig (i.p.v. per schip) mogelijk te maken. Ook is er het gerucht dat de AIB partners op het laatste moment nog een prijsverlaging met $100 voor de RTX3060T kregen doorgeseind van Nvidia; een zeker MSI Gaming X Trio model had in eerste instantie niet voor $480, maar voor $580 moeten uitkomen.

ca. 16 min.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:29
@choogen

Ik zag hem inderdaad toen straks ook langkomen, opzich een vermakelijk filmpje, maar het blijft MLID, die je na al zijn niet uitgekomen "voorspellingen" eigenlijk niet meer serieus kan nemen, zeker omdat ie constant zijn verhaal veranderd zodat het altijd lijkt te kloppen :+

Leuke youtuber voor wat licht vermaak, maar ik kan hem in ieder geval niet serieus meer nemen in zijn voorspellingen.

  • RoyK
  • Registratie: Juli 2008
  • Laatst online: 06-01 20:52

RoyK

Hobby tekenaar

Vraagje aan de kenners. Is het mogelijk dat in de toekomst Nvidia met ARM zo iets gaat aanbieden als Apple nu doet met de M1? Wellicht dan voor de PC markt?

Mijn portfolio op Instagram


  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:29
Uiteraard is dat mogelijk, en ik denk dat dit ook een van de hoofddoelen is voor Nvidia. Misschien niet direct om client systemen te vervangen waar Apple begint met de M1, maar ik denk dat Nvidia zeker gaan inzetten op ARM in het datacenter gekoppeld aan allerlei accelerators om zo op die wijze nog meer met AMD en Intel te concurreren.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Nvidia-topman: Voorraadproblemen worden niet alleen veroorzaakt door tekort aan chips https://nl.hardware.info/...akt-door-tekort-aan-chips

Terwijl Kress toegeeft dat dat er tekorten zijn op het vlak van wafers bij chipleverancier Samsung, voegt zij eraan toe dat er ook op vlak van substraten en andere componenten onvoldoende voorraad is.

[ Voor 33% gewijzigd door choogen op 02-12-2020 19:26 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De huidige tekorten zijn, zoals ik wel verwacht had, een combinatie van factoren:
The company admits that there are constraints beyond chip supply, so the issue with shortages is indeed very complicated.

"We do have supply constraints and our supply constraints do expand past what we are seeing in terms of wafers and silicon, but yes some constrains are in substrates and components," said Colette Kress, CFO of Nvidia, at Credit Suisse 24th Annual Technology Conference. "We continue to work during the quarter on our supply and we believe though that demand will probably exceed supply in Q4 for overall gaming."

March of the Eagles


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Als de 3060TI supply wel goed is dan is dat een indicatie dat de yields best slecht zijn. Het zijn immers gewoon afgedankte 3070 chips als ik zo de specs zag. We gaan het zien.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nah, die 3060 Ti is ook bijna nergens op voorraad. Voorbeeld van een shop:

Afbeeldingslocatie: https://tweakers.net/i/a3bn3tBYNrUPMSNGyBERuLN0pVE=/800x/filters:strip_exif()/f/image/tEBjXBalt3ysGj5jpaRF8xt9.png?f=fotoalbum_large

Alternate heeft hier en daar eentje op voorraad voor € 700, dit is echt niet beter dan de 3080 destijds.

[ Voor 14% gewijzigd door XWB op 02-12-2020 19:40 ]

March of the Eagles


  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
computerjunky schreef op woensdag 2 december 2020 @ 19:33:
Als de 3060TI supply wel goed is dan is dat een indicatie dat de yields best slecht zijn. Het zijn immers gewoon afgedankte 3070 chips als ik zo de specs zag. We gaan het zien.
Nvidia geeft antwoord waarom er zo voorraad problemen zijn.

https://nl.hardware.info/...akt-door-tekort-aan-chips

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
computerjunky schreef op woensdag 2 december 2020 @ 19:33:
Als de 3060TI supply wel goed is dan is dat een indicatie dat de yields best slecht zijn. Het zijn immers gewoon afgedankte 3070 chips als ik zo de specs zag. We gaan het zien.
Nvidia geeft antwoord waarom er zo voorraad problemen zijn.

https://nl.hardware.info/...akt-door-tekort-aan-chips
Terwijl Kress toegeeft dat dat er tekorten zijn op het vlak van wafers bij chipleverancier Samsung, voegt zij eraan toe dat er ook onvoldoende substraten en andere componenten beschikbaar zijn. Het zou dus niet volstaan om op korte termijn extra productiecapaciteit te reserveren bij de Koreaanse fabrikant. Dat is op zich al niet evident, aangezien dergelijke orders lang op voorhand worden geplaatst.

  • muhda
  • Registratie: Februari 2009
  • Laatst online: 03-02 19:44

muhda

Time & Space traveler

Is er al meer nieuws of geruchten over de 3070Ti? Het is angstvallig stil van Nvidia's kant.

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
muhda schreef op maandag 7 december 2020 @ 08:54:
Is er al meer nieuws of geruchten over de 3070Ti? Het is angstvallig stil van Nvidia's kant.
Enige gerucht die ik hoorde is dat die 10gb Vram zou krijgen. Ergens in een YT vid vorige week.
Had minstens op 12/14 GBVram gehoopt.
Maar als het 10 word kun je net zo goed een 3080 nemen.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Psyonara schreef op maandag 7 december 2020 @ 12:35:
[...]


Enige gerucht die ik hoorde is dat die 10gb Vram zou krijgen. Ergens in een YT vid vorige week.
Had minstens op 12/14 GBVram gehoopt.
Maar als het 10 word kun je net zo goed een 3080 nemen.
12gb kan alleen maar als ze de bus behouden zoals bij de 3090 op 384 bit. Zodra ze zakken naar 3080 niveau op 320 bit kom je dus aan of aan 10gb of het dubbele met 20gb. Er is geen optie in het midden en ik denk niet dat Nvidia de 3070ti meer gaat geven dan de 3080 nu heeft in bus of in geheugen. Het zal eerder een chip zijn met minder cores actief op gelijke bus met gelijke hoeveelheid geheugen (of minder). Deze kan dan in prijs precies tussen de 3070 en 3080 landen. Vraag is dan alleen of Nvidia dit gaat doen als antwoord op de 6800.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

muhda schreef op maandag 7 december 2020 @ 08:54:
Is er al meer nieuws of geruchten over de 3070Ti? Het is angstvallig stil van Nvidia's kant.
Zullen Ti varianten gebruikmaken van TSMC? Dát vraag ik me af.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op maandag 7 december 2020 @ 14:57:
[...]

Zullen Ti varianten gebruikmaken van TSMC? Dát vraag ik me af.
Als het GA102 is, nee. Bestaat GA 103 wel, dan kan het. Kan, want dat is zeker nog geen uitgemaakte zaak.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Psyonara schreef op maandag 7 december 2020 @ 12:35:
[...]


Enige gerucht die ik hoorde is dat die 10gb Vram zou krijgen. Ergens in een YT vid vorige week.
Had minstens op 12/14 GBVram gehoopt.
Maar als het 10 word kun je net zo goed een 3080 nemen.
Zo werkt dat niet. Ze kunnen/willen niet zomaar eender welke hoeveelheid geheugen gebruiken.

GDDR chips hebben hebben 32 "pinnen"; elke pin heeft in principe 1 bit aan geheugen bus nodig. Dus, voor 8 chips heb je 8 * 32 = 256 bits nodig (GA104). De 320 van de 3080 laat 10 chips toe, de 384 van de 3090 12. Het "principe" van 1 bit per pin kan mee gesmokkeld worden, door een zogenaamde clamshell opstelling te gebruiken, waarbij je 2 chips de 32 data lijntjes naar de geheugencontroller laat delen. Technisch gezien kost dat uiteraard performance, maar in de praktijk valt dat over het algemeen reuze mee.

Als je er van uit gaat dat de 3070 Ti een GA102 betreft dan heeft het ding maximaal 12 geheugen controllers beschikbaar. Dat laat 12 en 24 (clamshell) toe. Andere mogelijkheden zijn 11/22, 10/20, 9/18, enzovoort. 14 kan alleen als ze helemaal terug vallen naar slechts 7 controllers. Dan krijg je een bus van 224 bits, minder dan de 3060 Ti en 3070. Doen ze niet, want dat komt er in de marketing niet door. 288 bits (9/18) zou wel kunnen.

Daarnaast moet ik eerlijk zeggen dat dit soort wensen gewoon niet reëel zijn. Een 3070 Ti met meer dan 10 GB geheugen zou de 3080 al de grond in boren voordat die laatste daadwerkelijk een beetje te krijgen is. Hetzelfde geldt voor een theoretische 3080 Ti met 20 GB. Een 3080 Ti met 16 GB vereist een 256-bits geheugen controller, dat werkt marketing technisch weer niet. Het maakt niet uit hoe ze deze dingen in de markt zouden zetten, ze zouden overal in hun eigen vaarwater zitten.

Daarnaast zijn sommige van de geruchten ook vreemd. Zo was er een gerucht van een op GA102 gebaseerde 3070 Ti met 3712 (sorry, "7424" :+) ALU's. Dat zijn 10 SM's minder dan de 3080; wat betekent dat ze in 5 van de 7 GPC's een SM uitschakelen. Nvidia wil dat ding liefst gebalanceerd hebben, dus 1 of 2 SM's uitschakelen in elke GPC; dat zou respectievelijk 61 en 54 SM's zijn, ofwel 3904 ("7808", 89,7% van 3080) en 3456 ("6912", 79,4% van 3080) ALU's. Anders wordt scheduling een rotzooi.

Laat ik voor de gein echter die 7424 eens nemen (85,3% van 3080); enige prijspunt voor zo'n ding is $599 (op $499 zit de 3070, $699 de 3080). Een 3080 is 82,9% van een 3090, qua performance zit het ding echter eerder op 90%. Een 3070 Ti op 85% ALU's zou dus wel heel erg dicht op een 3080 komen - en dan zou het ding ook nog meer geheugen hebben voor minder geld? Lijkt me sterk :+

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
Zo into specifieken ben ik nou ook weer niet, maar als dit allemaal zo is^ dan zou lijkt mij het raar hoe Nvidia deze gaten tegen over Radeon kan opvullen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Psyonara schreef op maandag 7 december 2020 @ 16:21:
Zo into specifieken ben ik nou ook weer niet, maar als dit allemaal zo is^ dan zou lijkt mij het raar hoe Nvidia deze gaten tegen over Radeon kan opvullen.
Dat kunnen ze ook niet. Althans niet tussen de bestaande modellen. Ze zouden wel zomaar de bestaande modellen al meteen EOL kunnen verklaren en simpelweg nieuwe SKU's lanceren. Het is Nvidia, dus dat zou me helemaal niets verbazen.

Ik zie echter maar heel weinig ruimte voor méér producten tussen de huidige met andere geheugenbussen. Er zijn echter wel vreemdere dingen gebeurd en de Titan/3090 klasse van producten bestaat ook nog steeds dus 8)7

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
Nvidia doen toch altijd waar ze zin in hebben, Hoewel ik recent een 3080 heb besteld ( wachten vind ik niet erg zolang het probleemloos word geleverd) Vermoed ik dat de 30 serie toch heel slecht verouderd tegen over AMD tegen hangers.

Kan het mis hebben, maar alle omstandigheden etc zijn beide teams op moment gewoon knudde.
En voor de consument is er eigenlijks geen speel ruimte, tenminste geen slimme keuzes in ieder geval. Tenminste zo ervaar/zie ik het.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

nieuws: Ook de vorige generaties videokaarten en cpu's raken op en stijgen in...

Videokaarten lijken met eenzelfde probleem te kampen. Wie bij een willekeurige hardwareshop op zoek gaat naar een videokaart die uit voorraad leverbaar is, krijgt vooral oudere low-end videokaarten voorgeschoteld. Azerty en Megekko kunnen beide maar één RTX 2080 Super leveren, namelijk een nichekaart met een waterblok, terwijl de RTX 2070 Super en RTX 2060 Super volledig zijn uitverkocht. Alternate kan zelfs geen enkele RTX 20-videokaart leveren en heeft het merendeel van de betreffende categoriepagina's al van zijn website verwijderd. De Radeon RX 5000-serie ondergaat in rap tempo hetzelfde lot. Hoewel de middenklasse RX 5600 XT nog redelijk goed voorradig is, valt het aantal leverbare RX 5700 XT's inmiddels op één hand te tellen.

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
Een Droogte zo te zien..........

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 7 december 2020 @ 17:18:
[...]

Dat kunnen ze ook niet. Althans niet tussen de bestaande modellen. Ze zouden wel zomaar de bestaande modellen al meteen EOL kunnen verklaren en simpelweg nieuwe SKU's lanceren. Het is Nvidia, dus dat zou me helemaal niets verbazen.

Ik zie echter maar heel weinig ruimte voor méér producten tussen de huidige met andere geheugenbussen. Er zijn echter wel vreemdere dingen gebeurd en de Titan/3090 klasse van producten bestaat ook nog steeds dus 8)7
En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.

Een GA103 met 60SM's/3840/7680 Cuda Cores en een 320 bit bus/10GB GDDR6X als RTX3070Ti voor $600-$650, tja ik sluit het niet uit. Dan heb je iets dat beter op zou moeten kunnen tegen Navi 21 en voornamelijk voor Nvidia iets waar wel eens meer marge op kan zitten omdat je voor heel wat minder oppervlakte betaald hebt voor redelijk vergelijkbare prestaties met een RTX3080. PCB ontwerpen zal je ook kunnen hergebruiken op deze manier. De RTX3080 is dan een beetje overbodig, dus die laat Nvidia stilletjes verdwijnen. Dan de RTX3080Ti ook met 82SM's en 12GB op $899-$999. RTX3090 verkoop je voor het privilege van 24GB aan VRAM.

Ik kijk ook naar de langere termijn. De verhalen dat we eind volgend jaar al Hopper krijgen op "5nm", welke 5nm dat ook mag zijn want ik weet nog zo net niet of het TSMC zal zijn, tja ik heb zo mijn twijfels. Ik denk eerder dat de eerste Hopper pas ergens diep in H1/2022 zal verschijnen en dat zal dan GH100 zijn. GH102 etc later in het jaar. Tja, AMD heeft dan allang RDNA3 uitgebracht want die zitten inmiddels ook daar met afwisselende teams te "tick tocken". Als ik gelijk krijg met mijn vermoeden, dan kan Nvidia wel eens gedwongen worden om op kosten te gaan concurreren in het laatste deel van de Ampere levenscyclus. Veel heeft "Navi 31" niet nodig om GA102 echt helemaal te verslaan. We weten nu nog niet eens echt wat de RX6900XT gaat doen tegenover de RTX3090, maar het zullen geen grote marges zijn, wie dat ook wint.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
DaniëlWW2 schreef op maandag 7 december 2020 @ 18:25:
[...]


En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.

Een GA103 met 60SM's/3840/7680 Cuda Cores en een 320 bit bus/10GB GDDR6X als RTX3070Ti voor $600-$650, tja ik sluit het niet uit. Dan heb je iets dat beter op zou moeten kunnen tegen Navi 21 en voornamelijk voor Nvidia iets waar wel eens meer marge op kan zitten omdat je voor heel wat minder oppervlakte betaald hebt voor redelijk vergelijkbare prestaties met een RTX3080. PCB ontwerpen zal je ook kunnen hergebruiken op deze manier. De RTX3080 is dan een beetje overbodig, dus die laat Nvidia stilletjes verdwijnen. Dan de RTX3080Ti ook met 82SM's en 12GB op $899-$999. RTX3090 verkoop je voor het privilege van 24GB aan VRAM.

Ik kijk ook naar de langere termijn. De verhalen dat we eind volgend jaar al Hopper krijgen op "5nm", welke 5nm dat ook mag zijn want ik weet nog zo net niet of het TSMC zal zijn, tja ik heb zo mijn twijfels. Ik denk eerder dat de eerste Hopper pas ergens diep in H1/2022 zal verschijnen en dat zal dan GH100 zijn. GH102 etc later in het jaar. Tja, AMD heeft dan allang RDNA3 uitgebracht want die zitten inmiddels ook daar met afwisselende teams te "tick tocken". Als ik gelijk krijg met mijn vermoeden, dan kan Nvidia wel eens gedwongen worden om op kosten te gaan concurreren in het laatste deel van de Ampere levenscyclus. Veel heeft "Navi 31" niet nodig om GA102 echt helemaal te verslaan. We weten nu nog niet eens echt wat de RX6900XT gaat doen tegenover de RTX3090, maar het zullen geen grote marges zijn, wie dat ook wint.
Allemaal die theoretische producten als een GA103 (die nooit zal verschijnen) zouden even goed de huidige lineup opvreten. De 2080S zou ook een nieuwe chip worden. En er zou ook een 2080 Ti Super komen, ook met een geheel nieuwe chip.

Feit is dat de laatste keer dat Nvidia een 3 in de naam van een chip gebruikte, G73 was. Dat was een 7650 of iets dergelijks. De laatste 1 was G71, de 7900 en consorten. Het enige cijfer dat we met de "huidige" naamgeving hebben gezien, maar al heel lang niet meer, is de 5. Dat was GT215, de chip van de GT240 (lekker verwarrend :P).

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 7 december 2020 @ 21:29:
[...]

Allemaal die theoretische producten als een GA103 (die nooit zal verschijnen) zouden even goed de huidige lineup opvreten. De 2080S zou ook een nieuwe chip worden. En er zou ook een 2080 Ti Super komen, ook met een geheel nieuwe chip.

Feit is dat de laatste keer dat Nvidia een 3 in de naam van een chip gebruikte, G73 was. Dat was een 7650 of iets dergelijks. De laatste 1 was G71, de 7900 en consorten. Het enige cijfer dat we met de "huidige" naamgeving hebben gezien, maar al heel lang niet meer, is de 5. Dat was GT215, de chip van de GT240 (lekker verwarrend :P).
En als Nvidia het wel doet, tja dan heb ik mezelf niet in die hoek gepraat. Ik zeg niet dat GA103 een ding is, maar ik sluit het ook niet uit. Zeker niet omdat de leaker die zoveel goed had over Ampere, er maar niet over kan ophouden. Verder weten we allebei volgens mij wel dat Nvidia het graag verwarrend en soms vreemd wil maken. ;)

En in ander Nvidia nieuws. Nou de game komt eraan en ik zit wat indrukken te kijken. Nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077. Blijkbaar zijn er plekken waar het echt heel erg blurry is. Want dat is wat Nvidia echt nodig heeft, alweer gedoe met hun tech in een CD Projekt Red game. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
DaniëlWW2 schreef op maandag 7 december 2020 @ 21:41:Blijkbaar zijn er plekken waar het echt heel erg blurry is.
Ik heb een aantal previews gezien, maar niets over DLSS. Welke preview zegt daar iets over?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

cnieuweboer schreef op maandag 7 december 2020 @ 22:16:
[...]


Ik heb een aantal previews gezien, maar niets over DLSS. Welke preview zegt daar iets over?
YouTube: Cyberpunk 2077 After 30 Hours - Easy Allies Impressions

Er komt blijkbaar nog een enorme patch en er lijkt wel meer wat buggy te zijn, maar deze sprong er meteen uit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
DaniëlWW2 schreef op maandag 7 december 2020 @ 22:22:
[...]


YouTube: Cyberpunk 2077 After 30 Hours - Easy Allies Impressions

Er komt blijkbaar nog een enorme patch en er lijkt wel meer wat buggy te zijn, maar deze sprong er meteen uit.
De preview builds lijken inderdaad nogal buggy. Maar specifiek voor DLSS is het niet duidelijk welke settings hij gebruikt. Hij noemt alleen de high performance DLSS instelling, en die is echt niet bedoeld voor "as good as native". Daar een uitspraak op baseren als "nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077" is wel wat voorbarig. Is er iemand die dat beter heeft getest?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

cnieuweboer schreef op dinsdag 8 december 2020 @ 00:45:
[...]


De preview builds lijken inderdaad nogal buggy. Maar specifiek voor DLSS is het niet duidelijk welke settings hij gebruikt. Hij noemt alleen de high performance DLSS instelling, en die is echt niet bedoeld voor "as good as native". Daar een uitspraak op baseren als "nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077" is wel wat voorbarig. Is er iemand die dat beter heeft getest?
DLSS is de game op een lagere resolutie renderen edit: upscaling algoritme toepassen en een sharpening filter toepassen. Als het blurry is, dan werkt het dus niet. Het hele punt is verhullen dat de game op een lagere resolutie is gerenderd en er dus blurry eruit hoort te zien. DLSS 1.0 was ook zo blurry en dat kwam omdat Nvidia hun model voor 1.0 ook niet werkte.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

Het ziet er naar uit dat als je géén DLSS gebruikt en wel Ray Tracing op Ultra, dat je met een RTX 3090 net aan 60FPS haalt op 1080p@Ultra :+ Met RT op Ultra haal je met een 3090 op 4K@Ultra niet eens 20FPS. Tja, wat moeten we daarvan vinden? Als DLSS niet werkt, zou ik RT niet gebruiken in deze game... Hopelijk doet de 50GB Day-1 patch wat hieraan.

Naast RT en DLSS wordt er ook gekeken door Tom's naar algemene performance, zonder nVidia specifieke settings. Op lage resolutie en IQ wint de 6800XT stevig, ook van de RTX3090. Maar zodra de resoluties en settings omhoog gaan lijkt het mij meer een nVidia preferred game:

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/m3k2BqyYYVPmm6mkVYnnJj.png

Maar daar zal de "AMD Discussion Club" wel van alles van vinden :*) Komt u maar door.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic



Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
DaniëlWW2 schreef op dinsdag 8 december 2020 @ 09:03:
[...]


DLSS is de game op een lagere resolutie renderen en een sharpening filter toepassen. Als het blurry is, dan werkt het dus niet. Het hele punt is verhullen dat de game op een lagere resolutie is gerenderd en er dus blurry eruit hoort te zien. DLSS 1.0 was ook zo blurry en dat kwam omdat Nvidia hun model voor 1.0 ook niet werkte.
DLSS is AI upscaling, niet alleen een sharpening filter. Als je daar meer over wil weten is er genoeg informatie te vinden op het internet (maar gezien je andere reacties op dit forum denk ik dat je dat wel weet, troll-post?).

En er zijn meerdere in-game instellingen voor DLSS: quality, balanced, performance en ultra performance. Die instellingen zijn letterlijk telkens lagere render resoluties. En die instellingen zijn er niet voor niets, je kunt niet verwachten dat de performance instelling er net zo goed uitziet als de quality instelling. In spellen met DLSS 2.0 die al uitgebracht zijn is alleen de quality instelling ongeveer net zo goed als de originele resolutie.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

cnieuweboer schreef op dinsdag 8 december 2020 @ 10:11:
[...]


DLSS is AI upscaling, niet alleen een sharpening filter. Als je daar meer over wil weten is er genoeg informatie te vinden op het internet (maar gezien je andere reacties op dit forum denk ik dat je dat wel weet, troll-post?).

En er zijn meerdere in-game instellingen voor DLSS: quality, balanced, performance en ultra performance. Die instellingen zijn letterlijk telkens lagere render resoluties. En die instellingen zijn er niet voor niets, je kunt niet verwachten dat de performance instelling er net zo goed uitziet als de quality instelling. In spellen met DLSS 2.0 die al uitgebracht zijn is alleen de quality instelling ongeveer net zo goed als de originele resolutie.
Ik weet hoe DLSS2.0 werkt dank je. Dat ik nu drie woordjes vergeet, zie edit, omdat ik de reactie even heel snel typte terwijl ik wat anders deed, geeft jou alleen absoluut het recht niet om mij zo te gaan beschuldigen.

Nota bene ben ik ook nog eens behoorlijk dyslectisch tot het punt dat ik dus een zeer matige feedback loop heb als het om tekst gaat. Ik kan zo delen van de beoogde zinsstructuur missen die ik in mijn hoofd wel heb getypt en ik heb werkelijk geen idee totdat ik het later teruglees. Dat gebeurd vaak als ik lange reacties en/of te snel typ. Ook mis ik vaak woorden omdat ik sneller denk dan ik kan verwerken wat ik heb getypt en zo vallen woorden dus ook weg. Wederom, dat effect word sterker als ik snel iets typ.

Om het nog maar even heel duidelijk te maken. Dergelijke reacties zijn niet alleen vrij onbeschoft in het algemeen of zeer ongewenst op dit forum, maar het is ook vrij, laten we zeggen onhandig om dit juist bij een moderator te gaan doen. Daar laat ik het maar bij. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Volgens een bericht op de Franse site Cowcotland lijken de tekorten aan RTX3070's en RTX3060Ti's niet alleen door een gebrek aan substraten te komen, maar ook door een tijdelijk gebrek aan GDDR6 geheugen. Bij de RTX3080 en de RTX3090 speelde dat probleem niet, omdat die twee laatste kaarten met GDDR6X geheugen werken: https://nl.hardware.info/...or-tekort-aan-gddr6-chips

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
DaniëlWW2 schreef op dinsdag 8 december 2020 @ 10:47:Ik weet hoe DLSS2.0 werkt dank je. Dat ik nu drie woordjes vergeet, zie edit, omdat ik de reactie even heel snel typte terwijl ik wat anders deed, geeft jou alleen absoluut het recht niet om mij zo te gaan beschuldigen.
Het gaat niet om alleen 3 woordjes vergeten. Je beweert op basis van 1 anekdote dat DLSS echt kapot is. En je gaat voorbij aan verschillende DLSS instellingen en waar die voor bedoeld zijn. Dat creëert een beeld dat je niet weet waar je het over hebt, of trollt.
Als die youtuber bijvoorbeeld op DLSS ultra performance mode blurry beeld krijgt, is dat niet zo verwonderlijk. Maar als dat op DLSS quality mode gebeurd is er wel iets meer aan de hand. Het punt is dat we dat niet op kunnen maken uit zijn (warrige) verhaal.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

DaniëlWW2 schreef op maandag 7 december 2020 @ 18:25:
En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.
Werelds schreef op maandag 7 december 2020 @ 21:29:
Allemaal die theoretische producten als een GA103 (die nooit zal verschijnen) zouden even goed de huidige lineup opvreten. De 2080S zou ook een nieuwe chip worden. En er zou ook een 2080 Ti Super komen, ook met een geheel nieuwe chip.
Er zijn steeds meer geruchten over de GA103. Hier komt ie ook weer terug op de frontpage:
https://tweakers.net/nieu...3070-ti-3060-en-3050.html

Maar dan voor de 3070 Ti, de 3080 Ti blijft een GA102.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

cnieuweboer schreef op dinsdag 8 december 2020 @ 14:20:
[...]


Het gaat niet om alleen 3 woordjes vergeten. Je beweert op basis van 1 anekdote dat DLSS echt kapot is. En je gaat voorbij aan verschillende DLSS instellingen en waar die voor bedoeld zijn. Dat creëert een beeld dat je niet weet waar je het over hebt, of trollt.
Als die youtuber bijvoorbeeld op DLSS ultra performance mode blurry beeld krijgt, is dat niet zo verwonderlijk. Maar als dat op DLSS quality mode gebeurd is er wel iets meer aan de hand. Het punt is dat we dat niet op kunnen maken uit zijn (warrige) verhaal.
DaniëlWW2 schreef op maandag 7 december 2020 @ 21:41:
En in ander Nvidia nieuws. Nou de game komt eraan en ik zit wat indrukken te kijken. Nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077. Blijkbaar zijn er plekken waar het echt heel erg blurry is. Want dat is wat Nvidia echt nodig heeft, alweer gedoe met hun tech in een CD Projekt Red game. :P
Je wil het er toch echt zelf in lezen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op maandag 7 december 2020 @ 18:25:
[...]


En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.

Een GA103 met 60SM's/3840/7680 Cuda Cores en een 320 bit bus/10GB GDDR6X als RTX3070Ti voor $600-$650, tja ik sluit het niet uit. Dan heb je iets dat beter op zou moeten kunnen tegen Navi 21 en voornamelijk voor Nvidia iets waar wel eens meer marge op kan zitten omdat je voor heel wat minder oppervlakte betaald hebt voor redelijk vergelijkbare prestaties met een RTX3080. PCB ontwerpen zal je ook kunnen hergebruiken op deze manier. De RTX3080 is dan een beetje overbodig, dus die laat Nvidia stilletjes verdwijnen. Dan de RTX3080Ti ook met 82SM's en 12GB op $899-$999. RTX3090 verkoop je voor het privilege van 24GB aan VRAM.

Ik kijk ook naar de langere termijn. De verhalen dat we eind volgend jaar al Hopper krijgen op "5nm", welke 5nm dat ook mag zijn want ik weet nog zo net niet of het TSMC zal zijn, tja ik heb zo mijn twijfels. Ik denk eerder dat de eerste Hopper pas ergens diep in H1/2022 zal verschijnen en dat zal dan GH100 zijn. GH102 etc later in het jaar. Tja, AMD heeft dan allang RDNA3 uitgebracht want die zitten inmiddels ook daar met afwisselende teams te "tick tocken". Als ik gelijk krijg met mijn vermoeden, dan kan Nvidia wel eens gedwongen worden om op kosten te gaan concurreren in het laatste deel van de Ampere levenscyclus. Veel heeft "Navi 31" niet nodig om GA102 echt helemaal te verslaan. We weten nu nog niet eens echt wat de RX6900XT gaat doen tegenover de RTX3090, maar het zullen geen grote marges zijn, wie dat ook wint.
Een 3090 heeft wel ~20% meer actieve cuda cores tov een 3080 maar om die tot uiting te laten komen en laten schalen moet dat ook met de powerlimit. Zoals een verhoging naar 390W van sommige AIB modellen, of evenredig voor een 3080 omlaag kan ook.

Zie een eerder 3090 Strix review.
The RTX 3080 has 8704 shaders, and the RTX 3090 has 10496, which is 20% more, so where's the rest of the performance? On the RTX 3090 reference, the power limit has been set only marginally higher than on the RTX 3080 to keep power/heat/noise at reasonable levels, 320 W vs. 350 W. ASUS was wise to raise that limit much further, to 390 W, which helps gain additional performance over the base RTX 3090. The difference from 320 to 390 W is 22%, pretty close to the 19% performance difference we measured. It looks like Ampere performance mostly scales with the power limit, not clocks or shaders.
Er blijkt inmiddels uit de 6900XT reviews dat er gemiddeld een 6 á 7% verschil is op 4K tussen een 3090 FE en wordt kleiner op gelijke power limit. Complexere RT ipv schaduweffecten is nog niet op niveau maar dit ook de eerste stap voor AMD. En de prijs is lager maar of ze daar op korte termijn voor te koop zijn.. misschien net zo weinig als FE's voor de adviesprijzen. NL tot op heden al uitgesloten bij Nvidia helaas. Er op in springen met een 3080Ti FE kan maar moeten beide partijen er geen msrp vaporware van maken.
Nvidia heeft deze ronde nog in absolute prestaties maar dat wisten ze wellicht want dat is zeker niet op prijs gedaan. Een volgende generatie zal van beide fabrikanten weer sneller zijn, koop je die en zal die daarop ook weer sneller zijn. Zo gaat dat nou eenmaal. Normaal gesproken gaat het ook meer om de mainstream markt en daarvoor is de huidige concurrentie alleen maar goed en zijn geen van die kaarten een slechte keus tov een jaar geleden dacht ik. Beide kampen mogen er ieder geval hard aan gaan trekken om elkaar voor te blijven. Tijdje geleden. ;)

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Tja TI modelen klinkt leuk maar ik denk dat beide bedrijven eerst even de huidige paar chips kunnen gebruiken en alle productie daar vol op inzetten ipv nog meer producten de markt in te slingeren die niet te koop zijn.
Des te meer sku's des te meer dev kosten voor de kaarten en des te hogere prijzen.
Ik begin aardig wanhopig te worden want mijn kaart staat echt al met 1 been in de kist en ik zit meer te wachten op beschikbaarheid van de nieuwe kaarten dan nog meer modellen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op dinsdag 8 december 2020 @ 20:02:
[...]

[...]

Er zijn steeds meer geruchten over de GA103. Hier komt ie ook weer terug op de frontpage:
https://tweakers.net/nieu...3070-ti-3060-en-3050.html

Maar dan voor de 3070 Ti, de 3080 Ti blijft een GA102.
Dat het op de FP staat zegt niet veel, is gewoon een opsomming van geruchten ;)

We zullen het wel zien, ik geloof er nog steeds niet in. Nvidia is erg consistent in de naamgeving van hun chips en een "x3" past gewoon niet in het rijtje. Los van het feit dat die hypothetische producten in die tabel nog steeds de bestaande lineup volledig kannibaliseren. Die 3080 Ti kunnen ze niet inzetten zonder de 3080 of de 3090 irrelevant te maken - sterker nog, met de (on)juiste prijs zou die beide pijn kunnen doen. En dat geldt nog meer voor die 3070 Ti. Die RTX 3060 12GB zie ik ook niet zitten, dat kunnen ze marketingtechnisch niet verantwoorden.
M-spec schreef op dinsdag 8 december 2020 @ 22:21:
Een 3090 heeft wel ~20% meer actieve cuda cores tov een 3080 maar om die tot uiting te laten komen en laten schalen moet dat ook met de powerlimit. Zoals een verhoging naar 390W van sommige AIB modellen, of evenredig voor een 3080 omlaag kan ook.
Het verschil in performance is helemaal niet zo lastig, maar de meeste tech pers gaat gewoon in Nvidia's BS marketing mee.

20% meer "CUDA cores" is te kort door de bocht. De helft van die ALU's is dual-issue FP32/INT32. Dat wil zeggen dat er in het slechtste geval slechts 10% meer FP32 beschikbaar is (omdat die units INT32 zitten te doen) en dat is de leidende factor voor performance. En in de praktijk is inmiddels gebleken dat 30-40% meer FP32 throughput via die dual-issue units al een goed resultaat is, in de meeste games blijft dat op 20-25% steken, als het al zo ver komt. En dat alles draait dan op iets lagere kloksnelheden dan in de 3080. En de scheduler zal maar zelden álle extra units aan het werk kunnen zetten.

Zo verrassend is het kleine verschil tussen die twee producten dus niet.

  • PigletCNC
  • Registratie: Oktober 2020
  • Laatst online: 24-10-2024
computerjunky schreef op dinsdag 8 december 2020 @ 23:15:
Tja TI modelen klinkt leuk maar ik denk dat beide bedrijven eerst even de huidige paar chips kunnen gebruiken en alle productie daar vol op inzetten ipv nog meer producten de markt in te slingeren die niet te koop zijn.
Des te meer sku's des te meer dev kosten voor de kaarten en des te hogere prijzen.
Ik begin aardig wanhopig te worden want mijn kaart staat echt al met 1 been in de kist en ik zit meer te wachten op beschikbaarheid van de nieuwe kaarten dan nog meer modellen.
Ah! Maar er is nuance in de zaak. De 3060ti gebruikt bijvoorbeeld dezelfde chip als de 3070, maar een van lagere kwaliteit. Hetzelfde zal hoogstwaarschijnlijk gelden voor de 3070ti tov de 3080.

Dus het zijn eigenlijk chips die ze nu gebruiken die anders weggegooid kunnen worden omdat de chips niet goed genoeg zijn voor de modellen waarvoor ze bedoeld zijn.

En dan passen ze nog wat extra dingen aan zodat het verschil weer wat groter is.

  • M-spec
  • Registratie: September 2004
  • Niet online
Werelds schreef op woensdag 9 december 2020 @ 11:46:

[...]

Het verschil in performance is helemaal niet zo lastig, maar de meeste tech pers gaat gewoon in Nvidia's BS marketing mee.

20% meer "CUDA cores" is te kort door de bocht. De helft van die ALU's is dual-issue FP32/INT32. Dat wil zeggen dat er in het slechtste geval slechts 10% meer FP32 beschikbaar is (omdat die units INT32 zitten te doen) en dat is de leidende factor voor performance. En in de praktijk is inmiddels gebleken dat 30-40% meer FP32 throughput via die dual-issue units al een goed resultaat is, in de meeste games blijft dat op 20-25% steken, als het al zo ver komt. En dat alles draait dan op iets lagere kloksnelheden dan in de 3080. En de scheduler zal maar zelden álle extra units aan het werk kunnen zetten.

Zo verrassend is het kleine verschil tussen die twee producten dus niet.
Voor een 3090 FE out of the box niet zo verrassend, dat klopt. Maar dit kan met verhogen van de power limit dus nog oplopen tot 19% bij een bijna evenredige power draw. Ook een iets bredere geheugenbus, het totaal aan geheugen pakt nog iets meer power. Op dat punt is het verschil weer bijna hetzelfde als 2080S en 2080Ti.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:54

XanderDrake

Build the future!

DaniëlWW2 schreef op maandag 7 december 2020 @ 21:41:
Nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077. Blijkbaar zijn er plekken waar het echt heel erg blurry is. Want dat is wat Nvidia echt nodig heeft, alweer gedoe met hun tech in een CD Projekt Red game. :P
Ik heb net een filmpje gekeken van LTT waar ze Cyberpunk draaien met DLSS op 8k en dergelijke. Maar nee, ik zie ook niet waarom jij zou zeggen dat DLSS kapot zou zijn.

Je hebt allerlei DLSS settings en bijvoorbeeld de Quality setting is niet echt te onderscheiden van DLSS off. Misschien jou filmpje hem op performance staan ofzo?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03-01 03:41
XanderDrake schreef op maandag 16 november 2020 @ 19:55:
[...]

Ik ben heeeel benieuwd of een midrange kaart op steriods sneller gaat zijn dan mijn GTX 1080 Ti!
Gedateerd kaartje hoor :X

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Verwijderd

XanderDrake schreef op donderdag 10 december 2020 @ 07:57:
[...]

Ik heb net een filmpje gekeken van LTT waar ze Cyberpunk draaien met DLSS op 8k en dergelijke. Maar nee, ik zie ook niet waarom jij zou zeggen dat DLSS kapot zou zijn.

Je hebt allerlei DLSS settings en bijvoorbeeld de Quality setting is niet echt te onderscheiden van DLSS off. Misschien jou filmpje hem op performance staan ofzo?
Ligt ook aan je resolutie, op 1440p is eigenlijk alles beneden de "quality" DLSS setting behoorlijk wazig.
(In zowel Cyberpunk als Watch Dogs Legion bijvoorbeeld) Op 4k en 8k zullen de lagere instellingen het beduidend beter doen.
Vooralsnog kan ik alleen maar zeggen dat DLSS me toch een beetje tegen valt, het draagt zeker bij aan betere frame rates, maar in de spellen die ik tot nu toe gespeeld heb is dit onvoldoende om de performance-hit van Ray tracing te compenseren. (Op 1440p iig)
Tenzij je bereid bent om de aanzienlijke vermindering in scherpte en beeldkwaliteit van "Balanced" of "Performance" te accepteren.
Ik zou DLSS zelf ook niet direct "kapot" noemen, maar ik zou de lagere instellingen ook nooit gebruiken...

Vind dit ook wel een minpuntje van de de diverse "tech kanalen": Er wordt voornamelijk gekeken naar de prestaties bij 4k , waarbij (de combinatie van) beide nieuwe technieken de hemel in geprezen worden, terwijl het op 1440p veel minder indrukwekkend is.

[ Voor 13% gewijzigd door Verwijderd op 11-12-2020 08:14 ]


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Inzake de techtubers, hadden jullie deze al meegekregen?

Afbeeldingslocatie: https://tweakers.net/i/_9SIKF2ABVWyd1XMUpT78uVtI_0=/800x/filters:strip_icc():strip_exif()/f/image/mzOMzak1evJItUQDZkJfU6l2.jpg?f=fotoalbum_large

iR Profiel


  • kerath
  • Registratie: September 2020
  • Laatst online: 03-02 21:39
onsgeluk schreef op vrijdag 11 december 2020 @ 09:50:
Inzake de techtubers, hadden jullie deze al meegekregen?

[Afbeelding]
Censuur is nooit juiste weg... Kan me niet voorstellen dat dit Nividia gaat opleveren wat ze in gedachten hebben, immers waar rook is, is vuur. En nu creer je juist aandacht voor rasterization.. :?

  • WillemAtHome
  • Registratie: September 2000
  • Laatst online: 18-01 22:44

WillemAtHome

Waar geen wil is, is geen weg.

kerath schreef op vrijdag 11 december 2020 @ 09:54:
[...]


Censuur is nooit juiste weg... Kan me niet voorstellen dat dit Nividia gaat opleveren wat ze in gedachten hebben, immers waar rook is, is vuur. En nu creer je juist aandacht voor rasterization.. :?
Het betekend in ieder geval dat Nvidia voelt dat er concurrentie is.

Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
YouTube: Hardware Unboxed - YouTube

https://share.getcloudapp.com/kpuNKEqn

Ik ga hier niet eens woorden aan vuil maken. Wat een grap.

[ Voor 25% gewijzigd door Werelds op 11-12-2020 10:32 ]


  • chris_vanr
  • Registratie: September 2014
  • Laatst online: 20-06-2025
Ik zag dit ook vanochtend, wat een bizarre actie van nVidia. Hier mag best wel wat aandacht aan gegeven worden door Tweakers IMO.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

chris_vanr schreef op vrijdag 11 december 2020 @ 11:01:
[...]


Ik zag dit ook vanochtend, wat een bizarre actie van nVidia. Hier mag best wel wat aandacht aan gegeven worden door Tweakers IMO.
Dus, de outlets die nog wel kaarten krijgen, rapporteren die nu vrijwillig conform het gewenste nvidia narratief.... ?

vragen, vragen....

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het zat er langzaam aan te komen...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Domme actie weer |:(. Dit gaat alleen maar vuil opleveren voor Nvidia en dat weten ze zelf (nu) ook. De persoon in marketing/pr whatever die dit heeft bedacht gaat waarschijnlijk een slecht weekend tegemoet. Je ziet zo af en toe acties voorbij komen van de techreuzen.....

Uiteindelijk zal het wel met een sisser aflopen, want we weten allemaal hoe mensen met een internet connectie en een toetsenbord zijn. Die gaan gelijk nuclear en Nvidia gaat dan vervolgens gauw lijmen achter de schermen.

Vraag met dan wel af welke uitspraak de druppel is geweest voor de verstoorde relatie :P

  • RobinNL
  • Registratie: December 2009
  • Nu online
Is het niet mogelijk dat reviewers tijdelijk de kaart uitlenen aan Hardware Unboxed om een review te kunnen laten maken? Ik dacht dat er ook zoiets werd gedaan tussen HWI en Tweakers vroeger.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
sjekneck schreef op vrijdag 11 december 2020 @ 11:14:
Vraag met dan wel af welke uitspraak de druppel is geweest voor de verstoorde relatie :P
Dat snap ik dus niet. Het kan niet aan hun benchmark suite liggen, want ze hebben 5 van de 6 games die níet beperkt zijn tot Nvidia in hun repertoire. De 6e game is World of Warcraft :+

Of wil Nvidia dat ze games benchmarken die enkel met andere RTX kaarten te vergelijken zijn?
RobinNL schreef op vrijdag 11 december 2020 @ 11:14:
Is het niet mogelijk dat reviewers tijdelijk de kaart uitlenen aan Hardware Unboxed om een review te kunnen laten maken? Ik dacht dat er ook zoiets werd gedaan tussen HWI en Tweakers vroeger.
Ze krijgen alleen geen Founders Edition kaarten, wat effectief betekent dat ze geen reviews meer op launchday kunnen doen. HWU heeft daar verder schijt aan en zal gewoon AIB kaarten blijven reviewen als ze uit komen, is niet de eerste keer voor ze :)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RobinNL schreef op vrijdag 11 december 2020 @ 11:14:
Is het niet mogelijk dat reviewers tijdelijk de kaart uitlenen aan Hardware Unboxed om een review te kunnen laten maken? Ik dacht dat er ook zoiets werd gedaan tussen HWI en Tweakers vroeger.
Dat hebben ze daar wel eerder gedaan. Verder kopen ze daar ook wel videokaarten als het nodig is. Het is voornamelijk rond launches met alleen FE modellen waar dit pijn gaat doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:29
onsgeluk schreef op vrijdag 11 december 2020 @ 09:50:
Inzake de techtubers, hadden jullie deze al meegekregen?

[Afbeelding]
Slechte zaak, gelukkig valt daar wel makkelijk omheen te werken.
Moet trouwens wel zeggen dat ik zelf ook vond dat ze weinig deden in reviews met raytracing en de andere software features die imho deze generatie, naast de verkrijgbaarheid, verwacht ik toch de belangrijkste selling points zullen zijn. Maar goed daar zijn ze bij lange na niet de enige in.

Die paar % her en der in rasterization performance vind ik eigenlijk niet zo heel interessant als ik zelf eerlijk moet zijn, die is bij alle kaarten gewoon goed en doen mij in ieder geval niet overhalen om kaart X te kopen van met Y in plaats van kaart A van merk B.

Wel grappig dat alle fanboy's direct weer losgaan op Twitter onder dat bericht.

[ Voor 3% gewijzigd door Dennism op 11-12-2020 11:28 ]


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 10:22
Werelds schreef op vrijdag 11 december 2020 @ 11:20:
[...]

Dat snap ik dus niet. Het kan niet aan hun benchmark suite liggen, want ze hebben 5 van de 6 games die níet beperkt zijn tot Nvidia in hun repertoire. De 6e game is World of Warcraft :+

Of wil Nvidia dat ze games benchmarken die enkel met andere RTX kaarten te vergelijken zijn?


[...]

Ze krijgen alleen geen Founders Edition kaarten, wat effectief betekent dat ze geen reviews meer op launchday kunnen doen. HWU heeft daar verder schijt aan en zal gewoon AIB kaarten blijven reviewen als ze uit komen, is niet de eerste keer voor ze :)
Steve heeft bij meerdere recente reviews aangegeven dat RTX niet aan hem besteed met best venijnige uitspraken. Hij is stevig kritisch geweest over de performance hit die RTX geeft en volgens hem voegt het weinig toe. Ik kan de video's die ik bedoel zo snel niet meer vinden want er zijn nogal wat RTX30xx video's van HWU uitgekomen sinds de 3080 release.

Wie goed doet, die goed ontmoet.


  • M-spec
  • Registratie: September 2004
  • Niet online
Dat is niet best nee. Een ban omdat een manier van reviewen je niet bevalt.. met zoveel viewers. Zolang een review maar objectief blijft. Er zal vast iets meer aan vooraf zijn gegaan.

[ Voor 21% gewijzigd door M-spec op 11-12-2020 18:02 ]

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op vrijdag 11 december 2020 @ 11:25:
Slechte zaak, gelukkig valt daar wel makkelijk omheen te werken.
Moet trouwens wel zeggen dat ik zelf ook vond dat ze weinig deden in reviews met raytracing en de andere software features die imho deze generatie, naast de verkrijgbaarheid, verwacht ik toch de belangrijkste selling points zullen zijn. Maar goed daar zijn ze bij lange na niet de enige in.
Zie mijn post in het andere draadje: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Hoe kunnen ze meer aan RT doen, als er niet meer beschikbaar is? Ze testen 5 games die RT correct via DXR doen; de enige andere game die ze zouden kunnen testen is WoW. Niet bepaald interessant. Vervolgens testen ze ook gewoon met meerdere DLSS settings en testen ze meerdere RT presets. Hoe veel meer kunnen ze doen?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Dennism schreef op vrijdag 11 december 2020 @ 11:25:
[...]


Slechte zaak, gelukkig valt daar wel makkelijk omheen te werken.
Moet trouwens wel zeggen dat ik zelf ook vond dat ze weinig deden in reviews met raytracing en de andere software features die imho deze generatie, naast de verkrijgbaarheid, verwacht ik toch de belangrijkste selling points zullen zijn. Maar goed daar zijn ze bij lange na niet de enige in.

Die paar % her en der in rasterization performance vind ik eigenlijk niet zo heel interessant als ik zelf eerlijk moet zijn, die is bij alle kaarten gewoon goed en doen mij in ieder geval niet overhalen om kaart X te kopen van met Y in plaats van kaart A van merk B.

Wel grappig dat alle fanboy's direct weer losgaan op Twitter onder dat bericht.
Ik denk dat ze de focus er niet op hebben omdat de patreons en community daar niet om vraagd. Om de zoveel tijd stellen ze een vraag en maken ze content op basis van dat antwoord. Als 90% geen interesse heeft in RT dan is dat een duidelijk signaal en dat zou voor Nviida ook een duidelijk signaal moeten zijn dat het gewoon nog niet genoeg ingeburgerd is.
Nu weet ik niet of ze deze vraag specifiek hebben gevraagd; maar ik zie een boel vergelijkbare vragen voorbij komen op hun channel.

Ik vind het in ieder geval een laffe zet van Nvidia, maar het is hun goed recht.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Werelds schreef op vrijdag 11 december 2020 @ 12:05:
[...]

Zie mijn post in het andere draadje: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Hoe kunnen ze meer aan RT doen, als er niet meer beschikbaar is? Ze testen 5 games die RT correct via DXR doen; de enige andere game die ze zouden kunnen testen is WoW. Niet bepaald interessant. Vervolgens testen ze ook gewoon met meerdere DLSS settings en testen ze meerdere RT presets. Hoe veel meer kunnen ze doen?
Ze moeten het verheerlijken zoals Digital Foundry; die doen alsof het wiel opnieuw is uitgevonden :+.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:29
Werelds schreef op vrijdag 11 december 2020 @ 12:05:
[...]

Zie mijn post in het andere draadje: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Hoe kunnen ze meer aan RT doen, als er niet meer beschikbaar is? Ze testen 5 games die RT correct via DXR doen; de enige andere game die ze zouden kunnen testen is WoW. Niet bepaald interessant. Vervolgens testen ze ook gewoon met meerdere DLSS settings en testen ze meerdere RT presets. Hoe veel meer kunnen ze doen?
Het is natuurlijk niet alleen raytracing, al zou ik juist WoW wel interessant vinden, waarom? 2 ledig:

1 het is de enige game momenteel die ik speel die RT support heeft (al zal CP 2077 daarbij komen wanneer die game enige tijd uit is). Dus voor mij zou het een extreem relevante test zijn aangezien dat het workload is die ik veel draai. Dat jij schijnbaar WoW, om welke reden dan ook niet interessant vind, neemt niet weg dat deze game voor miljoenen wel interessant is, het is immers nog steeds de leading MMO in de wereld en het zou mij weinig verbazen als WoW na de meest verkochte RT titel op dit moment is, en ik verwacht de op 2 na meest gespeelde titel (op Fortnite na). Dat lijkt mij dan juist een zeer relevante titel om te testen.
2. Voor zover ik weet is WoW een AMD implementatie en niet Nvidia sponsored. Is dus interessant om die verschillen te laten zien aangezien er vermoedens zijn dat AMD's implementatie mogelijk in nieuwere titels het beter zou doen.

Daarnaast zou ik graag zien dat reviews dieper in zouden gaan op de overige software features. wat biedt RIS mij in bepaalde situaties, hoe goed is RTX voice / Broadcast voor multiplayers games / streaming. Dat soort dingen, juist de "unique" selling points meer belichten, dat zou ik persoonlijk interessanter vinden dan een focus op rasterization performance waar weinig verschil zit tussen de kaarten en iedere kaart het gewoon goed doet en presteert zoals van te voren eigenlijk al voorspelt. Maar goed, dat is een persoonlijke voorkeur natuurlijk.

Kijk je bijvoorbeeld naar de HWU reviews van de 3080 FE dan gaat +-1,5-2 minuten van de 35 minuten over raytracing en testen ze 1 game. Dat vind ik persoonlijk toch echt matig.

Neemt niet weg dat Steve een van de reviewers is waar ik het meeste vertrouwen in heb, maar dit vond ik altijd wel jammer in hun recente gpu reviews.

@Sp3ci3s8472 Dat van de Patreons kan natuurlijk, dat soort vragen stellen ze inderdaad vaak, al weet ik ook niet of daar een vraag is gesteld over raytracing.

Edit: kan geen poll vinden, wel deze reactie over de 6800XT review: https://twitter.com/Hardw...tatus/1329096824410439681

Lijkt er dus dat hoewel er dus wel veel vraag naar lijkt te zijn, dat ze het niet testen omdat het aantal games (nog) laag ligt. Al lijkt dat lijstje van hun niet volledig, WoW heeft bijvoorbeeld ook RT support en had dat ook op die datum van de tweet.

[ Voor 20% gewijzigd door Dennism op 11-12-2020 12:37 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op vrijdag 11 december 2020 @ 12:16:
[...]


Het is natuurlijk niet alleen raytracing, al zou ik juist WoW wel interessant vinden, waarom? 2 ledig:

1 het is de enige game momenteel die ik speel die RT support heeft (al zal CP 2077 daarbij komen wanneer die game enige tijd uit is).
2. Voor zover ik weet is WoW een AMD implementatie en niet Nvidia sponsored. Is dus interessant om die verschillen te laten zien aangezien er vermoedens zijn dat AMD's implementatie mogelijk in nieuwere titels het beter zou doen.
WoW heeft echter ook meerdere problemen waardoor het vanuit technisch perspectief niet echt spannend. Het is bijzonder dynamisch en loopt vrij snel tegen een CPU limiet aan. Met RT zal het vast tegen een GPU limiet aan lopen, echter is dat ook bijzonder misleidend doordat de rest van het spel de GPU nauwelijks belast. Het is een onevenredige belasting, waardoor de balans tussen verschillende chips er waarschijnlijk heel vreemd uit ziet (in negatieve zin). Ik weet niet of er al ergens een site het spel gebenchmarkt heeft, dus wellicht heb ik het mis, maar ik zie niet in hoe het spel een goede benchmark zou zijn :)
Daarnaast zou ik graag zien dat reviews dieper in zouden gaan op de overige software features. wat biedt RIS mij in bepaalde situaties, hoe goed is RTX voice / Broadcast voor multiplayers games / streaming. Dat soort dingen, juist de "unique" selling points meer belichten, dat zou ik persoonlijk interessanter vinden dan een focus op rasterization performance waar weinig verschil zit tussen de kaarten en iedere kaart het gewoon goed doet en presteert zoals van te voren eigenlijk al voorspelt. Maar goed, dat is een persoonlijke voorkeur natuurlijk.
Op die manier loop je echter ook het risico een reclame video te maken. Zoiets als RTX voice heeft al eigen video's en behoeft niet gebenchmarkt te worden bij elke release. Hetzelfde geldt voor zoiets als RIS. Die dingen zijn vrij statisch in hun gedrag en impact, dus om dat nu bij elke release opnieuw te testen heeft weinig nut. Als je dat soort dingen gaat testen, moet je bijvoorbeeld ook telkens gaan kijken wat de impact van Shadowplay is, of wat voor impact OBS met verschillende encoders heeft. Dat zijn echter zulke specifieke usecases dat het publiek van een kanaal als HWU daar gewoon geen behoefte aan heeft.
Kijk je bijvoorbeeld naar de HWU reviews van de 3080 FE dan gaat +-1,5-2 minuten van de 35 minuten over raytracing en testen ze 1 game. Dat vind ik persoonlijk toch echt matig.
Deze gemist dan? YouTube: GeForce RTX 3080 Ray Tracing & DLSS Performance, RTX ON vs OFF ;)

  • WillemAtHome
  • Registratie: September 2000
  • Laatst online: 18-01 22:44

WillemAtHome

Waar geen wil is, is geen weg.

Net even een stukje wow met raytracing gezien en ik zie de meerwaarde niet.
Spelleffects en enchanted weapons voegen geen extra licht toe en dat zou juist het gaafste zijn.
Een vlammende bijl werpt nog steeds een schaduw in plaats van dat het een lichtbron is. Juist voor die effecten zou ik raytracing willen.
Zo'n performance hit voor een minimale raytracing implementatie.
Als je enkel wow speelt kan iemand volgens mij beter een kaart kopen die zonder raytracing de meeste FPS heeft. Dan is ie onder de streep goedkoper uit.

Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.


  • Postman
  • Registratie: Februari 2000
  • Laatst online: 27-01 22:33
Even wat olie op het vuur: ik snap niet dat mensen überhaupt voor de hele raytracing marketing truuk vallen. Het is nog steeds een techniek die in zijn kinderschoenen staat, het voegt in de titels die het gebruiken niet altijd iets toe, en als het al iets toevoegt daalt je performance ontzettend hard (je moet dus óf RT gebruiken óf ultra settings, beide gaat niet).
Daarbij is het maar de vraag of het ooit iets gaat worden. Als de implementatie niet van de grond komt is het 'leuk' dat het er is, maar meer ook niet. Kijk maar naar SLI en CrossFire. Super techniek, geen enkele recente game die hier gebruik van maakt. Voor de 6900XT op CrossFire review hebben ze spellen van 4-5 jaar oud moeten gebruiken, simpelweg omdat er geen recentere titels zijn die het ondersteunen.

Hetzelfde geldt ook voor multi-threading. 'Can it run Crysis' is nog steeds actueel, simpelweg omdat het allemaal op 1 CPU thread draait. Een beetje mainstream CPU heeft tegenwoordig 4 of 6 cores met 8 tot 12 threads. Waarom dan alles single core maken?

In plaats van onnodige technieken bedenken om de 0,1% van de markt even een gimmick te geven (ja zo weinig, wie heeft het er geld om elke 6-12 maanden een nieuwe PC samen te stellen met het duurste van het duurste...) zouden ze iets moeten gaan doen aan optimalisatie en technieken gebruiken die er al jaren zijn. We leven niet meer in de jaren '90, hoe moeilijk kan het zijn om een game engine multi-threaded te maken en dit als spel ontwikkelaar ook te gebruiken.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Opvallend hoeveel beter de 3090 presteert dan de 3080 in Cyberpunk. Dat is meer dan de 10% die we kennen uit de doorsnee benchmarks.

Afbeeldingslocatie: https://tweakers.net/i/TQq4mgyZVi-8zpocp-dJa9GqgNo=/x800/filters:strip_exif()/f/image/ia3bthZa7DVG5IXmUAhWtKrS.png?f=fotoalbum_large

Cyberpunk 2077: PC graphics perf benchmark review

March of the Eagles


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
Ook Witcher 3 doet het ongeveer 20% beter op een 3090. De REDengine van CD Projekt lijkt goed te schalen met grote aantallen shader units. Zie https://www.guru3d.com/ar...90_founder_review,24.html

  • Eikeltje
  • Registratie: Februari 2004
  • Laatst online: 00:33
Je kan dit ook andersom zien, dus als je niet nVidia ophemelt kan je verwachten dat je geen reviewsamples krijgt.. Dit helpt ook niet voor neutrale reviews. Je mag blijkbaar niet het kritiek hebben dan Raytracing momenteel weinig toevoegt.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Eikeltje schreef op vrijdag 11 december 2020 @ 14:44:
[...]


Je kan dit ook andersom zien, dus als je niet nVidia ophemelt kan je verwachten dat je geen reviewsamples krijgt.. Dit helpt ook niet voor neutrale reviews. Je mag blijkbaar niet het kritiek hebben dan Raytracing momenteel weinig toevoegt.
Er hoeft helemaal niemand opgehemeld te worden. maar De 1 de hemel in prijzen en problemen bijna ontkennen en de andere doen voorkomen als irrelevante feate gaat mij te ver. Ik vind zelf DLSS meer potentie hebben op de korte termijn als RTX en ook rtx voice vind ik een topper en reflex heeft potentie maar faalt denk ik bij de implementatie maar lijdt hopelijk wel tot een andere standaard.
Wat heeft AMD ons de afgelopen jaren aan nieuwe features gebracht.
Als een die hard gamer brengt nvidia gewoon veel meer en betere features en ja dat kost helaas een premium maar als niemand die eerste stappen zet komen we nergens.
En dat mag dan wel eens gezegd worden ipv afgezeken omdat het in het begin nvidia exclusief is.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik ga eens een hypothese opwerpen en rustig wachten hoe @Werelds me potentieel neer gaat sabbelen sabelen. :+
Ik denk namelijk dat Cyberpunk 2077 heel erg gecodeerd is rond Turing en dat de reden is waarom er prestatieproblemen zijn voor met name de consoles.

Ik pak hier het liefst 1440p erbij en kijk naar de RTX2070 vs. RX5700 en RTX2070S vs. RX5700XT. Deze hebben namelijk een identiek aantal FP ALU's. Het verschil is altijd dat de Nvidia modellen nog een extra set aan INT ALU's hebben. Ik denk dat deze hier een serieuze rol spelen in het verschil.

Zodra de RX5700XT onder de RTX2070 uitkomt, moet je gaan opletten. Er zijn voorbeelden te bedenken op 4K waar dit gebeurd, maar meestal gebeurd dit niet. Dit gebeurd op 4K wel eens omdat op die resolutie, je zo veel meer pixels hebt die zo veel meer FP instructies vragen om het beeld te vullen, dat een Navi 10 chip simpelweg te weinig ALU's heeft in te weinig georganiseerde rekenclusters. Ik vermoed dat dit hier al op 1440p gebeurd.

De gedachte wordt gesterkt door de 1440p medium resultaten. Hier zullen heel wat INT instructies wegvallen en opeens lopen de RX5700 en RX5700XT weer in. Ik merkte het zelf ook al dat het verlagen van veel compute intensieve effecten eigenlijk een vergelijkbaar effect heeft op framerate als naar medium gaan. Radeon VII en de Navi 21 chips, lijken het simpelweg te kunnen brute forcen omdat ze zoveel meer ALU's hebben in veel meer rekenclusters dan een Navi 10.

Ik vermoed dus dat deze game heel erg geprogrammeerd is rond de specifieke hardwarecapaciteiten van Turing. Waar RDNA maximaal 32x FP32 of 32X INT32 instructies per CU, per clock cycle kan afhandelen, kan Turing maximaal 16x FP32 + 16x INT32 doen per rekencluster. Dat lijkt hier het verschil te maken. Turing had altijd een theoretisch voordeel in aantal af te handelen instructies omdat Turing concurrently FP en INT kan doen, maar het is iets dat echt maar zelden tot uiting komt. Ik vermoed dat dit komt omdat het voor Nvidia veel moeilijker is om dit echt goed te schedulen en ze hier heel erg afhankelijk zijn van de developer om specifiek voor Turing te optimaliseren. Waarschijnlijk is dit echt een best case scenario voor Nvidia.

Als dit klopt, tja dat wordt huilen met de pet op voor consoles, zeker de vorige generatie. Het gemopper is duidelijk en waarschijnlijk ook terecht, maar een snelle fix lijkt er dan ook niet in te zitten. Die GCN based consoles kunnen hier waarschijnlijk echt heel slecht mee omgaan omdat GCN juist veel grotere clusters van instructies wil hebben dan Turing. Dat zou wat verklaren hier.

Afbeeldingslocatie: https://tweakers.net/i/wxwo7gt6TUA-Ld1GMrnKS3k73rI=/800x/filters:strip_icc():strip_exif()/f/image/h6D7qEAsYKgJiDL9a74O5f5c.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/k0G1cX2vQQglKt9HC-BlRWbeyTM=/800x/filters:strip_icc():strip_exif()/f/image/lAE1nVc5hMyxxQqA33rFQ1IH.jpg?f=fotoalbum_large
YouTube: Cyberpunk 2077 GPU Benchmark, 1080p, 1440p & 4K Medium/Ultra

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op vrijdag 11 december 2020 @ 15:41:
Ik bedoelde dat meer in de zin van dat dze dat soort zaken meer genoemen in de reviews. Uiteraard hoef je van mij echt niet te testen hoeveel FPS het gebruik van RTX voice kost (of wint of whatever) maar meer van bijvoorbeeld een RX6800XT t.o.v. een RTX 3080 "Ok de rasterization performance van alle deze kaarten vallen binnen 5-10% van elkaar gemiddeld genomen en is dus niet bijster interessant, laten we eens kijken wat de verschillen zijn in feature set om zo misschien meer duiding te kunnen geven en wat deze kaarten nu wel onderscheid. Waar je dan zaken als DLSS, RT, Radeon anti lag, encoder kwaliteit en performance, kwaliteit van eventuele drivers en andere software in (lichte) vorm kan uitlichten om zo misschien meer duiding te geven aan de verschillen tussen de producten.
Sommige van dat soort zaken horen niet thuis tussen benchmarks, het is juist aan de koper om te beslissen of dat soort dingen doorslaggevend zijn. Die features worden behandeld bij hun release, dus dan heeft de koper de informatie toch? Dan heb ik het met name over de (en-/de-)coders, RTX Voice, Anti-Lag, Reflex en dergelijke. Geen van die dingen heeft direct impact op die specifieke GPU, het zijn vaak juist dingen die je voor merk A of B laat kiezen (al dan niet een specifieke generatie van dat merk).

DLSS en RT zijn uiteraard een ander verhaal, die moeten weldegelijk behandeld worden omdat ze relatief toegankelijk zijn en een flinke impact op de performance kunnen hebben.

WoW ga ik verder maar niet meer op in, simpelweg omdat ik het spel niet ken en jij wel :)
Nee, die had ik niet gemist, maar is pas uitgekomen na release en was dus niet relevant (meer) voor mij om te bepalen of ik bij release in de rij wilde gaan staan of niet. Dit had gewoon bij de review uit moeten komen zodat je hier kennis van kon nemen voordat de verkoop begon naar mijn mening.
Ze gaven echter al tijdens de review aan (in het RT segment) dat deze video zou komen omdat ze er dieper op in wilden gaan. De video in kwestie is 36 uur na de review online gekomen, terwijl de verkoop van de 3080 de dag na review startte (amper een halve dag vóór de RT video). Ja, de RT video kwam na release, maar als zij niet genoeg tijd krijgen om dat deel op tijd te leveren is dat Nvidia's fout.
Pagina: 1 ... 98 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.