Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Enige nuance is wel op z'n plaats. De conclusie is veel te kort door de bocht dankzij hun onkunde. Ze kijken vooral naar de maximale framerate (unconstrained noemen ze dat) en meten wel frametimes, maar doen er geen reet mee.XanderDrake schreef op maandag 23 november 2020 @ 15:35:
Dit is een crosspost van het algemene VR topic, bedankt @Mirage
Het blijkt dat de GTX 3080 wint van de 6800 XT in VR games op de Valve Index. Dit komt denk ik waarschijnlijk door de hogere geheugen bandbreedte die je nodig hebt om op hogere resolutie van de Index te kunnen spelen.
Uit het artikel:
[...]
Dus niet alleen hogere framerates voor nVidia maar ook betere stabiliteit (minder dropped frames en latency spikes).
AMD's frametimes zijn over het algemeen veel consistenter in de games die ze testen. Dat is voor VR veel belangrijker. Daarnaast zijn er veel minder gedropte frames in veel games. Als extreem voorbeeld kijk je naar Skyrim; ja, AMD haalt daar slechts 135 FPS tegen 159, maar doet dat wel zonder frames te droppen. En als je dan naar de plots kijkt is AMD veel stabieler. Ik kan je uit ervaring vertellen dat NMS een goed voorbeeld is van hoe het niet moet (op beide); de ervaring in dat spel is niet zo lekker als het hoort, die onstabiele frametimes merk je heel erg.
Verdere opmerkingen:
- Ark is zwaar biased naar Nvidia (ongeacht of het VR is of niet) en draait van zichzelf al bijzonder onstabiel. Hoort niet thuis in enige benchmark suite, zeker niet voor VR. Speel je dat in VR dan ben je er op voor bereid dat het geen geweldige ervaring is
- FO4 en Subnautica zijn vreemd, daar moet ik eens naar kijken als ik tijd heb. Draaien op geen van beide echt stabiel, maar bij AMD droppen er frames, terwijl ze bij Nvidia via ASW gaan. Dat moet bij AMD ook kunnen, klinkt alsof beide games Nvidia API's gebruiken daarvoor
Verwijderd
Leuk zo'n hoopje hardware waar je data verzameld wordt a.d.h.v. je bewegingen en verplicht gebruik van FaceBook. Niet voor niets zo'n aantrekkelijke prijs voor de specs.XanderDrake schreef op vrijdag 20 november 2020 @ 13:59:
[...]
Ik zeg, iedereen een Oculus Quest 2 kopen, die zijn tenminste wel nog te krijgen
Wat Werelds al zegt, de frametimes op de AMD kaart is over een hele grote reeks beter (tenminste van alle niet specifieke VR spellen). Ook al is de average en of max fps misschien minder, de frametimes zijn consistenter en dat is belangrijker met name voor VR.XanderDrake schreef op maandag 23 november 2020 @ 15:35:
Dit is een crosspost van het algemene VR topic, bedankt @Mirage
Het blijkt dat de GTX 3080 wint van de 6800 XT in VR games op de Valve Index. Dit komt denk ik waarschijnlijk door de hogere geheugen bandbreedte die je nodig hebt om op hogere resolutie van de Index te kunnen spelen.
Uit het artikel:
[...]
Dus niet alleen hogere framerates voor nVidia maar ook betere stabiliteit (minder dropped frames en latency spikes).
De grote reden dat Nvidia als eerste met framepacing begon met SLI is omdat het voor een betere spelervaring zorgde. Een grote cache zorgt waarschijnlijk voor een stabielere framerate op RDNA2.
Jammer dat ze alleen de 4k data pakken. Op lagere resoluties is het een ander verhaal.Tincahunter schreef op maandag 23 november 2020 @ 10:53:
De gemiddelde snelheid van de RTX 3080 en de RX 6800 XT van 17 review sites
https://www.guru3d.com/ne...han-geforce-rtx-3080.html
Het was al bekend dat je voor 4k beter af bent met een 3080/3090.
Sorry hoor maar in mijn ogen heb je het mis. Inderdaad, unconstrained FPS is niet echt een nuttige metric, het geeft alleen weer wat de ruwe rekenkracht is zonder consistentie. Maar je zegt dat AMD consistenter is?Werelds schreef op maandag 23 november 2020 @ 17:10:
AMD's frametimes zijn over het algemeen veel consistenter in de games die ze testen. Dat is voor VR veel belangrijker. Daarnaast zijn er veel minder gedropte frames in veel games. Als extreem voorbeeld kijk je naar Skyrim; ja, AMD haalt daar slechts 135 FPS tegen 159, maar doet dat wel zonder frames te droppen. En als je dan naar de plots kijkt is AMD veel stabieler. Ik kan je uit ervaring vertellen dat NMS een goed voorbeeld is van hoe het niet moet (op beide); de ervaring in dat spel is niet zo lekker als het hoort, die onstabiele frametimes merk je heel erg.
Ik heb te weinig tijd om elke game punt voor punt uit te gaan leggen dus ik pak effe alleen HL: Alyx, omdat het zo'n top titel is: dit is de FCAT analyse daarvan:

Ten eerste, AMD haalt gewoon een hogere frametime, wat dus zeker niet goed is als je rond de of boven de 120 FPS wil halen. Het is de rode lijn he? Dat staat buiten kijf, toch?The RX 6800 XT delivered 145.62 unconstrained FPS with 43 dropped but no synthetic frames nor any warp misses.
The RTX 3080 delivered 158.82 unconstrained FPS and with 2 dropped and 14 synthetic frames with 2 warp misses.
Ten tweede, je kan zeggen dat er meer 'groene' frametime pieken zijn, dat klopt. Maar die resulteren niet in dropped frames (erg irritant) maar in warped/synth frames (gecompenseerd door async projection als ik het goed heb, en die merk je amper op!). Ik denk dat dit door betere drivers komen.
Al met al een duidelijke winst voor de GTX 3080.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Even wat terminologie (niet specifiek voor jou, maar voor anderen die wellicht niet thuis zijn in VR):XanderDrake schreef op maandag 23 november 2020 @ 18:15:
[...]
Sorry hoor maar in mijn ogen heb je het mis. Inderdaad, unconstrained FPS is niet echt een nuttige metric, het geeft alleen weer wat de ruwe rekenkracht is zonder consistentie weer. Maar je zegt dat AMD consistenter is?
Ik heb te weinig tijd om elke game punt voor punt uit te gaan leggen dus ik pak effe alleen HL: Alyx, omdat het zo'n top titel is: dit is de FCAT analyse daarvan:
(afbeelding)
[...]
Ten eerste, AMD haalt gewoon een hogere frametime, wat dus zeker niet goed is als je rond de of boven de 120 FPS wil halen. Het is de rode lijn he? Dat staat buiten kijf, toch?![]()
Ten tweede, je kan zeggen dat er meer 'groene' frametime pieken zijn, dat klopt. Maar die resulteren niet in dropped frames (erg irritant) maar in warped/synth frames (gecompenseerd door async projection als ik het goed heb, en die merk je amper op!). Ik denk dat dit door betere drivers komen.
Al met al een duidelijke winst voor de GTX 3080.
- ASW of synthesized frames zijn het makkelijkst voor te stellen als interpolation in netcode van multiplayer games; het is een "gok" van waar alles in het volgende frame staat, wat in elk geval voor vloeiende animaties zorgt.
- Een dropped frame is mislukte ASW. Deze term heeft Nvidia heel ongelukkig gekozen, want er wordt weldegelijk een "nieuw" frame gepresenteerd. Waar bij ASW frame n echter gebaseerd is data van n-1, is een dropped frame vaak n-2 (of nog erger). Gevolg is dat je wel vloeiend beeld hebt, maar houterige animaties
- Een warp miss is wanneer je het v-sync window helemaal mist. Frame n is gewoon n-1 zonder enige wijziging. Op een plat scherm kun je dit vergelijken met microstuttering.
Nu, warp misses zijn meestal vervelender dan dropped frames, die op hun beurt vervelender dan ASW frames zijn. Een warp miss is in veel gevallen makkelijker te constateren dan een dropped of ASW frame, omdat er 0,0 verandert. Bij de andere twee gevallen verandert het beeld wel gewoon, het "klopt" alleen niet. Nu, een warp miss kan ook gewenst zijn. In games met veel relatief statische elementen zoals racegames en sims is een warp miss vaak fijner, omdat je minder "jitter" in de cockpit ziet.
Wat jij dus aan haalt bij Alyx is dat het spel op Nvidia twee keer echt helemaal niets kon doen en dus stotterde. Bij AMD zijn er wel aardig wat dropped frames, maar zoals gezegd hoeft dat niet noodzakelijkerwijs vervelend te zijn. Die warp misses zijn hoogstwaarschijnlijk duidelijker op te merken.
En dan frametimes. Ja, uiteraard zijn die van AMD hoger, dat is waar FPS vandaan komt. Als je frametimes echter variëren van 8 tot 10 ms (125 tot 100 FPS, 112,5 gemiddeld) is dat veel prettiger dan frametimes die variëren van 6 tot 11 (167 tot 90 FPS, 128,5 gemiddeld). Zelfs als ze slechts op 90 Hz weergegeven worden is het heel irritant als de tijd tussen frames variëert.
VR benchmarken is heel lastig. Een statische benchmark werkt daar nog minder voor dan op de desktop, juist omdat je te maken hebt met veel meer sensors en de beeldweergave veel subjectiever is. Je kunt geen framerates meten; of zelfs puur op ASW/drop/miss af gaan. Zoals ik zei is een miss in Assetto lang niet zo erg als in bijvoorbeeld Alyx
Overigens, de meeste VR headsets draaien op 90 Hz. Zelfs veel Index gebruikers hebben het ding gewoon op 90 staan. Juist omdat de frametimes voor 120 (laat staan 144) in veel games niet constant genoeg zijn. Zelf pas ik het aan per spel (dat + render resolutie).
Bedankt voor de uitleg, het ligt inderdaad wat genuancerder. Ik kan uit het artikel niet hun definitie van dropped danwel synth frame halen dus ik weet niet of wat jij zegt overeenkomt met hun conclusies.Werelds schreef op maandag 23 november 2020 @ 18:54:
VR benchmarken is heel lastig. Een statische benchmark werkt daar nog minder voor dan op de desktop, juist omdat je te maken hebt met veel meer sensors en de beeldweergave veel subjectiever is. Je kunt geen framerates meten; of zelfs puur op ASW/drop/miss af gaan. Zoals ik zei is een miss in Assetto lang niet zo erg als in bijvoorbeeld Alyx
Maar nog steeds heeft de GTX 3080 een betere interne configuratie om meer frames te laten zien. Ik denk dus persoonlijk, als eigenaar van zowel een Index en Alyx, dat je enkele incorrecte frames niet snel gaat merken. Het zijn er een handvol op duizenden. Wat je wel gaat merken is het volgende:
Dit ervaar ik helemaal niet zo. Ik heb juist de Index gehaald om hem op hoge FPSs te gebruiken: ik ben snel auto-ziek en wil dus een soepele ervaring. Dan is 120hz echt beter dan 90hz. Iedereen die ik ken met een Index tracht hetzelfde te halen: een High end ervaring voor een zeer dure (1000€+) headset, nog steeds, qua totaal VR kit, de beste op de markt, zelfs anderhalf jaar na release.Overigens, de meeste VR headsets draaien op 90 Hz. Zelfs veel Index gebruikers hebben het ding gewoon op 90 staan. Juist omdat de frametimes voor 120 (laat staan 144) in veel games niet constant genoeg zijn. Zelf pas ik het aan per spel (dat + render resolutie).
Het is een beetje raar dat je dat je 1100€ voor een Index en 700€+ voor een GTX 3080 neer gaat leggen, en dat je dan vervolgens het geheel niet tot z'n volle wilt benutten.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Hun definities zijn die van FCAT, Nvidia's toolXanderDrake schreef op maandag 23 november 2020 @ 20:08:
Bedankt voor de uitleg, het ligt inderdaad wat genuancerder. Ik kan uit het artikel niet hun definitie van dropped danwel synth frame halen dus ik weet niet of wat jij zegt overeenkomt met hun conclusies.
Al deze termen heeft Nvidia jaren geleden bedacht, zo ergens rond de release van de Rift CV1.
Refreshrate en framerate is niet alles. Zelfs op 120 Hz betekent een warp miss dat je ineens 16ms lang hetzelfde frame te zien krijgt - dat merk je gewoon. Op 90 Hz is dat nog erger, laat staan de 72 Hz van een Quest. En juist inconsistente frametimes zijn verantwoordelijk voor ASW/drops/misses.Maar nog steeds heeft de GTX 3080 een betere interne configuratie om meer frames te laten zien. Ik denk dus persoonlijk, als eigenaar van zowel een Index en Alyx, dat je enkele incorrecte frames niet snel gaat merken. Het zijn er een handvol op duizenden. Wat je wel gaat merken is het volgende:
Om maar even bij Alyx te blijven, daar gaat het om 6,87ms (AMD) en 6,30ms (Nvidia). Kijk je naar de plots, dan lijkt AMD met hooguit 0,2ms te schommelen per frame, terwijl dat bij Nvidia 0,4 is. Die 0,2 verschil kan zomaar het verschil maken tussen een VBLANK wel of niet halen. In beide gevallen blijft het bijna constant onder de 8ms dus de framerate wordt wel gehaald. Maar nu stel dat dat Nvidia's gemiddelde op 8,0ms had gelegen en AMD op 8,1. AMD hoeft dan niets te droppen, want zelfs met 0,2 variatie blijft dat onder de 8,33, terwijl met er met Nvidia's onstabiliteit ASW, drops of misses zijn. Dat is waarom de variatie in frametime net zo belangrijk is als het aantal frames (FPS) en de maximale frametime.
Om dus rechtstreeks op de quote in te gaan: het gaat er niet om hoe veel frames er gerenderd kunnen worden, het gaat om wanneer ze gerenderd worden. Vergeet niet dat je in VR altijd V-Sync hebt en geen VRR. Het nieuwe frame moet klaar staan als de VBLANK komt. Dat is het aantal frames dat daadwerkelijk wordt weergegeven. Je kunt 1200 frames renderen, maar er komen er toch maar 120 op het scherm. En 120 frames die allemaal op exact 8,33ms gerenderd worden zien er vloeiender uit dan 120 frames waarvan de helft op 8,66 en de helft op 8,0ms gerenderd wordt. Stel dat je om en om 8 en 8,66 doet, dan mist je 2e frame al meteen; en álle frames daarna ook tenzij je er regelmatig één over slaat. Framepacing kan het in dat geval ook niet meer oplossen
Dat wil niet zeggen dat een hogere framerate per definitie niets zegt. Maar bij een verschil in framerate van slechts 13 ofwel 9% waarbij die framerate binnen schootsafstand van de beoogde refresh rate ligt, loont het om naar de frametime te kijken. Als je op 300 FPS zit maakt het allemaal geen reet meer uit, dan krijg je zelfs in het ergste geval (warp miss) een frame van minder dan 6,67ms oud te zien
Enfin, het ging mij er om dat hun conclusie volledig op FPS is gebaseerd. Zelfs het aantal ASW/drops/misses nemen ze niet mee; ze noemen ze wel, maar beoordelen er niet op.
Overigens is dit voor het eerst dat AMD het goed doet qua frametimes.
En toch zijn er genoeg mensen die dat doenDit ervaar ik helemaal niet zo. Ik heb juist de Index gehaald om hem op hoge FPSs te gebruiken: ik ben snel auto-ziek en wil dus een soepele ervaring. Dan is 120hz echt beter dan 90hz. Iedereen die ik ken met een Index tracht hetzelfde te halen: een High end ervaring voor een zeer dure (1000€+) headset, nog steeds, qua totaal VR kit, de beste op de markt, zelfs anderhalf jaar na release.
Het is een beetje raar dat je dat je 1100€ voor een Index en 700€+ voor een GTX 3080 neer gaat leggen, en dat je dan vervolgens het geheel niet tot z'n volle wilt benutten.
Met m'n 1080 Ti haal ik in sommige games de 120 simpelweg niet constant genoeg, dus dan schroef ik de render resolutie terug of ik verlaag de refreshrate (meestal resolutie, behalve in zoiets als Elite). Ik heb geen last van motion sickness, dus daar kan ik niet over oordelen, maar ik ben wel heel gevoelig voor microstuttering dus inconsistente frametimes merk ik meteen
Edit: overigens zijn de drops van AMD in Alyx juist een goed voorbeeld van timing die slecht uit pakt. Die zitten niet waar de pieken in rauwe tijden zitten. Vooral aan het begin van de run komt AMD slecht uit qua timing.
[ Voor 19% gewijzigd door Werelds op 24-11-2020 00:46 ]
Want ja, het is leuk om een 3070 te kopen die even snel is als een 2080 Ti, als die niet €499 maar €900 kost, kan je net zo goed een minder dure 2080 Ti kopen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
[ Voor 12% gewijzigd door Verwijderd op 27-11-2020 09:46 ]
https://nl.hardware.info/...n-gaat-naar-crypto-miners
Of is het een gebrek aan huiswerk die deze kaarten kopen?
Volgens mij isdat vooral omdat het nieuwe architectuur is en de mining software dus herschreven moet worden (simpel uitgelegd zpdat je buurjochie het beter snapt).Psyonara schreef op vrijdag 27 november 2020 @ 20:50:
Meende dat de nieuwe GPU's zowel van Nvidia en AMD juist niet efficient zijn voor Cryptominers.
Of is het een gebrek aan huiswerk die deze kaarten kopen?
Leuk 2017 herhaalingPigletCNC schreef op vrijdag 27 november 2020 @ 21:52:
[...]
Volgens mij isdat vooral omdat het nieuwe architectuur is en de mining software dus herschreven moet worden (simpel uitgelegd zpdat je buurjochie het beter snapt).
Hopelijk valt het alsnog tegen voor de miners.
Ik geloof dat de 3080 wel 90mh/s moet kunnen halen. Mijn 1080ti deed iets van 55 als ik het me goed herinner. Een goed getunede rx580 deed (nogmaals, als ik het me goed herinner) een kleine 40. Met de huidige koersen doet de 3080 ongeveer 2 euro 50 per dag exclusief stroomkosten.Psyonara schreef op vrijdag 27 november 2020 @ 20:50:
Meende dat de nieuwe GPU's zowel van Nvidia en AMD juist niet efficient zijn voor Cryptominers.
Of is het een gebrek aan huiswerk die deze kaarten kopen?
Wie goed doet, die goed ontmoet.
Dus maar gewoon weer de standaard instellingen terug gezet .
Het is ook helemaal niet nodig om te overclokken want het draait snel genoeg op stock snelheid .
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Verwijderd
Volgens LinusTechTips zou het gaan om maarliefst 6% van de verkopen. Dus een korrel zout is wel op z'n plaats.choogen schreef op vrijdag 27 november 2020 @ 18:31:
'Flink deel van RTX 3000-kaarten gaat naar crypto-miners':
https://nl.hardware.info/...n-gaat-naar-crypto-miners
Nee, die 250000 units zijn 6% van Nvidia's omzet. Dat is wat hij zei. Ik stel voor dat je even opnieuw luistertVerwijderd schreef op zondag 29 november 2020 @ 19:09:
[...]
Volgens LinusTechTips zou het gaan om maarliefst 6% van de verkopen. Dus een korrel zout is wel op z'n plaats.
Per kwartaal worden er zelfs in een heel goed kwartaal nog geen 20 miljoen "discrete graphics cards" van AMD en Nvidia verscheept. Het gros daarvan zijn mobiele GPU's - die vallen gewoon onder discrete. Laat ik eens heel voorzichtig doen en zeggen dat er 5 miljoen desktop GPU's per kwartaal verkocht worden (hint: dat is niet zo, bij lange na niet). Wederom maken GPU's van boven de 500 euro daar slechts een klein deel van uit. Maar zelfs al zou het om 20% gaan (1 miljoen dus - en nee, dat is het bij lange na niet), dan is die 250k gewoon een kwart van het aantal verscheepte GPU's.
De realiteit is echter dat GPU's zoals de 3070 en hoger meestal niet eens de 6 cijfers per kwartaal halen - en dat zijn ze dan allemaal samen. Die 250k is waarschijnlijk het gros van wat ze konden produceren. Niks "we kunnen niet aan de vraag voldoen want die is te hoog", maar "we konden ze met meer marge aan miners verkopen". Die miners kopen geen volledige GPU's.
Verwijderd
Vind het ineens wel bizar stil rond om dit!?
Was ook geen aanval, excuses als je dat zo opvatteVerwijderd schreef op maandag 30 november 2020 @ 00:11:
Ik vind het prima om gecorrigeerd te worden hoor, daar heb ik geen voorstel met knipoog voor nodig. Bedankt voor de opheldering.
Overigens zijn de leveringsproblemen inmiddels wel erg zorgwekkend. We zitten inmiddels 9 weken na release en er is nog steeds 0,0 beschikbaar. Zelfs een run die op de release date startte inmiddels klaar moeten zijn. We weten vrijwel niets over Samsung's 8nm (geen defect densities, geen productie capaciteit) maar zelfs als ik met TSMC's cijfers reken aan 15000 wafers per maand zouden er meer dan een miljoen chips van de band rollen, waarvan pakweg een half miljoen als GA102-200 dienst zou moeten kunnen doen. Maar aangezien we ook nergens een 3070 zien (wat een andere chip is en dus op een andere run zit), gaat het niet lekker met de productie. Of dat nu aan capaciteit of bizar veel defects ligt weet ik niet, maar zorgwekkend is het wel. Zelfs Polaris was gewoon goed leverbaar in een soortgelijk tijdsbestek.
Bij de concurrent is er ook nog geen voorraad, maar we zitten daar nog geen 2 weken na release én die hebben volgens de geruchten eventjes 120k wafers in Q4 besteld alleen al voor de consoles. Dat is een derde van TSMC's productie capaciteit voor het kwartaal. De 2/3e die over blijft is dus voor Zen 3, RDNA 2 (hopelijk geen RDNA 1 meer
Ik ben eigenlijk toch al niet onder de indruk van GA102, buiten eventuele fouten van Nvidia als het om productie gereedheid gaat. Het is een enorme chip, maar de chip schaalt echt dramatisch. Je hebt eigenlijk een 5K+ monitor nodig om echt wat extra uit de RTX3090 te halen als je gamed. Het product lijkt alleen te bestaan voor de 24GB aan VRAM. Het is eigenlijk nauwelijks beter dan Vega 56 en Vega 64. Niet bepaald een toonbeeld van een efficiënt schalende GPU architectuur. Zat daar ook nog eens een beduidend kleiner verschil in aantal ALU's. GA104 lijkt vooralsnog merkbaar beter te zijn qua schaalbaarheid, maar die is ook niet te krijgen.
AMD zit denk ik ook niet stil. Die gaan denk ik in Q1 echt helemaal los zodra de aantallen voor de launch van console APU's zijn geleverd en de vraag daar teruggaat naar een meer gestaag volume. Dat is ervan uitgaande dat Navi 21 niet ook rampzalig yield. Verder migreert Apple naar N5 en lijken de vrijgekomen N7 wafers allang geboekt te zijn door AMD. Misschien weten ze dan eens een product te lanceren op een minder bizar incompetente manier dan Navi 21. Wat? Ik mag toch dromen?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Videocardz heeft al een paar foto's van een Gigabyte AIB variant: https://videocardz.com/ne...riving-to-first-customers
Je kunt elders ook al een pre-built systeem met een RTX 3060Ti bestellen. Interessant is dat je voor deze kaart toe kunt met slechts een 500W voeding en een enkele 8-pin connector: https://videocardz.com/ne...x-3060-ti-prebuilt-system
[ Voor 5% gewijzigd door choogen op 30-11-2020 17:37 ]
edit: https://www.techpowerup.c...3060-ti-founders-edition/
Kort samengevat, RTX2080S niveau die circa 200W verbruikt. GA104 lijkt dus inderdaad beter te presteren dan GA102.
[ Voor 21% gewijzigd door DaniëlWW2 op 01-12-2020 15:04 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Afgekeurde RTX 3070's dus. Redelijk goede prijs zou ik zeggen. Ik ben alleen verbaast over hoe groot dechip is, bijna 400mm² waar bijvoorbeeld de GTX 1070 maar 312mm² had. Vrij stevig voor een mid-high end GPU.
[edit] Ook een behoorlijk stuk sneller dan een GTX 1080 Ti, indrukwekkend.
[ Voor 10% gewijzigd door XanderDrake op 01-12-2020 16:06 ]
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Updatemmxmmx schreef op zondag 29 november 2020 @ 13:26:
Mijn Evga geforce rtx 3080 ftw3 ultra gaming loopt steeds vast met een kleine overclock.
Dus maar gewoon weer de standaard instellingen terug gezet .
Het is ook helemaal niet nodig om te overclokken want het draait snel genoeg op stock snelheid .
Moest de power slider naar max gooien .
Nu werkt het goed.
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Wereldwijde Covid-19 crisis.. Zorgt voor problemen bij productie en levering, en tegelijkertijd voor veel hogere vraag omdat de halve wereld thuis zit en PC hardware wil/moet hebben.. Producenten roepen ook niet voor niks dat deze situatie tot in 2021 gaat duren.. Dit is verre van een normale situatie..Werelds schreef op maandag 30 november 2020 @ 15:53:
[...]
Was ook geen aanval, excuses als je dat zo opvatte
Overigens zijn de leveringsproblemen inmiddels wel erg zorgwekkend. We zitten inmiddels 9 weken na release en er is nog steeds 0,0 beschikbaar. Zelfs een run die op de release date startte inmiddels klaar moeten zijn. We weten vrijwel niets over Samsung's 8nm (geen defect densities, geen productie capaciteit) maar zelfs als ik met TSMC's cijfers reken aan 15000 wafers per maand zouden er meer dan een miljoen chips van de band rollen, waarvan pakweg een half miljoen als GA102-200 dienst zou moeten kunnen doen. Maar aangezien we ook nergens een 3070 zien (wat een andere chip is en dus op een andere run zit), gaat het niet lekker met de productie. Of dat nu aan capaciteit of bizar veel defects ligt weet ik niet, maar zorgwekkend is het wel. Zelfs Polaris was gewoon goed leverbaar in een soortgelijk tijdsbestek.
Bij de concurrent is er ook nog geen voorraad, maar we zitten daar nog geen 2 weken na release én die hebben volgens de geruchten eventjes 120k wafers in Q4 besteld alleen al voor de consoles. Dat is een derde van TSMC's productie capaciteit voor het kwartaal. De 2/3e die over blijft is dus voor Zen 3, RDNA 2 (hopelijk geen RDNA 1 meer) en enige andere klanten (onder andere Apple en Qualcomm).
Ik zag hem inderdaad toen straks ook langkomen, opzich een vermakelijk filmpje, maar het blijft MLID, die je na al zijn niet uitgekomen "voorspellingen" eigenlijk niet meer serieus kan nemen, zeker omdat ie constant zijn verhaal veranderd zodat het altijd lijkt te kloppen
Leuke youtuber voor wat licht vermaak, maar ik kan hem in ieder geval niet serieus meer nemen in zijn voorspellingen.
Terwijl Kress toegeeft dat dat er tekorten zijn op het vlak van wafers bij chipleverancier Samsung, voegt zij eraan toe dat er ook op vlak van substraten en andere componenten onvoldoende voorraad is.
[ Voor 33% gewijzigd door choogen op 02-12-2020 19:26 ]
The company admits that there are constraints beyond chip supply, so the issue with shortages is indeed very complicated.
"We do have supply constraints and our supply constraints do expand past what we are seeing in terms of wafers and silicon, but yes some constrains are in substrates and components," said Colette Kress, CFO of Nvidia, at Credit Suisse 24th Annual Technology Conference. "We continue to work during the quarter on our supply and we believe though that demand will probably exceed supply in Q4 for overall gaming."
/f/image/tEBjXBalt3ysGj5jpaRF8xt9.png?f=fotoalbum_large)
Alternate heeft hier en daar eentje op voorraad voor € 700, dit is echt niet beter dan de 3080 destijds.
[ Voor 14% gewijzigd door XWB op 02-12-2020 19:40 ]
Nvidia geeft antwoord waarom er zo voorraad problemen zijn.computerjunky schreef op woensdag 2 december 2020 @ 19:33:
Als de 3060TI supply wel goed is dan is dat een indicatie dat de yields best slecht zijn. Het zijn immers gewoon afgedankte 3070 chips als ik zo de specs zag. We gaan het zien.
https://nl.hardware.info/...akt-door-tekort-aan-chips
Nvidia geeft antwoord waarom er zo voorraad problemen zijn.computerjunky schreef op woensdag 2 december 2020 @ 19:33:
Als de 3060TI supply wel goed is dan is dat een indicatie dat de yields best slecht zijn. Het zijn immers gewoon afgedankte 3070 chips als ik zo de specs zag. We gaan het zien.
https://nl.hardware.info/...akt-door-tekort-aan-chips
Terwijl Kress toegeeft dat dat er tekorten zijn op het vlak van wafers bij chipleverancier Samsung, voegt zij eraan toe dat er ook onvoldoende substraten en andere componenten beschikbaar zijn. Het zou dus niet volstaan om op korte termijn extra productiecapaciteit te reserveren bij de Koreaanse fabrikant. Dat is op zich al niet evident, aangezien dergelijke orders lang op voorhand worden geplaatst.
Enige gerucht die ik hoorde is dat die 10gb Vram zou krijgen. Ergens in een YT vid vorige week.muhda schreef op maandag 7 december 2020 @ 08:54:
Is er al meer nieuws of geruchten over de 3070Ti? Het is angstvallig stil van Nvidia's kant.
Had minstens op 12/14 GBVram gehoopt.
Maar als het 10 word kun je net zo goed een 3080 nemen.
12gb kan alleen maar als ze de bus behouden zoals bij de 3090 op 384 bit. Zodra ze zakken naar 3080 niveau op 320 bit kom je dus aan of aan 10gb of het dubbele met 20gb. Er is geen optie in het midden en ik denk niet dat Nvidia de 3070ti meer gaat geven dan de 3080 nu heeft in bus of in geheugen. Het zal eerder een chip zijn met minder cores actief op gelijke bus met gelijke hoeveelheid geheugen (of minder). Deze kan dan in prijs precies tussen de 3070 en 3080 landen. Vraag is dan alleen of Nvidia dit gaat doen als antwoord op de 6800.Psyonara schreef op maandag 7 december 2020 @ 12:35:
[...]
Enige gerucht die ik hoorde is dat die 10gb Vram zou krijgen. Ergens in een YT vid vorige week.
Had minstens op 12/14 GBVram gehoopt.
Maar als het 10 word kun je net zo goed een 3080 nemen.
Zullen Ti varianten gebruikmaken van TSMC? Dát vraag ik me af.muhda schreef op maandag 7 december 2020 @ 08:54:
Is er al meer nieuws of geruchten over de 3070Ti? Het is angstvallig stil van Nvidia's kant.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Als het GA102 is, nee. Bestaat GA 103 wel, dan kan het. Kan, want dat is zeker nog geen uitgemaakte zaak.XanderDrake schreef op maandag 7 december 2020 @ 14:57:
[...]
Zullen Ti varianten gebruikmaken van TSMC? Dát vraag ik me af.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zo werkt dat niet. Ze kunnen/willen niet zomaar eender welke hoeveelheid geheugen gebruiken.Psyonara schreef op maandag 7 december 2020 @ 12:35:
[...]
Enige gerucht die ik hoorde is dat die 10gb Vram zou krijgen. Ergens in een YT vid vorige week.
Had minstens op 12/14 GBVram gehoopt.
Maar als het 10 word kun je net zo goed een 3080 nemen.
GDDR chips hebben hebben 32 "pinnen"; elke pin heeft in principe 1 bit aan geheugen bus nodig. Dus, voor 8 chips heb je 8 * 32 = 256 bits nodig (GA104). De 320 van de 3080 laat 10 chips toe, de 384 van de 3090 12. Het "principe" van 1 bit per pin kan mee gesmokkeld worden, door een zogenaamde clamshell opstelling te gebruiken, waarbij je 2 chips de 32 data lijntjes naar de geheugencontroller laat delen. Technisch gezien kost dat uiteraard performance, maar in de praktijk valt dat over het algemeen reuze mee.
Als je er van uit gaat dat de 3070 Ti een GA102 betreft dan heeft het ding maximaal 12 geheugen controllers beschikbaar. Dat laat 12 en 24 (clamshell) toe. Andere mogelijkheden zijn 11/22, 10/20, 9/18, enzovoort. 14 kan alleen als ze helemaal terug vallen naar slechts 7 controllers. Dan krijg je een bus van 224 bits, minder dan de 3060 Ti en 3070. Doen ze niet, want dat komt er in de marketing niet door. 288 bits (9/18) zou wel kunnen.
Daarnaast moet ik eerlijk zeggen dat dit soort wensen gewoon niet reëel zijn. Een 3070 Ti met meer dan 10 GB geheugen zou de 3080 al de grond in boren voordat die laatste daadwerkelijk een beetje te krijgen is. Hetzelfde geldt voor een theoretische 3080 Ti met 20 GB. Een 3080 Ti met 16 GB vereist een 256-bits geheugen controller, dat werkt marketing technisch weer niet. Het maakt niet uit hoe ze deze dingen in de markt zouden zetten, ze zouden overal in hun eigen vaarwater zitten.
Daarnaast zijn sommige van de geruchten ook vreemd. Zo was er een gerucht van een op GA102 gebaseerde 3070 Ti met 3712 (sorry, "7424"
Laat ik voor de gein echter die 7424 eens nemen (85,3% van 3080); enige prijspunt voor zo'n ding is $599 (op $499 zit de 3070, $699 de 3080). Een 3080 is 82,9% van een 3090, qua performance zit het ding echter eerder op 90%. Een 3070 Ti op 85% ALU's zou dus wel heel erg dicht op een 3080 komen - en dan zou het ding ook nog meer geheugen hebben voor minder geld? Lijkt me sterk
Dat kunnen ze ook niet. Althans niet tussen de bestaande modellen. Ze zouden wel zomaar de bestaande modellen al meteen EOL kunnen verklaren en simpelweg nieuwe SKU's lanceren. Het is Nvidia, dus dat zou me helemaal niets verbazen.Psyonara schreef op maandag 7 december 2020 @ 16:21:
Zo into specifieken ben ik nou ook weer niet, maar als dit allemaal zo is^ dan zou lijkt mij het raar hoe Nvidia deze gaten tegen over Radeon kan opvullen.
Ik zie echter maar heel weinig ruimte voor méér producten tussen de huidige met andere geheugenbussen. Er zijn echter wel vreemdere dingen gebeurd en de Titan/3090 klasse van producten bestaat ook nog steeds dus
Kan het mis hebben, maar alle omstandigheden etc zijn beide teams op moment gewoon knudde.
En voor de consument is er eigenlijks geen speel ruimte, tenminste geen slimme keuzes in ieder geval. Tenminste zo ervaar/zie ik het.
Videokaarten lijken met eenzelfde probleem te kampen. Wie bij een willekeurige hardwareshop op zoek gaat naar een videokaart die uit voorraad leverbaar is, krijgt vooral oudere low-end videokaarten voorgeschoteld. Azerty en Megekko kunnen beide maar één RTX 2080 Super leveren, namelijk een nichekaart met een waterblok, terwijl de RTX 2070 Super en RTX 2060 Super volledig zijn uitverkocht. Alternate kan zelfs geen enkele RTX 20-videokaart leveren en heeft het merendeel van de betreffende categoriepagina's al van zijn website verwijderd. De Radeon RX 5000-serie ondergaat in rap tempo hetzelfde lot. Hoewel de middenklasse RX 5600 XT nog redelijk goed voorradig is, valt het aantal leverbare RX 5700 XT's inmiddels op één hand te tellen.
En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.Werelds schreef op maandag 7 december 2020 @ 17:18:
[...]
Dat kunnen ze ook niet. Althans niet tussen de bestaande modellen. Ze zouden wel zomaar de bestaande modellen al meteen EOL kunnen verklaren en simpelweg nieuwe SKU's lanceren. Het is Nvidia, dus dat zou me helemaal niets verbazen.
Ik zie echter maar heel weinig ruimte voor méér producten tussen de huidige met andere geheugenbussen. Er zijn echter wel vreemdere dingen gebeurd en de Titan/3090 klasse van producten bestaat ook nog steeds dus
Een GA103 met 60SM's/3840/7680 Cuda Cores en een 320 bit bus/10GB GDDR6X als RTX3070Ti voor $600-$650, tja ik sluit het niet uit. Dan heb je iets dat beter op zou moeten kunnen tegen Navi 21 en voornamelijk voor Nvidia iets waar wel eens meer marge op kan zitten omdat je voor heel wat minder oppervlakte betaald hebt voor redelijk vergelijkbare prestaties met een RTX3080. PCB ontwerpen zal je ook kunnen hergebruiken op deze manier. De RTX3080 is dan een beetje overbodig, dus die laat Nvidia stilletjes verdwijnen. Dan de RTX3080Ti ook met 82SM's en 12GB op $899-$999. RTX3090 verkoop je voor het privilege van 24GB aan VRAM.
Ik kijk ook naar de langere termijn. De verhalen dat we eind volgend jaar al Hopper krijgen op "5nm", welke 5nm dat ook mag zijn want ik weet nog zo net niet of het TSMC zal zijn, tja ik heb zo mijn twijfels. Ik denk eerder dat de eerste Hopper pas ergens diep in H1/2022 zal verschijnen en dat zal dan GH100 zijn. GH102 etc later in het jaar. Tja, AMD heeft dan allang RDNA3 uitgebracht want die zitten inmiddels ook daar met afwisselende teams te "tick tocken". Als ik gelijk krijg met mijn vermoeden, dan kan Nvidia wel eens gedwongen worden om op kosten te gaan concurreren in het laatste deel van de Ampere levenscyclus. Veel heeft "Navi 31" niet nodig om GA102 echt helemaal te verslaan. We weten nu nog niet eens echt wat de RX6900XT gaat doen tegenover de RTX3090, maar het zullen geen grote marges zijn, wie dat ook wint.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Allemaal die theoretische producten als een GA103 (die nooit zal verschijnen) zouden even goed de huidige lineup opvreten. De 2080S zou ook een nieuwe chip worden. En er zou ook een 2080 Ti Super komen, ook met een geheel nieuwe chip.DaniëlWW2 schreef op maandag 7 december 2020 @ 18:25:
[...]
En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.
Een GA103 met 60SM's/3840/7680 Cuda Cores en een 320 bit bus/10GB GDDR6X als RTX3070Ti voor $600-$650, tja ik sluit het niet uit. Dan heb je iets dat beter op zou moeten kunnen tegen Navi 21 en voornamelijk voor Nvidia iets waar wel eens meer marge op kan zitten omdat je voor heel wat minder oppervlakte betaald hebt voor redelijk vergelijkbare prestaties met een RTX3080. PCB ontwerpen zal je ook kunnen hergebruiken op deze manier. De RTX3080 is dan een beetje overbodig, dus die laat Nvidia stilletjes verdwijnen. Dan de RTX3080Ti ook met 82SM's en 12GB op $899-$999. RTX3090 verkoop je voor het privilege van 24GB aan VRAM.
Ik kijk ook naar de langere termijn. De verhalen dat we eind volgend jaar al Hopper krijgen op "5nm", welke 5nm dat ook mag zijn want ik weet nog zo net niet of het TSMC zal zijn, tja ik heb zo mijn twijfels. Ik denk eerder dat de eerste Hopper pas ergens diep in H1/2022 zal verschijnen en dat zal dan GH100 zijn. GH102 etc later in het jaar. Tja, AMD heeft dan allang RDNA3 uitgebracht want die zitten inmiddels ook daar met afwisselende teams te "tick tocken". Als ik gelijk krijg met mijn vermoeden, dan kan Nvidia wel eens gedwongen worden om op kosten te gaan concurreren in het laatste deel van de Ampere levenscyclus. Veel heeft "Navi 31" niet nodig om GA102 echt helemaal te verslaan. We weten nu nog niet eens echt wat de RX6900XT gaat doen tegenover de RTX3090, maar het zullen geen grote marges zijn, wie dat ook wint.
Feit is dat de laatste keer dat Nvidia een 3 in de naam van een chip gebruikte, G73 was. Dat was een 7650 of iets dergelijks. De laatste 1 was G71, de 7900 en consorten. Het enige cijfer dat we met de "huidige" naamgeving hebben gezien, maar al heel lang niet meer, is de 5. Dat was GT215, de chip van de GT240 (lekker verwarrend
En als Nvidia het wel doet, tja dan heb ik mezelf niet in die hoek gepraat. Ik zeg niet dat GA103 een ding is, maar ik sluit het ook niet uit. Zeker niet omdat de leaker die zoveel goed had over Ampere, er maar niet over kan ophouden. Verder weten we allebei volgens mij wel dat Nvidia het graag verwarrend en soms vreemd wil maken.Werelds schreef op maandag 7 december 2020 @ 21:29:
[...]
Allemaal die theoretische producten als een GA103 (die nooit zal verschijnen) zouden even goed de huidige lineup opvreten. De 2080S zou ook een nieuwe chip worden. En er zou ook een 2080 Ti Super komen, ook met een geheel nieuwe chip.
Feit is dat de laatste keer dat Nvidia een 3 in de naam van een chip gebruikte, G73 was. Dat was een 7650 of iets dergelijks. De laatste 1 was G71, de 7900 en consorten. Het enige cijfer dat we met de "huidige" naamgeving hebben gezien, maar al heel lang niet meer, is de 5. Dat was GT215, de chip van de GT240 (lekker verwarrend).
En in ander Nvidia nieuws. Nou de game komt eraan en ik zit wat indrukken te kijken. Nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077. Blijkbaar zijn er plekken waar het echt heel erg blurry is. Want dat is wat Nvidia echt nodig heeft, alweer gedoe met hun tech in een CD Projekt Red game.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik heb een aantal previews gezien, maar niets over DLSS. Welke preview zegt daar iets over?DaniëlWW2 schreef op maandag 7 december 2020 @ 21:41:Blijkbaar zijn er plekken waar het echt heel erg blurry is.
YouTube: Cyberpunk 2077 After 30 Hours - Easy Allies Impressionscnieuweboer schreef op maandag 7 december 2020 @ 22:16:
[...]
Ik heb een aantal previews gezien, maar niets over DLSS. Welke preview zegt daar iets over?
Er komt blijkbaar nog een enorme patch en er lijkt wel meer wat buggy te zijn, maar deze sprong er meteen uit.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De preview builds lijken inderdaad nogal buggy. Maar specifiek voor DLSS is het niet duidelijk welke settings hij gebruikt. Hij noemt alleen de high performance DLSS instelling, en die is echt niet bedoeld voor "as good as native". Daar een uitspraak op baseren als "nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077" is wel wat voorbarig. Is er iemand die dat beter heeft getest?DaniëlWW2 schreef op maandag 7 december 2020 @ 22:22:
[...]
YouTube: Cyberpunk 2077 After 30 Hours - Easy Allies Impressions
Er komt blijkbaar nog een enorme patch en er lijkt wel meer wat buggy te zijn, maar deze sprong er meteen uit.
DLSS is de game op een lagere resolutie renderen edit: upscaling algoritme toepassen en een sharpening filter toepassen. Als het blurry is, dan werkt het dus niet. Het hele punt is verhullen dat de game op een lagere resolutie is gerenderd en er dus blurry eruit hoort te zien. DLSS 1.0 was ook zo blurry en dat kwam omdat Nvidia hun model voor 1.0 ook niet werkte.cnieuweboer schreef op dinsdag 8 december 2020 @ 00:45:
[...]
De preview builds lijken inderdaad nogal buggy. Maar specifiek voor DLSS is het niet duidelijk welke settings hij gebruikt. Hij noemt alleen de high performance DLSS instelling, en die is echt niet bedoeld voor "as good as native". Daar een uitspraak op baseren als "nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077" is wel wat voorbarig. Is er iemand die dat beter heeft getest?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Naast RT en DLSS wordt er ook gekeken door Tom's naar algemene performance, zonder nVidia specifieke settings. Op lage resolutie en IQ wint de 6800XT stevig, ook van de RTX3090. Maar zodra de resoluties en settings omhoog gaan lijkt het mij meer een nVidia preferred game:

Maar daar zal de "AMD Discussion Club" wel van alles van vinden
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
FYI: Cyberpunk currently has DRM that is only active for reviewers and is known to reduce performance. Will not be active on launch day, therefore any testing published today will not accurately reflect launch performance. CDPR warned us of this, so we are waiting for launch day.
— GamersNexus (@GamersNexus) 7 december 2020
Saying this because there is an article out there that is showing performance numbers, but CDPR directly told us that the early DRM is bad for performance and is *not present* in the consumer copy, therefore testing pre-launch is invalid and not representative of the game.
— GamersNexus (@GamersNexus) 7 december 2020
The early DRM is nothing evil, just to prevent leaks from reviewers or streamers to the public. As stated, it's not in the consumer copy, so we really have no problem with it. But it does mean testing should wait until the actual version of the game that people will play is out.
— GamersNexus (@GamersNexus) 7 december 2020
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
DLSS is AI upscaling, niet alleen een sharpening filter. Als je daar meer over wil weten is er genoeg informatie te vinden op het internet (maar gezien je andere reacties op dit forum denk ik dat je dat wel weet, troll-post?).DaniëlWW2 schreef op dinsdag 8 december 2020 @ 09:03:
[...]
DLSS is de game op een lagere resolutie renderen en een sharpening filter toepassen. Als het blurry is, dan werkt het dus niet. Het hele punt is verhullen dat de game op een lagere resolutie is gerenderd en er dus blurry eruit hoort te zien. DLSS 1.0 was ook zo blurry en dat kwam omdat Nvidia hun model voor 1.0 ook niet werkte.
En er zijn meerdere in-game instellingen voor DLSS: quality, balanced, performance en ultra performance. Die instellingen zijn letterlijk telkens lagere render resoluties. En die instellingen zijn er niet voor niets, je kunt niet verwachten dat de performance instelling er net zo goed uitziet als de quality instelling. In spellen met DLSS 2.0 die al uitgebracht zijn is alleen de quality instelling ongeveer net zo goed als de originele resolutie.
Ik weet hoe DLSS2.0 werkt dank je. Dat ik nu drie woordjes vergeet, zie edit, omdat ik de reactie even heel snel typte terwijl ik wat anders deed, geeft jou alleen absoluut het recht niet om mij zo te gaan beschuldigen.cnieuweboer schreef op dinsdag 8 december 2020 @ 10:11:
[...]
DLSS is AI upscaling, niet alleen een sharpening filter. Als je daar meer over wil weten is er genoeg informatie te vinden op het internet (maar gezien je andere reacties op dit forum denk ik dat je dat wel weet, troll-post?).
En er zijn meerdere in-game instellingen voor DLSS: quality, balanced, performance en ultra performance. Die instellingen zijn letterlijk telkens lagere render resoluties. En die instellingen zijn er niet voor niets, je kunt niet verwachten dat de performance instelling er net zo goed uitziet als de quality instelling. In spellen met DLSS 2.0 die al uitgebracht zijn is alleen de quality instelling ongeveer net zo goed als de originele resolutie.
Nota bene ben ik ook nog eens behoorlijk dyslectisch tot het punt dat ik dus een zeer matige feedback loop heb als het om tekst gaat. Ik kan zo delen van de beoogde zinsstructuur missen die ik in mijn hoofd wel heb getypt en ik heb werkelijk geen idee totdat ik het later teruglees. Dat gebeurd vaak als ik lange reacties en/of te snel typ. Ook mis ik vaak woorden omdat ik sneller denk dan ik kan verwerken wat ik heb getypt en zo vallen woorden dus ook weg. Wederom, dat effect word sterker als ik snel iets typ.
Om het nog maar even heel duidelijk te maken. Dergelijke reacties zijn niet alleen vrij onbeschoft in het algemeen of zeer ongewenst op dit forum, maar het is ook vrij, laten we zeggen onhandig om dit juist bij een moderator te gaan doen. Daar laat ik het maar bij.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het gaat niet om alleen 3 woordjes vergeten. Je beweert op basis van 1 anekdote dat DLSS echt kapot is. En je gaat voorbij aan verschillende DLSS instellingen en waar die voor bedoeld zijn. Dat creëert een beeld dat je niet weet waar je het over hebt, of trollt.DaniëlWW2 schreef op dinsdag 8 december 2020 @ 10:47:Ik weet hoe DLSS2.0 werkt dank je. Dat ik nu drie woordjes vergeet, zie edit, omdat ik de reactie even heel snel typte terwijl ik wat anders deed, geeft jou alleen absoluut het recht niet om mij zo te gaan beschuldigen.
Als die youtuber bijvoorbeeld op DLSS ultra performance mode blurry beeld krijgt, is dat niet zo verwonderlijk. Maar als dat op DLSS quality mode gebeurd is er wel iets meer aan de hand. Het punt is dat we dat niet op kunnen maken uit zijn (warrige) verhaal.
DaniëlWW2 schreef op maandag 7 december 2020 @ 18:25:
En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.
Er zijn steeds meer geruchten over de GA103. Hier komt ie ook weer terug op de frontpage:Werelds schreef op maandag 7 december 2020 @ 21:29:
Allemaal die theoretische producten als een GA103 (die nooit zal verschijnen) zouden even goed de huidige lineup opvreten. De 2080S zou ook een nieuwe chip worden. En er zou ook een 2080 Ti Super komen, ook met een geheel nieuwe chip.
https://tweakers.net/nieu...3070-ti-3060-en-3050.html
Maar dan voor de 3070 Ti, de 3080 Ti blijft een GA102.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
cnieuweboer schreef op dinsdag 8 december 2020 @ 14:20:
[...]
Het gaat niet om alleen 3 woordjes vergeten. Je beweert op basis van 1 anekdote dat DLSS echt kapot is. En je gaat voorbij aan verschillende DLSS instellingen en waar die voor bedoeld zijn. Dat creëert een beeld dat je niet weet waar je het over hebt, of trollt.
Als die youtuber bijvoorbeeld op DLSS ultra performance mode blurry beeld krijgt, is dat niet zo verwonderlijk. Maar als dat op DLSS quality mode gebeurd is er wel iets meer aan de hand. Het punt is dat we dat niet op kunnen maken uit zijn (warrige) verhaal.
Je wil het er toch echt zelf in lezen.DaniëlWW2 schreef op maandag 7 december 2020 @ 21:41:
En in ander Nvidia nieuws. Nou de game komt eraan en ik zit wat indrukken te kijken. Nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077. Blijkbaar zijn er plekken waar het echt heel erg blurry is. Want dat is wat Nvidia echt nodig heeft, alweer gedoe met hun tech in een CD Projekt Red game.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Een 3090 heeft wel ~20% meer actieve cuda cores tov een 3080 maar om die tot uiting te laten komen en laten schalen moet dat ook met de powerlimit. Zoals een verhoging naar 390W van sommige AIB modellen, of evenredig voor een 3080 omlaag kan ook.DaniëlWW2 schreef op maandag 7 december 2020 @ 18:25:
[...]
En dat is het voor mij toch een beetje met "GA103". Ik ben namelijk niet zo onder de indruk van GA102. Er staat aardig wat uit voor de RTX3080, maar de RTX3090 presteert vaak niet echt dat je denkt dat die zoveel extra van de GA102 chip actief heeft.
Een GA103 met 60SM's/3840/7680 Cuda Cores en een 320 bit bus/10GB GDDR6X als RTX3070Ti voor $600-$650, tja ik sluit het niet uit. Dan heb je iets dat beter op zou moeten kunnen tegen Navi 21 en voornamelijk voor Nvidia iets waar wel eens meer marge op kan zitten omdat je voor heel wat minder oppervlakte betaald hebt voor redelijk vergelijkbare prestaties met een RTX3080. PCB ontwerpen zal je ook kunnen hergebruiken op deze manier. De RTX3080 is dan een beetje overbodig, dus die laat Nvidia stilletjes verdwijnen. Dan de RTX3080Ti ook met 82SM's en 12GB op $899-$999. RTX3090 verkoop je voor het privilege van 24GB aan VRAM.
Ik kijk ook naar de langere termijn. De verhalen dat we eind volgend jaar al Hopper krijgen op "5nm", welke 5nm dat ook mag zijn want ik weet nog zo net niet of het TSMC zal zijn, tja ik heb zo mijn twijfels. Ik denk eerder dat de eerste Hopper pas ergens diep in H1/2022 zal verschijnen en dat zal dan GH100 zijn. GH102 etc later in het jaar. Tja, AMD heeft dan allang RDNA3 uitgebracht want die zitten inmiddels ook daar met afwisselende teams te "tick tocken". Als ik gelijk krijg met mijn vermoeden, dan kan Nvidia wel eens gedwongen worden om op kosten te gaan concurreren in het laatste deel van de Ampere levenscyclus. Veel heeft "Navi 31" niet nodig om GA102 echt helemaal te verslaan. We weten nu nog niet eens echt wat de RX6900XT gaat doen tegenover de RTX3090, maar het zullen geen grote marges zijn, wie dat ook wint.
Zie een eerder 3090 Strix review.
Er blijkt inmiddels uit de 6900XT reviews dat er gemiddeld een 6 á 7% verschil is op 4K tussen een 3090 FE en wordt kleiner op gelijke power limit. Complexere RT ipv schaduweffecten is nog niet op niveau maar dit ook de eerste stap voor AMD. En de prijs is lager maar of ze daar op korte termijn voor te koop zijn.. misschien net zo weinig als FE's voor de adviesprijzen. NL tot op heden al uitgesloten bij Nvidia helaas. Er op in springen met een 3080Ti FE kan maar moeten beide partijen er geen msrp vaporware van maken.The RTX 3080 has 8704 shaders, and the RTX 3090 has 10496, which is 20% more, so where's the rest of the performance? On the RTX 3090 reference, the power limit has been set only marginally higher than on the RTX 3080 to keep power/heat/noise at reasonable levels, 320 W vs. 350 W. ASUS was wise to raise that limit much further, to 390 W, which helps gain additional performance over the base RTX 3090. The difference from 320 to 390 W is 22%, pretty close to the 19% performance difference we measured. It looks like Ampere performance mostly scales with the power limit, not clocks or shaders.
Nvidia heeft deze ronde nog in absolute prestaties maar dat wisten ze wellicht want dat is zeker niet op prijs gedaan. Een volgende generatie zal van beide fabrikanten weer sneller zijn, koop je die en zal die daarop ook weer sneller zijn. Zo gaat dat nou eenmaal. Normaal gesproken gaat het ook meer om de mainstream markt en daarvoor is de huidige concurrentie alleen maar goed en zijn geen van die kaarten een slechte keus tov een jaar geleden dacht ik. Beide kampen mogen er ieder geval hard aan gaan trekken om elkaar voor te blijven. Tijdje geleden.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Des te meer sku's des te meer dev kosten voor de kaarten en des te hogere prijzen.
Ik begin aardig wanhopig te worden want mijn kaart staat echt al met 1 been in de kist en ik zit meer te wachten op beschikbaarheid van de nieuwe kaarten dan nog meer modellen.
Dat het op de FP staat zegt niet veel, is gewoon een opsomming van geruchtenXanderDrake schreef op dinsdag 8 december 2020 @ 20:02:
[...]
[...]
Er zijn steeds meer geruchten over de GA103. Hier komt ie ook weer terug op de frontpage:
https://tweakers.net/nieu...3070-ti-3060-en-3050.html
Maar dan voor de 3070 Ti, de 3080 Ti blijft een GA102.
We zullen het wel zien, ik geloof er nog steeds niet in. Nvidia is erg consistent in de naamgeving van hun chips en een "x3" past gewoon niet in het rijtje. Los van het feit dat die hypothetische producten in die tabel nog steeds de bestaande lineup volledig kannibaliseren. Die 3080 Ti kunnen ze niet inzetten zonder de 3080 of de 3090 irrelevant te maken - sterker nog, met de (on)juiste prijs zou die beide pijn kunnen doen. En dat geldt nog meer voor die 3070 Ti. Die RTX 3060 12GB zie ik ook niet zitten, dat kunnen ze marketingtechnisch niet verantwoorden.
Het verschil in performance is helemaal niet zo lastig, maar de meeste tech pers gaat gewoon in Nvidia's BS marketing mee.M-spec schreef op dinsdag 8 december 2020 @ 22:21:
Een 3090 heeft wel ~20% meer actieve cuda cores tov een 3080 maar om die tot uiting te laten komen en laten schalen moet dat ook met de powerlimit. Zoals een verhoging naar 390W van sommige AIB modellen, of evenredig voor een 3080 omlaag kan ook.
20% meer "CUDA cores" is te kort door de bocht. De helft van die ALU's is dual-issue FP32/INT32. Dat wil zeggen dat er in het slechtste geval slechts 10% meer FP32 beschikbaar is (omdat die units INT32 zitten te doen) en dat is de leidende factor voor performance. En in de praktijk is inmiddels gebleken dat 30-40% meer FP32 throughput via die dual-issue units al een goed resultaat is, in de meeste games blijft dat op 20-25% steken, als het al zo ver komt. En dat alles draait dan op iets lagere kloksnelheden dan in de 3080. En de scheduler zal maar zelden álle extra units aan het werk kunnen zetten.
Zo verrassend is het kleine verschil tussen die twee producten dus niet.
Ah! Maar er is nuance in de zaak. De 3060ti gebruikt bijvoorbeeld dezelfde chip als de 3070, maar een van lagere kwaliteit. Hetzelfde zal hoogstwaarschijnlijk gelden voor de 3070ti tov de 3080.computerjunky schreef op dinsdag 8 december 2020 @ 23:15:
Tja TI modelen klinkt leuk maar ik denk dat beide bedrijven eerst even de huidige paar chips kunnen gebruiken en alle productie daar vol op inzetten ipv nog meer producten de markt in te slingeren die niet te koop zijn.
Des te meer sku's des te meer dev kosten voor de kaarten en des te hogere prijzen.
Ik begin aardig wanhopig te worden want mijn kaart staat echt al met 1 been in de kist en ik zit meer te wachten op beschikbaarheid van de nieuwe kaarten dan nog meer modellen.
Dus het zijn eigenlijk chips die ze nu gebruiken die anders weggegooid kunnen worden omdat de chips niet goed genoeg zijn voor de modellen waarvoor ze bedoeld zijn.
En dan passen ze nog wat extra dingen aan zodat het verschil weer wat groter is.
Voor een 3090 FE out of the box niet zo verrassend, dat klopt. Maar dit kan met verhogen van de power limit dus nog oplopen tot 19% bij een bijna evenredige power draw. Ook een iets bredere geheugenbus, het totaal aan geheugen pakt nog iets meer power. Op dat punt is het verschil weer bijna hetzelfde als 2080S en 2080Ti.Werelds schreef op woensdag 9 december 2020 @ 11:46:
[...]
Het verschil in performance is helemaal niet zo lastig, maar de meeste tech pers gaat gewoon in Nvidia's BS marketing mee.
20% meer "CUDA cores" is te kort door de bocht. De helft van die ALU's is dual-issue FP32/INT32. Dat wil zeggen dat er in het slechtste geval slechts 10% meer FP32 beschikbaar is (omdat die units INT32 zitten te doen) en dat is de leidende factor voor performance. En in de praktijk is inmiddels gebleken dat 30-40% meer FP32 throughput via die dual-issue units al een goed resultaat is, in de meeste games blijft dat op 20-25% steken, als het al zo ver komt. En dat alles draait dan op iets lagere kloksnelheden dan in de 3080. En de scheduler zal maar zelden álle extra units aan het werk kunnen zetten.
Zo verrassend is het kleine verschil tussen die twee producten dus niet.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Ik heb net een filmpje gekeken van LTT waar ze Cyberpunk draaien met DLSS op 8k en dergelijke. Maar nee, ik zie ook niet waarom jij zou zeggen dat DLSS kapot zou zijn.DaniëlWW2 schreef op maandag 7 december 2020 @ 21:41:
Nou het lijkt erop dat DLSS vooralsnog echt kapot is in Cyberpunk 2077. Blijkbaar zijn er plekken waar het echt heel erg blurry is. Want dat is wat Nvidia echt nodig heeft, alweer gedoe met hun tech in een CD Projekt Red game.
Je hebt allerlei DLSS settings en bijvoorbeeld de Quality setting is niet echt te onderscheiden van DLSS off. Misschien jou filmpje hem op performance staan ofzo?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Gedateerd kaartje hoorXanderDrake schreef op maandag 16 november 2020 @ 19:55:
[...]
Ik ben heeeel benieuwd of een midrange kaart op steriods sneller gaat zijn dan mijn GTX 1080 Ti!
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Verwijderd
Ligt ook aan je resolutie, op 1440p is eigenlijk alles beneden de "quality" DLSS setting behoorlijk wazig.XanderDrake schreef op donderdag 10 december 2020 @ 07:57:
[...]
Ik heb net een filmpje gekeken van LTT waar ze Cyberpunk draaien met DLSS op 8k en dergelijke. Maar nee, ik zie ook niet waarom jij zou zeggen dat DLSS kapot zou zijn.
Je hebt allerlei DLSS settings en bijvoorbeeld de Quality setting is niet echt te onderscheiden van DLSS off. Misschien jou filmpje hem op performance staan ofzo?
(In zowel Cyberpunk als Watch Dogs Legion bijvoorbeeld) Op 4k en 8k zullen de lagere instellingen het beduidend beter doen.
Vooralsnog kan ik alleen maar zeggen dat DLSS me toch een beetje tegen valt, het draagt zeker bij aan betere frame rates, maar in de spellen die ik tot nu toe gespeeld heb is dit onvoldoende om de performance-hit van Ray tracing te compenseren. (Op 1440p iig)
Tenzij je bereid bent om de aanzienlijke vermindering in scherpte en beeldkwaliteit van "Balanced" of "Performance" te accepteren.
Ik zou DLSS zelf ook niet direct "kapot" noemen, maar ik zou de lagere instellingen ook nooit gebruiken...
Vind dit ook wel een minpuntje van de de diverse "tech kanalen": Er wordt voornamelijk gekeken naar de prestaties bij 4k , waarbij (de combinatie van) beide nieuwe technieken de hemel in geprezen worden, terwijl het op 1440p veel minder indrukwekkend is.
[ Voor 13% gewijzigd door Verwijderd op 11-12-2020 08:14 ]
Censuur is nooit juiste weg... Kan me niet voorstellen dat dit Nividia gaat opleveren wat ze in gedachten hebben, immers waar rook is, is vuur. En nu creer je juist aandacht voor rasterization..onsgeluk schreef op vrijdag 11 december 2020 @ 09:50:
Inzake de techtubers, hadden jullie deze al meegekregen?
[Afbeelding]
Het betekend in ieder geval dat Nvidia voelt dat er concurrentie is.kerath schreef op vrijdag 11 december 2020 @ 09:54:
[...]
Censuur is nooit juiste weg... Kan me niet voorstellen dat dit Nividia gaat opleveren wat ze in gedachten hebben, immers waar rook is, is vuur. En nu creer je juist aandacht voor rasterization..
Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.
https://share.getcloudapp.com/kpuNKEqn
Ik ga hier niet eens woorden aan vuil maken. Wat een grap.
[ Voor 25% gewijzigd door Werelds op 11-12-2020 10:32 ]
Ik zag dit ook vanochtend, wat een bizarre actie van nVidia. Hier mag best wel wat aandacht aan gegeven worden door Tweakers IMO.Werelds schreef op vrijdag 11 december 2020 @ 10:31:
YouTube: Hardware Unboxed - YouTube
https://share.getcloudapp.com/kpuNKEqn
Ik ga hier niet eens woorden aan vuil maken. Wat een grap.
Dus, de outlets die nog wel kaarten krijgen, rapporteren die nu vrijwillig conform het gewenste nvidia narratief.... ?chris_vanr schreef op vrijdag 11 december 2020 @ 11:01:
[...]
Ik zag dit ook vanochtend, wat een bizarre actie van nVidia. Hier mag best wel wat aandacht aan gegeven worden door Tweakers IMO.
vragen, vragen....
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Het zat er langzaam aan te komen...Werelds schreef op vrijdag 11 december 2020 @ 10:31:
YouTube: Hardware Unboxed - YouTube
https://share.getcloudapp.com/kpuNKEqn
Ik ga hier niet eens woorden aan vuil maken. Wat een grap.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Domme actie weerWerelds schreef op vrijdag 11 december 2020 @ 10:31:
YouTube: Hardware Unboxed - YouTube
https://share.getcloudapp.com/kpuNKEqn
Ik ga hier niet eens woorden aan vuil maken. Wat een grap.
Uiteindelijk zal het wel met een sisser aflopen, want we weten allemaal hoe mensen met een internet connectie en een toetsenbord zijn. Die gaan gelijk nuclear en Nvidia gaat dan vervolgens gauw lijmen achter de schermen.
Vraag met dan wel af welke uitspraak de druppel is geweest voor de verstoorde relatie
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Dat snap ik dus niet. Het kan niet aan hun benchmark suite liggen, want ze hebben 5 van de 6 games die níet beperkt zijn tot Nvidia in hun repertoire. De 6e game is World of Warcraftsjekneck schreef op vrijdag 11 december 2020 @ 11:14:
Vraag met dan wel af welke uitspraak de druppel is geweest voor de verstoorde relatie
Of wil Nvidia dat ze games benchmarken die enkel met andere RTX kaarten te vergelijken zijn?
Ze krijgen alleen geen Founders Edition kaarten, wat effectief betekent dat ze geen reviews meer op launchday kunnen doen. HWU heeft daar verder schijt aan en zal gewoon AIB kaarten blijven reviewen als ze uit komen, is niet de eerste keer voor zeRobinNL schreef op vrijdag 11 december 2020 @ 11:14:
Is het niet mogelijk dat reviewers tijdelijk de kaart uitlenen aan Hardware Unboxed om een review te kunnen laten maken? Ik dacht dat er ook zoiets werd gedaan tussen HWI en Tweakers vroeger.
Dat hebben ze daar wel eerder gedaan. Verder kopen ze daar ook wel videokaarten als het nodig is. Het is voornamelijk rond launches met alleen FE modellen waar dit pijn gaat doen.RobinNL schreef op vrijdag 11 december 2020 @ 11:14:
Is het niet mogelijk dat reviewers tijdelijk de kaart uitlenen aan Hardware Unboxed om een review te kunnen laten maken? Ik dacht dat er ook zoiets werd gedaan tussen HWI en Tweakers vroeger.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Slechte zaak, gelukkig valt daar wel makkelijk omheen te werken.onsgeluk schreef op vrijdag 11 december 2020 @ 09:50:
Inzake de techtubers, hadden jullie deze al meegekregen?
[Afbeelding]
Moet trouwens wel zeggen dat ik zelf ook vond dat ze weinig deden in reviews met raytracing en de andere software features die imho deze generatie, naast de verkrijgbaarheid, verwacht ik toch de belangrijkste selling points zullen zijn. Maar goed daar zijn ze bij lange na niet de enige in.
Die paar % her en der in rasterization performance vind ik eigenlijk niet zo heel interessant als ik zelf eerlijk moet zijn, die is bij alle kaarten gewoon goed en doen mij in ieder geval niet overhalen om kaart X te kopen van met Y in plaats van kaart A van merk B.
Wel grappig dat alle fanboy's direct weer losgaan op Twitter onder dat bericht.
[ Voor 3% gewijzigd door Dennism op 11-12-2020 11:28 ]
Steve heeft bij meerdere recente reviews aangegeven dat RTX niet aan hem besteed met best venijnige uitspraken. Hij is stevig kritisch geweest over de performance hit die RTX geeft en volgens hem voegt het weinig toe. Ik kan de video's die ik bedoel zo snel niet meer vinden want er zijn nogal wat RTX30xx video's van HWU uitgekomen sinds de 3080 release.Werelds schreef op vrijdag 11 december 2020 @ 11:20:
[...]
Dat snap ik dus niet. Het kan niet aan hun benchmark suite liggen, want ze hebben 5 van de 6 games die níet beperkt zijn tot Nvidia in hun repertoire. De 6e game is World of Warcraft
Of wil Nvidia dat ze games benchmarken die enkel met andere RTX kaarten te vergelijken zijn?
[...]
Ze krijgen alleen geen Founders Edition kaarten, wat effectief betekent dat ze geen reviews meer op launchday kunnen doen. HWU heeft daar verder schijt aan en zal gewoon AIB kaarten blijven reviewen als ze uit komen, is niet de eerste keer voor ze
Wie goed doet, die goed ontmoet.
Dat is niet best nee. Een ban omdat een manier van reviewen je niet bevalt.. met zoveel viewers. Zolang een review maar objectief blijft. Er zal vast iets meer aan vooraf zijn gegaan.Werelds schreef op vrijdag 11 december 2020 @ 10:31:
YouTube: Hardware Unboxed - YouTube
https://share.getcloudapp.com/kpuNKEqn
Ik ga hier niet eens woorden aan vuil maken. Wat een grap.
[ Voor 21% gewijzigd door M-spec op 11-12-2020 18:02 ]
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Zie mijn post in het andere draadje: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"Dennism schreef op vrijdag 11 december 2020 @ 11:25:
Slechte zaak, gelukkig valt daar wel makkelijk omheen te werken.
Moet trouwens wel zeggen dat ik zelf ook vond dat ze weinig deden in reviews met raytracing en de andere software features die imho deze generatie, naast de verkrijgbaarheid, verwacht ik toch de belangrijkste selling points zullen zijn. Maar goed daar zijn ze bij lange na niet de enige in.
Hoe kunnen ze meer aan RT doen, als er niet meer beschikbaar is? Ze testen 5 games die RT correct via DXR doen; de enige andere game die ze zouden kunnen testen is WoW. Niet bepaald interessant. Vervolgens testen ze ook gewoon met meerdere DLSS settings en testen ze meerdere RT presets. Hoe veel meer kunnen ze doen?
Ik denk dat ze de focus er niet op hebben omdat de patreons en community daar niet om vraagd. Om de zoveel tijd stellen ze een vraag en maken ze content op basis van dat antwoord. Als 90% geen interesse heeft in RT dan is dat een duidelijk signaal en dat zou voor Nviida ook een duidelijk signaal moeten zijn dat het gewoon nog niet genoeg ingeburgerd is.Dennism schreef op vrijdag 11 december 2020 @ 11:25:
[...]
Slechte zaak, gelukkig valt daar wel makkelijk omheen te werken.
Moet trouwens wel zeggen dat ik zelf ook vond dat ze weinig deden in reviews met raytracing en de andere software features die imho deze generatie, naast de verkrijgbaarheid, verwacht ik toch de belangrijkste selling points zullen zijn. Maar goed daar zijn ze bij lange na niet de enige in.
Die paar % her en der in rasterization performance vind ik eigenlijk niet zo heel interessant als ik zelf eerlijk moet zijn, die is bij alle kaarten gewoon goed en doen mij in ieder geval niet overhalen om kaart X te kopen van met Y in plaats van kaart A van merk B.
Wel grappig dat alle fanboy's direct weer losgaan op Twitter onder dat bericht.
Nu weet ik niet of ze deze vraag specifiek hebben gevraagd; maar ik zie een boel vergelijkbare vragen voorbij komen op hun channel.
Ik vind het in ieder geval een laffe zet van Nvidia, maar het is hun goed recht.
Ze moeten het verheerlijken zoals Digital Foundry; die doen alsof het wiel opnieuw is uitgevondenWerelds schreef op vrijdag 11 december 2020 @ 12:05:
[...]
Zie mijn post in het andere draadje: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Hoe kunnen ze meer aan RT doen, als er niet meer beschikbaar is? Ze testen 5 games die RT correct via DXR doen; de enige andere game die ze zouden kunnen testen is WoW. Niet bepaald interessant. Vervolgens testen ze ook gewoon met meerdere DLSS settings en testen ze meerdere RT presets. Hoe veel meer kunnen ze doen?
Het is natuurlijk niet alleen raytracing, al zou ik juist WoW wel interessant vinden, waarom? 2 ledig:Werelds schreef op vrijdag 11 december 2020 @ 12:05:
[...]
Zie mijn post in het andere draadje: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Hoe kunnen ze meer aan RT doen, als er niet meer beschikbaar is? Ze testen 5 games die RT correct via DXR doen; de enige andere game die ze zouden kunnen testen is WoW. Niet bepaald interessant. Vervolgens testen ze ook gewoon met meerdere DLSS settings en testen ze meerdere RT presets. Hoe veel meer kunnen ze doen?
1 het is de enige game momenteel die ik speel die RT support heeft (al zal CP 2077 daarbij komen wanneer die game enige tijd uit is). Dus voor mij zou het een extreem relevante test zijn aangezien dat het workload is die ik veel draai. Dat jij schijnbaar WoW, om welke reden dan ook niet interessant vind, neemt niet weg dat deze game voor miljoenen wel interessant is, het is immers nog steeds de leading MMO in de wereld en het zou mij weinig verbazen als WoW na de meest verkochte RT titel op dit moment is, en ik verwacht de op 2 na meest gespeelde titel (op Fortnite na). Dat lijkt mij dan juist een zeer relevante titel om te testen.
2. Voor zover ik weet is WoW een AMD implementatie en niet Nvidia sponsored. Is dus interessant om die verschillen te laten zien aangezien er vermoedens zijn dat AMD's implementatie mogelijk in nieuwere titels het beter zou doen.
Daarnaast zou ik graag zien dat reviews dieper in zouden gaan op de overige software features. wat biedt RIS mij in bepaalde situaties, hoe goed is RTX voice / Broadcast voor multiplayers games / streaming. Dat soort dingen, juist de "unique" selling points meer belichten, dat zou ik persoonlijk interessanter vinden dan een focus op rasterization performance waar weinig verschil zit tussen de kaarten en iedere kaart het gewoon goed doet en presteert zoals van te voren eigenlijk al voorspelt. Maar goed, dat is een persoonlijke voorkeur natuurlijk.
Kijk je bijvoorbeeld naar de HWU reviews van de 3080 FE dan gaat +-1,5-2 minuten van de 35 minuten over raytracing en testen ze 1 game. Dat vind ik persoonlijk toch echt matig.
Neemt niet weg dat Steve een van de reviewers is waar ik het meeste vertrouwen in heb, maar dit vond ik altijd wel jammer in hun recente gpu reviews.
@Sp3ci3s8472 Dat van de Patreons kan natuurlijk, dat soort vragen stellen ze inderdaad vaak, al weet ik ook niet of daar een vraag is gesteld over raytracing.
Edit: kan geen poll vinden, wel deze reactie over de 6800XT review: https://twitter.com/Hardw...tatus/1329096824410439681
Lijkt er dus dat hoewel er dus wel veel vraag naar lijkt te zijn, dat ze het niet testen omdat het aantal games (nog) laag ligt. Al lijkt dat lijstje van hun niet volledig, WoW heeft bijvoorbeeld ook RT support en had dat ook op die datum van de tweet.
[ Voor 20% gewijzigd door Dennism op 11-12-2020 12:37 ]
WoW heeft echter ook meerdere problemen waardoor het vanuit technisch perspectief niet echt spannend. Het is bijzonder dynamisch en loopt vrij snel tegen een CPU limiet aan. Met RT zal het vast tegen een GPU limiet aan lopen, echter is dat ook bijzonder misleidend doordat de rest van het spel de GPU nauwelijks belast. Het is een onevenredige belasting, waardoor de balans tussen verschillende chips er waarschijnlijk heel vreemd uit ziet (in negatieve zin). Ik weet niet of er al ergens een site het spel gebenchmarkt heeft, dus wellicht heb ik het mis, maar ik zie niet in hoe het spel een goede benchmark zou zijnDennism schreef op vrijdag 11 december 2020 @ 12:16:
[...]
Het is natuurlijk niet alleen raytracing, al zou ik juist WoW wel interessant vinden, waarom? 2 ledig:
1 het is de enige game momenteel die ik speel die RT support heeft (al zal CP 2077 daarbij komen wanneer die game enige tijd uit is).
2. Voor zover ik weet is WoW een AMD implementatie en niet Nvidia sponsored. Is dus interessant om die verschillen te laten zien aangezien er vermoedens zijn dat AMD's implementatie mogelijk in nieuwere titels het beter zou doen.
Op die manier loop je echter ook het risico een reclame video te maken. Zoiets als RTX voice heeft al eigen video's en behoeft niet gebenchmarkt te worden bij elke release. Hetzelfde geldt voor zoiets als RIS. Die dingen zijn vrij statisch in hun gedrag en impact, dus om dat nu bij elke release opnieuw te testen heeft weinig nut. Als je dat soort dingen gaat testen, moet je bijvoorbeeld ook telkens gaan kijken wat de impact van Shadowplay is, of wat voor impact OBS met verschillende encoders heeft. Dat zijn echter zulke specifieke usecases dat het publiek van een kanaal als HWU daar gewoon geen behoefte aan heeft.Daarnaast zou ik graag zien dat reviews dieper in zouden gaan op de overige software features. wat biedt RIS mij in bepaalde situaties, hoe goed is RTX voice / Broadcast voor multiplayers games / streaming. Dat soort dingen, juist de "unique" selling points meer belichten, dat zou ik persoonlijk interessanter vinden dan een focus op rasterization performance waar weinig verschil zit tussen de kaarten en iedere kaart het gewoon goed doet en presteert zoals van te voren eigenlijk al voorspelt. Maar goed, dat is een persoonlijke voorkeur natuurlijk.
Deze gemist dan? YouTube: GeForce RTX 3080 Ray Tracing & DLSS Performance, RTX ON vs OFFKijk je bijvoorbeeld naar de HWU reviews van de 3080 FE dan gaat +-1,5-2 minuten van de 35 minuten over raytracing en testen ze 1 game. Dat vind ik persoonlijk toch echt matig.
Spelleffects en enchanted weapons voegen geen extra licht toe en dat zou juist het gaafste zijn.
Een vlammende bijl werpt nog steeds een schaduw in plaats van dat het een lichtbron is. Juist voor die effecten zou ik raytracing willen.
Zo'n performance hit voor een minimale raytracing implementatie.
Als je enkel wow speelt kan iemand volgens mij beter een kaart kopen die zonder raytracing de meeste FPS heeft. Dan is ie onder de streep goedkoper uit.
Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.
Daarbij is het maar de vraag of het ooit iets gaat worden. Als de implementatie niet van de grond komt is het 'leuk' dat het er is, maar meer ook niet. Kijk maar naar SLI en CrossFire. Super techniek, geen enkele recente game die hier gebruik van maakt. Voor de 6900XT op CrossFire review hebben ze spellen van 4-5 jaar oud moeten gebruiken, simpelweg omdat er geen recentere titels zijn die het ondersteunen.
Hetzelfde geldt ook voor multi-threading. 'Can it run Crysis' is nog steeds actueel, simpelweg omdat het allemaal op 1 CPU thread draait. Een beetje mainstream CPU heeft tegenwoordig 4 of 6 cores met 8 tot 12 threads. Waarom dan alles single core maken?
In plaats van onnodige technieken bedenken om de 0,1% van de markt even een gimmick te geven (ja zo weinig, wie heeft het er geld om elke 6-12 maanden een nieuwe PC samen te stellen met het duurste van het duurste...) zouden ze iets moeten gaan doen aan optimalisatie en technieken gebruiken die er al jaren zijn. We leven niet meer in de jaren '90, hoe moeilijk kan het zijn om een game engine multi-threaded te maken en dit als spel ontwikkelaar ook te gebruiken.
/f/image/ia3bthZa7DVG5IXmUAhWtKrS.png?f=fotoalbum_large)
Cyberpunk 2077: PC graphics perf benchmark review
Je kan dit ook andersom zien, dus als je niet nVidia ophemelt kan je verwachten dat je geen reviewsamples krijgt.. Dit helpt ook niet voor neutrale reviews. Je mag blijkbaar niet het kritiek hebben dan Raytracing momenteel weinig toevoegt.
Er hoeft helemaal niemand opgehemeld te worden. maar De 1 de hemel in prijzen en problemen bijna ontkennen en de andere doen voorkomen als irrelevante feate gaat mij te ver. Ik vind zelf DLSS meer potentie hebben op de korte termijn als RTX en ook rtx voice vind ik een topper en reflex heeft potentie maar faalt denk ik bij de implementatie maar lijdt hopelijk wel tot een andere standaard.Eikeltje schreef op vrijdag 11 december 2020 @ 14:44:
[...]
Je kan dit ook andersom zien, dus als je niet nVidia ophemelt kan je verwachten dat je geen reviewsamples krijgt.. Dit helpt ook niet voor neutrale reviews. Je mag blijkbaar niet het kritiek hebben dan Raytracing momenteel weinig toevoegt.
Wat heeft AMD ons de afgelopen jaren aan nieuwe features gebracht.
Als een die hard gamer brengt nvidia gewoon veel meer en betere features en ja dat kost helaas een premium maar als niemand die eerste stappen zet komen we nergens.
En dat mag dan wel eens gezegd worden ipv afgezeken omdat het in het begin nvidia exclusief is.
Ik denk namelijk dat Cyberpunk 2077 heel erg gecodeerd is rond Turing en dat de reden is waarom er prestatieproblemen zijn voor met name de consoles.
Ik pak hier het liefst 1440p erbij en kijk naar de RTX2070 vs. RX5700 en RTX2070S vs. RX5700XT. Deze hebben namelijk een identiek aantal FP ALU's. Het verschil is altijd dat de Nvidia modellen nog een extra set aan INT ALU's hebben. Ik denk dat deze hier een serieuze rol spelen in het verschil.
Zodra de RX5700XT onder de RTX2070 uitkomt, moet je gaan opletten. Er zijn voorbeelden te bedenken op 4K waar dit gebeurd, maar meestal gebeurd dit niet. Dit gebeurd op 4K wel eens omdat op die resolutie, je zo veel meer pixels hebt die zo veel meer FP instructies vragen om het beeld te vullen, dat een Navi 10 chip simpelweg te weinig ALU's heeft in te weinig georganiseerde rekenclusters. Ik vermoed dat dit hier al op 1440p gebeurd.
De gedachte wordt gesterkt door de 1440p medium resultaten. Hier zullen heel wat INT instructies wegvallen en opeens lopen de RX5700 en RX5700XT weer in. Ik merkte het zelf ook al dat het verlagen van veel compute intensieve effecten eigenlijk een vergelijkbaar effect heeft op framerate als naar medium gaan. Radeon VII en de Navi 21 chips, lijken het simpelweg te kunnen brute forcen omdat ze zoveel meer ALU's hebben in veel meer rekenclusters dan een Navi 10.
Ik vermoed dus dat deze game heel erg geprogrammeerd is rond de specifieke hardwarecapaciteiten van Turing. Waar RDNA maximaal 32x FP32 of 32X INT32 instructies per CU, per clock cycle kan afhandelen, kan Turing maximaal 16x FP32 + 16x INT32 doen per rekencluster. Dat lijkt hier het verschil te maken. Turing had altijd een theoretisch voordeel in aantal af te handelen instructies omdat Turing concurrently FP en INT kan doen, maar het is iets dat echt maar zelden tot uiting komt. Ik vermoed dat dit komt omdat het voor Nvidia veel moeilijker is om dit echt goed te schedulen en ze hier heel erg afhankelijk zijn van de developer om specifiek voor Turing te optimaliseren. Waarschijnlijk is dit echt een best case scenario voor Nvidia.
Als dit klopt, tja dat wordt huilen met de pet op voor consoles, zeker de vorige generatie. Het gemopper is duidelijk en waarschijnlijk ook terecht, maar een snelle fix lijkt er dan ook niet in te zitten. Die GCN based consoles kunnen hier waarschijnlijk echt heel slecht mee omgaan omdat GCN juist veel grotere clusters van instructies wil hebben dan Turing. Dat zou wat verklaren hier.
:strip_exif()/f/image/h6D7qEAsYKgJiDL9a74O5f5c.jpg?f=fotoalbum_large)
:strip_exif()/f/image/lAE1nVc5hMyxxQqA33rFQ1IH.jpg?f=fotoalbum_large)
YouTube: Cyberpunk 2077 GPU Benchmark, 1080p, 1440p & 4K Medium/Ultra
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Sommige van dat soort zaken horen niet thuis tussen benchmarks, het is juist aan de koper om te beslissen of dat soort dingen doorslaggevend zijn. Die features worden behandeld bij hun release, dus dan heeft de koper de informatie toch? Dan heb ik het met name over de (en-/de-)coders, RTX Voice, Anti-Lag, Reflex en dergelijke. Geen van die dingen heeft direct impact op die specifieke GPU, het zijn vaak juist dingen die je voor merk A of B laat kiezen (al dan niet een specifieke generatie van dat merk).Dennism schreef op vrijdag 11 december 2020 @ 15:41:
Ik bedoelde dat meer in de zin van dat dze dat soort zaken meer genoemen in de reviews. Uiteraard hoef je van mij echt niet te testen hoeveel FPS het gebruik van RTX voice kost (of wint of whatever) maar meer van bijvoorbeeld een RX6800XT t.o.v. een RTX 3080 "Ok de rasterization performance van alle deze kaarten vallen binnen 5-10% van elkaar gemiddeld genomen en is dus niet bijster interessant, laten we eens kijken wat de verschillen zijn in feature set om zo misschien meer duiding te kunnen geven en wat deze kaarten nu wel onderscheid. Waar je dan zaken als DLSS, RT, Radeon anti lag, encoder kwaliteit en performance, kwaliteit van eventuele drivers en andere software in (lichte) vorm kan uitlichten om zo misschien meer duiding te geven aan de verschillen tussen de producten.
DLSS en RT zijn uiteraard een ander verhaal, die moeten weldegelijk behandeld worden omdat ze relatief toegankelijk zijn en een flinke impact op de performance kunnen hebben.
WoW ga ik verder maar niet meer op in, simpelweg omdat ik het spel niet ken en jij wel
Ze gaven echter al tijdens de review aan (in het RT segment) dat deze video zou komen omdat ze er dieper op in wilden gaan. De video in kwestie is 36 uur na de review online gekomen, terwijl de verkoop van de 3080 de dag na review startte (amper een halve dag vóór de RT video). Ja, de RT video kwam na release, maar als zij niet genoeg tijd krijgen om dat deel op tijd te leveren is dat Nvidia's fout.Nee, die had ik niet gemist, maar is pas uitgekomen na release en was dus niet relevant (meer) voor mij om te bepalen of ik bij release in de rij wilde gaan staan of niet. Dit had gewoon bij de review uit moeten komen zodat je hier kennis van kon nemen voordat de verkoop begon naar mijn mening.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
:strip_exif()/f/image/mzOMzak1evJItUQDZkJfU6l2.jpg?f=fotoalbum_large)