Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 19-09 23:04
Astennu schreef op vrijdag 9 oktober 2020 @ 13:50:
[...]


Tja veel te duur tov de FE. Vind die Strix altijd al overpriced voor wat je krijgt ook bij AMD.
Zou zelf dan toch voor een wat goedkoper model gaan die wel ok cooling heeft. Bij de 5700 serie bv de Pulse van Sapphire. Was niet duurder maar zat wel goe din elkaar.
+120 euro voor een Strix tov FE zou ik er niet voor over hebben. Ik heb zelf gewoon een Reference 5700 XT cooler ben ik ook tevreden mee. Kleine undervolt er op en hij is stil genoeg.
Persoonlijk denk ik. De TUF voor MSRP is een goede deal qua koeling en features, maar ook niet verkrijgbaar of kost ook 900 euro :+
Ook valt die bij mij al af omdat ik een O11 D-XL heb met vertical mount en daar ga ik geen kaart in hangen met een bandafdruk erin 8)7

Voor de rest had ik geen model gezien die qua features, uiterlijk en PCB deed wat ik wilde. Dus kwam zo bij de Strix/FTW3 uit. Maar nogmaals, ik heb eigenlijk ook liever een 7nm AMD kaart en het ziet er goed uit. Zal gaan kijken wat de beschikbaarheid doet, als Nvidia niks blijft cancel ik deze en ga ik op zoek naar een nette Sapphire 6900XT als de prijs goed is. :9

Vraag mij alleen af hoe AMD het aanpakt met raytracing in bijvoorbeeld Cyberpunk 2077? Heeft iemand daar informatie over, gaat het mogelijk zijn raytracing (of hoe heet het in het algemeen/bij AMD?) toe te passen of is het daar nog te vroeg voor?

[ Voor 9% gewijzigd door Santee op 09-10-2020 14:09 ]


Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 11:05
Astennu schreef op vrijdag 9 oktober 2020 @ 13:50:
[...]


Tja veel te duur tov de FE. Vind die Strix altijd al overpriced voor wat je krijgt ook bij AMD.
Zou zelf dan toch voor een wat goedkoper model gaan die wel ok cooling heeft. Bij de 5700 serie bv de Pulse van Sapphire. Was niet duurder maar zat wel goe din elkaar.
+120 euro voor een Strix tov FE zou ik er niet voor over hebben. Ik heb zelf gewoon een Reference 5700 XT cooler ben ik ook tevreden mee. Kleine undervolt er op en hij is stil genoeg.
Nouja als je bij een AMD-kaart voor de Strix-kaart gaat dan krijg je als bonus een heatsink in the middle of nowhere die niks doet. Zou daar dus zeker ook niet voor gaan, tenzij je fan bent van geld over de balk smijten.

Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 19-09 23:04
Snowdog schreef op vrijdag 9 oktober 2020 @ 14:09:
[...]


Nouja als je bij een AMD-kaart voor de Strix-kaart gaat dan krijg je als bonus een heatsink in the middle of nowhere die niks doet. Zou daar dus zeker ook niet voor gaan, tenzij je fan bent van geld over de balk smijten.
Hoe bedoel je dit? Welke kaart was dit?

Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 11:05
Santee schreef op vrijdag 9 oktober 2020 @ 14:10:
[...]

Hoe bedoel je dit? Welke kaart was dit?
Even met een snelle Google-zoektocht: https://www.reddit.com/r/...vram_on_the_strix_5700xt/

Maar volgens mij is dat geen geheim, veel van de "goede" nvidia aibs zijn crap bij amd-kaarten omdat ze gewoon absoluut geen moeite doen om het ontwerp aan te passen. Heb zelf 5 290x MSI gaming-kaarten (mining-tijden, ik weet het, ik moet me schamen) gehad, die waren ook absoluut crap en konden niet eens full load handlen (in games, niet mining) zonder te throttlen.

Heb daar zelfs nog contact mee gehad met dudes van hun support uit Taiwan, maja was "working as intended" volgens hun. Daar betaal je dan voor. Lekker.

Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 19-09 23:04
Snowdog schreef op vrijdag 9 oktober 2020 @ 14:16:
[...]


Even met een snelle Google-zoektocht: https://www.reddit.com/r/...vram_on_the_strix_5700xt/

Maar volgens mij is dat geen geheim, veel van de "goede" nvidia aibs zijn crap bij amd-kaarten omdat ze gewoon absoluut geen moeite doen om het ontwerp aan te passen. Heb zelf 5 290x MSI gaming-kaarten (mining-tijden, ik weet het, ik moet me schamen) gehad, die waren ook absoluut crap en konden niet eens full load handlen (in games, niet mining) zonder te throttlen.

Heb daar zelfs nog contact mee gehad met dudes van hun support uit Taiwan, maja was "working as intended" volgens hun. Daar betaal je dan voor. Lekker.
Ja echt onzinnig. Eigenlijk kan je alleen Sapphire goed vertrouwen, want die doen alleen AMD. XFX heeft echt te vaak verzaakt en de andere merken doen Nvidia en AMD en maken te vaak van dit soort onzinnige fouten. Halve mem pads bij de MSI 5700(XT), Vega56/64 van Asus met halve thermal pads op de mosfets en zo kunnen we nog wel even doorgaan. Lijkt wel of de AIBs mensen expres naar Nvidia proberen te sturen omdat daar meer marge zit ofzo :F

Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 11:05
Santee schreef op vrijdag 9 oktober 2020 @ 14:19:
[...]

Ja echt onzinnig. Eigenlijk kan je alleen Sapphire goed vertrouwen, want die doen alleen AMD. XFX heeft echt te vaak verzaakt en de andere merken doen Nvidia en AMD en maken te vaak van dit soort onzinnige fouten. Halve mem pads bij de MSI 5700(XT), Vega56/64 van Asus met halve thermal pads op de mosfets en zo kunnen we nog wel even doorgaan. Lijkt wel of de AIBs mensen expres naar Nvidia proberen te sturen omdat daar meer marge zit ofzo :F
Zullen er wel meer van verkopen, maar ik vind het toch wel apart, een ontwerp aanpassen en geschikt maken zou toch niet zoveel werk moeten zijn zou je zeggen.

Acties:
  • +2 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mores law heeft ook een nieuwe video online: AMD October 8th Analysis: Game Over Intel…& Nvidia?



2e deel gaat over AMD.
Hij speculeert dat wat AMD nu heeft laten zien het geen was wat ze voor ogen hadden toen ze nog niet hadden besloten all out te gaan.
Maar na de (volgens uitspraken van mensen binnen AMD) "niet indrukkwekkende prestaties van de 3080/3090" is het besluit gekomen er nog een schep boven op te doen en "all out" te gaan.

Dat zou dan dus gaan over een Navi21 met alles unlocked een hoger TDP (mogelijk 275/300 watt) en misschien 18gbps memory ipv 16.

Ik ben in ieder geval benieuwd.
Hij is in ieder geval tevreden met wat AMD heeft laten zien. Veel sneller dan de 2080 Ti en in the ball part of the 3080.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op vrijdag 9 oktober 2020 @ 11:13:
[...]

Vond het allemaal beetje over de top en wat amateuristisch. Het blijft AMD natuurlijk. :D

Maar goed ik ben sowieso meer van het 'doe maar gewoon dan doe je gek genoeg.'

Op een gegeven moment kon ik het woord Gaming en We're so proud e.d. niet meer horen. :o
Het was ook amateuristisch en dat werd duidelijk toen de "RX6000" kwam. Het hele Zen 3 verhaal was "Intel ded" en dan hoef je weinig te doen. En toen gingen ze vol "RTG". Ik weet nog steeds niet wat ze nu echt probeerde te vertellen. :z

Maar ik heb nu weer wat aantal benchmarks gezien voor Gears 5 en Borderlands 3 en ik begrijp werkelijk niet waarom deze twee games. Het is all over the place qua resultaten en ze laten beide een patroon zien waar de RTX2070S op hogere resoluties, uitloopt op de RX5700XT en Ampere bovengemiddeld presteert op 4K. Dat zijn hints waar je wat mee kan doen.

Deze games zou ik classificeren als relatief licht op INT en goed schalend op FP met resolutie. Dat zijn juist het soort games waar Turing en Ampere goed in presteren. Op hogere resoluties lopen die games niet tegen een INT bottleneck aan met Turing, heeft bijvoorbeeld de RTX2070S, meer FP32 ALU's tot haar beschikking omdat de RX5700XT ook INT moet doen met haal dual use ALU's. Dat is denk ik waarom in veel games, de RTX5700XT wat wegzakt op 4K ten opzichte van de RTX2070S. Ik denk dat de RX5700XT een hogere occupency haalt, maar de RX2070S kan gewoon net wat meer floating points verwerken als het echt gaat tellen op 4K.

Met die logica in de hand keek ik naar de benchmarks. Tja, als ik de TPU getallen neem en de RTX2080Ti als basis neem, dan is de RTX3080 respectievelijk 43,2% en 34% sneller in Borderlands 3 en Gears of War 5. Voor de RTX3090 is het 58,1% en 45%.
https://www.techpowerup.c...geforce-rtx-3090-trinity/

Als ik dit zou willen manipuleren voor het beste resultaat, tja ik zou BF5, AC Odyssey of ANNO 1800 hebben genomen. Die laatste is flauw want enorme CPU bottleneck, maar die anderen geven al andere resultaten. Voor Battlefield 5 is het 25% en 36%, voor AC Odyssey is het 30% en 44%. Vrijwel niemand zou het opvallen, maar opeens zijn je resultaten zo beter. Met name van BF5 kan je wat verwachten.


Spelen er nog meer problemen. Borderlands 3 op ultra lijkt juist minder INT instructies te hebben dan op badass. Dat vertekend de boel in het algemeen en juist ook voor Ampere is dat gunstig omdat het 2x FP32 datapad zo beschikbaar komt. Daarom laten benchmarks die wel op badass hebben getest, eerder lagere scores zien voor de RTX3080 dan de "RX6000". Gears is all over the place en als we HardwareUnboxed erbij pakken die 72 fps aangeven, tja dan is die "RX6000" opeens ook zo slecht niet meer. Je kijkt dus naar twee benchmarks die eigenlijk onbetrouwbaar zijn omdat er met respectievelijk twee standaarden word getest of de game zelf is niet constant. Dat is werkelijk een amateuractie.

Ik kan simpelweg niks zinnigs zeggen over de prestaties anders dan verslaat de RTX2080Ti waarschijnlijk met enige marge. Ik mis werkelijk elke context waar we naar kijken. Is een ander probleem dat je waarden tussen verschillende sites eigenlijk ook niet zomaar kan overnemen omdat we bijvoorbeeld geen idee hebben waar is getest. Ook vermoed ik sterk dat Navi 21 beter zal zijn in zware mixed INT+FP32 scenario's, maar dat weet ik ook niet zeker. De logica is immers dat de volle chip de beschikking heeft over 5120 ALU's die in clusters van 32 zijn opgedeeld en FP of INT doen. De RTX3080 heeft 4352+4352 ALU's en kan per cluster van 32, soms al deze ALU's gebruiken voor FP32, maar vaak is het een 16+16 verdeling met hoe meer INT instructies de game nodig heeft, hoe minder de FP throughput. Daarom dus BF5 haar lagere scores.


Als je dus het beste scenario wil laten zien wat je hebt, tja dit zijn denk ik niet de games die ik had gekozen. Als je verwachtingen wou temperen, dan heb je dit op een werkelijk stupide manier gedaan. En als het doel het demonstreren dat je rond de RTX3080 zit met deze "RX6000", dan heb je al helemaal de verkeerde games gekozen. Dit valt dus goed samen te vallen als:

RTG strikes again. :F

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sissors schreef op vrijdag 9 oktober 2020 @ 13:46:
[...]

Als je de door Nvidia uitgekozen benchmarks geloofd ja ;). Tweakers review komt op 25% (4k) tot 20% (1440p) uit tussen 2080Ti en 3080. Als 3070 dus daadwerkelijk vergelijkbaar presteert aan 2080Ti, dan is 10% ruwweg wat je nodig hebt om van ertussenin te zitten, naar de 3080 te evenaren te gaan.

Tegelijk moeten we natuurlijk ook nog afwachten in hoeverre de 3070 daadwerkelijk de 2080Ti weet te evenaren.
10% van de 2080Ti baseline performance ja, ik zat nog met 2070S / RX5700 baseline in m'n hoofd, dan is het ongeveer dubbel. Dan bedoelen we hetzelfde.

De 3070 is zeker nog even afwachten, met maar 46 SMs een 68 SMs kaart verslaan puur door de "verdubbeling" van CUDA cores, dan moeten die Ampere SMs wel +48% presteren vergeleken met Turing.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Santee schreef op vrijdag 9 oktober 2020 @ 14:19:
[...]

Ja echt onzinnig. Eigenlijk kan je alleen Sapphire goed vertrouwen, want die doen alleen AMD. XFX heeft echt te vaak verzaakt en de andere merken doen Nvidia en AMD en maken te vaak van dit soort onzinnige fouten. Halve mem pads bij de MSI 5700(XT), Vega56/64 van Asus met halve thermal pads op de mosfets en zo kunnen we nog wel even doorgaan. Lijkt wel of de AIBs mensen expres naar Nvidia proberen te sturen omdat daar meer marge zit ofzo :F
Ik denk dat dat bij de RTX3080 en RTX3090 nu vies voor ze tegenvalt, omdat AIBs zelf de kosten mogen ophoesten van die mooie FE koelers, als ze iets vergelijkbaars willen neerzetten. Nu gaat dat nog wel, maar als het aanbod straks toeneemt zullen de AIB marges bij nVidia sterk afnemen.

AMD, on the other hand, biedt een zeer eenvoudig basis-ontwerp aan. Ik denk dat AIBs dat fijner zullen vinden, en dat we meer aanbod van partners zullen zien, ook als het in het begin alleen maar sticker-versies zullen zijn. Simpelweg omdat AMD niet de onderdelen gaat beperken van de Bill Of Materials, en een stuk meer TSMC chips zal aanleveren, vergeleken met de weliswaar goede yields, maar laag volume van GA102 chips van Samsung.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op vrijdag 9 oktober 2020 @ 14:41:
[...]


Als je dus het beste scenario wil laten zien wat je hebt, tja dit zijn denk ik niet de games die ik had gekozen. Als je verwachtingen wou temperen, dan heb je dit op een werkelijk stupide manier gedaan. En als het doel het demonstreren dat je rond de RTX3080 zit met deze "RX6000", dan heb je al helemaal de verkeerde games gekozen. Dit valt dus goed samen te vallen als:

RTG strikes again. :F
Ja, dit vat het mooi samen. Wat het doel ook was van AMD, de RTG marketing weet het duidelijk niet over te brengen. Ikzelf kijk nog niet naar workloads, omdat infinity cache de boel onvergelijkbaar kan maken. Die "dubbele" CUDA cores prik je nog wel makkelijk doorheen, maar wat zal het occupancy verschil voor effect hebben?

Ook weten we de TDP nog niet, dus als dit een 250W Navi 21 was en ze komen nog met een 300W versie, èn RDNA is echt zo schaalbaar als ze beweren, nou nVidia, berg je dan maar. En al was het nu een 300W versie? Dan kunnen wij hem alsnog overclocken tot een 350W versie ;) en wederom wint AMD in dat geval de performance crown. De overclock ruimte bij de RTX 3090 is gewoon vrij klein.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08:47
Astennu schreef op vrijdag 9 oktober 2020 @ 14:39:
Hij speculeert dat wat AMD nu heeft laten zien het geen was wat ze voor ogen hadden toen ze nog niet hadden besloten all out te gaan.
Maar na de (volgens uitspraken van mensen binnen AMD) "niet indrukkwekkende prestaties van de 3080/3090" is het besluit gekomen er nog een schep boven op te doen en "all out" te gaan.

Dat zou dan dus gaan over een Navi21 met alles unlocked een hoger TDP (mogelijk 275/300 watt) en misschien 18gbps memory ipv 16.

Ik ben in ieder geval benieuwd.
Hij is in ieder geval tevreden met wat AMD heeft laten zien. Veel sneller dan de 2080 Ti en in the ball part of the 3080.
Nou meneer gaat zijn verhalen maar gauw aanpassen om eerdere claims te kunnen verdraaien zodat het weer klopt. How typical....
Nu claimen we dus dat AMD bewust aan het inhouden is, maar Nvidia gaat helemaal 'all out'. Geloofwaardig verhaal?....absoluut niet voor mij.

Als dat wonderproduct er echt is, dan zal er genoeg rede toe zijn om deze niet uit te brengen. Yields zijn waarschijnlijk om te janken als je deze brengt. Andersom zal nvidia ook echt wel een paar producten hebben liggen om dat dat wonderkaartje weer kapot te maken etc etc.

Mensen moeten echt eens gaan leren om bepaalde claims niet gelijk aan te nemen als feit. Je kunt wel hopen dat AMD de vloer gaat aanvegen met Nvidia, maar dat is niet realistisch op dit moment en dat weet AMD ook.

Nvidia heeft een hele duidelijke lijn in hun strategie en heeft meer troeven op hand om het AMD echt heel lastig te maken. Nvidia heeft meer kapitaal, meer kennis in huis, meer bereik en een betere reputatie + branding. Ook de architectuur zit goed, dus dat ga je niet zomaar even kloppen. Als AMD echt naar gaat doen, dan heeft Nvidia andersom meer dan genoeg spek op het lijf om het AMD onmogelijk te maken .

AMD kan alleen maar hopen dat ze langzaam aandeel pakken, innoveren/overtuigen om zo meer R&D kunnen veroorloven en mindshare te krijgen. Daarnaast ook hopen dat Nvidia een keer een fikse blunder begaat (zoals FX) of net als intel gaat verzaken/slapen.
Al 10 jaar lang claimen de geruchten dat AMD bij een nieuwe generatie Nvidia gaat slopen en daar is niks van terecht gekomen. Dat mensen nog steeds geloven dat het in één generatie wel gaat lukken vind ik tenenkrommend naïef onderhand.
De claims dat AMD altijd maar in controle is en precies weet wat ze doen. Dat eeuwige 'masterplan' geneuzel is gewoon lachwekkend geworden onderhand.

Als AMD net onder de 3080 komt so what! Dat kan mits de andere eigenschappen (features, verbruik, kosten etc) gewoon een prima deal worden. Als je dan echt die paar procent extra wilt dan koop je dus Nvidia. Net onder de concurrent uitkomen is toch prima. Of maken die 7 tot 10% echt zoveel uit voor iemand?
Is het dan echt zo moeilijk om te bevatten of zit die liefde voor sommige mensen zo diep dat niet overtreffen van Nvidia gelijk als verliezen moet voelen?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
sjekneck schreef op vrijdag 9 oktober 2020 @ 16:44:
[...]

Nvidia heeft een hele duidelijke lijn in hun strategie en heeft meer troeven op hand om het AMD echt heel lastig te maken. Nvidia heeft meer kapitaal, meer kennis in huis, meer bereik en een betere reputatie + branding. Ook de architectuur zit goed, dus dat ga je niet zomaar even kloppen. Als AMD echt naar gaat doen, dan heeft Nvidia andersom meer dan genoeg spek op het lijf om het AMD onmogelijk te maken .

Is het dan echt zo moeilijk om te bevatten of zit die liefde voor sommige mensen zo diep dat niet overtreffen van Nvidia gelijk als verliezen moet voelen?
Eens dat MLID zijn eigen verhaal altijd recht praat, irritant gewoon.

nVidia meer kapitaal: jaren lang zo geweest, is nu aan het veranderen. nVidia meer kennis in huis: software misschien, hardware zeker niet. nVidia bereik, reputatie, branding ja, hun marketing afdeling doet goed werk..

Mij stoort het dat nVidia meer PC kaarten verkoopt met een slechtere performance/prijs verhouding dan AMD kaarten. Puur vanwege de marketing. Zo belangrijk is dus een "halo product". Daarom willen we graag dat AMD dit keer wint, ook al boeit het niet voor ons tweakers en enthousiastelingen, die toch wel de beste performance/prijs of prijs/performance kopen. Het gaat meer om de verhouding verkochte AMD/nVidia kaarten.

Overigens qua chips verkoopt AMD genoeg hè, kijk maar naar de consoles en data centers. Terwijl voor nVidia 90% van hun inkomen graphics kaarten is.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Nu online
sjekneck schreef op vrijdag 9 oktober 2020 @ 16:44:
Is het dan echt zo moeilijk om te bevatten of zit die liefde voor sommige mensen zo diep dat niet overtreffen van Nvidia gelijk als verliezen moet voelen?
"Wij hebben de snelste, vraag niet voor hoeveel" is echt wel een factor waar consumenten door beïnvloedt worden. Een winnaar en een verliezer aan mogen wijzen is gewoon iets wat mensen graag doen. Dat is niet rationeel, maar het is gewoon aantoonbaar een ding, en dat is dan ook waarom de hardwarebakkers soms van die rare capriolen uithalen om maar die felbegeerde performance crown te hebben, en er is een publiek dat grif betaalt voor het ding dat die kroon draagt. De prijs/performance crown blijft toch een poedelprijsje daarbij vergeleken.

Dus ja, Nvidia niet overtreffen is (wederom) verliezen, en ze een keer overtreffen is winnen. Dat maakt niet uit in de wereld waar mensen hun kaarten kopen op beste waar voor je geld, maar in die volmaakt rationele wereld leven we niet.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op vrijdag 9 oktober 2020 @ 16:23:
[...]


Ja, dit vat het mooi samen. Wat het doel ook was van AMD, de RTG marketing weet het duidelijk niet over te brengen. Ikzelf kijk nog niet naar workloads, omdat infinity cache de boel onvergelijkbaar kan maken. Die "dubbele" CUDA cores prik je nog wel makkelijk doorheen, maar wat zal het occupancy verschil voor effect hebben?
Die cache zit achter de backend van de shader array's. Het is pas relevant als er data van eerder berekende instructies nodig is voor de berekening van nieuwe instructies. Gebeurd natuurlijk constant, maar de ALU's belasten is uiteindelijk het belangrijkst en hoe het gebeurd is secondair. Occupency is het percentage van ALU's dat in een clock cycle, daadwerkelijk een instructie heeft om te berekenen. Dat zal hoger liggen in RDNA omdat RDNA nu eenmaal een primaire ALU heeft die alles doet i.p.v. Turing/Ampere die verschillende ALU's hebben die specifieke dingen doen. RDNA zal makkelijker te belasten zijn door haar centrale architectuur en grotere flexibiliteit. Turing/Ampere heeft simpelweg meer ALU's en als je die kan benutten, dan zal het sneller moeten zijn.
Ook weten we de TDP nog niet, dus als dit een 250W Navi 21 was en ze komen nog met een 300W versie, èn RDNA is echt zo schaalbaar als ze beweren, nou nVidia, berg je dan maar. En al was het nu een 300W versie? Dan kunnen wij hem alsnog overclocken tot een 350W versie ;) en wederom wint AMD in dat geval de performance crown. De overclock ruimte bij de RTX 3090 is gewoon vrij klein.
En dit moet je dus niet doen want dit krijg je dus met de RTG hun marketing gestuntel.
Ik zou het eigenlijk al mooi vinden als de volle Navi 21, de RTX3080 gaat matchen met 280W TBP, op 4K. Het is namelijk niet dat Ampere een verschrikkelijke architectuur is als het om shaders/rasterization gaat. Het is een voortzetting op Maxwell en Maxwell was uitstekend. Voor Ampere was het eigenlijk logisch dat ze deze stap naar 2x FP32 gingen zetten. Het zal immers vrij "goedkoop" zijn geweest qua transistorbudget, maar het lijkt toch wel 20 a 25% extra op te leveren in het geval van de RTX3080. Met name voor hogere resoluties is het zeker niet slecht. Verder is er weinig veranderd, maar dat maakt de architectuur nog steeds niet slecht. Het is vooral dat de Samsung 8N node ze ernstig in de steek laat en het verbruik bezopen is. Waar je toch eigenlijk wel iets van 30W minder had mogen verwachten ten opzichte van de 275W RTX2080Ti FE, is het 45W meer voor de FE.

Ondanks alles heeft de RTX3080 die 2x FP32 wat neerkomt op een theoretische, maar desniettemin serieuze 8704 ALU's. Dat werkt juist beter met hogere resoluties en Nvidia kan hier waarschijnlijk ook aardig op optimaliseren met drivers. Nvidia staat er bekend om dat ze soms hele schader programma's van games pakken en deze zelf herschrijven ter optimalisatie van hun architectuur. Dat gaan ze doen voor titels waar ze echt willen winnen zoals Cyberpunk 2077 en in die game verwacht ik dat Nvidia ook gaat "winnen".

Het stomme is dat ik vermoed dat Navi 21 de consistentere chip gaat zijn en GA102 eigenlijk een beetje beide kanten op gaat uitschieten. Op 1440p zie ik Navi 21 ook zomaar "winnen", maar 4K is anders en daar kan het echt alle kanten opgaan en ook erg per game verschillen. Ik zie Navi 21 eigenlijk een aardige lijn uitzetten en als je vergelijkt met GA102, dan schiet dat alle kanten op. Helaas zullen mensen vooral naar GA102 kijken en vergelijken met Navi 21 en dit helemaal missen.

Waar ik eigenlijk veel benieuwder naar ben is wat Navi 21 nu echt kan qua RT en hoe het precies werkt. Ik denk dat de PS5 en XSX grotendeels dezelfde implementaties zullen hebben en die gaan de standaard zetten voor de komende paar jaar. Ik vond Mark Cerny namelijk best wel uitgesproken in maart met de PS5 presentatie. Daar horen we alleen helemaal niks over.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@hierboven

Ik zou het eerder andersom zien. Het is enorm knap dat een bedrijf dat ~5 jr geleden op een haar na failliet was, qua GPU's, nog zo dicht bij nVidia zit en zat.

Je kunt je beter afvragen waarom nVidia met al haar geld, marktaandeel, kennis etc. niet veel verder voor ligt qua prestaties en waarom je eigenlijk zoveel moet betalen voor die kaarten van nVidia en ze desondanks zo belachelijk veel stroom verbruiken :)

[ Voor 6% gewijzigd door Help!!!! op 09-10-2020 19:04 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 09:43

Mars Warrior

Earth, the final frontier

Help!!!! schreef op vrijdag 9 oktober 2020 @ 18:40:
@hierboven

Ik zou het eerder andersom zien. Het is enorm knap dat een bedrijf dat ~5 jr geleden op een haar na failliet was, qua GPU's, nog zo dicht bij nVidia zit en zat.

Je kunt je beter afvragen waarom nVidia met al haar geld, marktaandeel, kennis etc. niet veel verder voor ligt qua prestaties en waarom je eigenlijk zoveel moet betalen voor die kaarten van nVidia. :)
Vervang GPU door CPU en nVidia door Intel, en je hebt weer een leuke serie vragen :D

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ja inderdaad, de antwoorden zijn imo bekend. AMD ging (wel) out of the box en Intel bleef maar melken en werd overmoedig in hun produktieproces. Heb het al regelmatig genoemd, geld, macht, kennis zegt zeker in deze business lang niet alles. Even niet opletten, één fout en je zit diep in de problemen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Intels probleem zit inderdaad grotendeels in de proces kant. Ze zijn de afgelopen jaren nauwelijks qua performance erop vooruitgegaan, los van hogere core counts, maar het is niet alsof AMD niet dubbel de IPC heeft van Intel. De vraag aan CPU kant is meer in zijn algemeenheid of we van Intel danwel AMD nog echt grote stappen kunnen verwachten de komende jaren.

Mijn gok is dat wat Nvidia gedaan heeft met al hun geld, inzetten op software is. En één voorbeeld daarvan is DLSS. Maar in zijn algemeenheid heeft Nvidia zich weten neer te zetten als de standaard voor machine learning acceleratie. Om op die manier minder afhankelijk te worden van gaming GPUs maken.

Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
sunsmountain schreef op vrijdag 9 oktober 2020 @ 16:23:
[...]
...
Ook weten we de TDP nog niet, dus als dit een 250W Navi 21 was en ze komen nog met een 300W versie, èn RDNA is echt zo schaalbaar als ze beweren, nou nVidia, berg je dan maar. En al was het nu een 300W versie? Dan kunnen wij hem alsnog overclocken tot een 350W versie ;) en wederom wint AMD in dat geval de performance crown. De overclock ruimte bij de RTX 3090 is gewoon vrij klein.
Denk je dat een Big Navi schaalbaar is tot de prestaties van een (volledige) GA102 chip zonder de power limit? Ik ben bang dat dit te ver gegrepen is.

Coreclock OC doet er namelijk nog niet veel toe met een 3090, deze schaalt als eerst met de powerlimit. Een Asus Strix 3090 gooit er 22% meer power in (390W vs 320W 3080 FE) maar met 20% extra cores is de winst dan wel 19% tov een 3080. Afgezien van de enorme power lopen de prestaties wel in lijn door.

Op 270W 2080Ti niveau is een 3080 ~25% efficienter waar dat normaal maar ~14% is op 320W. Dat kan een target zijn voor een performance crown (in efficientie). Helaas weten we die van Big Navi inderdaad niet.

Ik heb mijn ogen tot nu toe nog gericht op AMD, als ze maar kunnen overtuigen. RT maar voornamelijk features zoals DLSS worden al lastiger om te vergelijken/beoordelen wat betreft de beeldkwaliteit. Vooralsnog maak ik geen gebruik van resolutie schaling bij AMD. Een hogere framerate is mooi maar ik vind het zelf nog niet goed genoeg.


Edit: Hier nog op een kleine opleving voor de Vega architectuur . Welliswaar op 1080p, waar de Ampere juist iets minder voorloopt tov oudere kaarten.
Heeft iemand een verklaring waarom de Vega's het zo goed doen in 1080p maar weer inkakken op 4K?

[ Voor 11% gewijzigd door M-spec op 09-10-2020 20:40 ]

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sissors schreef op vrijdag 9 oktober 2020 @ 19:24:
Intels probleem zit inderdaad grotendeels in de proces kant. Ze zijn de afgelopen jaren nauwelijks qua performance erop vooruitgegaan, los van hogere core counts, maar het is niet alsof AMD niet dubbel de IPC heeft van Intel. De vraag aan CPU kant is meer in zijn algemeenheid of we van Intel danwel AMD nog echt grote stappen kunnen verwachten de komende jaren.

Mijn gok is dat wat Nvidia gedaan heeft met al hun geld, inzetten op software is. En één voorbeeld daarvan is DLSS. Maar in zijn algemeenheid heeft Nvidia zich weten neer te zetten als de standaard voor machine learning acceleratie. Om op die manier minder afhankelijk te worden van gaming GPUs maken.
AMD zit op ~14 maanden cyclus en zet imo toch vrij grote stappen elke keer. Vraag is wel of ze dat kunnen volhouden.

Bij intel ben ik behoorlijk de weg kwijt in hun zeer verwarrende naming scheme maar lees daar toch wel goede verhalen qua IPC over hun nieuwere coredesigns zoals Sunny Cove. Dus ben wel erg benieuwd naar wat ze neer kunnen zetten in 21Q1 op de desktop ondanks dat ze nog op 14nm zullen zitten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
TPU heeft zin eigen analyse erop losgelaten:

Afbeeldingslocatie: https://tweakers.net/i/7VcEo1gUKgb62BFhwQ0aHoSjYwk=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/P45lT8FwSvW56geFrCYyAvo2.png?f=user_large
https://www.techpowerup.c...umbers-of-comparable-gpus

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Ok, als Big Navi dus nog ergens *20% weet te vinden, eitje >:) 8)7

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 20-09 18:13

Jumpiefox

Hoi ?

Klopt toch niks van?
Ze zeggen bij de Borderlands 3 nummers bijvoorbeeld: The RTX 3080 ends up 15.24 percent faster than Big Navi, with 70.3 FPS. It's important to note here that AMD may be using a different/lighter test scene t
han us, since we don't use internal benchmark tools of games, and design our own test scenes.

Terwijl andere vergelijkers soms zelf 1-2 frames onder de Navi zitten met de built in tool zoals AMD die ook heeft gebruikt. Dus ze gebruiken hun "eigen" scene, halen een hogere fps dan de rest en zeggen ze erbij: Amd might be using a different/Lighter scene 8)7
Joker bijvoorbeeld haalde 57.7fps in DX12 YouTube: BIG NAVI IS FASTER THAN RTX 3080 @ Borderlands 3 VS de 70fps van techpowerup.

Gears of wars 5 benchmark met een oc'd 3080: YouTube: Gears of War 5 / RTX 3080 / 4K Ultra benchmark average 78.4fps VS 84.4 van techpowerup

Cod tjah, geen idee hoe ze die hebben getest of wat voor scene. Ma goed, amateuristisch bericht...Beetje appels en peren vergelijken. Built in benchmarks VS je "eigen verzonnen scenes" :+

[ Voor 21% gewijzigd door Jumpiefox op 11-10-2020 02:44 ]

The first casualty in war is always the truth...


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Jumpiefox Dank je, hoef ik het eens niet te zeggen. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Heeft AMD aangegeven de built-in benchmarks te gebruiken? Dan kan ik 't zelf testen :p.

[ Voor 20% gewijzigd door Paprika op 11-10-2020 10:35 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op zondag 11 oktober 2020 @ 10:34:
Heeft AMD aangegeven de built-in benchmarks te gebruiken? Dan kan ik 't zelf testen :p.
Ze hebben nauwelijks iets gezegd. De volledige Zen 3 slide deck vinden met de testverantwoording lijkt ook onmogelijk te zijn. Die "RX6000" is snel, hoe snel, uh. Hoe het gepresenteerd is, tja RTG. :z

Ik vermoed dat Borderlands 3 is getest met een build in benchmark is gedaan met wat ze hebben laten zien. Die andere twee, werkelijk geen flauw idee.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op zondag 11 oktober 2020 @ 10:43:
[...]


Ze hebben nauwelijks iets gezegd. De volledige Zen 3 slide deck vinden met de testverantwoording lijkt ook onmogelijk te zijn. Die "RX6000" is snel, hoe snel, uh. Hoe het gepresenteerd is, tja RTG. :z

Ik vermoed dat Borderlands 3 is getest met een build in benchmark is gedaan met wat ze hebben laten zien. Die andere twee, werkelijk geen flauw idee.
Ik heb wel ergens slide met testverantwoording presentatie gezien maar weet helaas niet meer waar.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zondag 11 oktober 2020 @ 10:44:
[...]

Ik heb wel ergens slide met testverantwoording presentatie gezien maar weet helaas niet meer waar.
Je bedoelt dit? :P
DaniëlWW2 in "AMD Nieuwsdiscussietopic - Deel 38"

Maar dat kon ik bij elkaar schrapen, maar het lijkt niet volledig te zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ik heb volgensmij een uitgebreidere gezien maar weet niet meer waar. Daar stond bijvoorbeeld ook op dat de cpu's op fixed 4ghz draaiden bij bepaalde benches.

Slide kan ik niet meer vinden maar wel nog dit uitgeschreven onderaan artikel al heb je hier niet veel aan tov de slide die jij al gepost had.

[ Voor 46% gewijzigd door Help!!!! op 11-10-2020 11:15 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Afbeeldingslocatie: https://tweakers.net/i/CuPmpwTb1yJddQOD6wkdM5c1zMg=/800x/filters:strip_icc():strip_exif()/f/image/mF0rDkpldC7gG5jtpA2ViWri.jpg?f=fotoalbum_large

Dit is denk ik de slide waar jij het over hebt (zonder de kruisjes :+), maar dit gaat puur over de CPU benchmarks.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ja idd.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ze hebben het in ieder geval wel weer goed voor elkaar. In plaats van dat we denken dat die "RX6000" rond de RTX3080 zit, wat waarschijnlijk de bedoeling was, denken veel mensen dat die zwakker is, kunnen we moeilijk vergelijken omdat we de slides met testverantwoording niet kunnen vinden.

Maar @Paprika, zou je eens een run willen doen met zowel Ultra als Badass in Borderlands 3? :)
Toch handig dat een van de vijf personen op de planeet die een RTX3080 heeft weten te bemachtigen, hier ook reageert. Als ik zie dat AMD testte met een RTX2080Ti, dan begin ik te vermoeden dat zelfs AMD er nog niet eens eentje had rond 25 september. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +5 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
DaniëlWW2 schreef op zondag 11 oktober 2020 @ 11:27:
Maar @Paprika, zou je eens een run willen doen met zowel Ultra als Badass in Borderlands 3? :)
Toch handig dat een van de vijf personen op de planeet die een RTX3080 heeft weten te bemachtigen, hier ook reageert. Als ik zie dat AMD testte met een RTX2080Ti, dan begin ik te vermoeden dat zelfs AMD er nog niet eens eentje had rond 25 september. :P
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
BenchmarkResults                    2020-10-11_12-31-10
 - FramesPerSecondAvg:              62.32
 - FrameTimeMsAvg:                  16.05

OS:                                 Windows 10
 - Version:                         Build 19041
GraphicsAPI:                        D3D12
CPU:                                AMD Ryzen 9 3900X 12-Core Processor            
 - PhysicalCores:                   12
 - LogicalCores:                    24
RAM:                                65481.05 MB
GPU:                                NVIDIA GeForce RTX 3080
 - VRAM:                            10077 / 0 / 32741 MB (Dedicated / System / Shared)
 - DriverVersion:                   456.71 (Internal: 27.21.14.5671, Unified: 456.71)
 - DriverDate:                      9-30-2020
ScreenResolution:                   3840x2160
RenderResolution:                   3840x2160
ScreenPercentage:                   100
HDR:                                Off

GameUserSettings
 - FullscreenMode:                  Fullscreen
 - UseVSync:                        0
 - PreferredMonitor:                ACR06B0 (3)
 - bPrimaryIsPreferredMonitor:      1
 - PreferredRefreshRate:            0
 - StatsLevel:                      0
 - FPSLimit:                        Unlimited
 - FPSLimitCustom:                  144
 - GfxQuality-Override:             Undefined
 - GfxQuality-Recommended:          Ultra
 - GfxQuality:                      Badass
 - TextureStreaming:                Ultra
 - MaterialQuality:                 Ultra
 - Aniso:                           SixteenX
 - Shadows:                         Ultra
 - DrawDistance:                    Ultra
 - EnvironmentDetail:               Ultra
 - Terrain:                         Ultra
 - Foliage:                         Ultra
 - CharDetail:                      Ultra
 - CAS:                             1
 - CameraBlur:                      1
 - ObjectBlur:                      1
 - AA:                              Temporal
 - VolumetricFog:                   Ultra
 - SSR:                             Ultra
 - AO:                              Ultra


Dit is met 'default' GPU settings voor mij. Dat leek mij wel logischer dan een aangepast profiel.

Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Ik zag achteraf pas dat je zowel Ultra als Badass wilde zien. Mijn vorige resultaat was op 'Badass'. Bij dezen dan ook de 'Ultra' versie:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
BenchmarkResults                    2020-10-11_12-40-26
 - FramesPerSecondAvg:              68.09
 - FrameTimeMsAvg:                  14.69

OS:                                 Windows 10
 - Version:                         Build 19041
GraphicsAPI:                        D3D12
CPU:                                AMD Ryzen 9 3900X 12-Core Processor            
 - PhysicalCores:                   12
 - LogicalCores:                    24
RAM:                                65481.05 MB
GPU:                                NVIDIA GeForce RTX 3080
 - VRAM:                            10077 / 0 / 32741 MB (Dedicated / System / Shared)
 - DriverVersion:                   456.71 (Internal: 27.21.14.5671, Unified: 456.71)
 - DriverDate:                      9-30-2020
ScreenResolution:                   3840x2160
RenderResolution:                   3840x2160
ScreenPercentage:                   100
HDR:                                Off

GameUserSettings
 - FullscreenMode:                  Fullscreen
 - UseVSync:                        0
 - PreferredMonitor:                ACR06B0 (3)
 - bPrimaryIsPreferredMonitor:      1
 - PreferredRefreshRate:            0
 - StatsLevel:                      0
 - FPSLimit:                        Unlimited
 - FPSLimitCustom:                  144
 - GfxQuality-Override:             Undefined
 - GfxQuality-Recommended:          Ultra
 - GfxQuality:                      Ultra
 - TextureStreaming:                Ultra
 - MaterialQuality:                 Ultra
 - Aniso:                           SixteenX
 - Shadows:                         Ultra
 - DrawDistance:                    Ultra
 - EnvironmentDetail:               Ultra
 - Terrain:                         Ultra
 - Foliage:                         Ultra
 - CharDetail:                      Ultra
 - CAS:                             1
 - CameraBlur:                      1
 - ObjectBlur:                      1
 - AA:                              Temporal
 - VolumetricFog:                   High
 - SSR:                             High
 - AO:                              Ultra

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MSI Gaming X toch? :)
Maar dat maakt wel duidelijk dat die "RX6000" vergelijkbaar is met een OC RTX3080, in een game die Nvidia graag gebruikt als benchmark omdat ze er bovengemiddeld presteren. Niet slecht dus. Maar ga je maar zorgen maken om je 2700X want de RTG lijkt er alles aan te doen om het harde werk van de engineers weg te gooien in een paar minuten. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • RenegadexRIPxx
  • Registratie: Juli 2017
  • Laatst online: 09:43
voelt zich dom want begrijp niet waar die referentie naar 2700x op slaat. CPU kan niet want dat is een 3900x, gpu ook niet want dat is een 3080.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
RenegadexRIPxx schreef op zondag 11 oktober 2020 @ 13:23:
voelt zich dom want begrijp niet waar die referentie naar 2700x op slaat. CPU kan niet want dat is een 3900x, gpu ook niet want dat is een 3080.
Paprika in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RenegadexRIPxx schreef op zondag 11 oktober 2020 @ 13:23:
voelt zich dom want begrijp niet waar die referentie naar 2700x op slaat. CPU kan niet want dat is een 3900x, gpu ook niet want dat is een 3080.
Een aantal van ons hier zijn het een beetje zat dat voornamelijk de marketing afdeling van de RTG, werkelijk elke launch verprutst met stupide claims maken i.p.v. het product te verkopen. Daarnaast gebeurd het nog wel eens dat ze te vroeg lanceren en je driverproblemen krijgt die de rest van de levenscyclus van het product, de reputatie van het product negatief beïnvloeden. Dus toen @Paprika zei dat hij zijn oude 2700X gaat "martelen" als ze het weer verpesten door alle pinnen eruit te trekken. :P

Het is gewoon een flauw grapje. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op zondag 11 oktober 2020 @ 13:40:
[...]


Een aantal van ons hier zijn het een beetje zat dat voornamelijk de marketing afdeling van de RTG, werkelijk elke launch verprutst met stupide claims maken i.p.v. het product te verkopen. Daarnaast gebeurd het nog wel eens dat ze te vroeg lanceren en je driverproblemen krijgt die de rest van de levenscyclus van het product, de reputatie van het product negatief beïnvloeden. Dus toen @Paprika zei dat hij zijn oude 2700X gaat "martelen" als ze het weer verpesten door alle pinnen eruit te trekken. :P

Het is gewoon een flauw grapje. ;)
Ja eigenlijk zou je een oude GPU moeten martelen, niet een CPU. Ik heb nog wel een oude HD5850 liggen, 1 voor 1 de geheugen modules er uit trekken... terwijl dat nog 1 van de betere kaarten was.

Maar serieus, RTG marketing maakt er weer een ingewikkeld schaakspel van terwijl ze gewoon kaarten moeten verkopen. Dezelfde Scott Herkelman die vorige launch "jebaited" probeerde wat niet goed werkte, probeert het nu weer.

Als ik kijk naar deze sneak performance preview, lijkt me dit de lichtste Navi21 XL (240W, 167% t.o.v. RX5700 XT 100%). Daarboven nog een Navi21 XT (275W, 198%) en een Navi21 XTX (300W, 208%). Allemaal tri-fan, 8+8pin.
Ter vergelijking, RTX 3080 is dan 180% en RTX 3090 196%.
sunsmountain in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@sunsmountain Ik blijf erbij, afwachten en bewust niks verwachten. ;)


Nog een keer dan want ik ben het eigenlijk ook meer zat. :P

Afbeeldingslocatie: https://pbs.twimg.com/media/Ej_nb10XsAIJ6Ka?format=png&name=medium

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Nu online
@DaniëlWW2 Dat gemiddelde vind ik dan wel weer iets koddigs hebben eigenlijk -- "we hebben geen idee welke benches nu eigenlijk vergelijkbaar zijn dus hier is maar het gemiddelde over die mogelijk verkeerd vergeleken dingen, want we moeten toch wat". :-P Voor hetzelfde geld is er natuurlijk gewoon een bench bij die 100% on the money is terwijl de rest afwijkingen zijn, of ze zijn allemaal afwijkend, maar niemand weet het.

AMD weet in ieder geval het antwoord op de klassieker "hoe houd je een idioot in spanning"? ...met ons als idioten. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MneoreJ schreef op zondag 11 oktober 2020 @ 17:04:
@DaniëlWW2 Dat gemiddelde vind ik dan wel weer iets koddigs hebben eigenlijk -- "we hebben geen idee welke benches nu eigenlijk vergelijkbaar zijn dus hier is maar het gemiddelde over die mogelijk verkeerd vergeleken dingen, want we moeten toch wat". :-P Voor hetzelfde geld is er natuurlijk gewoon een bench bij die 100% on the money is terwijl de rest afwijkingen zijn, of ze zijn allemaal afwijkend, maar niemand weet het.

AMD weet in ieder geval het antwoord op de klassieker "hoe houd je een idioot in spanning"? ...met ons als idioten. :P
Ik denk eerder dat de meeste mensen er een blik op hebben geworpen, tot de conclusie kwamen dat de RTX3080 sneller was, en zich aansloten voor die wachtrij. Dat of de mensen die wel heel stellig beweren dat dit de meest cut down Navi 21 is of zelfs Navi 22. Er zullen relatief weinig zijn die het zijn gaan analyseren. En als je dat doet, tja voor mij is het onderhand plaatsvervangende schaamte als ik aan de RTG denk. :F

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op zondag 11 oktober 2020 @ 17:53:
[...]


Ik denk eerder dat de meeste mensen er een blik op hebben geworpen, tot de conclusie kwamen dat de RTX3080 sneller was, en zich aansloten voor die wachtrij. Dat of de mensen die wel heel stellig beweren dat dit de meest cut down Navi 21 is of zelfs Navi 22. Er zullen relatief weinig zijn die het zijn gaan analyseren. En als je dat doet, tja voor mij is het onderhand plaatsvervangende schaamte als ik aan de RTG denk. :F
Navi22 is denk ik dual-fan en 8+6pin, dat design hebben we ook gezien. Overigens is 240W dicht bij 250W en zouden de topmodellen tot 350W kunnen gaan, maar ik acht 300W max waarschijnlijker. +60% performance/Watt is niet over de gehele linie en +50% performance/CU is wishful thinking.

Niks verwachten, I know, maar ik heb nog geen reden gezien om m'n voorspellingen eind September bij te stellen. Alles is nog mogelijk.

[ Voor 8% gewijzigd door sunsmountain op 11-10-2020 18:35 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Henkje.doc
  • Registratie: November 2005
  • Laatst online: 09:05
DaniëlWW2 schreef op zondag 11 oktober 2020 @ 16:28:
@sunsmountain Ik blijf erbij, afwachten en bewust niks verwachten. ;)


Nog een keer dan want ik ben het eigenlijk ook meer zat. :P

[Afbeelding]
[Embed]
Ik blijf er bij: Hoef geen kaart die sneller is. Wil wel een kaart die sneller leverbaar is ;)

1 woordje verschil wat denk ik zomaar eens de gehele boel op zn kop gaat zetten.

Heb er zin in :)

Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

sjekneck schreef op vrijdag 9 oktober 2020 @ 16:44:
Als dat wonderproduct er echt is, dan zal er genoeg rede toe zijn om deze niet uit te brengen. Yields zijn waarschijnlijk om te janken als je deze brengt. Andersom zal nvidia ook echt wel een paar producten hebben liggen om dat dat wonderkaartje weer kapot te maken etc etc.
De performancekroon of propaganda-overwinning heeft weldegelijk belang als we de Wintel + nVidia bias willen minimaliseren. Nu is er de perceptie dat er eerste-keuze-merken en tweede-keuze-merken bestaan.

De auto-industrie is bewust van het feit dat mensen naar een autosalon gaan om de gezondheid/potentie van hun automerk te checken. Gaat het goed of slecht met het merk waarmee ik rij? Je wilt daar zien dat je merk mee met de laatste trends is, klaar is om ook de elektrische auto's en waterstofauto's te beconcurreren. Als de stand van je merk op een zwanenzang lijkt, dan kan je beter naar een ander merk overstappen voordat je straks geen wisselstukken, service,... meer kan krijgen.

Het belangrijk dat AMD van tijd tot tijd kan laten zien dat zij het merk is dat iedereen wilt hebben. Voor de consument is het belangrijk dat de performancekroon regelmatig uitgewisseld wordt, dan kan geen van beiden teveel voor hun producten vragen en ze kunnen ook niet 5 jaren het boeltje uitmelken met 10, 20 tot misschien wel 30% vooruitgang.

Beide merken als evenwaardig gezien worden is beter voor de consumenten, dan moet er wel op performance per euro en performance per Watt geconcurreerd worden.

Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
rapture schreef op zondag 11 oktober 2020 @ 22:10:
[...]


Beide merken als evenwaardig gezien worden is beter voor de consumenten, dan moet er wel op performance per euro en performance per Watt geconcurreerd worden.
De tijd dat dat voldoende was is toch wel over.

Ik wil ook stabiele drivers, lightweight drivers en geen launch problemen due 6 maanden duren.en ook features als Nvenc , reflex en DLSS en nu ook Ray Tracing spelen zeker mee.

AMD heeft daar nog een enorme berg werk te verzetten. En willen mensen zoals mij dat accepteren moeten de prijzen dus wel fors omlaag en amd lijkt dat niet te willen. Maar een kaart die 10% trager is als een 3080 voor 599 op de markt zetten zonder features gaat voor mij echt niet werken. Bij 550 ga ik er over nadenken maar ala dlss em ray trace groot word en reflex in veel games komt is dat me wel 150 waard. Plus dat je er dan meer prestatie voor ferug krijgt.

AMD heeft daar npg een flinke pil aan.

Mijn meeste kaarten zijn amd geweest. Ik heb in de afgelopen 21 jaar maar 3 nvidia kaarten gehad. (7800, gtx 285 en nu een 1070) maar ben er gewoon meer over te spreken als over een amd/radeon kaart. Overwegen zal ik ze wel als de deal goed is maar dat word lastig voor ze.

[ Voor 11% gewijzigd door computerjunky op 11-10-2020 22:49 ]


Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 11:05
computerjunky schreef op zondag 11 oktober 2020 @ 22:47:
[...]


De tijd dat dat voldoende was is toch wel over.

Ik wil ook stabiele drivers, lightweight drivers en geen launch problemen due 6 maanden duren.en ook features als Nvenc , reflex en DLSS en nu ook Ray Tracing spelen zeker mee.

AMD heeft daar nog een enorme berg werk te verzetten. En willen mensen zoals mij dat accepteren moeten de prijzen dus wel fors omlaag en amd lijkt dat niet te willen. Maar een kaart die 10% trager is als een 3080 voor 599 op de markt zetten zonder features gaat voor mij echt niet werken. Bij 550 ga ik er over nadenken maar ala dlss em ray trace groot word en reflex in veel games komt is dat me wel 150 waard. Plus dat je er dan meer prestatie voor ferug krijgt.

AMD heeft daar npg een flinke pil aan.

Mijn meeste kaarten zijn amd geweest. Ik heb in de afgelopen 21 jaar maar 3 nvidia kaarten gehad. (7800, gtx 285 en nu een 1070) maar ben er gewoon meer over te spreken als over een amd/radeon kaart. Overwegen zal ik ze wel als de deal goed is maar dat word lastig voor ze.
Maar er zijn zo weinig games (op 't moment iig) die dlss ondersteunen. Ik zie dat op dit moment echt niet als een plus voor nVidia. Ik weet niet hoe dat in de toekomst gaat zijn, maar als dat bij eenzelfde percentage blijft dan zie ik dacht echt niet als een + (noch de andere features). Ik zou er bij een prijs 100 euri lager toch echt wel na gaan denken bij gelijke performance.

Raytracing is imo ook een non-issue aangezien dat nog altijd in de kinderschoenen staat. Niet alsof je daar wat van gaat merken, En driverproblemen heb ik persoonlijk nooit gehad met AMD-kaarten, dus daar zou ik ook nu niet vanuit gaan. Mocht dat wel gebeuren, dan zou dat wel een dealbreaker kunnen zijn.

Klinkt misschien een beetje als een pro AMD-post, maar zo is het niet echt bedoeld, ik zit namelijk ook hard te twijfelen op dit moment om voor nVidia of AMD te gaan (nouja, nadat Navi2 announced) maar voor mij is prijs toch echt wel het belangrijkste. Ik zie verder niet echt een reden om voor nVidia te gaan.

Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 01:50
Snowdog schreef op zondag 11 oktober 2020 @ 23:14:
[...]

Klinkt misschien een beetje als een pro AMD-post, maar zo is het niet echt bedoeld, ik zit namelijk ook hard te twijfelen op dit moment om voor nVidia of AMD te gaan (nouja, nadat Navi2 announced) maar voor mij is prijs toch echt wel het belangrijkste. Ik zie verder niet echt een reden om voor nVidia te gaan.
Zo ben ik ook hoor. Liever meer rauwe performance dan features als DLSS en Ray Tracing, wat nu nog door weinig games wordt ondersteund. Content Creator software van Nvidia kan me een worst wezen. Ik zit ook niet in kamp Nvidia of kamp AMD, maar in kamp consument waar hier of in het AMD topic al een keer werd benoemd. Veel performance voor de beste prijs.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

computerjunky schreef op zondag 11 oktober 2020 @ 22:47:
[...]
De tijd dat dat voldoende was is toch wel over.

Ik wil ook stabiele drivers, lightweight drivers en geen launch problemen due 6 maanden duren.en ook features als Nvenc , reflex en DLSS en nu ook Ray Tracing spelen zeker mee.

AMD heeft daar nog een enorme berg werk te verzetten. En willen mensen zoals mij dat accepteren moeten de prijzen dus wel fors omlaag en amd lijkt dat niet te willen. Maar een kaart die 10% trager is als een 3080 voor 599 op de markt zetten zonder features gaat voor mij echt niet werken. Bij 550 ga ik er over nadenken maar ala dlss em ray trace groot word en reflex in veel games komt is dat me wel 150 waard. Plus dat je er dan meer prestatie voor ferug krijgt.

AMD heeft daar npg een flinke pil aan.

Mijn meeste kaarten zijn amd geweest. Ik heb in de afgelopen 21 jaar maar 3 nvidia kaarten gehad. (7800, gtx 285 en nu een 1070) maar ben er gewoon meer over te spreken als over een amd/radeon kaart. Overwegen zal ik ze wel als de deal goed is maar dat word lastig voor ze.
Mijn laatste ervaring met een AMD-gpu was een Sapphire HD 4830 512MB GDDR3 PCI-E. Blijkbaar haalde ik de kaart bij de juiste fabrikant. Daarna ben ik naar een GTX 760 overgestapt dat ik nog een jaar zal gebruiken.

Ik ga dus rustig afwachten totdat de Big Navi minstens half jaar door de proefkonijnen uitgebreid getest is en nVidia hun antwoord kan formuleren met de Ampere 7nm refresh.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
computerjunky schreef op zondag 11 oktober 2020 @ 22:47:
Ik wil ook stabiele drivers, lightweight drivers en geen launch problemen due 6 maanden duren.en ook features als Nvenc , reflex en DLSS en nu ook Ray Tracing spelen zeker mee.
RT gaat RDNA2 ook doen en we weten nog niets van de prestaties daarvan. Ik vind het hilarisch hoe men aan neemt dat Nvidia die race al heeft gewonnen, terwijl we nog niets van AMD's oplossing hebben gezien. Dat stukje van de Xbox kun je niet veel informatie uit halen.

En om devil's advocate te spelen:
- AMD's VCE is inmiddels min of meer gelijkwaardig aan Nvenc voor zover ik weet. De kwaliteit van beide blijft toch ver achter bij CPU encoders dus om de kwaliteit hoef je het niet te doen.
- DLSS? Jij zit op een 1080p scherm, wat moet je in god's naam met DLSS?
- Reflex :z
- Lightweight drivers? Nvidia? Niet als je alle features wilt. Zonder GFE heb je geen Shadowplay (wat het belangrijkste nut van Nvenc is, voor serieus video encoden gebruik je Nvenc niet). Een dozijn achtergrondprocessen en services haal je makkelijk.
- Nvidia's drivers zijn ook echt niet stabiel. Heb jij minder last van omdat je met een enkele monitor op beperkte refresh rate zit, maar DP of multimonitor (en dan helemaal met asymmetrische refresh rates) is nog steeds hommeles.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
computerjunky schreef op zondag 11 oktober 2020 @ 22:47:
[...]


De tijd dat dat voldoende was is toch wel over.

Ik wil ook stabiele drivers, lightweight drivers en geen launch problemen due 6 maanden duren.en ook features als Nvenc , reflex en DLSS en nu ook Ray Tracing spelen zeker mee.

AMD heeft daar nog een enorme berg werk te verzetten. En willen mensen zoals mij dat accepteren moeten de prijzen dus wel fors omlaag en amd lijkt dat niet te willen. Maar een kaart die 10% trager is als een 3080 voor 599 op de markt zetten zonder features gaat voor mij echt niet werken. Bij 550 ga ik er over nadenken maar ala dlss em ray trace groot word en reflex in veel games komt is dat me wel 150 waard. Plus dat je er dan meer prestatie voor ferug krijgt.

AMD heeft daar npg een flinke pil aan.

Mijn meeste kaarten zijn amd geweest. Ik heb in de afgelopen 21 jaar maar 3 nvidia kaarten gehad. (7800, gtx 285 en nu een 1070) maar ben er gewoon meer over te spreken als over een amd/radeon kaart. Overwegen zal ik ze wel als de deal goed is maar dat word lastig voor ze.
Ik hoop eigenlijk dat er een standaard komt voor upscaling gebasseerd op TAA (of informatie uit vorige frames).

Als je dat niet hebt dan krijg je waarschijnlijk een volgende situatie:
https://en.wikipedia.org/...accelerated_PhysX_support

De laatste 3 jaar 1 spel met HW acceleration, denk dat we wel kunnen stellen dat dat ondertussen dood is; als er nog recent spellen zijn uitgekomen met HW accelerated physx dan hoor ik dat graag.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op maandag 12 oktober 2020 @ 00:00:
[...]

RT gaat RDNA2 ook doen en we weten nog niets van de prestaties daarvan. Ik vind het hilarisch hoe men aan neemt dat Nvidia die race al heeft gewonnen, terwijl we nog niets van AMD's oplossing hebben gezien. Dat stukje van de Xbox kun je niet veel informatie uit halen.

En om devil's advocate te spelen:
- AMD's VCE is inmiddels min of meer gelijkwaardig aan Nvenc voor zover ik weet. De kwaliteit van beide blijft toch ver achter bij CPU encoders dus om de kwaliteit hoef je het niet te doen.
- DLSS? Jij zit op een 1080p scherm, wat moet je in god's naam met DLSS?
- Reflex :z
- Lightweight drivers? Nvidia? Niet als je alle features wilt. Zonder GFE heb je geen Shadowplay (wat het belangrijkste nut van Nvenc is, voor serieus video encoden gebruik je Nvenc niet). Een dozijn achtergrondprocessen en services haal je makkelijk.
- Nvidia's drivers zijn ook echt niet stabiel. Heb jij minder last van omdat je met een enkele monitor op beperkte refresh rate zit, maar DP of multimonitor (en dan helemaal met asymmetrische refresh rates) is nog steeds hommeles.
Wat betreft Nvenc, ik had eerst nieuwere data van hun gevonden, maar nu lukt me dat niet zo 1-2-3. Anyway, dit is twee jaar geleden Nvenc vs VCE latency: https://blog.parsecgaming...sion-latency-d32784464b94. Nvenc rende toen iig letterlijk rondjes voor low latency encoding. En dat is een niche applicatie, dat ga ik niet ontkennen hoor! Maar voor game streamen om het op een ander appraat te spelen is het essentieel. Mensen die hun Quest VR headset aan hun PC willen verbinden, zou ik toch echt een Nvidia GPU adviseren.

Blijft natuurlijk dat 99% van de gebruikers dat niet doet.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sissors schreef op maandag 12 oktober 2020 @ 08:15:
[...]

Wat betreft Nvenc, ik had eerst nieuwere data van hun gevonden, maar nu lukt me dat niet zo 1-2-3. Anyway, dit is twee jaar geleden Nvenc vs VCE latency: https://blog.parsecgaming...sion-latency-d32784464b94. Nvenc rende toen iig letterlijk rondjes voor low latency encoding. En dat is een niche applicatie, dat ga ik niet ontkennen hoor! Maar voor game streamen om het op een ander appraat te spelen is het essentieel. Mensen die hun Quest VR headset aan hun PC willen verbinden, zou ik toch echt een Nvidia GPU adviseren.

Blijft natuurlijk dat 99% van de gebruikers dat niet doet.
Hmm, ik wist niet dat de latency zo hoog was. Voor hetgeen 99% het gebruikt (streamen/clips opslaan) doet dat er gelukkig niet toe. Qua beeldkwaliteit liggen ze voor zover ik weet wel dicht bij elkaar tegenwoordig; maar nog steeds meer artifacts dan een cpu encoder.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
Snowdog schreef op zondag 11 oktober 2020 @ 23:14:
[...]


Maar er zijn zo weinig games (op 't moment iig) die dlss ondersteunen. Ik zie dat op dit moment echt niet als een plus voor nVidia. Ik weet niet hoe dat in de toekomst gaat zijn, maar als dat bij eenzelfde percentage blijft dan zie ik dacht echt niet als een + (noch de andere features). Ik zou er bij een prijs 100 euri lager toch echt wel na gaan denken bij gelijke performance.

Raytracing is imo ook een non-issue aangezien dat nog altijd in de kinderschoenen staat. Niet alsof je daar wat van gaat merken, En driverproblemen heb ik persoonlijk nooit gehad met AMD-kaarten, dus daar zou ik ook nu niet vanuit gaan. Mocht dat wel gebeuren, dan zou dat wel een dealbreaker kunnen zijn.

Klinkt misschien een beetje als een pro AMD-post, maar zo is het niet echt bedoeld, ik zit namelijk ook hard te twijfelen op dit moment om voor nVidia of AMD te gaan (nouja, nadat Navi2 announced) maar voor mij is prijs toch echt wel het belangrijkste. Ik zie verder niet echt een reden om voor nVidia te gaan.
Ben het deels met je eens hoor. Ik koop een gpu normaal gesproken voor 4 jaar en dan heb ik liever wel die features mocht het over 2 a 3 jaar wel veel uit maken. Het gaat tegenwoordig om behoorlijk dure kaarten.
Ik ben er zelf ook nog niet uit of ik nu 700-750 uit geef of eerst een goedkopere neem en over 2 jaar weer 1 van het nieuwe model waardoor ik dan de laatste features heb en misschien meer prestaties. Dat hangt af van het totaal rekensommetje.
rapture schreef op zondag 11 oktober 2020 @ 23:28:
[...]

Mijn laatste ervaring met een AMD-gpu was een Sapphire HD 4830 512MB GDDR3 PCI-E. Blijkbaar haalde ik de kaart bij de juiste fabrikant. Daarna ben ik naar een GTX 760 overgestapt dat ik nog een jaar zal gebruiken.

Ik ga dus rustig afwachten totdat de Big Navi minstens half jaar door de proefkonijnen uitgebreid getest is en nVidia hun antwoord kan formuleren met de Ampere 7nm refresh.
Ja heel andere markt dus. Ik hou ervan om alle games op ultra te spelen en dat word met mijn 1070 toch wel erg lastig.
Werelds schreef op maandag 12 oktober 2020 @ 00:00:
[...]

RT gaat RDNA2 ook doen en we weten nog niets van de prestaties daarvan. Ik vind het hilarisch hoe men aan neemt dat Nvidia die race al heeft gewonnen, terwijl we nog niets van AMD's oplossing hebben gezien. Dat stukje van de Xbox kun je niet veel informatie uit halen.

En om devil's advocate te spelen:
- AMD's VCE is inmiddels min of meer gelijkwaardig aan Nvenc voor zover ik weet. De kwaliteit van beide blijft toch ver achter bij CPU encoders dus om de kwaliteit hoef je het niet te doen.
- DLSS? Jij zit op een 1080p scherm, wat moet je in god's naam met DLSS?
- Reflex :z
- Lightweight drivers? Nvidia? Niet als je alle features wilt. Zonder GFE heb je geen Shadowplay (wat het belangrijkste nut van Nvenc is, voor serieus video encoden gebruik je Nvenc niet). Een dozijn achtergrondprocessen en services haal je makkelijk.
- Nvidia's drivers zijn ook echt niet stabiel. Heb jij minder last van omdat je met een enkele monitor op beperkte refresh rate zit, maar DP of multimonitor (en dan helemaal met asymmetrische refresh rates) is nog steeds hommeles.
YouTube: NVENC vs AMF/VCE vs QuickSync vs X264 - ULTIMATE Encoder Quality Ana...

Volgens dit is nvenc nog steeds superieur. En nvenc is wat mij betreft vooral goed voor streamen van fast paced games.

En dat ik nu 1080 heb doet er niet toe. Ik wil graag naar een 30 inch scherm en dan is 1440p een must en als je dan ook nog eens lang met een gpu wil doen en alles ultra wil spelen is een feature als dlss mits geïmplementeerd natuurlijk geweldig.
Sp3ci3s8472 schreef op maandag 12 oktober 2020 @ 00:05:
[...]


Ik hoop eigenlijk dat er een standaard komt voor upscaling gebasseerd op TAA (of informatie uit vorige frames).

Als je dat niet hebt dan krijg je waarschijnlijk een volgende situatie:
https://en.wikipedia.org/...accelerated_PhysX_support

De laatste 3 jaar 1 spel met HW acceleration, denk dat we wel kunnen stellen dat dat ondertussen dood is; als er nog recent spellen zijn uitgekomen met HW accelerated physx dan hoor ik dat graag.
Ja standaarden zijn altijd beter maar helaas duurt de adoptie daarvan absurd lang en zijn ze vaak nogal een compromis.
Neem freesync het begin als gsync waarna amd met freesync kwam en vervolgens duurde het jarem om een standaard te worden en het werkt nog steeds niet lekker omdat veel monitoren gewoon eigenlijk niet goed genoeg zijn voor het freesync label. Daardoor hebben we ondertussen al 3 standaarden.
En ook physx heeft bijna 8 jaar geduurd voordat het tot een goed werkende standaard als open source werkte.

Bijde amd en nvidia zijn hier schuldig aan. Nvidia innoveert een hoop en dat is geweldig voor gamers. Maar ze maken het zo dat het alleen voor nvidia werkt en dat frustreert de totale vooruitgang. Vervolgens probeert amd met een oplossing te komen en duurt het jaren voordat ze oplossingen naar elkaar toe groeien en er een standaard ontstaat.
Beide partijen geven aan om gamers te geven maar als ze dat echt zouden doen komen ze meteen met standaard afspraken. Desnoods met een 1 generatie voorsprong voor de bedenker.
Zoals nvidia nu met reflex. Pracht feature en doet echt wonderen maar voordat dat ooit een standaard feature word...als dat al gebeurt. Ik had liever gezien dat nvidia de feature openbaar maakt voor de 30xx exclusief de feature heeft en na 1 jaar amd ook toegang krijgt. (Licenties optioneel) Zo blijft er een marketing voorsprong maar is na 1 jaar max de feature geadopteerd. Win win win.


Hoop dat het leesbaar is want dat is bij mij af en toe standaard al een dingetje maar ben op vakantie en moet het doen met een micro schermpje ipv mijn pc.

[ Voor 47% gewijzigd door computerjunky op 12-10-2020 09:17 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 12 oktober 2020 @ 00:00:
[...]

RT gaat RDNA2 ook doen en we weten nog niets van de prestaties daarvan. Ik vind het hilarisch hoe men aan neemt dat Nvidia die race al heeft gewonnen, terwijl we nog niets van AMD's oplossing hebben gezien. Dat stukje van de Xbox kun je niet veel informatie uit halen.

En om devil's advocate te spelen:
- AMD's VCE is inmiddels min of meer gelijkwaardig aan Nvenc voor zover ik weet. De kwaliteit van beide blijft toch ver achter bij CPU encoders dus om de kwaliteit hoef je het niet te doen.
- DLSS? Jij zit op een 1080p scherm, wat moet je in god's naam met DLSS?
- Reflex :z
- Lightweight drivers? Nvidia? Niet als je alle features wilt. Zonder GFE heb je geen Shadowplay (wat het belangrijkste nut van Nvenc is, voor serieus video encoden gebruik je Nvenc niet). Een dozijn achtergrondprocessen en services haal je makkelijk.
- Nvidia's drivers zijn ook echt niet stabiel. Heb jij minder last van omdat je met een enkele monitor op beperkte refresh rate zit, maar DP of multimonitor (en dan helemaal met asymmetrische refresh rates) is nog steeds hommeles.
Om eerlijk te zijn begon die laatste vrij irritant te worden met mijn RX5700XT. Ze lijken het eindelijk opgelost te hebben, maar die gaf voor mij wel wat problemen. Het was aardig game based waardoor ik voor bepaalde games het tweede scherm maar uit zette, maar het was er wel. Verder mis ik het oude drivermenu want wat ze met 19.12.2 hebben geïntroduceerd is eigenlijk gewoon bloatware. Het oude menu was als je eraan gewend was, eigenlijk gewoon intuïtief. Het nieuwe, tja ik kan nog steeds de helft van de settings niet vinden.

RDNA2 zou trouwens wel AV1 krijgen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
computerjunky schreef op maandag 12 oktober 2020 @ 08:50:
YouTube: NVENC vs AMF/VCE vs QuickSync vs X264 - ULTIMATE Encoder Quality Ana...

Volgens dit is nvenc nog steeds superieur. En nvenc is wat mij betreft vooral goed voor streamen van fast paced games.
Maar wil je met een beetje kwaliteit werken, dan blijft x264 superieur. 6 Mbps is nog steeds heel weinig.
En dat ik nu 1080 heb doet er niet toe. Ik wil graag naar een 30 inch scherm en dan is 1440p een must en als je dan ook nog eens lang met een gpu wil doen en alles ultra wil spelen is een feature als dlss mits geïmplementeerd natuurlijk geweldig.
DLSS voor 1440p? Je wil 1440p omdat de dot pitch je te klein is met 1080p op 32" (wat ook zo is) en vervolgens wil je wel de beeldkwaliteit weer omlaag trekken met DLSS? :P

Ik begrijp nog steeds niet waarom jij -en genoeg anderen met jou- zo geilt op DLSS, terwijl het veel interessanter zou zijn als de raster performance gewoon omhoog ging en we consistent 120+ FPS op 1440p hadden (in games die niet van zichzelf al slecht draaien). Hetzelfde geldt voor 2160p; als Nvidia en AMD daar nu gewoon consistent 60+ FPS kunnen leveren, is dat veel boeiender dan DLSS.

Sterker nog, dat laatste is ook voor 1080p gebruikers boeiend. Ik zit zelf ook nog steeds op 1080p*. Als 1440p120 of 2160p60 echter mogelijk zijn, dan betekent dat voor 1080p dat je aan supersampling kunt doen. Weg met die lelijke AA methodes in post-processing (inclusief TAA) en gewoon supersamplen, wat de ultieme AA methode is. Als een GPU 1440p120 kan doen, kun je voor 1080p makkelijk 2xSSAA doen met een 60+ FPS target (1440p is ~1,78 het aantal pixels). Als 2160p60 (precies 4x het aantal pixels) lukt, dan kun je 4xSSAA doen op 1080p; 2xSSAA op 1440p vereist nog net iets meer performance dan 2160p60 (2,25x het aantal pixels).

2160p120 lukt in veel gevallen nog net niet en dat is wat mij betreft het enige nut van DLSS - voor diegenen die ook een dergelijke monitor hebben. Dan kun je op hoge refresh rates op hoge resoluties gamen, ten koste van wat beeldkwaliteit. Maar de games waarin je dat wilt doen zijn over het algemeen goed geoptimaliseerd of geen grafische hoogstandjes. Zo'n stuk stront als Control geeft DLSS geen bestaansrecht, dat spel is technisch zo slecht dat DLSS enkel een pleister op de wond is.

En dan heb ik het nog niet eens over VR gehad (voor mij persoonlijk belangrijk, aangezien ik inmiddels van m'n Rift naar een Index over ben gegaan). In VR wil je echt geen DLSS; juist het tegenovergestelde, je wilt supersampling.


offtopic:
* vooral omdat ik het heel lastig vind een waardige opvolger voor m'n FG2421 te vinden. Het contrast op dit ding is nog steeds absurd en er is geen enkele monitor die ook maar in de buurt komt. En dan lees ik de QA problemen met dingen als Samsung's G9 en dan huiver ik nog meer. Met het beperkte aantal dimming zones vind ik HDR nog niet echt boeiend en OLED zullen we nooit krijgen :(

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op maandag 12 oktober 2020 @ 10:23:
[...]

Maar wil je met een beetje kwaliteit werken, dan blijft x264 superieur. 6 Mbps is nog steeds heel weinig.


[...]

DLSS voor 1440p? Je wil 1440p omdat de dot pitch je te klein is met 1080p op 32" (wat ook zo is) en vervolgens wil je wel de beeldkwaliteit weer omlaag trekken met DLSS? :P

Ik begrijp nog steeds niet waarom jij -en genoeg anderen met jou- zo geilt op DLSS, terwijl het veel interessanter zou zijn als de raster performance gewoon omhoog ging en we consistent 120+ FPS op 1440p hadden (in games die niet van zichzelf al slecht draaien). Hetzelfde geldt voor 2160p; als Nvidia en AMD daar nu gewoon consistent 60+ FPS kunnen leveren, is dat veel boeiender dan DLSS.

Sterker nog, dat laatste is ook voor 1080p gebruikers boeiend. Ik zit zelf ook nog steeds op 1080p*. Als 1440p120 of 2160p60 echter mogelijk zijn, dan betekent dat voor 1080p dat je aan supersampling kunt doen. Weg met die lelijke AA methodes in post-processing (inclusief TAA) en gewoon supersamplen, wat de ultieme AA methode is. Als een GPU 1440p120 kan doen, kun je voor 1080p makkelijk 2xSSAA doen met een 60+ FPS target (1440p is ~1,78 het aantal pixels). Als 2160p60 (precies 4x het aantal pixels) lukt, dan kun je 4xSSAA doen op 1080p; 2xSSAA op 1440p vereist nog net iets meer performance dan 2160p60 (2,25x het aantal pixels).

2160p120 lukt in veel gevallen nog net niet en dat is wat mij betreft het enige nut van DLSS - voor diegenen die ook een dergelijke monitor hebben. Dan kun je op hoge refresh rates op hoge resoluties gamen, ten koste van wat beeldkwaliteit. Maar de games waarin je dat wilt doen zijn over het algemeen goed geoptimaliseerd of geen grafische hoogstandjes. Zo'n stuk stront als Control geeft DLSS geen bestaansrecht, dat spel is technisch zo slecht dat DLSS enkel een pleister op de wond is.

En dan heb ik het nog niet eens over VR gehad (voor mij persoonlijk belangrijk, aangezien ik inmiddels van m'n Rift naar een Index over ben gegaan). In VR wil je echt geen DLSS; juist het tegenovergestelde, je wilt supersampling.


offtopic:
* vooral omdat ik het heel lastig vind een waardige opvolger voor m'n FG2421 te vinden. Het contrast op dit ding is nog steeds absurd en er is geen enkele monitor die ook maar in de buurt komt. En dan lees ik de QA problemen met dingen als Samsung's G9 en dan huiver ik nog meer. Met het beperkte aantal dimming zones vind ik HDR nog niet echt boeiend en OLED zullen we nooit krijgen :(
Ik begrijp waar je naar toe wilt met DLSS, maar ik denk dat het ook voor 4k60fps interessant kan zijn als je zonder DLSS bijv. maar 30 fps haalt. Zelfs als je nu wel 60 fps haalt, maar straks met nieuwere games niet meer. Of zou je dan liever de fps verhogen door op 4k de beeld kwaliteit te verlagen, shadows uit zetten e.d.? (AA zet je natuurlijk op 4k als eerste uit, dat telt niet)

En wat betreft super samplen op 1080p, is het dan niet gewoon tijd voor een betere monitor in plaats van 1440p/4k beelden in 1080 proberen te proppen? Misschien zit er hier een goede tussen:
https://www.rtings.com/monitor/reviews/best/by-usage/gaming

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op maandag 12 oktober 2020 @ 10:40:
[...]


Ik begrijp waar je naar toe wilt met DLSS, maar ik denk dat het ook voor 4k60fps interessant kan zijn als je zonder DLSS bijv. maar 30 fps haalt. Zelfs als je nu wel 60 fps haalt, maar straks met nieuwere games niet meer. Of zou je dan liever de fps verhogen door op 4k de beeld kwaliteit te verlagen, shadows uit zetten e.d.? (AA zet je natuurlijk op 4k als eerste uit, dat telt niet)
En als je met de huidige/aankomende generatie nu de meeste games op 4K gewoon goed kan spelen zonder DLSS? ;)

Dat is nu juist het punt waarom ik ook niet heel erg gecharmeerd ben. DLSS kan nuttig zijn als je videokaart en de game het ondersteunen en de videokaart die je hebt, het niet trekt op je resolutie. Dan moet het ook nog eens een game zijn waar je echt die hogere framerates wil hebben ten koste van wat kwaliteit. De lijst van potentieel nuttige titels word zo korter en korter. Het is eigenlijk voornamelijk zinvol op 4K, maar het hele punt van 4K is juist dat je zo'n grote pixeldichtheid en resolutie hebt dat de beeldkwaliteit omhoog gaat. Daarin kan DLSS hooguit een tijdelijke overbrugging zijn voor een paar games die het krijgen.

Ik heb ook veel liever gewoon dat het transistorbudget van een GPU naar shader/rasterisation gaat en hybrid RT. Als je dan wat wil besparen op 4K, tja ik denk dat ik veel meer zie in variable rate shading. Dat zit in de PS5, XSX, RDNA2, Turing en Ampere en ingebakken in DX12. Het is een standaard die gebruikt zal worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op maandag 12 oktober 2020 @ 10:40:
Ik begrijp waar je naar toe wilt met DLSS, maar ik denk dat het ook voor 4k60fps interessant kan zijn als je zonder DLSS bijv. maar 30 fps haalt. Zelfs als je nu wel 60 fps haalt, maar straks met nieuwere games niet meer. Of zou je dan liever de fps verhogen door op 4k de beeld kwaliteit te verlagen, shadows uit zetten e.d.? (AA zet je natuurlijk op 4k als eerste uit, dat telt niet)
Er zijn maar heel weinig games die de 60 niet halen op een 3080. Control is één van de weinige en ik heb het denk ik inmiddels wel duidelijk gemaakt wat ik denk van dat spel ;)

Maar ja, ik zou eerder frames besparen door met settings te spelen. Sowieso nooit Ultra settings gebruiken, want dat verbetert eigenlijk nooit zichtbaar de beeldkwaliteit. Wat er de komende jaren aan FPS vreters komt is vooral RT en afhankelijk van waar ze RT voor gebruiken, wil je ook dan geen DLSS omdat je dan een noisy frame gaat upscalen. Het gaat het nut van je hoge pixel dichtheid volledig tegen. Maar ook RT heb ik mijn mening al vaker over gegeven, dat beetje RT hardware wat we nu hebben is niet voldoende om een serieuze impact te hebben ten opzichte van traditionele technieken voor RT op grote schaal. Soft shadows zijn heel goedkoop met RT, maar dat lijkt niemand te doen want dat is niet "cool". Reflecties heb je meerdere bounces voor nodig, wat best te doen is mits de mapper slim is met z'n materialen. In plaats daarvan zien we dingen als Metro waar men het toepast voor GI en het het grootste deel van tijd hetzelfde uit ziet als baked lighting. Dat schaar ik onder de noemer "fout toegepast".

Het duurt nog even voordat RT écht gemeengoed is. Hopelijk zal het op de consoles beter toegepast worden dan we tot nu toe op de PC hebben gezien, dan gaan we tenminste wat mooiere beelden krijgen.
En wat betreft super samplen op 1080p, is het dan niet gewoon tijd voor een betere monitor in plaats van 1440p/4k beelden in 1080 proberen te proppen? Misschien zit er hier een goede tussen:
https://www.rtings.com/monitor/reviews/best/by-usage/gaming
Nee, want supersamplen geeft betere AA dan al die moderne vaseline methodes. Vandaar ook dat Oculus en Valve standaard supersamplen in VR. Het heeft niets te maken met meer pixels in 1080p te proppen, het heeft te maken met al die matige AA methodes vervangen.

En nee, geloof me, geen van die dingen komt in de buurt van mijn monitor qua contrast. Ik zal sowieso nooit meer terug kunnen naar TN, maar zelfs alle VA panelen halen net aan de 3000:1 terwijl mijn meer dan 7 jaar oude monitor 5000:1 doet ;)

Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
Werelds schreef op maandag 12 oktober 2020 @ 10:23:


DLSS voor 1440p? Je wil 1440p omdat de dot pitch je te klein is met 1080p op 32" (wat ook zo is) en vervolgens wil je wel de beeldkwaliteit weer omlaag trekken met DLSS? :P

Ik begrijp nog steeds niet waarom jij -en genoeg anderen met jou- zo geilt op DLSS, terwijl het veel interessanter zou zijn als de raster performance gewoon omhoog ging en we consistent 120+ FPS op 1440p hadden (in games die niet van zichzelf al slecht draaien). Hetzelfde geldt voor 2160p; als Nvidia en AMD daar nu gewoon consistent 60+ FPS kunnen leveren, is dat veel boeiender dan DLSS.

Sterker nog, dat laatste is ook voor 1080p gebruikers boeiend. Ik zit zelf ook nog steeds op 1080p*. Als 1440p120 of 2160p60 echter mogelijk zijn, dan betekent dat voor 1080p dat je aan supersampling kunt doen. Weg met die lelijke AA methodes in post-processing (inclusief TAA) en gewoon supersamplen, wat de ultieme AA methode is. Als een GPU 1440p120 kan doen, kun je voor 1080p makkelijk 2xSSAA doen met een 60+ FPS target (1440p is ~1,78 het aantal pixels). Als 2160p60 (precies 4x het aantal pixels) lukt, dan kun je 4xSSAA doen op 1080p; 2xSSAA op 1440p vereist nog net iets meer performance dan 2160p60 (2,25x het aantal pixels).

2160p120 lukt in veel gevallen nog net niet en dat is wat mij betreft het enige nut van DLSS - voor diegenen die ook een dergelijke monitor hebben. Dan kun je op hoge refresh rates op hoge resoluties gamen, ten koste van wat beeldkwaliteit. Maar de games waarin je dat wilt doen zijn over het algemeen goed geoptimaliseerd of geen grafische hoogstandjes. Zo'n stuk stront als Control geeft DLSS geen bestaansrecht, dat spel is technisch zo slecht dat DLSS enkel een pleister op de wond is.

En dan heb ik het nog niet eens over VR gehad (voor mij persoonlijk belangrijk, aangezien ik inmiddels van m'n Rift naar een Index over ben gegaan). In VR wil je echt geen DLSS; juist het tegenovergestelde, je wilt supersampling.


offtopic:
* vooral omdat ik het heel lastig vind een waardige opvolger voor m'n FG2421 te vinden. Het contrast op dit ding is nog steeds absurd en er is geen enkele monitor die ook maar in de buurt komt. En dan lees ik de QA problemen met dingen als Samsung's G9 en dan huiver ik nog meer. Met het beperkte aantal dimming zones vind ik HDR nog niet echt boeiend en OLED zullen we nooit krijgen :(
Als je kijkt naar 1440p dlss haal je dus veel meer fps en kan het er nog mooier uit zien als native ook.
Die aanname klopt dus gewoon niet. Er word vaak gedaan alsof dlss niets meer is dan AA maar het werkt toch totaal anders en je kan dus meer kwaliteit en meer fps halen. Native is leuk maar als je non native straks langer met je gpu kan doen is dat een zeer waardevolle toevoeging.
Zo was die loop simulator duidelijk mooier op 1440p geupscaled met dlss naar 4k dan 4k native en was er ook nog eens een enorme performance boost. Ja er zijn nog wat artifacts met sommige textures maar dat is een kwestie van aanleren. Dlss kan standaard niet alle textures aan.
En waar iets nu op draait koop ik niets voor. Ik wil langer als nu met een peperdure gpu doen. Het moet dus over jaren ook nog ultra kwaliteit @90 fps leveren.
Men roept al jaren dat het voor 1080p niet uit maakt. Maar ondertussen kwam RDR2 uit en was de fps om te huilen. En nieuwere games zullen nog zwaarder zijn.
Voor een beetje toekomst bestendigheid is dlss dus een valide optie als het breed geimplementeerd gaat worden.
Jullie hameren allemaal pp wat NU kan maar als je langer met je hardware wil doen zonder extreem veel grafische kwaliteit in te leveren is dlss een potentiele game changer.
Dat je nu voldoende fps haalt betekend niet dat je dat over 2 jaar nog kan zonder lagere settings en dus minder pracht en praal.
Daarnaast vind ik 60 fps onacceptabel. Zodra mijn fps onder de 75 valt merk ik het al meteen op mijn monitor en 60 dus al helemaal. Ik wil upgraden niet downgraden. Dus meer fps en in mijn geval een groter scherm zonder hogere dot pitch en upgrade naar ips. Er is echter nog geen flat ips 144hz 1440p 30 inch monitor met 1ms latency. Mijn 24 inch is echt het maximale voor 1080p. Ik heb een laptop met 15 inch 4k scherm en zelfs daarop zie ik aliassing dus ook daar ben ik het niet mee eens. AA zal nodig blijven tot mijn ogen slechter worden met de jaren.

En x264 KAN berere kwaliteit leveren maar wel ten kosten van een enorme cpu penalty. Iets dat zo goed als niemand kan missen. Voor realistische settings is nvenc gewoon de betere keuzen. Bijna niemand heeft immers een 16 core cpu en bij een 8 core cpu gaat x264 al op zijn gat op hoge kwaliteit die overigens zich niet eens vertaald naar youtube door compressie. Mijn 9900k is nu nog goed genoeg maar is hij dat over 3 jaar nog voor x264.

Beetje vooruit denken kan bakken geld besparen. We gaan wel zien wat voor een features amd uit de mouw tovert. Maar dat ze met iets komen lijkt mij wel noodzakelijk. Want zo scherp gaan prijzen dat features er niet toe doen zie ik ze niet doen. Dat hebben ze al wel bewezen met de 5xxx serie die duurder als de intel in de markt gezet word.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Werelds schreef op maandag 12 oktober 2020 @ 10:23:
[...]

Ik begrijp nog steeds niet waarom jij -en genoeg anderen met jou- zo geilt op DLSS, terwijl het veel interessanter zou zijn als de raster performance gewoon omhoog ging en we consistent 120+ FPS op 1440p hadden (in games die niet van zichzelf al slecht draaien). Hetzelfde geldt voor 2160p; als Nvidia en AMD daar nu gewoon consistent 60+ FPS kunnen leveren, is dat veel boeiender dan DLSS.
Denk dat veel mensen graag consistent 120+ fps 1440p willen hebben, maar dat zou betekenen dat er zoveel transistors bij moeten dat de GPU te groot wordt. Da's met de huidige technologie niet mogelijk, of in elk geval niet rendabel. Dus wat jij voorstelt is misschien pas bij 5 of 3 nm GPU's mogelijk.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op maandag 12 oktober 2020 @ 11:02:
[...]

Er zijn maar heel weinig games die de 60 niet halen op een 3080. Control is één van de weinige en ik heb het denk ik inmiddels wel duidelijk gemaakt wat ik denk van dat spel ;)

Maar ja, ik zou eerder frames besparen door met settings te spelen. Sowieso nooit Ultra settings gebruiken, want dat verbetert eigenlijk nooit zichtbaar de beeldkwaliteit.

Het duurt nog even voordat RT écht gemeengoed is. Hopelijk zal het op de consoles beter toegepast worden dan we tot nu toe op de PC hebben gezien, dan gaan we tenminste wat mooiere beelden krijgen.
Ja, nu. Maar hoe zit dat in de toekomst? Als de beeldkwaliteit bij gebruik van DLSS 2.0 goed is, en we horen steeds meer reviewers dat zeggen, dan lijkt het op gratis extra FPS. Nu staat nVidia er al langer om bekend beeldkwaliteit op te offeren voor FPS "als je het toch niet ziet", en daarover verschillen de meningen. Maar om te zeggen, DLSS doet er niet toe, lijkt mij op dit moment - zelfs al moedig ik AMD aan want underdog - voorbarig.
Werelds schreef op maandag 12 oktober 2020 @ 11:02:
[...]

Nee, want supersamplen geeft betere AA dan al die moderne vaseline methodes. Vandaar ook dat Oculus en Valve standaard supersamplen in VR. Het heeft niets te maken met meer pixels in 1080p te proppen, het heeft te maken met al die matige AA methodes vervangen.

En nee, geloof me, geen van die dingen komt in de buurt van mijn monitor qua contrast. Ik zal sowieso nooit meer terug kunnen naar TN, maar zelfs alle VA panelen halen net aan de 3000:1 terwijl mijn meer dan 7 jaar oude monitor 5000:1 doet ;)
Tja, met VR ben je sowieso beperkt in resolutie, dus daar kun je niet binnen of mee vergelijken. Heb je wel eens gespeeld op een 4k120+ Hz scherm? Zo nee, waar vergelijk je je mooie 1080p ervaring dan mee?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
XWB schreef op maandag 12 oktober 2020 @ 12:11:
[...]


Denk dat veel mensen graag consistent 120+ fps 1440p willen hebben, maar dat zou betekenen dat er zoveel transistors bij moeten dat de GPU te groot wordt. Da's met de huidige technologie niet mogelijk, of in elk geval niet rendabel. Dus wat jij voorstelt is misschien pas bij 5 of 3 nm GPU's mogelijk.
Dat 120+ FPS op 1440p is al mogelijk op mijn oude 5700XT gegeven dat het spel goed geoptimaliseerd is. Doom draait perfect, Final Fantasy 15 daarentegen dus niet.
Ik wil liever 1440p met VSR naar 5k en dan tussen de 60-100FPS. Dat hoop ik dat de 6xxx gaat geven voor mij.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
@Sp3ci3s8472 Er zijn zat goed geoptimaliseerde games waarbij die performance nog niet mogelijk is. Doom is met zijn kleine levels niet erg spannend voor een videokaart.

March of the Eagles


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
computerjunky schreef op maandag 12 oktober 2020 @ 11:52:
kan het er nog mooier uit zien als native ook.
Dat hangt volledig van de game af.

De upscaling kant zal er nooit en te nimmer even goed als native uit zien, laat staan beter. Het is het sharpening filter dat in veel gevallen detail lijkt te herstellen. In bijvoorbeeld Control is dat echter niet het geval; het detail was er sowieso al niet, dus eender welk sharpening filter maakt al dat die game er beter uit ziet.

Wat bijvoorbeeld Death Stranding betreft (die loop simulator :P) heeft dat vooral te maken met TAA. TAA is heel effectief tegen jaggies, maar het haalt ook veel detail weg. Dat is waarom ik er zo'n hekel aan heb. Ook daar is het het sharpening filter dat zorgt voor het magische resultaat en dat is niet exclusief aan DLSS. En sharpening filters kun je ook op native renders toepassen.

De delen van frames waar dat het beste aan te zien is zijn dan ook de delen die traditioneel het lastigst te anti-aliasen zijn en waar TAA voor wordt gebruikt: transparency AA. Maar wat dan vaak genegeerd wordt is dat dat ten koste gaat van textures en afhankelijk van de lighting engine, soms ook schaduwen. Volgens mij was het in Digital Foundry's analyse van DLSS in DS waar je regelmatig ziet dat de AO een stuk minder precies is.
Er word vaak gedaan alsof dlss niets meer is dan AA maar het werkt toch totaal anders en je kan dus meer kwaliteit en meer fps halen.
Nee, niemand doet alsof DLSS AA is. Juist niet. DLSS is upscaling op basis van een neuraal netwerk gevolgd door een sharpening filter.

Mijn probleem is dat jij keihard stelt dat DLSS er beter uit kan zien dan native rendering, zonder te begrijpen waarom dat is en zonder te erkennen dat dat vaak ook komt doordat het onderliggende frame er sowieso al matig uit ziet. Het is geen zilveren kogel, het is nog steeds een benadering van het ideale frame.

Ik heb niets tegen DLSS. Het is een mooi staaltje techniek. Het is echter geen magische, compromisloze oplossing voor het gebrek aan rekenkracht - en dat is wel hoe jij (en anderen met jou) het presenteert. Transparante textures shimmeren minder, hebben minder jaggies en behouden hun contouren. Daar geef je echter textures kwaliteit voor op, alsmede contrast afkomsting van AO (AO is afhankelijk van resolutie). Dat jij dat compromis minder belangrijk vindt, betekent niet dat het er niet is.
Ja er zijn nog wat artifacts met sommige textures maar dat is een kwestie van aanleren. Dlss kan standaard niet alle textures aan.
DLSS 2.0 is niet meer per game getrained, dus daar valt niets "aan te leren". Dat is juist het hele punt.
En waar iets nu op draait koop ik niets voor. Ik wil langer als nu met een peperdure gpu doen. Het moet dus over jaren ook nog ultra kwaliteit @90 fps leveren.
Dan moet je RT helemaal niet als argument gebruiken, want wat je nu aan RT hardware kunt kopen is over jaren hooguit genoeg voor het minimum. Zelfs op lagere resoluties (en dus met DLSS).
sunsmountain schreef op maandag 12 oktober 2020 @ 12:18:
Ja, nu. Maar hoe zit dat in de toekomst? Als de beeldkwaliteit bij gebruik van DLSS 2.0 goed is, en we horen steeds meer reviewers dat zeggen, dan lijkt het op gratis extra FPS. Nu staat nVidia er al langer om bekend beeldkwaliteit op te offeren voor FPS "als je het toch niet ziet", en daarover verschillen de meningen. Maar om te zeggen, DLSS doet er niet toe, lijkt mij op dit moment - zelfs al moedig ik AMD aan want underdog - voorbarig.
Nogmaals, ik heb niets tegen DLSS - ik speel hier bewust devil's advocate omdat het te veel opgehemeld wordt en ik heb dan ook nooit gezegd dat DLSS er niet toe doet (althans, voor 2160p; voor 1440p mag het geen argument zijn, die resolutie hebben we al bijna 15 jaar en zou geen probleem meer mogen vormen). Het is en blijft een compromis; en AMD's FidelityFX CAS komt er heel dicht bij in de buurt. Sterker nog, CAS is veel beter in het behouden van klein detail, DLSS is heel slecht met particles. Beiden zijn een compromis en het is maar net welk compromis je liever sluit. Fijn detail en texture kwaliteit tegenover AA op transparante textures (gras, haar).

Hetzelfde geldt voor bijvoorbeeld de verschillende AA methodes. TAA geeft meer performance dan 4xMSAA + SMAA, ten koste van beeldkwaliteit. Behalve dan op transparantie van slechts 1 pixel (hek of gras op afstand), waar TAA's wazige resultaat er prettiger (niet mooier!) uit ziet. Het is en blijft altijd een compromis en dat moet gewoon erkend worden :P
Tja, met VR ben je sowieso beperkt in resolutie, dus daar kun je niet binnen of mee vergelijken. Heb je wel eens gespeeld op een 4k120+ Hz scherm? Zo nee, waar vergelijk je je mooie 1080p ervaring dan mee?
Hoe bedoel je dat VR beperkt is in resolutie?

offtopic:
En ja, ik heb er al meerdere ervaren. Even los van de pixel dichtheid, is het over het algemeen zo dat de helderheid hoger is maar het contrast minder. Ik kan heel moeilijk omschrijven hoe idioot een statisch contrast van 5000:1 is. Ik zal er toch een keer aan moeten geloven (ruim 33000 branduren op deze) en ik heb er wel al een aantal op het oog (Eve Spectrum ziet er op papier goed uit...maar hun reputatie is heel erg slecht), maar ik kijk nog even de kat uit de boom. Ik twijfel ook nog heel erg over 32:9; ik draai al bijna 20 jaar op twee monitors voor productiviteit en het idee achter 32:9 trekt me wel, maar wellicht mis ik na enkele weken m'n dual setup wel :)

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
XWB schreef op maandag 12 oktober 2020 @ 12:11:
[...]


Denk dat veel mensen graag consistent 120+ fps 1440p willen hebben, maar dat zou betekenen dat er zoveel transistors bij moeten dat de GPU te groot wordt. Da's met de huidige technologie niet mogelijk, of in elk geval niet rendabel. Dus wat jij voorstelt is misschien pas bij 5 of 3 nm GPU's mogelijk.
Zonder rtx of tenser cores en een andere indeling zou dat misschien wel kunnen. Nu doet een deel van de transistoren in de gedeelde units namelijk niets als je alles zo indeeld dat er van beide meer is kan je wel meer toevoegen.
Maarja dan loop je dus features mis en is het de vraag of de andere pipelines en dergelijke dat aan kunnen en of games we schalen met zo enorm veel units.

Nvidia heeft echter gekozen voor vooruithang ipv alleen opschalen en maakt de oplossing dus deels met aparte units. Of dat op weegt tegen pure rekenkracht zullen we met de tijd zien. Het rendement uit dlss lijkt in iedergeval groter dan wat die ruimte aan units had opgebracht.
Sp3ci3s8472 schreef op maandag 12 oktober 2020 @ 12:20:
[...]


Dat 120+ FPS op 1440p is al mogelijk op mijn oude 5700XT gegeven dat het spel goed geoptimaliseerd is. Doom draait perfect, Final Fantasy 15 daarentegen dus niet.
Ik wil liever 1440p met VSR naar 5k en dan tussen de 60-100FPS. Dat hoop ik dat de 6xxx gaat geven voor mij.
Tha 120 fps 4k is zelfs mogelijk op een laptop met gtx 1050. Als je de instellingen maar laag genoeg zet.
Of dat echter wenselijk is.
Dat spellen niet altijd geoptimaliseerd zijn zal helaas niet veranderen. Je moet wat mij betreft dan ook uit gaan van worst case. En dan zijn features als dlss natuurlijk een enorme boost.
Alle vergelijkingen die ik met vsr berkijk zijn wat mij betreft teleurstellend en geven niet echt veel meerwaarde. Al gebruik ik af en toe wel de virtuale super resolutie van nvidia als ik echt veel prestatie over heb. 133% texture resolutie kan in sommige games wel wat toevoegen. In anderen word het juist weer lelijker (wazig) en de performance impact is enorm.

Ach ja het zijn interresante en toch ook frustrerende tijden als je een grote upgrade wil kopen voor lange termijn.

Ik begin steeds meer te leunen naar een 2 jaren plan en dan opnieuw kijken. En dan zou ik nu in de 400-500 prijsklasse vallen. Maar dat zien we over 2 weken dus wel. 2x 400-500 maar wel met fors lagere energie rekening komt op ongeveer hetzelfde uit maar met de mogelijkheid dat ik over 2 jaar nieuwere features heb of we zien of bepaalde features wel of niet geintergreerd gaan worden.

Misschien volledig offtopic maar weten mensen of het mogelijk is om amd drivers ondertussen zo te draaien dat er 0 processen mee draaien. Bij nvidia kan dit wel. Ik ben fan van helemaal niets mee draaien op de achtergrond. Mijn game windows heeft maar 39 processen actief waarvan 6 van mijn geluid, game muis en TB, classic taskbar en start menu zijn die echt niet uit kunnen. Door dit te ,inimaliseren en zelfs voor bijna alles want niet game gerelateerd ia core affiniteit te forceren op core 8
Zij heel veel microstutters verdwenen die ik sinds windows 10 had.
Werelds schreef op maandag 12 oktober 2020 @ 13:38:
De upscaling kant zal er nooit en te nimmer even goed als native uit zien, laat staan beter. Het is het sharpening filter dat in veel gevallen detail lijkt te herstellen.
Nee gewoon nee... die statement moet echt uitsterven. Het is veel meer dan simpel upscalen. En dat het mooier kan zijn is al bewezen. Dit komt omdat het niet simpel upscaled maar aangeleerde data gebruikt om te berekenen wat er moet staan en het dus geen gemiddelde is dat mer upscalen altijd waziger word maar een semi intelligente invulling. Text en textures kunnen dus wel degelijk scherper worden.


Anyway deze junky gaat even naar het stand voor een zandstraal beurt. Je moet wat doen om er jong uit te blijven zien...

[ Voor 10% gewijzigd door computerjunky op 12-10-2020 13:50 ]


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
computerjunky schreef op maandag 12 oktober 2020 @ 13:44:
Nee gewoon nee... die statement moet echt uitsterven. Het is veel meer dan simpel upscalen. En dat het mooier kan zijn is al bewezen. Dit komt omdat het niet simpel upscaled maar aangeleerde data gebruikt om te berekenen wat er moet staan en het dus geen gemiddelde is dat mer upscalen altijd waziger word maar een semi intelligente invulling. Text en textures kunnen dus wel degelijk scherper worden.
Even goed lezen aub.

Ik zeg nergens dat het "simpel upscalen" is. Het is en blijft echter wel een vorm van upscalen en het kan op zichzelf dus nooit en te nimmer dezelfde kwaliteit produceren. DLSS is echter meer dan enkel upscalen op basis van een neuraal netwerk, het past ook een sharpening filter toe.

En wederom stel jij dat het "aangeleerde data gebruikt om te berekenen wat er moet staan". Duizend maal nee. DLSS 2.0 weet helemaal niets van wat er moet staan voor welke game dan ook. DLSS 2.0 werkt met een algemeen model dat getrained is op specifieke moeilijke upscaling situaties, maar niet op een specifieke game. Het benadert wat het frame geweest zou zijn op basis van algemene kennis.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dit laat dus weer eens zien hoe bizar Nvidia hun mindshare is. Mensen, zien jullie nu werkelijk niet in dat jullie wensenlijsten bestaat uit zaken die Nvidia jullie vertelt wat het moet zijn? Dat is namelijk wat je doet als je met eisen komt zoals: tensor cores, DLSS, NVEC, RTX etc. Dit is allemaal Nvidia technologie (oke, niet tensor cores) en Nvidia staat er natuurlijk zo bekend om dat ze graag meewerken aan open standaarden.

Met deze houding, heel erg bot, koop een Nvidia videokaart. Je zal nooit tevreden gesteld kunnen worden met een Radeon omdat je vraagt wat onmogelijk is en negeert wat er voor alternatieven bestaan, ook al zijn ze beter of werken ze daadwerkelijk in de games die je wil spelen. Het zal ook nooit eens om zaken zoals AMD Chill gaan wat echt goed werkt, waar je beter RIS of FidelityFX kan hebben of helemaal radicaal de suggestie dat RDNA2 haar RT misschien wel beter kan zijn dan die van Ampere. We weten alleen hoe het ruw gaat werken, maar geen idee in hoeverre het op detail zal werken, of ze iets van denoising gaan toepassen, hoe krachtig het is en wat de nadelen en afwegingen zijn. Daar lekt ook helemaal niks over.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 20-09 18:13

Jumpiefox

Hoi ?

Ik moet ook maar blijven lachen over dat hele DLSS verhaal. Bij de introductie ervan was het DE HOLY grail. Uiteindelijk zwaar gefaald, 1 game die het goed heeft geimplementeerd en de rest was drama. :+

Nu Hetzelfde verhaal..paar screenshots gezien van Death stranding..en ja hoor, het is de holy grail 8)7

Wie boeit DLSS nou? Misschien mensen die op 4k gamen en hoge refresh rate schermen hebben..maar dat soort mensen willen toch juist geen consessies doen om maar ff te gaan upscalen..bleh.

Nee, ik wil gewoon mijn native refresh rate halen door middel van native rendering. Hoef niks van dat hele upscalen gedoe hoe "goed" het zogenaamd ook is. Net hoe ik niks van dat raytracing atm nodig heb. Ik zie wel op screenshots en dan omringt met rode circeltjes hoe goed het wel niet is..en dan ingame tijdens hectische momenten er niks van te merken en dan wel fps inleveren. (overigens wel vet dat ze nu goed aan de weg timmeren met ray-tracing..misschien over 8 jaar dan eindelijk wel wat normale performance and effect in games).

En voordat iemand hem inkopt..wat ben je een amd fan!? Nou nee, heb gewoon een 2080ti, en het is velen generaties geleden dat ik voor het laatst een amd kaart had. Kan het niet eens meer herinneren.

[ Voor 8% gewijzigd door Jumpiefox op 12-10-2020 14:57 ]

The first casualty in war is always the truth...


Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 19-09 23:04
Jumpiefox schreef op maandag 12 oktober 2020 @ 14:56:
Net hoe ik niks van dat raytracing atm nodig heb. Ik zie wel op screenshots en dan omringt met rode circeltjes hoe goed het wel niet is..en dan ingame tijdens hectische momenten er niks van te merken en dan wel fps inleveren. (overigens wel vet dat ze nu goed aan de weg timmeren met ray-tracing..misschien over 8 jaar dan eindelijk wel wat normale performance and effect in games).

En voordat iemand hem inkopt..wat ben je een amd fan!? Nou nee, heb gewoon een 2080ti, en het is velen generaties geleden dat ik voor het laatst een amd kaart had. Kan het niet eens meer herinneren.
Eens. Wat ik ook zo raar vind is dat vloeren ineens perfecte spiegels worden. Ja leuk dat je rays volgt, maar de meeste oppervlaktes zijn gewoon diffuserend, daar krijg je geen perfecte plaatjes via de vloer. Ook via het water zie je altijd perfecte reflecties terwijl dat in het echt helemaal niet zo is 8)7
Ik snap dan ook niet echt wat men nu met raytracing probeert en waarom niemand het hier over heeft? De manier waarop de rays worden getraced is echt ja, maar het resultaat is een permanente spiegel over muren, vloeren en plekken die normaal hele wazige reflecties geven omdat die oppervlaktes gewoon rug zijn :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Santee schreef op maandag 12 oktober 2020 @ 15:04:
[...]

Eens. Wat ik ook zo raar vind is dat vloeren ineens perfecte spiegels worden. Ja leuk dat je rays volgt, maar de meeste oppervlaktes zijn gewoon diffuserend, daar krijg je geen perfecte plaatjes via de vloer. Ook via het water zie je altijd perfecte reflecties terwijl dat in het echt helemaal niet zo is 8)7
Ik snap dan ook niet echt wat men nu met raytracing probeert en waarom niemand het hier over heeft? De manier waarop de rays worden getraced is echt ja, maar het resultaat is een permanente spiegel over muren, vloeren en plekken die normaal hele wazige reflecties geven omdat die oppervlaktes gewoon rug zijn :+
Bij Battlefield zag je dat zo mooi. Fantastisch die wereld oorlog maar ik denk door al het stof wat er opwaait je echt geen spiegels meer hebt overal :P.

Het probleem is dat je dit met elke nieuwe techniek ziet. Je kan het hele lijstje aflopen, bumpmap, normalmap, bloom/fake HDR, en dus nu RT. Dat zie je ook vaak met de grafische mods vanuit de community, bloom op 200% en de normalmap intensiteit ook. Het ziet er niet uit, het is veel mooier als het subtiel is toegepast.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sp3ci3s8472 schreef op maandag 12 oktober 2020 @ 15:19:
[...]


Bij Battlefield zag je dat zo mooi. Fantastisch die wereld oorlog maar ik denk door al het stof wat er opwaait je echt geen spiegels meer hebt overal :P.

Het probleem is dat je dit met elke nieuwe techniek ziet. Je kan het hele lijstje aflopen, bumpmap, normalmap, bloom/fake HDR, en dus nu RT. Dat zie je ook vaak met de grafische mods vanuit de community, bloom op 200% en de normalmap intensiteit ook. Het ziet er niet uit, het is veel mooier als het subtiel is toegepast.
Het probleem is de zak geld die wordt neergelegd voor een tech demo. Battlefield is ook meteen een geweldig voorbeeld.

Je kan zeggen van DICE wat je wil, maar Frostbite ziet er gewoon goed uit*. En dan klopt Nvidia aan voor een techdemo van "hun" nieuwe technologie.

Vet, eens kijken wat we kunnen! Wel lastig om in een bestaande deferred renderer te plakken...en hmm, we kunnen ook niet al te veel laten bouncen. Oh shit, we moeten eigenlijk ook compleet andere materialen hebben omdat deze voor SSR + deferred lighting gemaakt zijn, maar we moeten ook over 2 maanden gold gaan. Dat lukt niet meer :(

Ik snap het helemaal, ik zou er ook mee willen spelen. Maar het resultaat is ook hartstikke begrijpelijk.

Alle baked technieken werden in het begin inderdaad ook te veel gebruikt; ook zoiets als tessellation. Verschil is echter dat die dingen niet een compleet andere pipeline vereisten, terwijl RT dat wel nodig heeft als je het goed wil doen. Is het te doen? Zeker. Maar niet binnen het tijdsbestek en budget dat veel developers hebben. Het gevolg zijn de halve implementaties die we nu hebben.

En daar blijft het ook bij totdat RT richting gemeengoed gaat. Met RT in de consoles en hopelijk een competitief AMD op de desktop kan die verschuiving eindelijk beginnen. Dat betekent nog steeds niet dat we over 2, 3 of zelfs 4 jaar ineens alles raytraced hebben. Nee, dan zal de playerbase pas groot genoeg zijn om een groot deel van de baked shadows er uit te gooien en te tracen. En/of om reflecties geheel te vervangen door RT met meerdere bounces, zonder dat ze alle materialen moeten dupliceren voor zowel SSR als RT.

Ik ben echt razend benieuwd naar AMD's implementatie en de prestaties daarvan.


* In hun eigen handen tenminste :+

En het is maar de vraag of dat nog zo zal zijn nu Andersson weg is :(

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RT is ook een van de dingen die ik echt wil weten, naast natuurlijk de cache. Juist omdat we daar nog veel minder van weten dan zelfs de cache hiërarchie en omdat Mark Cerny eigenlijk best zeker van zijn zaakjes leek in maart met de PS5. Dat is dan een 36CU RDNA2 chip, in PC termen ongeveer een cut down Navi 22 die waarschijnlijk de "RX6700" gaat worden. Als die al wat acceptabele RT zou kunnen, tja.

Ik heb DICE eigenlijk al afgeschreven. Die studio wordt zo slecht geleid en dat zagen we met BF5. Oh wat hebben ze dat ontiegelijk verprutst terwijl het product serieuze potentie had. Technisch leek het alleen aan elkaar te hangen met heel wat kauwgum en elastiekjes. Het was letterlijk een loterij met elke patch, welke videokaart architecturen nu weer kapot zouden gaan met DX12. Ik heb zo ongeveer elke samenstelling van Polaris, Vega, RDNA1, Pascal en Turing wel gezien. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Als je kijkt naar hoeveel rays je nodig hebt om iets fatsoenlijk te renderen, dan denk ik dat de echte toegevoegde waarde van RT nog wel een 5 jaar tot een decennium op zich laat wachten. Voorlopig kijk ik nog even naar de 'traditionele' performance en niet naar RT performance om te beoordelen of ik een kaart interessant vindt.
Wat inmiddels wél interessant aan het worden is, is de vraag of een kaart ook een VR bril kan aansturen op een resolutie waarbij je geen last meer hebt van zaken zoals screen door effect. Dat is een resolutie van ca. 6k in het vierkant per oog. Ik weet dat de afstand tussen pixels ook uitmaakt, maar een hoog resolutiescherm zal daar sowieso iets mee moeten.

[ Voor 38% gewijzigd door ocf81 op 12-10-2020 20:24 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op maandag 12 oktober 2020 @ 13:38:
[...]

Dat hangt volledig van de game af.

De upscaling kant zal er nooit en te nimmer even goed als native uit zien, laat staan beter. Het is het sharpening filter dat in veel gevallen detail lijkt te herstellen. In bijvoorbeeld Control is dat echter niet het geval; het detail was er sowieso al niet, dus eender welk sharpening filter maakt al dat die game er beter uit ziet.

Wat bijvoorbeeld Death Stranding betreft (die loop simulator :P) heeft dat vooral te maken met TAA. TAA is heel effectief tegen jaggies, maar het haalt ook veel detail weg. Dat is waarom ik er zo'n hekel aan heb. Ook daar is het het sharpening filter dat zorgt voor het magische resultaat en dat is niet exclusief aan DLSS. En sharpening filters kun je ook op native renders toepassen.

De delen van frames waar dat het beste aan te zien is zijn dan ook de delen die traditioneel het lastigst te anti-aliasen zijn en waar TAA voor wordt gebruikt: transparency AA. Maar wat dan vaak genegeerd wordt is dat dat ten koste gaat van textures en afhankelijk van de lighting engine, soms ook schaduwen. Volgens mij was het in Digital Foundry's analyse van DLSS in DS waar je regelmatig ziet dat de AO een stuk minder precies is.


[...]

Nee, niemand doet alsof DLSS AA is. Juist niet. DLSS is upscaling op basis van een neuraal netwerk gevolgd door een sharpening filter.

Mijn probleem is dat jij keihard stelt dat DLSS er beter uit kan zien dan native rendering, zonder te begrijpen waarom dat is en zonder te erkennen dat dat vaak ook komt doordat het onderliggende frame er sowieso al matig uit ziet. Het is geen zilveren kogel, het is nog steeds een benadering van het ideale frame.

Ik heb niets tegen DLSS. Het is een mooi staaltje techniek. Het is echter geen magische, compromisloze oplossing voor het gebrek aan rekenkracht - en dat is wel hoe jij (en anderen met jou) het presenteert. Transparante textures shimmeren minder, hebben minder jaggies en behouden hun contouren. Daar geef je echter textures kwaliteit voor op, alsmede contrast afkomsting van AO (AO is afhankelijk van resolutie). Dat jij dat compromis minder belangrijk vindt, betekent niet dat het er niet is.


[...]

DLSS 2.0 is niet meer per game getrained, dus daar valt niets "aan te leren". Dat is juist het hele punt.


[...]

Dan moet je RT helemaal niet als argument gebruiken, want wat je nu aan RT hardware kunt kopen is over jaren hooguit genoeg voor het minimum. Zelfs op lagere resoluties (en dus met DLSS).


[...]

Nogmaals, ik heb niets tegen DLSS - ik speel hier bewust devil's advocate omdat het te veel opgehemeld wordt en ik heb dan ook nooit gezegd dat DLSS er niet toe doet (althans, voor 2160p; voor 1440p mag het geen argument zijn, die resolutie hebben we al bijna 15 jaar en zou geen probleem meer mogen vormen). Het is en blijft een compromis; en AMD's FidelityFX CAS komt er heel dicht bij in de buurt. Sterker nog, CAS is veel beter in het behouden van klein detail, DLSS is heel slecht met particles. Beiden zijn een compromis en het is maar net welk compromis je liever sluit. Fijn detail en texture kwaliteit tegenover AA op transparante textures (gras, haar).

Hetzelfde geldt voor bijvoorbeeld de verschillende AA methodes. TAA geeft meer performance dan 4xMSAA + SMAA, ten koste van beeldkwaliteit. Behalve dan op transparantie van slechts 1 pixel (hek of gras op afstand), waar TAA's wazige resultaat er prettiger (niet mooier!) uit ziet. Het is en blijft altijd een compromis en dat moet gewoon erkend worden :P


[...]
@Werelds ik heb veel geleerd van deze post, ik denk inderdaad niet dat DLSS 2.0 èn meer beeldkwaliteit, èn meer FPS kàn bieden. Maar misschien wel àndere beeldkwaliteit, ook als dat niet altijd is zoals de maker het bedoeld heeft. Dat laat zich met name (in 2.0) nog zien bij bewegende beelden en transparante textures (DLSS 2.0 is TAA gebaseerd), die de bal mis kunnen en dus zullen slaan.

Wat je echter niet moet vergeten is dat veel gamers, TechTubers, outlets en computerjunkies daar niet op letten. Die zien meer FPS, die zien de verschillen niet, de reviewers zeggen die verschillen zijn er te weinig, die denken: must-have-DLSS. Op deze manier is nVidia wel vaker weg gekomen met beeld kwaliteit opofferen voor meer FPS, met resultaat. AMD ATi Radeon zijn veel meer ingenieurs, die vinden dat je netjes moet blijven qua beeldkwaliteit, als een soort wetenschappers of zo.

nVidia staat wat anders in de wedstrijd, en qua software zijn ze gewoon beter. Dat moet ook wel met 10.000 developers in dienst versus 1.000 bij AMD. Driver stabiliteit is ook van je systeem afhankelijk, doe je multi-monitor? Gebruik kwaliteit- en het liefst dezelfde kabels.

Ik hoop dat AMD goed bijblijft met dit soort FPS verhogende technieken. Want daar wordt performance toch vaak op afgerekend. Nu is het wel developer TAA implementatie afhankelijk, maar toch al een deel van de "review games" qua benchmarks ondersteunen DLSS 2.0. En Ray Tracing, of het nou alleen Global illumination is of niet. En Cyberpunk 2077 ondersteunt allebei, zeggen ze. AMD kan er daardoor gewoon niet omheen. Ze moeten mee in de FPS vergelijkingen, ook in die, waarbij beeldkwaliteit wordt opgeofferd. En de vergelijking eigenlijk "oneerlijk" is. Tough world out there.

Het zal 1 à 2 jaar duren, en dan is AMD weer bij qua software, drivers. Na 2 jaar zal nVidia weer nieuwe software bedacht hebben, en betere drivers hebben bij launch. Ook zullen ze de hardware van AMD gekopieerd hebben na 2 jaar (infinity cache), misschien wel op TSMC 7nm EUV refresh. RDNA3 hardware zal tegen die tijd weer beter zijn. Etcetera, de concurrentie maakt ook dat we voorlopig niet het beste van beide werelden tegelijkertijd zullen hebben.

Misschien na APU integratie. Who knows.
Werelds schreef op maandag 12 oktober 2020 @ 13:38:
Hoe bedoel je dat VR beperkt is in resolutie?

offtopic:
En ja, ik heb er al meerdere ervaren. Even los van de pixel dichtheid, is het over het algemeen zo dat de helderheid hoger is maar het contrast minder. Ik kan heel moeilijk omschrijven hoe idioot een statisch contrast van 5000:1 is. Ik zal er toch een keer aan moeten geloven (ruim 33000 branduren op deze) en ik heb er wel al een aantal op het oog (Eve Spectrum ziet er op papier goed uit...maar hun reputatie is heel erg slecht), maar ik kijk nog even de kat uit de boom. Ik twijfel ook nog heel erg over 32:9; ik draai al bijna 20 jaar op twee monitors voor productiviteit en het idee achter 32:9 trekt me wel, maar wellicht mis ik na enkele weken m'n dual setup wel :)
Ik zie nog niet veel 4k resoluties in de HMD's, maar ik kan me vergissen:
https://xinreality.com/wiki/Resolution

offtopic:
Contrast is fijn, maar ook niet alles. Speel je in een donkere ruimte? Dan kan OLED beter zijn. Die 2e monitor ga je missen voor productiviteit: ik ben zelf van plan m'n 1080p kantelen om bijna 2160 (1920) beeldlijnen te krijgen naast m'n nieuwe 4k beeldscherm. 60Hz, wel zonde van de high refresh, maar ja, met RPG's heb je geen twitch level reacties nodig.

[ Voor 15% gewijzigd door sunsmountain op 12-10-2020 17:43 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 21-09 22:59
In verband met het hele DLSS gebeuren deel ik ook even mijn mening (heb geen RTX, puur gebaseerd op analyses van oa Digital Foundry).

Het is een leuke upscaling-techniek die sinds DLSS v2 pakweg 90-95% van de te verwachten native beeldkwaliteit levert, maar met veel lagere renderkost.
Het hele idee is ook dat je niet op de kleine details let in beweging. Een afzonderlijk frame (dat toch weeral na pakweg 10-20ms weg is) kan grotere fouten tonen.
Eens de scene stabiliseert (geen beweging) kan DLSS meer informatie/detail re-construeren, waardoor het nog dichter bij het verwachtte detailniveau komt. Als je dan tóch gaat pixelpeepen op een stilstaande scene, is het daadwerkelijk ook beter dan in beweging.

Daarnaast, als je tegen dat soort dingen bent, waarom dan ook niet tegen VRS? Dat zorgt óók voor lager gedetailleerde delen van het beeld, waardoor de performance er op vooruit gaat. Ook hier is het idee dat er minder detail gerenderd wordt, maar je het niet ziet.

Is DLSS in elke game/situatie evengoed? Nee. Kan het beter? Misschien.
Zou ik graag een vendor-agnostisch alternatief zien? Ja hoor.
Maar op zich is DLSS niet fout.

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

sunsmountain schreef op maandag 12 oktober 2020 @ 17:35:
[...]
Ik zie nog niet veel 4k resoluties in de HMD's, maar ik kan me vergissen:
https://xinreality.com/wiki/Resolution
Handig overzicht idd. Alleen de Pimax 8K komt in de buurt van wat VR zou moeten zijn. Maar het is een kip-en-ei-verhaal. Zonder de hardware om het aan te sturen is een bril met hoge resolutie niet zo interessant. Maar zoals ik net ook al zei komt de hardware nu in de buurt van wat het moet zijn om VR nu écht haalbaar te maken. 6k per oog op 90 beelden per seconde, dat is het doel dat men moet kunnen halen. overigens hangt het sterk van de situatie af of DLSS iets toe gaat voegen. In een combat flightsim kan pixel héél belangrijk zijn, namelijk je tegenstander op de max rendering afstand. Als DLSS die eruit filtert of niet tekent omdat ie onder de drempelwaarde van de lagere resolutie valt is dat nogal vervelend.

[ Voor 19% gewijzigd door ocf81 op 12-10-2020 18:10 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Probleem is dat het een nogal verouderd lijstje is. Momenteel als je een nieuwe VR headset wil kopen, gaat het waarschijnlijk tussen:
HP Reverb G2: 2160x2160x2 (oftewel boven 4k resolutie)
Quest 2: 1832x1920x2 (oftewel iets onder 4k resolutie)
Index: 1440x1600x2 (oftewel ruim onder 4k resolutie)

Dus dat er niet veel bij zulke lijstjes staat is omdat ook alle oude headsets erop staan. En daar komt nog bij dus dat voor meeste VR headsets supersampling wordt gebruikt. Onder andere omdat je niet 1 op 1 voor het scherm kan renderen, je rendert wat de gebruiker moet zien, en daarna wordt het beeld aangepast om de lens vervorming te compenseren, waardoor sommige delen hogere resolutie krijgen, en andere lagere resolutie. En dat gaat naar het display toe.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Afbeeldingslocatie: https://tweakers.net/i/h0EoTfy1gmKaLywU65EOYlmLoPM=/800x/filters:strip_exif()/f/image/5wtL5NnBW9b3FeC4uIM9LGUg.png?f=fotoalbum_large

Zien jullie trouwens ook deze rare 5500XT 5600XT advertenties? Zonder plaatjes of prijzen?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dat zijn geen advertenties maar links naar de producten in de pricewatch.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 09:43

Mars Warrior

Earth, the final frontier

Ik zie nu op de frontpage, nieuws: DiRT 5 is op Xbox Series X en HDMI 2.0-televisie speelbaar met 120fps..., dat de xbox dynamische 4k resoluties ondersteund.

Is dat een soort upscaling dan? xbox gebruikt dit dus om hogere fps te krijgen...

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Sowieso is dat iets wat ik in PC games zou willen terugzien, dynamische resolutie om framerate targets te halen. Het gebeurd, maar het is wel de uitzondering zover mij bekend. Als dat gewoon standaard aan een Unreal engine enzo wordt toegevoegd.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
XWB schreef op maandag 12 oktober 2020 @ 18:30:
Dat zijn geen advertenties maar links naar de producten in de pricewatch.
Ehm ja, maar ze "doen het niet".
pricewatch: AMD Radeon RX 5500XT (4GB)
versus:
https://tweakers.net/vide...RZYo6SVbSSobmRmYFSbG1tLQA

Als je klikt op "Alle 5 producten" krijg je bij de RX 5700XT en RX 5700 wèl plaatjes te zien, maar bij de
AMD Radeon RX 5500XT (4GB)
AMD Radeon RX 5500XT (8GB)
AMD Radeon RX 5600 XT
niet. Working as intended?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Mars Warrior schreef op maandag 12 oktober 2020 @ 18:33:
Ik zie nu op de frontpage, nieuws: DiRT 5 is op Xbox Series X en HDMI 2.0-televisie speelbaar met 120fps..., dat de xbox dynamische 4k resoluties ondersteund.

Is dat een soort upscaling dan? xbox gebruikt dit dus om hogere fps te krijgen...
Nee, dat is dynamic resolution scaling. Dat wordt al jaren gebruikt voor veel console games om de resolutie dynamisch naar beneden te schalen om een framerate target te halen.

En dit bedoel ik dus met dat mensen te veel denken in "Nvidia". Het is niet alsof alleen Nvidia alleen iets kan bedenken en dat het moet zijn. Er zijn meestal alternatieven genoeg voor wat Nvidia nu weer bedacht heeft.

DLSS is upscaling met een shapening filter. Variable rate shading verlaagt de kwaliteit van achtergrond objecten en dan heb je al langer DRS. Het zijn allemaal manier om hetzelfde te bereiken, namelijk de gebruiker laten denken dat ze het volledige beeld in native kwaliteit krijgen, maar verhullen dat er wat zaken op lagere kwaliteit gerenderd worden. De truc is dit niet op te laten vallen. Dynamic laat de resolutie zakken voor het hele scherm en de truc daar is dit tot het minimum te beperken zodat het niet storend word. Variable rendered niet alle pixels native en de truc is om dit alleen toe te passen als mensen niet naar het object kijken dat uit minder gerenderde pixels bestaat en DLSS is al besproken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op maandag 12 oktober 2020 @ 17:35:
Ik zie nog niet veel 4k resoluties in de HMD's, maar ik kan me vergissen:
https://xinreality.com/wiki/Resolution
Verouderd lijstje zoals @Sissors al zegt. Daarnaast is het voor VR net even iets anders.

Als je de Index neemt (1440x1600 per oog), dan is het per oog zo'n 30% meer dan 1080p. Maar vervolgens moet elk frame twee keer gerenderd worden (één keer voor elk oog). Het is niet zo dat het twee keer zo veel rekenkracht kost, maar het komt er wel bij in de buurt - en er worden in totaal meer pixels gerenderd dan voor 1440p. In VR doet framerate er ook nog veel meer toe; zowel het aantal als de stabiliteit. Voor vele mensen is 72 Hz (Quest 1) al te weinig om motion sickness te voorkomen. Een framedrop is in VR echt heel storend, veel meer dan op een monitor.

Een G2 zal qua totaal aantal pixels inderdaad bijna een miljoen boven 2160p uit komen ;)
offtopic:
Contrast is fijn, maar ook niet alles. Speel je in een donkere ruimte? Dan kan OLED beter zijn. Die 2e monitor ga je missen voor productiviteit: ik ben zelf van plan m'n 1080p kantelen om bijna 2160 (1920) beeldlijnen te krijgen naast m'n nieuwe 4k beeldscherm. 60Hz, wel zonde van de high refresh, maar ja, met RPG's heb je geen twitch level reacties nodig.
offtopic:
Nee, gewoon warm wit licht :)

Zoals ik al zei, ik kijk de kat nog uit de boom. Ik volg monitors al jaren heel nauw op de voet en het begint nu de goede kant op te gaan. OLED gaat het niet worden, ik ga geen 48" bakbeest voor m'n neus zetten. Daar kan ik niet op werken :D
Arrigi schreef op maandag 12 oktober 2020 @ 18:03:
Daarnaast, als je tegen dat soort dingen bent, waarom dan ook niet tegen VRS?
Verschil is dat VRS volledig in handen van devs is. Dat is geen magisch extern stuk software dat met het uiteindelijke frame gaat zitten rotzooien ;)
Maar op zich is DLSS niet fout.
Heb ik ook nooit gezegd. Het is simpelweg niet de zilveren kogel zoals het vaak wel gebracht wordt.

Acties:
  • 0 Henk 'm!

  • WeirCo
  • Registratie: Januari 2009
  • Laatst online: 16-09 15:47
Werelds schreef op maandag 12 oktober 2020 @ 20:47:
[...]

Verouderd lijstje zoals @Sissors al zegt. Daarnaast is het voor VR net even iets anders.

Als je de Index neemt (1440x1600 per oog), dan is het per oog zo'n 30% meer dan 1080p. Maar vervolgens moet elk frame twee keer gerenderd worden (één keer voor elk oog). Het is niet zo dat het twee keer zo veel rekenkracht kost, maar het komt er wel bij in de buurt - en er worden in totaal meer pixels gerenderd dan voor 1440p. In VR doet framerate er ook nog veel meer toe; zowel het aantal als de stabiliteit. Voor vele mensen is 72 Hz (Quest 1) al te weinig om motion sickness te voorkomen. Een framedrop is in VR echt heel storend, veel meer dan op een monitor.

Een G2 zal qua totaal aantal pixels inderdaad bijna een miljoen boven 2160p uit komen ;)


[...]

offtopic:
Nee, gewoon warm wit licht :)

Zoals ik al zei, ik kijk de kat nog uit de boom. Ik volg monitors al jaren heel nauw op de voet en het begint nu de goede kant op te gaan. OLED gaat het niet worden, ik ga geen 48" bakbeest voor m'n neus zetten. Daar kan ik niet op werken :D



[...]

Verschil is dat VRS volledig in handen van devs is. Dat is geen magisch extern stuk software dat met het uiteindelijke frame gaat zitten rotzooien ;)


[...]

Heb ik ook nooit gezegd. Het is simpelweg niet de zilveren kogel zoals het vaak wel gebracht wordt.
Ik zou zo graag zonder trucs en gekke technieken een game als Assetto Corsa Competizione op m'n Reverb (G2 staat nog in pre-order) draaien op 150%SS op nagenoeg full quality zonder gestotter en getrut.

En ja dat is zo'n beetje de slechts mogelijk geoptimaliseerde VR game die ik kan bedenken. Dan heb je dus op dit moment zelfs aan een 3090 niet genoeg power...

Twitch Kanaal


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sissors schreef op maandag 12 oktober 2020 @ 18:17:
Probleem is dat het een nogal verouderd lijstje is. Momenteel als je een nieuwe VR headset wil kopen, gaat het waarschijnlijk tussen:
HP Reverb G2: 2160x2160x2 (oftewel boven 4k resolutie)
Quest 2: 1832x1920x2 (oftewel iets onder 4k resolutie)
Index: 1440x1600x2 (oftewel ruim onder 4k resolutie)

Dus dat er niet veel bij zulke lijstjes staat is omdat ook alle oude headsets erop staan. En daar komt nog bij dus dat voor meeste VR headsets supersampling wordt gebruikt. Onder andere omdat je niet 1 op 1 voor het scherm kan renderen, je rendert wat de gebruiker moet zien, en daarna wordt het beeld aangepast om de lens vervorming te compenseren, waardoor sommige delen hogere resolutie krijgen, en andere lagere resolutie. En dat gaat naar het display toe.
Geen idee over VR, ik noemde het alleen omdat @Werelds het erbij haalde dat je SuperSampling en 1080p wilt. Als argument tegen DLSS, wat het grof gezegd het omgekeerde doet. Dan zeg ik: VR en monitors zijn niet echt vergelijkbaar, net zoals DLSS naar omhoog en SuperSampling naar beneden gewoon niet echt vergelijkbaar zijn.

Kijkende naar recente VR resoluties, is het nog steeds de helft van 4k pixels voor een monitor. Maar ok, het is voor 2 ogen, dus pixel power vergelijkbaar. Interessant, maar eigenlijk offtopic, dus terug naar AMD Radeon Info & Nieuws:

https://videocardz.com/ne...ries-support-av1-decoding
Het is niet veel, daarom praten we over VR :P

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
sunsmountain schreef op maandag 12 oktober 2020 @ 21:13:
[...]

Geen idee over VR, ik noemde het alleen omdat @Werelds het erbij haalde dat je SuperSampling en 1080p wilt. Als argument tegen DLSS, wat het grof gezegd het omgekeerde doet. Dan zeg ik: VR en monitors zijn niet echt vergelijkbaar, net zoals DLSS naar omhoog en SuperSampling naar beneden gewoon niet echt vergelijkbaar zijn.

Kijkende naar recente VR resoluties, is het nog steeds de helft van 4k pixels voor een monitor.
Huh? 4k monitor = 3840 × 2160. Een G2 zit daar dus boven, Quest iets onder en Index ruim onder, maar nog steeds geen factor 2 (granted Index komt in de buurt). Tenzij je maar één oog gebruikt in je VR headset :P

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
https://external-preview....acff22efd5ef5f2decee285a1


als je die screen mag geloven kan je simpelweg niet ontkennen dat dlss een geweldige techniek is mits goed geïmplementeerd.

8k geupscaled van 1440p ziet er enorm veel beter uit dan 4k native. Je kan proberen dat scheef te praten tot je een ons weegt maar als dat te reproduceren is door reviewers dan kan je er gewoon niet omheen. En dan met nog meer fps ook als de native 4k.
Zelfs als er al wat dingen zijn die niet lekker upscalen is de winst elders ZO ENORM GROOT dat dat irrelevant word. Het is niet perfect en dat zal het misschien nooit worden maar om het nou niet boeiend te noemen.

Het is gewoon een techniek meet heel veel potentie mits geïmplementeerd en dat is het enige mogelijke struikelblok bij nvidia only producten. adoptie kan problematisch zijn. Maar het product zoals het werkt is geweldig en eigenlijk zelfs revolutionair. Helaas nvidia only en dus niet beschikbaar voor amd waardor adoptie veel beter word.

Sure er is een kans dat het over 4 jaar nog steeds niet in de meeste games geïmplementeerd is en je dus voor een feature betaald heb die maar in een deel of bijna geen van de games werkt.
Maar er is ook een kans dat je een amd koopt en straks alle games dlss ondersteunen en je 45 fps haalt waar iemand met een nvidia kaart met dlss lachend 80 fps haalt.

Tot een bepaald prijspunt is het dus wel wat waard. op een kaart van 700+ euro is 50 euro meer voor een feature als DLSS niet zo veel. en als streamer is nvenc voor een paar tientjes meer ook niet zo veel en reflexf voor een competative gamer ook niet.

Dat er een paar mensen zijn die 60 fps met medium settings prima vinden is helmaal ok maar voor velen anderen is een deel van het feature pakket wel interessant.
Als ik nu een kaart zou kopen om volgend jaar weer een andere te kopen tja dan denk ik niet dat ik me er druk om zou maken maar ik kan niet elk jaar even 700 euro blijven aftikken. Zat boompjes in mijn tuin maar geen enkele kan ik geld van plukken.

100 mensen 200 wensen.

Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 10:28
computerjunky schreef op maandag 12 oktober 2020 @ 23:12:
https://external-preview....acff22efd5ef5f2decee285a1


als je die screen mag geloven kan je simpelweg niet ontkennen dat dlss een geweldige techniek is mits goed geïmplementeerd.

8k geupscaled van 1440p ziet er enorm veel beter uit dan 4k native.
Het truukje is dat je nu 4K native met 8K upscaled vergelijkt. Hoe ziet 8K native eruit? Hoe ziet 4K upscaled eruit?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
NitroX infinity schreef op maandag 12 oktober 2020 @ 23:23:
[...]

Het truukje is dat je nu 4K native met 8K upscaled vergelijkt. Hoe ziet 8K native eruit? Hoe ziet 4K upscaled eruit?
Hoe native 8k er uit ziet is totaal niet relevant als je kaart native niet in staat is meer als 4k weer te geven zonder dat het een slide show word.
Het hele punt is dat je prestatie wint en ook nog eens het beeld beter word.

Hoe 4k er uit zou zien geupscaled (vs native 4k) zou ik ook wel willen zien maarja ook dat doet er niet echt toe. je ben met dlss immers al in staat beter beeld te realiseren met fps winst en dat was het punt. het is al een win win.
standaard 4k upscalen/downscalen met amd zal namelijk nooit en fps winst en beter beeld geven.

Acties:
  • +2 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 20-09 18:13

Jumpiefox

Hoi ?

computerjunky schreef op maandag 12 oktober 2020 @ 23:29:
[...]


Hoe native 8k er uit ziet is totaal niet relevant als je kaart native niet in staat is meer als 4k weer te geven zonder dat het een slide show word.
Het hele punt is dat je prestatie wint en ook nog eens het beeld beter word.

Hoe 4k er uit zou zien geupscaled (vs native 4k) zou ik ook wel willen zien maarja ook dat doet er niet echt toe. je ben met dlss immers al in staat beter beeld te realiseren met fps winst en dat was het punt. het is al een win win.
standaard 4k upscalen/downscalen met amd zal namelijk nooit en fps winst en beter beeld geven.
Radeon image sharpening vergeten? Dat zag er imo beter uit dan DLSS. hetzelfde truukje..lagere resolutie renderen en dan een speciale sharpening filter overheen gooien. Gooit ook je fps omhoog.
ff snel een linkje opgezocht: https://www.techspot.com/...harpening-vs-nvidia-dlss/

Meeste mensen weten niet eens dat AMD dus een tegenhanger heeft..waar je geen heel neural network voor nodig hebt? En dus eigenlijk sowieso al beter. Maja..das AMD he, shitty PR afdeling. Lukt het elke keer weer om hun eigen product niet op de juiste manier naar voren te brengen.

[ Voor 6% gewijzigd door Jumpiefox op 13-10-2020 00:07 ]

The first casualty in war is always the truth...


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
Jumpiefox schreef op maandag 12 oktober 2020 @ 23:56:
[...]

Radeon image sharpening vergeten? Dat zag er imo beter uit dan DLSS. hetzelfde truukje..lagere resolutie renderen en dan een speciale sharpening filter overheen gooien. Gooit ook je fps omhoog.
ff snel een linkje opgezocht: https://www.techspot.com/...harpening-vs-nvidia-dlss/

Meeste mensen weten niet eens dat AMD dus een tegenhanger heeft..waar je geen heel neural network voor nodig hebt? En dus eigenlijk sowieso al beter. Maja..das AMD he, shitty PR afdeling. Lukt het elke keer weer om hun eigen product niet op de juiste manier naar voren te brengen.
Vind je. Ik vind het er stukken slechter uit zien. Dlss 1 misschien maar 2.0 is vele malen beter. Image sharpening is echt lelijk van wat ik gezien heb.
Die link is dus ook oud en niet meer relevant.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
computerjunky schreef op maandag 12 oktober 2020 @ 23:12:
https://external-preview....acff22efd5ef5f2decee285a1


als je die screen mag geloven kan je simpelweg niet ontkennen dat dlss een geweldige techniek is mits goed geïmplementeerd.

8k geupscaled van 1440p ziet er enorm veel beter uit dan 4k native. Je kan proberen dat scheef te praten tot je een ons weegt maar als dat te reproduceren is door reviewers dan kan je er gewoon niet omheen. En dan met nog meer fps ook als de native 4k.
Zelfs als er al wat dingen zijn die niet lekker upscalen is de winst elders ZO ENORM GROOT dat dat irrelevant word. Het is niet perfect en dat zal het misschien nooit worden maar om het nou niet boeiend te noemen.

Het is gewoon een techniek meet heel veel potentie mits geïmplementeerd en dat is het enige mogelijke struikelblok bij nvidia only producten. adoptie kan problematisch zijn. Maar het product zoals het werkt is geweldig en eigenlijk zelfs revolutionair. Helaas nvidia only en dus niet beschikbaar voor amd waardor adoptie veel beter word.

Sure er is een kans dat het over 4 jaar nog steeds niet in de meeste games geïmplementeerd is en je dus voor een feature betaald heb die maar in een deel of bijna geen van de games werkt.
Maar er is ook een kans dat je een amd koopt en straks alle games dlss ondersteunen en je 45 fps haalt waar iemand met een nvidia kaart met dlss lachend 80 fps haalt.

Tot een bepaald prijspunt is het dus wel wat waard. op een kaart van 700+ euro is 50 euro meer voor een feature als DLSS niet zo veel. en als streamer is nvenc voor een paar tientjes meer ook niet zo veel en reflexf voor een competative gamer ook niet.

Dat er een paar mensen zijn die 60 fps met medium settings prima vinden is helmaal ok maar voor velen anderen is een deel van het feature pakket wel interessant.
Als ik nu een kaart zou kopen om volgend jaar weer een andere te kopen tja dan denk ik niet dat ik me er druk om zou maken maar ik kan niet elk jaar even 700 euro blijven aftikken. Zat boompjes in mijn tuin maar geen enkele kan ik geld van plukken.

100 mensen 200 wensen.
Ah die vergelijking, daar heb ik mijn mening al een keer over gegeven. Als je ze naast elkaar legt dan zie je nog steeds artifacts bij DLSS, het verpest op sommige stukken textures. Dit is ingezoomed op het beste wat je kan verwachten; en mist bijvoorbeeld upscaling met een sharpening filter als optie en ook native 8k.

Het is een leuke extra, maar voor mij hoeft het niet, ik gebruik liever upscaling met sharpening indien het echt niet anders kan; maar in veel gevallen is een aantal settings omlaag gooien een betere optie (HBAO of shadows).

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
Jumpiefox schreef op maandag 12 oktober 2020 @ 23:56:
[...]

Radeon image sharpening vergeten? Dat zag er imo beter uit dan DLSS. hetzelfde truukje..lagere resolutie renderen en dan een speciale sharpening filter overheen gooien. Gooit ook je fps omhoog.
ff snel een linkje opgezocht: https://www.techspot.com/...harpening-vs-nvidia-dlss/

Meeste mensen weten niet eens dat AMD dus een tegenhanger heeft..waar je geen heel neural network voor nodig hebt? En dus eigenlijk sowieso al beter. Maja..das AMD he, shitty PR afdeling. Lukt het elke keer weer om hun eigen product niet op de juiste manier naar voren te brengen.
Vind je. Ik vind het er stukken slechter uit zien. Dlss 1 misschien maar 2.0 is vele malen beter. Image sharpening is echt lelijk van wat ik gezien heb.
Die link is dus ook oud en niet meer relevant.

https://www.techspot.com/article/1992-nvidia-dlss-2020/


Dat is een recentere re review. Maar ook bij versie 1.0 was de 50% performance gain al een dingetje die vergeten werd.

Acties:
  • +1 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 20-09 18:13

Jumpiefox

Hoi ?

computerjunky schreef op dinsdag 13 oktober 2020 @ 00:21:
[...]

Vind je. Ik vind het er stukken slechter uit zien. Dlss 1 misschien maar 2.0 is vele malen beter. Image sharpening is echt lelijk van wat ik gezien heb.
Die link is dus ook oud en niet meer relevant.
Hoezo niet relevant? Het gaat erom dat AMD ook een techniek heeft die DLSS benaderd. Ik heb nog geen comparison video met een conclussie gezien van Radeaon image sharpening vs DLSS 2.0.

Als ik je eigen logica gebruik kan ik zeggen: Meeste reviewers vonden Radean image sharpening beter werken dan DLSS1.0 zowel kwa compatibility (immers geen AI farm nodig) als Render kwaliteit. Dus misschien dat nvidia met DLSS2.0 ze eidenlijk bij kan benen.

[ Voor 3% gewijzigd door Jumpiefox op 13-10-2020 00:37 ]

The first casualty in war is always the truth...


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
Jumpiefox schreef op dinsdag 13 oktober 2020 @ 00:36:
[...]

Hoezo niet relevant? Het gaat erom dat AMD ook een techniek heeft die DLSS benaderd. Ik heb nog geen comparison video met een conclussie gezien van Radeaon image sharpening vs DLSS 2.0.

Als ik je eigen logica gebruik kan ik zeggen: Meeste reviewers vonden Radean image sharpening beter werken dan DLSS1.0 zowel kwa compatibility (immers geen AI farm nodig) als Render kwaliteit. Dus misschien dat nvidia met DLSS2.0 ze eidenlijk bij kan benen.
Omdat dlss 1.0 in geen enkele game meer geimplementeert zal worden en dus is het niet relevant. Je moet dus kijken naar dlss 2.0.

Ik link net van dezelfde site als die jij linkte de recentere versie. Voor de youtube video moet je zoeken naar hardware unboxed. Zelfde test persoon en data.
Het benaderd dus noet dlss en daarnaast levert het ook geen fps op.

[ Voor 3% gewijzigd door computerjunky op 13-10-2020 00:46 ]


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 21-09 19:34
Sp3ci3s8472 schreef op dinsdag 13 oktober 2020 @ 00:27:
[...]


Ah die vergelijking, daar heb ik mijn mening al een keer over gegeven. Als je ze naast elkaar legt dan zie je nog steeds artifacts bij DLSS, het verpest op sommige stukken textures. Dit is ingezoomed op het beste wat je kan verwachten; en mist bijvoorbeeld upscaling met een sharpening filter als optie en ook native 8k.

Het is een leuke extra, maar voor mij hoeft het niet, ik gebruik liever upscaling met sharpening indien het echt niet anders kan; maar in veel gevallen is een aantal settings omlaag gooien een betere optie (HBAO of shadows).
Maar die kan je ook bij ris zien. Misschien een iets ander type maar ze zijn er wel. En het is ook duidelijker te zien als je een lagere resolutie gebruikt.

Nogmaals native 8k is niet relevamt. Niemand kan native 8k draaien. And niet native 8k beter is als native 1440p or 4k heb je dus winst. En ja settings omlaag gooien kan iedereen maar dat kost gegarandeerd kwaliteit. (Tenzij je motion blur en dat soort bagger uit zet dan word het beter) maarja tijd om te pitten.

Acties:
  • +3 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 20-09 18:13

Jumpiefox

Hoi ?

computerjunky schreef op dinsdag 13 oktober 2020 @ 00:39:
[...]


Omdat dlss 1.0 in geen enkele game meer geimplementeert zal worden en dus is het niet relevant. Je moet dus kijken naar dlss 2.0.

Ik link net van dezelfde site als die jij linkte de recentere versie. Voor de youtube video moet je zoeken naar hardware unboxed. Zelfde test persoon en data.
Yeah zag het, maar zie geen vergelijking met Radeon image sharpening..ze hebben wel een screenshot van DLSS 1.0 vs DLSS2.0 dus maar ff de RIS versie erbij geplakt dis ze in hun dlss1.0 comparison hadden.
https://imgur.com/a/46Fbt77
RIS levert dus zeer zeker wel een FPS boost op..in die eerste link kun je dat gewoon zien. In die link van jou zie je geen RIS vs DLSS2.0 comparison. De verschillen vind ik zelf btw best klein, dit zijn screenshots waar je stil staat..in een action game waar je constant beweegt en rond huppelt zal het waarschijnlijk nog kleiner zijn? Maar goed, dat is moeilijk te reviewen want iedereen ervaart dingen anders.

Het gaat er mij om dat je zei dat AMD nooit een performance improvement kan brengen terwijl dat wel zo is. En ook dat AMD dus eigenlijk al voorliep ten tijde van DLSS1.0 terwijl je men daar nooit over hoort praten.

Edit: Filmpje gevonden van een comparison tussen DLSS2.0 en AMD FidelityFX CAS (blijkbaar heet de tech zo hehe): YouTube: AMD FidelityFX CAS VS NVIDIA DLSS 2.0 Death Stranding Maximum Settin... Uiteraard lastig te zien door youtube compressie etc maar volgens de maker van het filmpje grafisch nauwelijks verschil. En ditto fps increases. Een directe fps comparison heeft geen nut want het blijft een 2080ti vs een 5700xt.

Het enige wat amd fout heeft gedaan is dit niet meer marketen..iedereen denkt dat DLSS 1 of andere alien technologie is. Nvidia heeft gewoon een top marketing team.

[ Voor 22% gewijzigd door Jumpiefox op 13-10-2020 02:43 ]

The first casualty in war is always the truth...

Pagina: 1 ... 20 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.