Acties:
  • +1 Henk 'm!

  • jvanderneut
  • Registratie: Augustus 2017
  • Laatst online: 22:09
DaniëlWW2 schreef op zondag 1 november 2020 @ 17:54:
[...]


Ja, maar het werkt dus niet in Windows en daar zal AMD dus een oplossing voor hebben bedacht die heel anders lijkt te werken dan Linux. ;)
Die "oplossing" bestaat denk ik uit 2 delen:

1) Je hebt BIOS/UEFI support nodig om grote blokken geheugen (alle VRAM) direct adresseerbaar te maken voor de CPU. (De default is vaak slechts 256MB.) Met een nieuwe CPU / AGESA heb je een uitgelezen mogelijkheid dat te forceren.

2) Je moet een device driver hebben die alle VRAM direct aanspreekt. Het lijkt nu zo te zijn dat dit codepad wordt gebruikt als je een Zen3 hebt. Als dit codepad ook wordt gebruikt indien de BAR size >= VRAM, kan dit ook met oudere kaarten en cpu's werken, indien BIOS meewerkt.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ocf81 schreef op zondag 1 november 2020 @ 17:57:
Kan iemand mij het verschil tussen HBCC Memory Segment en SAM uitleggen?
HBCC gaf de GPU toegang tot RAM en opslag, SAM lijkt de CPU toegang te geven tot alle VRAM. ;)
jvanderneut schreef op zondag 1 november 2020 @ 18:12:
[...]


Die "oplossing" bestaat denk ik uit 2 delen:

1) Je hebt BIOS/UEFI support nodig om grote blokken geheugen (alle VRAM) direct adresseerbaar te maken voor de CPU. (De default is vaak slechts 256MB.) Met een nieuwe CPU / AGESA heb je een uitgelezen mogelijkheid dat te forceren.

2) Je moet een device driver hebben die alle VRAM direct aanspreekt. Het lijkt nu zo te zijn dat dit codepad wordt gebruikt als je een Zen3 hebt. Als dit codepad ook wordt gebruikt indien de BAR size >= VRAM, kan dit ook met oudere kaarten en cpu's werken, indien BIOS meewerkt.
Dat denk ik dus ook, maar ik denk dat er ook iets in het geheugensysteem van tenminste Navi 21 zit om dit mogelijk te maken. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 22:59
Voor Nvidia is het nu dan jammer dat ze op de desktop geen chipsets meer maken (behalve OEM spul misschien nog?), en dat Intel het ook even moeilijk heeft. Ik denk dat AMD lief aankijken of ze deze mogelijkheden ook voor Nvidia kaarten beschikbaar willen stellen op niets uit gaat lopen...

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
DaniëlWW2 schreef op zondag 1 november 2020 @ 18:21:


Dat denk ik dus ook, maar ik denk dat er ook iets in het geheugensysteem van tenminste Navi 21 zit om dit mogelijk te maken. :)
Dat, of dat de vbios het moet supporten. MS geeft immers aan in hun post dat je een GPU nodig die dit support en dat de driver het moet supporten. Over cpu support rept MS niet.

Of cpu microcode benodigd is, dat vind ik een lastigere. Als dat namelijk zo zou zijn zou het heden ten dage ook niet in linux of Windows werken (of dat stukje microcode moet zo standaard zijn dat alle cpu's het hebben). Dat sluit ook aan bij enkele posts dat Nvidia dit ook al jaren gebruikt met Quadro en tesla kaarten, zelfs voordat Micosoft het via WDDM2.0 ging supporten, met hun TCC drivermode (in Windows).

Als dat inderdaad klopt is dat een aanwijzing dat er niet zozeer beperkingen zijn aan de cpu zijde (anders dan dat het een 64bit cpu moet zijn).

Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
AMD heeft ook nog Smartshift voor in notebooks en de nieuwe consoles maken er ook gebruik van. Een betere link tussen de Zen2 CPU en RDNA2. Uitbereide info kan ik hier zo niet over vinden met oog op shared VRAM e.d.
Smartshift schijnt weer onderdeel te zijn van SAM.

Het principe van een VRAM link voor de CPU lijkt dus niet alleen voorbestemd voor de Zen3 CPU. Maar daarvoor moeten we de exacte verschillen weten tussen Smartshift en SAM.

https://www.notebookcheck...t-to-use-it.457475.0.html

https://www.aroged.com/20...gn-of-the-radeon-rx-6000/

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Als de consoles SAM hebben dan is dat inderdaad ook weer een aanwijzing, aangezien de consoles voor zover ik weet gebaseerd zijn op Zen 2, al zegt ook dat niet 100% alles aangezien daar ook custom zaken in zullen zitten.

[ Voor 23% gewijzigd door Dennism op 01-11-2020 19:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

M-spec schreef op zondag 1 november 2020 @ 16:35:
[...]


Ik spreek niet zozeer voor mijzelf en maak waarschijnlijk niet eens de overstap naar een 5000 CPU omdat de GPU de bottleneck blijft. Plus, met een nieuw moederbord is het ook nog maar de vraag of Zen3 meteen de laatst mogelijke upgrade is.

Als we dit allemaal maar gaan goedkeuren (en idd blijven kopen, eigen keus) zijn we straks terug bij af. AMD gaf support voor meerdere generatie CPU's om zich juist te onderscheiden van de concurrentie, dat was top en ik klaag niet over mijn Zen2. Maar het onderscheid lijkt op deze manier met hoog tempo weer kleiner te worden.

Niemand wil een dief zijn van zijn eigen portemonnee, als het niet nodig zou zijn, of wel? Dan slaan we wel weer een generatie over, heel simpel. Ik kijk om me heen voor een nieuwe GPU en bepaalde merken hebben bij mij ook wel een gunfactor, tot op zekere hoogte.
Bij elk bedrijf gaan producten naar het einde van hun life cycle op een enig moment, dan is er alleen nog basic support maar geen functionele updates meer. Wat mij betreft kan zo'n update daardoor prima alleen voor de recentste serie worden uitgerold.
Je mag ook niet van AMD verwachten dat ze eindeloos X370, X470, X570, etc. eindeloos blijven ondersteunen. Zen2 zou ik ook van wel van verwachten dat het werkt, als de hardware het toelaat.

[ Voor 3% gewijzigd door Verwijderd op 01-11-2020 19:37 ]


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Verwijderd schreef op zondag 1 november 2020 @ 19:30:
[...]

Bij elk bedrijf gaan producten naar het einde van hun life cycle op een enig moment, dan is er alleen nog basic support maar geen functionele updates meer. Wat mij betreft kan zo'n update daardoor prima alleen voor de recentste serie worden uitgerold.
Je mag ook niet van AMD verwachten dat ze eindeloos X370, X470, X570, etc. eindeloos blijven ondersteunen. Zen2 zou ik ook van wel van verwachten dat het werkt, als de hardware het toelaat.
Eindeloos support verwacht ik ook zeker niet en gaat mij meer om de manier van marketing. Er is altijd een moment dat een upgrade van een moederbord noodzakelijk is. De tijd van een on-die memory controller bijvoorbeeld of weer DDR5 met eigen spanningsregeling, 'dual' channel per dimm en noem maar op. Zolang het hardwarmatig is en echt meer prestaties per Euro kan bieden. Als iedereen maar bij de les blijft wat echt een upgrade is, of dat er softwarematig bewust onderscheid gemaakt wordt door de fabrikant. Ik hoop dat SAM bijvoorbeeld wel ineens een voordeel laat zien voor PCIe4, alleen om vooruitgang. Maar misschien is het daar nog te vroeg voor.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
Persoonlijk denk ik vooral dat het te vroeg is om te roepen dat het stom is dat SAM voor altijd exclusief zal zijn bij een combinatie van een Zen2 CPU icm een 5xx moederbord en een RDNA2 GPU (of nieuwer). Tot nu toe heeft AMD dat in ieder geval niet beweerd.

Ik vind het ontzettend logisch dat ze nu de launch van hun nieuwe CPU en GPU lijn nog in volle gang is vooral SAM neerzetten als een 'next-gen' feature en daarmee hun nieuwe producten in de schijnwerpers willen zetten. Ontzettend mooi marketingpraatje: "collect 'm all!" ;)

Het zou me niet verbazen als straks, als de launch voorbij is en de eerste voorraden zijn (uit)verkocht, alsnog duidelijk wordt dat SAM ook werkt met een Zen2 CPU en misschien zelfs wel 4xx moederborden, maar dat ze daar nu gewoon nog even niet de focus op willen hebben. Tegelijkertijd zullen ze nu ze in een vrij kwetsbare positie zitten (alle kaarten op tafel gelegd, afwachten wat de competitie doet en hoe de consument reageert) niet de potentiële koper tegen zich in het harnas willen jagen door geforceerd backwards compatibility voor zo'n mooie feature onmogelijk te maken.

De nieuwe productlijnen zijn nog niet eens verkrijgbaar, laten we het eerst vooral even afwachten.

Acties:
  • 0 Henk 'm!

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

pixeled schreef op zondag 1 november 2020 @ 20:12:
Persoonlijk denk ik vooral dat het te vroeg is om te roepen dat het stom is dat SAM voor altijd exclusief zal zijn bij een combinatie van een Zen2 CPU icm een 5xx moederbord en een RDNA2 GPU (of nieuwer). Tot nu toe heeft AMD dat in ieder geval niet beweerd.

Ik vind het ontzettend logisch dat ze nu de launch van hun nieuwe CPU en GPU lijn nog in volle gang is vooral SAM neerzetten als een 'next-gen' feature en daarmee hun nieuwe producten in de schijnwerpers willen zetten. Ontzettend mooi marketingpraatje: "collect 'm all!" ;)

Het zou me niet verbazen als straks, als de launch voorbij is en de eerste voorraden zijn (uit)verkocht, alsnog duidelijk wordt dat SAM ook werkt met een Zen2 CPU en misschien zelfs wel 4xx moederborden, maar dat ze daar nu gewoon nog even niet de focus op willen hebben. Tegelijkertijd zullen ze nu ze in een vrij kwetsbare positie zitten (alle kaarten op tafel gelegd, afwachten wat de competitie doet en hoe de consument reageert) niet de potentiële koper tegen zich in het harnas willen jagen door geforceerd backwards compatibility voor zo'n mooie feature onmogelijk te maken.

De nieuwe productlijnen zijn nog niet eens verkrijgbaar, laten we het eerst vooral even afwachten.
Ik hoop dat je gelijk hebt.

Anyway, waar zit sam in het bios verstopt? Ik heb gisteren f31e voor gigabyte er op gezet, volgens mij het bios voor de 5000-serie. Als de optie via het bios is te activeren, zou die op mn huidige cpu iets van ‘not applicable’ moeten geven toch?

iR Profiel


Acties:
  • 0 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

onsgeluk schreef op zondag 1 november 2020 @ 20:33:
[...]


Ik hoop dat je gelijk hebt.

Anyway, waar zit sam in het bios verstopt? Ik heb gisteren f31e voor gigabyte er op gezet, volgens mij het bios voor de 5000-serie. Als de optie via het bios is te activeren, zou die op mn huidige cpu iets van ‘not applicable’ moeten geven toch?
Als het in het BIOS verstopt zit *en* het daar aan en uit te zetten zou zijn, wil dat nog niet zeggen dat je de optie überhaupt te zien zou moeten krijgen op incompatible hardware.

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
onsgeluk schreef op zondag 1 november 2020 @ 20:33:
[...]


Ik hoop dat je gelijk hebt.

Anyway, waar zit sam in het bios verstopt? Ik heb gisteren f31e voor gigabyte er op gezet, volgens mij het bios voor de 5000-serie. Als de optie via het bios is te activeren, zou die op mn huidige cpu iets van ‘not applicable’ moeten geven toch?
MMIO support is een de benodige settings. Of er meer zijn weet ik niet.

Acties:
  • 0 Henk 'm!

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Even zitten bladeren in het bios, niets kunnen vinden. Ik zie nu ook dat Ryzen 5000 support er al bij de vorige bios in zat

F30: Update AMD AGESA ComboV2 1.0.8.1 for AMD Ryzen 5000 processors support
F31e: Update AMD AGESA ComboV2 1.1.0.0 C for performance optimized on Ryzen 5000 series processors
DataGhost schreef op zondag 1 november 2020 @ 20:37:
[...]Als het in het BIOS verstopt zit *en* het daar aan en uit te zetten zou zijn, wil dat nog niet zeggen dat je de optie überhaupt te zien zou moeten krijgen op incompatible hardware.
Daar heb je een punt, ik denk niet dat het in het bios komt. Het bios is niet veel meer dan een schil om agesa heen toch? Je zou het dan eerder in ryzen master of zelfs de radeon drivers kunnen verwachten.

iR Profiel


Acties:
  • +2 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
https://patchwork.kernel....h/5662C61F.50303@amd.com/
https://patchwork.kernel....umit.saxena@broadcom.com/

Hier een correspondentie over het BAR resize in Linux, men probeert het werkend te krijgen, het is iets te
technische voor mij.

https://groups.google.com/g/linux.kernel/c/y4ZcRz4hPYs?pli=1
https://groups.google.com/g/linux.kernel/c/Ul_HIldKV84
https://www.mjmwired.net/...ntation/PCI/acpi-info.rst

Nog meer correspondenties, men probeert CPU volledige toegang aan Vram te geven. Het is klaarblijkelijk mogelijke sinds Evergeen uarch.

Dus na lezen van de correspondenties kan ik geen enkele reden verzinnen waarom SAM niet voor oudere hardware kan werken. Zelfs Intel CPU kunnen het als het maar in bios wordt ondersteunt.

[ Voor 67% gewijzigd door Amazigh_N_Ariff op 01-11-2020 22:18 ]


Acties:
  • +1 Henk 'm!

  • spone
  • Registratie: Mei 2002
  • Niet online
Amazigh_N_Ariff schreef op zondag 1 november 2020 @ 21:18:
Dus na lezen van de correspondenties kan ik geen enkele reden verzinnen waarom SAM niet voor oudere hardware kan werken. Zelfs Intel CPU kunnen het als het maar in bios wordt ondersteunt.
Ik wel: productsegmentatie. Het kunstmatig alleen beschikbaar maken op 500/5000 chipsets/cpu’s creeert incentive om die producten te kopen.

Maar een technische reden lijkt er niet direct te zijn nee.

[ Voor 20% gewijzigd door spone op 01-11-2020 23:45 ]

i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Amazigh_N_Ariff schreef op zondag 1 november 2020 @ 17:35:
Hier bij de nieuweste implementatie van Raytracing In Watchdogs Legion. Ik ben nog steeds niet overtuigd.
De video legt goed uit hoe raytracing wordt gebruikt.
YouTube: Watch Dogs Legion PC Review: Ray Tracing + GFX Upgrades - A Taste of...
Grappig om te zien dat een i5 8400 nu al een bottleneck begint te worden bij nieuwere games. Dus 6 cores zonder HT begint aan zijn einde te komen.

Acties:
  • 0 Henk 'm!

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

spone schreef op zondag 1 november 2020 @ 23:39:
[...]

Ik wel: productsegmentatie. Het kunstmatig alleen beschikbaar maken op 500/5000 chipsets/cpu’s creeert incentive om die producten te kopen.

Maar een technische reden lijkt er niet direct te zijn nee.
Was het niet zo dat, gekeken naar IPC, de 5000 serie zo'n 19% sneller is dan de 3000 serie? Als dat zonder SAM (of andere kunstgrepen) is, lijkt me dat voldoende incentive om daar waar nodig/gewenst een upgrade door te voeren vanaf de 3000 serie.

Ik zou liever zien dat ze de 3000 serie nog competitiever laten zijn met het Intel aanbod. Aangezien deze min of meer EOL zijn zodra alle 5000-cpu's uit zijn, zullen de prijzen hiervan gestaag zakken. Als ze dan voor die lagere prijs nog concurrerender zijn tov Intel door SAM mogelijk te maken...Ik weet weinig van economie, maar dat zou wel mijn keuze zijn om een concurrent pijn te doen.

iR Profiel


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Sp3ci3s8472 schreef op maandag 2 november 2020 @ 00:16:
[...]


Grappig om te zien dat een i5 8400 nu al een bottleneck begint te worden bij nieuwere games. Dus 6 cores zonder HT begint aan zijn einde te komen.
Ben er even snel doorheen gebladerd, maar bedoel je dat stukje waar ze testen met een RTX 3090 en een 8400 en 10900K op 720P? Tja, op zo'n resolutie mag je inderdaad verschillen verwachten, maar heel realistisch is het niet op op 720P te testen met een 3090. Daar zou je eerder 4K verwachten, en dan verwacht ik toch echt een stuk kleinere tot geen verschillen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Dennism schreef op maandag 2 november 2020 @ 00:23:
[...]


Ben er even snel doorheen gebladerd, maar bedoel je dat stukje waar ze testen met een RTX 3090 en een 8400 en 10900K op 720P? Tja, op zo'n resolutie mag je inderdaad verschillen verwachten, maar heel realistisch is het niet op op 720P te testen met een 3090. Daar zou je eerder 4K verwachten, en dan verwacht ik toch echt een stuk kleinere tot geen verschillen.
Ja, alleen Intel was vroeger goed in hoge framerates op lage resoluties dus ik verwachte niet zo'n groot verschil. Indien je op 4k zou draaien dan dipt de i5 8400k nog steeds onder de 60.
Ik denk dat de RT gewoon veel extra draw calls vraagt en de 10900k en 3900x hun benen kunnen strekken gezien die genoeg cores hebben. Je kan je afvragen of een i5 bij een 3090 een realistisch scenario is, maar dat heeft reviewers nooit tegengehouden om die scenarios te plaatsen (en fanboys om die als voorbeeld te gebruiken).

[ Voor 2% gewijzigd door Sp3ci3s8472 op 02-11-2020 01:40 . Reden: zin loopt beter ]


Acties:
  • 0 Henk 'm!

  • jody2k
  • Registratie: November 2013
  • Laatst online: 20-09 13:20
edit: nvm

[ Voor 96% gewijzigd door jody2k op 02-11-2020 08:01 ]


Acties:
  • 0 Henk 'm!

  • DJvL
  • Registratie: Mei 2003
  • Laatst online: 20-09 11:01
Amd's raytracing blijkt best goed: https://videocardz.com/ne...dxr-performance-leaks-out

Is maar 1 niet officiële benchmark, dus neem het met een korreltje zout.

Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech


Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 19:06
Amazigh_N_Ariff schreef op zondag 1 november 2020 @ 21:18:
https://patchwork.kernel....h/5662C61F.50303@amd.com/
https://patchwork.kernel....umit.saxena@broadcom.com/

Hier een correspondentie over het BAR resize in Linux, men probeert het werkend te krijgen, het is iets te
technische voor mij.

https://groups.google.com/g/linux.kernel/c/y4ZcRz4hPYs?pli=1
https://groups.google.com/g/linux.kernel/c/Ul_HIldKV84
https://www.mjmwired.net/...ntation/PCI/acpi-info.rst

Nog meer correspondenties, men probeert CPU volledige toegang aan Vram te geven. Het is klaarblijkelijk mogelijke sinds Evergeen uarch.

Dus na lezen van de correspondenties kan ik geen enkele reden verzinnen waarom SAM niet voor oudere hardware kan werken. Zelfs Intel CPU kunnen het als het maar in bios wordt ondersteunt.
Misschien een ietwat domme vraag maar zou sam technisch gezien ook kunnen werken met bijvoorbeeld een 5900x op een x570 mobo met een 3080(ti) of 3090?

Wie goed doet, die goed ontmoet.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Sp3ci3s8472 schreef op maandag 2 november 2020 @ 00:38:
[...]


maar dat heeft reviewers nooit tegengehouden om die scenarios te plaatsen (en fanboys om die als voorbeeld te gebruiken).
En AMD fanboys bleven vooral aanhalen dat dit soort testen niet relevant zijn met Zen 1 en Zen+, dus waarom hebben we het hier nu over :+. Misschien geldt dit wel voor alle vorige generatie 6 cores, dus ook met HT.

[ Voor 13% gewijzigd door Paprika op 02-11-2020 10:31 ]


Acties:
  • +1 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 02:35

ZenTex

Doet maar wat.

Paprika schreef op maandag 2 november 2020 @ 10:22:
[...]

En AMD fanboys bleven vooral aanhalen dat dit soort testen niet relevant zijn met Zen 1 en Zen+, dus waarom hebben we het hier nu over :+. Misschien geldt dit wel voor alle vorige generatie 6 cores, dus ook met HT.
En ze hebben allebei gelijk.
Ja, de ruwe performance van een CPU test je lekker op 720p met de dikste GPU op de markt om een GPU bottleneck te vermijden, maar een realistisch scenario's is het niet, en op hogere resoluties op een mindere GPU heb je er ook geen bal aan.

Fanboys heb je aan beide kanten, dus de idioten die claimen dat je op AMD niet fatsoenlijke kunt gamen en evengoed idioten dat een processor hel maal niets uitmaakt omdat hun kamp het aflegt.
En als de rollen dan omdraaien en AMD de beste gaming performance bied zie je precies dezelfde argument n, maar dan in het andere kamp.

Gewoon negeren dus, gelukkig laaien de emoties op Tweakers wat minder op dan op bijv. Reddit

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Paprika schreef op maandag 2 november 2020 @ 10:22:
[...]

En AMD fanboys bleven vooral aanhalen dat dit soort testen niet relevant zijn met Zen 1 en Zen+, dus waarom hebben we het hier nu over :+. Misschien geldt dit wel voor alle vorige generatie 6 cores, dus ook met HT.
De Intel fanboys hebben nu eenmaal alleen 720p monitoren, dus zijn de resultaten heel relevant :+.
Ik leg zelf de grens bij 1080p lager dan dat is gewoon niet realistisch.

Ik ben inderdaad benieuwd of dit ook voor HT/SMT modellen geldt; met name de oudere Zen en Zen+.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Sp3ci3s8472 schreef op maandag 2 november 2020 @ 11:32:
[...]


De Intel fanboys hebben nu eenmaal alleen 720p monitoren, dus zijn de resultaten heel relevant :+.
Ik leg zelf de grens bij 1080p lager dan dat is gewoon niet realistisch.

Ik ben inderdaad benieuwd of dit ook voor HT/SMT modellen geldt; met name de oudere Zen en Zen+.
Zelfs 1080P wordt al minder en minder relevant, het enige waar ik nog veel / regelmatig zie bij in nieuwe situaties is (zakelijke) laptops, zakelijke werkplekken en bij die paar gamers die op 240Hz of 360Hz gamen. Voor mainstream gaming zie ik 1080P al snel minder en minder relevant worden onder de gamers, de laatste 2ish jaar zie ik daar echt een grote omslag.

Wel is er natuurlijk nog een grote installed base.

Maar als ik kijk naar wat de gamers om mij heeft nieuw kopen is dat vrijwel alleemaal 1440P, 4K of Ultrawide.

Neemt niet weg dat je 1080P voorlopig nog wel (beperkt) zou moeten testen, maar 720P is inderdaad zeker niet relevant meer.

Nee, zo interessant vind ik dat eigenlijk helemaal niet, tenzij realistische workloads niet meer gedraaid zouden kunnen worden op een 8400 (of concurrerende AMD cpu's), die cpu is pas een jaartje of 3 oud, dus hoewel je zeker in nieuwere titels een wat mindere performance zou mogen verwachten zou deze cpu met een middensegment kaart gewoon nog zeker minimaal een jaar of 2 speelbare framerates / frametimes moeten behalen, je mag imho toch wel minimaal verwachten dat een cpu een jaartje of 5 mee kan in het segment waar deze gepositioneerd was bij release.

[ Voor 20% gewijzigd door Dennism op 02-11-2020 12:02 ]


Acties:
  • +5 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 19-09 23:04
Sp3ci3s8472 schreef op maandag 2 november 2020 @ 11:32:
[...]


De Intel fanboys hebben nu eenmaal alleen 720p monitoren, dus zijn de resultaten heel relevant :+.
Ik leg zelf de grens bij 1080p lager dan dat is gewoon niet realistisch.

Ik ben inderdaad benieuwd of dit ook voor HT/SMT modellen geldt; met name de oudere Zen en Zen+.
Het heeft zeker wel nut imo. Voor mij is 720p/1080p ook niet relevant, echter laat het wel zien of je cpu een bottleneck is, maar ook wordt. Er zijn namelijk ook nieuwere titels die sneller cpu bound zijn. Als jij jou cpu 5 jaar wilt houden (wat hedendaags geen gekke aanname is), dan kan je beter nu testen op 720p of die goed mee kan komen met de snelste gaming cpu's. Mocht er dan over 3-4 jaar een game uitkomen die ineens relatief veel van je cpu vraagt dan ben jij er ten minste klaar voor zonder dat je weer moet gaan upgraden.

Zelfde geldt voor aantal cores/threads, liever iets teveel dan te weinig. Want nu is 8c/8t misschien nog genoeg, maar we hebben vaker gezien in het verleden dat als je je systeem lang wilt houden dat je beter even overkill kon kopen. Intel 2600K/3770K/4770K anyone?

Dit is de rede dat ik voor een 3700x ipv een 3600 ben gegaan. Uiteindelijk helaas een matige keuze aangezien zen3 nu zo'n gigantische IPC gain heeft, had ik zelf niet verwacht 8)7
Ik ga nu ~2 jaar wachten en koop dan een 'endgame' cpu op het X570 platform. Ik verwacht dat X670 DDR5 krijgt en dat de 5900XT/5950XT de snelste cpu wordt voor dit platform.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Santee schreef op maandag 2 november 2020 @ 12:07:
[...]

Het heeft zeker wel nut imo. Voor mij is 720p/1080p ook niet relevant, echter laat het wel zien of je cpu een bottleneck is, maar ook wordt. Er zijn namelijk ook nieuwere titels die sneller cpu bound zijn. Als jij jou cpu 5 jaar wilt houden (wat hedendaags geen gekke aanname is), dan kan je beter nu testen op 720p of die goed mee kan komen met de snelste gaming cpu's. Mocht er dan over 3-4 jaar een game uitkomen die ineens relatief veel van je cpu vraagt dan ben jij er ten minste klaar voor zonder dat je weer moet gaan upgraden.

Zelfde geldt voor aantal cores/threads, liever iets teveel dan te weinig. Want nu is 8c/8t misschien nog genoeg, maar we hebben vaker gezien in het verleden dat als je je systeem lang wilt houden dat je beter even overkill kon kopen. Intel 2600K/3770K/4770K anyone?

Dit is de rede dat ik voor een 3700x ipv een 3600 ben gegaan. Uiteindelijk helaas een matige keuze aangezien zen3 nu zo'n gigantische IPC gain heeft, had ik zelf niet verwacht 8)7
Ik ga nu ~2 jaar wachten en koop dan een 'endgame' cpu op het X570 platform. Ik verwacht dat X670 DDR5 krijgt en dat de 5900XT/5950XT de snelste cpu wordt voor dit platform.
Het probleeem met 720p is dat je maar een aspect van een cpu bottleneck test. Dingen die interessanter zijn en zeker met RT zijn LOD, draw distance en vergelijkbare opties die een grote impact hebben op cpu performance.
Wat je met 720p vooral test is singlethreaded performance, zeker op oude games. Terwijl dit misschien voor RT veel minder van belang is en je beter af bent met meer cores om dingen parallel te doen. De 720p resultaten zijn dus interessant voor mensen die een 360Hz monitor hebben; voor de rest is het veel interessanter wat de performance op hogere resoluties is met de juiste instellingen.

Waarschijnljk heb je met 720p ook veel eerder andere bottlenecks van je systeem gevonden; wat je niet met een cpu test wil.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:13
Santee schreef op maandag 2 november 2020 @ 12:07:
[...]

Het heeft zeker wel nut imo. Voor mij is 720p/1080p ook niet relevant, echter laat het wel zien of je cpu een bottleneck is, maar ook wordt. Er zijn namelijk ook nieuwere titels die sneller cpu bound zijn. Als jij jou cpu 5 jaar wilt houden (wat hedendaags geen gekke aanname is), dan kan je beter nu testen op 720p of die goed mee kan komen met de snelste gaming cpu's. Mocht er dan over 3-4 jaar een game uitkomen die ineens relatief veel van je cpu vraagt dan ben jij er ten minste klaar voor zonder dat je weer moet gaan upgraden.
De vraag is natuurlijk of dat echter wel zo is. Zie bijvoorbeeld dit stukje van Jim (AdoredTV) qua analyse waarin de techpress dit argument ook geeft, maar waarbij de resultaten volkomen anders zijn dan dat je op basis van de theorie (de cpu die vandaag in 720P het beste presteert zal over 5 jaar minder de bottleneck zijn) zou verwachten.

YouTube: Ryzen - The Tech Press Loses The Plot

Ik vraag me eigenlijk af of er uberhaupt veel data is die aantoont dat deze 720P (of andere lage resoluties) uberhaupt een voorspellende waarde hebben waar je op de lange termijn op kan vertrouwen dat deze de bottlenecks correct voorspelt.

Ook vraag ik me af of 'overkill' kopen in veel gevallen het meest gunstig is, natuurlijk kan je geluk hebben gehad in een gestagneerde markt met de 2600k's, 3770k's en 4770k's van deze wereld, echter aan de andere kant, hoe goed gaan straks de 6700k's en 7700k's van deze wereld nog zijn t.o.v. de ryzen 1000's en 2000's ik dat dit performance per euro gezien over de levensduur van deze cpu's nog wel eens erg kan tegenvallen.

[ Voor 15% gewijzigd door Dennism op 02-11-2020 13:39 ]


Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 19-09 23:04
Sp3ci3s8472 schreef op maandag 2 november 2020 @ 12:14:
[...]


Het probleeem met 720p is dat je maar een aspect van een cpu bottleneck test. Dingen die interessanter zijn en zeker met RT zijn LOD, draw distance en vergelijkbare opties die een grote impact hebben op cpu performance.
Wat je met 720p vooral test is singlethreaded performance, zeker op oude games. Terwijl dit misschien voor RT veel minder van belang is en je beter af bent met meer cores om dingen parallel te doen. De 720p resultaten zijn dus interessant voor mensen die een 360Hz monitor hebben; voor de rest is het veel interessanter wat de performance op hogere resoluties is met de juiste instellingen.

Waarschijnljk heb je met 720p ook veel eerder andere bottlenecks van je systeem gevonden; wat je niet met een cpu test wil.
Hmm goed argument inderdaad, dan gaat mijn comment eigenlijk niet op.

Acties:
  • +5 Henk 'm!

  • roy-t
  • Registratie: Oktober 2004
  • Laatst online: 19-09 10:19
Sp3ci3s8472 schreef op maandag 2 november 2020 @ 12:14:
[...]


Het probleeem met 720p is dat je maar een aspect van een cpu bottleneck test. Dingen die interessanter zijn en zeker met RT zijn LOD, draw distance en vergelijkbare opties die een grote impact hebben op cpu performance.
Wat je met 720p vooral test is singlethreaded performance, zeker op oude games. Terwijl dit misschien voor RT veel minder van belang is en je beter af bent met meer cores om dingen parallel te doen. De 720p resultaten zijn dus interessant voor mensen die een 360Hz monitor hebben; voor de rest is het veel interessanter wat de performance op hogere resoluties is met de juiste instellingen.

Waarschijnljk heb je met 720p ook veel eerder andere bottlenecks van je systeem gevonden; wat je niet met een cpu test wil.
Hier moet ik als hobbyist game developer op reageren :). Op wat voor manier praat je over LOD en draw distance als CPU bottlenecks? In beide gevallen gaat het om meer data te verwerken voor de GPU. Enige dat de CPU hier aan kan bijdragen is deze data uploaden naar de GPU. Maar normaliter worden tijdens een laadscherm (of het instreamen) alle LODs van een 3D model geupload naar de GPU en hoeft de CPU daarna alleen maar te kiezen welke LOD er gerendered worden. Soms gebeurt dit zelfs helemaal op de GPU.

Zelfde voor draw distance. De modellen zijn meestal al geladen maar je geeft een andere far-plane aan in je projectie matrix en je stuurt meer draw commando's. Daarna moet de GPU toch echt het meeste werk doen.

Wil je CPU bottlenecks ontdekken dan denk ik zelf toch echt meer aan path-finding, AI, physics (al gaan deze laatste twee vaak ook deels op de GPU). Misschien wil je memory throughput testen door veel data naar de GPU te uploaden (denk aan vliegen met een straaljager in GTA5).

Wat dat betreft vind ik het absoluut correct om ook een test te doen op 720P juist om te zien wat een game over een paar jaar met je CPU kan doen. Op 4K ga je gewoon alleen maar zien hoe goed je GPU is tenzij je een erg trage CPU test.

Na een hele tijd lurken wil ik dan ook meteen wat over DXR kwijt. Daarna zie ik vaak ook mensen de plank misslaan. Wat veel mensen niet beseffen is dat we zelfs op shader (DX11) niveau al veel berekeningen op de GPU doen die eigenlijk direct te vertalen zijn naar instructies die versneld kunnen worden door de DX12U ray tracing instructies (bijvoorbeeld PBR, of ambient occlusion). Het gaat er bij DXR dus niet om om de hele rasterisatie te vervangen. Maar ook om hardware te hebben om te versnellen wat zelfs in je standaard rasterisatie gebaseerde shaders. Maarja dat is natuurlijk niet zo sexy in een demo. Ik neem aan dat nu AMD ook DX12U gaat ondersteunen hier een hoop meer ontwikkeling in gaat zitten.

Wat betreft de nieuwsberichten. Heel mooi om te zien dat AMD echt op top niveau zit met deze GPUs en qua features gelijk trekt met nVidia. Ik was zeer skeptisch maar ben blij verrast!

[ Voor 4% gewijzigd door roy-t op 02-11-2020 14:07 ]

~ Mijn prog blog!


Acties:
  • 0 Henk 'm!

  • DutchWing
  • Registratie: April 2019
  • Niet online

DutchWing

WP Installateur

MneoreJ schreef op zondag 1 november 2020 @ 18:28:
Voor Nvidia is het nu dan jammer dat ze op de desktop geen chipsets meer maken (behalve OEM spul misschien nog?), en dat Intel het ook even moeilijk heeft. Ik denk dat AMD lief aankijken of ze deze mogelijkheden ook voor Nvidia kaarten beschikbaar willen stellen op niets uit gaat lopen...
Zou mooi wezen, dat laat zien dat ze zich niet laten verlagen tot Nvidia met de concurrent boycotte! (Maar of het verstandig is, is een tweede...)

WP: Mitsubishi Ecodan PUHZ-SW75YAA + EHST20D-VM2D / PV: 2150Wp Z/O 132° en 2580Wp N/W 312° Ik wil een warmtepomp.nu


Acties:
  • 0 Henk 'm!

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
roy-t schreef op maandag 2 november 2020 @ 14:05:
[...]


Wat betreft de nieuwsberichten. Heel mooi om te zien dat AMD echt op top niveau zit met deze GPUs en qua features gelijk trekt met nVidia. Ik was zeer skeptisch maar ben blij verrast!
Er staat bij dat DXR DLSS aan staat maar DXR DLSS staat uit bij Tombraider gezien do optie onder de resolutie. Qua raytracing en DLSS features loopt AMD nog wel wat achter. Ik had gehoop dat AMD met de RX 6900 met raytracing op het niveau van de RTX 2080 zou zitten maar AMD komt er niet bij in de buurt.

[ Voor 11% gewijzigd door Tincahunter op 02-11-2020 14:38 ]


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 22:59
DutchWing schreef op maandag 2 november 2020 @ 14:22:
Zou mooi wezen, dat laat zien dat ze zich niet laten verlagen tot Nvidia met de concurrent boycotte! (Maar of het verstandig is, is een tweede...)
AMD zal gewoon kunnen schermen met "technische beperkingen" re: Nvidia kaarten, a la "willen we best doen maar dan moet Nvidia ons inzage geven in hoe hun GPU/driver werkt, anders kunnen we de stabiliteit van het systeem niet garanderen en gebruikers komen bij ons natuurlijk op de eerste plaats". Of dat dan allemaal echt waar is, tja, bewijs het maar eens. :P

Als er meer technische details beschikbaar zijn van hoe dit nu exact werkt en onder welke omstandigheden het niet zou werken is er een beter oordeel mogelijk over AMD hier nu redelijk bezig is of goedkoop hun voorsprong aan het incashen is.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +2 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

roy-t schreef op maandag 2 november 2020 @ 14:05:
[...]


Hier moet ik als hobbyist game developer op reageren :). Op wat voor manier praat je over LOD en draw distance als CPU bottlenecks? In beide gevallen gaat het om meer data te verwerken voor de GPU. Enige dat de CPU hier aan kan bijdragen is deze data uploaden naar de GPU. [..]

Zelfde voor draw distance. De modellen zijn meestal al geladen maar je geeft een andere far-plane aan in je projectie matrix en je stuurt meer draw commando's. Daarna moet de GPU toch echt het meeste werk doen.
Ik mag hopen dat je als hobbyist game developer ook nadenkt over de implicaties van bijv. het maken van een grote open-world game. Ik speel bijvoorbeeld Planetside 2, een wat langer bestaande MMOFPS op continenten van 8x8 km groot, maar die wel een stuk of 10 cores kan gebruiken (de game krijgt nog steeds updates). Naast de logische netwerk-bottlenecks van de posities van *alle* spelers lijkt het me heftig inefficient om die ook buiten de draw distance posities en bewegingen uit te rekenen en überhaupt naar de GPU te sturen, want ze komen toch niet op het scherm. Idem voor de wereld. Maar ditzelfde gaat natuurlijk ook op voor andere games zoals GTAV ofzo. Dan verwacht je dus dat de CPU bij een lagere draw distance met minder objecten bezig is waardoor de load omlaag gaat, en andersom, bij een hogere draw distance ook de CPU-load omhoog gaat.

In-game in Planetside2 is dit zelfs op mijn 3900X + 5700XT op 3440x1440 goed te merken als ik in een gevecht (binnen een radius van 100 meter) zit van 100 tegen 100 of zelfs nog meer spelers die allemaal bewegen incl physics, met overal kogels, tracers, explosies, vuur en rook om me heen. M'n framerate kakt dan gewoon in en in de in-game FPS-counter zie ik [CPU] ernaast verschijnen om aan te geven dat dat de bottleneck is. Met de render distance omlaag hoeft er buiten het gezichtsveld al niks meer naar de GPU gestuurd te worden en gaat de performance op beide vlakken omhoog. Render / draw distance is dus niet puur een GPU-setting.

Acties:
  • 0 Henk 'm!

  • Richo999
  • Registratie: November 2016
  • Laatst online: 19-09 11:55
DutchWing schreef op maandag 2 november 2020 @ 14:22:
[...]

Zou mooi wezen, dat laat zien dat ze zich niet laten verlagen tot Nvidia met de concurrent boycotte! (Maar of het verstandig is, is een tweede...)
nouja verlagen.... Nvidia is qua mindset toch nog altijd de dominante speler en dat is eigenlijk niet anders geweest sinds de X1000 (15 jaar geleden ondertussen), ze hebben blijkbaar toch iets goeds gedaan om de consument te overtuigen dat zij de beste keuze zijn qua graphic cards. Dat is voor een bedrijf wat telt uiteindelijk, wat zal het hun een uitmaken dat er een kleine niche groep mensen hier anders over denkt.

AMD Ryzen 5800X,BeQuiet Darkrock Pro4, Asus B550-E ROG Strix, AMD 6800XT, 32Gb G.Skill TridentZ 3600MHz, Seasonic Focus Plus Gold 850W, Kingston KC3000 1 TB, Samsung Evo 960 500Gb, Samsung Evo 850 1Tb / Samsung 860 Evo 1 Tb, be quiet! Light Base 600 LX


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Ray tracing features missen ze bij AMD niet, misschien een beetje performance / hardware versnelling.

Tegenover DLSS gaan ze "Super Resolution" zetten of iets vergelijkbaars, is software-matig waar ze tijdelijk in een aantal games op achter zullen lopen. (Helaas ook Cyberpunk). De vraag is of de bewegingsartefacten en transparante textures in DLSS storender zijn dan de extra FPS "4k" op een 3070. 3080 3090 gaan Cyberpunk sowieso native 4k met max settings trekken, verwacht ik (60 fps).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DataGhost schreef op maandag 2 november 2020 @ 14:39:
[...]

Ik mag hopen dat je als hobbyist game developer ook nadenkt over de implicaties van bijv. het maken van een grote open-world game. Ik speel bijvoorbeeld Planetside 2, een wat langer bestaande MMOFPS op continenten van 8x8 km groot, maar die wel een stuk of 10 cores kan gebruiken (de game krijgt nog steeds updates). Naast de logische netwerk-bottlenecks van de posities van *alle* spelers lijkt het me heftig inefficient om die ook buiten de draw distance posities en bewegingen uit te rekenen en überhaupt naar de GPU te sturen, want ze komen toch niet op het scherm. Idem voor de wereld. Maar ditzelfde gaat natuurlijk ook op voor andere games zoals GTAV ofzo. Dan verwacht je dus dat de CPU bij een lagere draw distance met minder objecten bezig is waardoor de load omlaag gaat, en andersom, bij een hogere draw distance ook de CPU-load omhoog gaat.

In-game in Planetside2 is dit zelfs op mijn 3900X + 5700XT op 3440x1440 goed te merken als ik in een gevecht (binnen een radius van 100 meter) zit van 100 tegen 100 of zelfs nog meer spelers die allemaal bewegen incl physics, met overal kogels, tracers, explosies, vuur en rook om me heen. M'n framerate kakt dan gewoon in en in de in-game FPS-counter zie ik [CPU] ernaast verschijnen om aan te geven dat dat de bottleneck is. Met de render distance omlaag hoeft er buiten het gezichtsveld al niks meer naar de GPU gestuurd te worden en gaat de performance op beide vlakken omhoog. Render / draw distance is dus niet puur een GPU-setting.
Klopt, maar tegen dat inkakken van de framerates is geen CPU / GPU tegen opgewassen en ligt op netwerk niveau. Multiple cores lijken daarbij (boven een minimum) minder uit te maken dan hogere CPU clock speed en kwaliteit van de netwerk controller / dubbele netwerk controllers.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • roy-t
  • Registratie: Oktober 2004
  • Laatst online: 19-09 10:19
DataGhost schreef op maandag 2 november 2020 @ 14:39:
[...]

Ik mag hopen dat je als hobbyist game developer ook nadenkt over de implicaties van bijv. het maken van een grote open-world game. Ik speel bijvoorbeeld Planetside 2, een wat langer bestaande MMOFPS op continenten van 8x8 km groot, maar die wel een stuk of 10 cores kan gebruiken (de game krijgt nog steeds updates). Naast de logische netwerk-bottlenecks van de posities van *alle* spelers lijkt het me heftig inefficient om die ook buiten de draw distance posities en bewegingen uit te rekenen en überhaupt naar de GPU te sturen, want ze komen toch niet op het scherm. Idem voor de wereld. Maar ditzelfde gaat natuurlijk ook op voor andere games zoals GTAV ofzo. Dan verwacht je dus dat de CPU bij een lagere draw distance met minder objecten bezig is waardoor de load omlaag gaat, en andersom, bij een hogere draw distance ook de CPU-load omhoog gaat.

In-game in Planetside2 is dit zelfs op mijn 3900X + 5700XT op 3440x1440 goed te merken als ik in een gevecht (binnen een radius van 100 meter) zit van 100 tegen 100 of zelfs nog meer spelers die allemaal bewegen incl physics, met overal kogels, tracers, explosies, vuur en rook om me heen. M'n framerate kakt dan gewoon in en in de in-game FPS-counter zie ik [CPU] ernaast verschijnen om aan te geven dat dat de bottleneck is. Met de render distance omlaag hoeft er buiten het gezichtsveld al niks meer naar de GPU gestuurd te worden en gaat de performance op beide vlakken omhoog. Render / draw distance is dus niet puur een GPU-setting.
Mijn punt was dat het bezig zijn met of dingen wel of niet getekend worden, of op welke LOD ze getekend worden maar een hele kleine invloed heeft op de CPU. Omdat het puur gaat om draw calls, er wordt nauwelijks extra data heen en weer gestuurd.

Physics is dan weer iets interessants omdat je deze ook buiten je gezichtsveld moet simuleren. Stel je een brokstuk voor dat rond vliegt door een explosie. Op frame N is deze misschien nog niet zichtbaar, maar op frame N+100 wel, de enige manier dat je dit op frame N+100 weet is door dat de simulatie de physics simulatie de afgelopen 100 frames ook objecten die niet zichtbaar waren uiterekende.

MMOs zijn wat dat betreft een hele interessante use case. Je hebt helemaal gelijk dat jouw CPU niet gaat uitrekenen wat er gebeurt aan de andere kant van de kaart. De server zal die data niet eens naar je toe sturen. Er wordt over het algemeen alleen data gesync in je sphere of influence. Maar alles dat gelijk moet lopen tussen alle clients in dat gebied wordt niet door de client, maar door de server uitgerekend. Wat natuurlijk wel alleen op jouw computer uitgerekend wordt zijn effecten die niet belangrijk genoeg zijn om te synchroniseren. Neem bijvoorbeeld rook effecten uit de loop van een geweer. De particle simulatie zal alleen op jouw PC lopen. Omdat het niet uitmaakt als je tegenstanders dit net wat anders waarnemen. Mochten er dan meer tegenstanders tegelijkertijd in beeld zijn door een grotere draw distance dan zullen deze simulaties meer kracht vereisen. Maar dat staat over het algemeen niet in verhouding tot het extra rekenwerk dat de GPU hiervoor zal moeten doen.

Desalniettemin is er altijd 1 ding als eerste de bottleneck, blijkbaar zit jouw CPU op het randje en kan deze dit kleine beetje extra werk niet aan.

Ik vind het moeilijk in te schatten hoe scherp je precies "Ik mag hopen dat je als hobbyist game developer ook nadenkt over..." bedoelt. Maar volgens mij zijn we het niet oneens. Maar ging mijn nuance over de relatieve grote van het werk.

~ Mijn prog blog!


Acties:
  • +3 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 01:57

Mars Warrior

Earth, the final frontier

Tincahunter schreef op maandag 2 november 2020 @ 14:36:
[...]
Er staat bij dat DXR DLSS aan staat maar DXR DLSS staat uit bij Tombraider gezien do optie onder de resolutie. Qua raytracing en DLSS features loopt AMD nog wel wat achter. Ik had gehoop dat AMD met de RX 6900 met raytracing op het niveau van de RTX 2080 zou zitten maar AMD komt er niet bij in de buurt.
Huh? Als ik deze leak mag geloven, https://videocardz.com/ne...dxr-performance-leaks-out, dan is de standaard 6800 sneller met RT ingeschakeld dan een 3070 en 2080ti in Tomb Raider.

Alleen met DLS aan winnen de nVidia kaarten.

Afbeeldingslocatie: https://cdn.videocardz.com/1/2020/10/AMD-Radeon-RX-6800-Shadow-of-the-Tomb-Raider-QHD.png

[ Voor 7% gewijzigd door Mars Warrior op 02-11-2020 14:59 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

sunsmountain schreef op maandag 2 november 2020 @ 14:45:
[...]

Klopt, maar tegen dat inkakken van de framerates is geen CPU / GPU tegen opgewassen en ligt op netwerk niveau. Multiple cores lijken daarbij (boven een minimum) minder uit te maken dan hogere CPU clock speed en kwaliteit van de netwerk controller / dubbele netwerk controllers.
In een singleplayer offline game met dezelfde workload gaat het even hard inkakken, dat heeft echt niks met het netwerk te maken. Dan zou ik ook geen CPU-limiet in de FPS-counter zien. Er is geen enkele multiplayer-game die ook maar in de buurt komt van het noemenswaardig belasten van een gigabit-interface. De enige reden dat ik dat zei is omdat die game voor de serverload al een afweging maakt wat je uberhaupt naar je computer gestuurd krijgt. Voor een client (game) is dat peanuts, ook al zou je alle data van alle spelers krijgen, maar voor de server (met duizenden connected clients) zie je elke byte besparing meer dan duizendmaal terug.
roy-t schreef op maandag 2 november 2020 @ 14:51:
[...]


Mijn punt was dat het bezig zijn met of dingen wel of niet getekend worden, of op welke LOD ze getekend worden maar een hele kleine invloed heeft op de CPU. Omdat het puur gaat om draw calls, er wordt nauwelijks extra data heen en weer gestuurd.

Physics is dan weer iets interessants omdat je deze ook buiten je gezichtsveld moet simuleren. Stel je een brokstuk voor dat rond vliegt door een explosie. Op frame N is deze misschien nog niet zichtbaar, maar op frame N+100 wel, de enige manier dat je dit op frame N+100 weet is door dat de simulatie de physics simulatie de afgelopen 100 frames ook objecten die niet zichtbaar waren uiterekende.
Ik had het dan ook alleen maar over de draw distance, niet de LOD. In mijn specifieke voorbeeld zijn physics zoals jij het beschrijft niet van belang, aangezien de wereld niet destructible is en er verder niet heel veel spannends gebeurt wat long-lived impact heeft. Physics is alleen van toepassing op players, vehicles en short-lived particles (kogels) en dus eigenlijk alleen maar binnen je draw distance. Alles erbuiten wordt door die game gewoon niet gerenderd, en physics die plaatsvinden buiten beeld boeien vaak ook niet zoveel aangezien de volgende server-update bepaalde objecten weer kan "resetten" naar een positie+houding. Dus al zou je spelers buiten je draw range binnenkrijgen over het netwerk kan je kiezen er geen berekeningen op te doen totdat ze volgens de server binnen je gezichtsveld zijn. Ook hebben een heleboel objecten wel een soort periodieke beweging die je voor elk frame zou moeten berekenen, maar die door de periodieke aard gewoon door een functie te beschrijven zijn waardoor het niet uitmaakt of je die berekening een aantal frames overslaat als het object off-screen is, en dat bespaart wel weer CPU-power als je dat én niet hoeft uit te rekenen én er geen draw calls voor hoeft te sturen.
Desalniettemin is er altijd 1 ding als eerste de bottleneck, blijkbaar zit jouw CPU op het randje en kan deze dit kleine beetje extra werk niet aan.
Voor deze game is het dus voor mij in deze situatie niet interessant om mijn videokaart te upgraden naar een 6900XT ofzo, aangezien het hele zaakje nu al op 3440x1440 en Ultra-settings draait. Ik kan dan alleen nog in framerate omhoog maar die wordt gelimiteerd door mijn CPU. Als ik de draw distance omlaag schroef, gaat de framerate in dat scenario wel iets omhoog omdat een aantal objecten gewoon genegeerd wordt. Dus voor mij heeft het eerder zin te upgraden naar een Ryzen 5xxx, waarschijnlijk wordt dat de 5950 :+ Dan kan ik daarna kijken of de 6900XT in beeld komt :)
MMOs zijn wat dat betreft een hele interessante use case. [..] Maar dat staat over het algemeen niet in verhouding tot het extra rekenwerk dat de GPU hiervoor zal moeten doen.
Die MMO was een voorbeeld, ik noemde ook GTAV (singleplayer) en ook andere open-world games met grote maps. Daar wordt ook niet in elke scene de hele wereld gerenderd om de GPU daarna een selectie te laten doen op basis van draw distance. Dan is de CPU namelijk veel langer bezig om elk objectje naar de kaart te sturen dan de kaart bezig is om alles in het gezichtsveld te renderen. De GPU kan bij het krijgen van de draw-call al zeggen van "leuk maar die is niet te zien dus daar doen we niks mee. Next!". Een manier om dat in de praktijk te zien is als je in GTAV een auto achtervolgt en die even uit het oog verloren bent, deze niet meer te vinden is omdat hij is gedespawned. Hij was namelijk buiten de render range gekomen en daarom niet boeiend meer.
Ik vind het moeilijk in te schatten hoe scherp je precies "Ik mag hopen dat je als hobbyist game developer ook nadenkt over..." bedoelt. Maar volgens mij zijn we het niet oneens. Maar ging mijn nuance over de relatieve grote van het werk.
Je stelling kwam op mij over alsof je vond dat draw distance een GPU-only dingetje was en dat dat helemaal niks met de CPU te maken had. @Sp3ci3s8472 zei dat o.a. draw distance een grote impact op CPU-load kon hebben en jij lijkt dat tegen te spreken. Relatief is het renderen van de scene voor de GPU doorgaans inderdaad het meeste werk maar dat wil niet zeggen dat je aan de CPU-kant nergens rekening mee hoeft te houden. Ik heb zelf wel ooit wat gedaan met 3D programming maar jij hebt er ongetwijfeld meer ervaring mee dan ik. Ik kan me in ieder geval goed voorstellen dat de engine die je gebruikt sowieso geen drawcalls zal sturen voor objecten die buiten de range vallen en dat je daar als dev nog verder op kan optimaliseren door überhaupt geen bewerkingen op die objecten te doen.

Dus: helemaal afhankelijk van wat voor game je hebt kan de CPU een behoorlijk grote invloed zijn op je framerate. Als je een game hebt waar veel bewegende objecten in zijn kan de GPU al gauw van ondergeschikt belang zijn. Het reduceren van de draw distance zorgt ervoor dat je in ieder geval minder objecten naar de GPU hoeft te sturen en in een gunstig geval ook die verre objecten in de CPU niet constant hoeft te tracken/berekenen. Ik denk/hoop dat we het uiteindelijk niet oneens zijn inderdaad :)

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DataGhost schreef op maandag 2 november 2020 @ 15:49:
[...]

In een singleplayer offline game met dezelfde workload gaat het even hard inkakken, dat heeft echt niks met het netwerk te maken. Dan zou ik ook geen CPU-limiet in de FPS-counter zien. Er is geen enkele multiplayer-game die ook maar in de buurt komt van het noemenswaardig belasten van een gigabit-interface. De enige reden dat ik dat zei is omdat die game voor de serverload al een afweging maakt wat je uberhaupt naar je computer gestuurd krijgt. Voor een client (game) is dat peanuts, ook al zou je alle data van alle spelers krijgen, maar voor de server (met duizenden connected clients) zie je elke byte besparing meer dan duizendmaal terug.
Ok, maar hoe zouden CPU's dan nog sneller kunnen worden om zo'n framerate dip op te vangen? Moet je dan denken aan nog betere / snellere cache? Of is het aantal gelijktijdige berekeningen gewoon te hoog?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +8 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
roy-t schreef op maandag 2 november 2020 @ 14:05:
[...]


Hier moet ik als hobbyist game developer op reageren :). Op wat voor manier praat je over LOD en draw distance als CPU bottlenecks? In beide gevallen gaat het om meer data te verwerken voor de GPU. Enige dat de CPU hier aan kan bijdragen is deze data uploaden naar de GPU. Maar normaliter worden tijdens een laadscherm (of het instreamen) alle LODs van een 3D model geupload naar de GPU en hoeft de CPU daarna alleen maar te kiezen welke LOD er gerendered worden. Soms gebeurt dit zelfs helemaal op de GPU.

Zelfde voor draw distance. De modellen zijn meestal al geladen maar je geeft een andere far-plane aan in je projectie matrix en je stuurt meer draw commando's. Daarna moet de GPU toch echt het meeste werk doen.

Wil je CPU bottlenecks ontdekken dan denk ik zelf toch echt meer aan path-finding, AI, physics (al gaan deze laatste twee vaak ook deels op de GPU). Misschien wil je memory throughput testen door veel data naar de GPU te uploaden (denk aan vliegen met een straaljager in GTA5).

Wat dat betreft vind ik het absoluut correct om ook een test te doen op 720P juist om te zien wat een game over een paar jaar met je CPU kan doen. Op 4K ga je gewoon alleen maar zien hoe goed je GPU is tenzij je een erg trage CPU test.

Na een hele tijd lurken wil ik dan ook meteen wat over DXR kwijt. Daarna zie ik vaak ook mensen de plank misslaan. Wat veel mensen niet beseffen is dat we zelfs op shader (DX11) niveau al veel berekeningen op de GPU doen die eigenlijk direct te vertalen zijn naar instructies die versneld kunnen worden door de DX12U ray tracing instructies (bijvoorbeeld PBR, of ambient occlusion). Het gaat er bij DXR dus niet om om de hele rasterisatie te vervangen. Maar ook om hardware te hebben om te versnellen wat zelfs in je standaard rasterisatie gebaseerde shaders. Maarja dat is natuurlijk niet zo sexy in een demo. Ik neem aan dat nu AMD ook DX12U gaat ondersteunen hier een hoop meer ontwikkeling in gaat zitten.

Wat betreft de nieuwsberichten. Heel mooi om te zien dat AMD echt op top niveau zit met deze GPUs en qua features gelijk trekt met nVidia. Ik was zeer skeptisch maar ben blij verrast!
Ik heb het inderdaad over draw calls gezien dat met de oude API's voornamelijk de limiterende factor was. Verbeter me maar als ik het fout heb; maar is het niet zo dat je met moderne API's juist ook meer drawcalls doet omdat je meer variatie hebt tussen objecten en daardoor niet gebruik kan maken van instantieering (instancing)? De gpu wordt hier vrij weinig extra mee belast, maar je krijgt wel extra draw calls. (lange tijd geleden dat ik 3d games maakte als hobby, ik ben voornamelijk met 2d bezig).
Even grof doorgetrokken, bij oude API's was elke boom hetzelfde want dat gaf betere performance.

Toch vind ik het nog steeds vrij weinig toevoegen. Want.... :p, je loopt op 720p veel eerder tegen een PCI-E bandbreedte limitatie aan; daarnaast ben je in het geval van de DX11 vaak al gebottlenecked door de API omdat je maar een core effectief kan gebruiken voor het aanmaken van draw calls.
Daarmee zou je zo maar de conclussie kunnen trekken dat de i5 8400 sneller is in games omdat hij singlethreaded door de hoge clocksnelheden sneller is dan een 3900x met DX11 spellen. Terwijl met moderne API's dat verschil er niet meer is en wellicht ook in het voordeel van de 3900x.

Als je AI of Physics wilt testen dan kan je hier beter toch een apart testscenario voor maken? Zeker als gamedeveloper; als ik mijn AI in mijn (2d) spel test dan maak ik hier een specifiek scenario voor. Kwam er daardoor ook heel snel achter dat ik mijn A* graphs moest gaan cachen en alleen als de wereld wijzigd dat ik een update moet doen op de tiles die veranderd waren en pas bij de volgende call naar mijn A*. Na die wijziging pakte A* niks meer en dan heb ik nog geen eens jump point search geimplementeerd.

PCI-E performance zakt steeds meer in bij lagere resoluties.
https://www.techpowerup.c...i-express-scaling/24.html

[ Voor 2% gewijzigd door Sp3ci3s8472 op 02-11-2020 17:10 . Reden: bron ]


Acties:
  • +6 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Afbeeldingslocatie: https://tweakers.net/i/4wCkJDJTlJhrB26T7m-CfPvrlms=/800x/filters:strip_icc():strip_exif()/f/image/pBwkHj5Dld0YRxb186n3hd80.jpg?f=fotoalbum_large

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
AtlAntA schreef op maandag 2 november 2020 @ 09:49:
[...]


Misschien een ietwat domme vraag maar zou sam technisch gezien ook kunnen werken met bijvoorbeeld een 5900x op een x570 mobo met een 3080(ti) of 3090?
Ja, het is technisch gewoon mogelijk. Het is meer van, hoe bereid Intel is om samen te werken met Nvidia. Ook is een belangrijk factor als je goed nadenkt het volgende: Wie krijgt de schuld als het niet naar behoren werkt of iets kapot gaan. Ook zal niemand gemakkelijke bereid zijn om met Nvidia samen te werken.

[ Voor 4% gewijzigd door Amazigh_N_Ariff op 02-11-2020 18:06 ]


Acties:
  • +1 Henk 'm!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 19-09 21:26

DataGhost

iPL dev

sunsmountain schreef op maandag 2 november 2020 @ 16:40:
[...]

Ok, maar hoe zouden CPU's dan nog sneller kunnen worden om zo'n framerate dip op te vangen? Moet je dan denken aan nog betere / snellere cache? Of is het aantal gelijktijdige berekeningen gewoon te hoog?
Tsja, same old same old, hogere IPC, hogere kloksnelheid. Volgens mij kan het soort berekeningen wat voor een CPU-bottleneck zorgt in games vaak ongelofelijk goed geparallelliseerd worden dus daar ligt (bij die specifieke game) voor de developers nog wat werk om te schalen naar het aantal cores dat de computer beschikbaar heeft. Het is allang niet meer singlecore in de gamewereld maar vaak zit er wel een hard plafond aan het aantal cores dat gebruikt kan worden (4, 8, 10 oid) ingeprogrammeerd, al dan niet bewust. Bij veel grotendeels onafhankelijke objecten is er vaak geen technische noodzaak zo'n fixed maximum te gebruiken, en op dat moment zal een core-toename ook voor performancewinst zorgen.

In het geval wat ik beschreef gaat het om gaming onder 144fps met veel objecten in beeld, maar dat is niet het enige scenario waar de CPU een probleem kan vormen. Als je hoge aantallen FPS eruit aan het gooien bent (200+) en je GPU kan dat zonder veel moeite aan (bijvoorbeeld bij een lage resolutie) dan gaan de API en PCIe-bandbreedte problematisch worden. Zoals @Sp3ci3s8472 hierboven zei ben je in sommige gevallen gelimiteerd aan maar 1 core voor het daadwerkelijk tekenen van je frame, dus als dat de bottleneck is wil je ook nog hogere singlecore-performance.

Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Om nog maar aan te geven dat er veel mogelijk is via bios support: in dit geval iemand die een Nvidia 3070 met PCIE4 werkend heeft op een Crosshair VI X370 door terug te gaan naar een oudere 7306 bios. In de laatste bios'en van dit jaar is PCIE4 onder het kopje AMD CBS er weer uit gehaald. Het testen was uiteraard op op eigen risico.

X470 bios met Zen3 support is al uitgebracht op een Agesa combo 16MB bios bij Gigabyte. Staat ook nog een stukje over in bij pagina van de link. En nu nog wachten op de mensen die zo handig en slim zijn om al het toekomstige met SAM en Zen3 support naar andere AM4 bios'en te brengen. ;)

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • +4 Henk 'm!

  • Potenscia
  • Registratie: Oktober 2019
  • Laatst online: 09-09 09:51
Amazigh_N_Ariff schreef op zaterdag 31 oktober 2020 @ 19:36:
HET AMD RADEON NIEUWS TOPIC!!
Waar U moet gaan voor hoogwaardig Nvidia informatie! :+
En sinds kort ook voor je hoogstaande Ryzen discussies :o
^^

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
YouTube: AMD RX 6000 - Before and After the Leaks! - Were They Accurate?

Leaker review door Snows, vermakelijke gast zonder pretenties. Guess who won king leaker?

spoiler:
yup RedGamingTech

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Pikkemans
  • Registratie: September 2004
  • Laatst online: 18-09 17:40


Een van de showcase games die Raytracing kan doen icm de 6000 serie. Ziet er super lekker uit!

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Pikkemans schreef op dinsdag 3 november 2020 @ 09:43:
[YouTube: Radeon™ RX 6000 Partner Showcase Ep. 2: Godfall & Counterplay Games]

Een van de showcase games die Raytracing kan doen icm de 6000 serie. Ziet er super lekker uit!
En natuurlijk dat een demo van een AMD gesponsorde game vertelt dat je toch echt 12GB aan VRAM nodig hebt voor 4K. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
DaniëlWW2 schreef op dinsdag 3 november 2020 @ 09:51:
[...]


En natuurlijk dat een demo van een AMD gesponsorde game vertelt dat je toch echt 12GB aan VRAM nodig hebt voor 4K. ;)
Vraag is vooral hoeveel hiervan in buffer zit en hoeveel er echt wordt gebruikt.

Acties:
  • 0 Henk 'm!

Verwijderd

De vraag is uiteindelijk ook of het een beetje een leuke game is. :+

Acties:
  • 0 Henk 'm!

  • DMC90
  • Registratie: November 2010
  • Laatst online: 15-09 18:02
DaniëlWW2 schreef op dinsdag 3 november 2020 @ 09:51:
[...]


En natuurlijk dat een demo van een AMD gesponsorde game vertelt dat je toch echt 12GB aan VRAM nodig hebt voor 4K. ;)
Precies wat mij ook opviel "Godfall requires tremendous memory bandwidth to run smoothly" :P

Ziet er wel goed uit! Ze zijn mij nu wel flink aan het hypen en ik hoop dat de echte reviews niet gaan tegenvallen.

Acties:
  • +2 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Pikkemans schreef op dinsdag 3 november 2020 @ 09:43:
[YouTube: Radeon™ RX 6000 Partner Showcase Ep. 2: Godfall & Counterplay Games]

Een van de showcase games die Raytracing kan doen icm de 6000 serie. Ziet er super lekker uit!
Wat slecht zeg. CAS highlighten door het contrast te verlagen aan de niet-CAS kant, geen uitleg van wat VRS precies doet, voorbeelden van raytracing laten niet zien hoe de game eruit zou zien zonder raytracing. Weinig informatie in dit filmpje helaas, en niet de beste uitleg over de nieuwe mogelijkheden die DX12U mogelijk maakt.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

SpankmasterC schreef op dinsdag 3 november 2020 @ 10:24:
[...]

Wat slecht zeg. CAS highlighten door het contrast te verlagen aan de niet-CAS kant, geen uitleg van wat VRS precies doet, voorbeelden van raytracing laten niet zien hoe de game eruit zou zien zonder raytracing. Weinig informatie in dit filmpje helaas, en niet de beste uitleg over de nieuwe mogelijkheden die DX12U mogelijk maakt.
We weten dus zeker dat het door AMD is gemaakt. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
Paprika schreef op dinsdag 3 november 2020 @ 10:07:
[...]

Vraag is vooral hoeveel hiervan in buffer zit en hoeveel er echt wordt gebruikt.
Als het gebuffered is, dan is het toch ook gebruikt? Ik bedoel: bufferen heeft toch nut? In dat geval zou meer geheugen om als buffer gebruikt te worden ook nut hebben, toch?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
pixeled schreef op dinsdag 3 november 2020 @ 10:49:
[...]


Als het gebuffered is, dan is het toch ook gebruikt? Ik bedoel: bufferen heeft toch nut? In dat geval zou meer geheugen om als buffer gebruikt te worden ook nut hebben, toch?
Volgens die stelling is alles met minder VRAM dan een 3090 slecht. Ik ben dus benieuwd of het een reservering is of dat je ook echt minder performance hebt met < 12GB aan VRAM.

Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
Paprika schreef op dinsdag 3 november 2020 @ 10:51:
[...]

Volgens die stelling is alles met minder VRAM dan een 3090 slecht. Ik ben dus benieuwd of het een reservering is of dat je ook echt minder performance hebt met < 12GB aan VRAM.
Het was geen stelling, het was een oprechte vraag :) Ik weet simpelweg niet of dat zo is, maar het lijkt me wel relevant om te weten.

Overigens geloof ik de claim dat '12GB RAM echt nodig is!' zoals gedaan door de CEO van Counterplay games niet hoor, behalve misschien als je onnodig overal met 4K textures gaat lopen smijten (oftewel: slecht optimaliseerd, of een tech-demo maakt).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
pixeled schreef op dinsdag 3 november 2020 @ 10:58:
[...]


Het was geen stelling, het was een oprechte vraag :) Ik weet simpelweg niet of dat zo is, maar het lijkt me wel relevant om te weten.

Overigens geloof ik de claim dat '12GB RAM echt nodig is!' zoals gedaan door de CEO van Counterplay games niet hoor, behalve misschien als je onnodig overal met 4K textures gaat lopen smijten (oftewel: slecht optimaliseerd, of een tech-demo maakt).
Meer bufferen is absoluut nooit verkeerd. Zowel ongebruikt RAM als ongebruikt VRAM geheugen is zonde. Dus in die zin is er zeker niets mis mee.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
SpankmasterC schreef op dinsdag 3 november 2020 @ 10:24:
[...]

Wat slecht zeg. CAS highlighten door het contrast te verlagen aan de niet-CAS kant, geen uitleg van wat VRS precies doet, voorbeelden van raytracing laten niet zien hoe de game eruit zou zien zonder raytracing. Weinig informatie in dit filmpje helaas, en niet de beste uitleg over de nieuwe mogelijkheden die DX12U mogelijk maakt.
Het filmpje zou inderdaad zomaar bij Nvidia vandaan kunnen komen :+

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op dinsdag 3 november 2020 @ 11:20:
[...]

Het filmpje zou inderdaad zomaar bij Nvidia vandaan kunnen komen :+
Ah, nog een gelover dat de AMD marketing afdeling stiekem door Nvidia betaald word. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21-09 15:03
DaniëlWW2 schreef op dinsdag 3 november 2020 @ 11:23:
[...]


Ah, nog een gelover dat de AMD marketing afdeling stiekem door Nvidia betaald word. :+
Amerikaans geld is toch meestal groen?

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

winwiz schreef op dinsdag 3 november 2020 @ 11:28:
[...]


Amerikaans geld is toch meestal groen?
Groen van jaloezie zien, het boze oog, het komt allemaal van invidia. ;)


Maar hopen dat GamersNexus gelijk had dat we morgen architectuur details krijgen. Dat hebben we hard nodig in dit topic. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Nog meer marketing benchmarks over de verschillen met SAM van AMD maar geen info over de hardware voor support vanuit de chipset en CPU.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

M-spec schreef op dinsdag 3 november 2020 @ 12:52:
Nog meer marketing benchmarks over de verschillen met SAM van AMD maar geen info over de hardware voor support vanuit de chipset en CPU.
Die is al een paar keer voorbij gekomen. ;)


Deze niet. De XSX en XSS gaan DirectML krijgen voor onder andere upscaling. Nu hou ik nog even een slag om de arm of dit alles is, maar dit lijkt toch de oplossing te zijn voor het "Super Resolution" vraagstuk. Het staat ook in de FidelityFX lijst, maar ik weet niet of het exclusief voor DirectML is of er nog iets anders gaat spelen.
Through close collaboration and partnership between Xbox and AMD, not only have we delivered on this promise, we have gone even further introducing additional next-generation innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such as ML powered super resolution.
Afbeeldingslocatie: https://www.overclock3d.net/gfx/articles/2020/11/02123710830l.jpg
https://www.overclock3d.n...rectml_super_resolution/1


Dus zoals ik weken geleden al zei dat AMD waarschijnlijk met DirectML, een DLSS 2.0 tegenhanger zou gaan introduceren. En in tegenstelling tot DLSS 2.0 is het zo wel zinvol omdat het onderdeel van de DX12U API is. Al die exclusieve technologieën falen altijd omdat ze even gepusht worden en dan gebeurd er niks meer mee terwijl het een stille dood sterft. Dat gaat niet gebeuren als het een tool is in DX12U en de XSX en XSS er gebruik van maken.

Opvallend is ook dat onder FidelityFX nu ook een denoiser staat. Dat is dan weer een stukje van de RT puzzel. Het zal eraan te komen, maar nu weten we het ook. Ze zullen een denoising algoritme draaien op de CU's die in RT mode staan.

[ Voor 3% gewijzigd door DaniëlWW2 op 03-11-2020 13:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Waar zijn de lekken gebleven, het ging zo lekker vorige week (al kwamen wel 99 keer dezelfde 10 games voorbij)

Graag de Rx 6900XT @2,6 mhz deze keer in 4- en 5K, met en zonder SAM en Moos.

Niet op voorraad.


Acties:
  • +3 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21-09 15:03
edward2 schreef op dinsdag 3 november 2020 @ 15:02:
Waar zijn de lekken gebleven, het ging zo lekker vorige week (al kwamen wel 99 keer dezelfde 10 games voorbij)

Graag de Rx 6900XT @2,6 mhz deze keer in 4- en 5K, met en zonder SAM en Moos.
Houd jij van een diashow

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

winwiz schreef op dinsdag 3 november 2020 @ 15:04:
[...]


Houdt jij van een diashow
:D, euhh, we maken er maar Ghz van dan :)

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op dinsdag 3 november 2020 @ 13:24:
[...]


Die is al een paar keer voorbij gekomen. ;)


Deze niet. De XSX en XSS gaan DirectML krijgen voor onder andere upscaling. Nu hou ik nog even een slag om de arm of dit alles is, maar dit lijkt toch de oplossing te zijn voor het "Super Resolution" vraagstuk. Het staat ook in de FidelityFX lijst, maar ik weet niet of het exclusief voor DirectML is of er nog iets anders gaat spelen.

[...]

[Afbeelding]
https://www.overclock3d.n...rectml_super_resolution/1


Dus zoals ik weken geleden al zei dat AMD waarschijnlijk met DirectML, een DLSS 2.0 tegenhanger zou gaan introduceren. En in tegenstelling tot DLSS 2.0 is het zo wel zinvol omdat het onderdeel van de DX12U API is. Al die exclusieve technologieën falen altijd omdat ze even gepusht worden en dan gebeurd er niks meer mee terwijl het een stille dood sterft. Dat gaat niet gebeuren als het een tool is in DX12U en de XSX en XSS er gebruik van maken.

Opvallend is ook dat onder FidelityFX nu ook een denoiser staat. Dat is dan weer een stukje van de RT puzzel. Het zal eraan te komen, maar nu weten we het ook. Ze zullen een denoising algoritme draaien op de CU's die in RT mode staan.
Er is zelfs een DirectMLSuperResolution voorbeeld op github: https://github.com/microsoft/DirectML
Het lijkt daar op gebaseerd te zijn. Als Sony daar ook gebruik van maakt moet nVidia haar DLSS code daar wel aan koppelen, zonder exclusieve TAA developer koppeling :) .

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op dinsdag 3 november 2020 @ 12:04:
[...]


Groen van jaloezie zien, het boze oog, het komt allemaal van invidia. ;)


Maar hopen dat GamersNexus gelijk had dat we morgen architectuur details krijgen. Dat hebben we hard nodig in dit topic. :P
Nou, we leren anders tussendoor voldoende bij :P met alles wat er om AMD Radeon heen draait.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

AMD Radeon RX 6000 series to support games with Microsoft DXR and Vulkan ray tracing APIs
Afbeeldingslocatie: https://tweakers.net/i/vprpO89B5XsNidsnbe6zakcNRbM=/232x232/filters:strip_icc():strip_exif()/f/image/d5ol0iQaqit67de6NZimNgUC.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/UteqIaqRB1dNX9LxqL4y57uyPWg=/232x232/filters:strip_icc():strip_exif()/f/image/4gwgOCeb6WItu3dRh172ZZt1.jpg?f=fotoalbum_tile
https://videocardz.com/ne...d-vulcan-ray-tracing-apis

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
AMD has made a commitment to stick to industry standards, such as Microsoft DXR or Vulkan ray tracing APIs. Both should slowly become more popular, as the focus goes away from NVIDIA’s implementation. After all, Intel will support DirectX DXR as well, so developers will have even less reason to focus on NVIDIA’s implementation.
Ik snap dit statement niet. Is er nog een versie van "RTX" dan?

https://developer.nvidia....aytracing-tutorial-Part-1

Of hebben ze 't dan specifiek over Quake II & Wolfenstein misschien?

[ Voor 6% gewijzigd door Paprika op 03-11-2020 15:25 ]


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

:X
Godfall requires 12GB of VRAM for UltraHD textures at 4K resolution
Afbeeldingslocatie: https://tweakers.net/i/6hVZ_7EprR8WEhiTrgpATX7LIBY=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/hlcuFJdZj4JicdwtWQ3Ogf0f.jpg?f=user_largehttps://videocardz.com/ne...textures-at-4k-resolution

[ Voor 13% gewijzigd door Xadeon op 03-11-2020 15:30 ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Daar ging de hele discussie van vandaag al over :+.

Pikkemans in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

Acties:
  • 0 Henk 'm!

  • Tk55
  • Registratie: April 2009
  • Niet online
DaniëlWW2 schreef op dinsdag 3 november 2020 @ 13:24:
[...]
Opvallend is ook dat onder FidelityFX nu ook een denoiser staat. Dat is dan weer een stukje van de RT puzzel.
Waarom is een denoiser specifiek voor RT van belang?

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Tk55 schreef op dinsdag 3 november 2020 @ 15:59:
[...]

Waarom is een denoiser specifiek voor RT van belang?
Je rendert normaalgesproken geen elementen met noise erop :p.

https://developer.nvidia.com/gameworks-ray-tracing wegens gebrek aan een AMD link dan maar.

Acties:
  • 0 Henk 'm!

  • pixeled
  • Registratie: Maart 2003
  • Laatst online: 09-09 20:04
Xadeon schreef op dinsdag 3 november 2020 @ 15:27:
:X
Godfall requires 12GB of VRAM for UltraHD textures at 4K resolution
[Afbeelding]https://videocardz.com/newz/godfall-requires-12gb-of-vram-for-ultrahd-textures-at-4k-resolution
Wat zijn '4X x 4X UltraHD textures'? Ennem, nou ja, leuke marketing praat maar ik ga er vanuit dat je die textures ook 1 niveautje lager (naar 'Normal UltraHD textures'? :P) kan zetten en het spel dan ook op een 3080 prima zal draaien (en je het verschil niet eens zal zien).

Acties:
  • +3 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 22:59
Tk55 schreef op dinsdag 3 november 2020 @ 15:59:
[...]

Waarom is een denoiser specifiek voor RT van belang?
De HW-accelerated RT functionaliteit van eender welke vendor dezer dagen is totaal incapabel om een volledige scene aan volledige resolutie te renderen. Ongeacht wat wie ook van welk kamp ook claimt.

Dus wat gebeurt er? Een aantal lichtbronnen krijgen een aantal rays. Véél te weinig om een goed beeld te vormen. De denoiser vormt de pixelbrij om naar een eerder werkbare vorm van belichting. Aan de hand van deze output wordt de scene dan belicht.

Zie ook:
(timestamp rond 11:00 als het niet werkt)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Denoiser is als het ware de ruis weghalen.?

RT is leuk, het is natuurkundig kloppend, maar zie net zo lief (of liever) higher res. textures, meer geometrie/triangles, en complexere belichting, bv. global illumination (met of zonder de hulp van RT) betere physic's etc.

[ Voor 3% gewijzigd door edward2 op 03-11-2020 16:13 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

pixeled schreef op dinsdag 3 november 2020 @ 16:03:
[...]


Wat zijn '4X x 4X UltraHD textures'? Ennem, nou ja, leuke marketing praat maar ik ga er vanuit dat je die textures ook 1 niveautje lager (naar 'Normal UltraHD textures'? :P) kan zetten en het spel dan ook op een 3080 prima zal draaien (en je het verschil niet eens zal zien).
Betekent hooguit dat 10gb vram niet toereikend is als je 'm op ultra settings instelt. *GTA IV flashbacks* :X

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Arrigi schreef op dinsdag 3 november 2020 @ 16:06:
[...]


De HW-accelerated RT functionaliteit van eender welke vendor dezer dagen is totaal incapabel om een volledige scene aan volledige resolutie te renderen. Ongeacht wat wie ook van welk kamp ook claimt.

Dus wat gebeurt er? Een aantal lichtbronnen krijgen een aantal rays. Véél te weinig om een goed beeld te vormen. De denoiser vormt de pixelbrij om naar een eerder werkbare vorm van belichting. Aan de hand van deze output wordt de scene dan belicht.

Zie ook:
[YouTube: Real Time Path Tracing and Denoising in Quake II RTX] (timestamp rond 11:00 als het niet werkt)
Alleen jammer met Quake RTX dat ze de skybox kleuren hebben aangepast. Die planeet was volgens mij meer Mars like en dit verandert de hele sfeer.

Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Xadeon schreef op dinsdag 3 november 2020 @ 16:12:
[...]

Betekent hooguit dat 10gb vram niet toereikend is als je 'm op ultra settings instelt. *GTA IV flashbacks* :X
Is die 12 met of zonder (de betere) delta compressie, anders past het gewoon binnen de 10 van de 3080.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Sp3ci3s8472 schreef op dinsdag 3 november 2020 @ 16:13:
[...]


Alleen jammer met Quake RTX dat ze de skybox kleuren hebben aangepast. Die planeet was volgens mij meer Mars like en dit verandert de hele sfeer.
Je kan kiezen tussen Earth-, Mars- en Stroggssky in de game :)

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

@pixeled 4x, 4x ultrahd, oftewel 4k x 4k textures.

@edward2 Goeie vraag, maar geen idee.

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tk55 schreef op dinsdag 3 november 2020 @ 15:59:
[...]

Waarom is een denoiser specifiek voor RT van belang?
En als laatste toevoeging dan nog een plaatje. :P
Afbeeldingslocatie: https://developer.nvidia.com/sites/default/files/akamai/designworks/optix/Denoiser/optiX-denoiser_Arnold-kitchen.PNG

Ja, deze is van Nvidia dus er zullen waarschijnlijk wat "vrijheden met de waarheid" zijn genomen, maar het illustreert het effect.

AMD gaat waarschijnlijk hele CU's in een RT mode zetten. Deze dingen dus.
Afbeeldingslocatie: https://hexus.net/media/uploaded/2019/6/03737c08-7540-4a78-940e-a660ca7fdebf.PNG

De texture mapping units (TMU's) krijgen een RT mode om BVH structuren te berekenen en kunnen dan geen textures doen. Dit dus:



Ze pakken een object en herhalen een aantal keer deze stap om dit object beter in kaart te brengen. Ze gaan dus niet elke driehoek individueel checken want dan krijg je echt een diashow. Als ze afdoende in kaart hebben gebracht dan kunnen ze pas enige schaduwen of reflecties toepassen. Dat doen de TMU's/RT units in zowel Turing/Ampere als RDNA2. Vervolgens is het beeld "noisy", alsof het niet helemaal gerenderd is. Dan effect gaan ze met AMD wegfilteren door met de normale ALU's van de CU de rest van het beeld te construeren. Nvidia gebruikt hier hun "tensor cores" voor.

[ Voor 3% gewijzigd door DaniëlWW2 op 03-11-2020 16:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Tk55
  • Registratie: April 2009
  • Niet online
Arrigi schreef op dinsdag 3 november 2020 @ 16:06:
[...]


De HW-accelerated RT functionaliteit van eender welke vendor dezer dagen is totaal incapabel om een volledige scene aan volledige resolutie te renderen. Ongeacht wat wie ook van welk kamp ook claimt.

Dus wat gebeurt er? Een aantal lichtbronnen krijgen een aantal rays. Véél te weinig om een goed beeld te vormen. De denoiser vormt de pixelbrij om naar een eerder werkbare vorm van belichting. Aan de hand van deze output wordt de scene dan belicht.

Zie ook:
[YouTube: Real Time Path Tracing and Denoising in Quake II RTX] (timestamp rond 11:00 als het niet werkt)
Bedankt aan jou, @DaniëlWW2 en @Paprika!

Als ik het goed begrijp, worden er maar een beperkt aantal rays berekend. Dit is omdat de computerkracht niet voldoende is om er meer te berekenen. Echter, door het beperkte aantal rays wordt niet elk stukje van de geometrie goed belicht en krijg je een beeld dat ruis vertoont. Om deze ruis weg te werken, zet je een denoiser in, die deze ruis meer homogeen maakt (eigenlijk een soort blurring). Zo komt het meer overeen met hoe licht er in werkelijkheid uit ziet, meer als een vlek van licht dan een verzameling aan individuele stralen.

Acties:
  • +2 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

AMD Radeon RX 6000 RDNA 2 Graphics Cards To Support All Raytracing Games Based on Microsoft DXR & Vulkan APIs
Afbeeldingslocatie: https://tweakers.net/i/lv2ImYS1iCtfcsXtzxtTPIMzSD8=/232x232/filters:strip_icc():strip_exif()/f/image/tjduHrISzGf8AqjuWb2xr3yB.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/EzWmkqeNKZL7km7c_gNqg9w6aDI=/232x232/filters:strip_icc():strip_exif()/f/image/NU0GbaAr8XNJkBpYNJAGg45N.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/a6wqj5_ixwC_8PiNkfrs5M5pbEQ=/232x232/filters:strip_icc():strip_exif()/f/image/ECUYMz1BlJi4mY55tsZOoOd7.jpg?f=fotoalbum_tile
Afbeeldingslocatie: https://tweakers.net/i/DpyG0ea2UmaCDygixZHafK7TCD0=/232x232/filters:strip_icc():strip_exif()/f/image/gQvb83KkawjA9Tn3E4l36Z8i.jpg?f=fotoalbum_tile
https://wccftech.com/amd-...__twitter_impression=true

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dat is het idee ja.
Het gaat alleen nog interessant worden hoe dit gaat werken met de RX6800 en RX6800XT. Immers heeft de RX6800 "maar" 60 CU's met elk een RT unit en de RX6800XT heeft er 72 met elk een RT unit. Omdat bepaalde CU's waarschijnlijk een behoorlijk aantal clock cycles per frame, helemaal toegewijd zal worden aan RT in een DXR game, zou het goed mogelijk kunnen zijn dat met 12 extra CU's en wat extra clock speed, toch een behoorlijke verbetering in RT prestaties krijgt en je framerate dus minder instort omdat je RT aan hebt staan. Voor 1440p kan dat wel eens heel interessant zijn. Duurder is die RX6800XT zeker, maar eigenlijk ook erg interessant. :)

Je moet het zo zien. Stel je mikt met een game op 1440p, op een framerate van 80fps. Zonder RT kunnen zowel de RX6800 als RX6800XT dit aan. Nu zet je alleen DXR aan en vallen een aantal CU's voor een deel van de berekening van elke frame weg omdat deze naar RT mode wisselen en geen shaders of compute kunnen doen in de tussentijd. Stel het zijn er in dit voorbeeld 16CU's die naar RT mode wisselen. Blijven er voor de RX6800 nog 44 over en voor de RX6800XT nog 56. De RX6800XT heeft hogere clock speeds en kan zo in theorie iets meer berekenen per CU. Zo kan het best gebeuren dat de RX6800XT met DXR aan, nauwelijks slechter presteert dan de RX6800 zonder DXR aan.

Dit voorbeeld is echt heel erg ruw ingeschat, maar het zou moeten illustreren waarom de RX6800XT wel eens heel goed uit kan vallen in DXR op 1440p. Meestal is het namelijk zo dat zulke grote chips zoals de RX6800XT tegen andere bottlenecks aanlopen op een iets lagere resolutie en al hun rekeneenheden niet kunnen inzetten. In dit geval zou het wel eens kunnen dat de RX6800XT juist wel haar extra rekeneenheden goed kan benutten voor DXR instructies en opvallend goed gaat presteren met DXR. Komt nog eens bij dat de eerste indicaties zijn dat Navi 21, zeer goed presteert in zowel zeer hoge resolutie met relatief lage framerates (4K) als een iets lagere resolutie met beduidend hogere framerates (1440p). Het zou dus ook kunnen dat de RX6800XT zonder DXR, simpelweg uitstekende framerates produceert op 1440p en het nog steeds erg goed is met DXR.

Dit is iets waar ik bijvoorbeeld benieuwd naar ben met de reviews. Ik zeg ook niet zomaar dat ik denk ik liever even wacht i.p.v. meteen iets kopen. Ik verwacht namelijk ook problemen met verkrijgbaarheid, maar dit is een van de vele dingen die ik wil weten en niet in een paar minuten kan achterhalen om vervolgens nog snel iets te kopen voordat alles weg is. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Ik ben benieuwd of er bestaande RTX-games alsnog patches krijgen (indien nodig?) om RT op de RDNA2 architectuur mogelijk te maken. Hopelijk bakt Red het gelijk in Cyberpunk.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

DaniëlWW2 schreef op dinsdag 3 november 2020 @ 17:15:

Dit is iets waar ik bijvoorbeeld benieuwd naar ben met de reviews. Ik zeg ook niet zomaar dat ik denk ik liever even wacht i.p.v. meteen iets kopen. Ik verwacht namelijk ook problemen met verkrijgbaarheid, maar dit is een van de vele dingen die ik wil weten en niet in een paar minuten kan achterhalen om vervolgens nog snel iets te kopen voordat alles weg is. :)
Wat denk jij hoe RDNA2 met z'n memory (cache) subsysteem zal presteren in 5K, ik weet dat het een onmogelijke vraag is, maar hopelijk kakt die niet plotseling in, m.a.w. is er reserve? Scheelt wel 70%

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

edward2 schreef op dinsdag 3 november 2020 @ 17:27:
[...]


Wat denk jij hoe RDNA2 met z'n memory (cache) subsysteem zal presteren in 5K, ik weet dat het een onmogelijke vraag is, maar hopelijk kakt die niet plotseling in, m.a.w. is er reserve? Scheelt wel 70%
Dat is denk ik een onmogelijke vraag. :P
Maar ik denk dat het probleem eerder een gebrek aan ALU's gaat zijn.
edward2 schreef op dinsdag 3 november 2020 @ 17:15:
Ik ben benieuwd of er bestaande RTX-games alsnog patches krijgen (indien nodig?) om RT op de RDNA2 architectuur mogelijk te maken. Hopelijk bakt Red het gelijk in Cyberpunk.
Elke DXR game zou moeten werken, maar als er in sommige nominaal DXR games, toch RTX tech zit, tja dan krijgen we problemen. Cyberpunk krijgt het want die krijgt ook RT op de consoles = RDNA2.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
edward2 schreef op dinsdag 3 november 2020 @ 16:11:
Denoiser is als het ware de ruis weghalen.?

RT is leuk, het is natuurkundig kloppend, maar zie net zo lief (of liever) higher res. textures, meer geometrie/triangles, en complexere belichting, bv. global illumination (met of zonder de hulp van RT) betere physic's etc.
Nee, je krijgt een aantal beeld punten, dat ziet er uit als 'ruis'. Vervolgens interpoleer je de lighting tussen die pixels, en krijg je het volledige beeld (ruis weg). Die reconstructie zou je denoising kunnen noemen, maar ietwat verwarrend vind ik.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 01:57

Mars Warrior

Earth, the final frontier

sunsmountain schreef op dinsdag 3 november 2020 @ 15:06:
[...]
Er is zelfs een DirectMLSuperResolution voorbeeld op github: https://github.com/microsoft/DirectML
Het lijkt daar op gebaseerd te zijn. Als Sony daar ook gebruik van maakt moet nVidia haar DLSS code daar wel aan koppelen, zonder exclusieve TAA developer koppeling :) .
Die heb ik al honderden pagina's terug gepost. Die software komt van nVidia af O-)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Mars Warrior schreef op dinsdag 3 november 2020 @ 18:42:
[...]

Die heb ik al honderden pagina's terug gepost. Die software komt van nVidia af O-)
Ja ik zie dat je het 13 Oktober gepost hebt, maar hoe weet je dat DirectML / DirectMLSuperResolution van nVidia is / af komt?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 01:57

Mars Warrior

Earth, the final frontier

sunsmountain schreef op dinsdag 3 november 2020 @ 23:44:
[...]
Ja ik zie dat je het 13 Oktober gepost hebt, maar hoe weet je dat DirectML / DirectMLSuperResolution van nVidia is / af komt?
Dat had ik al eerder gelezen ergens, maar de leukste hint is dat in de sourcecode copyright NVIDIA staat 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Mars Warrior schreef op dinsdag 3 november 2020 @ 23:47:
[...]

Dat had ik al eerder gelezen ergens, maar de leukste hint is dat in de sourcecode copyright NVIDIA staat 8)
MIT License

Copyright (c) Microsoft Corporation. All rights reserved.

Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:

The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
Dus ja, nVidia is al wat langer bezig met DirectML van Microsoft en heeft commits mogen mergen op deze opensource software :P dan zet je je naam erbij als je voor nVidia werkt.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19:08

SG

SG surft naar info hardewaren

Ik ben benieuwd naar nieuwe encode hardware in GPU , blijkbaar intel Xe met AV1 beats ouwe nvenc. Wat doet RTX30 en RX6000 met AV1 dus kijk vooruit op Handbrake benches.
Ga sowieso voor RX6000. Mocht nV of intel daar king in zijn met grote voorsprong komt er lowbudget g-kaart bij.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K

Pagina: 1 ... 38 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.