Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Bij mij rolt de Anno 1800 patch binnen. Zo ook even kijken. :)


edit: Oh nee, niet alweer. Anno 1800 vraagt voor heel wat instellingen om een reboot en ja hoor. Vergelijken gaat dus een nachtmerrie worden. Ik probeer wel wat screenshots te maken. -O-

edit 2: Anno 1800 blijft irritant. Ik denk dat je hier niet goed mee kan testen omdat ik met quality settings zelfs al tegen de CPU bottleneck aanloopt. Met ultra quality en zoomed uit zodat de game echt stikt op de te veel objecten, is niet veel verschil in framerate, maar FSR is net iets meer blurry. Ik moet nog dichtbij testen. Dat is meteen ook lastiger in deze game. Ook eens testen wat 8xMSAA doet. De game raad zelf 4xMSAA aan met FSR.

Ultra, 4xMSAA FSR uit
Afbeeldingslocatie: https://tweakers.net/i/OtyXj8vKjrUMVDxGcYKCsq0leaQ=/800x/filters:strip_icc():strip_exif()/f/image/oJM2x0ziTk54luhhqG7tb0Om.jpg?f=fotoalbum_large

Ultra, 4xMSAA FSR ultra quality (let op de schaduwen waar je het verschil makkelijk ziet. Verder is de FPS counter hier wat laag. Zit wel een paar FPS verschil in, meer rond de 45)
Afbeeldingslocatie: https://tweakers.net/i/hly7GIcHsCpsPnG-fngjpv4asb8=/800x/filters:strip_icc():strip_exif()/f/image/6UF0QDRPiK15u2S6ogHa0FUJ.jpg?f=fotoalbum_large

Ultra, 4xMSAA FSR quality (negeer de FPS, dat was weer eens de game die NPC's pas spawned als je de game hebt geladen. Framerate stortte compleet in na een paar seconden. Gewoon slechter dan zonder FSR)
Afbeeldingslocatie: https://tweakers.net/i/yMX6L8OlzHtDaSgiR2izX5sNGbI=/800x/filters:strip_icc():strip_exif()/f/image/q6PFswz6PW0Y130ti9WGAwmr.jpg?f=fotoalbum_large

Ultra, 4xMSAA FSR balance
Afbeeldingslocatie: https://tweakers.net/i/se-NI0z33USEzCV6B6Q7qo3yzeo=/800x/filters:strip_icc():strip_exif()/f/image/EaGTsQAdaceFMNzrIxAnSfP2.jpg?f=fotoalbum_large

Ultra, 4xMSAA FSR performance
Afbeeldingslocatie: https://tweakers.net/i/uiuMJ4VWoY-9F6-tFQoBEqFZLIo=/800x/filters:strip_icc():strip_exif()/f/image/Y0flZb0F8gcBzQBsGRWz8SK1.jpg?f=fotoalbum_large

Alles bij elkaar lijkt het niet veel voor deze game zo lijkt het. De CPU bottleneck is gewoon veel te erg. Helaas want met grotere steden heeft deze game gewoon geen framerate meer. Dit is absoluut geen grote stad. Dit is een veredeld dorpje. :P


Edit 3: Dichtbij is het wel mooi 10fps. Screenshot met FSR is waarschijnlijk nog nadelig omdat er al meer gespawned was. Dit is niet slecht voor een effectieve 1080p naar 1440p upscaling. :Y
Ultra, 4xMSAA FSR uit
Afbeeldingslocatie: https://tweakers.net/i/B2rdJ3COhk6d6P3UUUBplsYDQGw=/800x/filters:strip_icc():strip_exif()/f/image/tRxIRhp1WgQONy4bRvzK703B.jpg?f=fotoalbum_large

Ultra, 4xMSAA FSR ultra quality
Afbeeldingslocatie: https://tweakers.net/i/YomtvaTpWvCgXKb7wNtkciFnzLI=/800x/filters:strip_icc():strip_exif()/f/image/DTuQSWL6ReIlCJB9nfDWMgEz.jpg?f=fotoalbum_large

[ Voor 159% gewijzigd door DaniëlWW2 op 22-06-2021 17:19 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 20:58

Apoca

Array Technology Industry

Iemand al ergens een uitwerking van AMD FSR gezien met Raytracing cijfers?
Zelfs de mensen die Godfall testen hebben allemaal RT uitgezet voor hun testen.


****
Digital Foundry review van FSR

YouTube: AMD FidelityFX Super Resolution FSR Review: Big FPS Boosts, But Imag...

[ Voor 48% gewijzigd door Apoca op 22-06-2021 18:40 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:32
Ik kan inderdaad bij mij bevestigen dat mijn idle power (veel) lager is geworden. Het schommelt nu tussen de 7 en 10 Watt volgens de driver. Ik zie ook aan mijn energiemeter dat het verbruik lager is. GPU idle temp is 42 C met Fans op 0 rpm

Afbeeldingslocatie: https://tweakers.net/i/oFPJHizaqlxcmsuLl8PySLEPLgE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/GeRNNQbP5e1TDRRKAfaBC5ip.png?f=user_large

[ Voor 28% gewijzigd door winwiz op 22-06-2021 18:46 ]

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op dinsdag 22 juni 2021 @ 15:55:
Mooi werk van AMD. Het is geen DLSS2, maar het doet z'n werk meer dan behoorlijk én vereist geen hardware die sowieso al (bijna) native kan renderen :+)

En sowieso veel, veel beter dan DLSS1.

Nu hopen dat het voet aan de grond krijgt bij devs. Dat is het belangrijkste.
Ik heb ook eens wat meer gekeken. Het is best aardig op ultra quality wat niet slecht is voor toch ongeveer een traditionele resolutie stap lager. Dus 1080p naar 1440p en 1440p naar "4K". Helaas is Anno 1800 voor mij toch teleurstellend. Ik zal denk ik ultra quality wel blijven gebruiken, maar het kan niet op tegen die enorme CPU bottleneck daar. Helaas, want dat verminderd die game ervaring wel.


Maar ik maak me niet zoveel zorgen qua ondersteuning. Tussen de lijst staan al: Unity, EA/Frostbite en Ubisoft. Dat denkt toch wel een zeer aanzienlijk deel van de markt met Unity en die twee uitgevers hebben al jaren een engine over vele games. Uiteindelijk moet je het in de engines krijgen en AMD is dat meteen gelukt.

Epic staat er niet tussen, maar die hebben hun eigen TSR waar we al van weten dat er "samenwerking met AMD" was. Voor de Nvidia kant is het namelijk DLSS in UE5. En dan krijg je de situatie dat je als developer moet kiezen tussen Nvidia only voor PC of Epic hun eigen TSR dat ook werkt op de PS5 en XSX. Lijkt me geen bijzonder lastige keuze voor de meeste developers.

Zie:
https://community.amd.com...-early-access/ba-p/473407
https://developer.nvidia....nd-nvidia-reflex-support/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
winwiz schreef op dinsdag 22 juni 2021 @ 17:48:
Ik kan inderdaad bij mij bevestigen dat mijn idle power (veel) lager is geworden.
Bevalt die monitor eigenlijk een beetje? Ik had ook gekeken voordat ik mijn exemplaar kocht, maar vond de Gigabyte toch aan de prijs.
Je zal hopelijk flink profijt kunnen maken van FSR met een dergelijke setup waar 120 fps toch best een uitdaging kan zijn.

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
DaniëlWW2 schreef op dinsdag 22 juni 2021 @ 16:02:
Anno 1800 blijft irritant. Ik denk dat je hier niet goed mee kan testen omdat ik met quality settings zelfs al tegen de CPU bottleneck aanloopt. Met ultra quality en zoomed uit zodat de game echt stikt op de te veel objecten, is niet veel verschil in framerate, maar FSR is net iets meer blurry. Ik moet nog dichtbij testen. Dat is meteen ook lastiger in deze game. Ook eens testen wat 8xMSAA doet. De game raad zelf 4xMSAA aan met FSR.
Raar dat jouw situatie dan zulke andere resultaten geeft als de meeste reviews? Ik snap dat de CPU belasting zwaar is, maar je hebt nu toch ook geen lichte CPU of iets?

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

zzzzz schreef op dinsdag 22 juni 2021 @ 18:54:
[...]

Raar dat jouw situatie dan zulke andere resultaten geeft als de meeste reviews? Ik snap dat de CPU belasting zwaar is, maar je hebt nu toch ook geen lichte CPU of iets?
3700X dus nog best oké. :P
Maar bijvoorbeeld TPU test met een gehucht. Dat werkt gewoon nog, maar zodra je die steden gaat opbouwen, dan stort het gewoon helemaal in.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
DaniëlWW2 schreef op dinsdag 22 juni 2021 @ 18:59:
Maar bijvoorbeeld TPU test met een gehucht. Dat werkt gewoon nog, maar zodra je die steden gaat opbouwen, dan stort het gewoon helemaal in.
Dan ligt dat dus meer aan de game-engine dan aan FSR, duidelijk. Ik merk dat ik sinds ik Cities Skylines in bepaalde zoom dicht op de stad of juist meer in een panorama-view ook onder de 30 fps duik in 4K terwijl ik in 80% van de gevallen wel gewoon 40 fps haal. Op 1600p was dat vaak nog 80-90 fps.
CPU/GPU bound is en blijft een raar verhaal :)

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:32
zzzzz schreef op dinsdag 22 juni 2021 @ 18:52:
[...]

Bevalt die monitor eigenlijk een beetje? Ik had ook gekeken voordat ik mijn exemplaar kocht, maar vond de Gigabyte toch aan de prijs.
Je zal hopelijk flink profijt kunnen maken van FSR met een dergelijke setup waar 120 fps toch best een uitdaging kan zijn.
Bevalt prima de luxe vooral de HDR dat kán een bak licht geven :) Met mijn setup zijn de framerates dik ok en daarbij is er Adaptive Sync voor het geval het iets lastiger zou worden. Echt een toppertje

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

zzzzz schreef op dinsdag 22 juni 2021 @ 19:01:
[...]

Dan ligt dat dus meer aan de game-engine dan aan FSR, duidelijk. Ik merk dat ik sinds ik Cities Skylines in bepaalde zoom dicht op de stad of juist meer in een panorama-view ook onder de 30 fps duik in 4K terwijl ik in 80% van de gevallen wel gewoon 40 fps haal. Op 1600p was dat vaak nog 80-90 fps.
CPU/GPU bound is en blijft een raar verhaal :)
City Skylines is nog erger dan Anno 1800 als het om CPU bottlenecks gaat. Anno 1800 pretendeert namelijk nog alsof die game meer dan een core aanspreekt. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
In ander nieuws; ik zie dat er nu in de Radeon Software ook opeens een schuifje zit voor SAM onder de naam 'Smart Tool'. Is dat een schepje bovenop de reguliere SAM of kan ik hiermee gewoon kiezen of ik in Windows SAM aan of uit wil?
Het schuifje voor de core-clock gaat ook opeens tot 2800 MHz :X

[ Voor 15% gewijzigd door zzzzz op 22-06-2021 19:17 ]

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Amerikaanse Steve is ook niet eens negatief. :P


Australische Tim vind het ook wel goed.


Technisch is het niet zo goed als DLSS 2.0, maar dat was ook wel verwacht. Het zit gewoon dichtbij en dat is al heel wat. FSR heeft bijvoorbeeld niet de ghosting artifacts, maar neemt wel de zwaktes van de game zelf mee. FSR zit op een iets hogere resolutie waar ze van upscalen, maar het algoritme lijkt efficienter te zijn waardoor de framerate winsten alsnog goed zijn. En voor 4K kan je nog quality gebruiken, maar voor 1440p zit je al meer vast aan ultra quality. 1080p wil gewoon niet omdat je te weinig data hebt. Dat doet DLSS 2.0 weer beter.

Het is een mixed bag dus. Eigenlijk dus erg goed voor een eerste implementatie. Kijken wat ze nu precies gaan doen qua implementatie en of ze nog zaken gaan verbeteren. Ik vraag me bijvoorbeeld nu al af of een circa 85% resolutie i.p.v 77% niet zou helpen voor 1080p en 1440p. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:32
zzzzz schreef op dinsdag 22 juni 2021 @ 19:14:
In ander nieuws; ik zie dat er nu in de Radeon Software ook opeens een schuifje zit voor SAM onder de naam 'Smart Tool'. Is dat een schepje bovenop de reguliere SAM of kan ik hiermee gewoon kiezen of ik in Windows SAM aan of uit wil?
Het schuifje voor de core-clock gaat ook opeens tot 2800 MHz :X
Voor zover ik kan zien is dat als het in de Bios (mag je het zo nog noemen?) aan staat het standaard in de Tool ook aanstaat, maar je wel uit, en later weer aan kunt zetten zonder dat je de bios in moet... Ik kan het mis hebben natuurlijk

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Apoca schreef op dinsdag 22 juni 2021 @ 17:32:
Iemand al ergens een uitwerking van AMD FSR gezien met Raytracing cijfers?
Zelfs de mensen die Godfall testen hebben allemaal RT uitgezet voor hun testen.


****
Digital Foundry review van FSR

YouTube: AMD FidelityFX Super Resolution FSR Review: Big FPS Boosts, But Imag...
Ze hebben veel in de audio geknipt en DLSS vervangen met "competing/other upscaling techiques" :+.
Ik denk dat FSR uiteindelijk beter werkt i.t.t. TAA oplossingen in snelle shooters. Alex van Digital Foundry vergeet even dat snelle bewegingen een nadeel zijn van TAA (en ik denk dat dit probleem alleen maar erger wordt als de delta tussen de frames groter wordt, door een lagere framerate of een te grote beweging).
Naast dat ze erg goede analyses maken blijf ik vinden dat ze iets te groen zijn en vaak negatief naar rood.

Ik vind de analyse van Tim van HardwareUnboxed een stuk uitgebreider en beter, niet omdat hij alleen maar positief is maar hij er een eerlijke vergelijking van maakt voor zover mogelijk. Op 4k lijkt quality en ultra quality goed en op 1440p is ultra quality goed is zijn conclussie en daar kan ik mij in vinden.

[ Voor 0% gewijzigd door Sp3ci3s8472 op 22-06-2021 20:42 . Reden: snelheid -> framerate ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 22 juni 2021 @ 20:37:
[...]


Ze hebben veel in de audio geknipt en DLSS vervangen met "competing/other upscaling techiques" :+.
Ik denk dat FSR uiteindelijk beter werkt i.t.t. TAA oplossingen in snelle shooters. Alex van Digital Foundry vergeet even dat snelle bewegingen een nadeel zijn van TAA (en ik denk dat dit probleem alleen maar erger wordt als de delta tussen de frames groter wordt, door een lagere snelheid of een te grote beweging).
Naast dat ze erg goede analyses maken blijf ik vinden dat ze iets te groen zijn en vaak negatief naar rood.
DF heeft het bij mij een beetje verbruikt met hun overduidelijke, relatief exclusieve reclameaflevering voor de RTX3080. Zeker omdat ze zo Nvidia hun "review guide" volgde waar de resultaten echt niet geoptimaliseerd van waren om de RTX3080 er het best mogelijk eruit te laten komen. Je kan maar een keer je integriteit verkopen. :z

Maar als ik nu begrijp dat TAA wordt geadverteerd als gunstig voor snelle shooters, dan ben ik ook meteen wel klaar. TAA en in het verlengde dus ook DLSS, is daar juist zwak. Dat is een van de meest duidelijk aanwijsbare zwaktes van DLSS.
Ik vind de analyse van Tim van HardwareUnboxed een stuk uitgebreider en beter, niet omdat hij alleen maar positief is maar hij er een eerlijke vergelijking van maakt voor zover mogelijk. Op 4k lijkt quality en ultra quality goed en op 1440p is ultra quality goed is zijn conclussie en daar kan ik mij in vinden.
Ik dus ook. Het is niet perfect, maar het is is goed genoeg. Er moeten gewoon meer games bij en 1080p is het gewoon niet. Dat laatste vind ik nog niet zo erg omdat ik hier simpel redeneer dat als je dit soort technieken nodig hebt op 1080p, je waarschijnlijk naar een nieuwe videokaart zal moeten gaan kijken. Gelukkig gaat crypto de laatste dagen keihard onderuit. :+

Voor 1440p gaat het denk ik nog het meest interessant worden. Want met de sterke opmars van high refresh 1440p IPS panelen, is ghosting door een in game setting ook niet ideaal voor games waar je die frame rates wil hebben. Aan de andere kant is de iets hogere kwaliteit van DLSS beter voor games waar je minder om de frames geeft. Als FSR daar verbeterd, tja dan heb je denk ik een winnaar met zoals het nu staat. Aan de andere kant kan Nvidia weer verder gaan met DLSS om ghosting en andere artefacts tegen te gaan. :)


@Werelds Source code komt halverwege juli. :)
https://gpuopen.com/fidelityfx-superresolution/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op dinsdag 22 juni 2021 @ 20:57:
[...]

DF heeft het bij mij een beetje verbruikt met hun overduidelijke, relatief exclusieve reclameaflevering voor de RTX3080. Zeker omdat ze zo Nvidia hun "review guide" volgde waar de resultaten echt niet geoptimaliseerd van waren om de RTX3080 er het best mogelijk eruit te laten komen. Je kan maar een keer je integriteit verkopen. :z

Maar als ik nu begrijp dat TAA wordt geadverteerd als gunstig voor snelle shooters, dan ben ik ook meteen wel klaar. TAA en in het verlengde dus ook DLSS, is daar juist zwak. Dat is een van de meest duidelijk aanwijsbare zwaktes van DLSS.
Zo ernstig is het ook weer niet. Hij adverteerd niet met snelle shooters en TAA :P. Hij vergeet gewoon alle negatieve dingen van temporal technieken te noemen en noemt alleen maar de positieve. Als je de technieken gaat vergelijken doet het dan op een eerlijke manier.

Ik weet niet of ik het ga gebruiken, mijn kaart is snel genoeg voor wat ik speel en ik zal eerder VSR gebruiken dan FSR ;).

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Mooi. Tegen die tijd eens kijken dan :p

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:51
Nou ja dat het op 1080 niet lekker werkt waar dlss wel werkt is natuurlijk wel de grootste domper. Het overgrote deel van de gamers gamed nog altijd op 1080p en kunnen vaak geen snellere gpu betalen.
Voor het overgrote deel is dlss dus in theorie beter. En ik zeg in theorie omdat ze ook deze gpu's niet kunnen betalen.
Zelf heb ik nog een blower stijl 1070 en ik heb hier zo te zien dis helemaal niets aan en aan dlss ook niet en een zeer groot deel van de gamers heeft een nog slechtere gpu als mijn 1070...

Acties:
  • +1 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-09 18:45

deraco96

Altijd.

Tja, DLSS werkt natuurlijk helemaal niet op low-end / oudere GPUs. FSR lijkt me juist wel handig om toch nog 1440p te kunnen krijgen uit een wat oudere GPU. Ik speel zelf bijvoorbeeld op 3440x1440 en dat is in nieuwere games toch nog best een uitdaging voor de RX 5700 die ik heb, maar als je dan de Ultra Quality of Quality Mode kan gebruiken zit je toch weer aan wat leukere framerates, zonder dat alle grafische instellingen direct weer naar Medium moeten.

Grootste nadeel is natuurlijk de game support, die is nog wel erg mager. Maar dat verbetert hopelijk snel.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 04-10 17:34
Zo te zien heeft AMD nog even post-release een bugfix voor de drivers uitgerold. Ik kreeg de update namelijk ook gewoon doorgespeeld als R9 Fury gebruiker, dus dacht het maar gewoon te installeren en te zien waar het schip strandt.

Afijn ergens werd de installatie afgebroken zonder duidelijke foutmelding en vanochtend viel me op dat het AMD control panel ook niet meer beschikbaar was.

Op AMD even de laatste drivers gedownload, die me vervolgens een Error 182 toonden, helaas. Er wordt dus gewoon even gecontroleerd of je GPU legacy is en indien ja, dan houdt de installatie ook op. De legacy drivers hebben weer daarentegen ook weer een bug in de vorm dat na het installeren van de June-21-Legacy drivers mijn control panel zegt dat ik op de drivers van mei zit (21.5.2) en dat er een update beschikbaar is (21.5.2, van 21-6-2021).

Het is al zuur zat dat de support juist bij de release van een dergelijke feature wordt stopgezet, een feature die zeker uit dergelijke hardware nog wat extra leven kan persen zoals voor de 480/580 te zien is. Dit maakt het vermoeden dat het compleet arbitraire beslissing is zonder enige technische grondslag enkel sterker.

Mocht iemand van een hack weten om die Error 182 te omzijlen, hou ik me aanbevolen ;)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus ik had een ingeving. :P
FSR is een beetje blurry, dus waarom proberen we niet RIS?

Nou:
Ultra, 4xMSAA FSR ultra quality zonder RIS
Afbeeldingslocatie: https://tweakers.net/i/hly7GIcHsCpsPnG-fngjpv4asb8=/800x/filters:strip_icc():strip_exif()/f/image/6UF0QDRPiK15u2S6ogHa0FUJ.jpg?f=fotoalbum_large

Ultra, 4xMSAA FSR ultra quality met default 80% RIS (werkt het beste, 90 en 100 zijn te scherp)
Afbeeldingslocatie: https://tweakers.net/i/mNVNu9o0ORwpwSTQONLk5YZmiOw=/800x/filters:strip_icc():strip_exif()/f/image/MZrNc5tb3s1DudVhglqMcp8o.jpg?f=fotoalbum_large

Het is gewoon wat minder blury en eigenlijk fijner zo.
Serieus AMD, how did you screw this one up? 8)7 _O-

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 23:27
DaniëlWW2 schreef op woensdag 23 juni 2021 @ 15:52:
Dus ik had een ingeving. :P
FSR is een beetje blurry, dus waarom proberen we niet RIS?

Nou:
Ultra, 4xMSAA FSR ultra quality zonder RIS
[Afbeelding]

Ultra, 4xMSAA FSR ultra quality met default 80% RIS (werkt het beste, 90 en 100 zijn te scherp)
[Afbeelding]

Het is gewoon wat minder blury en eigenlijk fijner zo.
Serieus AMD, how did you screw this one up? 8)7 _O-
Heeft dat laatste nog invloed op de fps?

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RobinNL schreef op woensdag 23 juni 2021 @ 16:32:
[...]


Heeft dat laatste nog invloed op de fps?
Niet dat ik zo snel merkte. RIS heeft in het algemeen toch al vrijwel nul impact.
Ik denk dat AMD FSR nog wel kan verbeteren door de sharpening filter aan te passen als ik dit zo zie. Het zijn echt niet de beste screenshots, maar het verschil is duidelijk. In game merk je het meer. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op woensdag 23 juni 2021 @ 15:52:
Dus ik had een ingeving. :P
FSR is een beetje blurry, dus waarom proberen we niet RIS?

Nou:
Ultra, 4xMSAA FSR ultra quality zonder RIS
[Afbeelding]

Ultra, 4xMSAA FSR ultra quality met default 80% RIS (werkt het beste, 90 en 100 zijn te scherp)
[Afbeelding]

Het is gewoon wat minder blury en eigenlijk fijner zo.
Serieus AMD, how did you screw this one up? 8)7 _O-
Dit heef Tim ook gedaan van HU; hij kwam tot de conclussie dat RIS niet FSR kan evenaren wellicht is dit subjectief.

Ik vind de RIS bij jouw te scherp staan en ik zie duidelijk artifacts, het wordt ook op je GUI toegepast wat mij niet handig lijkt. Als je dan toch bezig bent pas dan ook wat RIS toe op de FSR versie :P.

Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
DaniëlWW2 schreef op woensdag 23 juni 2021 @ 16:34:
[...]
Niet dat ik zo snel merkte. RIS heeft in het algemeen toch al vrijwel nul impact.
Ik denk dat AMD FSR nog wel kan verbeteren door de sharpening filter aan te passen als ik dit zo zie. Het zijn echt niet de beste screenshots, maar het verschil is duidelijk. In game merk je het meer. :)
Ik heb RIS ook op 80%, eigenlijk al sinds ik de kaart heb. Ik dacht dat die standaard aan stond lol. Wat dat betreft een aanrader haha

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

computerjunky schreef op dinsdag 22 juni 2021 @ 23:18:
Nou ja dat het op 1080 niet lekker werkt waar dlss wel werkt is natuurlijk wel de grootste domper. Het overgrote deel van de gamers gamed nog altijd op 1080p en kunnen vaak geen snellere gpu betalen.
Voor het overgrote deel is dlss dus in theorie beter. En ik zeg in theorie omdat ze ook deze gpu's niet kunnen betalen.
Zelf heb ik nog een blower stijl 1070 en ik heb hier zo te zien dis helemaal niets aan en aan dlss ook niet en een zeer groot deel van de gamers heeft een nog slechtere gpu als mijn 1070...
Het overgrote deel van de gamers heeft dan ook geen RTX kaart, dus dan is DLSS bij voorbaat al afgeschreven. Dan maakt het minder uit dan FSR minder goed werkt op 1080p.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op woensdag 23 juni 2021 @ 18:05:
[...]


Dit heef Tim ook gedaan van HU; hij kwam tot de conclussie dat RIS niet FSR kan evenaren wellicht is dit subjectief.

Ik vind de RIS bij jouw te scherp staan en ik zie duidelijk artifacts, het wordt ook op je GUI toegepast wat mij niet handig lijkt. Als je dan toch bezig bent pas dan ook wat RIS toe op de FSR versie :P.
Ik zet RIS aan bovenop FSR. ;)
Maar dit was een heel snelle test. Je kan RIS ook verschuiven in game dus ik zal nog wel meer testen. Maar dat het scherper is, blijft staan. Het is voornamelijk het potentieel als dit beter geoptimaliseerd word.

Komt nog eens bij dat er ook al verhalen rondgaan dat FSR implementeren in een game, een kwestie van enkele uren tot twee dagen is. Dat is snel voor de winst die je haalt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 05-10 10:07
RiS is inderdaad een mooie techniek. 30/40 procent ris laat WoW eruit zien als een compleet nieuwe engine. Nou ja, dat mss niet, maar het ziet er heerlijk strak uit met haarscherpe textures.

[ Voor 28% gewijzigd door Visgek82 op 23-06-2021 22:48 ]

Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ondertussen gebeurd er ook iets interessants. Er duiken mods op waar mensen zelf FSR hebben geïmplementeerd in een game. De benodigde bestanden lijken vooralsnog uit andere games gehaald te worden.

Bijvoorbeeld GTA5. :)
https://www.reddit.com/r/...uper_resolution_to_grand/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op donderdag 1 juli 2021 @ 09:28:
Ondertussen gebeurd er ook iets interessants. Er duiken mods op waar mensen zelf FSR hebben geïmplementeerd in een game. De benodigde bestanden lijken vooralsnog uit andere games gehaald te worden.

Bijvoorbeeld GTA5. :)
https://www.reddit.com/r/...uper_resolution_to_grand/
Erg interessant, ik hoop dat de source code snel wordt vrijgegeven en het onderdeel wordt van de andere OSS dingen van AMD.

Ik hou het ondertussen lekker bij native of hoger in resolutie. Resident Evil 2 en 3 remakes max op 6880x2880 (dus 2x native). Met die resolutie is de TAA ook niet storend omdat je nauwelijks ghosting hebt. Zolang mijn kaart het aankan blijf ik dat lekker doen en anders neem ik een nieuwe kaart.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 9 juli 2021 @ 16:42:
[...]


Erg interessant, ik hoop dat de source code snel wordt vrijgegeven en het onderdeel wordt van de andere OSS dingen van AMD.

Ik hou het ondertussen lekker bij native of hoger in resolutie. Resident Evil 2 en 3 remakes max op 6880x2880 (dus 2x native). Met die resolutie is de TAA ook niet storend omdat je nauwelijks ghosting hebt. Zolang mijn kaart het aankan blijf ik dat lekker doen en anders neem ik een nieuwe kaart.
Het zou volgende week zover zijn dat het officieel vrijgeven zal worden. Maar van wat ik had begrepen, is de implementatie makkelijker in games die al iets van resolution scaling ingebouwd hebben.

Verder gebruik het nog steeds met nu 10% RIS in Anno 1800. Ook meteen de enige game die mensen spelen waar het nu in zit. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op vrijdag 9 juli 2021 @ 17:00:
[...]


Het zou volgende week zover zijn dat het officieel vrijgeven zal worden. Maar van wat ik had begrepen, is de implementatie makkelijker in games die al iets van resolution scaling ingebouwd hebben.

Verder gebruik het nog steeds met nu 10% RIS in Anno 1800. Ook meteen de enige game die mensen spelen waar het nu in zit. :P
Dat lijkt me best logisch, het zal waarschijnlijk op hetzelfde punt in de render pipeline kunnen worden opgenomen. Voor of na postprocessing? en voor de UI.

Bij andere spellen is het minder nodig inderdaad.

Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AMD maakt Super Resolution officieel opensource, vier nieuwe games krijgen ondersteuning

AMD noemt ook vier nieuwe games die het vanaf vandaag zullen ondersteunen: Arcadegeddon, Necromunda Hired Gun, Edge of Eternity en Resident Evil Village.

[ Voor 55% gewijzigd door Help!!!! op 16-07-2021 08:26 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Had het gezien, gaat wel even duren eer ik er echt goed doorheen kan spitten. De headers zijn vrij lang :+

Acties:
  • +1 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Video van FSR vs DLSS in de game Necromunda Hired Gun (op een RTX3090).
YouTube: Necromunda Hired Gun AMD FSR VS NVIDIA DLSS 4K | RTX 3090 | Ryzen 9 ...

Performance is vrijwel hetzelfde en visueel zie ik ook geen verschil. Mooie opsteker voor AMD!

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 23:27
zzzzz schreef op zaterdag 17 juli 2021 @ 14:51:
Video van FSR vs DLSS in de game Necromunda Hired Gun (op een RTX3090).
YouTube: Necromunda Hired Gun AMD FSR VS NVIDIA DLSS 4K | RTX 3090 | Ryzen 9 ...

Performance is vrijwel hetzelfde en visueel zie ik ook geen verschil. Mooie opsteker voor AMD!
In andere games zijn wel wat kleine verschillen te zien, in het voordeel van DLSS: https://videocardz.com/ne...n-in-necromunda-hired-gun

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:51
Ik zie bij de shooting range de sparkles toch echt gewoon weg gefilterd worden bij FSR. Ze zijn veel minder aanwezig of gewoon helemaal niet bij een aantal schoten. Dat kan door de andere manier van betwerken of andere omgang met de resolutie of andere manier van resolutie schalen te maken hebben. Ze komen immers niet vanaf dezelfde resolutie.

Hetzelfde is te zien bij de vuurkorf @ 2:40

Dit lijkt toch aan te duiden dat FSR problemen heeft met particles wat erg jammer is en in sommige games zelfs onacceptabel.

(dit is natuurlijk een minder reputabele reviewer maar misschien komen die er nog mee).

Daarnaast blijft het een feit dat FSR nooit beter als native zal worden waar DLSS dat al bewezen heeft wel te kunnen. Dat maakt DLSS waardevoller als je het mij vraagt maar vraagt wel extra silicon wat weer geld kost.

[ Voor 15% gewijzigd door computerjunky op 17-07-2021 21:02 ]


Acties:
  • +5 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
zzzzz schreef op zaterdag 17 juli 2021 @ 14:51:
Video van FSR vs DLSS in de game Necromunda Hired Gun (op een RTX3090).
YouTube: Necromunda Hired Gun AMD FSR VS NVIDIA DLSS 4K | RTX 3090 | Ryzen 9 ...

Performance is vrijwel hetzelfde en visueel zie ik ook geen verschil. Mooie opsteker voor AMD!
Op 4k kan je haast echt niet het verschil zien tussen de twee. DLSS is iets blurrier, maar dat is het.
Op lagere resoluties zal DLSS echt wel het voordeel hebben omdat ze data uit meerdere frames kunnen gebruiken i.c.m. ML.

@computerjunky
Beide technieken zullen nooit beter worden dan native. Punt, het ziet er anders uit maar het zal nooit beter worden. Subjectief kan je het best mooier vinden, maar objectief is het geen native.

De enige keer dat het beter zou zijn dan native is als je het gebruikt voor super sampling, maar nooit als je gaat upscalen. Dus als je een 4k monitor hebt en je rendered met DLSS naar 8k, daarna schaal je weer naar 4k (in feite ben je aan SSAA, VSR/DSR aan het toepassen) dan heb je een beter beeld dan native.
Met nog steeds de zelfde 4k monitor, als je van 2k naar 4k gaat is je beeld niet beter dan native.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Zo te zien is Tim het met mij eens:

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Ik zat een filmpje te kijken van Hardware Unboxed bovenstaand filmpjeover een FSR en DLSS vergelijking.
In dat filmde kreeg ik de indruk dat om FSR te gebruiken je gebruik moet maken van TAA. Klopt dit?
Dit zou voor mij namelijk de techniek onbruikbaar maken, want TAA is voor mij net als bloom, motion blur, chromatic abberation en andere ongein een absolute no-go.

[ Voor 3% gewijzigd door eL_Jay op 22-07-2021 10:22 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ondertussen gebeurd er wel wat.
Navi 23 lijkt toch te komen als desktopchip. Ik blijf het een rare chip vinden met 32CU/128bit en blijkbaar 32MB aan L3 cache. Deze zit toch aardig dicht op Navi 22 behalve dat die 40CU/192bit en 96MB aan L3 cache is. Het verschil zit dus in de cache. Het verschil lijkt te zijn dat deze een fors lagere MSRP gaat krijgen. $350 voor de RX6600XT en $300 voor de RX6600. Gaan we nooit zien bij release, maar toch. Blijkbaar bestaat dit segment toch nog een beetje. :P


Tweede is dat de RDNA3 geruchtenmolen is opgestart. Heel veel onduidelijk, maar van wat ik heb begrepen, lijkt Navi 31 toch verdraaid veel op:

Afbeeldingslocatie: https://tweakers.net/camo/5720051c7a9ee7b1f222ed7a2933cd3baabca8f7/?url=https%3A%2F%2Fcdn.videocardz.com%2F1%2F2021%2F01%2FAMD-GPU-Chiplets-FIG3.png
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

Ja, MCM en Navi 31 zou in totaal 10 x 6 WGPs hebben.

Wij zijn ervan overtuigd dat Navi31 6x10 zal zijn, maar we weten niet hoe het wordt gebouwd.
Navi33 zal in het vierde kwartaal van dit jaar worden uitgebracht.
Let op, de vertaling is krom want het gaat om tape-out. Navi 33 wordt in Q4 verwacht qua tape out, dus reken op vroeg 2023 voor de lancering. Navi 31 zou nog net eind 2022 kunnen halen als ze die eerst lanceren.

Het zou ook een andere opbouw dan RDNA1/2 zijn en er gaan ook al geruchten rond dat de CU helemaal gaat verdwijnen en het aantal ALU's omhoog gaat per WPG. 15,360 ALU's wordt al genoemd waar Navi 21 "maar" 5120 ALU's is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:13
En nog steeds geen nieuws over low-end RDNA2 kaarten (<€250) }:|

Low end is volgens mij helemaal dood omdat die chips gewoon teveel transistoren bevatten om rendabel te kunnen zijn bij lage msrp's.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
NitroX infinity schreef op maandag 26 juli 2021 @ 22:10:
En nog steeds geen nieuws over low-end RDNA2 kaarten (<€250) }:|

Low end is volgens mij helemaal dood omdat die chips gewoon teveel transistoren bevatten om rendabel te kunnen zijn bij lage msrp's.
Ik denk dat als er geen tekorten zouden bij o.a. TSMC zijn dit wel mee zou vallen. Echter doordat 'alles' momenteel toch wel verkocht wordt is er niet veel druk om producten te maken met een lagere marge afgezien van de zaken die je contractueel moet fabriceren (denk bijv. aan console chips die normaliter een relatief lage marge hebben).

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:13
Dennism schreef op dinsdag 27 juli 2021 @ 00:15:
[...]


Ik denk dat als er geen tekorten zouden bij o.a. TSMC zijn dit wel mee zou vallen. Echter doordat 'alles' momenteel toch wel verkocht wordt is er niet veel druk om producten te maken met een lagere marge afgezien van de zaken die je contractueel moet fabriceren (denk bijv. aan console chips die normaliter een relatief lage marge hebben).
Dit was al aan de gang voordat de tekorten waren. Vanaf minimaal 2016 zitten we al met vergelijkbare prestaties voor een vergelijkbare prijs rond de €200 (480 > 580 > 5500 XT). Sterker nog, de 380X zou ook nog enigszins in dat rijtje passen. Vergelijk dat maar eens met het verschil in prestaties in het €450 segment; 390X vs 6700 XT.

Daarnaast presteerde de 5500 XT vergelijkbaar met de 580/590 terwijl deze meer transistoren had. En nu heeft RDNA2 nog meer transistoren door infinity cache.

Overigens begrijp ik dat infinity cache helemaal niet. Het kan niet om geheugenbandbreedte gaan, immers hebben ze daar GDDR6 (vs 5) en HBM voor met deze generaties. Ik kan me niet voorstellen dat een 6700XT of beter, met HBM slechter zou presteren dan met infinity cache en GDDR6.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 19:02
NitroX infinity schreef op dinsdag 27 juli 2021 @ 11:19:
[...]

Overigens begrijp ik dat infinity cache helemaal niet. Het kan niet om geheugenbandbreedte gaan, immers hebben ze daar GDDR6 (vs 5) en HBM voor met deze generaties. Ik kan me niet voorstellen dat een 6700XT of beter, met HBM slechter zou presteren dan met infinity cache en GDDR6.
Er is meer dan alleen puur de prestaties natuurlijk. HBM is peperduur, GDDR6 zit AMD al aan de max qua snelheid en verbruikt aardig wat stroom, GDDR6X is vooralsnog allleen voor nvidia en verbruikt veel stroom.Infinity Cache zou wat dat betreft zuiniger moeten zijn, waardoor er meer budget van het TBP over blijft voor het clocken van de GPU. En daarnaast speelt ook mee dat infinitycache niet op zichzelf staat, het kan ook onderzoek zijn naar de technieken die ze nu willen gaan toepassen op hun CPU's en wellicht was het ook een eerste stap naar het mogelijk maken van chiplets voor de GPU.

Kortom: veel afwegingen, AMD doet vast wat hun het beste lijkt en het meeste voordeel oplevert.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NitroX infinity schreef op dinsdag 27 juli 2021 @ 11:19:
[...]

Dit was al aan de gang voordat de tekorten waren. Vanaf minimaal 2016 zitten we al met vergelijkbare prestaties voor een vergelijkbare prijs rond de €200 (480 > 580 > 5500 XT). Sterker nog, de 380X zou ook nog enigszins in dat rijtje passen. Vergelijk dat maar eens met het verschil in prestaties in het €450 segment; 390X vs 6700 XT.

Daarnaast presteerde de 5500 XT vergelijkbaar met de 580/590 terwijl deze meer transistoren had. En nu heeft RDNA2 nog meer transistoren door infinity cache.
Twee dingen.
-Wafers worden wel echt steeds duurder. Van 16/14nm naar 7nm zou al tweemaal zo duur zijn geweest. 5nm gaat zeker niet goedkoper worden dan 7nm is.
-Mensen kopen massaal Nvidia en blijven dit maar doen. En vervolgens gaan ze massaal hun eigen beslissing lopen verdedigen met een eindeloze serie aan drogredeneringen omdat ze ergens wel weten of kunnen weten dat ze veel te veel hebben betaald. En in die context, hoeft Nvidia de prijzen nooit te verlagen. Want ze maken sinds Pascal echt enorm veel meer winst. En Nvidia zit nog steeds niet op een 7nm klasse node waardoor ze een groter deel van de omzet kunnen houden als winst. En de huidige markt nodigt ze alleen maar uit om het nog duurder te gaan maken. Want veel mensen wensen blijkbaar graag nog veel meer te betalen...
Overigens begrijp ik dat infinity cache helemaal niet. Het kan niet om geheugenbandbreedte gaan, immers hebben ze daar GDDR6 (vs 5) en HBM voor met deze generaties. Ik kan me niet voorstellen dat een 6700XT of beter, met HBM slechter zou presteren dan met infinity cache en GDDR6.
Het gaat om latency en niet geheugenbrandbreedte. Zie het alsof je nu een tweebaansweg hebt waar je 100km/h mag rijden i.p.v. vier banen waar je 50km/h mag rijden. Vergelijkbare capaciteit, maar minder banen nodig.

Het hele punt van die L3 cache is om data dichterbij de rekeneenheden, toegankelijk te maken. Het scheelt ook energie en PCB componenten en dat kan je weer doorrekenen in je ontwerp. Het belangrijkste blijft denk ik alleen RT. Want daarvoor moet je heel wat data verschuiven binnen een GPU. En RDNA2 doet dat eigenlijk heel wat slimmer dan Ampère waar ze echt enorm veel geheugenbrandbreedte en energie verbruikend GDDR6X nodig hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 03-10 19:32
DaniëlWW2 schreef op dinsdag 27 juli 2021 @ 14:28:

-Mensen kopen massaal Nvidia en blijven dit maar doen. En vervolgens gaan ze massaal hun eigen beslissing lopen verdedigen met een eindeloze serie aan drogredeneringen omdat ze ergens wel weten of kunnen weten dat ze veel te veel hebben betaald. En in die context, hoeft Nvidia de prijzen nooit te verlagen. Want ze maken sinds Pascal echt enorm veel meer winst. En Nvidia zit nog steeds niet op een 7nm klasse node waardoor ze een groter deel van de omzet kunnen houden als winst. En de huidige markt nodigt ze alleen maar uit om het nog duurder te gaan maken. Want veel mensen wensen blijkbaar graag nog veel meer te betalen...
Ik vind dit dan wel weer lekker kinderachtig opgeschreven. Zeker voor een moderator. Want ja alle domme mensen kopen immers nvidia voor veels te veel geld ondanks dat ze natuurlijk veel beter af zijn bij jouw merk ?

Hoevaak zie je iemand afgeven op amd in het nvidia topic ?

Ik koop al gpu´s sinds de voodoo 3d kaarten. Ik heb toch wel alle merken en smaakjes gehad. En nvidia is voor mij dan grotendeels de eerste keus geweest door een combinatie van de prestaties en features op zowel software als hardware kant. Dan denk ik bijvoorbeeld aan raytracing/dlss of software als bijvoorbeeld broadcast, studio en reflex. Dat kun jij dan drogredenen noemen, maar wie ben jij om iets te vinden van mijn aankoop eigenlijk ?

Elke launch weer doe ik mijn onderzoek, lees ik de reviews etc etc. En koop ik een kaart. Ik ben blijkbaar iemand die te veel betaald om maar niet het rode kamp te moeten steunen in jouw opinie :+

( Dit is trouwens niet persoonlijk bedoeld hoor, dit topic staat er om bekend. Maar ik blijf het jammer vinden dat het gedaan wordt. Waarom kan ik niet gewoon goede redenen hebben om groen te kopen ? )

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Skybullet schreef op dinsdag 27 juli 2021 @ 14:57:
[...]


Ik vind dit dan wel weer lekker kinderachtig opgeschreven. Zeker voor een moderator. Want ja alle domme mensen kopen immers nvidia voor veels te veel geld ondanks dat ze natuurlijk veel beter af zijn bij jouw merk ?

Hoevaak zie je iemand afgeven op amd in het nvidia topic ?

Ik koop al gpu´s sinds de voodoo 3d kaarten. Ik heb toch wel alle merken en smaakjes gehad. En nvidia is voor mij dan grotendeels de eerste keus geweest door een combinatie van de prestaties en features op zowel software als hardware kant. Dan denk ik bijvoorbeeld aan raytracing/dlss of software als bijvoorbeeld broadcast, studio en reflex. Dat kun jij dan drogredenen noemen, maar wie ben jij om iets te vinden van mijn aankoop eigenlijk ?

Elke launch weer doe ik mijn onderzoek, lees ik de reviews etc etc. En koop ik een kaart. Ik ben blijkbaar iemand die te veel betaald om maar niet het rode kamp te moeten steunen in jouw opinie :+

( Dit is trouwens niet persoonlijk bedoeld hoor, dit topic staat er om bekend. Maar ik blijf het jammer vinden dat het gedaan wordt. Waarom kan ik niet gewoon goede redenen hebben om groen te kopen ? )
En ik vind dit soort reacties dan ook weer, laten we zeggen interessant. Je draagt namelijk helemaal niks bij behalve een ad homoniem op mij. :/

Want gebeurd het dan niet? Ga eens rondkijken of andere fora of helemaal reddit. Mensen hebben niet eens het meest basale idee wat ze kopen en komen met onzinnige drogredeneringen waarom het beter is. DLSS, NVEC of Reflex roepen zijn geen argumenten als je niet begrijpt wat het doet en wat de voor en nadelen zijn. En vaak genoeg kan je gewoon zien dat er een bepaald onbehagen bijzit, gecombineerd met een verstikkende mentaliteit van groepsdenken, ergens bij willen horen en vooral weinig onderbouwing en begrip.

En dat gedrag heeft een naam, Edward Bernays. Google hem maar eens en zijn marketingtechnieken. Dat is wat Nvidia doet. Ze verkopen je geen product dat je nodig hebt. Ze verkopen je een "luxe beleving" en maken actief gebruik van Freud zijn werk om mensen te overtuigen dat alleen hun product het overwegen waard is.

En precies de reactie die je nu zelf geeft dat je in het defensief schiet alsof ik je wil gaan aanvallen om je koopgedrag, is wat er mis is met deze industrie. Het is belachelijk gepolariseerd en daarin gedijt Nvidia het beste met hun marketingmodel, Bernays dus. Want het kan me werkelijk geen ene F schelen wat je koopt. Het interesseert mij dat twee multinationals in een duopolie, je zo kunnen uitzuigen of manipuleren en mensen het blind accepteren of erger nog, massaal verdedigen. Want ik heb er nooit een geheim van gemaakt wat ik van de prijzen van RDNA1/2, Turing of Ampere vind.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 03-10 19:32
DaniëlWW2 schreef op dinsdag 27 juli 2021 @ 15:14:
[...]


En ik vind dit soort reacties dan ook weer, laten we zeggen interessant. Je draagt namelijk helemaal niks bij behalve een ad homoniem op mij. :/

Want gebeurd het dan niet? Ga eens rondkijken of andere fora of helemaal reddit. Mensen hebben niet eens het meest basale idee wat ze kopen en komen met onzinnige drogredeneringen waarom het beter is. DLSS, NVEC of Reflex roepen zijn geen argumenten als je niet begrijpt wat het doet en wat de voor en nadelen zijn. En vaak genoeg kan je gewoon zien dat er een bepaald onbehagen bijzit, gecombineerd met een verstikkende mentaliteit van groepsdenken, ergens bij willen horen en vooral weinig onderbouwing en begrip.

En dat gedrag heeft een naam, Edward Bernays. Google hem maar eens en zijn marketingtechnieken. Dat is wat Nvidia doet. Ze verkopen je geen product dat je nodig hebt. Ze verkopen je een "luxe beleving" en maken actief gebruik van Freud zijn werk om mensen te overtuigen dat alleen hun product het overwegen waard is.

En precies de reactie die je nu zelf geeft dat je in het defensief schiet alsof ik je wil gaan aanvallen om je koopgedrag, is wat er mis is met deze industrie. Het is belachelijk gepolariseerd en daarin gedijt Nvidia het beste met hun marketingmodel, Bernays dus. Want het kan me werkelijk geen ene F schelen wat je koopt. Het interesseert mij dat twee multinationals in een duopolie, je zo kunnen uitzuigen of manipuleren en mensen het blind accepteren of erger nog, massaal verdedigen. Want ik heb er nooit een geheim van gemaakt wat ik van de prijzen van RDNA1/2, Turing of Ampere vind.
Ben wel benieuwd hoe je je eigen reactie dan wel iets ziet bijdragen hier ? Hoe helpt het door hier te zeuren over dat de mensen massaal nvidia kopen "zonder dat ze goed kunnen uitleggen volgens jou waarom" ?

Daarom hield ik het ook persoonlijk, ik gebruik namelijk wel DLSS al sinds het uit kwam, net als reflex en vele anderen tools en technieken. Dat bracht mij nu ook weer op nvidia deze launch en ik ga kijken waar het me in 2022 brengt.

En om ook maar te denken dat nvidia iets anders doet met marketing of aanbieden van producten t.o.v. van een amd is wel heel hypocriet.

Acties:
  • +1 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 23:27
Mensen die Nvidia hebben gehad en geen ervaring hebben met AMD kopen daarom eerder Nvidia, want dat kennen ze (ik denk dat de issues rondom de RX 5000 kaarten ook niet echt hebben geholpen. Als gebruiker wil je gewoon een kaart die goed werkt). AMD is een soort 2e merk, iets wat minder goed is (AMD stond ook niet echt bekend als het merk met de beste videokaarten).

Ik heb het een tijdje terug gevraagd aan vrienden en collega's welke kaart ze zouden kiezen en waarom. Daar kwam vooral het bovenstaande uit. Ik heb hiervoor zelf ook enkel Nvidia videokaarten gehad en aangezien die kaarten altijd goed werkten keek ik eerst ook alleen maar naar Nvidia. Sinds de geruchten van RDNA2 ben ik AMD meer in de gaten gaan houden en door bepaalde redenen (meer VRAM, prestaties tegenover RTX 3080 en RTX 3090, prijs en verkrijgbaarheid) ben ik dit keer voor AMD gegaan.

Hoe het in de toekomst zal verlopen... Geen idee. Het merk met de beste kaart voor een goede prijs zal m'n geld krijgen.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:33

ParaWM

Pro Prutser

Skybullet schreef op dinsdag 27 juli 2021 @ 15:35:
[...]


Ben wel benieuwd hoe je je eigen reactie dan wel iets ziet bijdragen hier ? Hoe helpt het door hier te zeuren over dat de mensen massaal nvidia kopen "zonder dat ze goed kunnen uitleggen volgens jou waarom" ?

Daarom hield ik het ook persoonlijk, ik gebruik namelijk wel DLSS al sinds het uit kwam, net als reflex en vele anderen tools en technieken. Dat bracht mij nu ook weer op nvidia deze launch en ik ga kijken waar het me in 2022 brengt.

En om ook maar te denken dat nvidia iets anders doet met marketing of aanbieden van producten t.o.v. van een amd is wel heel hypocriet.
Waarom voel je je zo aangevallen, nergens voor nodig, het gaat (blijkbaar) niet over jou. Het betoog is inhoudelijk en daar kun je een mening over hebben. Ben het er wel mee eens. Er zijn veel mensen die, zeker als ze 1080 of 1440 gamen, veel beter een 6800xt hadden kunnen kopen ipv een 3080. Maar de mindshear van kamp groen is groot. En de marketing tussen de twee is absoluut heel anders. Die stelling hypocriet noemen gaat nergens over en is weer persoonlijk om niets.

(Voor de goede orde, heb ook een 3080. Game op 1440 uw, maar was meer timing, prijs/ beschikbaarheid)

[ Voor 4% gewijzigd door ParaWM op 27-07-2021 16:32 ]

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:33

ParaWM

Pro Prutser

.

[ Voor 99% gewijzigd door ParaWM op 27-07-2021 16:30 ]

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:33

ParaWM

Pro Prutser

.

[ Voor 99% gewijzigd door ParaWM op 27-07-2021 16:30 ]

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 03-10 19:32
ParaWM schreef op dinsdag 27 juli 2021 @ 16:26:
Er zijn veel mensen die, zeker als ze 1080 of 1440 gamen, veel beter een 6800xt hadden kunnen kopen ipv een 3080. Maar de mindshear van kamp groen is groot.
En dit is gebaseerd op ? Prijs/performance ? Onderbuik gevoel ?

Kan het ook zo zijn dat iemand één of meedere voor hem/haar zeer valide redenen heeft om nvidia boven amd te kiezen zelfs al verslaat dat voor jou alle logica ?

Of dat nu naamsbekendheid is, persoonlijke ervaring (positief of negatief), geleverde prestaties, exclusieve features, beter uitgevoerde/geïmplementeerde features, mooier design etcetc.. who cares ? Waarom wordt het dan (vaak) hier met zon vervelende fanboisme instelling veroordeeld.

Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:33

ParaWM

Pro Prutser

Skybullet schreef op dinsdag 27 juli 2021 @ 19:42:
[...]

Onderbuik gevoel ? .....zelfs al verslaat dat voor jou alle logica ?.....Waarom wordt het dan (vaak) hier met zon vervelende fanboisme instelling veroordeeld.
Goed, nog één shot dan. Ik zit op vakantie adres op m'n mobiel, dus helaas geen mooie volzinnen en links van bronnen. Moet maar even op m'n blauwe ogen enzo. Om met dat laatste te beginnen, dat gebeurd inderdaad en is vaak niet terecht. Het komt deels voort uit een massa die niet altijd goed nadenkt of gedetailleerd op zoek gaat naar wat het beste is. Zal niet het tweakers publiek zijn meestal, of jij misschien, maar gebeurd veel.

Di eerste twee comments zijn weer persoonlijke kwalificaties... Ik heb meerdere 3080s en 6800xt's, plus één 6900xt in m'n pc gehad de laatste 9 maanden en veel te veel tijd aan benchmarks en games besteed. Ook net als veel hier volg ik de bekende en minder bekende YT kanalen. Mening dus op cijfertjes gebaseerd. Natuurlijk is de 3080 een goede kaart en zijn er zat redenen om daar voor te gaan, maar er zijn er ook zat om voor de 6800xt te gaan. Ik ga ze niet allemaal uittikken, maar je weet ze zelf ook wel misschien. Objectief is de XT een hele goede kaart, zeker op genoemde resoluties. In sommige games is hij zelfs een heel stuk sneller. Ik denk als laatste dat heel veel mensen veel van die "features" helemaal nooit gebruiken, net als ikzelf.

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:51
Nvidia heeft gewoon duidelijke voordelen. Ik heb nu een 6900 XT maar had liever een 3080 gehad vanwege Nvenc , RTX voice, DLSS en betere ray tracing en na wat ervaring nu met radeon drivers de drivers en algehele ervaring die ik bij nvidia toch beter vind. En dat ondanks dat ik NUL interesse heb in 4k gaming waar nvidia gewoon beter is.

Voor mij is die featureset die meerprijs het gewoon wel waard. Desondanks ben ik blij dat ik eindelijk kan gamen met een AMD kaart. maar als ik de kans zie gaat deze eruit en komt er een nvidia terug. Maar dat is waarschijnlijk pas bij de 4xxx serie.

Wat beter is verschilt voor iedereen omdat iedereen wat anders doet of iets wel of niet doet. De extra cpu load die ik met een 6900XT met streaming heb is gewoon niet best en gaat bij sommige games gewoon problemen opleveren of ik moet flink in stream kwaliteit naar benden.

Maar als je niets streamed en geen van de andere features boeiend vind en wat driver irritaties niet erg vid waarom zou je dan meer betalen. Daarnaast heeft de AMD kaart waarschijnlijk een langere levensduur door het geheugen maarja zo lang gebruik ik een kaart meestal toch niet. Mijn kaart word in een normale wereld vervangen tot ik games niet meer native op max settings kan spelen (- blur en die troep) .

Acties:
  • +1 Henk 'm!

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
ParaWM schreef op dinsdag 27 juli 2021 @ 16:26:
[...]

Waarom voel je je zo aangevallen, nergens voor nodig, het gaat (blijkbaar) niet over jou. Het betoog is inhoudelijk en daar kun je een mening over hebben. Ben het er wel mee eens. Er zijn veel mensen die, zeker als ze 1080 of 1440 gamen, veel beter een 6800xt hadden kunnen kopen ipv een 3080. Maar de mindshear van kamp groen is groot. En de marketing tussen de twee is absoluut heel anders. Die stelling hypocriet noemen gaat nergens over en is weer persoonlijk om niets.

(Voor de goede orde, heb ook een 3080. Game op 1440 uw, maar was meer timing, prijs/ beschikbaarheid)
Ligt er helemaal wat die mensen willen dus een betere koop is er gewoon niet.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

Denk dat probleem nu is dat de algehele G-kaart consumenten genaaid zijn door consumenten die gretig die idioot hogere meerprijs gewoon neer dokken en dus signaal geven aan nV en co, dat zie iets verkeerd doen ze vragen de afgelopen jaren te weinig. Tenzij je echt zo kreng nodig hebt voor thuis werken. Maar dat kon ook met APU mini PC. Als kaart voor dubbel MSRP betaald dan is er iets mis.

Zelf denk ik dat infinity cache de missing link is wat SLI XF naar verleden stuurt. En dat je nu GPU chiplet kan koppelen doormiddel van dat infinity cache en je resources dubbel moet gaan bufferen.
Shader power factor 3x is is flinke stap goed mogelijk ik hoop dat Navi31 het waar gaat maken 3x de performance van een Navi21

Er komt bij mij RX4xxx (XT) om vega 56 te vervangen geen haast kan ook eind 2022 of begin 2023

Die chiplet is de toekomst voor CPU GPU APU

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Wat is er nu zo speciaal aan dat NVEnc? Ik gebruik de video encoding en decoding van mijn 6900XT en pas bij 5 streams (OBS) op 1080p begint het hij het te voelen en ga ik het merken tijdens gamen.
Daarnaast wordt Reflex genoemd, AMD heeft zijn eigen tegenhanger (Radeon Anti Lag) en was daar toch eerder mee? In de tijd dat AMD meer geld had liepen ze vaak voor op features. Om een aantal te noemen Tesselation, Eyefinity en Radeon Chill. Zeker voor het laatste heb ik nog geen Nvidia tegenhanger gezien, en kom niet met een domme statische fps limiter want dat is het niet.
Noise cancellation zit in zoveel software dat het echt niet interessant is; het is nu niet echt iets waar ik naar kijk als ik een videokaart koop (heeft er vrij weinig mee te maken).

RT is zeker een leuke feature, maar ik ben nog steeds van mening dat de meeste kaarten er te zwak voor zijn en dat we nog een generatie moeten wachten. Het lijstje met echt goede implementaties is nog best klein de enhanced editie van Metro is tot nu toe de beste implementatie die ik heb gezien.

Het is jammer dat Nvidia alles closed source maakt en een gesloten mentaliteit heeft. Dat weegt bij mij zwaar mee bij het kopen van een kaart. Voor werk heb ik moet ik wel een Nvidia kaart omdat ML gewoon beter werkt.

Acties:
  • 0 Henk 'm!

  • Postman
  • Registratie: Februari 2000
  • Laatst online: 26-09 12:50
Sp3ci3s8472 schreef op vrijdag 30 juli 2021 @ 01:39:
Wat is er nu zo speciaal aan dat NVEnc? Ik gebruik de video encoding en decoding van mijn 6900XT en pas bij 5 streams (OBS) op 1080p begint het hij het te voelen en ga ik het merken tijdens gamen.
Daarnaast wordt Reflex genoemd, AMD heeft zijn eigen tegenhanger (Radeon Anti Lag) en was daar toch eerder mee? In de tijd dat AMD meer geld had liepen ze vaak voor op features. Om een aantal te noemen Tesselation, Eyefinity en Radeon Chill. Zeker voor het laatste heb ik nog geen Nvidia tegenhanger gezien, en kom niet met een domme statische fps limiter want dat is het niet.
Noise cancellation zit in zoveel software dat het echt niet interessant is; het is nu niet echt iets waar ik naar kijk als ik een videokaart koop (heeft er vrij weinig mee te maken).

RT is zeker een leuke feature, maar ik ben nog steeds van mening dat de meeste kaarten er te zwak voor zijn en dat we nog een generatie moeten wachten. Het lijstje met echt goede implementaties is nog best klein de enhanced editie van Metro is tot nu toe de beste implementatie die ik heb gezien.

Het is jammer dat Nvidia alles closed source maakt en een gesloten mentaliteit heeft. Dat weegt bij mij zwaar mee bij het kopen van een kaart. Voor werk heb ik moet ik wel een Nvidia kaart omdat ML gewoon beter werkt.
Was het niet dat NVenc voor bepaalde platformen en resoluties de enige oplossing is? Dacht dat het daarom zo populair is.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Postman schreef op vrijdag 30 juli 2021 @ 01:47:
[...]

Was het niet dat NVenc voor bepaalde platformen en resoluties de enige oplossing is? Dacht dat het daarom zo populair is.
Dat zou best kunnen. Bij AMD is het duidelijk dat ze vooral veel ontwikkeltijd in H265 hebben gestopt want die is volgens een review haast gelijkwaardig aan wat Nvidia te bieden heeft.
Los daarvan, ik zou NVEnc of de AMD tegenhanger alleen overwegen op een trage machine; ik heb nu 16c/32t dus als het op de cpu moet zodat ik betere kwaliteit krijg dan doe ik dat wel. Dit kan ook prima op 8c/16t, heb je echt geen 16 core voor nodig.

Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
eL_Jay schreef op donderdag 22 juli 2021 @ 10:21:
Ik zat een filmpje te kijken van Hardware Unboxed bovenstaand filmpjeover een FSR en DLSS vergelijking.
In dat filmde kreeg ik de indruk dat om FSR te gebruiken je gebruik moet maken van TAA. Klopt dit?
Dit zou voor mij namelijk de techniek onbruikbaar maken, want TAA is voor mij net als bloom, motion blur, chromatic abberation en andere ongein een absolute no-go.
Juist niet het is een spatial techniek, niet temporal. DLSS is temporal en heeft dus ook ghosting net zoals TAA.
Dus DLSS is voor jou onbruikbaar, niet FSR en als je als DLSS gebruikt dan heb je er blijkbaar toch minder last van dan je denk :+.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Hah kijk iemand heeft het getest wat ik voorstelde, dus FSR +DSR/VSR gebruiken als goedkope AA! Het is wel op een lagere resolutie (namelijk 1080p):
https://www.reddit.com/r/...per_resolution_or_nvidia/

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 00:14
Bedankt, dat is interessant vergelijkingsmateriaal.

Ik vind het toch wel ironisch wanneer er gesproken wordt over 'better image quality then native', terwijl de resolutie met een factor 1.78x is opgeschaald..vergelijk dat dan niet met 1080p maar de hogere resolutie zonder opsmuk.

Wanneer je van 2160P naar 1080P downscaled, met 2:1 pixel mapping, dan spreek je ook niet over "worse then native" Logisch dat 1080P er dan minder scherp uitziet..

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Ja ondanks dat ik een lichte voorkeur voor nVidia heb, ben ik toch wel om: FSR is vanwege het open source en universele karakter superieur aan DLSS. Ik heb een video gezien waar een 50€ kostende Athlon 3000 APU met een brakke Vega 3 icm FSR prima moderne, zware spellen zoals Resident Evil 7 gewoon op 1080p@30fps kunnen draaien. Ik vind dat geweldig!

Dat FSR ook wordt ingebouwd in open source projecten zoals RPCS3 en Valve's SteamOS Game Scope maakt dat het veel bruikbaarder is dan DLSS.

Natuurlijk is een groot verschil tussen DLSS en FSR is het component van hardwarematige versnelling anders is. Waar FSR volgens mij dus gebruik maakt van de shaders zelf, draait DLSS op de Tensor cores van nVidia. Daardoor heeft nVidia alsog meer shaders beschikbaar. Edit: Kan zijn dat ik er naast zit, waarschijnlijk draait het op CPU?

Zou je FSR kunnen omschrijven zodat het op de RT/Tensor cores kan draaien? Dan heb je best of both worlds :)

[ Voor 10% gewijzigd door XanderDrake op 09-08-2021 11:06 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
XanderDrake schreef op maandag 9 augustus 2021 @ 09:46:
Natuurlijk is een groot verschil tussen DLSS en FSR is het component van hardwarematige versnelling anders is. Waar FSR volgens mij dus gebruik maakt van de shaders zelf, draait een deel van DLSS op de Tensor shaders van nVidia. Daardoor heeft nVidia alsog meer shaders beschikbaar. Edit: Kan zijn dat ik er naast zit, waarschijnlijk draait het op CPU?
FTFY ;)
Zou je FSR kunnen omschrijven zodat het op de RT/Tensor cores kan draaien? Dan heb je best of both worlds :)
Sidenote: de RT en tensor cores zijn aparte units ;)

De tensor cores zijn geen magisch stuk hardware dat zomaar "DL kan toepassen". Ik heb op de FP ook wel opmerkingen gezien dat DLSS "in hardware" gedaan zou worden, in de zin dat er een vast stuk hardware is wat dat doet. Onzin natuurlijk. Nvidia's tensor cores zijn matrix rekenmachines. Het is een beetje cru om het zo te stellen, maar daar komt het wel op neer. Ze krijgen input, verwerken die, en produceren output. Net als alle SP's/CUDA cores. Het verschil zit hem in de in- en output. In ML/DL heb je veel te maken met matrices, dus dan kan een TC zo'n op in slechts één kloktik verwerken, waar dat op traditionele SP's soms wel tientallen tikken nodig kan hebben.

Maar als je de input niet hebt, kun je er ook niets mee. Met "best of both worlds" denk ik dat jij iets bedoelt in de richting van EASU (de upscaler van FSR) in combinatie met de reconstructie van het DL-deel van DLSS? Dat vereist nog steeds het neurale netwerk dat in Nvidia's driver gebakken zit ;)

Er zitten in FSR als geheel wel een klein aantal stappen waar je misschien iets versnelling zou krijgen, maar ik geloof niet dat het veel uit zou maken. AMD heeft FSR specifiek ontworpen op lower-end hardware te werken. Uiteraard ook gericht op hun eigen kracht, namelijk de flexibiliteit van hun architecturen en bloedsnelle FP16. Maar dat werkt allemaal ook op Nvidia en er zit een FP32 fallback in (die overigens op Ampère ook nodig is, door een bug aan Nvidia's kant klopt de FP16 output niet; Turing werkt wel :+).

FSR en DLSS bestaan allebei uit meerdere stappen. FSR draait geheel op shaders, DLSS slechts deels. Het deel van DLSS dat op de tensor cores draait is het toepassen van het netwerk op het input image, er zit echter ook gewoon een groot deel van TAA in dat niet op de tensor cores draait. En er zit net als bij AMD een sharpener in - die zou misschien in elk geval deels op de TC kunnen draaien, maar zonder bron code weten we dat niet.

Het mooiste is dat er nu gewoon opties zijn. FSR is vrij beschikbaar, wat als gevolg heeft dat er nu al allerlei toepassingen zijn door middel van injection. Er is bijvoorbeeld een vervangende openvr.dll beschikbaar waar FSR in zit. Tegelijkertijd is DLSS nu ook beschikbaar voor iedereen. Het is nog steeds een blob, maar je hoeft nu niet meer eerst lief aan Nvidia te vragen of je het mag gebruiken :P


Edit: ik wilde overigens ook nog even zeggen dat álles "op de CPU" draait :P

Vooral bij Nvidia gebeurt er bizar veel in de driver en dat draait gewoon allemaal op je CPU. Het voorbereiden van alle input gebeurt gewoon op de CPU, het is enkel het rekenwerk dat op de GPU gebeurt. We hebben tegenwoordig maar heel weinig fixed-function hardware in GPU's en dat moet allemaal ergens aangedreven worden. Bij AMD is het iets minder, omdat zij een aantal draw calls hebben die de ACE vervolgens zelf waar nodig splitst en naar de juiste units stuurt, maar ook daar is het uiteindelijk de CPU die er voor zorgt dat de juiste input naar de GPU gaat, de juiste instructies uitgevoerd worden en de output vervolgens weer gebruikt (vaak ook weer als input ;)).

[ Voor 10% gewijzigd door Werelds op 09-08-2021 11:14 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
CMT schreef op maandag 9 augustus 2021 @ 09:07:
Bedankt, dat is interessant vergelijkingsmateriaal.

Ik vind het toch wel ironisch wanneer er gesproken wordt over 'better image quality then native', terwijl de resolutie met een factor 1.78x is opgeschaald..vergelijk dat dan niet met 1080p maar de hogere resolutie zonder opsmuk.

Wanneer je van 2160P naar 1080P downscaled, met 2:1 pixel mapping, dan spreek je ook niet over "worse then native" Logisch dat 1080P er dan minder scherp uitziet..
Maar dat is niet het doel, je hebt immers maar 1920x1080 aan pixels, niet meer. Het is dus eigenlijk een goekopere manier van Supersampling AA die je toepast. Het kan er daardoor beter uitzien dan native 1080p.

Met punt twee heb je gelijk, al moet ik eerlijk bekennen dat je dit in games (en op hoge resoluties) veel minder ziet. Bijvoorbeeld, ik speel Resident Evil 2 en 3 remake op 6880x2880 wat prima draait (niet gemeten maar eigenlijk altijd 70+), maar als ik op de achtergrond wat dingen doe zoals video processing dan moet ik toch terug naar iets lager omdat het videogeheugen moeilijk doet :P. Zelfs op 150% van 3440x1440 ziet het er niet blurry uit, het is inderdaad niet zo scherp als 200% maar dat merk je nauwelijks tijdens het gamen.
Op resoluties zoals 1080p zal het waarschijnlijk meer gaan meespelen hoewel ik nog steeds het argument maak dat het in games minder opvalt dan in een browser of ander programma met een focus op tekst.

Acties:
  • +2 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Werelds schreef op maandag 9 augustus 2021 @ 11:10:
Het mooiste is dat er nu gewoon opties zijn. FSR is vrij beschikbaar, wat als gevolg heeft dat er nu al allerlei toepassingen zijn door middel van injection. Er is bijvoorbeeld een vervangende openvr.dll beschikbaar waar FSR in zit. Tegelijkertijd is DLSS nu ook beschikbaar voor iedereen. Het is nog steeds een blob, maar je hoeft nu niet meer eerst lief aan Nvidia te vragen of je het mag gebruiken :P
Wederom bedankt voor de gedetailleerde uitleg. Ik heb nog eens naar dat openVR.dll ding gekeken en WOW wat is deze! Game changer!



Holy shit. Vanwege het karakter van VR games (fast paced, veel beweging, ietwat waziger door de lenzen, hogere resoluties van bijv. de Index) is dit een perfecte use-case voor FSR. En het werkt vrolijk op oudere hardware _/-\o_
Flink wat meer frames per seconde bij de meeste games in VR, door simpelweg een dll te vervangen!

Ware het dat ik nu net met Squadrons bezig ben, een game die niet werkt met de dll, anders was ik vandaag al begonnen met te testen!

FSR>DLSS.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
XanderDrake schreef op maandag 9 augustus 2021 @ 13:37:
[...]

Wederom bedankt voor de gedetailleerde uitleg. Ik heb nog eens naar dat openVR.dll ding en WOW wat is deze! Game changer!

[YouTube: PC VR's BIGGEST Innovation | Boost Framerates Immensely!]

Holy shit. Vanwege het karakter van VR games (fast paced, veel beweging, ietwat waziger door de lenzen, hogere resoluties van bijv. de Index) is dit een perfecte use-case voor FSR. En het werkt vrolijk op oudere hardware _/-\o_
Flink wat meer frames per seconde bij de meeste games in VR, door simpelweg een dll te vervangen!
Yep :)

Dit is waarom ik FSR veel boeiender vind dan DLSS. Door de open aard is het gewoon heel boeiend voor dit soort toepassingen. Daar komt bij dat DLSS het dankzij de temporele component (75% van wat TAA is) moeilijk heeft met hoge framerates, wat juist in VR extreem belangrijk is. En daar komt bij dat het ook nog eens fors minder rekentijd kost; DLSS kost al heel gauw 1-1,5ms, terwijl FSR rond pakweg een halve milliseconde hangt op een degelijke GPU. Dat is op 90 Hz al meteen >10% van je frametime budget en wederom is het in VR duizend keer belangrijker dat je frames constant zijn :P

Ik heb nog geen tijd gehad om de DLL in een game te vervangen, maar ik ben het wel van plan. De 1080 Ti houdt het in de meeste games goed bij, maar er zijn ook gevallen waar ik de resolutie slider nu iets omlaag heb getrokken (Index), wat je weldegelijk ziet.
Ware het dat ik nu net met Squadrons bezig ben, een game die niet werkt met de dll, anders was ik vandaag al begonnen met te testen!
offtopic:
Leuk spel ;)

Niet zo heel lang (14 missies), maar om me heen kijken in een X-Wing maakte me stiekem even 7 jaar oud. Met een grijns die niet meer op m'n gezicht pastte :+

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Werelds schreef op maandag 9 augustus 2021 @ 14:11:
Ik heb nog geen tijd gehad om de DLL in een game te vervangen, maar ik ben het wel van plan. De 1080 Ti houdt het in de meeste games goed bij, maar er zijn ook gevallen waar ik de resolutie slider nu iets omlaag heb getrokken (Index), wat je weldegelijk ziet.
Inderdaad. En in spellen waar mijn 1080 Ti het al prima doet, kan je ook kiezen voor super sampling van een nog hogere resolutie dan de Index native resolutie. De opties zijn eindeloos. Zelfs VRChat wordt er soepel van 8)7

Ik heb mijn post tevens in het VR topic gezet en mensen zijn daar ook enthousiast.
offtopic:
Leuk spel ;)

Niet zo heel lang (14 missies), maar om me heen kijken in een X-Wing maakte me stiekem even 7 jaar oud. Met een grijns die niet meer op m'n gezicht pastte :+
offtopic:
Je hebt ook de multiplayer he :D
Speel jij het ook met een joystick?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
XanderDrake schreef op maandag 9 augustus 2021 @ 15:00:
Inderdaad. En in spellen waar mijn 1080 Ti het al prima doet, kan je ook kiezen voor super sampling van een nog hogere resolutie dan de Index native resolutie. De opties zijn eindeloos. Zelfs VRChat wordt er soepel van 8)7

Ik heb mijn post tevens in het VR topic gezet en mensen zijn daar ook enthousiast.
Yep, dat ben ik ook van plan. Het is dat ik Elite er inmiddels af heb gegooid, maar dat zou een perfecte kandidaat voor supersampling zijn. Heb daar nooit framerate problemen in gehad, hoewel 150% of 200% scale waarschijnlijk wél voor problemen gezorgd zou hebben.
offtopic:
Je hebt ook de multiplayer he :D
Speel jij het ook met een joystick?
offtopic:
Heb de multiplayer niet eens geprobeerd, enkel de singleplayer :p

Wel met HOTAS ja. Hoewel ik vermoed dat het met een gamepad ook al leuk geweest zou zijn.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
XanderDrake schreef op maandag 9 augustus 2021 @ 13:37:
[...]

Wederom bedankt voor de gedetailleerde uitleg. Ik heb nog eens naar dat openVR.dll ding en WOW wat is deze! Game changer!

[YouTube: PC VR's BIGGEST Innovation | Boost Framerates Immensely!]

Holy shit. Vanwege het karakter van VR games (fast paced, veel beweging, ietwat waziger door de lenzen, hogere resoluties van bijv. de Index) is dit een perfecte use-case voor FSR. En het werkt vrolijk op oudere hardware _/-\o_
Flink wat meer frames per seconde bij de meeste games in VR, door simpelweg een dll te vervangen!

Ware het dat ik nu net met Squadrons bezig ben, een game die niet werkt met de dll, anders was ik vandaag al begonnen met te testen!

FSR>DLSS.
Tof om te zien hoe het opensource gedeelte er voor zorgt dat dit door iedereen nu al gebruikt wordt :D.
Met VR is het inderdaad een grote toevoeging, op lage resoluties zou ik FSR waardeloos noemen maar gezien VR van hoge resoluties gebruik maakt is het ideaal.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit is dus ook precies waarom ik soms wat liep te mopperen over DLSS.
Het is uiteindelijk leuk en aardig wat ze ermee kunnen en het is in statische weergave, zeker als je met een 1080p scherm werkt, ook iets beter dan FSR. Maar het grote verschil is dat FSR niet vendor of zelfs hardware locked is. Het werkt op zo ongeveer alles en het lijkt zeer simpel toe te passen zijn door een developer zonder grote nadelige effecten.

Wat er ondertussen ook gebeurd is dat mensen steeds verder gaan met zelf experimenteren om FSR implementeren in games die het niet ondersteunen. Zo is er bijvoorbeeld nu al even een halfbakken FSR implementatie in RDR2 die nu wel DLSS kreeg, maar geen FSR. Nu alleen nog voor Linux en naar wat ik begrijp, ook niet op het ideale punt in de pipeline toegepast, maar het resultaat is echt niet slecht terwijl je wel flink wat framerate wint.


https://www.reddit.com/r/...elityfx_super_resolution/

En ik denk dat het de komende maanden zo nog wel even door zal gaan. Maar uiteindelijk denk ik dat niks dit meer gaat stoppen als defacto standaard. Het lijkt te makkelijk te implementeren te zijn en te goed te werken om nog te negeren. En daarnaast kan DLSS bestaan, maar die extra waarde gaat zo wel erg snel verdampen. Want zoveel beter is het namelijk niet en waar het beter is, is ook afhankelijk van omstandigheden. Voor shooters of VR bijvoorbeeld al helemaal niet.

Komt bij dat FSR pas aan haar beginpunt zit. Wat ik heb bijvoorbeeld nog steeds 10% RIS bovenop FSR ingesteld voor ANNO 1800 omdat het anders net niet scherp genoeg is. En bij andere experimenten zie ik weer dat het soms te scherp is met FSR. Wat je eigenlijk nodig hebt bij FSR is een sharpening slider of de developer die wat extra tijd besteed aan dit optimaliseren. Maar dat zegt eigenlijk ook al genoeg dat er nog iets meer in kan zitten met een simpele aanpassing. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou de RX6600XT is er, geweldig. :z

Komt neer op ongeveer RX5700XT/RTX2070S niveau op 1080p, zakt al weg op 1440p en op 4K is het meer RX5700/RTX2060S niveau. Dit kost officieel $379 wat een totale grap is gezien de RTX3060Ti op officieel $399. RT is natuurlijk ook minder dan de RTX3060Ti, maar mijn eerste indruk is dat het gat beduidend groter is dan bijvoorbeeld RX6700XT vs RTX3070 of RX6800XT vs RTX3080. Veel minder L3 cache zou dat kunnen verklaren, maar hier moet ik nog goed naar kijken of het echt veel groter is.

En dan is er ook nog de beperking van maar x8 PCI-E lanes wat een probleem kan worden als je nog met een 3.0 slot zit. Verschilt per game, maar het is toch vaak wel iets minder dan als je met een 4.0 slot zit. Het enige positieve is dat deze wel efficiënter is qua verbruik.

Onder de streep is dit misschien wel erger dan de RTX3070Ti launch, en dat was al heel erg slecht in een toch al miserabele generatie. Ergens is het indrukwekkend hoe slecht dit is. Net zoals de RX5500XT, een hopeloze "budget optie" van AMD voor $380, maar in de praktijk natuurlijk veel meer dan dit...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op dinsdag 10 augustus 2021 @ 17:13:
Nou de RX6600XT is er, geweldig. :z

Komt neer op ongeveer RX5700XT/RTX2070S niveau op 1080p, zakt al weg op 1440p en op 4K is het meer RX5700/RTX2060S niveau. Dit kost officieel $379 wat een totale grap is gezien de RTX3060Ti op officieel $399. RT is natuurlijk ook minder dan de RTX3060Ti, maar mijn eerste indruk is dat het gat beduidend groter is dan bijvoorbeeld RX6700XT vs RTX3070 of RX6800XT vs RTX3080. Veel minder L3 cache zou dat kunnen verklaren, maar hier moet ik nog goed naar kijken of het echt veel groter is.

En dan is er ook nog de beperking van maar x8 PCI-E lanes wat een probleem kan worden als je nog met een 3.0 slot zit. Verschilt per game, maar het is toch vaak wel iets minder dan als je met een 4.0 slot zit. Het enige positieve is dat deze wel efficiënter is qua verbruik.

Onder de streep is dit misschien wel erger dan de RTX3070Ti launch, en dat was al heel erg slecht in een toch al miserabele generatie. Ergens is het indrukwekkend hoe slecht dit is. Net zoals de RX5500XT, een hopeloze "budget optie" van AMD voor $380, maar in de praktijk natuurlijk veel meer dan dit...
Ik denk echt niet dat PCI-E 8x iets gaat uitmaken met die kaart. Te traag en door IF cache heb je dit waarschijnlijk veel minder nodig.
Zie ook: https://www.techpowerup.c...i-express-scaling/27.html

Laat niet weg dat dit best bedroefend is. Een kaart die iets minder bij launch kost als een 5700 XT.....

[ Voor 3% gewijzigd door Sp3ci3s8472 op 10-08-2021 19:48 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 10 augustus 2021 @ 19:45:
[...]


Ik denk echt niet dat PCI-E 8x iets gaat uitmaken met die kaart. Te traag en door IF cache heb je dit waarschijnlijk veel minder nodig.
Zie ook: https://www.techpowerup.c...i-express-scaling/27.html

Laat niet weg dat dit best bedroefend is. Een kaart die iets minder bij launch kost als een 5700 XT.....
Het is geen speculatie, het gebeurd al. ;)


Maar dit is dan Navi 23. Toen deze een jaar geleden op de radar verscheen, vond ik het al een rare chip. 32 om 40CU's voor Navi 22 was gewoon niet logisch. Nu weten we dat het veel minder L3 cache en een 128 bit bus i.p.v. 192 bit is. Oppervlakte is 335mm² om 237mm².

Dit gaat alleen wel ten koste van heel wat prestaties. Bij mij roept dit inmiddels ook de vraag op of dit wel kostenefficiënt is, in een hypothetische scenario waar de videokaart markt niet compleet de nek om gedraaid zou zijn. Want ik zie werkelijk het punt niet van deze configuratie over een cut down Navi 22 als "RX6700" en dan een kleinere configuratie voor een hypothetische beter passende Navi 23. Want uiteindelijk denk ik dat een cut down Navi 22, ook veel beter zou concurreren met de RTX3060Ti dan dit ding.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op dinsdag 10 augustus 2021 @ 20:27:
[...]


Het is geen speculatie, het gebeurd al. ;)
[YouTube: AMD Radeon RX 6600 XT Review: Worse Than Expected, But Can It Be Saved?]

Maar dit is dan Navi 23. Toen deze een jaar geleden op de radar verscheen, vond ik het al een rare chip. 32 om 40CU's voor Navi 22 was gewoon niet logisch. Nu weten we dat het veel minder L3 cache en een 128 bit bus i.p.v. 192 bit is. Oppervlakte is 335mm² om 237mm².

Dit gaat alleen wel ten koste van heel wat prestaties. Bij bij roept dit inmiddels ook de vraag op of dit wel kostenefficiënt is, in een hypothetische scenario waar de videokaart markt niet compleet de nek om gedraaid zou zijn. Want ik zie werkelijk het punt niet van deze configuratie over een cut down Navi 22 als "RX6700" en dan een kleinere configuratie voor een hypothetische beter passende Navi 23. Want uiteindelijk denk ik dat een cut down Navi 22, ook veel beter zou concurreren met de RTX3060Ti dan dit ding.
Oh nog niet gezien, maar dat is inderdaad best veel.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:51
Ik ben vooral benieuwd hoe deze kaart met een hogere geheugenbus en minder CU's zou presteren. Hoe erg bottlenecked die lagere bus tot het punt dat CU's niet echt benut worden of zelfs slechter presteren als minder CU's met meer bandbreedte.
Iets dat overigens ook nog eens minder silicon zou kosten en dus goedkoper om te maken.

Deze kaart is compleet van mijn lijst met aanbevelingen af. wel jammer want er waten een aantal mensen voor wie deze kaart echt een topper zou zijn maar helaas. Dit is het risico gewoon niet waard. Als er nog meer games gaan komen die hier flinke problemen mee hebben komt die kaart vervroegd op de E-waste stapel en kost het een zak geld om weer een andere te kopen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
computerjunky schreef op woensdag 11 augustus 2021 @ 11:43:
Ik ben vooral benieuwd hoe deze kaart met een hogere geheugenbus en minder CU's zou presteren. Hoe erg bottlenecked die lagere bus tot het punt dat CU's niet echt benut worden of zelfs slechter presteren als minder CU's met meer bandbreedte.
Iets dat overigens ook nog eens minder silicon zou kosten en dus goedkoper om te maken.

Deze kaart is compleet van mijn lijst met aanbevelingen af. wel jammer want er waten een aantal mensen voor wie deze kaart echt een topper zou zijn maar helaas. Dit is het risico gewoon niet waard. Als er nog meer games gaan komen die hier flinke problemen mee hebben komt die kaart vervroegd op de E-waste stapel en kost het een zak geld om weer een andere te kopen.
Denk dat deze kaart voor wat hij is goed gebalanceerd is. Zowel Nvidia als AMD testen meerdere configuraties voordat ze kaarten de deur uit doen.

Als deze kaart wel voor MSRP beschikbaar is dan is dat in tegenstelling altijd beter dan de andere kaarten op de markt. Die PCI-E 8x bottleneck zie je alleen met een PCI-E 3.0 cpu/moederbord, en het verschil is alleen zo groot bij Doom.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Uh, wat is hier aan de hand? Je kan gewoon een RX6600XT kopen bij de releasedag voor nauwelijks meer dan MSRP? :o :P
Bijvoorbeeld

Niet dat ik het zo zou aanraden als een leuke upgrade. Maar als je echt iets moet hebben omdat je oude videokaart kapot is, stervende of echt heel erg verouderd, tja dan is dit al heel wat in deze hopeloze markt. Verder hoort dit natuurlijk meer in het leveringentopic, maar dat je ze kan krijgen vond ik eigenlijk toch wel nieuwswaardig. Helaas zijn we zover gekomen dat leverbaarheid eigenlijk nieuwswaardig is...

[ Voor 17% gewijzigd door DaniëlWW2 op 11-08-2021 19:28 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 18:12
DaniëlWW2 schreef op woensdag 11 augustus 2021 @ 19:20:
Uh, wat is hier aan de hand? Je kan gewoon een RX6600XT kopen bij de releasedag voor nauwelijks meer dan MSRP? :o :P
Bijvoorbeeld

Niet dat ik het zo zou aanraden als een leuke upgrade. Maar als je echt iets moet hebben omdat je oude videokaart kapot is, stervende of echt heel erg verouderd, tja dan is dit al heel wat in deze hopeloze markt. Verder hoort dit natuurlijk meer in het leveringentopic, maar dat je ze kan krijgen vond ik eigenlijk toch wel nieuwswaardig. Helaas zijn we zover gekomen dat leverbaarheid eigenlijk nieuwswaardig is...
Dat is in ponden he, en sinds ze de eu uit zijn komt daar mogelijk nog VAT bovenop?
Ze waren er blijkbaar voor €399 bij Azerty heel even, dat zou nog soort van acceptabel zijn gezien omstandigheden. Toch blijft het een 5700XT die 2 jaar terug ook al €400 was en betaal je voor de 6600XT al snel €500 dus het blijft huilen met de pet op.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Santee schreef op woensdag 11 augustus 2021 @ 19:47:
[...]

Dat is in ponden he, en sinds ze de eu uit zijn komt daar mogelijk nog VAT bovenop?
Ze waren er blijkbaar voor €399 bij Azerty heel even, dat zou nog soort van acceptabel zijn gezien omstandigheden. Toch blijft het een 5700XT die 2 jaar terug ook al €400 was en betaal je voor de 6600XT al snel €500 dus het blijft huilen met de pet op.
Ja, maar ze rekenen daar ook inclusief lokaal belastingtarief. Omgerekend zal het circa €450 zijn. Verder is de status van UK op het moment nogal onduidelijk omdat ze nog niet echt helemaal uit de interne markt zijn. Dus eventuele importkosten weet ik niet. Maar ze weigeren op het moment blijkbaar te exporteren buiten UK en Ierland, dus dat kan ook niet.

Punt is alleen dat je ze überhaupt kan kopen. En nee, ik zou het ook niet doen. Twee jaar geleden was een RX5700XT overigens wel €450 a €500, in 2020 ging het pas richting de €400. Ik kan begrijpen dat de eerste helft van 2020 als twee jaar geleden voelt, maar dat is toch echt niet zo. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:51
Sp3ci3s8472 schreef op woensdag 11 augustus 2021 @ 18:53:
[...]


Denk dat deze kaart voor wat hij is goed gebalanceerd is. Zowel Nvidia als AMD testen meerdere configuraties voordat ze kaarten de deur uit doen.

Als deze kaart wel voor MSRP beschikbaar is dan is dat in tegenstelling altijd beter dan de andere kaarten op de markt. Die PCI-E 8x bottleneck zie je alleen met een PCI-E 3.0 cpu/moederbord, en het verschil is alleen zo groot bij Doom.
Ik heb 3 mensen die geïnteresseerd zijn waren in deze gpu waarvan er NUL op PCI-E 4.0 zitten en dus zouden ze allemaal een bottleneck hebben bij Doom en mogelijk in de toekomst bij andere spellen (misschien nu al maar zijn ze niet getest).

Al met al vind ik het een enorme domper.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op woensdag 11 augustus 2021 @ 19:57:
[...]


Ja, maar ze rekenen daar ook inclusief lokaal belastingtarief. Omgerekend zal het circa €450 zijn. Verder is de status van UK op het moment nogal onduidelijk omdat ze nog niet echt helemaal uit de interne markt zijn. Dus eventuele importkosten weet ik niet. Maar ze weigeren op het moment blijkbaar te exporteren buiten UK en Ierland, dus dat kan ook niet.

Punt is alleen dat je ze überhaupt kan kopen. En nee, ik zou het ook niet doen. Twee jaar geleden was een RX5700XT overigens wel €450 a €500, in 2020 ging het pas richting de €400. Ik kan begrijpen dat de eerste helft van 2020 als twee jaar geleden voelt, maar dat is toch echt niet zo. :P
Ik heb op launch dag een RX 5700 XT Anniversarry edition gekocht voor 425 euro.

@computerjunky
Dat is inderdaad zonde, denk overigens dat het alleen op 1080p en hoge framerates een bottleneck geeft. Dat is immers de trend die je bij elke PCI-E test ziet op TPU; ik game niet op 1080p dus ik zou die kaart voor die prijs nog wel over wegen (gegeven de huidige prijzen). Ik heb ook maar PCI-E 3.0, waarschijnlijk heb ik daar dus ook met Doom icm mijn 6900 XT last van als ik op 1080p zou spelen. Alleen speel ik op 3440x1440 - 6880x2880 (afhankelijk van de spellen).
Waarschijnlijk heb ik dus ook nooit een cpu bottleneck.

Acties:
  • +1 Henk 'm!

  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 23:43
Iedereen loopt behoorlijk te mopperen over de 6600 XT maar zo slecht is de kaart toch ook weer niet? De kaart moet concurreren met het lage middensegment.

reviews: AMD Radeon RX 6600 XT - Dure mainstreamkaart

Qua prestaties (en dan heb ik het alleen voor 1080P gaming): Hij zit tussen de 3060 en de TI variant in. Qua MSRP goed geplaatst. Qua actuele verkoopprijs, is het ook absoluut geen slechte kaart. Voor 450 euro kun je al een 6600 XT aanschaffen. Een 3060 begint bij 600 euro, de TI is nog veel duurder. In dat opzicht krijg je best veel bang for buck in de huidige CPU markt.

Ten opzichte van de vorige generatie kaarten: Hij is iets sneller dan de 5700 XT maar marginaal. Daar had misschien meer in kunnen zitten. Ten opzichte van de 5600 XT en de 2060FE krijg je 30% meer performance.

En als je verder vergelijkt met de 1660-serie. Ik heb een tijdje lang zitten speuren en vergelijken met de 1650/1660 serie (was in november 2020 geloof ik):
1650: 150 euro
1650S: 180 euro
1660: 200 euro
1660S: 220 euro
1660TI: 280-300 euro
De TI kaarten waren naar mijn mening slechte prijs/kwaliteit. Qua performance was de TI iets sneller maar niet veel, de prijs was veel te duur. In dat opzicht waren de 1650(S) en 1660(S) kaarten veel beter qua prijs. De 1660S was 10% duurder dan de 1660. Maar dat ligt bijna in lijn met de prestaties die je ervoor terug krijgt.

Qua prijs/verhouding met de 16xx-serie t.o.v. de 6600 XT is het natuurlijk lastiger te bepalen. De 16xx reeks is uitgebracht in een tijd zonder chip-problemen, Corona, scalpers. Vergelijk je de 1660S met de 6600 XT, dan lijkt het nergens op. 220 euro vs 370 euro (adviesprijs): 60% hogere prijs. Performance ligt dan wel ruwweg 50% hoger maar de kaart is ook 2 jaar nieuwer. Dat is waardeloos natuurlijk.

Maar kijk je naar de hedendaagse prijzen van de 16xx-serie. Een 1660 TI staat in de pricewatch voor 440 euro, de 1660S voor 415 euro. Dan is 473 euro (laagste prijs in de pricewatch) voor een 6600 XT geen slechte prijs. En dat het effectief een x8 ipv een x16 kaart is, de situatie mag misschien wat duidelijker zijn. Maar in de Hardware Unboxed video laat je effectief 10% op de plank liggen (uitschieter Doom niet meegenomen). Zelfs dan is de 6600 XT nog een betere kaart dan de 16xx-serie. Maar als Tweaker weet je dit wel. Het is misschien alleen vervelend voor de casual consument die niet elke review kijkt op het internet voordat hij een kaart koopt. Maar ik betwijfel of die überhaupt nu in de markt is voor een nieuwe GPU gezien de hoge prijzen. Met de huidige hoge prijzen ben je al snel een enthusiast (of masochist :P) als je een nieuwe GPU wil hebben.

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het probleem is dat die nog steeds meer dan €400 is als je er eentje voor MSRP vind. En het zou echt maximaal €300 moeten zijn.

Het is de zoveelste cash grab, iets dat we nu al jaren zien. En de afgelopen jaren hebben we nooit gezien dat de prijzen normaliseerde naar de stand voor tekorten. Immers waren mensen er nu aan gewend en waren er heel wat die het verdedigde. Dus ik ga het ook niet verdedigen en niemand zou dit moeten doen. Want voordat je het weet, is het met de volgende generatie weer zo duur voor een lage middenmoot chip. Want dat is het. Navi 22 is het middensegment. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:13
DaniëlWW2 schreef op donderdag 12 augustus 2021 @ 13:57:
Het probleem is dat die nog steeds meer dan €400 is als je er eentje voor MSRP vind. En het zou echt maximaal €300 moeten zijn.
[...]
€200 wat mij betreft. Een 128bits geheugenbus en slechts 8 PCIe lanes is de term 'mid-range' niet waardig.

Graphene; a material that can do everything, except leave the lab. - Asianometry


  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 23:43
NitroX infinity schreef op donderdag 12 augustus 2021 @ 14:31:
[...]

€200 wat mij betreft. Een 128bits geheugenbus en slechts 8 PCIe lanes is de term 'mid-range' niet waardig.
Euhm, why? De 5600 XT had een adviesprijs van 280 dollar. De 6600 XT is 35% sneller (oftewel een goede prestatieboost t.o.v. vorige generatie). Dan zou in een normaal klimaat een prijs van 250-300 euro toch wel te rechtvaardigen zijn? 200 euro praat je echt over een GTX 16xx kaart/5500 XT segment. De RX 6500 (XT) moet in het segment rond de 200 euro geplaatst worden.

En dat hij 8 lanes en een 128 bits bus heeft, maakt toch geen pannenkoek uit. It gets the job done, gezien de benchmarks. Als je perse state of the art technologie wil hebben, koop je een Radeon VII, 6900 XT of RTX 3090.

Acties:
  • +1 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 05-10 12:17
Mijn probleem is dat het min of meer 2x de kost van een RX580 is voor 2x de snelheid van een RX580, enkele generaties later. Vele jaren later.
Perf/€ is gestagneerd.

Als je dit zou toepassen op de high-end zit je in enkele generaties aan een top-tier GPU van 2500-3000 euro.

  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 23:43
Arrigi schreef op donderdag 12 augustus 2021 @ 14:49:
Mijn probleem is dat het min of meer 2x de kost van een RX580 is voor 2x de snelheid van een RX580, enkele generaties later. Vele jaren later.
Perf/€ is gestagneerd.

Als je dit zou toepassen op de high-end zit je in enkele generaties aan een top-tier GPU van 2500-3000 euro.
Dat je nu teveel betaald, moge duidelijk zijn. Dat dit geen gezonde markt is, is ook duidelijk. De markt moet gewoon langzaam doorbroken worden. En dat betekent in alle segmenten kaarten uitbrengen (waar blijft de 1660 opvolger nVidia?) en voorraden beschikbaar stellen/vergroten.

Ik zeg niet dat een 6600 XT voor 4xx euro een goede deal is. Maar het is mogelijk wel een stabilisator of misschien zelfs een kantelpunt om langzaam de markt weer terug naar de gamers te brengen.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Ik vind het een risico om dit te accepteren als higher midrange. Op dit moment zijn de performace/price ratios helemaal van het padje af (3070 voor 1000€ 8)7 ) omdat iedereen snakt naar nieuwe GPU's door een perfect storm van allerlei redenen. Als nVidia en AMD nu vast gaan stellen dat DIT midrange is, zullen we daar in volgende generaties op dezelfde manier mee moeten dealen, en mogelijk zijn we de prijspunten die we decennia gewoon vonden kwijt...
En dat hij 8 lanes en een 128 bits bus heeft, maakt toch geen pannenkoek uit. It gets the job done, gezien de benchmarks.
Destijds was de GTX 750 Ti een 128 bit kaart, welke derivaties had met 8x PCI-E aansluitingen. De volgende GPU op het lijstje was de GTX 760, met een 256bit bus. Ze hadden ongeveer dezelfde positie in de markt als de RX 6600 XT nu, daartussen in. Dat zie je ook bijvoorbeeld als je kijkt naar die size, dan valt de 6600XT er tussen in. De 750/760 also got the job done, jaren later nog steeds.
De 750 Ti was bij launch gewoon €139 en de 760 €230. De 6600XT is 500€ en het zal me verbazen als het ooit onder de 400 wordt :X

[ Voor 4% gewijzigd door XanderDrake op 12-08-2021 15:35 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

No shit, dat wisten we los van deze GPU toch al? :P

Ik kan ook wel gaan vergelijken met de HD4850 die in 2008 dicht tegen high-end aan zat en die ik kocht voor 140 euro, maar wat doet dat er nog toe? Het is geen 2008.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Robkazoe schreef op donderdag 12 augustus 2021 @ 12:46:
Iedereen loopt behoorlijk te mopperen over de 6600 XT maar zo slecht is de kaart toch ook weer niet? De kaart moet concurreren met het lage middensegment.
De prijs is gewoon te hoog. De MSRP is $379, daar krijg je dan 5700 XT prestaties voor maar die laatste had een MSRP van $399. Vroeger, wanneer een segment opschoof door de introductie van een nieuwe serie, zou zo'n 6600 XT eerder $299 gekost hebben. Dan kreeg je bestaande prestaties voor flink minder geld.

[ Voor 5% gewijzigd door XWB op 12-08-2021 16:08 ]

March of the Eagles


Acties:
  • +3 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 05-10 12:17
Een HD4850 was bij release (high-end, 2008) zo'n 170 euro als ik hw.info mag geloven. Aangepast voor inflatie naar 2015 is dat 188 euro. Een 4GB RX580 (mid-end, 2017) was pakweg 230 euro en al een refresh van de RX480.
Volgens techpowerup is de RX580 6,3x sneller.
9 jaar. 125% van de prijs, 630% van de snelheid: 5x betere perf/€

230 euro anno 2017 is nu zo'n 242 euro. Geen gigantisch verschil.
De RX6600XT is pakweg 2x de prijs van een RX580. De snelheid is pakweg 2x de prijs van een RX580.
4 jaar. 200% prijs, 200% snelheid: zelfde perf/€

Als je dat doorzet heb je in 2025 inderdaad nog eens 2x zoveel performance, voor 900-1000 euro. De RX8600.
De RTX5095 kost dan 3500 euro?

Ik weet niet wat je probeert te verdedigen. Gebaseerd op decennia-lange product-evolutie (en ons collectief geheugen) zou je gewoon verwachten dat de een product van 450 euro 4x zo snel is. Of het is 2x zo snel en zit ergens rond de 250-300 euro.

Dat het uitzonderlijke omstandigheden zijn besef ik best, maar da's alsnog geen reden om de toestand te bejubelen.

Acties:
  • +1 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 18:12
Robkazoe schreef op donderdag 12 augustus 2021 @ 12:46:
Iedereen loopt behoorlijk te mopperen over de 6600 XT maar zo slecht is de kaart toch ook weer niet? De kaart moet concurreren met het lage middensegment.
Ja precies, laag middensegment. Straatprijs is €500, daar koop je een complete PS5+controller van, welke 40CU's RDN2 heeft mind you wat zo'n 25% meer is dat de 6600XT. :+
@Hieronder bedankt voor het juiste antwoord, het is idd 36CUs.

[ Voor 6% gewijzigd door Santee op 12-08-2021 20:51 ]


  • Arrigi
  • Registratie: November 2004
  • Laatst online: 05-10 12:17
Sterker nog, een hele Ryzen 3700 non-X + 16GB GDDR6 + 36CU RDNA2 + 825GB NVME SSD + bluray speler + PSU + case. :+

[ Voor 5% gewijzigd door Arrigi op 12-08-2021 17:32 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NitroX infinity schreef op donderdag 12 augustus 2021 @ 14:31:
[...]

€200 wat mij betreft. Een 128bits geheugenbus en slechts 8 PCIe lanes is de term 'mid-range' niet waardig.
€200 zou natuurlijk geweldig zijn, maar ik betwijfel inmiddels of dat nog mogelijk is.
Want het idee van de €200 middenmoot videokaart stamt uit de tijd van 55nm, 40nm en 28nm GPU's. En toen waren de "spelregels" gewoon anders dan ze nu zijn.

Behalve zaken zoals inflatie, het over het algemeen toch hogere verbruik van FinFET GPU's met zo effecten op de hele kostprijs van de videokaart of dat inmiddels de gemiddelde Chinese loonslaaf niet langer meer volstrekt debiel laag salaris meer kost, is het grootste probleem die FinFET nodes.

Want een wafer op een planar transistor (dus tot 32/28nm) was veel goedkoper en sneller te maken dan een FinFET wafer (vanaf 22nm voor Intel en 14/16nm voor de rest). En de escalatie de afgelopen jaren is enorm. Een 7nm wafer heb ik al vanuit meerdere kanten gezien in de $7000-$9000+ range en voor een 5nm wafer lijkt het zo om $17.000 te gaan. Een 14/16nm wafer was eerder in de grote van circa $3500. In het decennium ervoor was het een veel geleidelijke toename van iets van een paar honderd dollar per stap.

Het helpt ook niet dat TSMC effectief monopolist is en tegen iedereen kan zeggen dat ze de prijs moeten slikken of ze maar naar Samsung gaan. En maak echt geen illusies, de grote prestatiesprongen van alle spelers van ARM tot GPU's tot x86, zitten toch vooral in betere nodes en niet in architectuur. Soms komt er iets voorbij dat echt veel beter is, maar dat is de uitzondering. Denk Kepler naar Maxwell of Vega naar RDNA. Het gebeurd hooguit eens in de zoveel generaties. RDNA2 is eigenlijk ook bijzonder in hoeveel AMD er eigenlijk eruit heeft kunnen halen op dezelfde node, maar ik dwaal af.


Je ziet gewoon dat met zulke toenamen, het onmogelijk is om oude prijspunten te handhaven. En daar komt nog eens bij dat de consument tegenwoordig veeleisender is aan hun videokaart. Deze moet namelijk ook stil zijn, ideaal met goede ventilatoren. Heel wat mensen willen lichtjes en het moet er goed uitzien. PCB moet goed zijn want ook overclocken moet natuurlijk ook zo kunnen. En in combinatie met het hogere verbruik krijg je zo gewoon een duurdere videokaart buiten de exponentiële toename van de kosten van de GPU zelf.

Ik zie inmiddels niet meer hoe het nog voor €200 moet. Je mag er gerust vanuit gaan dat die Navi 23 chip in de RX6600XT, twee a driemaal zo duur is om te maken als een Polaris 10 van de RX580. En qua R&D zal die ook niet goedkoper zijn geweest. Polaris is immers ontwikkeld in een tijd dat AMD zowat failliet ging en ze alles wat ze hadden, hebben uitgegeven aan Zen en waarschijnlijk ook al aardig wat aan RDNA.

Het is ook geen ongeluk dat de sub €100 markt dood is. Daar valt niks meer te verdienen. En ik denk dat de markt tot €200 ook niet lang meer heeft in dit tempo. Ik denk toch echt dat €200 a €300 het minimum zal worden voor een discrete GPU.

Maar dit betekend niet dat ik een chip zoals Navi 23 zal accepteren op dit prijspunt. Want dat is geen instapper en hier weten we eigenlijk dat AMD ze echt wel goedkoper kan verkopen. Waarom? Nou omdat de chip qua formaat vergelijkbaar is met Navi 10 en een lichte cut down Navi 10 was de basis voor de $280 kostende RX5600XT. En ik denk niet dat AMD die met verlies verkocht. Minder winst dan ze maakte op de RX5700XT, zeker, maar verlies denk ik ook niet.

En daarop is mijn max €300 gebaseerd. Want dat is nog goed mogelijk waar AMD en de hele keten nog winst zal maken, zonder de gewone gamer die geen eindeloos budget heeft en gewoon wat games wil spelen, zo af te zetten. Want AMD zal nu flink verdienen aan Navi 23.


Dan de volgende generatie ook nog. Tja, de MCM geruchten zijn denk ik te hardnekkig en we weten eigenlijk ook wel dat AMD naar TSMC 5nm gaat. Hoe ik het begrepen heb, lijkt het erop dat er twee dingen fundamenteel veranderen in RDNA3.

-De CU zoals we die kennen (dus het cluster van 64 ALU's) lijkt te verdwijnen.
-Er lijkt (serieuze hoeveelheid zout hierbij) maar een ontwerp te zijn en dat lijkt een 5120 ALU chip te zijn. Ja, volle Navi 21 qua aantal ALU's en dan nog de RDNA3 zaken. Dus betere RT, efficiënter etc. Dat zou Navi 33 zijn. Navi 32 en 31 zijn MCM GPU's met respectievelijk twee en drie aparte chips.

En dat is misschien wel de redding voor ons. Want het zou de ontwikkelkosten om een ontwerp productie gereed te maken, serieus moeten drukken. Idem voor productiefouten omdat je meerdere kleinere chips zal hebben. Maar zelfs dan nog moet ik maar zien of er iets "betaalbaars" tussen zal zitten. Zeker voor de high end koester ik weinig hoop meer na een jaar van belachelijk dure vlaggenschepen in de RTX3090 en RX6900XT die nauwelijks sneller zijn dan de veel betaalbare RTX3080 of RX6800XT. En toen kwamen de tekorten, scalping etc erbij en mensen kochten het alsnog massaal of wachten nog steeds. De midrange (dus Navi 32) op €400 en lagere midrange (Navi 31) op €300 zou denk ik al heel wat zijn. Maar voor Navi 32 geloof ik dat eigenlijk ook niet meer. Ergens zou €500 misschien wel "acceptabel" zijn.

Ik begrijp echt wel dat mensen proberen om aan een videokaart te komen. Je zit een jaar thuis, kan niet zomaar weg, hebt waarschijnlijk geld over en dan maar gamen. Maar de effecten voor de langere termijn zijn denk ik niet goed. En het komt bovenop die enorme toename in kosten die de prijzen toch al onherroepelijk ging opstuwen. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 56 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.