Verwijderd

Sp3ci3s8472 schreef op donderdag 3 september 2020 @ 13:23:
[...]


Gezien het grotendeels subjectief is niet echt, het is mijn mening dat het heel goed lijkt te werken op dingen zoals haar, maar dat het op bepaalde textures en oppervlakten gewoon rare dingen laat zien. Wel een analyse van DLSS 1.0 nog wat niet heel erg relevant is. Wat ik nu vooral zie met DLSS 2.0 is dat er een CAS filter overheen zit.
[YouTube: Radeon Image Sharpening Tested, Navi's Secret Weapon For Combating Nvidia]

DLSS 2.0 lijkt het wel te winnen ten opzichte van performance als je het tegenover upscaling zet bijv (1440p -> 1800p), qua detail is het dan hetzelfde. Helaas is dit op NVidia hardware dus je kan niet zien wat het op AMD hardware doet met CAS erbij.
[YouTube: DLSS Revisited: Can Nvidia Finally Provide a Performance Boost for RTX GPUs?]
Geen screenshots? Gecomprimeerde Youtube video heb je meestal niet zoveel aan. Ik schrik al van de term scharpening in de eerste video. Normaal gesproken heb je dan een grote kans op halo effecten.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nieuws dan. Het lijkt erop dat we inderdaad HBM2 en GDDR6, RDNA2 modellen gaan krijgen. Navi 21 zal wel HBM2 zijn en Navi 22, 23 en 24 GDDR6. Ja, kennelijk bestaat Navi 24 ook. Die heb ik een keer gezien en zal nog een stuk weg zijn, maar kennelijk bestaat die wel. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op donderdag 3 september 2020 @ 13:28:
[...]

Geen screenshots? Gecomprimeerde Youtube video heb je meestal niet zoveel aan. Ik schrik al van de term scharpening in de eerste video. Normaal gesproken heb je dan een grote kans op halo effecten.
Lees je dan eerst even in over CAS. Het aantal halo efecten waar je gelijk in hebt dat je dat met normale sharpening filters hebt is minimaal met CAS.
De bijbehorende artikelen met screenshots kan je vinden op techspot, dit had ik bij de hand. Gecomprimeerd ja, maar behoorlijk ingezoomed.

Daarnaast kan je volgens mij met de nieuwe drivers gewoon aangeven wat de sterkte is van het CAS filter.

Edit:
De stelling dat je met DLSS rare artifacten kan krijgen is prima te zien in:
https://imgsli.com/MjEzNDI

Voordat je het beter of vergelijkbaar dan native kan noemen dan moeten die artifacts dus wegzijn. Quote mezelf even uit het NV topic:
Sp3ci3s8472 schreef op woensdag 2 september 2020 @ 13:42:
[...]


Het is nu stuivertje wisselen, texture detail is op sommige punten beter met DLSS maar of dit door een sharpening filter (CAS) komt weet ik niet. Je ziet wel dat op stukken waar bloom wordt toegepast dat dit te weinig is met DLSS en dat het dan donkerder is of de blur van de bloom niet ver genoeg rijkt.
Dat logo met PIGS is een stukje scherper, maar het persoon wat er onder loopt, zijn jas is ineens haast zwart en het ding boven het recycle logo op de prullenbak ernaast (tenminste daar lijkt het op) ziet er niet meer uit.
Het ziet er in ieder geval een heel stuk beter uit dan het DLSS 1.0 misbaksel :P.

[ Voor 48% gewijzigd door Sp3ci3s8472 op 03-09-2020 13:44 ]


Verwijderd

Sp3ci3s8472 schreef op donderdag 3 september 2020 @ 13:35:
[...]


Lees je dan eerst even in over CAS. Het aantal halo efecten waar je gelijk in hebt dat je dat met normale sharpening filters hebt is minimaal met CAS.
De bijbehorende artikelen met screenshots kan je vinden op techspot, dit had ik bij de hand. Gecomprimeerd ja, maar behoorlijk ingezoomed.

Daarnaast kan je volgens mij met de nieuwe drivers gewoon aangeven wat de sterkte is van het CAS filter.
Ik kan nergens voorbeelden vinden van vergelijkingen tussen DLSS en CAS. Het is bij AMD duidelijk dat het niet in de buurt komt van native 4K. Te weinig detail en teveel artifacts.

Kijk, het verschil is dat CAS niet weet wat de extra data is, terwijl DLSS daar een gefundeerde gok naar kan doen omdat het getraind is op input waarbij het detail wel beschikbaar is.

[ Voor 11% gewijzigd door Verwijderd op 03-09-2020 13:46 ]


Acties:
  • +1 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 19-09 11:00

Jumpiefox

Hoi ?

alsof DLSS the holy grail is. tot nu toe maar een paar games waar het beter is dan native en geen blur veroorzaakt? bijna 2 jaar na de DLSS hype en nog geen handje vol games die het goed hebben gedaan.

Kan me niet voorstellen dat kopers hun keuze zullen maken gebaseerd op DLSS of niet. Laat staan dat hele RTX gedoe wat niemand gebruikt (0x gebruikt op mijn 2080ti). Meeste mensen kopen zulke dure kaarten om een FPS lock te halen (144hz/240) op 1440p/ultrawide/4k. Met RTX aan zul je dat nooit halen at the moment dus gewoon een non issue in mijn ogen. En als het wel weinig impact heeft dan heeft het visueel ook weinig impact.

Vind het wel spannend allemaal. Hoop echt dat AMD met wat goeds komt en een beetje mee kan komen met Nvidia en ook wat kaarten gaan verkopen. De concurrentie is gewoon hard nodig.

The first casualty in war is always the truth...


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op donderdag 3 september 2020 @ 13:30:
Nieuws dan. Het lijkt erop dat we inderdaad HBM2 en GDDR6, RDNA2 modellen gaan krijgen. Navi 21 zal wel HBM2 zijn en Navi 22, 23 en 24 GDDR6. Ja, kennelijk bestaat Navi 24 ook. Die heb ik een keer gezien en zal nog een stuk weg zijn, maar kennelijk bestaat die wel. :)

[Embed]
Nogal een open deur, HBM2 is gewoon te duur voor de mid-range uitvoeringen. Natuurlijk krijgen die GDDR6.

Voor de high-end uitvoering blijf ik het jammer vinden dat GDDR6X niet beschikbaar is voor AMD.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 18-09 16:26

Kuusj

Ofwel varken in 't Limburgs

Ik denk dat we vooral met enige zekerheid kunnen stellen dat het alleen maar ingewikkelder aan het worden is om kaarten onderling te vergelijken. DLSS, RT, noem het maar op. Ik wil weten wat een RTX3080 qua pure ruwe performance zonder onzin als DLSS en RT doet tegenover andere kaarten (GTX1080/5700XT etc.).

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op donderdag 3 september 2020 @ 13:44:
[...]

Ik kan nergens voorbeelden vinden van vergelijkingen tussen DLSS en CAS. Het is bij AMD duidelijk dat het niet in de buurt komt van native 4K. Te weinig detail en teveel artifacts.
Kun je deze stelling bewijzen }:O.
Kijk, het verschil is dat CAS niet weet wat de extra data is, terwijl DLSS daar een gefundeerde gok naar kan doen omdat het getraind is op input waarbij het detail wel beschikbaar is.
Omdat google misschien wat moeilijk is:
https://www.techspot.com/...harpening-vs-nvidia-dlss/
En vs het eigen sharpening filter van NV:
https://www.techspot.com/...dlss-vs-freestyle-vs-ris/

Sowieso ga ik jou niet overtuigen, je bent er heilig van overtuigd dat CAS te weinig detail heeft en te veel artifacts, je komt niet met goede argumenten en voorbeelden die laten zien dat DLSS beter dan native is maar verwacht wel als ik het daar mee niet eens ben dat ik met bronnen kom (beetje krom niet?).

Voor de 90% van de mensen die niet zo zwart/wit denkt; Conclussie, DLSS 2.0 is een leuke stap vooruit en heeft een performance voordeel tegenover upscaling met CAS.
Het is voor ieder zich te bepalen welk van de twee technieken hij prefereerd gezien ze beiden voor en nadelen hebben.

Ik zet de discussie pas voort als je met een goede bron komt die wat mij betreft het tegendeel laat zien.

[ Voor 30% gewijzigd door Sp3ci3s8472 op 03-09-2020 14:01 . Reden: rant ]


Verwijderd

Sp3ci3s8472 schreef op donderdag 3 september 2020 @ 13:56:
[...]

Kun je deze stelling bewijzen }:O.


[...]


Omdat google misschien wat moeilijk is:
https://www.techspot.com/...harpening-vs-nvidia-dlss/
En vs het eigen sharpening filter van NV:
https://www.techspot.com/...dlss-vs-freestyle-vs-ris/
Dat is geen DLSS 2.0, maar als ik kijk naar de gewone NVIDIA scharpening is het lood om uit ijzer t.o.v. AMD. Dus in de games waar geen DLSS beschikbaar is maakt het niet uit wat je hebt, en voor games die wel DLSS ondersteunen wil je NVIDIA hebben. DigitalFoundy heeft al uitgebreid naar DLSS 2.0 gekeken, en ontkennen dat het geen meerwaarde heeft valt niet recht te praten.

Voor games zullen standaard upscale filters allemaal vervangen gaan worden door getrainde neural nets. Dus nee, DLSS 2.0 is niet dé toekomst, maar de techniek die gebruikt wordt is dat wel.

[ Voor 10% gewijzigd door Verwijderd op 03-09-2020 14:03 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op donderdag 3 september 2020 @ 14:02:
[...]

Dat is geen DLSS 2.0, maar als ik kijk naar de gewone NVIDIA scharpening is het lood om uit ijzer t.o.v. AMD. Dus in de games waar geen DLSS beschikbaar is maakt het niet uit wat je hebt, en voor games die wel DLSS ondersteunen wil je NVIDIA hebben. DigitalFoundy heeft al uitgebreid naar DLSS 2.0 gekeken, en ontkennen dat het geen meerwaarde heeft valt niet recht te praten.

Voor games zullen standaard upscale filters allemaal vervangen gaan worden door getrainde neural nets. Dus nee, DLSS 2.0 is niet dé toekomst, maar de techniek die gebruikt wordt is dat wel.
Oke, waar in mijn post zie jij dat ik zit te ontkennen dat het geen meerwaarde heeft? Tenzij je heel selectief gaat zitten quoten dan ga je dat niet terug vinden. Je neemt niet de moeite om mijn post goed door te lezen blijkbaar.

Je reageerd nu met het feit dat Digital Foundry hier uitgebreid naar heeft gekeken. Wat mij betreft prima als bron, wees alleen dan niet zo hypocriet om mijn bron van youtube als invalide te bestempelen omdat het youtube compressie heeft want Digital Foundry heeft precies hetzelfde probleem.

Dat AI upscaling de toekomst is en nu is voor zwakkere systemen in een select aantal spellen met DLSS 2.0 (want 1.0 is gewoon geen optie) daar kan ik mij best in vinden en ik verwacht ook dat we deze technieken steeds meer terug gaan zien. Wat ik wel hoop is dat dit in de vorm van een open standaard er gaat komen, hoewel dat waarschijnlijk net zo lang als het G-Sync heeft gekost voor het open ging gaat duren voordat Nvidia hier aan gaat meedoen.
Wat ik wel denk is dat we ook in de toekomst gewoon kaarten hebben die dit niet nodig hebben. Ik zie liever dat de focus van AI wordt gelegd om RT op te schonen, als in minder rays nodig om hetzelfde resultaat te behalen.

Verwijderd

Sp3ci3s8472 schreef op donderdag 3 september 2020 @ 14:28:
[...]


Oke, waar in mijn post zie jij dat ik zit te ontkennen dat het geen meerwaarde heeft? Tenzij je heel selectief gaat zitten quoten dan ga je dat niet terug vinden. Je neemt niet de moeite om mijn post goed door te lezen blijkbaar.

Je reageerd nu met het feit dat Digital Foundry hier uitgebreid naar heeft gekeken. Wat mij betreft prima als bron, wees alleen dan niet zo hypocriet om mijn bron van youtube als invalide te bestempelen omdat het youtube compressie heeft want Digital Foundry heeft precies hetzelfde probleem.

Dat AI upscaling de toekomst is en nu is voor zwakkere systemen in een select aantal spellen met DLSS 2.0 (want 1.0 is gewoon geen optie) daar kan ik mij best in vinden en ik verwacht ook dat we deze technieken steeds meer terug gaan zien. Wat ik wel hoop is dat dit in de vorm van een open standaard er gaat komen, hoewel dat waarschijnlijk net zo lang als het G-Sync heeft gekost voor het open ging gaat duren voordat Nvidia hier aan gaat meedoen.
Wat ik wel denk is dat we ook in de toekomst gewoon kaarten hebben die dit niet nodig hebben. Ik zie liever dat de focus van AI wordt gelegd om RT op te schonen, als in minder rays nodig om hetzelfde resultaat te behalen.
Je mist duidelijk het punt. Het punt is dat het geen zin heeft native te redenen als je met neural nets op 95% komt. De extra compute kan je dan inzetten voor RT e.d. Jij wil native 4K renderen waarbij je een kwart (fictieve waarde om mijn punt duidelijk te maken) van de beschikbare compute besteed aan RT. Ik wil niet native 4K renderen en neural nets gebruiken om op 95% te komen en dan de helft van de beschikbare compute besteden aan RT en andere grafische opties. Dan kan je wel zeggen dat in de toekomst de kaarten snel genoeg zijn om het beeld van de 2de optie native neer te zetten. Alleen gaat dan mijn voorkeur weer uit naar de extra compute gebruiken voor hogere framerates en hogere resoluties bijvoorbeeld.

Kort weg komt het erop neer dat ik zeg dat je altijd (ook over 5 jaar!) meer grafische winst kan boeken door niet alles native te renderen. Je moet je compute inzetten op de plekken waar het uitmaakt.

[ Voor 0% gewijzigd door Verwijderd op 03-09-2020 14:54 . Reden: missend woord ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op donderdag 3 september 2020 @ 14:35:
[...]

Je mist duidelijk het punt. Het punt is dat het geen zin native te redenen als je met neural nets op 95% komt. De extra compute kan je dan inzetten voor RT e.d. Jij wil native 4K renderen waarbij je een kwart (fictieve waarde om mijn punt duidelijk te maken) van de beschikbare compute besteed aan RT. Ik wil niet native 4K renderen en neural nets gebruiken om op 95% te komen en dan de helft van de beschikbare compute besteden aan RT en andere grafische opties. Dan kan je wel zeggen dat in de toekomst de kaarten snel genoeg zijn om het beeld van de 2de optie native neer te zetten. Alleen gaat dan mijn voorkeur weer uit naar de extra compute gebruiken voor hogere framerates en hogere resoluties bijvoorbeeld.

Kort weg komt het erop neer dat ik zeg dat je altijd (ook over 5 jaar!) meer grafische winst kan boeken door niet alles native te renderen. Je moet je compute inzetten op de plekken waar het uitmaakt.
Dat komt omdat ik een ander punt maak, ik zie liever dat ze compute gebruiken voor een hoger foto realisme, als wat we in de laatste Unreal/PS5 demo zien. Ik zie geen nut met resoluties boven de 8k. Want het komt allemaal uit op DPI en de afstand van je scherm en de gemiddelde mens heeft ook een limiet van het detail wat hij kan zien.
Het verschil tussen 4k en 8k is er nauwelijks (want je blijft gelimiteerd aan de DPI, zit afstand en het menselijke oog), ik zie liever 4k met meer detail dan 8k met minder detail. De enige reden dat 8k in de huiskamer zin gaat hebben is omdat alle films op 4:2:0 gecomprimeerd zijn en je daardoor een verbetering krijgt als die 8k zijn; alleen denk ik dat je op 4k met 4:4:4 een mooier beeld zal hebben.
De enige plek waar ik echt zie dat 8k wat gaat toevoegen is in VR brillen.
https://www.rtings.com/tv/learn/chroma-subsampling
Afbeeldingslocatie: https://www.rtings.com/images/optimal-viewing-distance-television-graph-size.png
Bron: https://www.rtings.com/tv...s-4k-uhd#viewing-distance

Dezelfde discussie kan je houden over FPS of het aantal hertz dat je scherm aankan, ik denk dat de impact van snellere schermen steeds kleiner wordt en na 200Hz gewoon niet meer de moeite waard is.

Ik zie DLSS meer als leuke optie voor IGP's en vergelijkbare trage gpu's zodat deze op 1080p al het detail aan kunnen zetten. Zoals ik in andere posts al aangaf ben ik veel meer onder de indruk van de techniek op lage resoluties (staat waarschijnlijk gisteren in het NV topic).

Voor highend zie ik dus veel meer toekomst in het instant kunnen laden van resources en meer detail op die manier, maar wel op een native resolutie.

[ Voor 1% gewijzigd door Sp3ci3s8472 op 03-09-2020 15:06 . Reden: bron ]


Verwijderd

Sp3ci3s8472 schreef op donderdag 3 september 2020 @ 15:04:
[...]


Dat komt omdat ik een ander punt maak, ik zie liever dat ze compute gebruiken voor een hoger foto realisme, als wat we in de laatste Unreal/PS5 demo zien. Ik zie geen nut met resoluties boven de 8k. Want het komt allemaal uit op DPI en de afstand van je scherm en de gemiddelde mens heeft ook een limiet van het detail wat hij kan zien.
Het verschil tussen 4k en 8k is er nauwelijks (want je blijft gelimiteerd aan de DPI, zit afstand en het menselijke oog), ik zie liever 4k met meer detail dan 8k met minder detail. De enige reden dat 8k in de huiskamer zin gaat hebben is omdat alle films op 4:2:0 gecomprimeerd zijn en je daardoor een verbetering krijgt als die 8k zijn; alleen denk ik dat je op 4k met 4:4:4 een mooier beeld zal hebben.
De enige plek waar ik echt zie dat 8k wat gaat toevoegen is in VR brillen.
https://www.rtings.com/tv/learn/chroma-subsampling
[Afbeelding]
Bron: https://www.rtings.com/tv...s-4k-uhd#viewing-distance

Dezelfde discussie kan je houden over FPS of het aantal hertz dat je scherm aankan, ik denk dat de impact van snellere schermen steeds kleiner wordt en na 200Hz gewoon niet meer de moeite waard is.

Ik zie DLSS meer als leuke optie voor IGP's en vergelijkbare trage gpu's zodat deze op 1080p al het detail aan kunnen zetten. Zoals ik in andere posts al aangaf ben ik veel meer onder de indruk van de techniek op lage resoluties (staat waarschijnlijk gisteren in het NV topic).

Voor highend zie ik dus veel meer toekomst in het instant kunnen laden van resources en meer detail op die manier, maar wel op een native resolutie.
We zijn het dus met elkaar eens dat DLSS (en vergelijkbare opties) een nuttige oplossing zijn totdat we 100% fotorealistische graphics native kunnen renderen met rond de 200 fps en <20ms latency. Ik denk dat we daar nog wel even op kunnen wachten ;).

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 3 september 2020 @ 13:44:
Kijk, het verschil is dat CAS niet weet wat de extra data is, terwijl DLSS daar een gefundeerde gok naar kan doen omdat het getraind is op input waarbij het detail wel beschikbaar is.
Incorrect, als je het over DLSS 2.0 hebt.

DLSS 2.0 heeft geen flauw benul van hoe een frame er uit moet zien. Het is niets meer dan een slimme upscaler met wat extra input en een sharpening filter.

En om mijn punt even helemaal duidelijk te maken:

- DLSS 1.0 (Q1'19) moest per game getraind worden, waarbij het neurale net voor elke game in de driver moest zitten. Dat werkte ook maar matig juist doordat het werd toegepast werd alsof games een deterministische (vaste) output hebben. Dat is uiteraard niet het geval, elke speler draait en beweegt anders.
- DLSS 1.9 (augustus vorig jaar) was een tijdelijke oplossing met een simpel algoritme dat emuleerde wat DLSS 2.0 doet. Nog steeds niet geweldig, maar er zat inmiddels wel een sharpening filter bij, waardoor Control er scherper uit zag met DLSS. Dat komt natuurlijk vooral doordat Control uit zichzelf een lelijke, blurry vaseline zooi produceert.
- DLSS 2.0 (enkele maanden geleden) is geheel anders. Het neurale net is generiek en wordt toegepast op alle games. Nvidia geeft uiteraard niet al te veel details vrij over hoe ze het trainen, maar het is hoogstwaarschijnlijk een dataset waarin ze specifieke contrast transities en dergelijke simuleren. Het belangrijkste punt is dat er géén game- of engine-specifieke dingen in zitten, het zijn volledig kunstmatige frames die Nvidia zelf genereert. De input voor de toepassing van het neurale netwerk is vervolgens het gerenderde frame (dus bijvoorbeeld 720p), samen met motion vector informatie.

Bron voor dit alles? Nvidia. Onder andere dit en dit.


TL;DR: DLSS 2.0 is temporal upscaling met sharpening.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 23:27
Verkeerde topic

[ Voor 87% gewijzigd door RobinNL op 03-09-2020 15:38 ]

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19-09 14:35
Wat betreft DLSS 2.0 vs CAS is DLSS 2.0 wat mij betreft echt de betere als het op puur kwaliteit aan komt.


YouTube: AMD FidelityFX CAS VS NVIDIA DLSS 2.0 Death Stranding Maximum Settin...

Duidelijk sherpere details en ook nog eens een betere contrast ratio wat waarschijnlijk komt door de manier van verwerken bij CAS.

Qua prestatie heb ik echter geen idee want dat is lastiger te vinden en daar heb ik dus ook nog geen goede vergelijking van gevonden. Een gemiste kans in deze vergelijking dat het er niet bij staat.
Werelds schreef op donderdag 3 september 2020 @ 15:15:
[...]

Nvidia geeft uiteraard niet al te veel details vrij over hoe ze het trainen, maar het is hoogstwaarschijnlijk een dataset waarin ze specifieke contrast transities en dergelijke simuleren.
Ze hebben vandeweek wel gezegd dat er getrained word met 16k textures. Veel meer zullen ze idd niet vrij geven.
Maar het is wel degelijk meer als de vrijgegeven demo's kloppen en echt in staat niet alleen aliassing weg te halen maar ook content aan te vullen met AI gegenereerde/geleerde data. Als je effectief de helft van je data kan verwijderen en tock volledige details op je beeld krijgt is er wel meer aan de hand als alleen even upscalen.
Wil je niet dat details verloren gaan moet er dus wel gecalculeerd worden wat er mist en daar is die training voor. er zijn gewoon duizenden scenario's geleerd en de best passende word toegepast.

https://www.nvidia.com/en...big-leap-in-ai-rendering/

Hele pagina met informatie best interessant.

Vooral deze foto laat zien dat er toch meer aan de hand is :

https://www.nvidia.com/co...a-dlss-comparison-002.png

boven in het hek zie je dat er delen missen en met DLSS word dat aangevuld. Een gewone upscaler zal dat echt niet doen die zal gewoon het plaatje met ontbrekende delen schalen.
De scaler moet aangeleerd worde dat deze onbrekende delen wel aangevuld moeten worden en in andere scenatios niet aangevuld moeten worden.
Hier komen die 16k textures om de hoek en alle patronen die aangeleerd worden.

Als dit zonder die AI had gekind hadden ze dat echt wel gedaan en geld bespaard op die tensor core DIE kosten.

[ Voor 57% gewijzigd door computerjunky op 03-09-2020 15:56 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
computerjunky schreef op donderdag 3 september 2020 @ 15:41:
Ze hebben vandeweek wel gezegd dat er getrained word met 16k textures. Veel meer zullen ze idd niet vrij geven.
Maar het is wel degelijk meer als de vrijgegeven demo's kloppen en echt in staat niet alleen aliassing weg te halen maar ook content aan te vullen met AI gegenereerde/geleerde data. Als je effectief de helft van je data kan verwijderen en tock volledige details op je beeld krijgt is er wel meer aan de hand als alleen even upscalen.
Wil je niet dat details verloren gaan moet er dus wel gecalculeerd worden wat er mist en daar is die training voor. er zijn gewoon duizenden scenario's geleerd en de best passende word toegepast.

https://www.nvidia.com/en...big-leap-in-ai-rendering/

Hele pagina met informatie best interessant.

Vooral deze foto laat zien dat er toch meer aan de hand is :

https://www.nvidia.com/co...a-dlss-comparison-002.png

boven in het hek zie je dat er delen missen en met DLSS word dat aangevuld. Een gewone upscaler zal dat echt niet doen die zal gewoon het plaatje met ontbrekende delen schalen.
De scaler moet aangeleerd worde dat deze onbrekende delen wel aangevuld moeten worden en in andere scenatios niet aangevuld moeten worden.
Hier komen die 16k textures om de hoek en alle patronen die aangeleerd worden.

Als dit zonder die AI had gekind hadden ze dat echt wel gedaan en geld bespaard op die tensor core DIE kosten.
De pagina waar jij naar linkt is precies dezelfde als waar ik naar linkte.

Er wordt niets "aangevuld" omdat de "scaler" dit "aangeleerd" is. Nogmaals, DLSS 2.0 weet niets van het frame of de objecten in het frame. Of in dit geval, transparante textures. Transparante textures zien er in stills altijd slecht uit, omdat de meeste AA oplossingen er niets mee kunnen. Dit soort dingen zijn 1-3 pixels groot op je scherm (zelfs op 2160p), waardoor de meeste AA oplossingen ze vager maken en er informatie verdwijnt. DLSS krijgt het frame vóór er rotzooi als FXAA overheen gaat; FXAA en andere PPAA oplossingen smeren vaseline hierover heen waardoor er detail verdwijnt. In dit geval gaat er met DLSS echter een sharpening filter overheen, waardoor het contrast in dat gebied hoger wordt, naast het feit dat het model uiteraard ook met transparante textures getraind is. Het "DLSS off" frame is vervolgens normaal gerenderd zónder sharpening, waardoor er met TAA informatie verloren gaat. Precies het omgekeerde.

Er wordt ook niet getraind met "textures", ik weet niet waar je dat vandaan haalt. Het zijn frames, geen textures. Je hebt mijn (en Nvidia's) verhaal geheel niet begrepen. Zij renderen een hoop frames waarmee ze het model trainen; daar zitten gegarandeerd ook scènes met hekken in. Het betekent echter niet dat ze hier iets "aanvullen" of dat ze getraind hebben met dit spel. Nee, het betekent dat het model dat ze toepassen overweg kan met transparente textures die resulteren in hoog-contrast lijnen van slechts 1-3 pixels breed. Het vult niet iets aan, het weet gewoon hoe het dat soort dingen moet upscalen. Groot verschil. Wat DLSS upscaled is ook niet hetzelfde wat jij op je scherm zou zien op dezelfde resolutie. Dingen als TAA en dergelijke worden ná upscaling toegepast in DLSS.

Er is aan de rechterkant geen informatie "aangevuld", het is juist andersom. Links is er (o.a. door TAA) informatie verloren gegaan.

Acties:
  • +1 Henk 'm!

Verwijderd

Werelds schreef op donderdag 3 september 2020 @ 15:15:
[...]

Incorrect, als je het over DLSS 2.0 hebt.

DLSS 2.0 heeft geen flauw benul van hoe een frame er uit moet zien. Het is niets meer dan een slimme upscaler met wat extra input en een sharpening filter.

En om mijn punt even helemaal duidelijk te maken:

- DLSS 1.0 (Q1'19) moest per game getraind worden, waarbij het neurale net voor elke game in de driver moest zitten. Dat werkte ook maar matig juist doordat het werd toegepast werd alsof games een deterministische (vaste) output hebben. Dat is uiteraard niet het geval, elke speler draait en beweegt anders.
- DLSS 1.9 (augustus vorig jaar) was een tijdelijke oplossing met een simpel algoritme dat emuleerde wat DLSS 2.0 doet. Nog steeds niet geweldig, maar er zat inmiddels wel een sharpening filter bij, waardoor Control er scherper uit zag met DLSS. Dat komt natuurlijk vooral doordat Control uit zichzelf een lelijke, blurry vaseline zooi produceert.
- DLSS 2.0 (enkele maanden geleden) is geheel anders. Het neurale net is generiek en wordt toegepast op alle games. Nvidia geeft uiteraard niet al te veel details vrij over hoe ze het trainen, maar het is hoogstwaarschijnlijk een dataset waarin ze specifieke contrast transities en dergelijke simuleren. Het belangrijkste punt is dat er géén game- of engine-specifieke dingen in zitten, het zijn volledig kunstmatige frames die Nvidia zelf genereert. De input voor de toepassing van het neurale netwerk is vervolgens het gerenderde frame (dus bijvoorbeeld 720p), samen met motion vector informatie.

Bron voor dit alles? Nvidia. Onder andere dit en dit.


TL;DR: DLSS 2.0 is temporal upscaling met sharpening.
Zelfs als het niet getrained is op een specifieke game biedt het meerwaarde over traditionele upscalers. Een gewoon upscale algoritme zal nooit zo goed kunnen presteren als wat NVIDIA hier doet. Het temperal upscaling en sharpening noemen is simpelweg onjuist. Volgens mij weet je niet zo goed hoe neurale netwerken getraind worden, anders had je het niet zo genoemd.

AMD heeft deze niet techniek tot hun beschikking, omdat ze daar jaren achterlopen op het gebied van AI. En totdat ze het wel hebben zullen ze achterlopen op het gebied van scaling.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 3 september 2020 @ 16:55:
[...]

Zelfs als het niet getrained is op een specifieke game biedt het meerwaarde over traditionele upscalers. Een gewoon upscale algoritme zal nooit zo goed kunnen presteren als wat NVIDIA hier doet. Het temperal upscaling en sharpening noemen is simpelweg onjuist. Volgens mij weet je niet zo goed hoe neurale netwerken getraind worden, anders had je het niet zo genoemd.

AMD heeft deze niet techniek tot hun beschikking, omdat ze daar jaren achterlopen op het gebied van AI. En totdat ze het wel hebben zullen ze achterlopen op het gebied van scaling.
Het die naam geven is inderdaad te kort door de bocht, echter is dat wel waar het voor de helft op neer komt - daarom ging ik voor dat uiterste. Zonder de temporele informatie en zonder het sharpening filter zou het er alsnog niet uit zien. Het NN vormt "slechts" de basis. Is het slimmer dan een traditioneel upscaling algoritme? Zeker. Maar jij (en veel anderen) wijzen te veel van het resultaat toe aan het NN door de andere onderdelen volledig uit te vlakken. Waarbij ik ook weer even moet herhalen dat ook Nvidia achter de feiten aan loopt op technisch vlak. Het principe van hun Tensor Cores waren ze niet de eerste mee en ook deze vorm van upscalen niet (hier waren anderen in 2014-2015 al mee bezig :P). Waar Nvidia wél voorop loopt, zijn de commerciële toepassingen voor "gewone" consumenten. Wat dat betreft zijn ze de Steve Jobs van de GPU's: ze zijn verdomd goed in het verkopen van dit soort dingen. Ze kunnen heel goed een slim algoritme spotten en er een toepassing voor vinden die nuttig is buiten HPC.

Het ging mij echter om jouw statement dat DLSS (2.0) getrained is op input met meer detail. Dat is niet zo, althans niet voor die specifieke game. Het is getrained op input met hopelijk een vergelijkbare situatie én meer detail.


offtopic:
Ik weet overigens weldegelijk hoe neurale netwerken werken, er staat zelfs een nieuw netwerk op m'n planning in de nabije toekomst ;)

Ik werk al jaren met verschillende vormen en toepassingen van ML/DL (eerste was denk ik een spam filter op basis van NB een jaar of 8-10 geleden :P). Ik wil hier op het forum echter niet té diep gaan omdat ik niet echt in kan schatten hoe veel kennis iemand heeft. Het helpt ook niet dat ik over het algemeen werk met non-tech mensen, dus ik heb al te vaak "ELI5" moeten toepassen omtrent dit soort onderwerpen.

Verwijderd

Werelds schreef op donderdag 3 september 2020 @ 17:29:
[...]

Het die naam geven is inderdaad te kort door de bocht, echter is dat wel waar het voor de helft op neer komt - daarom ging ik voor dat uiterste. Zonder de temporele informatie en zonder het sharpening filter zou het er alsnog niet uit zien. Het NN vormt "slechts" de basis. Is het slimmer dan een traditioneel upscaling algoritme? Zeker. Maar jij (en veel anderen) wijzen te veel van het resultaat toe aan het NN door de andere onderdelen volledig uit te vlakken. Waarbij ik ook weer even moet herhalen dat ook Nvidia achter de feiten aan loopt op technisch vlak. Het principe van hun Tensor Cores waren ze niet de eerste mee en ook deze vorm van upscalen niet (hier waren anderen in 2014-2015 al mee bezig :P). Waar Nvidia wél voorop loopt, zijn de commerciële toepassingen voor "gewone" consumenten. Wat dat betreft zijn ze de Steve Jobs van de GPU's: ze zijn verdomd goed in het verkopen van dit soort dingen. Ze kunnen heel goed een slim algoritme spotten en er een toepassing voor vinden die nuttig is buiten HPC.

Het ging mij echter om jouw statement dat DLSS (2.0) getrained is op input met meer detail. Dat is niet zo, althans niet voor die specifieke game. Het is getrained op input met hopelijk een vergelijkbare situatie én meer detail.


offtopic:
Ik weet overigens weldegelijk hoe neurale netwerken werken, er staat zelfs een nieuw netwerk op m'n planning in de nabije toekomst ;)

Ik werk al jaren met verschillende vormen en toepassingen van ML/DL (eerste was denk ik een spam filter op basis van NB een jaar of 8-10 geleden :P). Ik wil hier op het forum echter niet té diep gaan omdat ik niet echt in kan schatten hoe veel kennis iemand heeft. Het helpt ook niet dat ik over het algemeen werk met non-tech mensen, dus ik heb al te vaak "ELI5" moeten toepassen omtrent dit soort onderwerpen.
Ik was het nergens niet met je eens hoor :). Ik vond het gewoon belangrijk aan te stippen dat het neurale netwerk 'leert' hoe de lage resolutie data geïnterpreteerd moet worden. Dat gaat iets verder dan gewone upscaling algoritmes (die ook heel goed kunnen zijn!). Je kan daar natuurlijk voor trainen met beperkte subsets, je hoeft geen complete screencaps te gebruiken....liever niet zelf. Je wil dat ding leren dat een bepaald patroon op een bepaalde manier geupscaled moet worden en een ander patroon op een andere manier.

Ik wil NVIDIA niet direct de Steve Jobs noemen qua GPU's. AI research loopt natuurlijk al langer op het gebied van image processing, maar NVIDIA heeft wel duidelijk gezien dat hier een markt is en maken daar de tools voor. Volgens mij wordt er sinds ze zich hier op gestort hebben nog maar weinig gedaan op niet-NVIDIA hardware. Ik weet niet of dat uiteindelijk goed gaat zijn voor de markt, maar als zij het niet gedaan hadden was er qua consumer oplossingen bar weinig te vinden waarschijnlijk. Hetzelfde geldt voor zaken zoals Ray-Tracing. Had AMD het zo hard gepushed in de nieuwe consoles en gpu's als NVIDIA niet de markt er klaar voor had gemaakt? Ik denk het niet. Je kan klagen over de proprietary rotzooi van NVIDIA, maar liever dat dan helemaal niet.

[ Voor 4% gewijzigd door Verwijderd op 03-09-2020 18:22 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 3 september 2020 @ 18:12:
Ik was het nergens niet met je eens hoor :). Ik vond het gewoon belangrijk aan te stippen dat het neurale netwerk 'leert' hoe de lage resolutie data geïnterpreteerd moet worden. Dat gaat iets verder dan gewone upscaling algoritmes (die ook heel goed kunnen zijn!). Je kan daar natuurlijk voor trainen met beperkte subsets, je hoeft geen complete screencaps te gebruiken....liever niet zelf. Je wil dat ding leren dat een bepaald patroon op een bepaalde manier geupscaled moet worden en een ander patroon op een andere manier.
En dat is het ook precies. Het NN is getrained op specifieke patronen die "lastig" zijn (transparante textures zoals op hekken zijn denk ik ook meteen één van, zoniet dé, lastigste). Ze zullen ook vast wel stiekem bestaande games gebruiken, maar het gros zal kunstmatig gemanipuleerd zijn om lastige situaties na te bootsen.
Ik wil NVIDIA niet direct de Steve Jobs noemen qua GPU's. AI research loopt natuurlijk al langer op het gebied van image processing, maar NVIDIA heeft wel duidelijk gezien dat hier een markt is en maken daar de tools voor. Volgens mij wordt er sinds ze zich hier op gestort hebben nog maar weinig gedaan op niet-NVIDIA hardware. Ik weet niet of dat uiteindelijk goed gaat zijn voor de markt, maar als zij het niet gedaan hadden was er qua consumer oplossingen bar weinig te vinden waarschijnlijk. Hetzelfde geldt voor zaken zoals Ray-Tracing. Had AMD het zo hard gepushed in de nieuwe consoles en gpu's als NVIDIA niet de markt er klaar voor had gemaakt? Ik denk het niet. Je kan klagen over de proprietary rotzooi van NVIDIA, maar liever dat dan helemaal niet.
Ja en nee qua tools. Juist tools niet, eigenlijk. Ze hebben CUDA en het zijn juist anderen die over het algemeen slimme dingen ermee weten te doen. Ze kunnen dit soort dingen wel goed verpakken in een mooi product dat simpel te gebruiken is zonder dat je hoeft te snappen hoe het werkt. Het wordt wellicht niet los verkocht, maar onder een "tool" versta ik een library of applicatie waar je verschillende dingen mee kan doen, terwijl zoiets als DLSS juist heel erg gefocust is.

En dat is wat Jobs ook kon. Hij zag het potentieel in iets dat iemand had gemaakt, liet er vervolgens een mooi product omheen bouwen en wist dat in de markt te zetten. Hij was geen wiskundig genie of programmeur, maar wel een marketing genie.

Qua niet-Nvidia hardware is er echter wel nog steeds genoeg actieve ontwikkeling. Dingen als Google TPU's, een hoop propriétaire ASIC's en dergelijke. En qua software zijn alle top-libraries afkomstig van elders. Ze ondersteunen allemaal CUDA uiteraard, maar dát is de tool in dit geval.

En wat RT betreft, dat is niet iets van de laatste paar jaar. AMD's ontwikkeling voor de consoles was al bezig vóór Turing :p

Acties:
  • +1 Henk 'm!

  • killerbee1958
  • Registratie: Januari 2004
  • Laatst online: 00:50
Kuusj schreef op donderdag 3 september 2020 @ 13:55:
Ik denk dat we vooral met enige zekerheid kunnen stellen dat het alleen maar ingewikkelder aan het worden is om kaarten onderling te vergelijken. DLSS, RT, noem het maar op. Ik wil weten wat een RTX3080 qua pure ruwe performance zonder onzin als DLSS en RT doet tegenover andere kaarten (GTX1080/5700XT etc.).
Ik ben van mening dat dit niet "helemaal" waar is.
Uiteindelijk gaat het bij een videokaart niet eens om de ruwe performance en getalletjes maar gaat het om iets heel subjectiefs wat afgeleverd wordt en dat is beeldkwaliteit.

Sta mij toe een, misschien een beetje brakke, vergelijking met automotoren te maken.
Daar heb je ook allerlei technieken als turbo's, directe inspuiting, motor computer mgmt systemen etc om het geleverde vermogen te beïnvloeden.
Daar zijn we niet zo geintreseerd in hoe het vermogen bereikt wordt maar selecteren we een auto wel op het door ons gewenste en betaalbare vermogen.

Bij een videokaart ben ik vooral geintresseerd in de performance die die kaart neerzet in de door mij gespeelde spellen. Welke technieken die kaart daarvoor toepast zal mij als simpele gebruiker eigenlijk een worst zijn.

Dus technieken doen er wel terdege toe. Maar je moet wel kijken hoe relevant ze zijn irt in de door jou gebruikte applicaties.

Dat maakt benchmarking ook vaak zo lastig.
Benchmarks laten namelijk soms heel duidelijk zien dat sommige technieken geweldig zijn met spel A maar niets doen met spel B.
Als jij dan net geintresseerd bent in spel B dan heb je dus niks aan die techniek

Acties:
  • 0 Henk 'm!

  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 17-09 21:26
Vorig jaar zat ik te wachten tot AMD met hun killer kaarten kwam. Toen dat uitbleef, levering was in het begin erg slecht, heb ik voor het eerst ooit een nVidia GPU gekocht.

Dit jaar beetje hetzelfde verhaal, als leek snap ik niet dat AMD nu niet countert met meer info over hun nieuwe serie. Het zou mij afhouden van het kopen van een een 3080 als AMD iets concreets zou laten zien met een richtdatum voor de release.

Lopen ze niet gewoon een hele bak klanten mis, die nu allemaal op de nieuwe 30xx serie springen, door niks te doen of zeggen?

Vraag me af of ze de PC markt wel nodig hebben of willen nu ze beide consoles voorzien van de GPU.

xbox live / psn / steam / nintendo id: phusebox | iRacing


Acties:
  • 0 Henk 'm!

  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 02:17

thijsco19

KTM 990 SMT

Ze hebben natuurlijk nog wel een paar dagen tijd voordat de rtx30 serie beschikbaar is.

Het lijkt mij dat ze voor die tijd inderdaad wel iets aan marketing gaan doen.

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


Acties:
  • 0 Henk 'm!

  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 17-09 21:26
thijsco19 schreef op vrijdag 4 september 2020 @ 07:11:
Ze hebben natuurlijk nog wel een paar dagen tijd voordat de rtx30 serie beschikbaar is.

Het lijkt mij dat ze voor die tijd inderdaad wel iets aan marketing gaan doen.
Ja klopt. Hoop dat ze de komende 2 weken iets gaan laten zien.

xbox live / psn / steam / nintendo id: phusebox | iRacing


Acties:
  • 0 Henk 'm!

  • CerandoX.nl
  • Registratie: April 2004
  • Laatst online: 14-09 19:28

CerandoX.nl

Vides

Ze moeten toch wel. Ik kan blijven wachten totdat ik een ons weeg op deze manier. Als ze een 3080-like kaart op de markt brengen met 16GB vram, dan zou dat zeker in hun voordeel zijn (voor mij) om hun kaart te kopen.

Acties:
  • 0 Henk 'm!

  • mastr-dc
  • Registratie: November 2006
  • Laatst online: 19:35
Phusebox schreef op vrijdag 4 september 2020 @ 07:04:
Vorig jaar zat ik te wachten tot AMD met hun killer kaarten kwam. Toen dat uitbleef, levering was in het begin erg slecht, heb ik voor het eerst ooit een nVidia GPU gekocht.

Dit jaar beetje hetzelfde verhaal, als leek snap ik niet dat AMD nu niet countert met meer info over hun nieuwe serie. Het zou mij afhouden van het kopen van een een 3080 als AMD iets concreets zou laten zien met een richtdatum voor de release.

Lopen ze niet gewoon een hele bak klanten mis, die nu allemaal op de nieuwe 30xx serie springen, door niks te doen of zeggen?

Vraag me af of ze de PC markt wel nodig hebben of willen nu ze beide consoles voorzien van de GPU.
Ja AMD moet binnenkort met een aankondiging komen, maar zelf dan zal het allemaal wel meevallen. Volgens geruchting/inschattingen zijn de yields bij Samsung nog steeds niet wat het moet zijn. Dus de beschikbaarheid van de nieuwe kaarten is heel beperkt. Waarschijnlijk wil je die eerste kaarten ook niet hebben aangezien er een hoge failure rate zal zijn, net zoals bij de 2080 in het begin. Dit zal ten minste tot Q1 2021 zo zijn.

Met bovenstaande in gedachten heeft AMD nog wel wat tijd om te reageren. En als ze dan launchen hebben ze wel de yields en volumes van TSMC. Marketing wise zou het echter verstandig zijn van AMD om de komende 2 weken wel al iets te teasen om op zijn minst een paar hoofden de andere kant op de laten draaien.
Wie weet willen ze nog even wachten en alles samen aankondigen als package deal met Zen3/4000/5000 series CPU's

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
Welke 2080 failure rate?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Ik denk dat hij de 2080ti faillures bedoeld uit de eerste batches die problemen hadden met het geheugen. Is destijds redelijk breed in het technieuws geweest en ook bevestigd door Nvidia.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
Dennism schreef op vrijdag 4 september 2020 @ 10:07:
[...]


Ik denk dat hij de 2080ti faillures bedoeld uit de eerste batches die problemen hadden met het geheugen. Is destijds redelijk breed in het technieuws geweest en ook bevestigd door Nvidia.
Volgens mij viel zelfs dat wel mee.



Ik hoor ook geen enkele 2080 Ti koper het nu benoemen. Sterker nog, het is de allereerste keer sinds de Ampere announcement dat ik er iemand over hoor, dus veel indruk heeft het niet gemaakt allemaal.

[ Voor 5% gewijzigd door Paprika op 04-09-2020 10:13 ]


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 21:23
Nieuwe video van Coreteks met wat geruchten over zijn mening over Nvidia launch, maar ook nieuws over de nieuwe Radeon kaarten.


Coreteks was toch altijd wel redelijk optimistisch over Radeon, maar dat is nu getemperd lijkt het wel. Volgens zijn "sources" gaat AMD zich met Big Navi focussen op de 3070 niet de 3080 en willen ze inzetten op meer geheugen om hun aanbod aantrekkelijk te maken (16GB op Big Navi versus de 8GB van de 3070).
Lijkt me niet een bijster boeiende move, want met GDDR6 erop kan Nvidia zelfs nog kiezen tussen het uitbrengen van een vergelijkbare product met 16GB of ook gelijk de 3070 naar GDDR6X over te laten gaan.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Paprika schreef op vrijdag 4 september 2020 @ 10:13:
[...]

Volgens mij viel zelfs dat wel mee.

[YouTube: RTX 2080 Ti dying? A statement from Caseking]

Ik hoor ook geen enkele 2080 Ti koper het nu benoemen. Sterker nog, het is de allereerste keer sinds de Ampere announcement dat ik er iemand over hoor, dus veel indruk heeft het niet gemaakt allemaal.
Volgens mij was het ook geen enorm drama, maar wel groot genoeg dat Nvidia het erkende als probleem. Dat doe je niet als bedrijf als het om een handvol kaarten gaat.

Betekent natuurlijk niet dat de nieuwe reeks kaarten ook vanzelfsprekend een hoge failure rate zal hebben zoals Master-dc lijkt te suggereren

[ Voor 10% gewijzigd door Dennism op 04-09-2020 10:43 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
sjekneck schreef op vrijdag 4 september 2020 @ 10:20:
Nieuwe video van Coreteks met wat geruchten over zijn mening over Nvidia launch, maar ook nieuws over de nieuwe Radeon kaarten.
[YouTube: RTX 3000s - Is NVidia CRUSHING AMD for good?]

Coreteks was toch altijd wel redelijk optimistisch over Radeon, maar dat is nu getemperd lijkt het wel. Volgens zijn "sources" gaat AMD zich met Big Navi focussen op de 3070 niet de 3080 en willen ze inzetten op meer geheugen om hun aanbod aantrekkelijk te maken (16GB op Big Navi versus de 8GB van de 3070).
Lijkt me niet een bijster boeiende move, want met GDDR6 erop kan Nvidia zelfs nog kiezen tussen het uitbrengen van een vergelijkbare product met 16GB of ook gelijk de 3070 naar GDDR6X over te laten gaan.
Ik heb het ook gezien; ik kan het mij moeilijk voorstellen dat AMD niet in staat zou zijn om een kaart te maken die de RTX 2080 Ti voorbijgaat. Zelfs al zou deze op RDNA 1 gemaakt zijn.

AMD heeft verschillende manieren om aan die performance te komen:
  • De hogere IPC van RDNA2
  • Verdubbelen van de CU's van 40 naar 80. Ondanks dat dit niet perfect schaalt is van 251 mm² naar zit dit ergens ronde de 500-550mm², vergeleken met Nvidia kaarten nog steeds een kleine die.
  • De hogere clocksnelheden die haalbaar zijn met RDNA2 (door architectuur en een verbeterd process).
  • De nieuwe XBox chip krijgt al 2080-2080 Ti performance in package die hij moet delen met een Zen 2 8c/16t met 180Watt gebruik max, op een relatief lage clocksnelheid
  • De PS5 chip krijgt al 2080-2080 Super performance in package die hij moet delen met een Zen 2 8c/16t met maar 36 CU en wel een hogere clock
Als AMD het niet klaar speelt om een kaart te maken die zich kan matchen met de RTX 3080 dan hebben ze echt iets fout gedaan of willen ze zelf niet meedoen met de high end. Het kan ook zijn dat de XBox en PS5 teams gewoon beter zijn dan AMD zelf?
Dat de kaart misschien niet mee kan komen met de volle RT performance van Ampere dat wil ik best geloven, het is hun eerste generatie met RT.

[ Voor 3% gewijzigd door Sp3ci3s8472 op 04-09-2020 13:45 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 13:44:
[...]


Ik heb het ook gezien; ik kan het mij moeilijk voorstellen dat AMD niet in staat zou zijn om een kaart te maken die de RTX 2080 Ti voorbijgaat.
De RTX 3070 gaat de RTX 2080 Ti toch voorbij, dan zou het niet zo vreemd zijn als AMD op de 3070 zou focussen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
XWB schreef op vrijdag 4 september 2020 @ 13:48:
[...]


De RTX 3070 gaat de RTX 2080 Ti toch voorbij, dan zou het niet zo vreemd zijn als AMD op de 3070 zou focussen.
Volgens Nvidia, hoeveel weten we nog niet.

Als je een stap in de highend wil maken dan moet je als AMD toch echt wel kunnen inschatten dat Nvidia een kaart gaat uitbrengen die een stuk sneller is als een RTX 2080 Ti. Het lijkt mij logisch dat AMD dus als doel heeft om in ieder geval de 2080 Ti met een ruime marge te verslaan.

Acties:
  • 0 Henk 'm!

  • Jivebunny
  • Registratie: November 2010
  • Niet online

Jivebunny

Fail to plan. Plan to fail.

Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 13:52:
[...]


Volgens Nvidia, hoeveel weten we nog niet.

Als je een stap in de highend wil maken dan moet je als AMD toch echt wel kunnen inschatten dat Nvidia een kaart gaat uitbrengen die een stuk sneller is als een RTX 2080 Ti. Het lijkt mij logisch dat AMD dus als doel heeft om in ieder geval de 2080 Ti met een ruime marge te verslaan.
Maar dat is elke generatie volgens mij al het voornemen. Ja, ik denk dat ze deze keer zeker een grotere kans hebben, maar ik moet het nog maar zien gebeuren. Ik denk wel steeds dat nvidia goed geschrokken is van wat er aan zit te komen, maar ik denk niet dat AMD eroverheen gaat. Nog niet.

Pixel 9 Pro XL | NAS: HP Gen8 e3-1265L v2 16GB 12TB unRAID 6.9.2 | D: Ryzen 5600x 16GB 3000mhz RX 6800 XT MB Acer 27" IPS 144hz | Suzuki Swift 1.2 (2013)


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Jivebunny schreef op vrijdag 4 september 2020 @ 13:55:
[...]

Maar dat is elke generatie volgens mij al het voornemen. Ja, ik denk dat ze deze keer zeker een grotere kans hebben, maar ik moet het nog maar zien gebeuren. Ik denk wel steeds dat nvidia goed geschrokken is van wat er aan zit te komen, maar ik denk niet dat AMD eroverheen gaat. Nog niet.
Dat de 3090 buiten bereik ligt dat is prima, maar ik hoop toch echt dat ze rond 3080 performance gaan zitten.
Met Vega zaten ze veels te hoog van de toren te blazen (:P) en die archtectuur was ook veel meer op compute en datacenters gericht. Dat ze niet vol mee zouden komen had ik verwacht (ze kwamen tot de GTX 1080 met de Vega64). Met Polaris was het van te voren al redelijk duidelijk dat AMD niet de highend als doel had, de architecuur had dat ook niet gered.
Met RDNA 1 was het de eerste keer dat ik dacht dat ze een goede kans zouden hebben als ze hadden gepushed met een groterer chip, wellicht met Vega64 verbruik.
Als ze het met RDNA 2 niet kunnen waarmaken dan ben ik best teleurgesteld omdat dit weer een periode zonder echte competitie gaat geven.

Optie 3 waarom AMD het niet waar kan maken, te weinig wafer capaciteit? Dus grote chips zitten er gewoon niet in? Een 3700x heeft een die size van 74 mm² (los van de IO die) een 5700 heeft een die size van 251 mm², je kan dus meerdere 3700x halen uit een 5700. Geen idee of die vergelijking zo een op een mag.

Acties:
  • 0 Henk 'm!

  • Jivebunny
  • Registratie: November 2010
  • Niet online

Jivebunny

Fail to plan. Plan to fail.

Ja, Ik hoop ook dat ze op de 3080 uit kunnen komen, of liever zelfs toch aardig daarboven, want ik denk dat de gaten in de line-up van nvidia nu gewoon expres zijn, om er weer wat modelletjes tussen te frotten wanneer AMD erboven blijkt te zitten.

Pixel 9 Pro XL | NAS: HP Gen8 e3-1265L v2 16GB 12TB unRAID 6.9.2 | D: Ryzen 5600x 16GB 3000mhz RX 6800 XT MB Acer 27" IPS 144hz | Suzuki Swift 1.2 (2013)


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 13:44:
[...]


Ik heb het ook gezien; ik kan het mij moeilijk voorstellen dat AMD niet in staat zou zijn om een kaart te maken die de RTX 2080 Ti voorbijgaat. Zelfs al zou deze op RDNA 1 gemaakt zijn.

AMD heeft verschillende manieren om aan die performance te komen:
  • De hogere IPC van RDNA2
  • Verdubbelen van de CU's van 40 naar 80. Ondanks dat dit niet perfect schaalt is van 251 mm² naar zit dit ergens ronde de 500-550mm², vergeleken met Nvidia kaarten nog steeds een kleine die.
  • De hogere clocksnelheden die haalbaar zijn met RDNA2 (door architectuur en een verbeterd process).
  • De nieuwe XBox chip krijgt al 2080-2080 Ti performance in package die hij moet delen met een Zen 2 8c/16t met 180Watt gebruik max, op een relatief lage clocksnelheid
  • De PS5 chip krijgt al 2080-2080 Super performance in package die hij moet delen met een Zen 2 8c/16t met maar 36 CU en wel een hogere clock
Als AMD het niet klaar speelt om een kaart te maken die zich kan matchen met de RTX 3080 dan hebben ze echt iets fout gedaan of willen ze zelf niet meedoen met de high end. Het kan ook zijn dat de XBox en PS5 teams gewoon beter zijn dan AMD zelf?
Dat de kaart misschien niet mee kan komen met de volle RT performance van Ampere dat wil ik best geloven, het is hun eerste generatie met RT.
Zijn trackrecord is voorlopig ook nul als het niet gewoon negatief is. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 14:09:
[...]
Zijn trackrecord is voorlopig ook nul als het niet gewoon negatief is. :z
Ik heb inderdaad meer vertrouwen in Moores Law is Dead, die is tot nu toe met zijn leaks gewoon best accuraat.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sjekneck schreef op vrijdag 4 september 2020 @ 10:20:
Nieuwe video van Coreteks met wat geruchten over zijn mening over Nvidia launch, maar ook nieuws over de nieuwe Radeon kaarten.
[YouTube: RTX 3000s - Is NVidia CRUSHING AMD for good?]

Coreteks was toch altijd wel redelijk optimistisch over Radeon, maar dat is nu getemperd lijkt het wel. Volgens zijn "sources" gaat AMD zich met Big Navi focussen op de 3070 niet de 3080 en willen ze inzetten op meer geheugen om hun aanbod aantrekkelijk te maken (16GB op Big Navi versus de 8GB van de 3070).
Lijkt me niet een bijster boeiende move, want met GDDR6 erop kan Nvidia zelfs nog kiezen tussen het uitbrengen van een vergelijkbare product met 16GB of ook gelijk de 3070 naar GDDR6X over te laten gaan.
Ik heb altijd moeite met dat kanaal. Het klinkt als die text-to-speech spam kanalen.

Nu dacht ik, laat ik eens even snel door deze video springen. Spring ik toevallig naar pakweg 6:35 waar hij het volgende zegt: The Ampère SMs now have additional FP32 units in place of FP64 units, like on Turing.

Fout. Zowel Turing als Ampère hebben gewoon FP64 units. Sterker nog, Ampère heeft er meer dan Turing. Turing had er 2 per SM, in Ampère zijn het er weer 4 zoals Pascal. De FP64 throughput van Ampère is exact verdubbeld ten opzichte van Turing.

Met dit soort domme fouten kan ik de rest al niet meer serieus nemen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 14:30:
[...]


Ik heb inderdaad meer vertrouwen in Moores Law is Dead, die is tot nu toe met zijn leaks gewoon best accuraat.
Voor Nvidia valt dat ook wel tegen. 20 dingen roepen en dan op 4 vlakken correct zijn. De strategie van al die YouTubers.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 14:30:
[...]


Ik heb inderdaad meer vertrouwen in Moores Law is Dead, die is tot nu toe met zijn leaks gewoon best accuraat.
Hij is ook niet perfect, maar hij houdt het in de regel bij wat hem is verteld en gaan niet eindeloos speculeren en over analyseren. Verder zijn sommige podcasts echt goed en leerzaam. We hebben ook AdoredTV gehad met Samsung 5nm. Ik was meteen sceptisch en kijk eens aan, er klopt niks van. Omdat een pure play foundry een node aankondigt als massaproductie, bekent niet dat die ook meteen in productie is met (grote) chips. Zowel Radeon als GeForce producten zitten gewoon aan de late kant van een node cyclus omdat het zulke grote, verbruikende en voor het formaat relatief goedkope producten zijn. Is Nvidia ook nog veel voorzichtiger dan AMD omdat Nvidia veel meer verplichtingen heeft aan grote klanten.

Maar als ik het zo opsom dan was hij iets van 70 a 80% correct. Het was de twijfel over TSMC vs. Samsung en de RT claims lijken in de praktijk veel lager uit te pakken als we Digital Foundry erbij pakken. De dual FP32 datapath is maar door een leaker gespot die geloofde het zelf niet. De zeer hoge TDP's, ruw aantal Cuda Cores, GDDR6X, namen etc klopte allemaal.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 14:57:
[...]


Hij is ook niet perfect, maar hij houdt het in de regel bij wat hem is verteld en gaan niet eindeloos speculeren en over analyseren. Verder zijn sommige podcasts echt goed en leerzaam. We hebben ook AdoredTV gehad met Samsung 5nm. Ik was meteen sceptisch en kijk eens aan, er klopt niks van. Omdat een pure play foundry een node aankondigt als massaproductie, bekent niet dat die ook meteen in productie is met (grote) chips. Zowel Radeon als GeForce producten zitten gewoon aan de late kant van een node cyclus omdat het zulke grote, verbruikende en voor het formaat relatief goedkope producten zijn. Is Nvidia ook nog veel voorzichtiger dan AMD omdat Nvidia veel meer verplichtingen heeft aan grote klanten.

Maar als ik het zo opsom dan was hij iets van 70 a 80% correct. Het was de twijfel over TSMC vs. Samsung en de RT claims lijken in de praktijk veel lager uit te pakken als we Digital Foundry erbij pakken. De dual FP32 datapath is maar door een leaker gespot die geloofde het zelf niet. De zeer hoge TDP's, ruwe core config, GDDR6X, namen etc klopte allemaal.
Klopt, hij is de beste bron voor informatie op dit moment. Hij zorgt ervoor dat ze bronnen legitiem zijn (vraagt om validatie) en pas als hij meerdere bronnen hebben die hetzelfde zeggen dan zal plaatst hij een gedeelte van de informatie.
Het probleem met AdoredTV is dat de podcasts nu meer door die andere mensen wordt gerunned en niet door Jim. De kwaliteit is daardoor achteruit gegaan want ze hebben niet hetzelfde analytisch vermogen wat Jim heeft. Dit keer heeft AdoredTV volgens mij wat minder goede bronnen, hij was vooral bezig met de rommel binnen Intel, waarschijnlijk ook de aanleiding waarom Dr. Venkata (Murthy) Renduchintala Intel heeft moeten verlaten en waarschijnlijk waarom Jim Keller er eerder mee is gestopt.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19:06

edward2

Schieten op de beesten

Big Navi?,
They [AMD] want to release the 16GB at $599 and the 8GB at $499 but after the Ampere announcement I'm expecting $549 for the 16GB and $499 for the 8GB. We're receiving the ASIC (GPU+MEM) this month [September]" - AMD partner
https://twitter.com/coreteks/status/1301839482287796224?s=20

Goedkoper dan de RTX3080, dus ook minder perf., of...?

[ Voor 5% gewijzigd door edward2 op 04-09-2020 15:07 ]

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 15:05:
[...]


Klopt, hij is de beste bron voor informatie op dit moment. Hij zorgt ervoor dat ze bronnen legitiem zijn (vraagt om validatie) en pas als hij meerdere bronnen hebben die hetzelfde zeggen dan zal plaatst hij een gedeelte van de informatie.
Het probleem met AdoredTV is dat de podcasts nu meer door die andere mensen wordt gerunned en niet door Jim. De kwaliteit is daardoor achteruit gegaan want ze hebben niet hetzelfde analytisch vermogen wat Jim heeft. Dit keer heeft AdoredTV volgens mij wat minder goede bronnen, hij was vooral bezig met de rommel binnen Intel, waarschijnlijk ook de aanleiding waarom Dr. Venkata (Murthy) Renduchintala Intel heeft moeten verlaten en waarschijnlijk waarom Jim Keller er eerder mee is gestopt.
Jim ging anders ook aardig de mist in met Samsung 5nm LPP. Het lijkt er zelfs op dat Nvidia een aangepaste 8nm gebruikt met een iets hogere dichtheid. Dat is het probleem eigenlijk daar. Zodra hij gaat analyseren, gaat hij te ver. Hetzelfde gebeurde met Zen 2 @5GHz en toen heb ik mijn lesje ook geleerd. :z
edward2 schreef op vrijdag 4 september 2020 @ 15:07:
Big Navi?,


[...]


https://twitter.com/coreteks/status/1301839482287796224?s=20

Goedkoper dan de RTX3080, dus ook minder perf., of...?
Dat is dus dezelfde Coreteks die hierboven ook al word afgefakkeld. :+
Maar er zijn waarschijnlijk vier Navi 2x chips en het was volgens mij Igorslab die waarschuwde dat AMD op het moment zeer paranoïde is als het om informatie aan AIB's geven gaat. Wat is de bron hier, AIB. Ook lijkt dit GDDR6 te zijn en dat is waarschijnlijk niet Navi 21. Heel wat zout dus. ;)

[ Voor 21% gewijzigd door DaniëlWW2 op 04-09-2020 15:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Paprika schreef op vrijdag 4 september 2020 @ 14:46:
[...]

Voor Nvidia valt dat ook wel tegen. 20 dingen roepen en dan op 4 vlakken correct zijn. De strategie van al die YouTubers.
In de oude dagen hadden we The Inquirer die dat soort fratsen uithaalde.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19:06

edward2

Schieten op de beesten

Ja, ik zet er daarom ook een vraagteken(s) bij. Hopelijk klopt HBM2E voor Navi21.

Niet op voorraad.


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Paprika schreef op vrijdag 4 september 2020 @ 14:46:
[...]

Voor Nvidia valt dat ook wel tegen. 20 dingen roepen en dan op 4 vlakken correct zijn. De strategie van al die YouTubers.
Volgens mij had hij een stuk meer goed.
  • Gebruik van 320W en 350W
  • Samsung als foundry, met de 8nm
  • De namen van de kaarten, eerste keer dat ik van de 3090 hoorde
  • Het geheugen
Op de rest van de dingen heeft hij duidelijk aangegeven dat het speculatie is.

Ik zou eerder videocards of wfctech als de inquirer beschrijven. Daarnaast hebben die vrij weinig eigen bronnen en pakken ze zelfs de info van Moores Law is Dead (en dan niet eens dat als bron vermelden :z )

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 15:29:
[...]


Volgens mij had hij een stuk meer goed.
  • Gebruik van 320W en 350W
  • Samsung als foundry, met de 8nm
  • De namen van de kaarten, eerste keer dat ik van de 3090 hoorde
  • Het geheugen
Die data stond al langer op Twitter, dus dat is ook maar overgenomen data, maar misschien haal ik ook maar tijdlijnen door elkaar.

[ Voor 6% gewijzigd door Paprika op 04-09-2020 15:39 ]


Acties:
  • +2 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 23:27


Afbeelding bij de bovenstaande tweet.

AMD zegt dat er nog meer easter eggs zijn verstopt. https://twitter.com/AzorF.../1301859512136142848?s=19

Gaat het dan eindelijk beginnen? *O*

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • Simbob
  • Registratie: December 2009
  • Niet online
edward2 schreef op vrijdag 4 september 2020 @ 15:07:
Big Navi?,


[...]


https://twitter.com/coreteks/status/1301839482287796224?s=20

Goedkoper dan de RTX3080, dus ook minder perf., of...?
Voor 16Gb met de performance tussen de 3070 en 3080 en goede drivers voor 600 euro 8)

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
edward2 schreef op vrijdag 4 september 2020 @ 15:07:
Big Navi?,


[...]


https://twitter.com/coreteks/status/1301839482287796224?s=20

Goedkoper dan de RTX3080, dus ook minder perf., of...?
Dan moet hij vergelijkbaar zijn met de RTX3070. En geen idee of dat de snelste moet zijn van AMD, maar het is iig een HBM versie (als ze ook de memory erbij ontvangen).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 4 september 2020 @ 15:36:
[...]

Die data stond al langer op Twitter, dus dat is ook maar overgenomen data, maar misschien haal ik ook maar tijdlijnen door elkaar.
Nee, hij was een van de, zo niet de eerste die over Samsung 8nm, 320W/350W, GDDR6X en RTX3080/RTX3090 begon. Dat is uiteindelijk de kern van het verhaal. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 19-09 10:42
Datum van minstens een officiele aankonding graag!?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Psyonara schreef op vrijdag 4 september 2020 @ 15:50:
Datum van minstens een officiele aankonding graag!?
Als ik dat wist, dan zou ik het verkopen aan de leaksite met het hoogste bod. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 15:48:
[...]


Nee, hij was een van de, zo niet de eerste die over Samsung 8nm, 320W/350W, GDDR6X en RTX3080/RTX3090 begon. Dat is uiteindelijk de kern van het verhaal. :)
Heb je wat linkjes? Ik zit even op beyond3d te kijken en de tijdlijn en bronnen gedurende de tijdlijn ziet er wel wat anders uit daar.

[ Voor 4% gewijzigd door Paprika op 04-09-2020 15:53 ]


Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 19-09 06:23
edward2 schreef op vrijdag 4 september 2020 @ 15:07:
Big Navi?,


[...]


https://twitter.com/coreteks/status/1301839482287796224?s=20

Goedkoper dan de RTX3080, dus ook minder perf., of...?
Volg het verder wat minder dan sommige mensen hier, maar als ik ditzelfde bericht zie op Reddit dan is de meest populaire comment dat diezelfde dude ook voorspeld zou hebben dat de nieuwe Xbox $900 zou gaan kosten en niet bijster positief was over Navi2 in general. Lijkt me dan ook niet echt het vermelden waard hier.

Sowieso hou ik het liever bij officiële bronnen of een bron die in het verleden heeft aangetoond dat de zaken meestal wel kloppen. Anyway, ik hoop dat AMD iig voor de launch date van de RTX 3000 series wat van zich laat horen, want als ik zelf op dit moment een gfx card zou moeten kopen, dan zou ik zeker voor Nvidia gaan (zelfs als "AMD-aanhanger").

Moet alleen nog ff wachten op Zen 3, dus dan pakken we Navi2 ook maar mee.

Acties:
  • +1 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 19-09 16:13

ikt

Mijn RTX 2070 is bijna 2 jaartjes oud weer. Als AMD met iets leuks komt (beter/vergelijkbaar dan/met een 3070 voor een vergelijkbare prijs) kan ik mijn huidige kaart weer doorschuiven, want die doet het nog zeer goed.

Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 19-09 10:42
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 15:52:
[...]


Als ik dat wist, dan zou ik het verkopen aan de leaksite met het hoogste bod. ;)
Snap het, maar die Teasers en Speculaties irriteren meer dan hypen eerlijk gezegt.

Iedereeen wil een nieuwe GPU de komende maanden.voorlopig voornamelijk wegens Cyberpunk. (Myself included)

En zou best graag terug willen naar Radeon. Hoewel voor Productiviteit Nvidia mogelijk beter is en blijft.
Maar heb eigenlijks geen zin om op Nvidia te wachten als AMD out of the Gate met meer Vram komt op hun pixel pushers.

Omstandigheden lijken wel wat een zootje betreft dit allemaal als dit het geval is.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 4 september 2020 @ 15:52:
[...]

Heb je wat linkjes? Ik zit even op beyond3d te kijken en de tijdlijn en bronnen gedurende de tijdlijn ziet er wel wat anders uit daar.
Het was meer een ontwikkeling. Ik moest dus ook even snel kijken. In mei begon hij al over 5376CC voor GA102 en wat toen kennelijk nog NVCache heette wat nu dus RTX I/O is.
YouTube: Nvidia 3080 Ti & Ampere FULL Leak: Overclocking & 18Gbps needed to D...

In juni al RTX3090 24GB en dat die koeling echt was.
YouTube: Nvidia RTX 3090 24GB, AMD RDNA 2, Intel Ocean Cove | GPU Blood in th...

Juli was zaken zoals de 12 pin, HDMI 2.1 en USB C verwijderd, max circa 2GHz en circa 40% sneller dan RTX2080Ti.
YouTube: Nvidia Ampere Arrogance Leak: AMD Really Could Win with RDNA 2
Ook steeds meer Samsung 8nm.
YouTube: Sell your RTX 2080 Ti before RDNA 2 & Ampere kill it in September

En zo ging het door en werd het steeds duidelijker. Ik zag ook net dat hij ook op Beyond3D word aangehaald. :)

Ik denk alleen dat ik GDDR6X verkeerd heb onthouden. Dat lijkt Igor te zijn geweest. :$

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 21:23
Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 13:44:
[...]


Ik heb het ook gezien; ik kan het mij moeilijk voorstellen dat AMD niet in staat zou zijn om een kaart te maken die de RTX 2080 Ti voorbijgaat. Zelfs al zou deze op RDNA 1 gemaakt zijn.

AMD heeft verschillende manieren om aan die performance te komen:
Ik wil toch ingaan op je punten en mijn mening geven voor de heck of it. Een paar van de statements irriteren me namelijk al maanden en komen constant terug als een soort heilige graal.
• De hogere IPC van RDNA2
Hoeveel hoger dan? Ik vind de verwachtingen rondom de verbeterde versie van dezelfde architectuur namelijk te hoog. Uiteraard zijn verbeteringen mogelijk, maar het blijft in grote lijnen hetzelfde als RDNA1. Om gelijk even het ultieme voorbeeld GCN maar eens op tafel te smijten.
Begrijp me goed, van GCN, naar RDNA1 zie je echt wel waar het nu beter gaat. Ik verwacht niet dat je een zelfde sprong gaat krijgen naar een 2e versie van een vergelijkbaar ontwerp met tweaks.
• Verdubbelen van de CU's van 40 naar 80. Ondanks dat dit niet perfect schaalt is van 251 mm² naar zit dit ergens ronde de 500-550mm², vergeleken met Nvidia kaarten nog steeds een kleine die.
Deze blijft ook maar terugkomen. Een paar sidenotes bij een dergelijke optie op basis van common sense.

Een verdubbeling van CU's schaalt niet per definitie evenredig mee.
Er komt altijd andere overhead/bottlenecks bij kijken of bottlenecks bij als je opschaalt. Er is geen perfect design die op alle variabelen precies doet wat je hoopt. Daarom kom je vaak met meerdere ontwerpen voor ranges om binnen die familie een balans gaat ontwerpen voor specifieke samenstellingen

Kun je het verbruik bij een verdubbeling van een bestaand design het TDP in toom houden?
Vergis je niet, de 5700xt zit nu op 7nm en doet nu 225 Watt. De stap naar een ander 7nm node gaat echt geen wonderen verrichten. Als de stap van 16nm naar 12nm van Nvidia weinig voorstelde volgens de kenners hier, dan is 7 naar 7+ van AMD op zijn minst "same shit different name".
• De hogere clocksnelheden die haalbaar zijn met RDNA2 (door architectuur en een verbeterd process).
Als je dan de 5700xt keer 2 doet, dan moeten er een concessies gemaakt worden om niet naar 350+ Watt te gaan. Of de clocks vallen lager uit, of je moet snijden in functies/delen van je design wegsnijden. Beide zullen een verdubbeling in prestaties in de weg gaan zitten als het de architectuur zelf als niet is die gaat bottlenecken. GCN schaalde op een gegeven moment ook niet best meer, net als Kepler destijds.

Hoewel de Navi serie echt zuinger is geworden, is dit nog altijd niet op het niveau van Nvidia. Die hebben duidelijk nog steeds een voorsprong en kunnen daarmee dus makkelijker bigger gaan. Wat Nvidia nu wel nekt is een mindere node van Samsung. Dit lijkt bij de grootste chips wel een puntje te kunnen worden naar de toekomst.
Sommige mensen denken dat AMD en veel groter kan gaan en ook veel hoger kan inzetten op clockspeed. Ik spreek dit tegen, want grotere chips resulteren vrijwel altijd in lagere clocks.
1. omdat het verbruik hard oploopt als je groet en
2. omdat de temperatuur ook hard oploopt in deze groei.

Nvidia's grootste chips lopen ook altijd op lagere clocks net als grote cpu's met meer cores. En dan heb ik nog niet eens yields aangeraakt....
• De nieuwe XBox chip krijgt al 2080-2080 Ti performance in package die hij moet delen met een Zen 2 8c/16t met 180Watt gebruik max, op een relatief lage clocksnelheid
Dit heb ik al eens eerder gemeld. In een console kunnen CPU en GPU nooit beide 100% load hebben binnen dat verbruik, dan zou de apu ook smelten btw :P. Het is een dynamisch ontwerp met een max verbruik voor alle hardware samen. Prestaties vallen dan minder uit voor CPU of GPU in een scenario. Als de GPU full load bezig is, dan blijft er weinig over voor de CPU. Een PS4 kan ook meer met minder verbruik ;)
En waar staat bewezen dat de Xbox evenveel prestaties gaat bieden als een 2080ti en een PS5 als een 2080? Op basis van TFLOPS op papier in theorie mischien wel, maar we weten allemaal dat AMD t/m Turing minder doet met TFLOPS. En TFLOPS is niet altijd even relevant. Ik zou eerder denken aan 2080 prestaties voor de Xbox plus/in een paar procent best case. De marketing slides van MS en Sony = marketing at its best. Voor de prijs van een console kun/mag je geen wonderen verwachten.
• De PS5 chip krijgt al 2080-2080 Super performance in package die hij moet delen met een Zen 2 8c/16t met maar 36 CU en wel een hogere clock
Hier heb ik eigenlijk al verklaring op gegeven en doe je zelf ook al (36 CU). De PS5 GPU is kleiner en kan daardoor makkelijk hoger clocken, want kleiner en verbruikt minder. Bij Xbox zie je al dat groter op clocks moet inleveren. Zelfde verhaal als bij een CPU. De hele hoge core designs moeten ook inleveren op clocks.
Als AMD het weet te flikken om een chip te bakken die 2x zo groot is, nog veel hoger kan clocken en op een acceptabel verbruik zou dat heel tof zijn (chapeau). Ik geloof er weinig van dat dit echter mogelijk is, hoe graag sommige dat wel suggereren.
Als AMD het niet klaar speelt om een kaart te maken die zich kan matchen met de RTX 3080 dan hebben ze echt iets fout gedaan of willen ze zelf niet meedoen met de high end. Het kan ook zijn dat de XBox en PS5 teams gewoon beter zijn dan AMD zelf?
Dat de kaart misschien niet mee kan komen met de volle RT performance van Ampere dat wil ik best geloven, het is hun eerste generatie met RT.
Of is AMD gewoon meer bezig met console chips dan ze werken aan desktop chips? Grote kans dat ze Nvidia verslaan als kansloos hebben beschouwd en liever gaan voor de relaties en contracten met MS en Sony als eikpunt. Daar zit de focus. Alles wat ze op desktop erbij doen is dan mooi meegenomen. Dit zou wel passen in de slechte lineup van GPU families die ze de laatste jaren hebben. Altijd incompleet en altijd te laat.

Nvidia is op GPU tak te dominant geworden voor AMD vrees ik. Kijk naar de super lineup van vorig jaar. Dat antwoord was al in productie voordat de officiële introductie van de 5700 serie was gedaan. Ja Nvidia is duurder, maar ze kunnen dat vragen want het geniet gewoon meer vertrouwen van de markt dan AMD heeft (bij videokaarten).
Kijk gewoon naar de feiten. Nvidia is al langere tijd niet eens meer aan het vergelijken met AMD naar de buitenwereld. De hele Turing + Ampere presentaties gaan enkel nog over hun eigen voorgaande producten. Het feit dat ze AMD niet eens noemen is tekenend. Nvidia deed dit vroeger maar al te graag. De Turing super lineup was gewoon een kick in the balls naam AMD zonder ze bij naam te noemen. Nvidia bracht super en AMD moest gelijk marge inleveren op Navi zonder er maar één verkocht te hebben.
Dat is jammer voor de markt, maar AMD heeft te lang (pak hem beet 10 jaar) op 2 vlakken zitten slapen. CPU is nu uit het slop, maar GPU nog lange niet.

Acties:
  • +3 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 15:29:
[...]


Volgens mij had hij een stuk meer goed.
  • Gebruik van 320W en 350W
  • Samsung als foundry, met de 8nm
  • De namen van de kaarten, eerste keer dat ik van de 3090 hoorde
  • Het geheugen
Op de rest van de dingen heeft hij duidelijk aangegeven dat het speculatie is.

Ik zou eerder videocards of wfctech als de inquirer beschrijven. Daarnaast hebben die vrij weinig eigen bronnen en pakken ze zelfs de info van Moores Law is Dead (en dan niet eens dat als bron vermelden :z )
Ik krijg bij hem altijd een beetje het gevoel dat hij van alles roept (doen andere techtubers uiteraard ook) en dan heb je natuurlijk al snel vaak (deels) gelijk. Zo heb ik hem ook 5,7 en 8nm processes horen noemen, TDP's van 200 tot 400W, 2.2Ghz boost clocks en ga zo maar door.

Misschien moeten we bij een volgende generatie gpu's of cpu's hier eens in een thread alle leaks duidelijk bijhouden en dan kijken wie er daadwerkelijk aan het eind de meest consistente leaks had zonder dat er "met hagel geschoten" wordt.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
sjekneck schreef op vrijdag 4 september 2020 @ 16:19:
[...]
Hoeveel hoger dan? Ik vind de verwachtingen rondom de verbeterde versie van dezelfde architectuur namelijk te hoog. Uiteraard zijn verbeteringen mogelijk, maar het blijft in grote lijnen hetzelfde als RDNA1. Om gelijk even het ultieme voorbeeld GCN maar eens op tafel te smijten.
Begrijp me goed, van GCN, naar RDNA1 zie je echt wel waar het nu beter gaat. Ik verwacht niet dat je een zelfde sprong gaat krijgen naar een 2e versie van een vergelijkbaar ontwerp met tweaks.
Ik verwacht hier geen wereld wonderen, maar ik denk zelf ergens tussen de 5-15%.

De andere punten zijn al inderdaad vaker gediscuseerd. Ook al zou je maar een schaling hebben van 50% voor het verdubbelen van je chip dan zit je alsnog al boven de 2080 Ti, je zal de clocksnelheden wellicht wat naar beneden moeten brengen om niet boven de 350 Watt uit te komen maar dat is prima te doen gezien de 5700 (non XT) best efficient is volgens de benchmarks. Ze hebben +/- maar 35% meer nodig met een 5700XT om de RTX 2080 Ti te verslaan.

Punt wat je maakt met de XBox. Zowel de Zen 2 chip als de RDNA 2 chip lopen op vaste clocks en boosten niet. Nu weet ik niet direct of/hoe het power budget wordt verdeeld als iets wel of niet actief is. Het lijkt mij niet raar te stellen dat de GPU 150 Watt gebruikt.

@Dennism
Lijkt mij een leuk idee inderdaad.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 21:23
Sp3ci3s8472 schreef op vrijdag 4 september 2020 @ 16:37:
[...]


Ik verwacht hier geen wereld wonderen, maar ik denk zelf ergens tussen de 5-15%.

De andere punten zijn al inderdaad vaker gediscuseerd. Ook al zou je maar een schaling hebben van 50% voor het verdubbelen van je chip dan zit je alsnog al boven de 2080 Ti, je zal de clocksnelheden wellicht wat naar beneden moeten brengen om niet boven de 350 Watt uit te komen maar dat is prima te doen gezien de 5700 (non XT) best efficient is volgens de benchmarks. Ze hebben +/- maar 35% meer nodig met een 5700XT om de RTX 2080 Ti te verslaan.
AMD heeft meer nodig dan 35%. Op 1920x1080 ga je geen big navi kopen en daar is het 35% om te matchen met de 2080ti. Op 1440p echter...
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/relative-performance_2560-1440.png

Op 4K is het al meer dan 50%. Om de 3080 aan te gaan moeten ze dus echt minimaal verdubbelen en nog wat meer. Voor Nvidia was van Turing af iets makkelijker want ze komen van een grote node af naar 8nm. Op vrijwel dezelfde node verdubbelen is echt een uitdaging. Dat Weet Nvidia ook en die weten waarschijnlijk best goed waar ze Big Navi kunnen verwachten.
Punt wat je maakt met de XBox. Zowel de Zen 2 chip als de RDNA 2 chip lopen op vaste clocks en boosten niet. Nu weet ik niet direct of/hoe het power budget wordt verdeeld als iets wel of niet actief is. Het lijkt mij niet raar te stellen dat de GPU 150 Watt gebruikt.
Ik snap je punt wel, maar je mist de mijne lijkt het wel. Je kijkt heel fixed op het verbruik van de nieuwe consoles en vergelijkt dat verbruik 1 op 1 naar Big Navi. Kijk nou eens naar het verbuik de vorige consoles. Ook die zijn per Watt veel efficiënter dan de gpu/cpu waar ze van afgeleid zijn. Een console is echter een dedicated apparaat, gemaakt voor gaming als hoofdzaak. CPU en GPU delen daar geheugen etc en zaken worden weggelaten die ze niet nodig hebben. Letterlijk alles is op elkaar afgestemd met één doel voor ogen. Een losse videokaart is nooit zo efficiënt geweest en ik probeer je alleen maar te zeggen dat je dat ook niet hoeft te verwachten van Big Navi. Het is appels met peren....

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 4 september 2020 @ 16:35:
Misschien moeten we bij een volgende generatie gpu's of cpu's hier eens in een thread alle leaks duidelijk bijhouden en dan kijken wie er daadwerkelijk aan het eind de meest consistente leaks had zonder dat er "met hagel geschoten" wordt.
Als je het zo scherp wil hebben, tja.
https://twitter.com/kopite7kimi

Helaas lijkt die de boel afgeschermd te hebben.

Deze is ook in de regel zeer betrouwbaar.
https://twitter.com/_rogame

Dan was er https://www.igorslab.de/en/ die ook met een paar dingen helemaal goed zat.
Daaronder komt dan YouTube: Moore's Law Is Dead - YouTube die met heel veel kwam en grotendeels correct zat. Dat is meer risico, maar in dit geval lijkt het erg goed uitgepakt te hebben.

Zo ongeveer al het andere was onzin.

Maar buiten Igor hebben deze allemaal aangegeven dat RDNA2 er ook zeer goed uitziet, dus daar gaan we gewoon even op wachten. Ik bedoel, je hoort ook eindeloos te wachten op Radeon, dat is traditie. :z

Ik ben bang dat ik er uiteindelijk eentje zal gaan kopen vanwege: nieuws: The Witcher 3 met raytracing verschijnt voor PlayStation 5, Xbox Seri...
Damn you CD Projekt Red en je Witcher 3 grafische upgrade met DXR. :( :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
sjekneck schreef op vrijdag 4 september 2020 @ 16:54:
[...]

AMD heeft meer nodig dan 35%. Op 1920x1080 ga je geen big navi kopen en daar is het 35% om te matchen met de 2080ti. Op 1440p echter...
[Afbeelding]

Op 4K is het al meer dan 50%. Om de 3080 aan te gaan moeten ze dus echt minimaal verdubbelen en nog wat meer. Voor Nvidia was van Turing af iets makkelijker want ze komen van een grote node af naar 8nm. Op vrijwel dezelfde node verdubbelen is echt een uitdaging. Dat Weet Nvidia ook en die weten waarschijnlijk best goed waar ze Big Navi kunnen verwachten.
Ik had mijn bron even moeten vermelden:
https://www.techpowerup.c...s/radeon-rx-5700-xt.c3339
Vreemd dat dit zo afwijkt, het kan inderdaad de resolutie zijn.
Based on TPU review data: "Performance Summary" at 1920x1080.
[...]

Ik snap je punt wel, maar je mist de mijne lijkt het wel. Je kijkt heel fixed op het verbruik van de nieuwe consoles en vergelijkt dat verbruik 1 op 1 naar Big Navi. Kijk nou eens naar het verbuik de vorige consoles. Ook die zijn per Watt veel efficiënter dan de gpu/cpu waar ze van afgeleid zijn. Een console is echter een dedicated apparaat, gemaakt voor gaming als hoofdzaak. CPU en GPU delen daar geheugen etc en zaken worden weggelaten die ze niet nodig hebben. Letterlijk alles is op elkaar afgestemd met één doel voor ogen. Een losse videokaart is nooit zo efficiënt geweest en ik probeer je alleen maar te zeggen dat je dat ook niet hoeft te verwachten van Big Navi. Het is appels met peren....
Dan zijn we het daar over eens; ik zeg ook niet dat dit een op een te vergelijken is maar wel een indicatie. Want we weten ook dat AMD te vaak over de meeste efficiente clocksnelheden heengaat.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
Volgens mij komt echt heel veel van kopite7kimi en wordt dat gewoon her en der nagepraat.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 16:59:
[...]


Als je het zo scherp wil hebben, tja.
[https://twitter.com/kopite7kimi

Helaas lijkt die de boel afgeschermd te hebben.

Deze is ook in de regel zeer betrouwbaar.
https://twitter.com/_rogame

Dan was er https://www.igorslab.de/en/ die ook met een paar dingen helemaal goed zat.
Daaronder komt dan YouTube: Moore's Law Is Dead - YouTube die met heel veel kwam en grotendeels correct zat. Dat is meer risico, maar in dit geval lijkt het erg goed uitgepakt te hebben.
/URL]
Zeker de eerste 2 zijn dan natuurlijk ook wel redelijke bekende leakers en igor heeft natuurlijk ook een reputatie. Wat ik eigenlijk best vaak met Tom van Moores Law heb is dat ik regelmatig het gevoel heb dat wanneer hij iets leaked dat ik dat al ergens anders gelezen / gehoord heb.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Paprika schreef op vrijdag 4 september 2020 @ 17:08:
Volgens mij komt echt heel veel van kopite7kimi en wordt dat gewoon her en der nagepraat.
Dat idee heb ik ook een beetje, bijvoorbeeld de Navi22 Navi23 afmetingen, door niemand anders onafhankelijk bevestigd. De lippen zitten strak op elkaar bij AMD.

Toch ben ik hoopvol. Grotere chips en hogere clocks klinkt onwaarschijnlijk, maar als de RDNA architectuur werkelijk zo schaalbaar is ontworpen als AMD beweert, zit er een maximum kloksnelheid verhoging in van 10% (bij iso-power) van 7NFF naar 7N+ (TSMC roadmap 2019).

De base clock is daarbij belangrijker dan de boost clock. De boost clock is bij nVidia gedaald van TitanRTX TU102 (16)12nm 1770 MHz -> 3090 GA102 (10)8nm 1700MHz, terwijl de die size kleiner is. Dat spreekt het argument al een beetje tegen dat kleiner altijd sneller is, of groter altijd langzamer. 1 tegenvoorbeeld is genoeg. We weten de base clock nog niet van de RTX30xx serie, die van TU102 was 1350MHz. Wel weten we dat GA102 3090 28 miljard transistors heeft en Navi21 vermoedelijk 21 miljard.

Kan snelheid transistors compenseren? Ja, kijk maar naar Intel single core performance, nog steeds betere FPS in games (hoewel ik een AMD CPU zou kopen). Base clock van 5700XTX is 1680MHz, 24% hoger dan 2080Ti. Een oneerlijke vergelijking, aangezien 2080 Super base ook 1650 MHz haalt. Maar het gaat hier om de base clock van de 3090, en die van big navi 21. Het kàn, zeker aangezien TSMC 7N+ veel beter is dan Samsung (10)8nm.

Dan het idee van performance per Watt, en dat RDNA1 te kort schiet met de RX5700XT. Het schijnt dat als je ondervolt, je een veel betere performance per Watt krijgt. Dus staar je daar niet op blind. IPC gain ook niet. Het gaat om het totaalplaatje, de nieuwe performance per Watt.

In Delft gestudeerd, echte ingenieurs zeggen niet zo snel dingen als "nVidia killer". Misschien hebben ze inderdaad een schaalbaar-in-afmeting architectuur gevonden. Natuurkundig is er namelijk niet een verbod op dezelfde kloksnelheid bij grotere afmeting, mits je de lekstromen en quantum effecten maar onder controle houdt. Verander je het lithografie proces, dan kan het zelfs hoger. Maar goed, eerst zien, dan geloven, dat blijft helemaal waar.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

kopite7kimi is natuurlijk bijzonder, dat moge duidelijk zijn. Toch vertelt die je ook niet alles. Zaken zoals NVCache/RTX I/O kan je er niet terugvinden. Maar het begint hier angstaanjagend veel op het Nvidia topic te lijken i.p.v. het AMD topic. :P


Ik zie het nog steeds positief in qua RDNA2. Zelfs zonder clock speed bump ten opzichte van de RX5700XT en alleen een efficiëntiesprong, mede door HBM2E. Een RX5700XT is immers 180W met 1,2v voor de core en TBP is 225W. AIB modellen zijn meestal 190 a 200W voor de core en de OC modellen 220W. Komt er nog iets van 40W bovenop voor GDDR6. Een 384 bit bus zit waarschijnlijk al op de 60W met GDDR6 en GDDR6X lijkt meer te verbruiken dan GDDR6. Ik denk dat AMD met HBM2E, zo 40W kan winnen op GA102 ongeacht voordelen in procedé (ik denk N7P (DUV) en niet N7+ (EUV)) of verbeteringen architectuur. Immers zou HBM2E ook nog eens efficiënter zijn.

De grootste "zorg" is denk ik ook wel weg, namelijk de enorme theoretische TFLOPS toename van Ampere. Tja die is gebaseerd op niks dat Navi 21 eigenlijk niet zou kunnen. Afgezet tegen de RTX3080 kijk je naar meestal 4352 FP32 ALU's en in bepaalde scenario's maximaal 8704 FP32 ALU's. Die tweede lijkt alleen zeker niet de standaard te zijn gezien de 70 a 80% sneller dan de RTX2080 in Nvidia cherry picks. Waar in theorie dit zich zou vertalen in ongeveer 29,6TFLOPS als je rekent met 1700MHz (2 X 1700MHx X 8704CC), is de praktijk veel weerbarstiger. Eigenlijk hoe meer integer operaties een game vraagt, hoe minder zinvol die extra Cuda Cores gaan worden. Ze zijn immers alleen aanspreekbaar als je geen INT in die warp hebt zitten. Daar lijkt zelfs in de cherry picks, maar iets van 20 a 30% van de warps, sprake van te zijn. Is het niet in gebruik, dan kijk je naar 14,8TFLOPS.

En dit klopt al niet. Het zijn wel 32 ALU's waarvan de helft in parallel ook INT32 kan doen. Alsnog is er ergens een forse bottleneck die ervoor zorgt dat die extra FP32 cores maar voor 30% extra snelheid zorgen.

Zie ook: Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Een op 1900MHz draaiende 80CU Navi 21 zou al maximaal 19,5TFOPS doen, maar dat kan die chip ook echt altijd. Ga je naar 2000MHz en dan zit je al op 20,5TFlops en eigenlijk elke 100MHz is het ongeveer 1TFLOP met zo'n grote chip. De volle Navi 21 zou op deze manier eigenlijk de RTX3080 al moeten kunnen verslaan op efficiëntie. Dat gat zou ook alleen maar groter en groter kunnen worden omdat compute steeds belangrijker word. Nvidia voegde niet voor niks de INT32 cores toe aan Turing i.p.v. meer FP32 cores zoals in "Paxwell".


@sunsmountain Dat is de RX5700XT ook. De RTG kiest er al jaren voor om tenminste een deel van hun chips behoorlijk hoge voltages te geven. Ik denk dat ze het niet eens puur doen voor maximale prestaties, maar ook voor yields. Vaak kan je er er zo wat voltage eraf halen en alsnog effectieve clock speeds verhogen. Chips later in de cyclus willen meestal ook veel meer dan vroege chips. Ik hoop echt dat voor RDNA2 eer wederom dual bios op de kaarten zit en een profiel efficiënter zal worden afstelt. Meestal gaan ze namelijk te ver qua voltage en win je weinig qua effectieve clock speeds. Je kan ook beter vergelijken met de RX5700 dan de RX5700XT. 4CU's, 30W minder en 0,2v eraf kost je daar iets van 150 a 200MHz.

[ Voor 16% gewijzigd door DaniëlWW2 op 04-09-2020 23:51 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19-09 14:35
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 21:17:

Ik zie het nog steeds positief in qua RDNA2. Zelfs zonder clock speed bump ten opzichte van de RX5700XT en alleen een efficiëntiesprong, mede door HBM2E. Een RX5700XT is immers 180W met 1,2v voor de core en TBP is 225W. AIB modellen zijn meestal 190 a 200W voor de core en de OC modellen 220W. Komt er nog iets van 40W bovenop voor GDDR6. Een 384 bit bus zit waarschijnlijk al op de 60W met GDDR6 en GDDR6X lijkt meer te verbruiken dan GDDR6. Ik denk dat AMD met HBM2E, zo 40W kan winnen op GA102 ongeacht voordelen in procedé (ik denk N7P (DUV) en niet N7+ (EUV)) of verbeteringen architectuur. Immers zou HBM2E ook nog eens efficiënter zijn.
https://www.tweaktown.com...ddr6-60w-power/index.html

GDDR6X is totaal dus 60 watt (2,5 watt per chip) .
Ook een leuke opbouw van andere delen die voor verbruik zorgen.

Ik kan alleen nergens terugvinden wat het verbruik van GDDR6 is.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

computerjunky schreef op vrijdag 4 september 2020 @ 22:35:
[...]


https://www.tweaktown.com...ddr6-60w-power/index.html

GDDR6X is totaal dus 60 watt (2,5 watt per chip) .
Ook een leuke opbouw van andere delen die voor verbruik zorgen.

Ik kan alleen nergens terugvinden wat het verbruik van GDDR6 is.
In ieder geval was de 16GB van Vega FE maximaal 20W. Dat was dan vroege productie HBM2 en inmiddels zitten we op HBM2E dat efficiënter zou zijn. Die 40W haal je makkelijk. ;)
https://www.gamersnexus.n...2-and-necessity-to-use-it
Daarom denk ik ook HBM2E. Het is simpelweg een superieure technologie die ook betaalbaar is op duurdere modellen. Ik zou het liefst elke videokaart met HBM zien. Misschien als HBM3 er is, gaan we lagere SKU's er ook mee uitgerust zien worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Ach een mgpu setup van 2x 5700 kaarten evenaart al een 2080ti FE in timespy.

AMD gaat dus echt wel Nvidia bij kunnen benen. Of ze echt de prestatie kroon kunnen pakken met een halo product dat valt nog te bezien maar is dat echt zo belangrijk ?

Zolang ze iets tegenover de 3070 zetten zit het wel snor. Zou natuurlijk echt mooi zijn als ze ook met de 3080 concureren voor het imago maar in die prijsrange wordt volgens mij niet de meeste omzet gedraaid.

Het wordt pas echt interessant als ze de 3080 overtreffen en nog een product voor tussen de 3070 en 3080 hebben dan gaat het namelijk draaien tussen beters Rasterization performance kroon of extras zoals raytracing en upscaling performance want ik verwacht niet dat AMD voorop gaat lopen wat betreft RT en ML upscaling.

[ Voor 5% gewijzigd door Verwijderd op 04-09-2020 23:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op vrijdag 4 september 2020 @ 22:40:
[...]


In ieder geval was de 16GB van Vega FE maximaal 20W. Dat was dan vroege productie HBM2 en inmiddels zitten we op HBM2E dat efficiënter zou zijn. Die 40W haal je makkelijk. ;)
https://www.gamersnexus.n...2-and-necessity-to-use-it
Daarom denk ik ook HBM2E. Het is simpelweg een superieure technologie die ook betaalbaar is op duurdere modellen. Ik zou het liefst elke videokaart met HBM zien. Misschien als HBM3 er is, gaan we lagere SKU's er ook mee uitgerust zien worden. :)
Hadden we dan ook niet hbm in de console nu gezien ? Die hebben juist baat bij snel geen stroom vretend geheugen.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 21:17:
kopite7kimi is natuurlijk bijzonder, dat moge duidelijk zijn. Toch vertelt die je ook niet alles. Zaken zoals NVCache/RTX I/O kan je er niet terugvinden. Maar het begint hier angstaanjagend veel op het Nvidia topic te lijken i.p.v. het AMD topic. :P
Ja nu krijgen we veel informatie van nVidia, dus daar hebben we het over. Hoe het ze toch gelukt is 2 x FP32 te proppen in hun SMs. Dus ja het telt, qua CUDA cores. Tegelijkertijd weten we dat dat ook niet alles is.
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 21:17:
Een op 1900MHz draaiende 80CU Navi 21 zou al maximaal 19,5TFOPS doen, maar dat kan die chip ook echt altijd. Ga je naar 2000MHz en dan zit je al op 20,5TFlops en eigenlijk elke 100MHz is het ongeveer 1TFLOP met zo'n grote chip. De volle Navi 21 zou op deze manier eigenlijk de RTX3080 al moeten kunnen verslaan op efficiëntie.
Als TFLOPS boeit, heeft nVidia al gewonnen:
35.7 TFLOPs 29.8 TFLOPs 20.4 TFLOPs
RTX 3090 RTX 3080 RTX 3070

Gaat het om efficiëntie? Voor jou misschien. Voor veel gamers gaat het om het "halo effect", wie bouwt de snelste, qua performance.
DaniëlWW2 schreef op vrijdag 4 september 2020 @ 21:17:
Ik hoop echt dat voor RDNA2 eer wederom dual bios op de kaarten zit en een profiel efficiënter zal worden afstelt. Meestal gaan ze namelijk te ver qua voltage en win je weinig qua effectieve clock speeds. Je kan ook beter vergelijken met de RX5700 dan de RX5700XT. 4CU's, 30W minder en 0,2v eraf kost je daar iets van 150 a 200MHz.
Goed punt, en ik hoop het echt. Maar Moore's Law is Dead ziet niet meer in big navi dan een 3080. Op zich goed als de prijs goed is, maar dat betekent dat de 3090 de sterkste kaart is (hoewel voorlopig niet beschikbaar met de ultra-slechte Samsung 8nm yields).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 5 september 2020 @ 00:26:
[...]


Ja nu krijgen we veel informatie van nVidia, dus daar hebben we het over. Hoe het ze toch gelukt is 2 x FP32 te proppen in hun SMs. Dus ja het telt, qua CUDA cores. Tegelijkertijd weten we dat dat ook niet alles is.
Er is een Nvidia topic. :P
Maar hoe ze het gelukt is, tja dat staat er nu ook. ;)
Als TFLOPS boeit, heeft nVidia al gewonnen:
35.7 TFLOPs 29.8 TFLOPs 20.4 TFLOPs
RTX 3090 RTX 3080 RTX 3070

Gaat het om efficiëntie? Voor jou misschien. Voor veel gamers gaat het om het "halo effect", wie bouwt de snelste, qua performance.

Goed punt, en ik hoop het echt. Maar Moore's Law is Dead ziet niet meer in big navi dan een 3080. Op zich goed als de prijs goed is, maar dat betekent dat de 3090 de sterkste kaart is (hoewel voorlopig niet beschikbaar met de ultra-slechte Samsung 8nm yields).
Wederom, ik ben opzettelijk voorzichtig. GA102 lijkt namelijk geen noemenswaardige verbetering in clock speeds te zien en utilisatiepercentage van ALU's lijkt beduidend slechter dan Turing. Natuurlijk komt dat ook omdat het er meer zijn, maar dat zou zich vertalen in iets van 30% sneller dan Turing. Je kan dus waarschijnlijk de RTX3070 nemen, gemiddeld iets van 30% sneller dan de RTX2080 en dan zit je op RTX2080Ti niveau. Idem voor de RTX3080 die 30% sneller is dan de RTX2080Ti. Nvidia heeft zeer selectief een paar games laten zien met bepaalde instellingen. Je kan Digital Foundry haar claims niet serieus nemen. De RTX2080Ti is ongeveer 50% sneller dan de RX5700XT. Reken maar uit als je dat prestatieniveau verdubbeld.

Ik ben voorzichtig omdat ik niet weet hoeveel de node gaat opleveren qua clock speeds, niet weet of er problemen gaan ontstaan met zo'n grote chip waar zelfs 900GB/s+ nog een bottleneck oplevert en ik ook niet weet hoe AMD die 50% perf/watt claim precies meet. Als het allemaal perfect gaat, dan zou de RTX3090 misschien niet eens buiten bereik zijn. Die claim ga ik alleen niet zomaar maken.
Verwijderd schreef op vrijdag 4 september 2020 @ 23:57:
[...]


Hadden we dan ook niet hbm in de console nu gezien ? Die hebben juist baat bij snel geen stroom vretend geheugen.
HBM2 is waarschijnlijk wel te duur voor een console en waarschijnlijk is de productie ook te laag voor consoles.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 19-09 07:41
DaniëlWW2 schreef op zaterdag 5 september 2020 @ 10:17:
Nvidia heeft zeer selectief een paar games laten zien met bepaalde instellingen.
Ik zie deze uitspraak vaker. Als het zou gaan om benchmarks zou ik daarin mee gaan. Wie heeft er wat aan benchmarks. Maar wat is er mis met een geoptimaliseerde game :? Daar heeft de consument iets aan. Daar moet je toch juist blij om zijn dat datgene waarvoor consumenten een grafische kaart kopen geweldige performance geeft in de games die consumenten spelen, niet alleen door hardware verbetering maar ook door softwarematige optimalisatie.

Game optimalisatie is pure winst voor ons als gebruikers :Y)

Ik kan niet begrijpen waarom dat verwijt gegeven wordt. Laten we heel eerlijk zijn Daniel, jouw voorkeursliefde zal bij de presentatie van hun nieuwe chip ook gewoon geoptimaliseerde resources gebruiken. Krijgt dat dan diezelfde kritiek van jou? Dat zien we bij AMD CPUs ook, bij Intel CPUs ook. Iedereen doet het. En ook dan stel ik de vraag, so what? Geweldig toch dat door optimalisatie het beste eruit geperst wordt in games.

Acties:
  • 0 Henk 'm!

  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 00:07
*knip* niet op de man aub

[ Voor 88% gewijzigd door br00ky op 05-09-2020 13:46 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Nieuw gerucht van Coreteks:
Correction, there's no 8GB model (afaik). This was lost in translation as we were also discussing how AMD will probably promote Big Navi having 16GB versus the 3070's 8GBs. Sorry for the confusion! - btw source also said an HBM version for consumer is not planned :(
https://mobile.twitter.co...n.html1301898727456739328

Oei, als dit klopt dan wordt het denk ik wel een lastige voor Amd.
Als je het snelste GDDR6 geheugen pakt van 16Gbps, met een 256bit geheugenbus, kom je uit op een bandbreedte van 512GB/s.
Vergelijkbaar met een RTX3070 dus.

[ Voor 16% gewijzigd door Tyranium op 05-09-2020 12:06 ]


Acties:
  • +1 Henk 'm!

  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 02:17

thijsco19

KTM 990 SMT

Er is ook niks mis met geoptimaliseerde game-'benchmarks'. Het geeft alleen een scheef beeld met betrekking tot de daadwerkelijke gemiddelde prestatie winst die de RTX30 heeft tegenover de vorige generatie.

De cijfers die te zien waren in de presentatie zijn mogelijk best case scenario cijfers. Is natuurlijk niks mis mee als die situatie 100% overeenkomt met jouw situatie. Helaas zal merendeel een andere situatie hebben waardoor de cijfers dus anders zijn.

Pas nadat meerdere onafhankelijke partijen de RTX30 serie getest hebben kan je pas conclusies trekken over de prestatie winst.

Om een simpel voorbeeld te geven. Bij de games die DF getest heeft kan een bepaalde setting zodanig getweaked zijn, of zelfs uit gezet zijn, waardoor de GPU het veel makkelijk heeft en dus veel hogere cijfers laat zien zoals een 70% verbetering.
Maar als de cijfers van de vorige generatie die gebruikt worden voor de vergelijking getest zijn waarbij diezelfde setting aan, of zelf op maximaal, staat dan geeft dat een verkeerd beeld.

Daarom dat je altijd voorzichtig naar dat soort cijfers moet kijken. Het geeft uiteraard een indicatie van de mogelijke prestatie winst maar je moet het dan ook als een indicatie zien.

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
JeroenNietDoen schreef op zaterdag 5 september 2020 @ 10:32:
[...]

Ik zie deze uitspraak vaker. Als het zou gaan om benchmarks zou ik daarin mee gaan. Wie heeft er wat aan benchmarks. Maar wat is er mis met een geoptimaliseerde game :? Daar heeft de consument iets aan. Daar moet je toch juist blij om zijn dat datgene waarvoor consumenten een grafische kaart kopen geweldige performance geeft in de games die consumenten spelen, niet alleen door hardware verbetering maar ook door softwarematige optimalisatie.

Game optimalisatie is pure winst voor ons als gebruikers :Y)

Ik kan niet begrijpen waarom dat verwijt gegeven wordt. Laten we heel eerlijk zijn Daniel, jouw voorkeursliefde zal bij de presentatie van hun nieuwe chip ook gewoon geoptimaliseerde resources gebruiken. Krijgt dat dan diezelfde kritiek van jou? Dat zien we bij AMD CPUs ook, bij Intel CPUs ook. Iedereen doet het. En ook dan stel ik de vraag, so what? Geweldig toch dat door optimalisatie het beste eruit geperst wordt in games.
Van wat ik me herinner was bij de 5700 launch zijn punt dat het alleen maar sneller ging worden met betere koeling bij AIB kaarten en driver optimalisaties.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Sissors schreef op zaterdag 5 september 2020 @ 11:26:
[...]

Van wat ik me herinner was bij de 5700 launch zijn punt dat het alleen maar sneller ging worden met betere koeling bij AIB kaarten en driver optimalisaties.
Wat natuurlijk normaliter ook gewoon zo is, dat is geen vreemde stelling om in te nemen.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op zaterdag 5 september 2020 @ 11:31:
[...]


Wat natuurlijk normaliter ook gewoon zo is, dat is geen vreemde stelling om in te nemen.
Nou ja, die betere AIB koeling bleek geen drol te helpen. Wel qua geluid, niet noemenswaardig qua prestaties. En natuurlijk is het nu ook waar dat Nvidia echt niet de slechtste benchmarks zal hebben gepakt. Maar er is wel een opvallend verschillende insteek van een aantal bij presentatie van performance van één fabrikant vergeleken met die van een andere fabrikant.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19-09 14:35
JeroenNietDoen schreef op zaterdag 5 september 2020 @ 10:32:
[...]

Ik zie deze uitspraak vaker. Als het zou gaan om benchmarks zou ik daarin mee gaan. Wie heeft er wat aan benchmarks. Maar wat is er mis met een geoptimaliseerde game :? Daar heeft de consument iets aan. Daar moet je toch juist blij om zijn dat datgene waarvoor consumenten een grafische kaart kopen geweldige performance geeft in de games die consumenten spelen, niet alleen door hardware verbetering maar ook door softwarematige optimalisatie.

Game optimalisatie is pure winst voor ons als gebruikers :Y)

Ik kan niet begrijpen waarom dat verwijt gegeven wordt. Laten we heel eerlijk zijn Daniel, jouw voorkeursliefde zal bij de presentatie van hun nieuwe chip ook gewoon geoptimaliseerde resources gebruiken. Krijgt dat dan diezelfde kritiek van jou? Dat zien we bij AMD CPUs ook, bij Intel CPUs ook. Iedereen doet het. En ook dan stel ik de vraag, so what? Geweldig toch dat door optimalisatie het beste eruit geperst wordt in games.
Het probleem is dat 99% van de games deze optimalisaties niet krijgt of geen dlss support heeft en dus de werkelijke prestaties van de meeste games heel anders kunnen zijn. Daarom zijn die 20 game tests ook zo belangrijk en stoppen we niet al na 1 game.

Acties:
  • +7 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

thijsco19 schreef op zaterdag 5 september 2020 @ 11:25:
Er is ook niks mis met geoptimaliseerde game-'benchmarks'. Het geeft alleen een scheef beeld met betrekking tot de daadwerkelijke gemiddelde prestatie winst die de RTX30 heeft tegenover de vorige generatie.

De cijfers die te zien waren in de presentatie zijn mogelijk best case scenario cijfers. Is natuurlijk niks mis mee als die situatie 100% overeenkomt met jouw situatie. Helaas zal merendeel een andere situatie hebben waardoor de cijfers dus anders zijn.

Pas nadat meerdere onafhankelijke partijen de RTX30 serie getest hebben kan je pas conclusies trekken over de prestatie winst.

Om een simpel voorbeeld te geven. Bij de games die DF getest heeft kan een bepaalde setting zodanig getweaked zijn, of zelfs uit gezet zijn, waardoor de GPU het veel makkelijk heeft en dus veel hogere cijfers laat zien zoals een 70% verbetering.
Maar als de cijfers van de vorige generatie die gebruikt worden voor de vergelijking getest zijn waarbij diezelfde setting aan, of zelf op maximaal, staat dan geeft dat een verkeerd beeld.

Daarom dat je altijd voorzichtig naar dat soort cijfers moet kijken. Het geeft uiteraard een indicatie van de mogelijke prestatie winst maar je moet het dan ook als een indicatie zien.
computerjunky schreef op zaterdag 5 september 2020 @ 12:37:
Het probleem is dat 99% van de games deze optimalisaties niet krijgt of geen dlss support heeft en dus de werkelijke prestaties van de meeste games heel anders kunnen zijn. Daarom zijn die 20 game tests ook zo belangrijk en stoppen we niet al na 1 game.
En dat is dus het punt dat ik probeerde te maken. Natuurlijk doen beide kampen dit en daarom wacht je op benchmarks. Dat geld dubbel nu duidelijk is wat Nvidia heeft aangepast met Ampère qua SM structuur. Dat gaat simpelweg applicatie gevoelig zijn.


Nieuws dan. Wat een verassing dat opeens er zaken beginnen te "lekken". :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
@DaniëlWW2
Is rogame betrouwbaar? Dan zou het wel erg goed nieuws zijn.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Enchantress schreef op zaterdag 5 september 2020 @ 20:53:
@DaniëlWW2
Is rogame betrouwbaar? Dan zou het wel erg goed nieuws zijn.
Een van de meest betrouwbare leakers die er zijn. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Enchantress schreef op zaterdag 5 september 2020 @ 20:53:
@DaniëlWW2
Is rogame betrouwbaar? Dan zou het wel erg goed nieuws zijn.
Ook RedGaming tech laat weer andere dingen horen dan CoreTeks; namelijk dat de 6700 tegenover de 3070 wordt gezet maar wel pas volgend jaar uitkomt. De 6800 en 6900 gaan tegen de topend van Nvidia.

AMD lijkt een heel stuk beter te zijn geworden is alles zo stil mogelijk houden en ze geven niet iedereen binnen AMD of partners dezelfde informatie om op die manier leaks te voorkomen en op te kunnen sporen.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 22:20

Damic

Tijd voor Jasmijn thee

Daarstraks de video van gezien adoredtv en ik weet of het jullie ook is opgevallen maar de Ampere kaarten gaan nog niet over de 1.75Ghz boost terwijl Turing dat wel kon (>2GHz als ik me niet vergis).

Ook zoals _rogame liet weten, voor nVidia zou de huidige line up normaal meer naar 3080/3080ti en Titan zijn dan wat ze nu doen dus, RTG heeft iets en nVidia weet het.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Tyranium schreef op zaterdag 5 september 2020 @ 11:22:
Nieuw gerucht van Coreteks:


[...]


https://mobile.twitter.co...n.html1301898727456739328

Oei, als dit klopt dan wordt het denk ik wel een lastige voor Amd.
Als je het snelste GDDR6 geheugen pakt van 16Gbps, met een 256bit geheugenbus, kom je uit op een bandbreedte van 512GB/s.
Vergelijkbaar met een RTX3070 dus.
Dat kan best interessante marketing zijn: een RX 6700 met 16GB tegenover een RTX 3070 met 8GB zetten, want er zijn zat mensen die zomaar geloven dat meer geheugen beter is.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:23
Damic schreef op zaterdag 5 september 2020 @ 22:01:
Daarstraks de video van gezien adoredtv en ik weet of het jullie ook is opgevallen maar de Ampere kaarten gaan nog niet over de 1.75Ghz boost terwijl Turing dat wel kon (>2GHz als ik me niet vergis).
Uit zijn eigen video komt Turing ook maar op 1710 ;)
Afbeeldingslocatie: https://tweakers.net/i/J9Foz-EoT8USwNqG3I-GY6vPOzA=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/wy2xeMpnCQH3GvP5z3sCBW5C.png?f=user_large

De effectieve boostclock zal dus hoger liggen, net zoals bij Turing.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op zaterdag 5 september 2020 @ 21:57:
[...]


Ook RedGaming tech laat weer andere dingen horen dan CoreTeks; namelijk dat de 6700 tegenover de 3070 wordt gezet maar wel pas volgend jaar uitkomt. De 6800 en 6900 gaan tegen de topend van Nvidia.

AMD lijkt een heel stuk beter te zijn geworden is alles zo stil mogelijk houden en ze geven niet iedereen binnen AMD of partners dezelfde informatie om op die manier leaks te voorkomen en op te kunnen sporen.
Zo zijn ze eigenlijk altijd geweest. Koduri was echt de uitzondering en die is nu precies hetzelfde aan het doen met Xe voor Intel. Dat kan ook wel eens gaan eindigen als "Poor Xe"...

Afijn, het heeft ook een nadeel. Ik vermoed namelijk dat op het moment, AIB's meer informatie krijgen over Navi 22 dan Navi 21. Elke keer als ik "AIB leak" zie, dan is het GA104 niveau en elke keer als de informatie binnen AMD zou komen, dan is het GA102 niveau. Ik denk eigenlijk dat het om twee verschillende chips gaat. Dat zou impliceren dat AMD, Navi 21 misschien meer exclusief wil houden en van Navi 22 eerder wel een AIB launch zou maken of tenminste de tijd tussen launch en AIB modellen wil verminderen. Dat zou ook eens fijn zijn want die paar maanden wachten is gewoon hopeloos.

Dat zou goed nieuws zijn voor mij want ik ben bang dat ik een Navi 22 zal kopen. Ik heb er eigenlijk geen zin in, maar ik ken mezelf ook wel een beetje. Het is voor een goede zaak, Witcher 3 RT. :Y)
Voor Navi 21 is dit misschien wat minder gezien het track record van AMD referentiemodellen. Ze wisten zelfs Radeon VII te verpesten. Ik had het eens opgezocht en die gebruikt dus dezelfde ventilatoren als sommige Sapphire kaarten, uit de HD4000 en HD5000 series. Gewoon een hartstikke oud en niet bepaald een erg goed ontwerp of iets dat toepasselijk was voor Radeon VII. Het werkte ook niet omdat de eisen voor acceptabele geluidswaarden, omhoog zijn gegaan het afgelopen decennium. Uiteindelijk hoor je de ventilatoren en niet het koelblok. Radeon VII lijkt op zich ook niet eens zo slecht te zijn geweest qua koeloppervlakte, maar de ventilatoren waren niet goed genoeg. Ergens is het bizar voor een HBM2 kaart met een flinke vapor chamber om het laatste beetje dat mensen merken niet te verbeteren.

Ik zou niet durven te vertrouwen dat AMD opeens wel een fatsoenlijke koeloplossing kan leveren. Het kan, maar die schijn hebben ze wel duidelijk tegen zich. Ze gaan in ieder geval stoppen met die verschrikkelijke blowers, maar je kan axiale koeloplossingen ook goed verprutsen zoals bepaalde AIB's telkens weer demonstreren. Als AMD besluit om bijvoorbeeld de 80CU Navi 21 alleen als referentiemodel te verkopen, laat ze dan alsjeblieft een AIO gebruiken zoals met Fury X en Vega LC.
Damic schreef op zaterdag 5 september 2020 @ 22:01:
Daarstraks de video van gezien adoredtv en ik weet of het jullie ook is opgevallen maar de Ampere kaarten gaan nog niet over de 1.75Ghz boost terwijl Turing dat wel kon (>2GHz als ik me niet vergis).

Ook zoals _rogame liet weten, voor nVidia zou de huidige line up normaal meer naar 3080/3080ti en Titan zijn dan wat ze nu doen dus, RTG heeft iets en nVidia weet het.
Nvidia boost clocks zijn eigenlijk base clocks die ze gewoon vreemd benoemen. Ga gerust vanuit dat ze effectief in de 1800MHz range uit gaan komen of misschien zelfs de lage 1900MHz. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Mijn duits is niet super, maar volgens mij heeft Igor het in zijn laatste filmpje over Big Navi @ 275W tussen de 3070 en 3080 in, bij 300W+ mogelijk dichtbij de 3080.

Maar ook als ik het goed begreep dat het goed mogelijk is dat er dit jaar geen boardpartner kaarten zullen zijn, enkel AMD's eigen modellen.

Uiteraard alles met voldoende zout tot je nemen ;)

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op zaterdag 5 september 2020 @ 00:26:
Als TFLOPS boeit, heeft nVidia al gewonnen:
TFLOPS waren al niet interessant voor de vergelijking tussen AMD en Nvidia en sinds RDNA en Ampère ook niet meer tussen die generaties en de generaties daarvoor bij beide fabrikanten. Die 35,7/29,8/20,4 zullen nooit gehaald worden. Zie Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56" ;)

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Dennism schreef op zaterdag 5 september 2020 @ 23:09:
Mijn duits is niet super, maar volgens mij heeft Igor het in zijn laatste filmpje over Big Navi @ 275W tussen de 3070 en 3080 in, bij 300W+ mogelijk dichtbij de 3080.

Maar ook als ik het goed begreep dat het goed mogelijk is dat er dit jaar geen boardpartner kaarten zullen zijn, enkel AMD's eigen modellen.

Uiteraard alles met voldoende zout tot je nemen ;)
Als AMD ook richting de 300/ 350W wil gaan pushen denk ik dat je geen reference design kaart moet willen hebben... :o

-na alles een beetje te hebben laten bezinken... denk ik (mijn gok) dat AMD met de "6700" bijna net zo snel is als de 3070, en dat de 6800 ongeveer 3080 niveau is... En dat voor 50 minder. :-P B)

Maar als ze (amd) dit jaar niet meer komen met custom kaartjes koop ik een 3080 en kijk niet meer om. :+

Zullen ze voor de releasedate van de RTX3000 nog even stiekum wat benchies gaan lekken? Om mensen te laten twijfelen? O+ 8) Of is het nog te vroeg en hebben ze nog "niks" wat scoort.

[ Voor 27% gewijzigd door Format-C op 06-09-2020 21:48 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Met een TDP van 275W mag ik toch hopen dat de 6700 dan ergens tussen de 3070 en 3080 presteert.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
@Tyranium

Pak je toch GDDR6X voor RDNA2.

Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 23:27
GDDR6X is exclusief voor Nvidia ;)

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
RobinNL schreef op zondag 6 september 2020 @ 23:00:
[...]


GDDR6X is exclusief voor Nvidia ;)
Vreemd, volgens Ralf Ebert van Micron niet.

"We now start offering and opening this up to the industry, GDDR6X is not customer-specific," said Ebert. "We expect other customers to have interest moving forward, and then we will also engage with them." ;)

https://www.tomshardware....ory-or-a-proprietary-dram

[ Voor 11% gewijzigd door Enchantress op 06-09-2020 23:04 ]

Pagina: 1 ... 8 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.