Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
computerjunky schreef op dinsdag 11 juni 2019 @ 12:40:
Verder blijf ik die clock gewoon misleidend vinden ik hou lekker de game clock aan als boost clock en neem de boost clock als niet relevant want de kans is denk ik nihil dat hij daar long term op kan draaien.
Mooi getalletje voor op de spec sheet maar niets zeggend.
verder leken de games me weer aardig cherry picked dus ben benieuwd wat er gebeurd met de resultaten als ale tripple a games uit de kast komen en echte resultaten boven tafel komen.
Ik vind het netter dan wat Nvidia doet, die kaarten zitten ook niet altijd op hun maximale clock. AMD geeft gewoon aan welke clock je bij games kan verwachten. Nvidia adverteerd met de maximale clock.

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op dinsdag 11 juni 2019 @ 21:17:
[...]
Ik vind het netter dan wat Nvidia doet, die kaarten zitten ook niet altijd op hun maximale clock. AMD geeft gewoon aan welke clock je bij games kan verwachten. Nvidia adverteerd met de maximale clock.
Volgens mij is het bij Nvidia kaarten onmogelijk om de boostclock niet te halen, tenzij je de fan van de GPU geforceerd uitzet....

https://nl.hardware.info/...cing-is-de-beste-duurtest
Deze 1660Ti kaarten blijven gedurende de duurtest boven de geadverteerde snelheid draaien.

https://nl.hardware.info/...okaarten-roundup-duurtest
Idem voor deze 23 RTX2070, RTX2080 en RTX2080Ti kaarten.

[ Voor 33% gewijzigd door Paprika op 11-06-2019 21:27 ]


Acties:
  • 0 Henk 'm!
Paprika schreef op dinsdag 11 juni 2019 @ 21:24:
[...]

Volgens mij is het bij Nvidia kaarten onmogelijk om de boostclock niet te halen, tenzij je de fan van de GPU geforceerd uitzet....
Niet in een behuizing met slechte koeling. Maar waar het punt om ging is dat AMD nu gewoon heel duidelijk is, de game clock is wat je ongeveer kunt verwachten tijdens games, veel duidelijker kan het niet volgens mij. Of je moet afstappen van de dynamische klokfrequenties, maar dat lijkt mij niet handig.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Als je de AMD kaarten in een behuizing met zo'n slechte koeling zet dat Nvidia kaarten hun boostclock niet halen, halen AMD kaarten dan wel die game clock gemiddeld? Als je de temperatuur maar hoog genoeg maakt halen ze het niet, dat is voor beide merken het geval.

Acties:
  • 0 Henk 'm!
Ja, dat is dus het voordeel van de blower koeling. Alleen de warmte van een CPU zal zelfs een behuizing met slechte koeling niet echt opwarmen.

In de laatste generaties was overigens de beperking bij AMD ook het verbruik en amper temperatuur. De laatste generatie waarbij de beperking temperatuur was, was bij AMD de R9 290 en R9 290X, maar van die keuze was AMD binnen enkele weken al vanaf gestapt. Toen zijn ze gegaan voor extra prestaties, wat overigens wel ten koste ging van de geluidsproductie.

[ Voor 10% gewijzigd door -The_Mask- op 11-06-2019 22:16 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op dinsdag 11 juni 2019 @ 20:21:
[...]

Ik denk eerder dat die semi custom "Arcturus" voor de volgende XBOX een RDNA2 GPU is.
Dat moet haast wel. We weten inmiddels dat Navi 10 geen hardwarematige ray tracing doet. AMD heeft echter gezegd dat de volgende generatie RDNA wel ray tracing krijgt, en we weten ook dat de volgende Xbox console ray tracing krijgt met AMD hardware. Dat heeft Microsoft op de E3 bevestigd namelijk. Optelsommetje?

[ Voor 5% gewijzigd door XWB op 11-06-2019 22:30 ]

March of the Eagles


Acties:
  • 0 Henk 'm!
XWB schreef op dinsdag 11 juni 2019 @ 22:29:
[...]


Dat moet haast wel. We weten inmiddels dat Navi 10 geen hardwarematige ray tracing doet. AMD heeft echter gezegd dat de volgende generatie RDNA wel ray tracing krijgt, en we weten ook dat de volgende Xbox console ray tracing krijgt met AMD hardware. Dat heeft Microsoft op de E3 bevestigd namelijk. Optelsommetje?
Potentieel ja, maar dat moeten we afwachten. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
-The_Mask- schreef op dinsdag 11 juni 2019 @ 21:46:
[...]

Niet in een behuizing met slechte koeling. Maar waar het punt om ging is dat AMD nu gewoon heel duidelijk is, de game clock is wat je ongeveer kunt verwachten tijdens games, veel duidelijker kan het niet volgens mij. Of je moet afstappen van de dynamische klokfrequenties, maar dat lijkt mij niet handig.
Wat is tegenwoordig nog slechte koeling? Je moet dan al bij een zelf bouw kast de standaard fans eruit halen (zonder andere te plaatsen) wil je aan die benaming voldoen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
haarbal schreef op dinsdag 11 juni 2019 @ 17:53:
[...]

De reflecties heb ik ook geen boodschap aan, maar raytraced quake2 en de raytraced global illumination kan ik wel waarderen.
Quake 2 ziet er inderdaad erg leuk uit en ik ga het zeker een keer proberen als AMD met RT komt. Plus de mogelijkheid om de belichting te tweaken (ik vind het persoonlijk te licht vergeleken met de originele Quake 2 sfeer). Wat interessant is, in het filmpje van van Digital Foundry op youtube bespreken ze een aantal van de limitaties van de huidige implementatie. Ik hoop overigens dat de community dit verder oppakt en hier is nog mooiers van maakt :P.

(Metro Exodus) Raytraced GI is de slechtste implementatie van RT tot nu toe, maar dat is mijn mening. GI is tegenwoordig veel beter te faken dan reflecties (waar je duidelijk kan zien dat het screenspace reflections zijn). GI ondertussen al meer dan 10 jaar in game engines. Dat de makers van Metro Exodus te lui waren om dit te implementeren als alternatief voor de RT GI is gewoon jammer. Mits goed geimplementeerd is het verschil nauwelijks te zien en is de performance impact van RT GI het niet waard.

Acties:
  • +1 Henk 'm!
Paprika schreef op dinsdag 11 juni 2019 @ 22:31:
[...]

Wat is tegenwoordig nog slechte koeling? Je moet dan al bij een zelf bouw kast de standaard fans eruit halen (zonder andere te plaatsen) wil je aan die benaming voldoen.
De stock koeler van RX Vega. :Y) :>

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Paprika schreef op dinsdag 11 juni 2019 @ 22:31:
[...]

Wat is tegenwoordig nog slechte koeling? Je moet dan al bij een zelf bouw kast de standaard fans eruit halen (zonder andere te plaatsen) wil je aan die benaming voldoen.
Volgens je profiel heb je een pricewatch: MSI GeForce RTX 2080 Sea Hawk X en pricewatch: NZXT Kraken X52 (met AM4 support) dan heb je idd heel weinig warmte in de behuizing. Ik zou zeggen, draai het om, laat de warmte van de CPU en koeling in de behuizing blazen. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
-The_Mask- schreef op dinsdag 11 juni 2019 @ 22:40:
[...]

Volgens je profiel heb je een pricewatch: MSI GeForce RTX 2080 Sea Hawk X en pricewatch: NZXT Kraken X52 (met AM4 support) dan heb je idd heel weinig warmte in de behuizing. Ik zou zeggen, draai het om, laat de warmte van de CPU en koeling in de behuizing blazen. :p
:+, maar dat is 350W(?) aan warmte in de kast die er niet hoort. O-)

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 21:54

vectormatic

Warlock of the doorlock

Paprika schreef op dinsdag 11 juni 2019 @ 22:31:
[...]

Wat is tegenwoordig nog slechte koeling? Je moet dan al bij een zelf bouw kast de standaard fans eruit halen (zonder andere te plaatsen) wil je aan die benaming voldoen.
pricewatch: Raijintek Metis Rood

Hierin krijgt zels mijn RX560 t warm >:)

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
Paprika schreef op dinsdag 11 juni 2019 @ 22:42:
[...]

:+, maar dat is 350W(?) aan warmte in de kast die er niet hoort. O-)
Precies, nu heb je maar iets van 50W. Geloof direct dat je nu perfect zonder casefans kan. Bijna alle warmte wordt nu mooi door de fans op de radiators de behuizing uit geblazen. Heb je al die warmte in de behuizing dan merk je pas dat het toch wel wat moeite kost dat weg te werken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Je bent dan ook vergeten om op de RX560 een pricewatch: Raijintek Morpheus II Core Edition te zetten :+.
Je moet alles van dat merk natuurlijk kopen anders werkt het niet.

offtopic:
Hoe krijg je zo'n mooi pricewatch linkje? Als ik een url toevoeg van de pw dan heb ik dat niet.
Thx, niet echt vanzelfsprekend :P. Ik deed het altijd braaf met URL.
[

[ Voor 9% gewijzigd door Sp3ci3s8472 op 12-06-2019 00:15 ]


Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op woensdag 12 juni 2019 @ 00:05:
[...]
offtopic:
Hoe krijg je zo'n mooi pricewatch linkje? Als ik een url toevoeg van de pw dan heb ik dat niet.
Zou standaard zo moeten werken...

Acties:
  • +1 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 20-09 10:19
Persoonlijk ben ik eigenlijk best wel enthousiast over de 5700RT reference card, ik vind vooral de deuk in de reference design koeler er mooi uitzien. Ik heb alleen een RX Vega 56 in mijn bezit die ik ooit voor rond MSRP heb kunnen aanschaffen. 30% meer performance voor circa 100€ dat is wel ff iets waar ik over na denk, maar aangezien ik alles op waterkoeling heb is het de jump in frames voor mij persoonlijk niet waard.

De RX Vega 56 op water doet het gewoon goed genoeg voor 1440p gaming.

Overigens zie ik dat veel mensen hier verwachten dat Nvidia nog efficiënter kan zijn als ook zij naar 7nm overstappen, maar dat is een aanname die ik eerst wel eens met feiten onderbouwd wil zien. Ik vermoed dat hier een beetje geldt ' in het verleden behaalde resultaten bieden geen garantie voor de toekomst'.

Acties:
  • 0 Henk 'm!
nVidia is nu al iets efficiënter en ja 7nm is nog efficiënter. Onderbouwing kun je gewoon vinden in de whitepaper van het productieproces en zelfs AMD heeft op de E3 presentatie aangegeven dat een een groot deel van de verbeterde efficiëntie te danken is aan het nieuwe productieproces. Veel betere onderbouwing kan niet lijkt mij. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
-The_Mask- schreef op woensdag 12 juni 2019 @ 09:20:
nVidia is nu al iets efficiënter en ja 7nm is nog efficiënter. Onderbouwing kun je gewoon vinden in de whitepaper van het productieproces en zelfs AMD heeft op de E3 presentatie aangegeven dat een een groot deel van de verbeterde efficiëntie te danken is aan het nieuwe productieproces. Veel betere onderbouwing kan niet lijkt mij. ;)
Dat 7nm zuiniger moet zijn als huidige proces ben ik met je eens. Maar tijdje geleden in dit topic was de conclusie al dat je de getallen van foundries met een enorme korrel zout moet nemen. Dus ja, 7nm moet zeker een efficiëntie voordeel geven, maar foundry reclamefolders zou ik niet al te serieus nemen.

Voor nu is het overigens weinig relevant: Ja het laat zien dat Nvidia gewoon nog qua verbruik iig een betere architectuur heeft. Maar voor de consument die nu een kaart wil kopen is het natuurlijk totaal irrelevant op welk proces de resultaten zijn behaald, alleen de resultaten doen er toe.

[ Voor 16% gewijzigd door Sissors op 12-06-2019 09:43 ]


Acties:
  • 0 Henk 'm!
Als je bedoeld dat 7nm niet gaat over de transistor grote dan klopt dit. Dat is al heel wat jaren niet meer het geval.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Ja
En anders zou ik zeggen zoek het op, het is een veel gebruikte methode mocht het je echt interesseren.
Vapor chamber?
Ik ben nog geen reviews tegengekomen waarin die stiller zijn dan open air coolers. Ik durf echter ook niet te zeggen welke reviewers goede geluidsmetingen doen.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 21:54

vectormatic

Warlock of the doorlock

Sp3ci3s8472 schreef op woensdag 12 juni 2019 @ 00:05:
[...]


Je bent dan ook vergeten om op de RX560 een pricewatch: Raijintek Morpheus II Core Edition te zetten :+.
Je moet alles van dat merk natuurlijk kopen anders werkt het niet.
_/-\o_

Kwa lengte zou ik helemaal 12 mm overhouden aan speling als ik een morpheus er in wil proppen, of dan de GPU ook daadwerkelijk onder het contactvlak uitkomt, who knows :P (over ruimte voor fans en luchtstroom hebben we het niet eens)

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
-The_Mask- schreef op woensdag 12 juni 2019 @ 09:50:
Als je bedoeld dat 7nm niet gaat over de transistor grote dan klopt dit. Dat is al heel wat jaren niet meer het geval.
Nee daar gaat het niet over, het gaat over de energie en snelheidsverbeteringen die nieuwe processen leveren volgens de foundries. Die informatie zijn gewoon reclame praatjes en niet realistisch.

Overigens iig t/m 16nm zijn getekende gate lengtes wel redelijk in de buurt van de naam van de node, of de daadwerkelijk geproduceerde er ver naast zit zou ik niet weten. Punt is dan natuurlijk wel weer dat ook gate lengte op zichzelf niet heel veel zegt.

Acties:
  • 0 Henk 'm!
Help!!!! schreef op dinsdag 11 juni 2019 @ 19:13:
Heb overigens nog niemand gehoord over die m.i. rare deuk in de shroud.

Kan mij esthetisch gezien niet echt bekoren en lijkt me qua perceptie eerder een minderwaardig produkt te suggereren. Designkeus die ik niet echt kan volgen..
Ik moest er een paar seconden aan wennen maar ik vind het wel wat hebben moet het nog in het echt zien maar vind het niet heel erg lelijk, het is gewoon anders. Ik vind het overall design van de XT echt super! alleen daarom wil ik er al een. + een blower is sowieso top en nu lijken ze er meer aandacht aan besteed te hebben dan ooit te voren.

Ze zeggen het gedaan te hebben om fan geluid te reduceren. Ik kan mij daar wel iets bij voorstellen dat air flow sturen daar verschil kan geven. Ik ben benieuwd hoe groot de verschillen tussen de 5700 en de 5700XT zijn als je ze beide even veel laat verbruiken.

Ik hoorde al een RPM cap op 1800rpm en dat is nou ook wat ik voor mijn Vega 56/64 gebruikte als ik hem heel stil wilde hebben zo rond de 1800-2000 RPM maar dan kon hij een 1480MHz 900mv UV maar net aan. Had je een high leakage chip dan had je al een probleem dan had je de stock 2400 nodig om niet te throttelen. Dus deze blower cooler gaat veel stiller worden dan ooit te voren als die 1800 RPM max gewoon klopt. In dat geval ben ik niet bang voor een herrie cooler en zal dit voor de meeste mensen meer dan prima zijn.

(Gamers Nexus had het er met AMD over gehad en die hadden het over 1800rpm 43dba en dat de metingen voor Vega 64 te vergelijken waren met hun eigen metingen ze moeten het natuurlijk nog zelf gaan testen maar het klink in ieder geval goed en sowieso een hele grote verbetering tov vega 56/64 Air nu is het verbruik ook een stuk lager dus dat scheelt met een UV op Vega 56/64 kon je ook lagere fan speeds gaan draaien.)

[ Voor 43% gewijzigd door Astennu op 12-06-2019 10:39 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!
Sp3ci3s8472 schreef op dinsdag 11 juni 2019 @ 22:33:
(Metro Exodus) Raytraced GI is de slechtste implementatie van RT tot nu toe, maar dat is mijn mening. GI is tegenwoordig veel beter te faken dan reflecties (waar je duidelijk kan zien dat het screenspace reflections zijn). GI ondertussen al meer dan 10 jaar in game engines. Dat de makers van Metro Exodus te lui waren om dit te implementeren als alternatief voor de RT GI is gewoon jammer. Mits goed geimplementeerd is het verschil nauwelijks te zien en is de performance impact van RT GI het niet waard.
En zelfs dan is Metro's GI te beperkt. Het geeft hooguit 25% van de tijd een zichtbaar beter/mooier/realistischer resultaat dan je met wat goed geplaatste light sources en AO zou bereiken. On/off in de game zelf geeft een vertekend beeld, omdat ze 0,0 fallback hebben.

De rest van de tijd krijg je gewoon wat we al jaren hebben met AO en vervolgens mis je een hele hoop omdat ze dat niet samen met hun RT GI voor elkaar kregen. Het feit dat point lights (je zaklamp) geen fatsoenlijke soft shadows meer geven is wat mij betreft een groter gemis.

Metro is een gevalletje "1 stap vooruit, 2 stappen terug".

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Astennu schreef op woensdag 12 juni 2019 @ 10:34:
[...]

Ze zeggen het gedaan te hebben om fan geluid te reduceren. Ik kan mij daar wel iets bij voorstellen dat air flow sturen daar verschil kan geven. Ik ben benieuwd hoe groot de verschillen tussen de 5700 en de 5700XT zijn als je ze beide even veel laat verbruiken.
Dat zeggen ze ja, maar lijkt mij twijfelachtig. Ik zag iemand op Reddit het volgende (ongeveer) erover posten:
1. Waarom heeft de 5700 het dan niet?
2. Er is uiteraard geen enkele reden waarom hij aan de buitenkant een inkeping moet hebben om aan de binnenkant de airflow te sturen. Dan had ook een goedkoop stukje plastic daar kunnen doen.

Lijkt me typisch iets dat gedaan wordt vanuit esthetisch oogpunt, en daarna is er een reden voor bedacht.

Acties:
  • 0 Henk 'm!
Sissors schreef op woensdag 12 juni 2019 @ 10:49:
[...]

Dat zeggen ze ja, maar lijkt mij twijfelachtig. Ik zag iemand op Reddit het volgende (ongeveer) erover posten:
1. Waarom heeft de 5700 het dan niet?
2. Er is uiteraard geen enkele reden waarom hij aan de buitenkant een inkeping moet hebben om aan de binnenkant de airflow te sturen. Dan had ook een goedkoop stukje plastic daar kunnen doen.

Lijkt me typisch iets dat gedaan wordt vanuit esthetisch oogpunt, en daarna is er een reden voor bedacht.
Ja dat klopt inderdaad je kan het aan de binnenkant gewoon doen.
Vind de cooler van de XT wel mooier net wat specialer en apparter. Die van de 5700 kennen we al een beetje van de Vega Limited.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 12 juni 2019 @ 10:34:
[...]


Ik moest er een paar seconden aan wennen maar ik vind het wel wat hebben moet het nog in het echt zien maar vind het niet heel erg lelijk, het is gewoon anders. Ik vind het overall design van de XT echt super! alleen daarom wil ik er al een. + een blower is sowieso top en nu lijken ze er meer aandacht aan besteed te hebben dan ooit te voren.

Ze zeggen het gedaan te hebben om fan geluid te reduceren. Ik kan mij daar wel iets bij voorstellen dat air flow sturen daar verschil kan geven. Ik ben benieuwd hoe groot de verschillen tussen de 5700 en de 5700XT zijn als je ze beide even veel laat verbruiken.
Ik moet eerlijk toegeven dat de 5700XT haar koeler misschien niet helemaal verschrikkelijk zal zijn. Mooi zien ze er in ieder geval uit. Met die 1800RPM limiet zou het ook niet verschrikkelijk moeten zijn. Ik denk alleen wel dat AMD nu met "gameclock" is gekomen omdat die 1800RPM toch wat barrières opwerpt om de 5700XT binnen haar 225W Total Board Power rating te houden. Idem voor de 5700 en haar 180W TBP rating.

De special edition heeft kennelijk een TBP van 235W meegekregen waardoor ik vermoed dat het een combinatie van goede kwaliteit chips samen met iets hoger voltage kan zijn. Gameclock zou bijna 80MHz hoger zijn. Wederom vraag ik me af of je niet de RPM alsnog moet verhogen voor de maximale boostclock. Potentieel kan undervolting, maar ik denk niet dat de boel weer op 1150-1200mv zal draaien. Dat horen we wel van je over een tijdje. :)
Ik hoorde al een RPM cap op 1800rpm en dat is nou ook wat ik voor mijn Vega 56/64 gebruikte als ik hem heel stil wilde hebben zo rond de 1800-2000 RPM maar dan kon hij een 1480MHz 900mv UV maar net aan. Had je een high leakage chip dan had je al een probleem dan had je de stock 2400 nodig om niet te throttelen. Dus deze blower cooler gaat veel stiller worden dan ooit te voren als die 1800 RPM max gewoon klopt. In dat geval ben ik niet bang voor een herrie cooler en zal dit voor de meeste mensen meer dan prima zijn.
Yup. Graag gedaan mensen. Ik offer me graag op zodat anderen de niet waardeloze chips kunnen krijgen. :') Ik was uiteindelijk tevreden met 1420MHz met 910mv. :P
(Gamers Nexus had het er met AMD over gehad en die hadden het over 1800rpm 43dba en dat de metingen voor Vega 64 te vergelijken waren met hun eigen metingen ze moeten het natuurlijk nog zelf gaan testen maar het klink in ieder geval goed en sowieso een hele grote verbetering tov vega 56/64 Air nu is het verbruik ook een stuk lager dus dat scheelt met een UV op Vega 56/64 kon je ook lagere fan speeds gaan draaien.)
GamersNexus had nog een interessant stukje. Vanaf 7:38 gaat Steve met Gordon van PC World in op prijzen nadat ze een dag allerlei dingen achter de schermen hebben gezien. Dit was dus op zondag, voor de E3 presentatie voor het publiek. Steve zegt gewoon dat AMD meer zou kunnen vragen dan Nvidia vraagt voor Turing, mits echt gelijkwaardige performance. Uiteraard is dat laatste wachten op benchmarks. Later nuanceert hij en raad hij het gewoon goed op $449. Gordon zat op $400-$450 te hopen. Uiteraard is Steve ook getekend door de mishandeling van Nvidia met hun prijzen. :z

Ondertussen gaat Gordon in op thermals en power draw. Gordon zegt gewoon dat de 5700 series het gaat winnen van Turing daar, geen tegenargument. Thermals misschien met blower vs. blower maar waarschijnlijk niet met blower vs. open. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 12 juni 2019 @ 11:18:
[...]

Ik moet eerlijk toegeven dat de 5700XT haar koeler misschien niet helemaal verschrikkelijk zal zijn. Mooi zien ze er in ieder geval uit. Met die 1800RPM limiet zou het ook niet verschrikkelijk moeten zijn. Ik denk alleen wel dat AMD nu met "gameclock" is gekomen omdat die 1800RPM toch wat barrières opwerpt om de 5700XT binnen haar 225W Total Board Power rating te houden. Idem voor de 5700 en haar 180W TBP rating.

De special edition heeft kennelijk een TBP van 235W meegekregen waardoor ik vermoed dat het een combinatie van goede kwaliteit chips samen met iets hoger voltage kan zijn. Gameclock zou bijna 80MHz hoger zijn. Wederom vraag ik me af of je niet de RPM alsnog moet verhogen voor de maximale boostclock. Potentieel kan undervolting, maar ik denk niet dat de boel weer op 1150-1200mv zal draaien. Dat horen we wel van je over een tijdje. :)

[...]

Yup. Graag gedaan mensen. Ik offer me graag op zodat anderen de niet waardeloze chips kunnen krijgen. :') Ik was uiteindelijk tevreden met 1420MHz met 910mv. :P

[...]


GamersNexus had nog een interessant stukje. Vanaf 7:38 gaat Steve met Gordon van PC World in op prijzen nadat ze een dag allerlei dingen achter de schermen hebben gezien. Dit was dus op zondag, voor de E3 presentatie voor het publiek. Steve zegt gewoon dat AMD meer zou kunnen vragen dan Nvidia vraagt voor Turing, mits echt gelijkwaardige performance. Uiteraard is dat laatste wachten op benchmarks. Later nuanceert hij en raad hij het gewoon goed op $449. Gordon zat op $400-$450 te hopen. Uiteraard is Steve ook getekend door de mishandeling van Nvidia met hun prijzen. :z

Ondertussen gaat Gordon in op thermals en power draw. Gordon zegt gewoon dat de 5700 series het gaat winnen van Turing daar, geen tegenargument. Thermals misschien met blower vs. blower maar waarschijnlijk niet met blower vs. open. :)

[YouTube: "Did NVIDIA Win?" Ray Tracing, Ft. Gordon of PC World]
Ik ben benieuwd naar die special edition. Het lijkt er op dat ze wel naar de klanten geluisterd hebben aangezien die bleven roepen dat het jammer was dat die Special editions voor 50 Jaar niet hoger geclockt waren.

Ik denk ook wel dat er meer ruimte in zit als je de cooler harder laat draaien / Power limit verhoogt / gaat overlocken / undervolten maar dat gaan we zien zodra ze uit zijn.

Ik heb trouwens wel meer kaarten gehad die 1480 MHz op 900mv deden ;) maar ook genoeg die wat lager zaten :)

Ik heb dat filmpje vanmorgen ook gekeken. vond het apart dat hij denkt dat AMD dan 50 dollar boven nVidia kan zitten met gelijke prestaties ik vraag mij af waarom hij dat vind. nVidia heeft RTX AMD niet memory in het geval van de 2070 is ook 8GB en dus gelijk. Waarom zou AMD dan meer kunnen vragen voor die 5700XT?

Het stukje over nu hoog in zetten op prijs want de 2060 Ti en 2070 TI komen er aan en dan kan je dan de prijs eventueel iets laten zakken. Zet je nu al laag in zal nVidia ook laag in gaan zetten en verdien je beide minder.

Ik denk dat AMD wel een mooi segement voor ogen heeft met de 5700 (XT). Polaris en Vega blijven voorlopig het lagere segment even doen de RX 590 moeten ze gewoon in prijs verlagen. De Vega kaarten wil AMD er denk ik zo snel mogelijk uit hebben want die zijn duur om te maken. En de 5700 maakt de 56 en 64 qua performance overbodig. Radeon VII hoeven ze ook niet meer te produceten want dat verschil is zo klein. Zou je alleen kunnen gebruiken voor afgekeurde Instinct MI parts (idem voor Vega 56/64). Maar IPC zijn alle Vega chips erg duur en kan je beter Navi chips memt GDDR6 van verkopen.

Polaris is niet zo duur dus die kan je houden tov de 16xx serie alleen de prijs nog een beetje verder tweaken en voorlopig prima tot dat Navi 12 komt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 12 juni 2019 @ 11:34:
[...]


Ik ben benieuwd naar die special edition. Het lijkt er op dat ze wel naar de klanten geluisterd hebben aangezien die bleven roepen dat het jammer was dat die Special editions voor 50 Jaar niet hoger geclockt waren.
Het was ook vreemd. Cherry pick dan wat chips voor die speciale modellen.
Ik denk ook wel dat er meer ruimte in zit als je de cooler harder laat draaien / Power limit verhoogt / gaat overlocken / undervolten maar dat gaan we zien zodra ze uit zijn.

Ik heb trouwens wel meer kaarten gehad die 1480 MHz op 900mv deden ;) maar ook genoeg die wat lager zaten :)
Wrijf het er nog even lekker in ja. :N :P
Ik heb dat filmpje vanmorgen ook gekeken. vond het apart dat hij denkt dat AMD dan 50 dollar boven nVidia kan zitten met gelijke prestaties ik vraag mij af waarom hij dat vind. nVidia heeft RTX AMD niet memory in het geval van de 2070 is ook 8GB en dus gelijk. Waarom zou AMD dan meer kunnen vragen voor die 5700XT?
Ik begin dus te vermoeden dat het niet RTX2070 matchen is, maar echt verslaan. We weten dat er een verschil is tussen game en max boost. Als AMD haar benchmarks accuraat zijn, dan is de 5700XT met waarschijnlijk gameboost al sneller dan de RTX2070. Natuurlijk kan er gegoocheld zijn met boostclocks, instellingen etc, maar dat lijkt AMD haar stijl niet te zijn. Ze lijken oprecht vertrouwen in hun product te tonen en laten gewoon zien wat ze hebben. Liegen zal ook alleen maar voor enorme problemen zorgen bij de reviews.
Het stukje over nu hoog in zetten op prijs want de 2060 Ti en 2070 TI komen er aan en dan kan je dan de prijs eventueel iets laten zakken. Zet je nu al laag in zal nVidia ook laag in gaan zetten en verdien je beide minder.
Die refresh komt er denk ik ook wel. Als de RX5700 dan wat gaat zakken, dan mooi voor iedereen.
Ik denk dat AMD wel een mooi segement voor ogen heeft met de 5700 (XT). Polaris en Vega blijven voorlopig het lagere segment even doen de RX 590 moeten ze gewoon in prijs verlagen. De Vega kaarten wil AMD er denk ik zo snel mogelijk uit hebben want die zijn duur om te maken. En de 5700 maakt de 56 en 64 qua performance overbodig. Radeon VII hoeven ze ook niet meer te produceten want dat verschil is zo klein. Zou je alleen kunnen gebruiken voor afgekeurde Instinct MI parts (idem voor Vega 56/64). Maar IPC zijn alle Vega chips erg duur en kan je beter Navi chips memt GDDR6 van verkopen.

Polaris is niet zo duur dus die kan je houden tov de 16xx serie alleen de prijs nog een beetje verder tweaken en voorlopig prima tot dat Navi 12 komt.
Ik denk eigenlijk dat AMD haar Polaris inventaris aan het dumpen is en over zal gaan op Navi 12. Die chip lijkt gewoon te bestaan en zou Polaris dan moeten aflossen. Vega inventaris is al bijna verdwenen en alle Vega chips die AMD heeft kunnen ze gewoon aan Apple (iMac) of Google (Google Stadia) verkopen. Vega blijkt denk ik ook nog wel even in productie, maar niet voor ons. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Vega blijft en ook in nieuwe producten zie de Mac Pro. Sowieso in het Datacenter want zie ook de TFlops van Navi 10 die redden het lang niet bij wat Vega 10 en 20 kunnen. Dus de huidige Navi is daar geen opvolger voor. Vega 20 met zijn FP64 performance zal nog een tijdje de compute kaart blijven als het om FP64 gaat.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 12 juni 2019 @ 11:48:
Vega blijft en ook in nieuwe producten zie de Mac Pro. Sowieso in het Datacenter want zie ook de TFlops van Navi 10 die redden het lang niet bij wat Vega 10 en 20 kunnen. Dus de huidige Navi is daar geen opvolger voor. Vega 20 met zijn FP64 performance zal nog een tijdje de compute kaart blijven als het om FP64 gaat.
In de 2019 Mac Pro zal een Vega 20 komen. Ik heb het alleen over Vega 10 die in de iMac 2017 zit. De 2019 iMac heeft dan een "Vega 48CU". Aangezien het 8GB HBM2 is, denk ik alsnog Vega 10. Google Stadia wordt vervolgens opgebouwd met Vega 56CU chips, ook Vega 10. Vega 10 gaat dus voorlopig nergens naartoe. Het is stiekem best een succes voor AMD aan het worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 12 juni 2019 @ 11:54:
[...]
In de 2019 Mac Pro zal een Vega 20 komen. Ik heb het alleen over Vega 10 die in de iMac 2017 zit. De 2019 iMac heeft dan een "Vega 48CU". Aangezien het 8GB HBM2 is, denk ik alsnog Vega 10. Google Stadia wordt vervolgens opgebouwd met Vega 56CU chips, ook Vega 10. Vega 10 gaat dus voorlopig nergens naartoe. Het is stiekem best een succes voor AMD aan het worden. :)
We weten echter niet wat de marges zijn richting Google en Apple (toch?). Dat is wel een cruciaal gegeven om de mate van succes te bepalen.

Acties:
  • 0 Henk 'm!
Paprika schreef op woensdag 12 juni 2019 @ 12:08:
[...]

We weten echter niet wat de marges zijn richting Google en Apple (toch?). Dat is wel een cruciaal gegeven om de mate van succes te bepalen.
Nee, maar het is volgens mij alsnog succesvoller dan die chips helemaal niet kunnen verkopen. :P
Ik zou de marges ook wel willen weten. Ik vermoed dat Apple niet zo bijzonder is, maar Google zou wel eens interessant kunnen zijn wat die betalen per kaart. Waarschijnlijk zijn het daar namelijk Instinct kaarten met de gebruikelijke server kwaliteit features en prijzen. :)


En dit is dus hoe gameclock werkt. :)
-Het gaat om een bewust conservatieve clock die kaarten onder gaming loads eigenlijk minimaal zou moeten halen.
-Effectieve clockspeeds zouden in de regel hoger moeten liggen. Het gaat hier om de gebruikelijke parameters zoals temperaturen, verbruik, kwaliteit chip, airflow behuizing etc.
-Base clock is uiteraard worst case.
-Dit zou niet ten koste gaan van OC potentieel. Er zou namelijk aardig wat potentieel moeten zijn.
-Het gaat gewoon reference worden en later AIB modellen. Weten we eigenlijk al. Er lijken dan wel AIB's te komen die out of the box al hoger geclockt zijn. Zoveel wordt wel geïmpliceerd.
https://www.gamecrate.com...base-radeon-e3-2019/23309

[ Voor 64% gewijzigd door DaniëlWW2 op 12-06-2019 18:35 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op donderdag 13 juni 2019 @ 16:49:
[...]


Ik ben gewoon functioneel in een fatsoenlijke ATX kast over mooi. ;)
Ik vind die 5700XT koeler eigenlijk ook prachtig, zeker de SE. Ik blijf alleen zeer avers tegen het geluid, elk geluid eigenlijk. Op zich zou het acceptabel kunnen als Navi niet met bezopen voltages en angstaanjagende stroomlekkage karakteristieken verkocht zal worden. Neemt niet weg dat ik gewoon ga kijken wat voor moois Sapphire of de andere AIB's ervan kan maken. Zeker omdat ik vermoed dat AMD, Nvidia op heeft gezet voor een kleine prijzenoorlog met de huidige prijzen en beoogde prestatiepunten. AMD heeft ook ruime marge genomen om te zakken in reactie op een Turing refresh die kennelijk al spoedig zal komen. Maar dit hoort eigenlijk in het andere topic. :)
Hier dan maar verder :)
Ik ga deels voor functioneel maar wil met mijn nieuwe build wel voor een window gaan zodat je de AMD stock CPU cooler en 5700 XT kan zien. Een blower op 1800 RPM is erg stil. Ga je dan UV toepassen kan die RPM denk ik nog verder omlaag dus dat is imo geen issue. Ik kan niet wachten! ik ga ook proberen die 50th edition te pakken te krijgen weet nog niet exact hoe had iets in canada geregeld maar canada staat nu niet meer als optie genoemd op AMD.com/shop

Ik denk ook dat AMD daar klaar voor is zowel met Ryzen als met de Navi kaarten. Ik denk ook dat die prijzen die AdoreTV had gewoon klopte als in de targets waar AMD op mikte die haalbaar moesten zijn om een prijzen oorlog te kunnen voeren.
Gezien de prijzen van Polaris denk ik dat de Navi ook prima voor 300 kunnen verkopen de 5700 non XT waarschijnlijk nog wel voor minder als het echt moet.

nVidia zou volgens geruchten met de veel snellere super kaarten gaan komen voor dezelfde prijzen als de huidige kaarten. Nja dat moet ik nog eerst zien voor ik het geloof. Ik verwacht eerder een kleine prijs verlaging met vervolgens een hogere prijs dan nu voor de super kaarten maar die zouden de 21e mogelijk al komen. Ik ben benieuwd. Lagere prijzen zouden voor ons alleen maar goed zijn want dan zal AMD de MSRP van de 5700 en 5700 XT ook wel gaan bijstellen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

Astennu schreef op donderdag 13 juni 2019 @ 16:59:
[...]


nVidia zou volgens geruchten met de veel snellere super kaarten gaan komen voor dezelfde prijzen als de huidige kaarten. Nja dat moet ik nog eerst zien voor ik het geloof.
Veel sneller/zelfde prijs? Pick one.
Ik vermoed dat het een beetje zoals de Ti versies van de huidige kaarten zijn die, nu AMD eindelijk weer iets om tegen Turing in te zetten heeft, als " Super" verkocht gaan worden.
Normaal gesproken zou daaar een aardige meerprijs tegenover staan.
Ik moet het ook maar gaan zien. Enkel als (zoals ik al meerdere malen gesteld heb) de 5700's beter blijken te zijn dan wat we vermoeden.
Navi gaat sowieso geen dusdanig grote hap uit Nvidia's marktaandeel nemen dat ze flink in gaan teren op hun marges.
Ik verwacht eerder een kleine prijs verlaging met vervolgens een hogere prijs dan nu voor de super kaarten maar die zouden de 21e mogelijk al komen. Ik ben benieuwd. Lagere prijzen zouden voor ons alleen maar goed zijn want dan zal AMD de MSRP van de 5700 en 5700 XT ook wel gaan bijstellen.
Dat vermoeden heb ik ook, maar buiten de super aankondiging is er verder nog helemaal niets bekend,

Dus het is gewoon een spelletje;

AMD kondigt Navi aan.
Nvidia teased met Super.
AMD maakt prijzen en specs bekend, lager dan Turing maar hoger dan verwacht/gehoopt.
Nvidia komt met Super (net voor Navi release) en (speculatie) verlaagt de prijzen van regulier ietsjes.
AMD verlaagt haar prijzen met evenveel.

Win win. Satus quo. Hogere marges voor beiden.

(uiteraard geld ook hier, alles compleet uit de duim gezogen, maar niet geheel onaannemelijk)

Acties:
  • 0 Henk 'm!
ZenTex schreef op donderdag 13 juni 2019 @ 17:15:
[...]


Veel sneller/zelfde prijs? Pick one.
Ik vermoed dat het een beetje zoals de Ti versies van de huidige kaarten zijn die, nu AMD eindelijk weer iets om tegen Turing in te zetten heeft, als " Super" verkocht gaan worden.
Normaal gesproken zou daaar een aardige meerprijs tegenover staan.
Ik moet het ook maar gaan zien. Enkel als (zoals ik al meerdere malen gesteld heb) de 5700's beter blijken te zijn dan wat we vermoeden.
Navi gaat sowieso geen dusdanig grote hap uit Nvidia's marktaandeel nemen dat ze flink in gaan teren op hun marges.

[...]


Dat vermoeden heb ik ook, maar buiten de super aankondiging is er verder nog helemaal niets bekend,

Dus het is gewoon een spelletje;

AMD kondigt Navi aan.
Nvidia teased met Super.
AMD maakt prijzen en specs bekend, lager dan Turing maar hoger dan verwacht/gehoopt.
Nvidia komt met Super (net voor Navi release) en (speculatie) verlaagt de prijzen van regulier ietsjes.
AMD verlaagt haar prijzen met evenveel.

Win win. Satus quo. Hogere marges voor beiden.

(uiteraard geld ook hier, alles compleet uit de duim gezogen, maar niet geheel onaannemelijk)
Dat super wordt nu een beetje hyped volgens mij. Ze zeggen 2070 Super = RTX 2080 performance voor 2070 prijs.
En 2080 Super = 2080 Ti performance voor 2080 prijs.
2080 Ti Super = nieuwe chip nog sneller dan wat we nu hebben. En dat voor de hele lineup.

Ik geloof het nog niet direct maar we gaan het zien. Als het wel gebeurd is het mooi voor de concurrentie want dan moet AMD de prijzen ook wat aan passen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op donderdag 13 juni 2019 @ 16:59:
[...]


Hier dan maar verder :)
Ik ga deels voor functioneel maar wil met mijn nieuwe build wel voor een window gaan zodat je de AMD stock CPU cooler en 5700 XT kan zien. Een blower op 1800 RPM is erg stil. Ga je dan UV toepassen kan die RPM denk ik nog verder omlaag dus dat is imo geen issue. Ik kan niet wachten! ik ga ook proberen die 50th edition te pakken te krijgen weet nog niet exact hoe had iets in canada geregeld maar canada staat nu niet meer als optie genoemd op AMD.com/shop
Voor mij waarschijnlijk niet. Ik ga waarschijnlijk dus voor de 5700XT en ik wil het prestatiegat met mijn RX Vega 56 zo groot mogelijk maken. Ik ga waarschijnlijk dus effectieve clockspeed maximaliseren. Dat gaat denk ik ten koste van die 1800RPM.

Vervolgens heb ik hier nu al vaker gezegd dat ik door mijn gevalletje autismespectrumstroonis echt extreem slecht tegen dit soort geluiden kan. Het breekt letterlijk mijn concentratie op. Dat is extra relevant aan het worden omdat ik in een vergevorderd stadium zit om als buitenpromoventi de komende jaren een proefschrift te gaan schrijven. Ik heb die stilte gewoon absoluut nodig. Ik heb elke storende geluidsfactor in mijn PC nu geëlimineerd behalve de videokaart. Die moet er dus nu ook aan gaan geloven, ook tijdens gaming want bij idle is die stil.
Ik denk ook dat AMD daar klaar voor is zowel met Ryzen als met de Navi kaarten. Ik denk ook dat die prijzen die AdoreTV had gewoon klopte als in de targets waar AMD op mikte die haalbaar moesten zijn om een prijzen oorlog te kunnen voeren.
Gezien de prijzen van Polaris denk ik dat de Navi ook prima voor 300 kunnen verkopen de 5700 non XT waarschijnlijk nog wel voor minder als het echt moet.
Die 7nm wafers zijn wel tweemaal zo duur als 14nm was. Ik denk dat $300 net zal gaan voor de 5700. De 5700XT voor $400 lijkt me redelijk.

AdoredTV, ik weet het niet. Ik denk dat hij die prijzen wel van iemand heeft gekregen, maar hij heeft ze denk ik te makkelijk overgenomen en als feit gepresenteerd. Ik hou er ook rekening mee dat AMD, AdoredTV "gebruikt" heeft om de stemming te peilen waarna ze fors hoger gingen inzetten qua prijzen.
nVidia zou volgens geruchten met de veel snellere super kaarten gaan komen voor dezelfde prijzen als de huidige kaarten. Nja dat moet ik nog eerst zien voor ik het geloof. Ik verwacht eerder een kleine prijs verlaging met vervolgens een hogere prijs dan nu voor de super kaarten maar die zouden de 21e mogelijk al komen. Ik ben benieuwd. Lagere prijzen zouden voor ons alleen maar goed zijn want dan zal AMD de MSRP van de 5700 en 5700 XT ook wel gaan bijstellen.
Veel sneller denk ik niet, maar TU-106 en TU-104 hebben meer dan genoeg ruimte voor refreshes met meer cuda cores enabled. Vervolgens is Nvidia geen Intel. Intel rekent er simpelweg op dat AMD niet in de gehele vraag kan voorzien waardoor ze alles wat ze kunnen maken, ook verkopen. Daar heeft Intel waarschijnlijk gelijk in. Nvidia heeft die luxe niet en kan een forse afname in marktaandeel niet accepteren. De discrete GPU markt is letterlijk hun bestaansrecht. Alleen al de aandelenkoers zal nog verder onderuit gaan waarna er velen miljarden verdampen. Het was al een waar bloedbad sinds Turing lanceerde.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op donderdag 13 juni 2019 @ 17:24:
[...]


Dat super wordt nu een beetje hyped volgens mij. Ze zeggen 2070 Super = RTX 2080 performance voor 2070 prijs.
En 2080 Super = 2080 Ti performance voor 2080 prijs.
2080 Ti Super = nieuwe chip nog sneller dan wat we nu hebben. En dat voor de hele lineup.

Ik geloof het nog niet direct maar we gaan het zien. Als het wel gebeurd is het mooi voor de concurrentie want dan moet AMD de prijzen ook wat aan passen.
Die 2080 Super kan toch nooit 2080Ti performance hebben als ik de leaks zie. :?

De 2080 Super gaat van 2944 naar 3072 cudacores, en krijgt wat sneller geheugen (16 ipv 14Gbps).

Een 2080Ti heeft maar liefst 4352 cudacores, weliswaar iets lager geklokt. Geheugen bij TI is 14Gbps maar wel 352bit breedte tov 256bit.

De 2080Ti is gebaseerd op de TU-102 en de 2080 (super) op de TU-104.

[ Voor 3% gewijzigd door Help!!!! op 13-06-2019 18:11 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op donderdag 13 juni 2019 @ 17:54:
[...]

Die 2080 Super kan toch nooit 2080Ti performance hebben als ik de leaks zie. :?

De 2080 Super gaat van 2944 naar 3072 cudacores, en krijgt wat sneller geheugen (16 ipv 14Gbps).

Een 2080Ti heeft maar liefst 4352 cudacores, weliswaar iets lager geklokt. Geheugen bij TI is 14Gbps maar wel 352bit breedte tov 256bit.

De 2080Ti is gebaseerd op de TU-102 en de 2080 (super) op de TU-104.
Ik heb het ook niet bedacht maar zie dat het artikel van wccftech ook aanzienlijk wat edits gekregen heeft stuk realistischer.

Ze hadden het eerst over 2080 super > TU102

Bij die "super"chips heb ik meer het idee dat ze de defecte dies nog wat verder gaan binnen om minder weg te hoeven gooien en het vervolgens marketen als" super" super winst ja :P

[ Voor 14% gewijzigd door Astennu op 13-06-2019 19:05 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +4 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 21:14

Apoca

Array Technology Industry

Technical analyst David Kanter joins us to talk about AMD's RDNA architecture vs. GCN, debuting in RX Navi GPUs. We talk Vega, GCN, RDNA, and Navi.

YouTube: AMD RDNA / Navi Arch Deep-Dive: Waves & Cache, Ft. David Kanter

Oei dit is wel een goede uitleg zeg, die kerel heeft der echt serieus kijk op die het ook netjes kan uitleggen :)

[ Voor 53% gewijzigd door Apoca op 13-06-2019 20:14 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Apoca schreef op donderdag 13 juni 2019 @ 20:04:
Technical analyst David Kanter joins us to talk about AMD's RDNA architecture vs. GCN, debuting in RX Navi GPUs. We talk Vega, GCN, RDNA, and Navi.

YouTube: AMD RDNA / Navi Arch Deep-Dive: Waves & Cache, Ft. David Kanter

Oei dit is wel een goede uitleg zeg, die kerel heeft der echt serieus kijk op die het ook netjes kan uitleggen :)
David Kanter is zeker een hele goede op dit gebied.

Hij was ook degene die de tile based rasterization van nvidia blootlegde: YouTube: Tile-based Rasterization in Nvidia GPUs with David Kanter of Real Wo...

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Ik vind het eigenlijk wel jammer dat dit nu pas ter sprake begint te komen. :P
Maar er zitten gewoon een aantal erg goede verbeteringen in RDNA. Voor mij is met afstand het belangrijkste de nieuwe CU met de SMID 32.


De GCN situatie was eigenlijk zeer problematisch. In het ideale scenario werden er tien wavefronts van elk 64 threads ingeladen in de CU haar register. Die werden dan clockcycle voor clockcycle verdeeld over de vier SMID16's. Probleem hiermee was dat de eerste clockcycle, 75% van de CU al niks deed. Daarna nam het af tot je na de vierde cycle in principe maximale utilisatie bereikte voor de rest van de register haar zes overblijvende wavefronts.

Probleem twee en deze is veel groter, is dat de ideale situatie zelden bestaat. Krijgt een SMID16 een wavefront toegewezen met maar 32 threads i.p.v 64, dan is deze na twee cycles klaar en de andere twee cycles tot de volgende afgaven van een wavefront doet deze helemaal niks. Probleem drie was dat er ook minder dan tien wavefronts terecht konden komen bij sommige CU's. Stel een CU kreeg er acht. Nou die andere twee wavefronts aan cycles deed de hele CU dan helemaal niks. Dit werd ook nog eens erger omdat GCN nooit echt goed clockte. Cycles duurde dus ook langer wat een extra barrière oplegde.

TLDR:
-GCN CU = Maximaal tien groepen (wavefronts) van elk maximaal 64 threads.
-Probleem = Nauwelijks sprake dat CU werkelijk optimaal aantal rekenopdrachten kreeg.
-Gevolg = Lage utilisatie CU en dus potentieel minder frames.
Afbeeldingslocatie: https://tweakers.net/i/SgFDRfzqw9sJb9MuCW04rj9fZz0=/980x/filters:strip_icc()/i/2002829038.jpeg?f=imagearticlefull
Afbeeldingslocatie: https://tweakers.net/i/3dSIGArvsXmUoFoUuIHkj-HwM3E=/980x/filters:strip_icc()/i/2002829042.jpeg?f=imagearticlefull

RDNA fixt dit allemaal op een zeer elegante manier. RDNA heeft twee SMID32 eenheden die elke clockcycle een wavefront van maximaal 32 threads krijgen. Is je wavefront dan maar 20 threads, nou dan maakt dat eigenlijk niks uit. Volgende cycle kan je weer een 32 thread wavefront ontvangen en berekenen. De CU's doen dus in principe elke clockcycle.

Vervolgens omdat het veel minder CU's per pipeline zijn, zal de workload over minder CU's verdeeld moeten worden waardoor ze beter gevoed zullen worden. Zo los je CU's die geen wavefronts hebben dus op. De fors hogere clockspeeds zorgen er dan ook nog eens voor dat je per seconde, veel meer cycles kan uitvoeren, Meer cycles = potentieel meer frames.

TLDR:
-RDNA elke clockcycle een wavefront.
-RDNA beduidend efficiëntere CU utilisatie.
-Moar frames voor goed en minder goed geoptimaliseerde games en waarschijnlijk veel consistentere framerates voor de minder geoptimaliseerde titels. :*)


Ik vermoed ook dat een uiterst goed geoptimaliseerde game zoals BF5 hier veel beter gebruik van kan maken dan de gemiddelde titel. Dat zou die gigantische toename die AMD claimt verklaren. Tot op zekere hoogte zou ik niet verbaast zijn als de RX5700XT rond de GTX1080Ti/RTX2080 uit zou komen in BF5. :Y

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:52
@DaniëlWW2 Wat is toch dat S M I D waar jij over blijft praten? Dat heb ik je nou al meerdere posts zien doen ;)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
NitroX infinity schreef op donderdag 13 juni 2019 @ 23:23:
@DaniëlWW2 Wat is toch dat S M I D waar jij over blijft praten? Dat heb ik je nou al meerdere posts zien doen ;)
Zo dyslectisch ben ik nou. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik las ook ergens dat navi 128 rops heeft. Als dat (dit keer wel) waar is, is er ook op geometrie een bottleneck verdwenen. Mogelijk is de tesselation performance dan een stuk beter.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op vrijdag 14 juni 2019 @ 06:32:
Ik las ook ergens dat navi 128 rops heeft. Als dat (dit keer wel) waar is, is er ook op geometrie een bottleneck verdwenen. Mogelijk is de tesselation performance dan een stuk beter.
Dat zit niet in de ROP's :)

ROP staat voor Render Output Unit en is verantwoordelijk voor de laatste stap: berekende pixels worden samengevoegd tot het definitieve frame. Tegen de tijd dat je dus bij de ROPs aan komt, zit je eigenlijk al in 2D space. Technisch gezien niet 100% waar, omdat de ROPs wel nog wat dingen doen die informatie uit 3D space vereisen (MSAA bijvoorbeeld), maar dat is alleen gebruik van informatie, niet berekenen.

Tessellation zit in de geometry units (shocking! :P), die bij GCN altijd in de shader engines zaten. Daar waren er dus 4 van. Ze zitten nu min of meer los van de CU's, maar er zijn er wel nog steeds "slechts" 4, Turing heeft er bijvoorbeeld iets van 36. Nu kun je dat niet 1:1 vergelijken, want AMD's geometry units zijn iets "steviger" dan die van Nvidia. Op papier heeft Nvidia er in TU102 dan wel 9 keer zo veel, in de praktijk komt dat niet eens neer op het dubbele aan performance.

Het feit dat ze nu los aanspreekbaar zijn (zo ziet het er althans wel uit) betekent waarschijnlijk wel betere throughput. Het is wachten op de benchmarks.

Acties:
  • 0 Henk 'm!
Blaat schreef op vrijdag 14 juni 2019 @ 06:32:
Ik las ook ergens dat navi 128 rops heeft. Als dat (dit keer wel) waar is, is er ook op geometrie een bottleneck verdwenen. Mogelijk is de tesselation performance dan een stuk beter.
64 ROPs zie de slides van AMD.

Afbeeldingslocatie: https://tweakers.net/i/XmN3EpLxsfYi0kbyrK34DVQkpp4=/980x/filters:strip_icc()/i/2002829266.jpeg

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Schaamteloze linkdrop. :P

Ik plaats zo wel een samenvatting als ik het zelf heb gezien. Ben benieuwd want ik heb het vermoeden dat ik het bijzonder oneens ga zijn met de inhoud. :z



Edit: Hoe raadde ik dat zo? O-)
Het is natuurlijk weer een negatief alles is slecht verhaal en de prijzen zijn te hoog. Het zal wel. :/

Met name powerdraw irriteert me dus echt mateloos. Wederom iemand die niet eens de moeite heeft gedaan om het verschil in perspectief te zetten. De RTX2070FE heeft een limiet van 185W met een maximale boost van 16%, 215W dus. Ter illustratie zorgt die 215W er bij de kaart van Techpowerup voor ongeveer 8% hogere framerates in Unigine Heaven.
https://www.techpowerup.c..._Founders_Edition/36.html

Nogal karig, 8% erbij voor 16% extra vermogen. Zeker omdat de RX5700XT een aantal procent sneller lijkt te zijn. Die kaart zal ongetwijfeld maximaal 225W trekken onder standaard instellingen. Nou, 10W verschil is dus niks. Komt nog eens bij dat die RT en Tensor cores niet meegerekend zijn. Ga je die inschakelen, dan gaat dat ten koste van core clock omdat je kaart hardwarematig gelimiteerd is op 215W.

Dan pak ik er eens een aantal AIB modellen bij met hogere powerlimieten.
ASUS: https://www.techpowerup.c...RTX_2070_Strix_OC/34.html
Palit: https://www.techpowerup.c..._GameRock_Premium/33.html
Zotac: https://www.techpowerup.c..._2070_AMP_Extreme/36.html
MSI: https://www.techpowerup.c...RTX_2070_Gaming_Z/36.html

Ze zitten allemaal tussen de 215-225W standaard powerlimiet en allemaal een paar frames sneller in Unigine Heaven. Vervolgens nog een paar frames eruit halen met maximale powerlimiet en dan zitten ze allemaal bij of in het geval van de ASUS over de 250W. Die ASUS is helemaal mooi. Van 185W en 128fps voor de FE maar 269W en 142fps voor die ASUS. Lijkt een matige chip te zijn als ik vergelijk met de anderen, maar wel erg indicatief.

Zo efficiënt is Turing nu werkelijk. Dit is ook niks bijzonders. Zo reageren de meeste videokaarten. De laatste paar procent zijn altijd zo extreem. Maakt Turing als architectuur niet efficiënt of onverslaanbaar. Nee, de RTX2070FE zit gewoon precies op een sweetspot. Die 215-225W modellen halen er gemiddeld iets van 5fps bij voor 30-40W verbruik.


Dan de RX5700XT. Deze heeft in ieder geval geen last van tensorcores of RT cores die voor lagere clockspeeds zullen zorgen. Nee, deze heeft waarschijnlijk een probleem met koeling. De 1800RPM voor de ventilator gaat waarschijnlijk ten koste van optimale koelingsprestaties. Op zich een erg goed besluit, stilte ruilen voor een paar frames. Zal de verkopen hopelijk goed doen.

Resultaat hiervan is waarschijnlijk "game clock" i.p.v boost clock. Dankzij Buildzoid zijn rant en testen weten we ook dat een koelere kaart, een lager verbruik heeft. Dat is ook een breder principe dat echt niet alleen voor AMD reference kaarten geld. Een koelere chip clockt al snel beter. Met een lagere temperatuur, a.k.a betere koeling, is het niet ondenkbaar dat binnen de 225W, de RX5700XT zeer dichtbij de 1900MHz gaat komen. Is die waarschijnlijk weer wat procenten sneller en dan gaat die nek aan nek met een duurder RTX2070 OC model, als die niet alsnog iets sneller blijkt te zijn.

Nota bene is de MSRP van de RX5700XT $50 lager dan de "goedkope" MSRP van de RTX2070. De FE was gewoon $599 en een beetje fatsoenlijke RTX2070 in Nederland begint bij €530-€540. Geheel toevallig vertaalt zich dit naar ongeveer $600. Ja ik weet het, BTW. Zelfs dan nog. De fatsoenlijke instapmodellen die beginnen bij €530-€540 zijn omgerekend gewoon $499 + 21% BTW.

Voor Buildzoid, zie: https://www.reddit.com/r/...and_specs_leaked/eqihjy4/


Conclusie: Ik ga er nu al vanuit dat de meeste reviewers zullen testen vs. de FE en dan uitgebreid gaan lopen verkondigen hoe waardeloos de RX5700XT is, want 225W vs. 185W. Dat de RX5700XT waarschijnlijk wat sneller is, zal niet baten. Idem voor iets goedkoper. Het argument om een RX5700XT matchende, RTX2070 OC model te vergelijken waarna het verschil in powerdraw nihil zal zijn, gaat ook niet gelden. Kan niet wachten op de reviews zeg. :z

Het gaat ook gedeeltelijk de schuld van AMD zelf zijn dat er weer geen launch met AIB modellen komt. Lanceer dan een reference voor de mensen die deze willen, maar laat de AIB's alsjeblieft vanaf dag een zelf met modellen komen. Desnoods stuur je alleen AIB modellen rond aan reviewers die de 225W powerlimiet aanhouden. Cherry pick desnoods de goede modellen die goed koelen en die 225W aanhouden.

[ Voor 104% gewijzigd door DaniëlWW2 op 14-06-2019 22:07 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Heeft iemand toevallig hele slide deck gezien van de architecture breefing? ik zie wel de hele tijd in Youtube fiilmpjes en andere tech artiekels het ea voorbij komen. Maar ik ben eigenlijk op zoek naar alle handouds.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op vrijdag 14 juni 2019 @ 22:55:
Heeft iemand toevallig hele slide deck gezien van de architecture breefing? ik zie wel de hele tijd in Youtube fiilmpjes en andere tech artiekels het ea voorbij komen. Maar ik ben eigenlijk op zoek naar alle handouds.
Uh. :P
reviews: Ryzen 3000 en Radeon RX 5700 - Alle details over AMD's nieuwste cpu'...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op vrijdag 14 juni 2019 @ 18:59:
Schaamteloze linkdrop. :P

Ik plaats zo wel een samenvatting als ik het zelf heb gezien. Ben benieuwd want ik heb het vermoeden dat ik het bijzonder oneens ga zijn met de inhoud. :z

[YouTube: Is Navi Good Enough?]

Edit: Hoe raadde ik dat zo? O-)
Het is natuurlijk weer een negatief alles is slecht verhaal en de prijzen zijn te hoog. Het zal wel. :/

Met name powerdraw irriteert me dus echt mateloos. Wederom iemand die niet eens de moeite heeft gedaan om het verschil in perspectief te zetten. De RTX2070FE heeft een limiet van 185W met een maximale boost van 16%, 215W dus. Ter illustratie zorgt die 215W er bij de kaart van Techpowerup voor ongeveer 8% hogere framerates in Unigine Heaven.
https://www.techpowerup.c..._Founders_Edition/36.html

Nogal karig, 8% erbij voor 16% extra vermogen. Zeker omdat de RX5700XT een aantal procent sneller lijkt te zijn. Die kaart zal ongetwijfeld maximaal 225W trekken onder standaard instellingen. Nou, 10W verschil is dus niks. Komt nog eens bij dat die RT en Tensor cores niet meegerekend zijn. Ga je die inschakelen, dan gaat dat ten koste van core clock omdat je kaart hardwarematig gelimiteerd is op 215W.

Dan pak ik er eens een aantal AIB modellen bij met hogere powerlimieten.
ASUS: https://www.techpowerup.c...RTX_2070_Strix_OC/34.html
Palit: https://www.techpowerup.c..._GameRock_Premium/33.html
Zotac: https://www.techpowerup.c..._2070_AMP_Extreme/36.html
MSI: https://www.techpowerup.c...RTX_2070_Gaming_Z/36.html

Ze zitten allemaal tussen de 215-225W standaard powerlimiet en allemaal een paar frames sneller in Unigine Heaven. Vervolgens nog een paar frames eruit halen met maximale powerlimiet en dan zitten ze allemaal bij of in het geval van de ASUS over de 250W. Die ASUS is helemaal mooi. Van 185W en 128fps voor de FE maar 269W en 142fps voor die ASUS. Lijkt een matige chip te zijn als ik vergelijk met de anderen, maar wel erg indicatief.

Zo efficiënt is Turing nu werkelijk. Dit is ook niks bijzonders. Zo reageren de meeste videokaarten. De laatste paar procent zijn altijd zo extreem. Maakt Turing als architectuur niet efficiënt of onverslaanbaar. Nee, de RTX2070FE zit gewoon precies op een sweetspot. Die 215-225W modellen halen er gemiddeld iets van 5fps bij voor 30-40W verbruik.


Dan de RX5700XT. Deze heeft in ieder geval geen last van tensorcores of RT cores die voor lagere clockspeeds zullen zorgen. Nee, deze heeft waarschijnlijk een probleem met koeling. De 1800RPM voor de ventilator gaat waarschijnlijk ten koste van optimale koelingsprestaties. Op zich een erg goed besluit, stilte ruilen voor een paar frames. Zal de verkopen hopelijk goed doen.

Resultaat hiervan is waarschijnlijk "game clock" i.p.v boost clock. Dankzij Buildzoid zijn rant en testen weten we ook dat een koelere kaart, een lager verbruik heeft. Dat is ook een breder principe dat echt niet alleen voor AMD reference kaarten geld. Een koelere chip clockt al snel beter. Met een lagere temperatuur, a.k.a betere koeling, is het niet ondenkbaar dat binnen de 225W, de RX5700XT zeer dichtbij de 1900MHz gaat komen. Is die waarschijnlijk weer wat procenten sneller en dan gaat die nek aan nek met een duurder RTX2070 OC model, als die niet alsnog iets sneller blijkt te zijn.

Nota bene is de MSRP van de RX5700XT $50 lager dan de "goedkope" MSRP van de RTX2070. De FE was gewoon $599 en een beetje fatsoenlijke RTX2070 in Nederland begint bij €530-€540. Geheel toevallig vertaalt zich dit naar ongeveer $600. Ja ik weet het, BTW. Zelfs dan nog. De fatsoenlijke instapmodellen die beginnen bij €530-€540 zijn omgerekend gewoon $499 + 21% BTW.

Voor Buildzoid, zie: https://www.reddit.com/r/...and_specs_leaked/eqihjy4/


Conclusie: Ik ga er nu al vanuit dat de meeste reviewers zullen testen vs. de FE en dan uitgebreid gaan lopen verkondigen hoe waardeloos de RX5700XT is, want 225W vs. 185W. Dat de RX5700XT waarschijnlijk wat sneller is, zal niet baten. Idem voor iets goedkoper. Het argument om een RX5700XT matchende, RTX2070 OC model te vergelijken waarna het verschil in powerdraw nihil zal zijn, gaat ook niet gelden. Kan niet wachten op de reviews zeg. :z

Het gaat ook gedeeltelijk de schuld van AMD zelf zijn dat er weer geen launch met AIB modellen komt. Lanceer dan een reference voor de mensen die deze willen, maar laat de AIB's alsjeblieft vanaf dag een zelf met modellen komen. Desnoods stuur je alleen AIB modellen rond aan reviewers die de 225W powerlimiet aanhouden. Cherry pick desnoods de goede modellen die goed koelen en die 225W aanhouden.
Daar heb je wel een reeks aannames gemaakt waar de feiten toch bij ontbreken, dat is meer wishfull thinking.

Uit dat filmpje vond ik het scheef dat hij ervan uitging dat de RX5700(XT) midrange kaarten moesten zijn, en hij dus met RX480 enzo ging vergelijken. Nu is hij qua oppervlakte wel behoorlijk klein, maar overall is hij natuurlijk gewoon een ander segment.
En ja, de power efficientie van deze Navi chips is acceptabel. Maar niet meer dan acceptabel. Laten we wel wezen, het is nou niet zo geweldig dat ze een jaar na Nvidia kaarten weten uit te brengen die qua power efficientie misschien een vergelijkbare efficientie hebben om een volledige node kleiner.

Hij noemt ook zelf dat deze chips goed lijken te schalen nog qua power vs snelheid, waarbij het goede nieuws dus is dat ze in een normaal gebied werken, en het slechte nieuws dat er niet nog een grote stap te maken is door te undervolten.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 14 juni 2019 @ 18:59:
Is die waarschijnlijk weer wat procenten sneller en dan gaat die nek aan nek met een duurder RTX2070 OC model, als die niet alsnog iets sneller blijkt te zijn.

Nota bene is de MSRP van de RX5700XT $50 lager dan de "goedkope" MSRP van de RTX2070. De FE was gewoon $599 en een beetje fatsoenlijke RTX2070 in Nederland begint bij €530-€540. Geheel toevallig vertaalt zich dit naar ongeveer $600. Ja ik weet het, BTW. Zelfs dan nog. De fatsoenlijke instapmodellen die beginnen bij €530-€540 zijn omgerekend gewoon $499 + 21% BTW.
Er is echter één ding dat je vergeet en dat had @Werelds al indirect gemeld: Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"

AMD positioneert de Radeon 5700 XT tegenover de RTX 2070, en de Radeon 5700 tegenover de RTX 2060. Echter lanceert Nvidia straks zijn "Super" kaarten en gaan de SKU's vermoedelijk opschuiven, waardoor de 5700 XT straks tegenover de RTX 2070 Super komt te staan (~ RTX 2080 prestaties), en de 5700 komt dan tegenover de RTX 2060 Super te staan (~ RTX 2070 prestaties).

Wat AMD nu claimt is dus:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 ($349)

Wat we straks echter krijgen is:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 Super (~ RTX 2080 prestaties) ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 Super (~ RTX 2070 prestaties) ($349)

AMD zal Navi wellicht snel in prijs laten zakken om competitief te blijven.

[ Voor 3% gewijzigd door XWB op 15-06-2019 01:54 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Maulwurfje
  • Registratie: April 2014
  • Laatst online: 27-07 14:25
DaniëlWW2 schreef op vrijdag 14 juni 2019 @ 18:59:

Edit: Hoe raadde ik dat zo? O-)
Het is natuurlijk weer een negatief alles is slecht verhaal en de prijzen zijn te hoog. Het zal wel. :/
Jim maakt een valide punt in deze video die hier maar deels is besproken. Marketing van Navi. AMD kiest de gemakkelijkste weg en vecht niet voor een betere positie.

Met zen heeft AMD ook het gevecht op prijs aan gegaan. De goodwill voor AMD is nog nooit zo groot geweest. En met zen2 lijkt AMD goeie kans te maken om ook bij de mainstream door te breken.

Navi heeft een totaal nieuwe benaming gekregen. Het is duidelijk een nieuw startpunt voor de komende jaren. Dat AMD niet met NVIDIA wilt vechten maakt mij ongerust over de nextgen kaarten met RDNA2.

AMD gaat nu met losse Navi relatief niet veel verdienen. Waarom werkt AMD niet aan meer goodwill, wat ook een prijs heeft en ga je het geld verdienen met RDNA2. Succesverhaal HD3000 t/m 5000 opnieuw.

De opvolger van RDNA komt sneller dan ik had gedacht op de markt. Aangezien de consoles in 2020 uitkomen, met een RDNA2 gpu. Met de prijzen van Navi nu, maakt AMD juist goodwill kapot. Want wie wordt er nu blij van een dure tussenkaart.

Edit: de marktomstandigheden voor AMD zijn in jaren niet zo goed geweest. Waar eerder geplaagd door crypto-rush en duur geheugen (8GB GDDR5 op Polaris en HMB2 op Vega) heeft AMD het erg lastig gemaakt. 7nm kost meer dan 12 of 14nm, maar Jim laat terecht zien dat de prijstoename echt niet zo hoog is.

[ Voor 17% gewijzigd door Maulwurfje op 15-06-2019 09:26 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Maulwurfje schreef op zaterdag 15 juni 2019 @ 07:22:
[...]

Edit: de marktomstandigheden voor AMD zijn in jaren ook niet zo goed geweest. Geplaagd door crypto-rush en duur geheugen (8GB GDDR5 op Polaris en HMB2 op Vega) heeft AMD het erg lastig gemaakt. 7nm kost meer dan 12 of 14nm, maar Jim laat terecht zien dat de prijstoename echt niet zo hoog is.
En het oppervlakte van deze Navi kaarten is echt niet groot. Ook vraag ik me af of de yield getallen tegenwoordig echt zo slecht zijn.

Maar de crypto rush is slecht geweest voor AMD vanuit marketing oogpunt, ze waren toen immers heel erg duur voor de gamers. Tegelijk laten we wel wezen: Vanuit financieel oogpunt werd elke kaart die ze produceerde direct opgekocht.

Acties:
  • +3 Henk 'm!
XWB schreef op zaterdag 15 juni 2019 @ 01:46:
Er is echter één ding dat je vergeet en dat had @Werelds al indirect gemeld: Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"

AMD positioneert de Radeon 5700 XT tegenover de RTX 2070, en de Radeon 5700 tegenover de RTX 2060. Echter lanceert Nvidia straks zijn "Super" kaarten en gaan de SKU's vermoedelijk opschuiven, waardoor de 5700 XT straks tegenover de RTX 2070 Super komt te staan (~ RTX 2080 prestaties), en de 5700 komt dan tegenover de RTX 2060 Super te staan (~ RTX 2070 prestaties).

Wat AMD nu claimt is dus:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 ($349)

Wat we straks echter krijgen is:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 Super (~ RTX 2080 prestaties) ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 Super (~ RTX 2070 prestaties) ($349)

AMD zal Navi wellicht snel in prijs laten zakken om competitief te blijven.
Drie reacties erboven. ;)
Er is makkelijk ruimte voor een RTX2060S, RTX2070S en zelfs een RTX2080S. RTX2060S kan makkelijk met een TU-106 met minder zaken uitgeschakeld. RTX2070S en RTX2080S kunnen beiden met TU-104. Het zou de line-up van Nvidia ook mooi nog verwarrender maken.

Nvidia moet waarschijnlijk ook wel omdat de RX5700, de RTX2060 makkelijk lijkt te kunnen verslaan. De RX5700XT lijkt ook net sneller te zijn dan de RTX2070. De RTX2080S is dan gewoon een refresh om de TU-104 chip eens volledig geactiveerd te verkopen.

Uiteraard zouden wat gunstigere prijzen door deze refresh ook erg welkom zijn. Zeker als ze dit al aankondigen voor 7 juli want dan zal AMD waarschijnlijk al reageren voor de Navi launch. Zou toch geweldig zijn als AMD een nieuwe lijn van Radeon's lanceert en Nvidia voor de verandering eens voor de betere prijzen gaat zorgen?
DaniëlWW2 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"

AMD weet gewoon van die Turing refresh. Iedereen die vorig jaar met de launch naar de TU-102, TU-104 en TU-106 chips heeft gekeken, wist toen al van de refresh. De RTX2080Ti en RTX2080 zijn niet de volledige chips. Het verschil tussen TU-104 en TU-106 is ook groot genoeg voor een verdere cut down, de RTX2070S.

Kan je twee dingen doen als AMD. Je gaat nu al laag met de prijzen zitten waarna Nvidia deze matched en dan de refresh erboven zet. Dan heb je jezelf uitgespeeld en daar gaan je marges. Alternatief is nu licht onder de prijs te gaan zitten, wachten op Nvidia haar zet en dan corrigeren. AMD haar strategie is ook weer eens duidelijk. De RTX2060 en RTX2070 verslaan voor een vergelijkbaar of lager prijspunt.

@Maulwurfje Ik zit gewoon rustig af te wachten op de zet van Nvidia, en de tegenzet van AMD. Gebeurd het niet, tja is het dan eerlijk om AMD af te gaan vallen omdat ze geen goodwill creëren? Met die redenatie is AMD werkelijk niks meer dan prijscontrole zodat iedereen goedkoper een Nvidia kan kopen. Verder als $449 voor een behoorlijk presterende videokaart, dus chip, geheugen, PCB, koeloplossing, langere productieketen waar iedereen een marge wil meepakken te veel is, dan is $200 voor een Ryzen 3600 pure afzetterij. De kosten voor een CPU zitten namelijk wel voornamelijk in de wafers, en een Zen 2 produceren kost waarschijnlijk enkele tientjes en dan krijg je er een goedkope koeler van een paar dollar erbij in een simpel doosje. Ik hoor niemand echt klagen dat de 3600 zo belachelijk duur is. ;)
Sissors schreef op vrijdag 14 juni 2019 @ 23:25:
[...]

Daar heb je wel een reeks aannames gemaakt waar de feiten toch bij ontbreken, dat is meer wishfull thinking.

Uit dat filmpje vond ik het scheef dat hij ervan uitging dat de RX5700(XT) midrange kaarten moesten zijn, en hij dus met RX480 enzo ging vergelijken. Nu is hij qua oppervlakte wel behoorlijk klein, maar overall is hij natuurlijk gewoon een ander segment.
En ja, de power efficientie van deze Navi chips is acceptabel. Maar niet meer dan acceptabel. Laten we wel wezen, het is nou niet zo geweldig dat ze een jaar na Nvidia kaarten weten uit te brengen die qua power efficientie misschien een vergelijkbare efficientie hebben om een volledige node kleiner.

Hij noemt ook zelf dat deze chips goed lijken te schalen nog qua power vs snelheid, waarbij het goede nieuws dus is dat ze in een normaal gebied werken, en het slechte nieuws dat er niet nog een grote stap te maken is door te undervolten.
En dit is wel eerlijk? AMD is sinds 2014 niet meer competitief op efficiëntie. Nu gaan ze in ieder geval in de buurt komen en dan is het weer niet goed want 12 vs. 7nm. Wederom, 7nm hoort geen magische clockspeedverbetering te leveren. AMD komt alleen van architecturen af die botweg niet goed clockte, noch lijkt Samsung haar 14nm node erg goed te zijn geweest om dit te faciliteren. Twee dingen die zijn veranderd.

Vervolgens is efficiëntie een functie van architectuur + productieproces. De sprong puur aan 7nm toeschrijven is ook niet eerlijk. Kijk maar naar RX Vega VII vraagt. Nota bene lijkt de RX5700XT daar dichtbij te gaan komen, voor ongeveer 50W minder.

Er wordt ook niet eerlijk vergeleken. Nvidia geeft TDP ratings mee als powerlimieten. AMD geeft TDP's mee als verbruik van de GPU core. Natuurlijk deed AMD dat om de rating nog wat minder dramatisch te maken. Zeker voor Vega was dat hard nodig. Nu is AMD gewisseld naar een duale rating. TDP is nog steeds core, 180W voor de RX5070XT. Vervolgens introduceren ze TBP op 225W. Dat is dus die 180W voor de core en dan GDDR6, ondersteunende voltages, efficiëntieverlies VRM, ventilator, ledjes etc. Natuurlijk kopieert vrijwel de gehele techmedia die 225W als TDP. :F

Gamersnexus is zo ongeveer de enige site die het wel goed heeft genoteerd.
https://www.gamersnexus.n...overclocking-architecture

Vervolgens wat had AMD precies tegengehouden om deze chip op 12nm uit te brengen? Dan kijk je waarschijnlijk naar een 330-360mm2 chip. Iets groter dan GP-104, maar ook iets sneller. Op mindere clockspeeds hoef je waarschijnlijk ook niet te rekenen omdat 7nm geen magische sprong in clockspeeds meer is. Efficiëntiewinst voor een nieuw productieproces wordt namelijk vrij steevast in hogere clocks gestopt, niet in fors lager verbruik. Lager verbruik is meestal een functie van betere architectuur.

Dergelijke oppervlaktewaarden zitten waarschijnlijk ook in de buurt van wat een TU-106 zou zijn zonder RTX hardware. Vervolgens terug naar de constatering dat efficiëntie een functie van architectuur en productieproces is. Je kan een architectuur namelijk efficiënter maken door transistoren verder te spreiden. Zo verlaag je thermal density en laat je de chip koeler draaien. Dat heeft als effect dat er minder stroom nodig is voor een serie aan transistoren om een berekening uit te voeren. Resultaat = minder verbruik.

Laat AMD met verschillende GCN iteraties nu systematisch meer transistoren op een vergelijkbaar oppervlakte hebben geplaatst dan Nvidia. AMD paste dit eigenlijk pas aan voor Vega. Vega was zo gigantisch omdat ze een enorme hoeveelheid oppervlakte en transistoren hadden besteed om hogere clockspeeds behalen. Het is alleen jammerlijk mislukt want Vega lijkt last te hebben van extreme lekstroom karakteristieken. Vega clockt wel, maar vermogen is totaal onacceptabel.

Ondertussen heeft Nvidia vanaf Maxwell zeer bewust gekozen voor minder, maar betere utalisatie van hardware onder specifiek gaming loads en hogere clocks. AMD gaat die kant nu ook weer op met RDNA, zonder de uitstekende compute preformance op te geven en dan wil AMD ook nog eens backwards compatible blijven met GCN instructies. Het is een architectuur aanpassing, en een flinke ook, die hier het verschil zal maken.


Wederom, ik had ook graag lagere prijzen gezien. Graag zelfs want ik moet mijn budget voor een 3700X en RX5700XT waarschijnlijk al een beetje gaan rekken.

Ik ga alleen niet meedoen aan de nu al bijna drie weken lange demonisering van Navi. Werkelijk alles wordt uit de kast getrokken om maar negatief te zijn. Tot dusver is elk "argument" dat naar voren is geschoven dat Navi slecht is, op haar best niet onderbouwd door onafhankelijke bevestiging en testen, dan wel volslagen onzin gebleken. Dan tel ik dus ook AdoredTV zijn "leaks". Voor Zen 2 zat hij fout in prijzen, clocks en SKU's, afijn. Voor Navi kwam hij niet eens in de buurt. Die leaks waren onzin.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:46
Hoeveel 7nm productiecapaciteit is er eigenlijk? Als dat beperkt is snap ik wel dat ze de kaart te duur maken, dan wat meer ryzen 3000's maken die een hogere marge hebben.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!
haarbal schreef op zaterdag 15 juni 2019 @ 12:47:
Hoeveel 7nm productiecapaciteit is er eigenlijk? Als dat beperkt is snap ik wel dat ze de kaart te duur maken, dan wat meer ryzen 3000's maken die een hogere marge hebben.
Het probleem is waarschijnlijk eerder dat Navi geproduceerd zal worden op 7FF+ terwijl Zen 2 op 7FF geproduceerd zal worden. Het verschil is dat 7FF+ pas recentelijk in massaproductie is gegaan, met EUV. Je mag er ook op rekenen dat Apple, Qualcomm en Huawei die wafers willen hebben. Aanbod is dus waarschijnlijk laag, vraag hoog. Gaan erg dure wafers zijn nu. Zullen yields waarschijnlijk ook matig zijn voor een 251mm2 chip. Waarschijnlijk is dit alsnog beter want 7FF zou helemaal problematisch kunnen zijn voor een dergelijke chip, want geen EUV.

AMD gaat alleen echt niet naar 7nm omdat ze ons zo lief vinden en ons per se de cutting edge node willen geven. Nee, dit doen ze om ervaring op te bouwen op 7nm zodat ze later, veel makkelijker grotere chips op die node kunnen produceren. Nvidia heeft die luxe niet en moet wachten totdat een 7nm node volwassen is, en dan maar hopen dat ze het de eerste keer goed doen. 7nm is alleen het einde van de gratis clockspeed winst. Zijn de wafers ook tweemaal zo duur waardoor de spelregels radicaal veranderen.

Dit zeg ik ook niet zomaar. TSMC 40nm was bijvoorbeeld ook een problematische node, maar bij lange na niet zo complex als 7nm zal zijn. AMD had de boel destijds getest met de HD4770 en had alsnog problemen met HD5000. Nvidia kwam opeens met Fermi. ;) :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

XWB schreef op zaterdag 15 juni 2019 @ 01:46:
[...]


Wat we straks echter krijgen is:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 Super (~ RTX 2080 prestaties) ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 Super (~ RTX 2070 prestaties) ($349)

AMD zal Navi wellicht snel in prijs laten zakken om competitief te blijven.
Oh, de prijzen zullen ongetwijfeld rap dalen vanwege Super, dat is ongetwijfeld als ingecalculeerd bij AMD.
(bij mij iig wel :+)

De vraag is enkel nog of de geruchten kloppen en dat de MSRP behouden blijft. Het lijkt er namelijk al op dat de super in de hogere segmenten toch duurder word dan de non super variant. Volgens de geruchtenmolen althans.
(maar met Navi lijkt me dat voor mid en lower range onwaarschijnlijkl

Al met al worden de reguliere 2070 nu vaak onder de MSRP verkocht, dat zal zometeen ook afgelopen zijn vermoed ik, dus terug naar 499.

Al met al begin ik steeds minder in de stemming te raken om een Navi XT in mijn systeem te stoppen en te wachten op de volgende Navi (RDNA2?)

Maar nog een jaar wachten zie ik niet zitten.
misschien dan toch een 2060 super?

Acties:
  • 0 Henk 'm!
XWB schreef op zaterdag 15 juni 2019 @ 01:46:
[...]


Er is echter één ding dat je vergeet en dat had @Werelds al indirect gemeld: Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"

AMD positioneert de Radeon 5700 XT tegenover de RTX 2070, en de Radeon 5700 tegenover de RTX 2060. Echter lanceert Nvidia straks zijn "Super" kaarten en gaan de SKU's vermoedelijk opschuiven, waardoor de 5700 XT straks tegenover de RTX 2070 Super komt te staan (~ RTX 2080 prestaties), en de 5700 komt dan tegenover de RTX 2060 Super te staan (~ RTX 2070 prestaties).

Wat AMD nu claimt is dus:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 ($349)

Wat we straks echter krijgen is:

- Radeon RX 5700 XT ($449) tegenover GeForce RTX 2070 Super (~ RTX 2080 prestaties) ($499)
- Radeon RX 5700 ($379) tegenover GeForce RTX 2060 Super (~ RTX 2070 prestaties) ($349)

AMD zal Navi wellicht snel in prijs laten zakken om competitief te blijven.
Als dat echt zo is dat nVidia die prijs gelijk houd maar ons gratis extra performanc geeft (wat ik echt eerst moet zien voor ik het geloof) zal AMD echt wel wat met die prijs gaan doen want 449 is dan natuurlijk geen goede deal meer tov de huidige 2070 is dat het wel.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Maulwurfje
  • Registratie: April 2014
  • Laatst online: 27-07 14:25
DaniëlWW2 schreef op zaterdag 15 juni 2019 @ 11:55:@Maulwurfje Ik zit gewoon rustig af te wachten op de zet van Nvidia, en de tegenzet van AMD. Gebeurd het niet, tja is het dan eerlijk om AMD af te gaan vallen omdat ze geen goodwill creëren? Met die redenatie is AMD werkelijk niks meer dan prijscontrole zodat iedereen goedkoper een Nvidia kan kopen. Verder als $449 voor een behoorlijk presterende videokaart, dus chip, geheugen, PCB, koeloplossing, langere productieketen waar iedereen een marge wil meepakken te veel is, dan is $200 voor een Ryzen 3600 pure afzetterij. De kosten voor een CPU zitten namelijk wel voornamelijk in de wafers, en een Zen 2 produceren kost waarschijnlijk enkele tientjes en dan krijg je er een goedkope koeler van een paar dollar erbij in een simpel doosje. Ik hoor niemand echt klagen dat de 3600 zo belachelijk duur is. ;)
Uitgangspunt van Zen2 ligt totaal anders. Zen1 zat met haar prijzen zo ver onder Intel vandaan dat het SP verschil niet uitmaakte. AMD koos duidelijk voor de strijd. En met zen2 gaat AMD ongetwijfeld een boel geld binnen harken. De 3600X vind ik te duur als je ziet wat voor sprong zen1 maakte. Maar die prijs is te verantwoorden. AMD heeft de betere chips en mindshare.

AMD kan deze truc op haar GPU ook toepassen. Dat AMD dit met Navi niet doet, creëert bij mij zorgen over RDNA2. Deze architectuur is waarschijnlijk niet snel genoeg om het zelfde uitgangspunt te creëren als AMD heeft gedaan met zen2. Met RDNA de harten van de mainstream proberen te stelen en met RDNA2 incashen omdat je een superieur product hebt.

Hoe denk jij dat RDNA2 gaat presenteren? Ik lees graag jou inhoudelijke stukjes hier en Navi is technisch goed. Maar een wonderkind met enorme potentie is het toch ook niet.

Acties:
  • 0 Henk 'm!
Maulwurfje schreef op zaterdag 15 juni 2019 @ 19:36:
[...]

Uitgangspunt van Zen2 ligt totaal anders. Zen1 zat met haar prijzen zo ver onder Intel vandaan dat het SP verschil niet uitmaakte. AMD koos duidelijk voor de strijd. En met zen2 gaat AMD ongetwijfeld een boel geld binnen harken. De 3600X vind ik te duur als je ziet wat voor sprong zen1 maakte. Maar die prijs is te verantwoorden. AMD heeft de betere chips en mindshare.
Ryzen 1000 was lange tijd anders zeker niet goedkoper dan Kaby Lake. Dat de 1600, de 7400 nou helemaal dood stompte als de ideale mainstream gaming CPU neemt niet weg dat de 1700X en 1800X gewoon duur waren. Dat was ook gerechtvaardigd voor niet gamers. Ryzen 2000 vs. Coffee Lake was meer prijsconcurrentie. Dat is nu ook wel voorbij want Ryzen 3000 lijkt klaar te staan om Coffee Lake helemaal dood te schoppen. ;)

Verder komen we dus weer terug bij het punt. Hoe weet je dat Turing echt beter is dan Navi? We hebben AMD haar eigen benchmarks waar ze weinig reden hebben om echt te liegen. Ze hebben nota bene een aantal GameWorks titels gepakt als voorbeelden. Dan was er nog het meer respectabele Gamersnexus die zeggen dat het qua efficiëntie ook wel goed zit.

Er zijn ook genoeg mensen die Nvidia zat zijn na zaken zoals GPP, de prijzen van Turing en zien dat AMD ook wel wat te bieden heeft. Wederom prijzen ja. Zelf zou ik het liefst zien dat de RX5700XT naar $360-$370 MSRP gaat. Dan hoop die omgerekend voor €400 hier in de winkel te kunnen kopen. Ik ben uiteindelijk een €350-€400 videokaart gamer en ik ga alleen omhoog als het echt wat bied. Dit lijkt me ook een redelijke prijs. RX5700 dan voor €300-320. Daar hoop ik dus op als reactie op de "Supers".
AMD kan deze truc op haar GPU ook toepassen. Dat AMD dit met Navi niet doet, creëert bij mij zorgen over RDNA2. Deze architectuur is waarschijnlijk niet snel genoeg om het zelfde uitgangspunt te creëren als AMD heeft gedaan met zen2. Met RDNA de harten van de mainstream proberen te stelen en met RDNA2 incashen omdat je een superieur product hebt.

Hoe denk jij dat RDNA2 gaat presenteren? Ik lees graag jou inhoudelijke stukjes hier en Navi is technisch goed. Maar een wonderkind met enorme potentie is het toch ook niet.
Dan gaan we maar eens uitgebreid speculeren. :P
Ik denk dat een 80CU RDNA2, of tenminste een 60CU chip tot de mogelijkheden behoord. Een speculatieve 80CU zal niet zo hoog kunnen clocken omdat je dan makkelijk over de 300W gaat, maar het zeker mogelijk. Een 60CU is misschien iets realistischer. Potentieel kan dit ongeveer "Navi 20" blijken te zijn. We hebben het hier dan over een GPU rond de 350mm2 die de RTX2080, en zelfs de "Super" makkelijk aan zou moeten kunnen. Graag eind dit jaar, lijkt me een mooie voor veel mensen. Qua prijzen, tja waarschijnlijk minstens $500, minstens. Noem het meteen maar in je hoofd alvast de RX5800 series. Ik denk dat we eerst nog een RX5600 series krijgen als de Polaris chips eenmaal allemaal verkocht zijn, Daarna denk ik "big Navi". :)

Er zal ook wel iets van ray tracing geïmplementeerd worden, maar waarschijnlijk alleen via de bestaande CU's. Denk niet dat het zo goed zal zijn als Nvidia, maar dat maakt ook weinig uit. Ray tracing gaat Nvidia namelijk hinderen.

Elke GPU heeft een "budget". Kan maar ongeveer zo groot zijn, zoveel verbruiken etc. Nvidia zet vol in op ray tracing en zal zich voor de Turing vervanging, ongetwijfeld op 7nm, genoodzaakt zien om de ray tracing prestaties fors te verbeteren. Ze hebben zich immers via marketing zeer zwaar gecommitteerd aan RTX. Potentieel gaat dat ten koste van meer dan traditionele shader en rasterization. Nvidia zit al jaren op ongeveer 30% per generatie erbij. Ik ben eigenlijk zeer benieuwd of Nvidia dat vol weet te houden en dan meer dan 30% in ray tracing erbij komt ten opzichte van Turing.

Hier komt nog eens bij dat TU-102 (RTX2080TI) echt gigantisch is. 754mm2 is een monster van een chip. De ruwe regel is dat een node shrink ongeveer 0,7x bedraagt. Die 754mm2 gaat dan naar ongeveer 530mm2. Ongeveer, want verschillende onderdelen van een GPU schalen anders. Ergens tussen de 500 en 550mm2 is waarschijnlijk waar je naar zou kijken. Nog steeds enorm, maar nu ook extreem duur om te produceren. Heb je vervolgens nul prestatiewinst ten opzichte van de RTX2080Ti. Opeens veel hogere clockspeeds zitten er zeer waarschijnlijk niet in. Nvidia moet dus waarschijnlijk een nog veel grotere chip gaan maken of radicaal innoveren over Turing. Ik betwijfel eigenlijk of ze dat gaat lukken. Dat zou betekenen dat een RTX2080Ti vervanger niet veel sneller gaat zijn in shader en rasterisation. Zou een gigantische teleurstelling zijn. RTX2080Ti niveau prestaties, maar dan als "RTX3080" zie ik wel gebeuren. Qua prijs, nou hoeveel organen kan je nog verkopen? :P

Voor AMD opent dit een mogelijkheid om op rauwe shader en rasterization, met RDNA2 voor de kroon te gaan. Komt AMD met een voor hun standaarden gigantische chip, ik heb het hier dus over iets van 80CU's, waarschijnlijk 450-500mm2, en schaalt RDNA goed omhoog (altijd een beetje een zwakte van ATi/AMD geweest) dan kunnen ze zomaar erg dichtbij komen of zelfs sneller blijken te zijn dan wat Nvidia heeft. Niet in ray tracing, maar wel in de andere 99% van de games.

Qua RNDA2 zelf vind ik het heel erg moeilijk om te zien wat beter kan. We weten de sterktes en zwaktes van RDNA niet eens goed. Verder lijkt RDNA in ieder geval de zwaktes van GCN al aardig op te lossen. Dat alleen zou al een flinke stap moeten zijn. Het is niet zozeer dat GCN zwak is. Nee, het was inefficiënt en inconsistent in gaming loads. Dat is nu hopelijk verleden tijd.

Meer dan de gebruikelijke stapjes in efficiëntere omgang met geheugenbrandbreedte of wat kleine dingetjes zou ik niet kunnen bedenken. Het probleem is ook dat er na 7nm waarschijnlijk alleen maar clockspeed regressie zal optreden. Ze zullen dus erg creatief moeten gaan worden in chipontwerp omdat gratis prestaties met hogere clockspeeds er gewoon niet meer in lijken te zitten. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op zaterdag 15 juni 2019 @ 20:48:
[...]

Ryzen 1000 was lange tijd anders zeker niet goedkoper dan Kaby Lake. Dat de 1600, de 7400 nou helemaal dood stompte als de ideale mainstream gaming CPU neemt niet weg dat de 1700X en 1800X gewoon duur waren. Dat was ook gerechtvaardigd voor niet gamers. Ryzen 2000 vs. Coffee Lake was meer prijsconcurrentie. Dat is nu ook wel voorbij want Ryzen 3000 lijkt klaar te staan om Coffee Lake helemaal dood te schoppen. ;)

Verder komen we dus weer terug bij het punt. Hoe weet je dat Turing echt beter is dan Navi? We hebben AMD haar eigen benchmarks waar ze weinig reden hebben om echt te liegen. Ze hebben nota bene een aantal GameWorks titels gepakt als voorbeelden. Dan was er nog het meer respectabele Gamersnexus die zeggen dat het qua efficiëntie ook wel goed zit.

Er zijn ook genoeg mensen die Nvidia zat zijn na zaken zoals GPP, de prijzen van Turing en zien dat AMD ook wel wat te bieden heeft. Wederom prijzen ja. Zelf zou ik het liefst zien dat de RX5700XT naar $360-$370 MSRP gaat. Dan hoop die omgerekend voor €400 hier in de winkel te kunnen kopen. Ik ben uiteindelijk een €350-€400 videokaart gamer en ik ga alleen omhoog als het echt wat bied. Dit lijkt me ook een redelijke prijs. RX5700 dan voor €300-320. Daar hoop ik dus op als reactie op de "Supers".
Jij ging er toch vanuit dat AMD al lang wist van de Supers? Ik zou het heel erg vreemd vinden als ze dan nu een prijs geven, waarvan ze zelf al weten dat ze hem voor release gaan verlagen. Daarmee laat je zien als bedrijf dat je concurrent je te pakken heeft. Het is veel logischer dan om direct met een scherpe prijs te komen, waardoor het op zijn minst lijkt alsof de concurrent moet reageren op jou ipv andersom.

Acties:
  • 0 Henk 'm!
Sissors schreef op zaterdag 15 juni 2019 @ 21:36:
[...]

Jij ging er toch vanuit dat AMD al lang wist van de Supers? Ik zou het heel erg vreemd vinden als ze dan nu een prijs geven, waarvan ze zelf al weten dat ze hem voor release gaan verlagen. Daarmee laat je zien als bedrijf dat je concurrent je te pakken heeft. Het is veel logischer dan om direct met een scherpe prijs te komen, waardoor het op zijn minst lijkt alsof de concurrent moet reageren op jou ipv andersom.
Juist niet. ;)
Als Nvidia de supers lanceert op de huidige prijspunten en de RTX2060 en RTX2070 laat zakken, dan kan AMD altijd nog reageren op de supers en de oude SKU's. Zet AMD nu de prijzen laag voor Navi, dan kan Nvidia reageren op AMD. Nvidia positioneert de supers dan zo dat ze Navi onaantrekkelijk maken.

De truc hier van AMD is om Nvidia te laten gokken wat een goed prijspunt is. AMD zet vervolgens dan in op zoveel mogelijk marge pakken. Waarschijnlijk nog steeds concurreren dan Nvidia haar aanbod, maar wel met meer marge voor AMD. Dat laatste is belangrijk. Als AMD echt wou, dan zette ze de RX5700XT toch direct tegenover de RTX2060 op $349 en de RX5700 op $279 om de GTX1160Ti compleet te vermorzelen? ;)

Voorbeeld:
AMD zou Navi redelijk competitief lanceren. Ze zetten de chips op $380 en $300. Wij allemaal redelijk blij. Nvidia lanceert dan die supers op respectievelijk $400 en $320 en zet de oude SKU's op $350 en $280. Ze clocken de supers ook precies zo dat ze sneller zijn dan reference Navi. Resultaat is mensen kopen de supers voor iets meer of de oude SKU's voor iets minder.

Klopt het dat de supers aankomende week worden aangekondigd, dan kan AMD reageren op Nvidia haar prijzen. Waarschijnlijk blijven de prijzen dan ook wat hoger voor AMD omdat Nvidia waarschijnlijk niet extreem gaat zakken. Het is ook typisch Nvidia om te proberen het feestje voor AMD te verpesten voor launch. Nu gaat AMD waarschijnlijk proberen om het feestje voor Nvidia te verpesten. :)

[ Voor 4% gewijzigd door DaniëlWW2 op 15-06-2019 22:40 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Zelfs als ze nu hem scherper prijzen kunnen ze altijd later nog veranderen. Maar als je al weet dat je gaat verlagen, doe het dan gewoon bij de eerste aankondiging. En natuurlijk, ik snap je punt dat als jij degene bent die reageert, je precies het leuke prijspeil kan kiezen. Maar het is hier toch al vaak genoeg erover gegaan dat juist ook marketing en hoe ze gezien worden belangrijk is. Als jij degene bent die altijd moet reageren op de ander, dan geef je op zijn minst de impressie dat je achterloopt als bedrijf.

Acties:
  • 0 Henk 'm!
Sissors schreef op zaterdag 15 juni 2019 @ 22:37:
Zelfs als ze nu hem scherper prijzen kunnen ze altijd later nog veranderen. Maar als je al weet dat je gaat verlagen, doe het dan gewoon bij de eerste aankondiging. En natuurlijk, ik snap je punt dat als jij degene bent die reageert, je precies het leuke prijspeil kan kiezen. Maar het is hier toch al vaak genoeg erover gegaan dat juist ook marketing en hoe ze gezien worden belangrijk is. Als jij degene bent die altijd moet reageren op de ander, dan geef je op zijn minst de impressie dat je achterloopt als bedrijf.
Maar AMD geeft nu juist de indruk dat ze zelf hun prijspeil bepalen. Ze zitten nu respectievelijk onder de RTX2070 en boven de RTX2060. Nvidia is hier degene die nu moet reageren en AMD heeft echt wel genoeg marge ingebouwd om te reageren op Nvidia. Dat is het punt. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op zaterdag 15 juni 2019 @ 22:39:
[...]


Maar AMD geeft nu juist de indruk dat ze zelf hun prijspeil bepalen. Ze zitten nu respectievelijk onder de RTX2070 en boven de RTX2060. Nvidia is hier degene die nu moet reageren en AMD heeft echt wel genoeg marge ingebouwd om te reageren op Nvidia. Dat is het punt. :)
Nee dat doen ze niet. Zij bepalen het prijspeil niet. Ze hebben een prijspeil, en als jouw verwachtingen waarheid worden hebben we over 2 weken een nieuw prijspeil om toch maar competitief mee te kunnen doen. Dan bepaald Nvidia het prijspeil, en AMD moet volgen.

Nvidia is niet degene die moet reageren op prijs gebied, Nvidia komt met een nieuwe serie op een bepaalde prijs uit, en AMD moet dan de prijs aanpassen.

[ Voor 10% gewijzigd door Sissors op 15-06-2019 22:43 ]


Acties:
  • +1 Henk 'm!
Sissors schreef op zaterdag 15 juni 2019 @ 22:43:
[...]

Nee dat doen ze niet. Zij bepalen het prijspeil niet. Ze hebben een prijspeil, en als jouw verwachtingen waarheid worden hebben we over 2 weken een nieuw prijspeil om toch maar competitief mee te kunnen doen. Dan bepaald Nvidia het prijspeil, en AMD moet volgen.
Over twee weken ja. Maar nu heeft AMD toch echt haar eigen prijzen bepaald. ;)

Verder zijn ze nu ook ingedekt voor het scenario waar Nvidia de supers in prijspeil hoger plaats en de RTX2060 en RTX2070 handhaaft. Dan blijft AMD ook gewoon bij hun huidige prijzen en gaan we op het internet lekker naar elkaar wijzen wie hier schuld aan heeft. Ik begin alvast door naar Nvidia te wijzen. :+

edit: Wat hier gebeurd is dat AMD eindelijk met een nieuwe architectuur komt. Het is weer even geleden, eind augustus 2017. Nvidia gaat in reactie hierop met een refresh van haar bestaande Turing architectuur komen. Die refreshes krijgen dan door Nvidia, in reactie op Navi, een prijspunt aangewezen. Daarna is het aan AMD om te bepalen of ze iets met hun prijsstellingen moeten doen.

[ Voor 19% gewijzigd door DaniëlWW2 op 15-06-2019 23:38 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

Wat Daniel zegt. Dit is allemaal zo doorzichtig dat iedereen dit zou moeten zien. AMD kan gewoon niet laag inzetten want ze weten dat Nvidia gaat antwoorden.
dit is AMD die tegen Nvidia zegt: "we weten wat je gaat doen, laten we allebei wat marge aanhouden."

een prijzenoorlog kan de Radeon divisie nu echt niet hebben, en ze hadden net hogere marges aan hun investeerders beloofd.

Acties:
  • 0 Henk 'm!
ZenTex schreef op zaterdag 15 juni 2019 @ 23:42:
Wat Daniel zegt. Dit is allemaal zo doorzichtig dat iedereen dit zou moeten zien. AMD kan gewoon niet laag inzetten want ze weten dat Nvidia gaat antwoorden.
dit is AMD die tegen Nvidia zegt: "we weten wat je gaat doen, laten we allebei wat marge aanhouden."

een prijzenoorlog kan de Radeon divisie nu echt niet hebben, en ze hadden net hogere marges aan hun investeerders beloofd.
Het is niet eens de RTG die marges beloofde, maar de net gekroonde beste CEO van 2019. ;)

Barron's is ook zeker een club die naar het geld kijkt. AMD maakt ook (mis)bruik van Nvidia die jarenlang de markt heeft geconditioneerd hoeveel een videokaart zou moeten kosten. Het pionierswerk van Nvidia is iets waar AMD gretig gebruik van zal maken. Het is niet anders. Onze enige hoop als consumenten is een extreme reactie van Nvidia. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:52
DaniëlWW2 schreef op zaterdag 15 juni 2019 @ 23:51:
[...]
Onze enige hoop als consumenten is een extreme reactie van Nvidia. :)
Of Intel *O*

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op zaterdag 15 juni 2019 @ 22:46:
[...]


Over twee weken ja. Maar nu heeft AMD toch echt haar eigen prijzen bepaald. ;)

Verder zijn ze nu ook ingedekt voor het scenario waar Nvidia de supers in prijspeil hoger plaats en de RTX2060 en RTX2070 handhaaft. Dan blijft AMD ook gewoon bij hun huidige prijzen en gaan we op het internet lekker naar elkaar wijzen wie hier schuld aan heeft. Ik begin alvast door naar Nvidia te wijzen. :+

edit: Wat hier gebeurd is dat AMD eindelijk met een nieuwe architectuur komt. Het is weer even geleden, eind augustus 2017. Nvidia gaat in reactie hierop met een refresh van haar bestaande Turing architectuur komen. Die refreshes krijgen dan door Nvidia, in reactie op Navi, een prijspunt aangewezen. Daarna is het aan AMD om te bepalen of ze iets met hun prijsstellingen moeten doen.
Tja op die manier ben ik het met je eens ja: AMD heeft zijn eigen prijzen bepaald. Voor precies 2 weken. En voor de rest van het jaar minstens heeft Nvidia de prijzen bepaald en moet AMD volgen. (Als jouw voorspelling uitkomt).

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Wat AMD doet met hun prijzen komt niet door Nvidia, dat hebben ze geheel aan zichzelf te danken om toch mee te gaan in de prijsverhoging. Of de 7nm proces loopt gewoon slecht, of AMD wil meer winst behalen ondanks minder verkoop?

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +2 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
nou ja, ze zien dat ondanks hoge prijzen de Nvidia kaarten goed verkopen... waarom zouden ze dan niet meer marge pakken? Dat hebben consumenten toch echt enkel aan zichzelf te danken. Als het niet verkocht werd, zouden de prijzen zo weer omlaag gaan...

Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 20-09 10:19
bluebear schreef op zondag 16 juni 2019 @ 23:09:
nou ja, ze zien dat ondanks hoge prijzen de Nvidia kaarten goed verkopen... waarom zouden ze dan niet meer marge pakken? Dat hebben consumenten toch echt enkel aan zichzelf te danken. Als het niet verkocht werd, zouden de prijzen zo weer omlaag gaan...
Daarnaast.. er is geen enkele logica bij het idee dat een bedrijf als AMD producten voor 299USD MSRP in de markt gaat zetten als de concurrent voor een vergelijkbaar product 499USD of meer vraagt. Ik vind het heel leuk dat iedereen een goedkope GPU wil met de beste specs wil maar een bedrijf zal vanuit winstoogpunt een prijs kiezen welke realistisch is en niet tot een directe prijzenoorlog zal leiden. Nvidia zal immers altijd reageren en voor je het weet heb je geen marge meer op je producten.

Deze prijzen zijn wat mij betreft dan ook niet meer dan logisch.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 21:54

vectormatic

Warlock of the doorlock

Daarnaast zijn er ondertussen ook genoeg diehard nvidia fans, dat ook met drastisch lagere prijzen AMD niet de hele markt zou pakken. Kijk naar RX570 Vs 1050Ti bijvoorbeeld.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

vectormatic schreef op maandag 17 juni 2019 @ 09:33:
Daarnaast zijn er ondertussen ook genoeg diehard nvidia fans, dat ook met drastisch lagere prijzen AMD niet de hele markt zou pakken. Kijk naar RX570 Vs 1050Ti bijvoorbeeld.
De effecten van marketing. :)

Dat is waar RTG in het verleden consistent steken liet vallen. Hoe het in de toekomst uit gaat pakken valt te bezien.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 17 juni 2019 @ 09:51:
[...]


De effecten van marketing. :)

Dat is waar RTG in het verleden consistent steken liet vallen. Hoe het in de toekomst uit gaat pakken valt te bezien.
Gelukkig is de marketing afdeling van de RTG zo goed als opgeheven. De mensen verantwoordelijk zijn ook naar Intel. Ik wens Intel veel sterkte daarmee. :+
Het zou toch moeten opvallen dat de marketing voor Navi tenminste inhoud lijkt te hebben. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 20-09 10:19
DaniëlWW2 schreef op maandag 17 juni 2019 @ 10:10:
[...]


Gelukkig is de marketing afdeling van de RTG zo goed als opgeheven. De mensen verantwoordelijk zijn ook naar Intel. Ik wens Intel veel sterkte daarmee. :+
Het zou toch moeten opvallen dat de marketing voor Navi tenminste inhoud lijkt te hebben. ;)
Ik weet niet of marketing voor mij doorslaggevend/bepalend is, misschien wel voor de normale gebruiker die niet de hele dag in AMD/NVidia topics op Tweakers.net rondhangt, dat het wel degelijk zo is. Laten we wel wezen, er zijn wat mensen met een roze AMD bril hier, maar vaak kunnen we onze mening toch op feiten/benchmarks baseren. Helpt niet mee dat ik graag voor de underdog ben, dus in dit geval hoop dat AMD wel GPU's in het midden en tegen het highend aan uit blijft brengen :)

@DaniëlWW2 Pfoe, nou, laten we hopen dat je ongelijk krijgt, dat Intel een dijk van een GPU aan het bouwen is en dat ze het ook goed in de markt weten te zetten, hebben wij alleen maar baat bij :P

[ Voor 10% gewijzigd door Lord_Dain op 17-06-2019 10:52 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Lord_Dain schreef op maandag 17 juni 2019 @ 10:51:
[...]


@DaniëlWW2 Pfoe, nou, laten we hopen dat je ongelijk krijgt, dat Intel een dijk van een GPU aan het bouwen is en dat ze het ook goed in de markt weten te zetten, hebben wij alleen maar baat bij :P
Ik hoop het ook want een duopolie waar ze elkaars (hoge) prijzen volgen werkt net zo slecht als een monopolie.

Wellicht dat een derde speler nog wat kan uitmaken...

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Lord_Dain schreef op maandag 17 juni 2019 @ 10:51:
[...]


Ik weet niet of marketing voor mij doorslaggevend/bepalend is, misschien wel voor de normale gebruiker die niet de hele dag in AMD/NVidia topics op Tweakers.net rondhangt, dat het wel degelijk zo is. Laten we wel wezen, er zijn wat mensen met een roze AMD bril hier, maar vaak kunnen we onze mening toch op feiten/benchmarks baseren. Helpt niet mee dat ik graag voor de underdog ben, dus in dit geval hoop dat AMD wel GPU's in het midden en tegen het highend aan uit blijft brengen :)
Nou Ryzen is best wel aardig, dus misschien willen mensen dan ook wel eens een AMD videokaart proberen. :P
@DaniëlWW2 Pfoe, nou, laten we hopen dat je ongelijk krijgt, dat Intel een dijk van een GPU aan het bouwen is en dat ze het ook goed in de markt weten te zetten, hebben wij alleen maar baat bij :P
Hoe stel jij het je voor? Ik zie Intel niks goed in de markt zetten voor gamers Ik zie Intel eerder een GPGPU lanceren die eigenlijk niet zo geweldig is voor gamers. Is het toch competitief, dan is het duur. Is het niet competitief, dan is het slecht en Intel kennende alsnog duur. :P

Ik zou wel benieuwd zijn of Intel iets kan op efficiëntie. Intel 14nm++ is ondanks de memes zeker geen slecht productieproces. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op maandag 17 juni 2019 @ 11:04:
[...]

Nou Ryzen is best wel aardig, dus misschien willen mensen dan ook wel eens een AMD videokaart proberen. :P
Ik vraag me af of mensen die zo afgeven op AMD GPU'srecent wel een Radeon geprobeerd hebben. De drivers zijn tegenwoordig top notch. Het control pannel ook daar kan nVidia nog wat van leren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 17:54
Met fast sync van Nvidia had ik nog steeds tearing
Uitgebreide sync van amd loopt smooth geen tearing .

Acties:
  • 0 Henk 'm!
Astennu schreef op maandag 17 juni 2019 @ 12:36:
[...]


Ik vraag me af of mensen die zo afgeven op AMD GPU'srecent wel een Radeon geprobeerd hebben. De drivers zijn tegenwoordig top notch. Het control pannel ook daar kan nVidia nog wat van leren.
Je beantwoordt je eigen vraag. ;)
Tegenwoordig zit iedereen alleen in een kamp zonder naar de andere te kijken. Zijn mensen die er nog een reden voor kunnen geven, maar de meeste kopen gewoon blind merk + budget. Zo kochten mensen een GTX1050Ti. Ik denk daarom eigenlijk ook dat zelfs als Navi niet in prijs zou dalen, AMD alsnog die 30% marktaandeel zal handhaven. Dat is gewoon de groep die AMD heeft. Mensen met Fury's, R9 290/390's of Polaris zullen dan schoorvoetend een Navi kopen als ze wat snellers willen. Neemt niet weg dat ik veel liever $379 en $300 zou zien als MSRP's. Dat lijkt me redelijk en dan is er een kans dat AMD nog eens het mes gaat zetten in marktaandeel van Nvidia. Meeliften op Ryzen, meer dan 10% marktaandeel erbij verwacht ik ook echt niet. Nu hopen dat Nvidia ons hieraan gaat helpen. :7

Ik ben zelf ook ooit begonnen met Nvidia, ja echt. :P
Dat was een 9500gt die ik tijdelijk had omdat ik destijds een HD5850 niet kon betalen, noch überhaupt kopen. Dat was destijds gewoon de videokaart om te hebben. Daarna overgegaan naar een HD7950, wederom dat was destijds de kaart om te hebben. Daarna jarenlang helemaal niks want de HD7950 was geweldig. Toen uiteindelijk even een RX580 die ik eigenlijk niet snel genoeg vond en toen kwam de Vega, puur vanwege de MSRP en subsidiëring vanuit AMD.

De overgang naar AMD was destijds voor mij ook fijn. Behalve de gigantische sprong in framerates natuurlijk. Ik had in het halfjaar met die 9500gt namelijk constant problemen met drivers. Kon het Nvidia control panel vrijwel de gehele periode niet eens inkomen zonder een crash en nieuwe driver installeren was vaak ook ellende. Was blij toen ik eindelijk een HD5850 kon kopen. Misschien was die 9500gt gaar, maar mijn ervaring was in ieder geval zeer negatief. Met de HD5850 kon ik in het begin niet naar de nieuwste driver gaan omdat ik op een of andere reden dan niet de correcte resolutie van mijn scherm kon selecteren. Dat werd alleen vrij snel opgelost. Daarna eigenlijk jaren en jaren geen problemen gehad. Eigenlijk begon het pas weer met Vega en die waardeloze "wattman settings reset" bij boot.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Beaudog schreef op maandag 17 juni 2019 @ 12:54:
Met fast sync van Nvidia had ik nog steeds tearing
Uitgebreide sync van amd loopt smooth geen tearing .
Tja, en ik heb met AMD bijna nooit sync ondanks dat ik freesync capable monitor en GPU heb. Soms werkt het, en dan stopt het weer met merken tot een herstart. Bij sommige spellen werkt het altijd, bij sommige spellen zo goed als nooit. En als ik dan een spel heb gedaan waar het nooit werkt, dan moet ik daarna herstarten wil ik het werkende hebben in een spel waar het normaal wel gewoon werkt.

Gelukkig merk ik tearing niet tot nauwelijks op en maakt het me daarom niet veel, maar sync is dus geen eis meer voor mijn volgende setup. (Al gezien Nvidia nu normaal gesproken met Freesync werkt is dat al helemaal geen issue meer).
Astennu schreef op maandag 17 juni 2019 @ 12:36:
[...]


Ik vraag me af of mensen die zo afgeven op AMD GPU'srecent wel een Radeon geprobeerd hebben. De drivers zijn tegenwoordig top notch. Het control pannel ook daar kan nVidia nog wat van leren.
Volgens mij geeft niemand af op AMD control panel. Wel op power gebruik en gebrek aan opties in het hogere segment, maar daar veranderen drivers weinig aan.

Ondertussen heeft het maanden geduurd (zeg maar een half jaar) voordat AMD drivers gepatcht waren zodat ik in BF5 geen enorme vlekken in mijn beeld regelmatig hield na gerevived te zijn. (Killcam beelden die niet verdwenen). En geen ervaring met het Nvidia control panel, maar die van AMD ben ik ook weleens meer systematisch gaan afwerken omdat het iig niet stond op de plaats die mij logisch leek.
DaniëlWW2 schreef op maandag 17 juni 2019 @ 13:22:
[...]

Mensen met Fury's, R9 290/390's of Polaris zullen dan schoorvoetend een Navi kopen als ze wat snellers willen.
Fury eigenaar hier ;).

Twee redenen dat ik Fury heb:
1. 2.5 jaar geleden waren restpartijen daarvan interessant geprijst, net iets betere prijs/kwaliteit dan GTX1060/GTX1070 (en daar tussenin qua performance).
2. Ik wilde echt Freesync uitproberen.

Punt 2 niet meer relevant, zie hierboven, en prijs/kwaliteit bepaal ik gewoon elke keer opnieuw ;). Nu weet ik ook dat er genoeg mensen zijn die wel automatisch van een merk kopen hoor, maar ik zou toch denken dat er ook genoeg zijn die wel even een benchmarkje erbij pakken.

[ Voor 24% gewijzigd door Sissors op 17-06-2019 13:28 ]


Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 17:54
Over freesync kan ik niet mee praten ik game zelf op een 55 inch tv .
En dan is het ideaal .

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:46
Sissors schreef op maandag 17 juni 2019 @ 13:25:
Tja, en ik heb met AMD bijna nooit sync ondanks dat ik freesync capable monitor en GPU heb. Soms werkt het, en dan stopt het weer met merken tot een herstart. Bij sommige spellen werkt het altijd, bij sommige spellen zo goed als nooit. En als ik dan een spel heb gedaan waar het nooit werkt, dan moet ik daarna herstarten wil ik het werkende hebben in een spel waar het normaal wel gewoon werkt.

Gelukkig merk ik tearing niet tot nauwelijks op en maakt het me daarom niet veel, maar sync is dus geen eis meer voor mijn volgende setup. (Al gezien Nvidia nu normaal gesproken met Freesync werkt is dat al helemaal geen issue meer).
Ik had op m'n 290 (rip) en nu 1660Ti altijd freesync (mits in de range). Heb het wel op fullscreen only staan.

Nvidia heeft overigens geen freesync over hdmi, aangezien de elcheapo monitoren met freesync vaak hdmi only zijn is dat nog een klein voordeel voor amd.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 17 juni 2019 @ 13:22:
[...]

Ik ben zelf ook ooit begonnen met Nvidia, ja echt. :P
Dat was een 9500gt die ik tijdelijk had omdat ik destijds een HD5850 niet kon betalen, noch überhaupt kopen. Dat was destijds gewoon de videokaart om te hebben. Daarna overgegaan naar een HD7950, wederom dat was destijds de kaart om te hebben. Daarna jarenlang helemaal niks want de HD7950 was geweldig. Toen uiteindelijk even een RX580 die ik eigenlijk niet snel genoeg vond en toen kwam de Vega, puur vanwege de MSRP en subsidiëring vanuit AMD.

De overgang naar AMD was destijds voor mij ook fijn. Behalve de gigantische sprong in framerates natuurlijk. Ik had in het halfjaar met die 9500gt namelijk constant problemen met drivers. Kon het Nvidia control panel vrijwel de gehele periode niet eens inkomen zonder een crash en nieuwe driver installeren was vaak ook ellende. Was blij toen ik eindelijk een HD5850 kon kopen. Misschien was die 9500gt gaar, maar mijn ervaring was in ieder geval zeer negatief. Met de HD5850 kon ik in het begin niet naar de nieuwste driver gaan omdat ik op een of andere reden dan niet de correcte resolutie van mijn scherm kon selecteren. Dat werd alleen vrij snel opgelost. Daarna eigenlijk jaren en jaren geen problemen gehad. Eigenlijk begon het pas weer met Vega en die waardeloze "wattman settings reset" bij boot.
Ik ben begonnen met 3DFX :)
Eerst een Voodoo Banshee > Voodoo 3 3300 > Geforce DDR > Geforce 2 GTS > Radeon 8500 LE (mod naar normaal) > 8500 128MB > 9700 Pro

En toen ben ik lang bij ATi/AMD blijven hangen. Nog even een 8800 GT gehad maar naar na weer terug heb nog even een GTX 980, 980Ti en 1080 Ti gehad.
Ben toen vooral vanwege IQ naar ATi gegaan. Ik had die Geforce 2 GTS maar bij een maat van mij met een Radoen 7000 zag het er allemaal gewoon veel mooier en scherper uit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Sissors schreef op maandag 17 juni 2019 @ 13:25:
Fury eigenaar hier ;).

Twee redenen dat ik Fury heb:
1. 2.5 jaar geleden waren restpartijen daarvan interessant geprijst, net iets betere prijs/kwaliteit dan GTX1060/GTX1070 (en daar tussenin qua performance).
2. Ik wilde echt Freesync uitproberen.

Punt 2 niet meer relevant, zie hierboven, en prijs/kwaliteit bepaal ik gewoon elke keer opnieuw ;). Nu weet ik ook dat er genoeg mensen zijn die wel automatisch van een merk kopen hoor, maar ik zou toch denken dat er ook genoeg zijn die wel even een benchmarkje erbij pakken.
Ik zou niet zo stellig zijn dat veel mensen er een benchmark bij pakken. Verreweg de meeste kopen blind of wat een winkel/vriend/etc aanraad.
Astennu schreef op maandag 17 juni 2019 @ 13:54:
[...]


Ik ben begonnen met 3DFX :)
Eerst een Voodoo Banshee > Voodoo 3 3300 > Geforce DDR > Geforce 2 GTS > Radeon 8500 LE (mod naar normaal) > 8500 128MB > 9700 Pro

En toen ben ik lang bij ATi/AMD blijven hangen. Nog even een 8800 GT gehad maar naar na weer terug heb nog even een GTX 980, 980Ti en 1080 Ti gehad.
Ben toen vooral vanwege IQ naar ATi gegaan. Ik had die Geforce 2 GTS maar bij een maat van mij met een Radoen 7000 zag het er allemaal gewoon veel mooier en scherper uit.
Als ik het me goed herinner las ik ooit iets dat Nvidia toen met IQ liep te spelen. Afijn, zoek het wel weer eens een keertje op.

IQ is ook wel een reden waarom ik bij AMD zit en blijf. Nvidia levert standaard hun GPU's af met Limited Range RGB terwijl AMD wel het volledige kleurenspectrum levert. Dat is ook leuk als je een HDR scherm hebt en de performance hit mag incasseren. :P

Ik kan niet hard maken dat Nvidia ook prestatieverlies heeft als je naar volledige RGB gaat, want niemand test dit ooit. Ik vermoed alleen van wel want anders zie ik niet in waarom Nvidia anders deze beperkte range als standaard heeft gekozen.

Zie: https://www.guru3d.com/ne...)-12-games-at-4k-hdr.html
https://pcmonitors.info/a...r-on-nvidia-and-amd-gpus/

Andere dingen voor mij zijn:
-Drivers
-Geen GeForce Experience (hoewel dat tegenwoordig niet meer standaard komt)
-GPP
-De prijzen (hoewel AMD nu ook fijn die kant op gaat)
-In de regel superieure DX12/Vulkan
-Freesync (tegenwoordig ook niet meer per se)

Komt voor mijn waarschijnlijk Radeon Image Sharpening bij. Daar ben ik zeker in geïnteresseerd. Ik was eigenlijk ook geïnteresseerd in DLSS, maar dat lijkt een totale deceptie te zijn. Kijken of AMD het beter doet, en dan ook meteen op elke game. Ik heb gewoon echt een bloedhekel aan al die games die met bizar lage texture resoluties werken. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

DaniëlWW2 schreef op maandag 17 juni 2019 @ 14:14:
[...]


IQ is ook wel een reden waarom ik bij AMD zit en blijf.
Zo zie je maar weer, slimme mensen kopen AMD!

Dat gezegd hebbende, ben altijd zo slim geweest en de beste bang for buck midrange to kopen zonder merktrouw te zijn.
In de praktijk is het jarenlang om en om geweest en de bezitter geweest van vele van de nu legendarische kaarten.

Begonnen met DE GF 300 TI, daarna gf 4400 want oude kaart dood. Later volgden oa de 9600xt 8800 en de 5770 (de 5850 was overal uitverkocht!, jawel, tekorten aan radeon kaarten!).
Daarna recentelijk enkel laptops en dus helaas Nvidia en intel, want laptop :(

Maar ik begin Nvidia een beetje minder sympathiek te worden, en heb altijd een zwak voor AMD gehad, dus heb ik een fanboy clubkaart aangevraagd en ga nu voor team rood. *O*

Alle gekheid op een stokje, als je niets om Ray tracing geeft is Navi waarschijnlijk sowieso geen miskoop qua prijs/performance.

Verbruik? Dat beetje meer offset ik wel door geen intel processor te gebruiken. ;)

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:18
DaniëlWW2 schreef op maandag 17 juni 2019 @ 14:14:


IQ is ook wel een reden waarom ik bij AMD zit en blijf. Nvidia levert standaard hun GPU's af met Limited Range RGB terwijl AMD wel het volledige kleurenspectrum levert. Dat is ook leuk als je een HDR scherm hebt en de performance hit mag incasseren. :P

Ik kan niet hard maken dat Nvidia ook prestatieverlies heeft als je naar volledige RGB gaat, want niemand test dit ooit. Ik vermoed alleen van wel want anders zie ik niet in waarom Nvidia anders deze beperkte range als standaard heeft gekozen.
Of het performance kost geen idee, maar volgens mij is dit geen keuze die Nvidia maakt, maar is dit afhankelijk van het "type" scherm dat je aansluit. Mijn scherm staat bij Nvidia (via DisplayPort) dan ook gewoon standaard op "Full Range", sluit ik mijn TV aan via HDMI dan staat deze op "Limited Range".

Uit mijn hoofd zijn in de regel TV's 16-235 (Limited range) terwijl computer monitoren 0-255 (Full Range) zijn, je zou het eens kunnen testen maar ik heb niet het idee dat er een verschil zit in performance op een Nvidia kaart wanneer je een TV aansluit via HDMI met als instelling "Limited Range" en zou benchmarken en daarna een monitor in dezelfde resolutie en met instelling "Full Range" zou testen.

Zie bijv:
RGB Full and RGB Limited are a different story. The names are confusing, as you would assume you always want the full information. Why would someone ever choose to have something limited? Well it comes down to TVs vs. PCs and how they handle a video signal.

TVs use a video range from 16-235. It considers levels below 16 to be black, and information above 235 is white. A calibrated TV will never display anything below 16 as anything other than black. Most will also treat everything over 235 as white since it should not exist in video content.

PCs are different and use a range from 0-255. There is no data below 0 or above 255 with an 8-bit video signal as there are only 256 possible values. In short, this is much simpler to understand as the TV concepts of Blacker-than-Black and Whiter-than-White do not exist.

RGB Full and RGB Limited exist because of this difference. TV programs and movies use the 16-235 range of values. Video games and PCs use the 0-255 range of values. Since TVs and PC Monitors use different scales, there has to be a way to convert between the two. Setting this RGB Full and Limited setting does that.

With a TV you should always use the RGB Limited setting. Limited refers to the values being limited to 16-235 and not the Full 0-255 scale. With TV and Movies, it leaves them untouched because they are already in the 16-235 range. When you play a video game, it will convert the 0-255 range to the 16-235 range. If it did not do this, shadow and highlights would be pure black or pure white, and the image will look off. You aren’t losing anything by using RGB Limited, but if you use RGB Full with a TV you are losing details.

Acties:
  • 0 Henk 'm!
Dennism schreef op maandag 17 juni 2019 @ 16:08:
[...]


Of het performance kost geen idee, maar volgens mij is dit geen keuze die Nvidia maakt, maar is dit afhankelijk van het "type" scherm dat je aansluit. Mijn scherm staat bij Nvidia (via DisplayPort) dan ook gewoon standaard op "Full Range", sluit ik mijn TV aan via HDMI dan staat deze op "Limited Range".
Dit is correct. Nvidia wil ook dat je DisplayPort gebruikt, omdat ze alleen over DisplayPort connecties G-Sync ondersteunen (inclusief de FreeSync variant).

[ Voor 14% gewijzigd door Paprika op 17-06-2019 16:21 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Dennism schreef op maandag 17 juni 2019 @ 16:08:
[...]


Of het performance kost geen idee, maar volgens mij is dit geen keuze die Nvidia maakt, maar is dit afhankelijk van het "type" scherm dat je aansluit. Mijn scherm staat bij Nvidia (via DisplayPort) dan ook gewoon standaard op "Full Range", sluit ik mijn TV aan via HDMI dan staat deze op "Limited Range".

Uit mijn hoofd zijn in de regel TV's 16-235 (Limited range) terwijl computer monitoren 0-255 (Full Range) zijn, je zou het eens kunnen testen maar ik heb niet het idee dat er een verschil zit in performance op een Nvidia kaart wanneer je een TV aansluit via HDMI met als instelling "Limited Range" en zou benchmarken en daarna een monitor in dezelfde resolutie en met instelling "Full Range" zou testen.

Zie bijv:


[...]
Ik heb het wel eens getest en in games kost het geen performance met full range, ook niet als ik 10 bit full range in schakel in plaats van 8 bit full range. HDR kost op de GTX 1080 Ti wel 2 tot 3 fps in Far Cry 5.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op maandag 17 juni 2019 @ 16:08:
[...]


Of het performance kost geen idee, maar volgens mij is dit geen keuze die Nvidia maakt, maar is dit afhankelijk van het "type" scherm dat je aansluit. Mijn scherm staat bij Nvidia (via DisplayPort) dan ook gewoon standaard op "Full Range", sluit ik mijn TV aan via HDMI dan staat deze op "Limited Range".

Uit mijn hoofd zijn in de regel TV's 16-235 (Limited range) terwijl computer monitoren 0-255 (Full Range) zijn, je zou het eens kunnen testen maar ik heb niet het idee dat er een verschil zit in performance op een Nvidia kaart wanneer je een TV aansluit via HDMI met als instelling "Limited Range" en zou benchmarken en daarna een monitor in dezelfde resolutie en met instelling "Full Range" zou testen.

Zie bijv:


[...]
Yep, zelfde soort verouderde zaken als overscan. Ik weet niet of moderne TV boxen nog overscan gebruiken, maar op mijn nieuwe OLED TV is overscan nog steeds de standaard instelling op zijn HDMI poorten. Terwijl het een compleet debiel iets is op een digitale interface.

Ik vermoed dat limited range RGB eerder een fractie processing power kost dan full range, maar het zal sowieso verwaarloosbaar zijn.

Acties:
  • 0 Henk 'm!
Dan test ik het maar omdat ik soms mijn TV aansluit op mijn PC. ;)

Afbeeldingslocatie: https://tweakers.net/ext/f/D93w3VynplJGtzCaWTDFYI0g/thumb.jpg

Pakt meteen Freesync ondersteuning voor mijn twee schermen wel en de TV niet. Zet ze allemaal op full range en of ik het verschil zie op de TV als ik handmatig naar limited ga. Contrast verdwijnt overduidelijk en de beeldkwaliteit is eigenlijk bedroevend als ik dit doe. Dat is dan een oude 1080i TV uit 2007. Moet er niet aan denken dat mijn monitor standaard zo zou zijn...

Dit is ook een probleem van Nvidia dat al minstens vijf jaar speelt, minstens. Dus of Nvidia is werkelijk te incompetent om een monitor met full range te detecteren, of ze doen het bewust.

Ook nog even mijn tweede monitor scherm geprobeerd. Wederom gewoon full range, maar Freesync uit want geen ondersteuning.
Afbeeldingslocatie: https://tweakers.net/ext/f/KNW9SpDBEn6kYD8Pelq650VM/thumb.jpg

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:46
DaniëlWW2 schreef op maandag 17 juni 2019 @ 17:10:
Moet er niet aan denken dat mijn monitor standaard zo zou zijn...
Oh ja vreselijk, een setting wijzigen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Leuk dat je TV als full range wordt gedaan, maar de vraag is of je TV ook full range pakt, of dat nu een heel stuk wat licht grijs moet zijn als wit wordt getoond door je TV.

Als we bijvoorbeeld Xbox als referentie pakken, die raden sterk aan om hem op RGB limited te laten staan bij TVs: https://support.xbox.com/...e/adjust-display-settings. Dat je meer contrast krijgt als je hem op RGB full range zet is logisch, maar of het de bedoeling is bij je beeld betwijfel ik ten zeerste. Dus euhm, mijn conclusie lijkt hier te zijn dat je AMD kaart het fout doet. Eens checken waar mijne op staat, ik moet zeggen dat ik juist weleens problemen had met dat contrast te hoog leek te zijn.

Edit: Lijkt geen effect te hebben. Hij stond standaard of YCbCr. Zodra ik hem op RGB zet knipper het beeld even, en lijkt het identiek te zijn. (Heb een plaatje met alle grijstinten op het beeld staan). Zet ik hem van RGB limited naar RGB full, dan is heel duidelijk dat grijswaardes verloren gaan, voor ongeveer één seconde. Dan knippert de TV weer naar zwart namelijk, en is zover ik kan zien het oorspronkelijke beeld weer hersteld.
Ik weet niet of het mogelijk is, maar ik heb het idee dat mijn TV detecteert wat voor een signaal wordt gestuurd en zichzelf daarop aanpast.

Het is goed als Nvidia eigenaar om dit even te checken als je een monitor met HDMI hebt aangesloten, maar het lijkt me nogal een storm in een glas water. En zeker geen complot van Nvidia voor betere prestaties ofzo (sowieso neem ik aan dat meeste benchmarks DP gebruiken, waar dit helemaal niet speelt).

[ Voor 38% gewijzigd door Sissors op 17-06-2019 17:49 ]

Pagina: 1 ... 44 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.