CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 134 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 8 ... 11 Laatste
Acties:
  • 50.020 views

Acties:
  • 0 Henk 'm!
Verwijderd schreef op vrijdag 03 juni 2016 @ 13:23:


Ik ben trouwens benieuwd of dat de 480X met 40 CU's uitkomt. Het lijkt erop dat die in de nieuwe XBox gaan zitten aangezien daarvoor 6 Tflop wordt beloofd terwijl de 480 met 36 CU's dat niet haalt.
Met een maximale GPU frequentie van 1300MHz heb je ook 6 TFlops met 2304 streamprocessors. Daarnaast is de XBOX sowieso een custom design en geen normale PC met moederbord, CPU en videokaart.

Stel als er een nieuwe XBOX kwam met een GPU met 40 CU's en dus 2560 streamprocessors dan betekend dit niet Polaris 10 dit ook heeft. Kunnen gewoon twee verschillende GPU's worden.

Kan ook gewoon dat de XBOX chip een APU wordt, wel een wat grote maar moet gewoon mogelijk zijn. De huidige APU's zitten allemaal tussen de 200 en 250mm2. Polaris 10 is waarschijnlijk 232mm2, dan heb je 400mm2 ook wel ruimte voor de rest van de APU.

Nu weet ik niet wanneer die nieuwe XBOX moet komen, maar begin volgend jaar moet een 400mm2 APU met Zen core's en Polaris like graphics met HBM2 geheugen kunnen worden geproduceerd op 14nm LPP.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
de xbone en de ps4 hebben al apus.
het word wel interresant om te zien of de verbeterde xbone over de verbeterde ps4 gaat. Is toch ook een reden waarom mensen voor de ps4 gingen ipv de xbone.

Acties:
  • 0 Henk 'm!

Verwijderd

Zeara schreef op vrijdag 03 juni 2016 @ 13:42:
[...]


Dus jij vind een kaart met minstens 390x performance een budget kaartje?
Ja! Je moet het binnen dezelfde generatie bekijken (zo lang duurt het niet voordat al die andere segmenten door de beide bedrijven zijn bezet) , niet vergelijken met de vorige generatie waarvoor een andere procestechnologie werd gebruikt. Ja, nu hoeft de kaart slechts een stuk of 6 kaarten boven zich te dulden maar over een jaar is het een kaart die tussen entrylevel en mainstream in zit in deze generatie.
Het lijkt erop dat we blij mogen zijn als deze kaart net boven de 980 komt qua prestaties, daarmee zijn ze te vergelijken met twee klasses hoger in de vorige generatie, bij de 1070 zie je hetzelfde (net boven de 980 Ti). Ze hebben dus relatief gezien ongeveer evenveel vooruitgang geboekt.
Overigens kostte de 380 ook ongeveer 200 euro, had die evenveel CU's etc. , het is duidelijk een echte *80-kaart. Het is niet zo dat we met een gepimpte *80-kaart te maken hebben.

Nogmaals, bedrijfeconomisch gezien is dit zeker een logische strategie van AMD, als klant had ik het echter heel erg leuk gevonden als ze ook dat ene segmentje hoger zouden zijn gestart.

[ Voor 8% gewijzigd door Verwijderd op 03-06-2016 14:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

tomcatha schreef op vrijdag 03 juni 2016 @ 13:53:
de xbone en de ps4 hebben al apus.
het word wel interresant om te zien of de verbeterde xbone over de verbeterde ps4 gaat. Is toch ook een reden waarom mensen voor de ps4 gingen ipv de xbone.
De nieuwe XBox zou ongeveer 50% meer Tflops halen, dat zegt niet alles maar het zou me niet verrassen als Microsoft heeft geleerd van het geblunder met de XBox One. "Dat niet nog een keer!". :) .
-The_Mask- schreef op vrijdag 03 juni 2016 @ 13:49:
[...]

Met een maximale GPU frequentie van 1300MHz heb je ook 6 TFlops met 2304 streamprocessors. Daarnaast is de XBOX sowieso een custom design en geen normale PC met moederbord, CPU en videokaart.
Dat begrijp ik maar het lijkt mij het meest voor de hand te liggen - om de kosten te drukken - dat ze een reeds bestaande architectuur gebruiken (hooguit lichtjes aangepast).
Bovendien, waarom zou die kaart op een APU in een console een hogere stabiele frequentie krijgen? Ze hebben niet een exact getal gegeven maar het zit duidelijk minstens enkele tiende Tflops verwijderd van de 6.
Mogen we verwachten dat de PCB-bouwers ons 480-kaarten gaan leveren die een hogere basisklok krijgen?
Nu weet ik niet wanneer die nieuwe XBOX moet komen, maar begin volgend jaar moet een 400mm2 APU met Zen core's en Polaris like graphics met HBM2 geheugen kunnen worden geproduceerd op 14nm LPP.
Het zou interessant zijn maar of dat Microsoft zo lang wil wachten...

[ Voor 52% gewijzigd door Verwijderd op 03-06-2016 14:04 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-

[ Voor 99% gewijzigd door Verwijderd op 03-06-2016 14:04 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:15
Verwijderd schreef op vrijdag 03 juni 2016 @ 13:45:
Verder dacht ik direct bij het zien hiervan dat deze test niet erg informatief is, iedereen weet dat dit momenteel het spel is wat het beste uitpakt voor AMD dankzij het feit dat DX12 hier op een goede manier wordt gebruikt en AMD dus gebruik kan maken van de architectuur die beter om kan gaan met asynchrone computing. Op zich zag AMD dit prima aankomen maar als AMD pech heeft dan heeft NVidia haar arhitetuur ook voldoende aangepast tegen de tijd dat de gamedevelopers 'eindelijk' eens fatsoenlijk hebben leren werken met DX12.
Laten we die man het voordeel van de twijfel geven en geloven dat hij een bot gooit naar de reviewers. ;)
Dunno, ik zou zeggen dat hitman het spel is met de grootste amd voorsprong, daar komt de 390x in de buurt van de 1070, alleen is de fury x ook maar 8% sneller.

Ashes weet wel iets extra uit de fury x te krijgen, misschien ook uit de nieuwe polaris? Maar ze hebben daar een minder grote voorsprong, de fury x is maar 6% sneller dan een aftermarket 980Ti. Niet heel indrukwekkend aangezien de 980Ti geen volledige chip is, en de fury x hbm heeft.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
CHBF wijzigde deze reactie 03-06-2016 14:06 (8%)
CHBF wijzigde deze reactie 03-06-2016 14:04 (52%)
CHBF wijzigde deze reactie 03-06-2016 14:04 (99%)

Mischien iets meer tijd nemen voor je posts? Dan kunnen ze in één post en hoef je ze niet te editen ;)
Verwijderd schreef op vrijdag 03 juni 2016 @ 13:23:
[...]

Mij maakt het niet uit, je moet toch de reviews afwachten alvorens je die kaart eventueel koopt. Ik vind het vervelender dat ze zo zuinig zijn met informatie over de Vega, alvorens je voldoende gefundeerd kan beslissen of dat je wel of niet de Polaris koopt moet je eerst voldoende informatie hebben over kaarten die 'binnenkort' uitkomen.
Vind ik ook, maar als AMD nu al zegt wat Vega is, dan fixt Nvidia metteen een concurent of een prijsverlaging, dus het is in het belang van AMD om dit voor zich te houden.
En tegen de tijd dat Vega er is, zijn er weer geruchten van een 1080Ti en als die er is komt er weer iets nieuws enzovoort, wachten in hardwareland is een cliché; je kunt het altijd blijven doen want er komt altijd wel wat nieuwers/beters ;)

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 16:27
Verwijderd schreef op vrijdag 03 juni 2016 @ 13:55:
[...]

Ja! Je moet het binnen dezelfde generatie bekijken (zo lang duurt het niet voordat al die andere segmenten door de beide bedrijven zijn bezet) , niet vergelijken met de vorige generatie waarvoor een andere procestechnologie werd gebruikt. Ja, nu hoeft de kaart slechts een stuk of 6 kaarten boven zich te dulden maar over een jaar is het een kaart die tussen entrylevel en mainstream in zit in deze generatie.
Het lijkt erop dat we blij mogen zijn als deze kaart net boven de 980 komt qua prestaties, daarmee zijn ze te vergelijken met twee klasses hoger in de vorige generatie, bij de 1070 zie je hetzelfde (net boven de 980 Ti). Ze hebben dus relatief gezien ongeveer evenveel vooruitgang geboekt.
Overigens kostte de 380 ook ongeveer 200 euro, had die evenveel CU's etc. , het is duidelijk een echte *80-kaart. Het is niet zo dat we met een gepimpte *80-kaart te maken hebben.

Nogmaals, bedrijfeconomisch gezien is dit zeker een logische strategie van AMD, als klant had ik het echter heel erg leuk gevonden als ze ook dat ene segmentje hoger zouden zijn gestart.
Blijkbaar verschillen we van mening van wat 'budget' is.

Ik vind het ook jammer dat er niet iets is met meer power vanuit AMD. Ik ga binnenkort een nieuwe PC bouwen en zit nu een beetje te twijfelen tussen een 480 of toch wat meer uitgeven voor een 1070 of misschien zelfs een 1080. Maar goed, ik wacht het allemaal rustig af :) Als de 480 dadelijk leuk presteert en hij niet te duur is, kan ik er altijd nog twee van halen...

Acties:
  • 0 Henk 'm!
Verwijderd schreef op vrijdag 03 juni 2016 @ 13:58:
[...]

Dat begrijp ik maar het lijkt mij het meest voor de hand te liggen - om de kosten te drukken - dat ze een reeds bestaande architectuur gebruiken (hooguit lichtjes aangepast).
4 CU's erbij is een lichte aanpassing.
Bovendien, waarom zou die kaart op een APU in een console een hogere stabiele frequentie krijgen?
Ik weet niet wanneer die uitkomt, maar productieprocessen verbeteren over tijd. Daarnaast de frequentie van RX 480 is waarschijnlijk 1266MHz, dat verschilt dus maar heel weinig.
Ze hebben niet een exact getal gegeven maar het zit duidelijk minstens enkele tiende Tflops verwijderd van de 6.
RX480 zit waarschijnlijk op 5,83Tflops.
Mogen we verwachten dat de PCB-bouwers ons 480-kaarten gaan leveren die een hogere basisklok krijgen?
Vanzelfsprekend.
Het zou interessant zijn maar of dat Microsoft zo lang wil wachten...
Tja wat is lang, zo lang is de huidige XBOX er nog niet.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
Nu de clocksnelhede bekend zijn van de 480 vraag ik mij af of ze net zoveel OC headroom hebben als bijvoorbeeld de GTX980Ti of GTX1080. Als blijkt dat je van 1250 naar 1800 kan dan heb je wel een gigantisch sneller kaart :p.

Kan natuurlijk ook zijn dat de architectuur niet gemaakt is voor die snelheden, maar ben benieuwd. Als het inderdaad een OC monster is dan zou ik het niet erg vinden om mijn 290 te vervangen door een 480x als tussentijdse kaart tot Vega :D.

Kan natuurlijk ook zo zijn dat de core snelheid niet de limitatie is maar juist de geheugen bandbreedte. Dat is goed te zien als je een GTX1070 oced, deze verliest het dan van een GTX980Ti (of Titan) met oc en heeft procentueel gezien veel minder winst.

[ Voor 21% gewijzigd door Sp3ci3s8472 op 03-06-2016 14:51 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
-The_Mask- schreef op vrijdag 03 juni 2016 @ 13:49:
[...]

Met een maximale GPU frequentie van 1300MHz heb je ook 6 TFlops met 2304 streamprocessors. Daarnaast is de XBOX sowieso een custom design en geen normale PC met moederbord, CPU en videokaart.

Stel als er een nieuwe XBOX kwam met een GPU met 40 CU's en dus 2560 streamprocessors dan betekend dit niet Polaris 10 dit ook heeft. Kunnen gewoon twee verschillende GPU's worden.

Kan ook gewoon dat de XBOX chip een APU wordt, wel een wat grote maar moet gewoon mogelijk zijn. De huidige APU's zitten allemaal tussen de 200 en 250mm2. Polaris 10 is waarschijnlijk 232mm2, dan heb je 400mm2 ook wel ruimte voor de rest van de APU.

Nu weet ik niet wanneer die nieuwe XBOX moet komen, maar begin volgend jaar moet een 400mm2 APU met Zen core's en Polaris like graphics met HBM2 geheugen kunnen worden geproduceerd op 14nm LPP.
Gezien het verbruik van de PS4 en de Xbox One denk ik dat ze er eerder een paar CU's bij doen zodat ze vervolgens de clocks wat kunnen laten zakken. Dan draai je toch wat zuiniger.
De kans is inderdaad groot dat het geen polaris wordt die er bij in zit maar wel een GPU met die architectuur of wellicht een refresh er van. De Xbox one had ook een aparte custom samenstelling.

Zen 4(8T)-8(16T) cores 40CU's met HBM2.0 zou wel awesome zijn :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op vrijdag 03 juni 2016 @ 13:45:
Natuurlijk maar het is heel erg flauw dat mensen begonnen te zeuren over de grafishe verschillen die in het voordeel van NVidia uitvielen. Beter gezegd, die achterdocht is nogal flauw. Op het vlak van betrouwbaar handelen heeft AMD voor mij een betere reputatie dan NVidia.
Flauw of niet, terecht is het wel.

Echter is het in dit geval zo dat het juist een stel Nvidia fanboys is geweest die het het eerste opmerkte met juist het tegenovergestelde als doel ;)

Overigens is het weldegelijk de 1080 die fout rendert. Oxide mag dan wel heel tactisch zeggen dat ze niet zeker weten wie de fout in gaat, het is heel eenvoudig te zien als je de 1080 vergelijkt met de 980 Ti, Fury en 480. Als je de tweede foto bekijkt, met die 5 gebouwen of kraters (of wat het ook zijn), zie je dat de 1080 nagenoeg geen sneeuw rendert in de kuilen onderaan de berg direct ten noorden van die dingen. De andere 3 doen dat wel.

Acties:
  • +7 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Zoals beloofd hier een plaatje van de hele collectie tot nu toe:

Afbeeldingslocatie: https://sua1og.dm2301.livefilestore.com/y3pZGuVvXqYf0eUcMJOHNlA7F1pBGVs3OsPRRD5__pRURncZZsPDzaGR_O5ArV9W321dPAZjezcVazqh24ToTTnpI-qm09NBEK_ZdT3TKuM4jZiVAEyxRUTasqDis1oW3oYRSN0Hus8Z_ESt1mo84G2GIXIwTJXfHVxejpUZQGSQq8/VGA_Collection_20141011_1_Edit_wmbl_s.jpg?psid=1

Van Links naar rechts:
Row1: Rage, Rage Pro, Rage Fury Maxx, Radeon 7000 DDR, Radeon 8500 64MB, Radeon 8500 128MB, Radeon 9700 Pro, Radeon 9800 Pro, Radeon 9800 Pro 256MB
Row2: 9800 XT, X800 XT, X850, X1800XL, X1800XL AIW, X1900XT, X1900XT OEM, X1950XTX
Row3: HD2900XT, HD3870, HD3870 X2, HD3870 X2 Ruby, HD4850, HD4870 512MB, HD4870 1GB, HD4890, HD4870 X2
Row4: HD5870, HD5970, HD6970, HD6990, HD7970, HD7990, R9 290X

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
haarbal schreef op vrijdag 03 juni 2016 @ 13:34:
Ja, "less work" (per frame) is meer fps.

Maar goed, geneuzel dit, eerst zo'n vage crossfire benchmark met een gek usage getal. En dan later verklaren dat de 1080 het fout deed.

Bench gewoon een enkele kaart tegen de 290 of 280x oid.
Hoe AMD een basisvergelijking wil maken, moeten ze vooral zelf weten. Dat men later er achter komt dat de GTX1080 sneeuw fout rendert, ligt zoals al gezegd, vooral aan het feit dat een aantal (fans?) mensen opmerkten dat er verschillen zijn.

Het is verder echter zeer goed dat die verschillen bemerkt zijn, want 1 spel kan nog een foutje zijn, maar als men meer spellen gaat vinden waar dingen net niet helemaal kloppen, kun je ook bedenkingen krijgen. Het zou namelijk niet nieuw zijn dat prestaties opgeklopt worden door 'optimalisaties' en als het gebrek aan sneeuw geen foutje is maar een bewuste keuze om GTX1080 sneller te laten lijken in DX12 titels (zelfs al is het maar 5 tot 10%), dan is dat kwalijk. Bovendien, zelfs als ze het nu nog oplossen, dan zijn de reviews al geweest, iedereen denkt dat GTX1080 zo veel sneller is. Dat de kaart 5-10% verliest omdat de boostsnelheden niet behaald kunnen worden in een computerkast en dat er ook nog eens 5-10% af valt voor het 'repareren' van het fout renderen van sneeuw, dat zal de consument niet meer bereiken.

Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 15:56
AMD doet het toch erg goed in Doom (OpenGL) bij de buren. De FuryX is in FullHD ultra zelfs sneller dan de 1080.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 14:51
Astennu schreef op vrijdag 03 juni 2016 @ 15:21:
Zoals beloofd hier een plaatje van de hele collectie tot nu toe:

[afbeelding]

Van Links naar rechts:
Row1: Rage, Rage Pro, Rage Fury Maxx, Radeon 7000 DDR, Radeon 8500 64MB, Radeon 8500 128MB, Radeon 9700 Pro, Radeon 9800 Pro, Radeon 9800 Pro 256MB
Row2: 9800 XT, X800 XT, X850, X1800XL, X1800XL AIW, X1900XT, X1900XT OEM, X1950XTX
Row3: HD2900XT, HD3870, HD3870 X2, HD3870 X2 Ruby, HD4850, HD4870 512MB, HD4870 1GB, HD4890, HD4870 X2
Row4: HD5870, HD5970, HD6970, HD6990, HD7970, HD7990, R9 290X
SUper tof!!! En welke gebruik je zelf?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
-The_Mask- schreef op vrijdag 03 juni 2016 @ 16:13:
http://nl.hardware.info/r...marks-van-24-videokaarten

Dan zie je ook de kracht van AMD als er geen DX11 overhead aanwezig is.
Eventjes lachen :p.
Door Panicd
3 juni 2016 15:16

Zo te zien doet mijn GTX780 het nog aardig goed op 1080p


Door Global-Interface
@Panicd - 3 juni 2016 15:41

Mijn 680 staat er niet eens meer tussen.Ik vergelijk 'm wel met de 770 in de lijst.
En die doet het dus ook nog leuk op fhd.
Ze kunnen toch niet zo naief zijn? :/

Acties:
  • +2 Henk 'm!
Tja nVidia doet amper aan driver optimalisatie als je niet de nieuwste kaart hebt en dat wordt hier maar weer pijnlijk duidelijk. Voordeel van nVidia is dat de meeste kopers niet beter weten en uit die reactie wordt dan ook weer heel erg duidelijk. De GTX 780 doet het gewoon heel erg slecht en vergelijking met andere kaarten van nVidia en al helemaal in vergelijking met AMD.

Voor de duidelijkheid, een GTX 780 was een aantal jaren geleden zo'n 25% sneller als een GTX680/GTX770 en HD7970 (GHz)/R9 280X.

[ Voor 14% gewijzigd door -The_Mask- op 03-06-2016 17:13 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 03 juni 2016 @ 13:45:
[...]

Natuurlijk maar het is heel erg flauw dat mensen begonnen te zeuren over de grafishe verschillen die in het voordeel van NVidia uitvielen. Beter gezegd, die achterdocht is nogal flauw. Op het vlak van betrouwbaar handelen heeft AMD voor mij een betere reputatie dan NVidia.

Ik ben het met je eens dat het wat vreemd is dat ze 1 benchmark lieten zien en dan enkel met een crossfire-opstelling.
Ach ja had het veel uitgemaakt als de 5 benchmarks hadden laten zien ipv 1 ? Nvidia liet ook maar 2 zien geloof ik. En ook al lieten ze meer zien dan had iedereen alsnog geroepen "Wacht op onafhankelijke benchmarks !"

Dus tja ze lieten gewoon zien wat een crossfire setup Theoretisch/in praktijk kan en dat was zeker een mooi resultaat. Zoals iemand aanhaalde is het makkelijker om Crossfire/Multiadapter te optimaliseren dan een achitectuur, Dus als AMD zijn driver team en Game devs laat focussen op Crossfire/Multiadapter oplossingen dan gaan we een mooie en interessante toekomst tegemoet.

Acties:
  • 0 Henk 'm!

  • Pazienza
  • Registratie: Februari 2012
  • Laatst online: 15:34
-The_Mask- schreef op vrijdag 03 juni 2016 @ 17:10:
Tja nVidia doet amper aan driver optimalisatie als je niet de nieuwste kaart hebt en dat wordt hier maar weer pijnlijk duidelijk. Voordeel van nVidia is dat de meeste kopers niet beter weten en uit die reactie wordt dan ook weer heel erg duidelijk. De GTX 780 doet het gewoon heel erg slecht en vergelijking met andere kaarten van nVidia en al helemaal in vergelijking met AMD.

Voor de duidelijkheid, een GTX 780 was een aantal jaren geleden zo'n 25% sneller als een GTX680/GTX770 en HD7970 (GHz)/R9 280X.
Exact de reden dat ik geen NVidia kaarten koop. Ik wil een kaart die langer dan een jaar goed presteert voor het bedrag wat je er voor neerlegt.

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 07:20

Trygve

Redacteur
-The_Mask- schreef op vrijdag 03 juni 2016 @ 17:10:
Tja nVidia doet amper aan driver optimalisatie als je niet de nieuwste kaart hebt en dat wordt hier maar weer pijnlijk duidelijk.
Toch ben ik benieuwd wat AMD/RTG nog met/aan GCN 1.0 gaat doen zodra Polaris en later Vega in de winkel liggen. In grote lijnen is het dezelfde architectuur (alles valt in ieder geval onder GCN), maar ik vraag mij af hoe goed een 7970/280X over bijvoorbeeld een jaar nog is in nieuwe games (niet in de laatste plaats omdat ik die kaart zelf heb O+ )

Acties:
  • +3 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Het jammere is nog wel dat Nvidia er gewoon mee weg komt, maar als AMD zoiets flikt, is de wereld te klein.

Zag je bijv. wel toen alles wat niet GCN was legacy verklaard werd door AMD. De reacties daarop waren ook niet mals. Dat Nvidia nieuwere kaarten ook de facto niet meer ondersteunt, daar kraait geen haan naar.

Dit zou toch wel weer een leuk Tweakers artikel kunnen zijn. Pak kaarten van nu tot HD5000/GeForce 400 series, en test ze met verschillende drivers, en kijk wat het verschil is.

Dat laat goed zien wat driver optimalisaties waard zijn, maar laat ook zien welk kamp het beter doet. Kunnen we de mythe van slechte AMD drivers hopelijk echt eens begraven.

People as things, that’s where it starts.


Acties:
  • +1 Henk 'm!
r100 schreef op vrijdag 03 juni 2016 @ 17:48:
[...]


Toch ben ik benieuwd wat AMD/RTG nog met/aan GCN 1.0 gaat doen zodra Polaris en later Vega in de winkel liggen. In grote lijnen is het dezelfde architectuur (alles valt in ieder geval onder GCN), maar ik vraag mij af hoe goed een 7970/280X over bijvoorbeeld een jaar nog is in nieuwe games (niet in de laatste plaats omdat ik die kaart zelf heb O+ )
GCN1 doet eigenlijk niks onder voor de nieuwste GCN3 op dit moment, verschil tussen de R9 280X en R9 380X is meestal in het voordeel van de eerste door iets meer geheugenbandbreedte van de R9 280X. Maar de verschillen tussen beide zijn meestal niet noemenswaardig.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op vrijdag 03 juni 2016 @ 18:07:
[...]

GCN1 doet eigenlijk niks onder voor de nieuwste GCN3 op dit moment, verschil tussen de R9 280X en R9 380X is meestal in het voordeel van de eerste door iets meer geheugenbandbreedte van de R9 280X. Maar de verschillen tussen beide zijn meestal niet noemenswaardig.
Kan je ook weer negatief uitleggen..... :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 03 juni 2016 @ 15:36:
[...]


Hoe AMD een basisvergelijking wil maken, moeten ze vooral zelf weten. Dat men later er achter komt dat de GTX1080 sneeuw fout rendert, ligt zoals al gezegd, vooral aan het feit dat een aantal (fans?) mensen opmerkten dat er verschillen zijn.

Het is verder echter zeer goed dat die verschillen bemerkt zijn, want 1 spel kan nog een foutje zijn, maar als men meer spellen gaat vinden waar dingen net niet helemaal kloppen, kun je ook bedenkingen krijgen. Het zou namelijk niet nieuw zijn dat prestaties opgeklopt worden door 'optimalisaties' en als het gebrek aan sneeuw geen foutje is maar een bewuste keuze om GTX1080 sneller te laten lijken in DX12 titels (zelfs al is het maar 5 tot 10%), dan is dat kwalijk. Bovendien, zelfs als ze het nu nog oplossen, dan zijn de reviews al geweest, iedereen denkt dat GTX1080 zo veel sneller is. Dat de kaart 5-10% verliest omdat de boostsnelheden niet behaald kunnen worden in een computerkast en dat er ook nog eens 5-10% af valt voor het 'repareren' van het fout renderen van sneeuw, dat zal de consument niet meer bereiken.
Volgens mij zouden ze bij Oxide ook checken hoe dit kan en hoe elke vendor met FP16 omgaat.. geen idee wat dat inhoud maar zal iets met render path te maken hebben..

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Dit is op zich goede reclame voor AMD en de R9 480x! TotalBiscuit heeft behoorlijk wat subscribers.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op donderdag 02 juni 2016 @ 16:39:
[...]


Vertel, waarom zou een grotere chip dan Polaris 10, wat de eerste Vega waarschijnlijk zal zijn, zich moeten richten op prestaties ergens tussen GTX1070 en GTX1080? Waarom niet gewoon een chip die GTX1080 kan verslaan (ook in DX11)?
Omdat de betere van de twee Vega-kaarten dat al gaat doen (en waarschijnlijk vrij fors, waar tegenover staat dat NVidia allicht dan met een 1080 Ti gaat uitkomen :)) en AMD niet zo'n groot gat in het midden kan houden. Met wat ze het opvullen en wanneer moeten we afwachten maar het is in mijn ogen ondenkbaar dat je twee 'lowend' (eigenlijk 1 lowend en 1 lage middenklasser qua positionering binnne de generatie) kaarten gaat hebben en twee highendkaarten met niets ertussen in. Zeg nooit nooit maar dat zou ik nogal onlogisch vinden.
Dat lijkt me toch een logischer doel voor een grote chip dan hopen dat je er ergens tussen in komt te zitten. De geknepen bin kan die ruimte namelijk prima invullen en als RX480 op ongeveer 90% van een GTX1070 zit (zeker met DX12 titels), dan is het ook niet meer dan logisch.
Sowieso natuurlijk de benchmarks afwachten voordat je besluit om wel of niet die kaart te kopen. :)
Maar goed, waar het volgens mij vooral om gaat is dat 1 grotere kaart waarmee je dezelfde gemiddelde FPS haalt bij hetzelfde spel met dezelfde instellingen altijd beter is dan 2 mindere kaarten. Het is leuk en aardig als met DX12 crossfire beter gaat worden ondersteund en als AMD haar best doet om die drivers hiervoor te optimaliseren maar de meeste spellen gebruiken DX11 of ouder (DX9). Vaak zijn de drivers dan ook nog eens slecht geoptimaliseerd waardoor je microstutter krijgt en je verspilt meer vermogen.
Waarom een kaart in dat middensegment? Omdat voor veel mensen 650 euro voor een 1080 (ja, nu zijn ze nog duurder maar het ligt aan jezelf als je niet het geduld hebt om een paar maanden te wachten ;)) willen besteden maar wel 350-400 euro over hebben voor een grafische kaart als die in ruil voor de hogere prijs ook langer meegaat (qua praktisch nut). Nogmaals, als ze geen *90 zouden willen uitbrengen, zou het dan niet heel erg onlogish zijn om de Polaris 10 de 480 te noemen? Door die kaart de 480 te noemen behoud je hetzelfde naamgevingsschema en daarmee suggereer je in mijn ogen dat die *90 ook wel zal komen.
Maar tegenover RotTR staan al een aantal games die duidelijk wel goed ontwikkeld zijn met DX12/Vulkan in het achterhoofd.
Er zijn er meer waarbij DX12 al voordelen biedt voor AMD maar uit het gigantische gat tussen dat ene spel en die andere spellen blijkt wel dat er nog veel winst te boeken is. Ik twijfel er niet aan dat dat allemaal goed komt in de komende jaren maar lhet zal waarschijnlijk wel nog even gaan duren, DX12 is nu eenmaal veel ingewikkelder te gebruiken dan DX11. Van de spellen die we spelen gebruiken de meeste geen DX12.

[ Voor 4% gewijzigd door Verwijderd op 03-06-2016 20:02 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Ik zie het wel gebeuren dat van de Vega's eentje gewoon behoorlijk gecastreerd is, en die de R9 390 en 390x opvolgt, en de volledige Vega mag dan de Fury X opvolgen.

Lijkt mij ook wel logischer, want dan heb je een high-end kaart met HBM2 en bijbehorende bus, in plaats van een high-end kaart die een lagere geheugenbandbreedte heeft dan de vorige generatie, de 390.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 02 juni 2016 @ 19:23:
1070/RX 480: 1070 36% faster, costs 90% more.
Daarom ben ik geneigd om te denken dat AMD een kaart kan maken die net 20% beter presteert dan de 1070 bij hogere resoluties (HBM2) die niets meer kost dan de 1070, zelfs als je rekening houdt met dat je extra kosten krijgt bij een grotere die moet dat toch wel lukken? Ook daarom denk ik dat AMD bewust wacht op de beschikbaarheid van HBM2 alvorens ze de 490 bouwen, je levert dan ineens een kaart waarmee de 1070 kan worden verslagen terwijl die geen cent duurder zal kosten.
RobinHood schreef op vrijdag 03 juni 2016 @ 20:08:
Ik zie het wel gebeuren dat van de Vega's eentje gewoon behoorlijk gecastreerd is, en die de R9 390 en 390x opvolgt, en de volledige Vega mag dan de Fury X opvolgen.
Lijkt mij ook wel logischer, want dan heb je een high-end kaart met HBM2 en bijbehorende bus, in plaats van een high-end kaart die een lagere geheugenbandbreedte heeft dan de vorige generatie, de 390.
Precies wat ik verwacht al zou ik niet spreken van casteren. ;)
Hiermee zouden ze de segmentatie zoals ze die hadden behouden. Misschien later nog een X-model van een aantal kaarten waarbij je wel alle CU's krijgt (in het geval van de Polaris 40 i.p.v. 36) omdat er minder defecte kernen gaan zijn tegen die tijd. Vooral voor hogere resoluties lijkt het me geweldig als je een hogere throughput hebt, dat maakt het verzorgen van een goede FPS bij 1440p toch heel wat gemakkelijker (veronderstellende dat je voldoende transistors gebruikt of dat de kloksnelheid van de transistors hoog genoeg is). Vanaf het begin dachten veel mensen dat de beide Vega's highend gaan zijn maar AMD spreekt al vrij snel van enthusiast-level (290, 390, zie dit in de context dat de 970, het equivalent van NVidia, een zeer populaire kaart was) , de 480 valt bij AMD onder performancelevel en voor de Fury X gebruiken ze de overtreffende trap van enthusiast. Met AMD's marktsegmentering is het helemaal niet zo gek als AMD het ook over de 490 had bij de toelichting die het maanden geleden gaf over de Vega (roadmap).

[ Voor 57% gewijzigd door Verwijderd op 03-06-2016 20:17 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-

[ Voor 99% gewijzigd door Verwijderd op 03-06-2016 20:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 03 juni 2016 @ 19:42:
[video]
Dit is op zich goede reclame voor AMD en de R9 480x! TotalBiscuit heeft behoorlijk wat subscribers.
Zeer terecht. :)
Ik denk niet dat deze kaart veel reclame nodig heeft, het is lekker overzichtelijk met 3 nieuwe kaarten in deze maanden.

Hij lijkt te verwachten dat er nog een kaart boven de 480 komt die tot de Polaris-familie behoort. Er was een aanwijzing (drivers voor Linux) dat er nog een derde kaart gaat komen. Ik ben benieuwd.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
Verwijderd schreef op vrijdag 03 juni 2016 @ 20:34:
[...]

Zeer terecht. :)
Ik denk niet dat deze kaart veel reclame nodig heeft, het is lekker overzichtelijk met 3 nieuwe kaarten in deze maanden.

Hij lijkt te verwachten dat er nog een kaart boven de 480 komt die tot de Polaris-familie behoort. Er was een aanwijzing (drivers voor Linux) dat er nog een derde kaart gaat komen. Ik ben benieuwd.
De kaart zelf misschien niet als product maar AMD wel. Als je zag hoeveel mensen een GTX960 hebben gekocht 8)7.

offtopic:
Alsjeblieft, bundel je post en werk ze eerst wat meer uit voordat je post. Dit is topic vervuiling.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 03 juni 2016 @ 20:09:
[...]

Daarom ben ik geneigd om te denken dat AMD een kaart kan maken die net 20% beter presteert dan de 1070 bij hogere resoluties (HBM2) die niets meer kost dan de 1070, zelfs als je rekening houdt met dat je extra kosten krijgt bij een grotere die moet dat toch wel lukken? Ook daarom denk ik dat AMD bewust wacht op de beschikbaarheid van HBM2 alvorens ze de 490 bouwen, je levert dan ineens een kaart waarmee de 1070 kan worden verslagen terwijl die geen cent duurder zal kosten.
HBM2 maakt een kaart niet ineens sneller, Heeft de 1070 een gebrek aan bandbreedte ? geloof van niet..

HBM2 is leuk en een interessante technologie maar moet nog steeds zien of we uberhaupt zoveel bandbreedte nodig hebben... de Fury was ook niet veel sneller dan de 980Ti met "gewoon" gddr5 geheugen ;).

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
Verwijderd schreef op vrijdag 03 juni 2016 @ 20:46:
[...]


HBM2 maakt een kaart niet ineens sneller, Heeft de 1070 een gebrek aan bandbreedte ? geloof van niet..

HBM2 is leuk en een interessante technologie maar moet nog steeds zien of we uberhaupt zoveel bandbreedte nodig hebben... de Fury was ook niet veel sneller dan de 980Ti met "gewoon" gddr5 geheugen ;).
HBM2 maakt een kaart inderdaad niet direct sneller, maar je kan in OC reviews zien dat een GTX1070 wel degelijk memory bandwith starved is als hij zover mogelijk is overclocked. Het verschil tussen een GTX1080 en GTX1070 op 2ghz is namelijk behoorlijk groot.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 03 juni 2016 @ 20:46:
[...]


HBM2 maakt een kaart niet ineens sneller, Heeft de 1070 een gebrek aan bandbreedte ? geloof van niet..
Dat hangt toch ook van o.a. de resolutie af? Het is ook maar net wat je wil, het kan best dat je bepaalde dingen laat omdat je weet dat het geheugen het niet trekt (meer transistoren, hogere kloksnelheid).
Maar jij hebt natuurlijk een goed punt (al vind ik de 980 Ti niet een goed voorbeeld omdat de die aanzienlijk groter was en het bij het begin van een nieuwe eerste generatie na een nieuw productieproces nu eenmaal zo is dat ook uit noodzaak (meer defetecten) de die wat kleiner wordt), het is niet noodzakelijk zo dat HBM2 voor een *90-kaart per se iets toevoegt. We zullen het wel gaan zien. Ik hoop in ieder geval dat er een *90-kaart komt, het liefst een die tussen de 1070 en de 1080 in zit (voor alle spellen 60+ fps bij 1440p zonder dipjes die ertoe doen eronder).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 03 juni 2016 @ 18:47:
Volgens mij zouden ze bij Oxide ook checken hoe dit kan en hoe elke vendor met FP16 omgaat.. geen idee wat dat inhoud maar zal iets met render path te maken hebben..
Het volgende zou er wellicht mee te maken kunnen hebben:

http://semiaccurate.com/f...p?p=263871&postcount=1479
Pascal consumer grade cards support FP16 but the arithmetic throughput via native FP16 units is so low that even FP16 arithmetic throughput emulated via FP32 units is higher! Pascal is just a joke.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
dahakon schreef op vrijdag 03 juni 2016 @ 20:56:
[...]


Het volgende zou er wellicht mee te maken kunnen hebben:

http://semiaccurate.com/f...p?p=263871&postcount=1479


[...]
Interessante posts daarna.
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D

Deze is anders dan tabel die nu vaak in reviews wordt gepost. Async Compute mist en Resource Heap zit nu weer op Tier 1 ipv Tier 2.

Edit:
Een of andere eikel heeft Asynchronous Compute helemaal weggehaald met als reden "There is no such thing as Asynchronous Compute", hoe dom kan je wezen als je MS zelf niet als bron wilt geloven. Lekker zo'n wiki pagina die iedereen mag veranderen, zou me niks verbazen als dat een Nvidia medewerker is die het heeft weggehaalt.

[ Voor 25% gewijzigd door Sp3ci3s8472 op 03-06-2016 21:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Toettoetdaan schreef op vrijdag 03 juni 2016 @ 14:27:
Mischien iets meer tijd nemen voor je posts? Dan kunnen ze in één post en hoef je ze niet te editen ;)
Het maakt verder weinig uit maar dat heeft met de interface op dit forum of eventueel mijn gebrek aan kennis daarvan te maken, ik heb geen manier gevonden om meerdere berichten in 1 venster te citeren zonder dat ondertussen de pagina opnieuw wordt geladen met het reactievenster. Je kan dan ctrl-c gebruiken, een pagina terug gaan, de tweede citeren en ctrl-v gebruiken of eerst reageren op de ene reactie, het plaatsen en dan reageren op de andere reactie. Een soort van multiquotefunctie zou handig zijn, misshcien is die er maar ik heb die nog niet gevonden.
Vind ik ook, maar als AMD nu al zegt wat Vega is, dan fixt Nvidia metteen een concurent of een prijsverlaging, dus het is in het belang van AMD om dit voor zich te houden.
Dat klinkt plausibel.
Zeara schreef op vrijdag 03 juni 2016 @ 14:31:
[...]


Blijkbaar verschillen we van mening van wat 'budget' is.
Ik zou het de ondergrens van de middenklasse van de grafische kaarten noemen qua positie in de totale productlijn die we straks normaal gesproken zullen gaan hebben. Aangezien dat een mond vol is noemde ik het voor het gemak twee lowendkaarten of iets dergelijks. Begrijp me niet verkeerd, het lijkt erop dat je de komende jaren prima kan gamen in 1080p met deze kaart, ook omdat de nieuwe PS4 een slechtere grafische kaart lijkt te krijgen en die van de XBox ongeveer dezelfde prestaties zal halen, dus wat dat betreft is dit een uitstekende tijd voor mensen die voor relatief weinig geld willen gamen. Dat is wel lekker na al die jaren waarin we een ratrace hadden waarin je een kaart van 400 euro (nieuwprijs) nodig had om mee te kunnen. :)
Het verschil in beeldkwaliteit tussen twee resoluties wordt voor onze perceptie kleiner naarmate de lagere van de twee resoluties hoger wordt. Dat maakt het wat gemakkelijker om je aan de ratrace te onttrekken. Wat dat betreft begrijp ik je punt wel. Zelfs toen ik de 7850 kocht, waarvoor je aanzienlijk meer betaalde dan 200 euro, was het al anders, daarmee hoefde je echt niet te hopen om 60+ fps te halen bij hoge instellingen bij een HD-sherm terwijl HD al een aantal jaren standaard was voor monitors.
Ik vind het ook jammer dat er niet iets is met meer power vanuit AMD. Ik ga binnenkort een nieuwe PC bouwen en zit nu een beetje te twijfelen tussen een 480 of toch wat meer uitgeven voor een 1070 of misschien zelfs een 1080. Maar goed, ik wacht het allemaal rustig af :) Als de 480 dadelijk leuk presteert en hij niet te duur is, kan ik er altijd nog twee van halen...
We mogen er eigenlijk niet over spreken in deze draad maar vooruit. Ik ga op zijn vroegst in oktober een PC samenstellen wegens de Zen-processor (toch ontopic).
spoiler:
Ik verwacht dat Intel de prijs verlaagt dus wat ik ook kies, ik ben er beter mee af. Ik hoop dat ik voor de Zen kan kiezen omdat ik graag wat gezonde concurrentie heb, dat is op de lange termijn voor alle klanten goed.
Ik hoop dat tegen die tijd de 490 op de markt is gekomen of dat de lagere Vega dan op de markt is gekomen en dat die niet duurder is dan de 1070. Zo niet dan twijfel ik tussen de 1070 en de 480 kopen, 50-100 euro verlies nemen (realistische schatting) bij de verkoop en alsnog een 490(X) kopen.

[ Voor 13% gewijzigd door Verwijderd op 03-06-2016 21:25 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
offtopic:
CHBF schreef op vrijdag 03 juni 2016 @ 21:21:
[...]
Het maakt verder weinig uit maar dat heeft met de interface op dit forum of eventueel mijn gebrek aan kennis daarvan te maken, ik heb geen manier gevonden om meerdere berichten in 1 venster te citeren zonder dat ondertussen de pagina opnieuw wordt geladen met het reactievenster. Je kan dan ctrl-c gebruiken, een pagina terug gaan, de tweede citeren en ctrl-v gebruiken of eerst reageren op de ene reactie, het plaatsen en dan reageren op de andere reactie. Een soort van multiquotefunctie zou handig zijn, misshcien is die er maar ik heb die nog niet gevonden.


We zijn toch tweakers? O-)
Middelste muisknop op de quote link of "Open in new tab".

Ik neem aan dat je niet meer in IE6 zit te werken waar dat inderdaad niet kan :+.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Offtopic: CHBF, als je eenmaal iets hebt geciteerd, kan je prima andere posts aandrukken en quoten, dan verschijnen ze onder elkaar en kan je commentaar ertussen zetten :)

Als je dit leest, heb je teveel tijd.


Acties:
  • +1 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 03 juni 2016 @ 21:34:
CHBF schreef op vrijdag 03 juni 2016 @ 21:21:
[...]
Het maakt verder weinig uit maar dat heeft met de interface op dit forum of eventueel mijn gebrek aan kennis daarvan te maken, ik heb geen manier gevonden om meerdere berichten in 1 venster te citeren zonder dat ondertussen de pagina opnieuw wordt geladen met het reactievenster. Je kan dan ctrl-c gebruiken, een pagina terug gaan, de tweede citeren en ctrl-v gebruiken of eerst reageren op de ene reactie, het plaatsen en dan reageren op de andere reactie. Een soort van multiquotefunctie zou handig zijn, misshcien is die er maar ik heb die nog niet gevonden.


We zijn toch tweakers? O-)
Middelste muisknop op de quote link of "Open in new tab".
Ja, dat had ik wel gedaan maar ik vond het er niet minder omslachtig mee worden. :)
Ik neem aan dat je niet meer in IE6 zit te werken waar dat inderdaad niet kan :+.
Sterker nog, ik was een early adopter van Firefox, binnen 1 jaar nadat het uit kwam. De tabbladen + bepaalde extensies overtuigden mij snel. Het was in die tijd ook sneller dan IE en het was uiteraard minder 'onveilig'.
Racing_Reporter schreef op vrijdag 03 juni 2016 @ 21:40:
Offtopic: CHBF, als je eenmaal iets hebt geciteerd, kan je prima andere posts aandrukken en quoten, dan verschijnen ze onder elkaar en kan je commentaar ertussen zetten :)
Goed om te weten. ^O^
Verwijderd schreef op vrijdag 03 juni 2016 @ 17:35:
[...]


Ach ja had het veel uitgemaakt als de 5 benchmarks hadden laten zien ipv 1 ? Nvidia liet ook maar 2 zien geloof ik. En ook al lieten ze meer zien dan had iedereen alsnog geroepen "Wacht op onafhankelijke benchmarks !"

Dus tja ze lieten gewoon zien wat een crossfire setup Theoretisch/in praktijk kan en dat was zeker een mooi resultaat. Zoals iemand aanhaalde is het makkelijker om Crossfire/Multiadapter te optimaliseren dan een achitectuur, Dus als AMD zijn driver team en Game devs laat focussen op Crossfire/Multiadapter oplossingen dan gaan we een mooie en interessante toekomst tegemoet.
Ik vind het simpelweg interessanter hoe 1 480 zich verhoudt tot de andere kaarten, het liefst ook voor een DX11-spel wat geen Gameworks of PhysX bevat aangezien die er nu eenmaal veel zijn.
Dat voor dat ene spel een crossfire-opstelling van 2*480 de 1080 verslaat vind ik niet echt echt niet een verrassing.

[ Voor 9% gewijzigd door Verwijderd op 03-06-2016 21:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 03 juni 2016 @ 19:42:
[video]
Dit is op zich goede reclame voor AMD en de R9 480x! TotalBiscuit heeft behoorlijk wat subscribers.
TotalBiscuit weet niks van hardware, hij bouwt niet eens z'n eigen PC's, die worden samengesteld en gebouwd door z'n vrouw. En hij heeft misschien wel veel subscribers, maar z'n views zijn niet veel omhoog gegaan sinds hij 800k subs had. Hij heeft sinds 2014 nogal wat mensen weggejaagd. :X Deze video is helemaal dramatisch, 34k views na 8 uur. Daar hoeft AMD het niet van te hebben in ieder geval, maar die hebben TotalBiscuit en z'n videotjes ook helemaal niet nodig. :P

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
Verwijderd schreef op zaterdag 04 juni 2016 @ 00:15:
[...]

TotalBiscuit weet niks van hardware, hij bouwt niet eens z'n eigen PC's, die worden samengesteld en gebouwd door z'n vrouw. En hij heeft misschien wel veel subscribers, maar z'n views zijn niet veel omhoog gegaan sinds hij 800k subs had. Hij heeft sinds 2014 nogal wat mensen weggejaagd. :X Deze video is helemaal dramatisch, 34k views na 8 uur. Daar hoeft AMD het niet van te hebben in ieder geval, maar die hebben TotalBiscuit en z'n videotjes ook helemaal niet nodig. :P
Dat hij helemaal niks van hardware weet klopt :p, dat zie je ook vaak in zijn port reports.
Hij kan ook voor geen meter gamen, het kan soms tenenkrommend zijn om hem te zien spelen tijdens een WTF is. Laat niet weg dat ik zijn WTF is formaat een eerlijker beeld geeft van een spel dan menig review, hij geeft tenminste net zoals "Zero Punctuation" zijn ongezouten mening en hij is transparant naar de kijker.

Klopt zijn "Content Patches" worden niet zoveel bekeken, de video viel mij op omdat hij de laatste paar jaar steeds een Nvidia rig heeft.
Vandaar dat de "extra" "reclame" vanuit die hoek leuk is voor AMD omdat het toch vaak een ander publiek is dan degene die tech videos kijken.

Maar dit is mijn mening :P.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
beebie121 schreef op vrijdag 03 juni 2016 @ 16:13:
[...]


SUper tof!!! En welke gebruik je zelf?
De R9 290X zit nu in mijn Game PC.
Maar binnenkort gaat die vervangen worden door een RX480. En dan gaat deze weer bij de verzameling.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
kunnen we stellen dat polaris en vega de eerste generaties zijn die vrijwel sinds het begin rekening houden met de wijzing qua die size strategie van nvidia? De gk104 is al weer 4 jaar oud.
Dit zou nog voor een leuke verrassing kunnen zorgen.

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 15:56
ATi is al in 2006 de weg ingeslagen van de kleinere chips.. nieuws: ATi gaat op de kleintjes letten

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 07:20

Trygve

Redacteur

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Shit, ik wilde hem net posten :P

RX 490 ben ik benieuwd naar wat dat zou gaan brengen, dat zou een GTX 1070 competitor moeten worden voor 80 dollar minder. Dat zou dus betekenen dat performance per watt min of meer het raam uit gaat, maar de kaart zich wel sorta kan meten met de highend. Gat tussen 480 en 1070 zou iets van 40 procent zijn, dus voor ongeveer 30-40 procent hogere aanschafprijs zou je dat gat overbruggen in performance. Ziet er best lineair uit, dat plaatje :)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
winwiz schreef op zaterdag 04 juni 2016 @ 06:25:
ATi is al in 2006 de weg ingeslagen van de kleinere chips.. nieuws: ATi gaat op de kleintjes letten
Maar ze hebben inmiddels ook al weer heel wat uitstapjes gemaakt met grotere cores zoals Hawaii en vooral Fury. Ik den niet dat de small die strategie nog op gaat. Toen hadden ze alleen maar small die's en twee samen werd dan de op kaart van die generatie.

Vorige generatie zijn er gewoon chips met grote cores uitgekomen. De HD5 en HD6 cores waren ook al weer een stuk groter geworden. En ik denk dat we deze generatie met Vega en Navi ook wel weer over de 400nm richting de 600 zullen gaan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

R490 (big) polaris met HBM1? Of gaat dat niet lukken (HBM1 8GB?)

[ Voor 41% gewijzigd door edward2 op 04-06-2016 11:51 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!
HBM(1) zal niet meer gebruikt worden in de nieuwe generatie door de 4GB videogeheugen beperking.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

"Double sex pens" *gniffel*

Maar het lijkt me wel logisch, die grafiek die AMD postte vs de GTX 1080 slaat nergens op, er moet wel meer achter zitten. Ik vermoed dat ze rond de launch van de GTX 1070 een hogere kaart uit de doeken gaan doen.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
tot de gf5xx serie had nvidia als main gaming gpu een grote gpu met veel gpgpu mogelijkheden. Bij de gk104 stapten ze daar van af. Omgekeerd heeft amd juist steeds meer gpgpu in de gpus gebakken. Het duurde ook ongeveer 4 jaar voordat nvidia reageerde op de 4xxx serie.

Acties:
  • +9 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
tomcatha schreef op zaterdag 04 juni 2016 @ 13:14:
tot de gf5xx serie had nvidia als main gaming gpu een grote gpu met veel gpgpu mogelijkheden. Bij de gk104 stapten ze daar van af. Omgekeerd heeft amd juist steeds meer gpgpu in de gpus gebakken. Het duurde ook ongeveer 4 jaar voordat nvidia reageerde op de 4xxx serie.
Dit is dus niet zo. Nvidia brengt ze wel in een andere volgorde uit - dat is de wijziging in hun strategie. Het is echter niet zo dat ze van de oude methode met grote chips zijn afgestapt en vooral met Kepler niet. Nvidia's GeForce producten volgen sinds G70 een vrij strict en vooral voorspelbaar patroon. Je kunt exact zien wat voor chip het is puur aan de codenaam.

Waarschuwing: deels off-topic (meer Nvidia dan AMD :P), maar ik zal mezelf wel cross-quoten in het Nvidia topic. En het is weer een muur geworden :P

Vooraf:
- Grootte: lager cijfer betekent grotere chip (0 > 4 > 6 > 8 )
- Performance index: hoger cijfer betekent snellere (minder gecastreerde) chip. Het cijfer geeft echter niet aan hoeveel er gecastreerd is; je kunt dus niet exact afleiden hoe een chip gaat presteren. En het verschilt per "generatie".
- Spin: letter + cijfer; hoger betekent nieuwer. A3 is nieuwer dan A1; B1 is nieuwer dan A3.

Nvidia
Ten tijde van GF7 t/m GF9 ziet het er als volgt uit: G(eForce)<generatie><grootte>-<performance index>-<spin>.
Voorbeeldje van G80: G80-300-A2 (GTX) betekent dus GeForce 8, grootte 0 (maximum), performance index 300, spin A2. G80-450-A3 is dus een snellere chip op nieuwere base layer spin (Ultra). Een 8800 GT is G92-200-A2, 8800 GS is G92-150-A2 enzovoort. G84 en G94 zijn kleinere chips; dat zie je aan het feit dat 4 een hoger cijfer is dan 0. G92 laat ook zien welk cijfer ze gebruiken als ze denken dat de indeling efficiënter kan; hier kom ik zo op terug.

Pure shrinks deden ze met letters; G92 + GT200 = 65nm, G92b + GT200b = 55nm. Wij (gebruikers, journalisten) hebben het vaak over G92a en GT200a, maar dat is vooral omdat 'b' zonder 'a' onlogisch is :P Na GT200 hebben we echter nooit meer een pure shrink gehad doordat 40->28->16/14 niet bepaald het oorspronkelijke plan was ;)

Als je hebt opgelet zie je met GT200 ook al een wijziging, de chip naam heeft er een letter en cijfer bij gekregen. Vanaf hier gebruiken ze G<architectuur><architectuur versie in 2 cijfers; major + minor><grootte>-<performance index>-<spin>. Architectuur is de eerste letter van de architectuur naam (Tesla, Fermi, Kepler, Maxwell, Pascal). De architectuur versie bestaat uit major + minor (ik zal ze in software stijl typen, major.minor) - dit betekent niet noodzakelijkerwijs grote zichtbare architecturele wijzigingen, kan wel. Grootte, performance en spin is hetzelfde als voorheen. Dus, als voorbeeld: GT200 = GeForce Tesla 2.0, grootte 0. GF100 = GeForce Fermi 1.0, grootte 0; GF110 = Fermi 1.1, grootte 0.

Volgen we het nog? In principe gebruikt Nvidia meestal de 0 en even cijfers voor de grootte en 2 slaan ze over (het verschil tussen de grootste chip en tweede chip is vaak ook daadwerkelijk zo groot dat dat gerechtvaardigd is). Dat is dus 0, 4, 6, 8. Laten we eens wat dieper duiken:

- G92? Dacht dat ze de 2 niet gebruikten? Klopt, echter als je naar G92 kijkt zie je andere verhoudingen dan in G80. In feite is G92 iets minder rijk bedeeld dan G80, vandaar dat hij niet G90 werd genoemd. G94 kon echter ook niet, want de chip werd niet echt kleiner. Dus, G92...en dat zien we "binnenkort" weer gebeuren *kuch*.

- We hebben ook een GT215, GT216, GT218. Dat is dus Tesla 2.1 en als je die chips vergelijkt met de grote GT200 zie je ook behoorlijke wijzigingen in de indeling. GT215 gebruikt een oneven nummer; dat is omdat die gebaseerd is op GT216 met wederom een iets andere indeling. GT214 klopte dus niet in Nvidia's schema.

En dan nu mijn favoriete stukje. GF100 is duidelijk, dat is de grootste Fermi 1.0 chip. GF110 is ook duidelijk, dat is de grootste Fermi 1.1 chip (zowel de 480 als 580 hebben overigens performance index 375; ondanks het feit dat de 480 een gecastreerde chip is). Daarna kwam echter GK104; dat is Kepler 1.0, maar de op 1 na grootste chip? Jaar erop volgt GK110...Kepler 1.1 en wel de grootste chip. GK100 of GK114 hebben we nooit gezien. Je zou kunnen zeggen dat dat een keuze (strategie) was, maar waarom zouden ze dan alsnog geld in Kepler 1.1 steken? Voordeel van de twijfel dan maar, misschien gaan ze daar mee door.

Niet dus, want daarna komt kort GM107 (Maxwell 1.0 test), dan GM204 (Maxwell 2.0)...en GM200 (nog steeds 2.0). Als Kepler hun nieuwe strategie was geweest, dan hadden we een GM210 gekregen na GM204. Nog steeds niet overtuigd? GP104 en GP100. The_Mask en ik zeiden meteen al dat we een GP102 zouden krijgen (G92 ;)) en dat gerucht doet nu dus ook de ronde. Het zijn juist Maxwell en Pascal waar Nvidia duidelijk een andere strategie heeft; Kepler was niet zo gepland. Met Maxwell hebben ze vooraf besloten hetzelfde te doen als met Kepler, omdat dat goed uitpakte en een flink stuk goedkoper is dan een refresh doen. Met Pascal zijn ze nog een stapje verder gegaan en is de grootste chip volledig op HPC gefocust; veel meer dan Tesla, Fermi, Kepler of Maxwell dat ooit waren. Hun strategie voor gaming is echter hetzelfde als met Maxwell: mid-size chip eerst, jaartje later de opgeblazen versie. Lekker goedkoop in de R&D. Een die shrink zit er voorlopig nog niet in, dus op die manier kan er meer aandacht naar Volta in plaats van een lullige refresh voor hooguit 10% performance. Het is niet zo dat ze geen grote chips meer bakken, ze brengen ze alleen later uit, in plaats van refreshes.


AMD/ATI
AMD zit behoorlijk anders in elkaar.
Laten we bij het (Radeon) begin beginnen: R(V)<generatie><performance index in 2 cijfers>.
Vanaf 2007 zit er een V in de naam, dat staat waarschijnlijk gewoon voor Video of iets dergelijks. AMD's performance index is ook meteen hun indicator voor grootte. Hoe hoger dat cijfer, hoe sneller en groter de chip. Normaal gesproken gaan ze op hele tientallen zitten (10, 20, 30, 50, 70 en 80 zijn de meest voorkomende); tweaks aan de architectuur en dergelijke krijgen een cijfertje binnen zo'n tiental (RV535, RV635, R423). Ook gaven ze zo "alternatieve" versies aan; R480 was bijvoorbeeld de PCI-e versie, R481 de AGP versie ;)

Daarnaast gebruikt AMD nog steeds suffixes. Van hoog naar laag hebben we XT, Pro, GT, LE en CE. Dit geeft vooral aan hoeveel er gecastreerd is. 48(10/30/50/70) zijn bijvoorbeeld RV770 CE, LE, Pro en XT. 48(60/90) zijn RV790 Pro en XT. XTX is nooit gebruikt als chip suffix (alleen als kaart suffix), behalve wat recenter met Bonaire XTX.

En met Bonaire zijn we bij de nieuwe naamgeving aangekomen. Vanaf de Evergreen (HD5000) generatie krijgen we geen chip nummers meer, maar daadwerkelijke namen, gebaseerd op locaties in de wereld. Maakt het uiteraard lastiger voor ons om te raden wat er gaat komen. Wel gebruiken ze nog steeds dezelfde suffixes. Een 290 en 290X zijn gewoon Hawaii Pro en XT. Waar deze codenamen voorheen vooral intern werden gebruikt (R400 had bijvoorbeeld Noorse goden als namen intern; Nvidia deed dit overigens ook pre-G80), worden ze nu dus ook extern gebruikt. En met Polaris 10 en 11 is dat uiteraard wederom iets anders.

Acties:
  • +1 Henk 'm!

Verwijderd

-The_Mask- schreef op zaterdag 04 juni 2016 @ 11:53:
HBM(1) zal niet meer gebruikt worden in de nieuwe generatie door de 4GB videogeheugen beperking.
Het bleek bij de Fury X al dat 4 GB echt te weinig is, in ieder gval voor 1440p. Logisch dus dat ze HBM1 niet meer gebruiken. Voor de 480 is het voor mij een vraagteken of dat 4 GB wel of niet genoeg is (dus of dat het wel of niet een bottleneck kan gaan vormen), wat denken jullie?
Een aardige theorie. Ik ben het met hem eens dat er een 490 moet komen, zijn punt dat het niet erg logisch is dat er geen kaart met de volle 40 CU's en een wat hoger vermogen komt kan ik goed volgen. Je kan erover discussiëren of dat de 480 idd. 90 W gebruikt maar dat het veel dichter bij de 100 dan bij de 150 ligt lijkt me vrij duidelijk. Je kan voor AOS de performance van de 1070 vergelijken met die van de 1080 (die benchmark is al uitgevoerd) en zodoende een aardige indruk krijgen over het performanceverschil tussen de 480 en de 1070, zodoende kwam ik op ongeveer hetzelfde verschil uit (1 procentpunt verschil), maar AoS is een extreem AMD-vriendelijk spel. Als je dit performanceverschil hebt bij AoS (480 vs. 1070 en 1080), zou je dan niet een groter performanceverschil moeten hebben bij andere spellen?

Ik val nu in herhaling, al met al vind ik de performance van de 480 net wat te laag ondanks de lage prijs, het performance/W-verhaal boeit me niet aangezien dat enkel voor laptops echt relevant is (tenzij het om extreme vermogens gaat, de 390 en 290 waren wel erg hongerig). Een 490 die ongeveer de performance levert van een 1070 voor 80 euro minder zou interessant zijn, zelfs als die iets meer vermogen nodig heeft dan de 1070. Voor dat prijsverschil zou zo'n 490 zeker niet duurder zijn, ervan uitgaande dat je na een jaar of 4 die kaart weer hebt vervangen en dat de kilowattuurprijs niet plotseling fors verhoogd.
spoiler:
Servetberekening met 50 Watt verschil voor piekbelasting, een laag verschil bij idle, gemiddeld 4 uur piekbelasting per dag voor 365 dagen per jaar en een prijs van 25 eurocent per kilowattuur, wat mij redelijk extreme waarden lijken te zijn en die ik daarom met opzet kies.

[ Voor 83% gewijzigd door Verwijderd op 05-06-2016 17:33 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16
Verwijderd schreef op zondag 05 juni 2016 @ 14:56:
[...]

Het bleek bij de Fury X al dat 4 GB echt te weinig is, in ieder gval voor 1440p. Logisch dus dat ze HBM1 niet meer gebruiken. Voor de 480 is het voor mij een vraagteken of dat 4 GB wel of niet genoeg is (dus of dat het wel of niet een bottleneck kan gaan vormen), wat denken jullie?
Waaruit blijkt dat dan? AMD gaat anders met geheugen om dan Nvidia en loopt veel minder snel tegen een bottleneck aan zover ik weet.

Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 17:44
Werelds schreef op zaterdag 04 juni 2016 @ 19:15:
[...]

Vanaf 2007 zit er een V in de naam, dat staat waarschijnlijk gewoon voor Video of iets dergelijks.

[...]
Hoe kom je daarbij? Die V gebruiken ze al vanaf de eerste generaties Radeon. Zowel voor afgeslankte chips als die-shrinks. Die V zal waarschijnlijker voor Variant/Variance of Version staan.

Wikipedia: ATi Radeon R100 Series

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
NitroX infinity schreef op zondag 05 juni 2016 @ 15:21:
[...]

Hoe kom je daarbij? Die V gebruiken ze al vanaf de eerste generaties Radeon. Zowel voor afgeslankte chips als die-shrinks. Die V zal waarschijnlijker voor Variant/Variance of Version staan.

Wikipedia: ATi Radeon R100 Series
Ze hebben hem dus al eerder gebruikt (wist ik niet eens), maar hij zit niet altijd in de naam. Variant of Version past ook niet echt; ik zie nu dat ze bijvoorbeeld een RV410 hadden, terwijl de rest van R400 geen V had en een R410 bestaat niet. Met R200 bijvoorbeeld dan weer wel. Het is ook niet zo dat het bij die-shrinks gebruikt wordt, R430 is 110nm net als RV410.

Vreemd, nu vraag ik me dus af was de logica daarachter is :D

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:15
Sp3ci3s8472 schreef op zondag 05 juni 2016 @ 15:09:
[...]


Waaruit blijkt dat dan? AMD gaat anders met geheugen om dan Nvidia en loopt veel minder snel tegen een bottleneck aan zover ik weet.
Volgens mij is het meer dat 4GB gewoon nog een prima hoeveelheid is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 17:44
Werelds schreef op zondag 05 juni 2016 @ 15:28:
[...]

Ze hebben hem dus al eerder gebruikt (wist ik niet eens), maar hij zit niet altijd in de naam. Variant of Version past ook niet echt; ik zie nu dat ze bijvoorbeeld een RV410 hadden, terwijl de rest van R400 geen V had en een R410 bestaat niet. Met R200 bijvoorbeeld dan weer wel. Het is ook niet zo dat het bij die-shrinks gebruikt wordt, R430 is 110nm net als RV410.

Vreemd, nu vraag ik me dus af was de logica daarachter is :D
De RV410 is een afgeslankte versie van de R430 welke een opvolger van de R420 was. Als ik het goed lees op wikipedia. Maar waarom die 430 geen V heeft, weet ik ook niet aangezien het volgens mij niets meer is dan een die-shrink van de 420.

Wikipedia: ATi Radeon R400 Series

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 07:24
Early generations were identified with a number and major/minor alphabetic prefix. Later generations were assigned code names. New or heavily redesigned architectures have a prefix of R (e.g., R300 or R600) while slight modifications are indicated by the RV prefix (e.g., RV370 or RV635).

The first derivative architecture, RV200, did not follow the scheme used by later parts.

Wikipedia: Radeon

erutangiS


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 16:37
Verwijderd schreef op zondag 05 juni 2016 @ 14:56:
[...]

Het bleek bij de Fury X al dat 4 GB echt te weinig is, in ieder gval voor 1440p. Logisch dus dat ze HBM1 niet meer gebruiken. Voor de 480 is het voor mij een vraagteken of dat 4 GB wel of niet genoeg is (dus of dat het wel of niet een bottleneck kan gaan vormen), wat denken jullie?
Waaruit blijkt dat? want ik gebruik een fury (ja met 4gb hbm) op 1440p en hou mijn vram gebruik wel eens in de gaten maar ik heb het nog nooit voorbij de 3500 zien gaan en als het al zo vol zat was de framerate zo laag dat de gpu i.c.m. dx11 eerder de bottleneck was.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zondag 05 juni 2016 @ 15:09:
[...]


Waaruit blijkt dat dan? AMD gaat anders met geheugen om dan Nvidia en loopt veel minder snel tegen een bottleneck aan zover ik weet.
Bij RotTR werd vermoed dat de 4 GB voor onderprestaties zorgde in vergelijking met de concurrent van NVidia.
GTA V staat ook bekend als een geheugenvreter, daarbij zit je al behoorlijk snel boven de 4 GB als je de instellingen goed hoog zet.

Maar goed, laten we voor het gemak even in het midden laten of dat die stelling klopt. Dan nog lijkt het me verstandig om de kaart een beetje marge te geven t.o.v. het maximum wat tot nu toe is gebruikt in verband met futureproofing en je mag ervan uitgaan dat de Vega ook qua CPU-capaciteit boven de Fury X uitkomt.

Ik ben het trouwens zeker eens met de stelling dat je ook niet moet overdrijven met de hoeveelheid RAM-geheugen, er hoeft van mij echt geen 12 GB op te zitten, met 6 GB zou ik ook tevreden zijn maar 4 durf ik waarschijnlijk niet aan, dan toch liever een beetje extra betalen voor die veilige marge.

[ Voor 106% gewijzigd door Verwijderd op 05-06-2016 17:42 ]


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Verwijderd schreef op zondag 05 juni 2016 @ 17:33:
[...]

Bij RotTR werd vermoed dat de 4 GB voor onderprestaties zorgde in vergelijking met de concurrent van NVidia.
GTA V staat ook bekend als een geheugenvreter, daarbij zit je al behoorlijk snel boven de 4 GB als je de instellingen goed hoog zet.

Maar goed, laten we voor het gemak even in het midden laten of dat die stelling klopt. Dan nog lijkt het me verstandig om de kaart een beetje marge te geven t.o.v. het maximum wat tot nu toe is gebruikt in verband met futureproofing en je mag ervan uitgaan dat de Vega ook qua CPU-capaciteit boven de Fury X uitkomt.
Die stelling klopt domweg niet. De bandbreedte met HBM1 is dermate hoog dat 4GB niet echt een limiterende factor is. Dan gaat eerder de GPU onderuit. Als je nou 4GB standaard GDDR5 gebruikt, sja, but that's not the case. Hier kom je niet makkelijk onderuit hoor, als jij dat wilt beweren, noem maar een paar reviews waaruit dat blijkt.

Een beetje headroom geef ik je trouwens gelijk in, maar de stap van 4 naar 8 is dan wel un peu overkill meteen, tenzij je voor 4K plus bucketloads of AA gaat, in extreme gevallen. Geheugengebruik is namelijk niet unaniem overal hetzelfde in iedere game ;)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

Verwijderd

Racing_Reporter schreef op zondag 05 juni 2016 @ 17:40:
[...]

Die stelling klopt domweg niet. De bandbreedte met HBM1 is dermate hoog dat 4GB niet echt een limiterende factor is. Dan gaat eerder de GPU onderuit. Als je nou 4GB standaard GDDR5 gebruikt, sja, but that's not the case.
Ik durf daar geen uitspraak over te doen. Ik begrijp je punt: als je sneller data kan verplaatsen van het geheugen naar de CPU en andersom dan heb je minder geheugen nodig. Of dat dat in alle gevallen geldt kan ik op dit moment niet inschatten.
Een beetje headroom geef ik je trouwens gelijk in, maar de stap van 4 naar 8 is dan wel un peu overkill meteen, tenzij je voor 4K plus bucketloads of AA gaat, in extreme gevallen. Geheugengebruik is namelijk niet unaniem overal hetzelfde in iedere game ;)
Akkoord, ben jij het mij eens dat 6 GB de gulden middenweg zou zijn zolang je niet meer wil dan 1440p? Waarom niet meer dan 1440p? Aangezien een 490 (als het een soort van 1070 wordt qua prestaties) een kaart zou worden die geschikt is voor 1440p-gaming en omdat ik van mening ben dat de extra FPS meer oplevert dan de extra resolutie en omdat ze met 4K nu nog ruim onder de 60 fps zitten, bij de meeste spellen is een soepele actie en responsiviteit nu eenmaal heel erg belangrijk.
Phuncz schreef op zaterdag 04 juni 2016 @ 12:31:
"Double sex pens" *gniffel*

Maar het lijkt me wel logisch, die grafiek die AMD postte vs de GTX 1080 slaat nergens op, er moet wel meer achter zitten. Ik vermoed dat ze rond de launch van de GTX 1070 een hogere kaart uit de doeken gaan doen.
Het zou me niet verbazen maar waarom zou AMD niet voor de lancering aangeven dat de mensen ook een 490 kunnen kiezen?

Die vergelijking met de 1080 vind ik niet zo interessant omwille van het feit dat het een extreem AMD-vriendelijk spel is en omdat ik geen interesse heb in een crossfire/SLI-opstelling, tegenwoordig lijkt de consensus te zijn dat je beter 1 kaart met dezelfde performance kan hebben dan een crossfire/SLI-opstelling.

[ Voor 4% gewijzigd door Verwijderd op 05-06-2016 17:46 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:15
Racing_Reporter schreef op zondag 05 juni 2016 @ 17:40:
De bandbreedte met HBM1 is dermate hoog dat 4GB niet echt een limiterende factor is. Dan gaat eerder de GPU onderuit. Als je nou 4GB standaard GDDR5 gebruikt, sja, but that's not the case. Hier kom je niet makkelijk onderuit hoor, als jij dat wilt beweren, noem maar een paar reviews waaruit dat blijkt.
Het maakt niet uit dat het snel is. Als het genoeg is is het genoeg en anders niet.

Mechwarrior Online: Flapdrol


Acties:
  • +3 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Als 4GB niet genoeg is, moet dat vooral duidelijk worden bij GTX970. Als bij die kaart de prestaties niet heel erg inzakken, maar bij Fury wel, dan is het geen probleem met de hoeveelheid geheugen.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Verwijderd schreef op zondag 05 juni 2016 @ 17:45:
[...]

Ik durf daar geen uitspraak over te doen. Ik begrijp je punt: als je sneller data kan verplaatsen van het geheugen naar de CPU en andersom dan heb je minder geheugen nodig. Of dat dat in alle gevallen geldt kan ik op dit moment niet inschatten.
Geldt in lang niet alle gevallen, dat is de trend die ik zag in de afgelopen maanden.

Linkje: http://www.computerbase.d...vram-vergleich-4gb-8gb/5/

Noch reichen 4.096 MB aus, aber nicht mehr lange.

Ik kan me wel voorstellen dat 4GB niet ultiem futureproof is. Als het prijsverschil tussen 4GB en 8GB bij de 480 straks beperkt blijft, dan denk ik dat ik wel een graadje hoger aantik voor in m'n pc.
[...]

Akkoord, ben jij het mij eens dat 6 GB de gulden middenweg zou zijn zolang je niet meer wil dan 1440p? Waarom niet meer dan 1440p? Aangezien een 490 (als het een soort van 1070 wordt qua prestaties) een kaart zou worden die geschikt is voor 1440p-gaming en omdat ik van mening ben dat de extra FPS meer oplevert dan de extra resolutie en omdat ze met 4K nu nog ruim onder de 60 fps zitten, bij de meeste spellen is een soepele actie en responsiviteit nu eenmaal heel erg belangrijk.
Mee eens! Maar 4K en 2560x1440 zijn nou niet bepaald de populairste segmenten he? Ik kan me voorstellen dat de standaard pas omhoog gaat als die twee sterker worden omarmd in de komende jaren. Maar 4 of 8 GB, voor 4K 60FPS gaat dat sowieso niet genoeg zijn. Daar zijn de huidige GPU's nog gewoon te langzaam voor, ongeacht hoeveel geheugen je er tegenaan smijt.
[...]

Het zou me niet verbazen maar waarom zou AMD niet voor de lancering aangeven dat de mensen ook een 490 kunnen kiezen?
Smoke screen en finetuning?
haarbal schreef op zondag 05 juni 2016 @ 17:57:
[...]

Het maakt niet uit dat het snel is. Als het genoeg is is het genoeg en anders niet.
Ga even terug naar level 1, je snapt niet hoe het werkt. Voorbeeldje: ooit had ik een normale HDD met te weinig werkgeheugen. GTA4 was een drama. Toen kwam er een SSD in, met 2GB RAM. Scheelde bakken in performance. Doorvoersnelheid helpt dus weldegelijk, al is er een plafond. Het VRAM-plafond met 4GB gaan we straks wel doorheen knallen ;)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:15
Racing_Reporter schreef op zondag 05 juni 2016 @ 19:23:
Ga even terug naar level 1, je snapt niet hoe het werkt. Voorbeeldje: ooit had ik een normale HDD met te weinig werkgeheugen. GTA4 was een drama. Toen kwam er een SSD in, met 2GB RAM. Scheelde bakken in performance. Doorvoersnelheid helpt dus weldegelijk, al is er een plafond. Het VRAM-plafond met 4GB gaan we straks wel doorheen knallen ;)
Als je boven de 4GB komt moet er geswapt worden naar het geheugen van de pc, en dat gaat via de relatief trage pci-e bus. In dat geval is de performance waardeloos, dat hbm snel is verandert daar niets aan.

4GB op de fury x is geen probleem omdat het een prima hoeveelheid is voor spellen die een beetje slim met het geheugen omgaan, niet omdat het snel hbm is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Doubt it.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zondag 05 juni 2016 @ 17:33:
[...]

Bij RotTR werd vermoed dat de 4 GB voor onderprestaties zorgde in vergelijking met de concurrent van NVidia.
GTA V staat ook bekend als een geheugenvreter, daarbij zit je al behoorlijk snel boven de 4 GB als je de instellingen goed hoog zet.
4GB is ruim voldoende tegenwoordig (zelfs voor 4K), de meeste GPUs hebben namelijk nog gewoon 2GB, de high-end wel 3 à 4GB, maar de industrie richt zich heus niet op 8GB nu er deze week een nieuwe GPU beschikbaar is met deze hoeveelheid. De Titan series gaat men ook niet van uit en de Radeon 390X 8GB heeft ook nog geen verborgen potentieel laten zien. De tijd dat een game engine zijn tijd ver vooruit was, is al een tijd achter ons, DOOM draait mooi 60fps op mijn 290X met alles op Ultra op 1080p.

Waar je mee in de war bent is dat "VRAM usage" niet gelijk staat aan "minimum required VRAM". Kortweg: Windows gebruikt alle beschikbare RAM bij storage acties, simpelweg omdat niet gebruikt geheugen ook maar spijtig is. Dit doet men bij tal van PC-optimized games ook: alle beschikbare VRAM die niet nodig is voor het renderen, wordt gebruikt voor texture en 3D data. Rise of the Tomb Raider laat dit ook zien: http://www.techpowerup.co...of_the_Tomb_Raider/4.html
Using a GTX Titan X, which has 12 GB of VRAM, we tested the game's memory usage. As you can see, the game always uses 6-7 GB of VRAM. This may sound shocking at first, but the game also runs very well with cards that don't have as much memory - just look at the performance charts. It seems as though Crystal Dynamics' engine will happily use as much VRAM as it can, but is very well optimized to make do with much less without sacrificing framerates.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Waarom is het geen samenspel van beiden volgens jou?

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

Verwijderd

Racing_Reporter schreef op zondag 05 juni 2016 @ 19:23:
Mee eens! Maar 4K en 2560x1440 zijn nou niet bepaald de populairste segmenten he? Ik kan me voorstellen dat de standaard pas omhoog gaat als die twee sterker worden omarmd in de komende jaren. Maar 4 of 8 GB, voor 4K 60FPS gaat dat sowieso niet genoeg zijn. Daar zijn de huidige GPU's nog gewoon te langzaam voor, ongeacht hoeveel geheugen je er tegenaan smijt.
Ik denk dat het niet lang (binnen 2 jaar) meer gaat duren voordat 1440p mainstream gaat worden, vandaar dat ik denk dat gamers er verstandig aan doen om er rekening mee te houden in welke mate het 1440p aankan, al is de schade natuurlijk beperkt als je je kaart tweedehands kan verkopen voor een redelijk bedrag. De prijzen van de monitors zijn aan het zakken en zullen waarschijnlijk nog aardig verder zakken. Nu middenklasse grafische kaarten 1440p ondersteunen (de 1070 en hopelijk binnenkort ook een RX490) en 1440p monitors minder duur worden zullen meer mensen een 1440p-monitor kopen waardoor de prijs weer sneller verder kan zakken.
Smoke screen en finetuning?
Dat zou kunnen.
haarbal schreef op zondag 05 juni 2016 @ 20:07:

4GB op de fury x is geen probleem omdat het een prima hoeveelheid is voor spellen die een beetje slim met het geheugen omgaan, niet omdat het snel hbm is.
Dat is een nogal grote als, nietwaar? In een ideale wereld...
Maar in de echte wereld doen lang niet alle developers het handig, is de software behoorlijk gesloten en kan je dus niet eventjes die probleempjes oplossen.
Phuncz schreef op zondag 05 juni 2016 @ 20:24:
[...]

4GB is ruim voldoende tegenwoordig (zelfs voor 4K), de meeste GPUs hebben namelijk nog gewoon 2GB, de high-end wel 3 à 4GB, maar de industrie richt zich heus niet op 8GB nu er deze week een nieuwe GPU beschikbaar is met deze hoeveelheid. De Titan series gaat men ook niet van uit en de Radeon 390X 8GB heeft ook nog geen verborgen potentieel laten zien. De tijd dat een game engine zijn tijd ver vooruit was, is al een tijd achter ons, DOOM draait mooi 60fps op mijn 290X met alles op Ultra op 1080p.

Waar je mee in de war bent is dat "VRAM usage" niet gelijk staat aan "minimum required VRAM". Kortweg: Windows gebruikt alle beschikbare RAM bij storage acties, simpelweg omdat niet gebruikt geheugen ook maar spijtig is. Dit doet men bij tal van PC-optimized games ook: alle beschikbare VRAM die niet nodig is voor het renderen, wordt gebruikt voor texture en 3D data. Rise of the Tomb Raider laat dit ook zien: http://www.techpowerup.co...of_the_Tomb_Raider/4.html


[...]
JIj hebt een goed punt maar is het een gekke gedachte dat de komende jaren textures met hogere resolutie, het gebruik van schaduwen met hogere resoluties, de densiteit van verschillende NPC's etc. toeneemt waardoor je meer grafisch geheugen nodig gaat hebben?
Ik trap echt niet in de marketingtruc dat meer VRAM beter is maar een klein beetje een veilige marge naar boven zou ik toch wel fijn vinden aangezien wat extra GDDR5 momenteel toch weinig kost.

[ Voor 49% gewijzigd door Verwijderd op 05-06-2016 20:38 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Vrijwel elke engine gebruikt zoveel geheugen als ze willen, dat wil echter niet zeggen dat het ook _nodig_ is. Dit hele gedoe speelt al jaren. Zelfs met BF3 werd al geschreeuwd dat 2GB niet genoeg was, 3GB of zelfs 4GB was echt wel nodig, want het spel kon net over de 3GB heen gaan. En wat bleek? Enkele uitzonderingen daar gelaten, maakte het geen flikker uit, in elk geval op 1080p. Zoek maar eens naar benchmarks van een 770 2GB vs 4GB. GTA V draait op een 770 op exact dezelfde framerate met 2 of 4 GB.

De GPU zelf is nog steeds eerder een bottleneck dan het geheugen; of de bandbreedte daarvan. Dat engines veel kunnen gebruiken zegt helemaal niets; dat extra geheugen gebruik is puur cache, wat een paar seconden laadtijd tussen maps scheelt.

Er zijn natuurlijk uitzonderingen, maar dat zijn ook waardeloze games en engines, zoals CoD: Ghosts. Ongelofelijk stuk stront van een game en engine. Rammelt aan alle kanten.

Acties:
  • 0 Henk 'm!

  • bertp1
  • Registratie: Maart 2011
  • Niet online
Racing_Reporter schreef op zondag 05 juni 2016 @ 20:29:
[...]

Waarom is het geen samenspel van beiden volgens jou?
Als je het over datarates (of latencies) hebt, is de traagste altijd de bottleneck.
Vergelijk het met een hele snelle auto: als die in de file staat is het nog steeds traag rijden. Gelijkaardig met geheugen: je HBM mag dan nog zo snel zijn, echter als die vol zit moet de gpu op een bepaald moment wachten op data uit het standaard ram-geheugen. Dan heb je zowel vertraging van de bus (pcie) als het geheugen (de bandbreedte van ddr3 is veel lager dan gddr5, laat staan hbm).

Dat is ook de reden dat een ssd veel sneller aanvoelt dan een hdd voor veel zaken (in games enkel voor laadtijden, naar fps toe maakt dat geen zak uit); de hdd is namelijk de bottleneck (zwakste schakel) in het geheel.
Indien de gpu echter data moet gaan halen in de systeemgeheugen, is deze laatste de bottleneck en niet het videogeheugen van de gpu (ongeacht of het nu gddr5(x) of hbm is).

Daarom hebben gpu's dun hun eigen geheugen, namelijk om data al voor dat de gpu het nodig heeft in te laden, zodat de gpu er sneller gebruik van kan maken wanneer het het nodig heeft. Dit is dus waar geheugen met een grotere bandbreedte nut heeft: wanneer de gpu heel grote textures ed wil inladen vanuit het videogeheugen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:28
Racing_Reporter schreef op zondag 05 juni 2016 @ 19:23:
[...]


Ga even terug naar level 1, je snapt niet hoe het werkt. Voorbeeldje: ooit had ik een normale HDD met te weinig werkgeheugen. GTA4 was een drama. Toen kwam er een SSD in, met 2GB RAM. Scheelde bakken in performance. Doorvoersnelheid helpt dus weldegelijk, al is er een plafond. Het VRAM-plafond met 4GB gaan we straks wel doorheen knallen ;)
Huh je verandert een hdd in een SSD en je verhoogt je ram geheugen met 2 GB, vervolgens trek je een conclusie over vram???

Open wereld games werken vrij simpel. Ze streamen data in van je storage laag naar je systeem ram en je vram. Heb je genoeg van beiden dan is er in de regel niets aan de hand. Ga je onvoorspelbaar te werk (bijvoorbeeld hard door de stad rijden) dan komt er een moment dat de data niet voorhanden is en het in het ergste geval van de storage laag moet komen. In dat geval heb je echter wel echt een grove fout gemaakt in je systeem samenstelling. RAM is immers niet bepaald duur, er is sinds pak hem beet 2008 geen reden om ooit nog te swappen naar je pagefile. In ieder geval niet voor games.

Vooral console ports zijn hier traditioneel gezien heel goed in. Zo konden de codemasters F1 games heel lang tijdens de pitstop geen top-down view van het circuit tonen, puur omdat de hele game op voorspelbare streaming is gebouwd.

Op het moment dat je te weinig vram hebt (vooral texture data etc) dan moet er data uit het systeem ram komen, dat duurt te lang. Je krijgt dan gigantische haperingen. Een SSD gaat daar niets aan veranderen. Die fps drop gaat echt wel komen. Ook het verhogen van je systeem ram kan het gebrek vram niet compenseren. Een tekort aan vram los je het snelste op door het verlagen van de quality settings. GTA IV laat dat ook duidelijk zien.

GTA IV gebruikt daarnaast ook redelijk wat systeem ram. Heb je dan te weinig ram dan gaat het systeem swappen maar je C:/pagefile.sys. Dat is natuurlijk ook verschrikkelijk problematisch. In dat geval is een SSD wel een hele verbetering, maar nog niet genoeg om de bottleneck op te lossen. Immers RAM geheugen doet iets van 20.000 MB/s met <70ns terwijl de SSD blijft steken op pak hem beet 500 MB/s met een veel hogere latency. Voor die 30 euro dat ram tegenwoordig kost is dat 100% te voorkomen.

Tot september 2014 was 8 GB ram ruim voldoende, toen kwam planetary annihilation en sindsdien loont het om 16 GB ram te gebruiken. Voor 2011 was 4 GB ram eigenlijk altijd wel voldoende, Windows heeft heel lang een standaard applicatie limiet van 1 GB systeem ram gehad. Die kon je dan (op x64) handmatig verhogen naar 3 GB:


Ik vindt het overigens altijd wel meevallen in hoeveel extra vram een hogere resolutie resulteert. Het zijn vooral de games die grotere (mooiere) textures aan het inladen zijn. Of die de komende 2-3 jaar massaal over de 4 GB gaan weet ik niet. Tot heden zijn er een hand vol games die in de buurt komen. Maar wie weet...

[ Voor 6% gewijzigd door sdk1985 op 05-06-2016 23:52 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
volgens mij heeft zelfs arma 3 maar marginaal wat aan SSDs terwijll in de voorgaande delen ssds en zelfs ramdisks grote performance boosts gaven.

Acties:
  • 0 Henk 'm!

  • lodem1
  • Registratie: April 2016
  • Laatst online: 14-09 11:15
Wat ik me eigenlijk wel afvraag: hoe goed gaan de nieuwe polaris kaarten zijn in tessellation?
Of is daar nog niks van bekend?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
lodem1 schreef op maandag 06 juni 2016 @ 17:37:
Wat ik me eigenlijk wel afvraag: hoe goed gaan de nieuwe polaris kaarten zijn in tessellation?
Of is daar nog niks van bekend?
Wat ik gelezen heb, is dat AMD wat hardware aanpassingen heeft gemaakt waardoor de prestaties niet langer kunstmatig kunnen worden geknepen door nVidia trucjes zoals ze die toepassen in GameBarelyWorks™. Ofwel, de tesselation prestaties gaan misschien niet expliciet veel omhoog (durf ik niets over te zeggen), maar de absurde overtesselation die nVidia soms liep te pushen zou geen negatieve invloed meer moeten hebben bij Polaris.

Acties:
  • 0 Henk 'm!

  • lodem1
  • Registratie: April 2016
  • Laatst online: 14-09 11:15
Als blijkt dat AMD hun nieuwe kaarten best ok zijn in tessellation is dat weer een extra reden om toch misschien voor AMD te gaan;)

Acties:
  • 0 Henk 'm!
AMD is nu al prima in tessellation, pas bij extreem nutteloos overdreven veel tessellation zijn de prestaties niet meer goed. Maar ja dat hoef je natuurlijk niet te gebruiken, je kunt tessellation ook omlaag gooien.

Eigenlijk hetzelfde met anti aliasing, dat kun je ook extreem omhoog gooien en dan lopen games ook voor geen meter, maar ook daar heb je niks aan want je ziet het verschil echt niet tussen bijvoorbeeld 8xAA of 64xAA. Met tessellation werkt dat precies hetzelfde, je kunt dit wel extreem hoog zetten, maar het kost je alleen maar prestaties en je ziet geen verschil.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
lodem1 schreef op maandag 06 juni 2016 @ 17:52:
Als blijkt dat AMD hun nieuwe kaarten best ok zijn in tessellation is dat weer een extra reden om toch misschien voor AMD te gaan;)
AMD is nooit slecht geweest in tesselation. Dat wil zeggen, dat waar tesselation voor bedoelt is, dat kunnen ook huidige AMD GPU's prima verwerken. Alleen wanneer absurde settings worden 'geeist' of dingen worden getesselleerd die niet eens zichtbaar zijn, dan ontstaan er problemen.

Acties:
  • 0 Henk 'm!

Verwijderd

lodem1 schreef op maandag 06 juni 2016 @ 17:52:
Als blijkt dat AMD hun nieuwe kaarten best ok zijn in tessellation is dat weer een extra reden om toch misschien voor AMD te gaan;)
FreeSync en het feit dat oudere generaties kaarten beter worden ondersteund zijn voor mij belangrijke redenen om voor AMD te kiezen. Daarnaast wint AMD het automatisch bij mij bij een gelijke kwaliteit en gelijke prijs aangezien het heel erg slecht zou zijn voor de consument als NVidia het enige bedrijf zou zijn wat dedicated grafische kaarten zou verkopen. ;)
Ik leunde er al naar maar ik heb inmiddels de knoop doorgehakt, ik wacht op de 490, de 480 laat ik links liggen. Als het te lang duurt voordat de 490 uitkomt (ik wil een systeem samenstellen zo gauw Zen uitkomt, als het goed is in oktober) dan zou ik heel misschien voor de 1070 kunnen kiezen indien NVidia FreeSync goed zou gaan ondersteuenen.
dahakon schreef op maandag 06 juni 2016 @ 17:57:
[...]


AMD is nooit slecht geweest in tesselation. Dat wil zeggen, dat waar tesselation voor bedoelt is, dat kunnen ook huidige AMD GPU's prima verwerken. Alleen wanneer absurde settings worden 'geeist' of dingen worden getesselleerd die niet eens zichtbaar zijn, dan ontstaan er problemen.
Dan zijn NVidia-kaarten toch beter in tessellation? Dat NVidia hier misbruik van maakt via Gameworks en hiermee ook haar eigen klanten benadeelt is een ander verhaal. Ik vind het nogal een joke, de tessellation belachelijk hoog zetten voor iets wat je niet ziet om de concurrent te fucken en hiermee ook je eigen klanten fucken en die eigen klanten slikken het maar. :')

Afbeeldingslocatie: http://hothardware.com/newsimages/Item18471/barrier1.jpg

[ Voor 31% gewijzigd door Verwijderd op 06-06-2016 18:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

- bij vorige reactie toegevoegd, ik zou deze zelf weghalen als het zou mogen maar helaas... -

[ Voor 159% gewijzigd door Verwijderd op 06-06-2016 18:03 ]


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 07:20

Trygve

Redacteur
Charlie van SemiAccurate over de RX480

Zoals The Motley Fool anti-AMD is, zo is Charlie anti-nVidia. Maar toch even deze quote:
Nvidia will have a hard time competing with this for reasons we will talk about in a few days. This card and presumably others to come should hit the market sweet spot this round.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op maandag 06 juni 2016 @ 17:59:
Dan zijn NVidia-kaarten toch beter in tessellation
De vraag was niet of nVidia beter is, maar of Polaris' tesselation goed zal zijn. Het antwoord is simpel dat tesselation nu al goed is. Als het klopt dat AMD veranderingen door heeft gevoerd, waardoor GameBarelyWorks™ geen negatieve uitwerking meer kan hebben op de prestaties, dan is de vraag sowieso futiel, want dan zal tesselation in games nooit meer de prestaties breken.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:28
Verwijderd schreef op maandag 06 juni 2016 @ 17:59:
Dan zijn NVidia-kaarten toch beter in tessellation? Dat NVidia hier misbruik van maakt via Gameworks en hiermee ook haar eigen klanten benadeelt is een ander verhaal. Ik vind het nogal een joke, de tessellation belachelijk hoog zetten voor iets wat je niet ziet om de concurrent te fucken en hiermee ook je eigen klanten fucken en die eigen klanten slikken het maar. :')

[afbeelding]
Bron: http://techreport.com/rev...oo-much-of-a-good-thing/2.

Dat was alleen 2011, zit er dik in dat in 2021 het normaal is om objecten van zo veel detail te voorzien. Even los van de problematiek is het hele idee van tesselation nu juist dat je van dichtbij meer kunt tonen dan van veraf zodat je zowel detail als performance kunt bieden. Ik weet nog wel dat ik in de UTed.exe een cilinder maakte met 16 hoeken die een ronde buis moest voorstellen _O- . Wie weet maakt AMD wel een flinke inhaalslag nu, alleen maar mooi voor de gamers. Wie weet krijgen we dan nuttige objecten met meer details :9 .

[ Voor 7% gewijzigd door sdk1985 op 06-06-2016 19:01 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op maandag 06 juni 2016 @ 17:49:
[...]


Wat ik gelezen heb, is dat AMD wat hardware aanpassingen heeft gemaakt waardoor de prestaties niet langer kunstmatig kunnen worden geknepen door nVidia trucjes zoals ze die toepassen in GameBarelyWorks™.
Link?

Zoiets als dit?
Tessellation:
if(Waarde_Tessellation > Max_Tessellation)
Waarde_Tessellation = Max_Tessellation;

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Verwijderd schreef op maandag 06 juni 2016 @ 19:17:
[...]

Link?

Zoiets als dit?
Tessellation:
if(Waarde_Tessellation > Max_Tessellation)
Waarde_Tessellation = Max_Tessellation;
Primitive discard accelerator.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • lodem1
  • Registratie: April 2016
  • Laatst online: 14-09 11:15
Enigste wat me dan nog zou kunnen tegnhouden is dat AMD hun frametimes soms echt slecht kunnen zijn...
YouTube: Radeon R9 390 8GB 1080p Benchmarks vs GTX 970/R9 390X/R9 290
Kijk gewoon naar de frametimes in the witcher 3 bij AMD...
En dan vooral als Geralt de stad binnenrijd...

[ Voor 7% gewijzigd door lodem1 op 06-06-2016 19:43 ]


Acties:
  • 0 Henk 'm!
Dat is een test van een jaar geleden, kan nu dus heel anders zijn, daarnaast is dat dus zo'n nVidia GameBarelyWorks™ titel zoals dahakon dat hierboven mooi omschreef.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 07:20

Trygve

Redacteur
lodem1 schreef op maandag 06 juni 2016 @ 19:40:
Enigste wat me dan nog zou kunnen tegnhouden is dat AMD hun frametimes soms echt slecht kunnen zijn...
YouTube: Radeon R9 390 8GB 1080p Benchmarks vs GTX 970/R9 390X/R9 290
Kijk gewoon naar de frametimes in the witcher 3 bij AMD...
En dan vooral als Geralt de stad binnenrijd...
Klopt, en in Crysis zitten er ook een paar lelijke dips voor AMD. Daar tegenover staat dat de 970 in Ryse en in Quantum Break op z'n muil gaat. Trading blows :)

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op maandag 06 juni 2016 @ 20:23:
Dat is een test van een jaar geleden, kan nu dus heel anders zijn, daarnaast is dat dus zo'n nVidia GameBarelyWorks™ titel zoals dahakon dat hierboven mooi omschreef.
Beetje jammer als zo'n beetje alle flinke titels "GameBarelyWorks (really?) " titels zijn...

Dan kan AMD "theoretisch" een sterkere kaart hebben, maar als je dat niet terugziet in de games, dan is dat toch jammer als consument zijnde. En heeft Nvidia niet de afgelopen tijd een paar technieken juist naar buiten gebracht?

http://nvidianews.nvidia....-nvidia-gameworks-sdk-3-1

Dingen als HBAO+ vallen ook onder Gameworks, maar draaien volgens mij prima op zowel AMD als op Nvidia. En HBOA+ ziet er toch echt een pak beter uit dan bijv SSOA.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Verwijderd

edward2 schreef op maandag 06 juni 2016 @ 19:25:
[...]


Primitive discard accelerator.
Handig.

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 07:20

Trygve

Redacteur
Afbeeldingslocatie: http://cdn.overclock.net/1/1f/1fdd497f_videocardz_RX480_.jpeg
Wut? (bron)

Als je niet kunt wachten op de RX480 kun je 'm ook zelf maken _/-\o_

[ Voor 47% gewijzigd door Trygve op 06-06-2016 22:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Hier een interessante uitleg over de Polaris-architectuur en het belang van de FinFET.
http://www.hardwarecanuck...chitecture-preview-2.html
Pagina: 1 ... 8 ... 11 Laatste

Dit topic is gesloten.

Let op:
De nieuwe generatie GPU's is aangekondigd en dat brengt iedereen weer naar dit topic om te vragen wat zijn oude kaart waard is en of de nieuwe kaart een goede vervanger is voor hem... Dat is dus duidelijk niet de bedoeling van dit topic! Discussieer erop los, maar om advies vragen doen we in CAA.