Ik quote iemand anders, die wel een AMD kaart heeft dus ipv een Nvidia. 70+ zit er in ieder geval sowieso niet in met een 270(X). Slechte poging tot trollen.
Die loopt natuurlijk in een dichte ruimte waar geen actie voor komt. Maar gemiddeld idd echt niet.DonnyL schreef op donderdag 17 september 2015 @ 11:46:
[...]
Ik quote iemand anders, die wel een AMD kaart heeft dus ipv een Nvidia. 70+ zit er in ieder geval sowieso niet in met een 270(X). Slechte poging tot trollen.
Of zijn maxed out is iets anders dan wat mensen met maxed out bedoelen.. Kom vaak genoeg comments hier tegen met mensen die alles op zn max draaien maar dan geen AA draaien, shadows uit zetten etc.
[ Voor 20% gewijzigd door legendareN op 17-09-2015 12:03 ]
Verwijderd
Donny is geen trollen met je vooroordelen jij trolled zelf als een malle over een game die je niet eens hebt 30fps troll. Het is al lang bekent dat deze game nu veel beter draait op AMD en NvidiaDonnyL schreef op donderdag 17 september 2015 @ 11:46:
[...]
Ik quote iemand anders, die wel een AMD kaart heeft dus ipv een Nvidia. 70+ zit er in ieder geval sowieso niet in met een 270(X). Slechte poging tot trollen.
Hier bijvoorbeeld dik over de 100 fps voor de meeste tijd met alles maar dan ook alles, alles alles, maar dan ook echt alles aan.
[ Voor 92% gewijzigd door Verwijderd op 17-09-2015 12:22 ]
Het probleem is dat jij de vraag voor een ander beantwoord. Het werd gevraagd aan spNk...
[EDIT]
En ga alstublieft GEEN flamewar starten tussen nVidia en AMD.
[EDIT]
En ga alstublieft GEEN flamewar starten tussen nVidia en AMD.
[ Voor 30% gewijzigd door LongBowNL op 17-09-2015 12:26 ]
Verwijderd
Ja en hoe dat is het probleem
Niemand start hier een flame war want wie heeft het over amd vs Nvidia met batman?
Niemand start hier een flame war want wie heeft het over amd vs Nvidia met batman?
[ Voor 59% gewijzigd door Verwijderd op 17-09-2015 12:29 ]
Ik vroeg jou helemaal niks, je hebt een GTX 970 en geen 270x. Daarbuiten heb ik een R9 290 en ik haal met alles maxed out echt geen steady 60fps, zodra je de grapnel gebruikt of in de batmobile rijdt duikt de fps alsnog naar beneden. Volgens mij kan je niet in mijn Steam account kijken ook, ik heb 60 uur gespeeld en hem voor de patch al uitgespeelt. Daarbuiten gaat een game niet spontaan een stuk beter draaien op AMD kaarten als eerst het tegenovergestelde het geval was. Je kan beter terug naar het Nvidia nieuwstopic denk ik.Verwijderd schreef op donderdag 17 september 2015 @ 12:18:
[...]
Donny is geen trollen met je vooroordelen jij trolled zelf als een malle over een game die je niet eens hebt 30fps troll. Het is al lang bekent dat deze game nu veel beter draait op AMD en Nvidia
Hier bijvoorbeeld dik over de 100 fps voor de meeste tijd met alles maar dan ook alles, alles alles, maar dan ook echt alles aan.
Verwijderd
Ik zal me smoel wel houden want jullie hebben gelijk gemiddeld zo'n 60 fps op een 290x en gemiddeld 80 fps op een gtx 980 ti
YouTube: Batman Arkham Knight Gameplay City Driving R9 290X Vsync Off
Edit
AVG 59 FPS.
YouTube: Batman Arkham Knight Benchmark Test AMD R9 290X
YouTube: Batman Arkham Knight Gameplay City Driving R9 290X Vsync Off
Ja sorry komt omdat iemand anders gelijk komt met vooroordelen over trollen dan ga je fouten maken door valse beschuldigingen eigenschuld deze hele gedoe.legendareN schreef op donderdag 17 september 2015 @ 12:43:
[...]
Ik zie alleen in dit filmpje geen 60fps gemiddeld xD enige x wanneer hij 60 stabiel haalt is tijdens een soort van cutscenewaar t niks uitmaakt
Edit
AVG 59 FPS.
YouTube: Batman Arkham Knight Benchmark Test AMD R9 290X
[ Voor 93% gewijzigd door dion_b op 18-09-2015 01:23 ]
Ik citeer beide:Verwijderd schreef op donderdag 17 september 2015 @ 12:27:
[...]
Niemand start hier een flame war want wie heeft het over amd vs Nvidia met batman?
DonnyL schreef op donderdag 17 september 2015 @ 11:46:
[...]
Ik quote iemand anders, die wel een AMD kaart heeft dus ipv een Nvidia. (...)
Maar het is alweer klaar zie ik.Verwijderd schreef op donderdag 17 september 2015 @ 12:18:
[...]
(...)Het is al lang bekent dat deze game nu veel beter draait op AMD en Nvidia
(...)
Ik zie alleen in dit filmpje geen 60fps gemiddeld xD enige x wanneer hij 60 stabiel haalt is tijdens een soort van cutsceneVerwijderd schreef op donderdag 17 september 2015 @ 12:38:
Ik zal me smoel wel houden want jullie hebben gelijk gemiddeld zo'n 60 fps op een 290x en gemiddeld 80 fps op een gtx 980 ti
YouTube: Batman Arkham Knight Gameplay City Driving R9 290X Vsync Off
Ja dat filmpje laat juist zien dat hij bijna nooit tijdens gameplay de 60 haalt..
AMD 7800X3D, ASUS ROG STRIX X678E-E GAMING, G.Skill Trident Z Neo F5 6000mhz, Gigabyte GeForce RTX 4070 Ti EAGLE OC 12G
Verwijderd
Klopt had ook het verkeerde filmpje gepost en die juiste nu toegevoegd, my bad. Deze is met een te Zwakker cpu getest vermoed ik of het was nog voor de patch?
[ Voor 12% gewijzigd door Verwijderd op 17-09-2015 13:25 ]
Edit: Sp3ci3s8472 heeft gelijk.
[ Voor 94% gewijzigd door DonnyL op 17-09-2015 13:50 ]
offtopic:
Maak anders een apart topic hiervoor aan waarin jullie de performance van Batman kunnen bespreken?
Het voegt niet heel veel toe aan de discussie.
Maak anders een apart topic hiervoor aan waarin jullie de performance van Batman kunnen bespreken?
Het voegt niet heel veel toe aan de discussie.
Net even Grid 2 getest met 1 r9 295x2 en 2x r9 295x2, over de scaling van CF ben ik zeer te spreken.
Met 1 r9 295x2
http://imgur.com/azTnZF9
Met 2x r9 295x2
http://imgur.com/fvtEiU4
Settings zijn helemaal maxed out op 7860x1440 resolutie.
Edit: afbeeldingen aangepast
Met 1 r9 295x2
http://imgur.com/azTnZF9
Met 2x r9 295x2
http://imgur.com/fvtEiU4
Settings zijn helemaal maxed out op 7860x1440 resolutie.
Edit: afbeeldingen aangepast
[ Voor 30% gewijzigd door dylan111111 op 17-09-2015 14:54 ]
Dropbox screenshots zijn zo vervelend, ik maak er geen gebruik van dus kan ze niet zien
imgur ofzo ?
Oke ik heb hem niet helemaal maxed out, ik heb de gameworks shit uitgeschakeld (niet eens getest met overigens):
http://imgur.com/mVVvg9q
Betreft overigens mijn HTPC, welke eigenlijk ook fungeert als game pc atm mijn eigenlijke game pc is blijven hangen op een 4850
[ Voor 53% gewijzigd door spNk op 18-09-2015 00:38 ]
Verwijderd
Word de 4000 series nog wel eens ondersteund? Mijn zwager heeft de 4850x2 weg gedaan vanwege geen driver ondersteuning voor die kaart.
haast niet meer nee, prioriteit van die serie is laag. 5000 wordt nog wel volop meegenomen met drivers.Verwijderd schreef op vrijdag 18 september 2015 @ 08:23:
Word de 4000 series nog wel eens ondersteund? Mijn zwager heeft de 4850x2 weg gedaan vanwege geen driver ondersteuning voor die kaart.
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
De HD 4000-series heeft geen Windows 10 support meer, deze is wel 7 jaren oud.
http://support.amd.com/en...Win10-Driver-Support.aspx
http://support.amd.com/en...Win10-Driver-Support.aspx
AMD Radeon R9 Nano 4 GB review @ TechPowerUp
http://www.techpowerup.com/reviews/AMD/R9_Nano/
http://www.techpowerup.com/reviews/AMD/R9_Nano/
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Er zijn prima werkende drivers voor, die zijn wel zo'n beetje uitgekristalliseerd. Daarom zijn ze gestopt nog moeite te stoppen in die kaarten, ook omdat ze steeds minder relevant zijn.Verwijderd schreef op vrijdag 18 september 2015 @ 08:23:
Word de 4000 series nog wel eens ondersteund? Mijn zwager heeft de 4850x2 weg gedaan vanwege geen driver ondersteuning voor die kaart.
Verwijderd
Hoe zit het met game ondersteuning voor bijvoorbeeld games die nu uitkomen. Ik vond et apart te lezen dat Batman gewoon werkt op een 4000 serie dus er word nog wel het een en ander mee genomen vooroudere kaarten?SpankmasterC schreef op vrijdag 18 september 2015 @ 09:40:
[...]
Er zijn prima werkende drivers voor, die zijn wel zo'n beetje uitgekristalliseerd. Daarom zijn ze gestopt nog moeite te stoppen in die kaarten, ook omdat ze steeds minder relevant zijn.
Met games die nu uitkomen is het een beetje hopen dat ze het doen. Als een game het niet doet, of niet goed, dan is het pech. Zo af en toe zal er nog een driver uitkomen, maar zal niet vaker dan 1x per jaar zijn.Verwijderd schreef op vrijdag 18 september 2015 @ 09:47:
[...]
Hoe zit het met game ondersteuning voor bijvoorbeeld games die nu uitkomen. Ik vond et apart te lezen dat Batman gewoon werkt op een 4000 serie dus er word nog wel het een en ander mee genomen vooroudere kaarten?
Dus tja, als het werkt: mooi! Als het niet werkt, shit!
Wel maffe verschillen bij Assassins Creed Unity en Tomb Raider tussen de 2560x1440 en 3840x2160 ?-The_Mask- schreef op vrijdag 18 september 2015 @ 09:37:
AMD Radeon R9 Nano 4 GB review @ TechPowerUp
http://www.techpowerup.com/reviews/AMD/R9_Nano/
@The Mask, idd zie nu dat het de AA is.
[ Voor 6% gewijzigd door enchion op 18-09-2015 10:47 ]
How do you save a random generator ?
Je bedoeld dat het aantal frames gelijk is of zelfs hoger bij 3840x2160? Komt door AA.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Die game eet op 1080p ook al 4gb vram op maar volgens mij zorgt het niet voor hickups bij videokaarten die te minder vram hebben maar kan er naast zitten? Wel een hele goede review.
Ik zag de modbreak ook zal me inderdaad wat proberen in te houden maar goed afkicken helpt daar bij niet echt mee maar zal er wat aan doen. Gewoon niet in gaan op trolls.
Ik zag de modbreak ook zal me inderdaad wat proberen in te houden maar goed afkicken helpt daar bij niet echt mee maar zal er wat aan doen. Gewoon niet in gaan op trolls.
[ Voor 35% gewijzigd door Verwijderd op 18-09-2015 10:56 ]
Wow.
Even een afbeelding van ze jatten:

Met dat verbruik presteert hij nagenoeg identiek aan een "gewone" Fury (non-X) of een 980 (non-Ti). Maar dat met een TDP / power limit van 100W minder - waardoor hij gemiddeld rond de 900 MHz zit volgens TPU, wat gewoon een underclock van 15% is.
Die DX11 bottleneck wordt nu pijnlijk duidelijk. Hoeveel pure rekenkracht zit er wel niet in Fiji verscholen?
Even een afbeelding van ze jatten:

Met dat verbruik presteert hij nagenoeg identiek aan een "gewone" Fury (non-X) of een 980 (non-Ti). Maar dat met een TDP / power limit van 100W minder - waardoor hij gemiddeld rond de 900 MHz zit volgens TPU, wat gewoon een underclock van 15% is.
Die DX11 bottleneck wordt nu pijnlijk duidelijk. Hoeveel pure rekenkracht zit er wel niet in Fiji verscholen?
http://www.techpowerup.com/reviews/AMD/R9_Nano/-The_Mask- schreef op vrijdag 18 september 2015 @ 09:37:
AMD Radeon R9 Nano 4 GB review @ TechPowerUp
http://www.techpowerup.com/reviews/AMD/R9_Nano/
Ik begrijp deze zin niet echt:
AMD is placing this card as a "co-flagship" entry into its product-stack, right up with the Radeon R9 Fury X. The two products share the $649 price-tag. Think of this as AMD's attempt at a halo product akin to NVIDIA's GTX TITAN family because NVIDIA has absolutely no answer to this product.
NVidia heeft geen echt antwoord in deze in deze klasse met deze prestatie maar de rest is nogal gibberish voor mij.
"Zie het als een poging van AMD om een halo product (hoogste kwaliteit) op de markt te zetten zoals nVidia's Titan kaarten"
Feitenlijk is de Nano de best presterende mini-ITX kaart die je kunt kopen en daarom vindt AMD dat de kaart best wel wat extra's mag kosten, zoals ook de Titan kaarten wat extra's kosten.
Feitenlijk is de Nano de best presterende mini-ITX kaart die je kunt kopen en daarom vindt AMD dat de kaart best wel wat extra's mag kosten, zoals ook de Titan kaarten wat extra's kosten.
Ja dan dacht ik vrij omslachtig, met Titan family dacht ik meer als in de richting van Titan chip GM200 dus ook de GTX 980 TI oid daarom snapte ik het verband niet en wist ik niet waar ze het over hadden.dahakon schreef op vrijdag 18 september 2015 @ 12:55:
"Zie het als een poging van AMD om een halo product (hoogste kwaliteit) op de markt te zetten zoals nVidia's Titan kaarten"
Feitenlijk is de Nano de best presterende mini-ITX kaart die je kunt kopen en daarom vindt AMD dat de kaart best wel wat extra's mag kosten, zoals ook de Titan kaarten wat extra's kosten.
Leuk om te zien dat de 290x het steeds beter doet-The_Mask- schreef op vrijdag 18 september 2015 @ 09:37:
AMD Radeon R9 Nano 4 GB review @ TechPowerUp
http://www.techpowerup.com/reviews/AMD/R9_Nano/
Wat ik wel mis bij de reviews is dat ze er nooit Mantle resultaten naast posten. Als je geen Mantle gebruikt wees dan ook zo consistent en zet dan alle gameworks dingen uit.
De Nano is in feite gewoon een kleine Fury non-x als je naar de performance kijkt. Gezien die kaart 550 kost dan is 100 meer voor een Nano nog enigzins goed te praten, als je een sterke kaart in een mini-itx kast wil dan kan je weinig anders
Oudere GTX 970 review https://www.techpowerup.c...SI/GTX_970_Gaming/27.htmlSp3ci3s8472 schreef op vrijdag 18 september 2015 @ 13:59:
[...]
Leuk om te zien dat de 290x het steeds beter doet, even snel als een GTX 970. Als je dan droevige gevallen zoals Project Cars uit de resultaten zou houden dan is hij sneller.
Wat ik wel mis bij de reviews is dat ze er nooit Mantle resultaten naast posten. Als je geen Mantle gebruikt wees dan ook zo consistent en zet dan alle gameworks dingen uit.
De Nano is in feite gewoon een kleine Fury non-x als je naar de performance kijkt. Gezien die kaart 550 kost dan is 100 meer voor een Nano nog enigzins goed te praten, als je een sterke kaart in een mini-itx kast wil dan kan je weinig anders.
1080p 970 3% sneller dan R9 290x
1440p 970 3% langzamer dan R9 290x
4k 970 5% langzamerdan R9 290x
nano review http://www.techpowerup.com/reviews/AMD/R9_Nano/30.html
1080p 970 5% sneller dan R9 290x
1440p gelijk
4k 970 3% langzamer dan R9 290x
Ik zie dat de GTX 970 steeds sneller wordt ten opzichte van de R9 290X of zie ik dat verkeerd?
[ Voor 0% gewijzigd door Nature op 18-09-2015 14:28 . Reden: tikfout ]
Verwijderd
Kijk eens naar de driver versies Die eerste is 344 van nvidia en stamt uit 2014 en bij die nieuwe review 353 is van een paar maand terug en we zitten nu al op 355
[ Voor 25% gewijzigd door Verwijderd op 18-09-2015 14:35 ]
Logisch het is een oudere review die het verschil juist duidelijk maakt, oude driver vs oude driver, nieuwe driver vs nieuwe driver.
Hij wilt aangeven dat de R9 290X beter wordt dan de GTX970 over tijd wat dus volgens benchmarks niet zo is.
Hij wilt aangeven dat de R9 290X beter wordt dan de GTX970 over tijd wat dus volgens benchmarks niet zo is.
Net even zitten rekenen. In de tijd sinds mijn tweedehand HD7950 zijn ze behoorlijk efficiënter geworden met gebruik van het die oppervlak. De die size is met 170% toegenomen, het aantal transistors per mm2 met 212%. Nvidia ook natuurlijk, maar om aan te geven dat ze nog best wat hebben weten te vinden binnen 28nm
Niettemin ga ik het lekker uitzingen tot eind volgend jaar, en dan in een keer over naar een 14nm GPU.
Als je dit leest, heb je teveel tijd.
Het is niet met dezelfde games getest, dus om hier een uitspraak over te doen, moet je de gemiddelden zelf uitrekenen met de games die in beide reviews voorkomen.Nature schreef op vrijdag 18 september 2015 @ 14:17:
Ik zie dat de GTX 970 steeds sneller wordt ten opzichte van de R9 290X of zie ik dat verkeerd?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Zoals ik al zei Project Cars. Ik kijk naar de individuele scores niet, naar het gemiddelde scores want die kun je niet vergelijken omdat ze steeds met andere games testen.Nature schreef op vrijdag 18 september 2015 @ 14:17:
[...]
Oudere GTX 970 review https://www.techpowerup.c...SI/GTX_970_Gaming/27.html
1080p 970 3% sneller dan R9 290x
1440p 970 3% langzamer dan R9 290x
4k 970 5% langzamerdan R9 290x
nano review http://www.techpowerup.com/reviews/AMD/R9_Nano/30.html
1080p 970 5% sneller dan R9 290x
1440p gelijk
4k 970 3% langzamer dan R9 290x
Ik zie dat de GTX 970 steeds sneller wordt ten opzichte van de R9 290X of zie ik dat verkeerd?
https://www.techpowerup.c...SI/GTX_970_Gaming/14.html
http://www.techpowerup.com/reviews/AMD/R9_Nano/14.html
De 290x heeft percentueel er meer bij gekregen. De GTX 970 heeft er 1fps bijgekregen, de 290x 4, dus iets van 9% winst voor de 290x ten opzichte van de oude resultaten.
[ Voor 0% gewijzigd door Sp3ci3s8472 op 18-09-2015 15:59 . Reden: blegh nederlands ]
Volgens TSMC schaalt haar 10nm-node met een factor 0.52x t.o.v. 20nm, en qua verbruik zou het vergelijkbaar moeten zijn met de overstap van 20 naar 16nm.
Of het in 2016 in productie gaat zoals men claimt, zullen we nog wel zien. TSMC heeft een geschiedenis met veel te optimistische roadmaps.
Edit: Gerucht gaat dat de A11 in de iPhone van eind 2017 gaat zitten, dus videokaarten zullen wellicht pas in 2018 volgen.
Of het in 2016 in productie gaat zoals men claimt, zullen we nog wel zien. TSMC heeft een geschiedenis met veel te optimistische roadmaps.
Edit: Gerucht gaat dat de A11 in de iPhone van eind 2017 gaat zitten, dus videokaarten zullen wellicht pas in 2018 volgen.
[ Voor 15% gewijzigd door witeken op 18-09-2015 16:56 ]
“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand
Verwijderd
Ik hoop, maar schat de kans klein, dat AMD de r9 400 serie op 16/14 nm gaat maken , maar dan al wat vroeger dan normaal gaat laseren, ergens in January bijv. Omdat we nu heel lang op 28nm zitten, en omdat Nvidia pascal rond die tijd uit komt. En omdat een groot deel van de r7/9 serie nog op GCN 1.0 architectuur zitten.
Verwijderd
De msi gaming heeft ook 1,279mhz boost en de stock gtx970 1,178 boostSp3ci3s8472 schreef op vrijdag 18 september 2015 @ 15:52:
[...]
Zoals ik al zei Project Cars. Ik kijk naar de individuele scores niet, naar het gemiddelde scores want die kun je niet vergelijken omdat ze steeds met andere games testen.
https://www.techpowerup.c...SI/GTX_970_Gaming/14.html
http://www.techpowerup.com/reviews/AMD/R9_Nano/14.html
De 290x heeft percentueel er meer bij gekregen. De GTX 970 heeft er 1fps bijgekregen, de 290x 4, dus iets van 9% winst voor de 290x ten opzichte van de oude resultaten.
De stock is dus in die tijd net zo snel geworden als de MSI gaming gezien de stock word meegenomen in de benchmark van de nano of zie ik nu wat over het hoofd?
[ Voor 10% gewijzigd door Verwijderd op 18-09-2015 17:32 ]
"Groot deel"Verwijderd schreef op vrijdag 18 september 2015 @ 17:05:
Ik hoop, maar schat de kans klein, dat AMD de r9 400 serie op 16/14 nm gaat maken , maar dan al wat vroeger dan normaal gaat laseren, ergens in January bijv. Omdat we nu heel lang op 28nm zitten, en omdat Nvidia pascal rond die tijd uit komt. En omdat een groot deel van de r7/9 serie nog op GCN 1.0 architectuur zitten.
Ja, de 2xx-generatie. (alles behalve de 290(x) en 285)
360 GCN 1.1
370(x) GCN 1.0
380(x) GCN 1.2
390(x) GCN 1.1
Fury GCN 1.2
Ik verwacht juist dat ze op 16/14nm komen. Ze hebben al tape-outs gehad.
[ Voor 0% gewijzigd door LongBowNL op 18-09-2015 19:42 . Reden: X-en toegevoegd ]
Ja, alleen de 370 idd, die hadden ze dan ook beter weg kunnen laten wat mij betreft.
Mechwarrior Online: Flapdrol
Vergeet de 370X en 380X niet
Graphene; a material that can do everything, except leave the lab. - Asianometry
De 380X wordt denk dezelfde chip als de 380, maar dan zonder cuts.
Mechwarrior Online: Flapdrol
370X is ook gewoon een complete 370.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Weggelaten omdat ze op de dezelfde chip zijn gebaseerd, maar inderdaad voor de volledigheid hadden ze erbij gekund.
@hieronder
Inderdaad, aangepast

[ Voor 6% gewijzigd door LongBowNL op 18-09-2015 19:48 ]
390 en 390X zijn toch ook op dezelfde chip gebaseerd?
Graphene; a material that can do everything, except leave the lab. - Asianometry
Bij Crysis? Je refereerde naar de Nano benchmark dus ik vergeleek de nano R9 290X benchmark met de GTX970 benchmark en dan zie je het resultaat van wat ik eerder zei, trek daar Project cars evt vanaf zie je dat er niets veranderd is.Sp3ci3s8472 schreef op vrijdag 18 september 2015 @ 15:52:
[...]
Zoals ik al zei Project Cars. Ik kijk naar de individuele scores niet, naar het gemiddelde scores want die kun je niet vergelijken omdat ze steeds met andere games testen.
https://www.techpowerup.c...SI/GTX_970_Gaming/14.html
http://www.techpowerup.com/reviews/AMD/R9_Nano/14.html
De 290x heeft percentueel er meer bij gekregen. De GTX 970 heeft er 1fps bijgekregen, de 290x 4, dus iets van 9% winst voor de 290x ten opzichte van de oude resultaten.
Ik zou het wel grappig vinden hoor van dat de R9 290X er performance bij kreeg. Misschien krijgt hij dat wel of heeft hij dat evt wel gekregen. Maar TPU vs TPU benchmark is er weinig tot niets veranderd al dan niet in de GTX970 zijn voordeel ware het niet op de al dan niet vuile manier door middel van Gameworks van project cars, het blijft een game die meegenomen kan worden in een benchmark.
Nature schreef op vrijdag 18 september 2015 @ 22:51:
[...]
Bij Crysis? Je refereerde naar de Nano benchmark dus ik vergeleek de nano R9 290X benchmark met de GTX970 benchmark en dan zie je het resultaat van wat ik eerder zei, trek daar Project cars evt vanaf zie je dat er niets veranderd is.
Ik zou het wel grappig vinden hoor van dat de R9 290X er performance bij kreeg. Misschien krijgt hij dat wel of heeft hij dat evt wel gekregen. Maar TPU vs TPU benchmark is er weinig tot niets veranderd al dan niet in de GTX970 zijn voordeel ware het niet op de al dan niet vuile manier door middel van Gameworks van project cars, het blijft een game die meegenomen kan worden in een benchmark.
Je hebt het berekend?-The_Mask- schreef op vrijdag 18 september 2015 @ 15:22:
[...]
Het is niet met dezelfde games getest, dus om hier een uitspraak over te doen, moet je de gemiddelden zelf uitrekenen met de games die in beide reviews voorkomen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nee deze species neemt een benchmark van TPU van de nano waar de R9 290X in voor komt en ik de GTX 970 van dezelfde site TPU, je zegt uitgerekent maar dude? Het is nietszeggend hij vergelijkt het met de GTX 970 van wanneer? De Benchmark die hij laat zien staat de GTX 970 er beter voor dus... het enige verschil is daadwerkelijk Project cars, ik zou graag willlen dat het anders was dan zou ik er mss wat enthousiast van worden maar ik denk dat er niets aan de hand is.
[ Voor 0% gewijzigd door Nature op 19-09-2015 02:59 . Reden: Wat warrigheid na vrijdagmiddag borrel ]
Ik gooi het wel even in een Excelletje, ben best nieuwsgierig naar de feiten.
Vergelijking GTX 970 en R9 290X december 2014 en september 2015
Disclaimer:
Ik ben geen betaalde analist dus vergeef telfoutjes/formuledenkfouten. Laat het me weten als ik het kan verbeteren. De framerates zijn afgerond op 1 decimaal na de komma, de procenten zijn afgerond naar gehele getallen. In mijn ogen vallen 1 à 2% onder de foutmarge.
Aan de setup van beide test-systemen van TPU is er niets veranderd buiten de driver. De cijfers zijn van de reference-kaarten genomen. Interessant vond ik om de Nano erbij te doen om te zien hoe die het doet tov. een R9 290X.
Bronnen:
https://www.techpowerup.c...MSI/GTX_970_Gaming/5.html
https://www.techpowerup.com/reviews/AMD/R9_Nano/5.html
Conclusie:

Je ziet twee grote blokken: Averages met Different Games en Averages met Same Games.
- Different Games zijn de cijfers waar de games van de Rev. 35 vergeleken worden met Rev. 39 van TPU.
Dit betekent dat de volgende games zijn toegevoegd: Assassin's Creed Unity (vervangt AC4), Dragon Age: Inquistion, Far Cry 4 (vervangt FC3), Grand Theft Auto V, Project CARS (vervangt GRID 2), The Witcher 3 en World of Warcraft: WoD (vervangt WoW:MoP).
Dit toont de impact van de nieuwere games op de oudere generatie GPUs. - Same Games zijn enkel de cijfers die tussen beide revisies overeenkomen, dus exclusief de games die zijn toegevoegd en exclusief de games die zijn verwijderd.
Hier zie waar de discussie hierboven door ontstaan is: hoeveel verschilt de performance in de laatste 9 maanden.
Je ziet bij de Geforce kaarten dan weer meer performance-verschil op 4K, waar het wat ontbrak. Maar uiteindelijk scheelt het voor de Radeon en Geforce kaarten maar een paar procenten, wat misschien wel door game-patches veroorzaakt kan zijn geweest.
Als we echter kijken naar het verschil tussen de games van 2014 en de games van 2015, dan zien we dat de 290X het toch wel moeilijker heeft dan beide Geforce kaarten op 4K. Vreemd genoeg is de 290X de kaart op 1080p beter gesteld in 2015, dit toont mogelijk dat de kaart zelfs in 2016 nog relevant blijft in DX11 met 1080p.
De R9 390X (8GB) is met de natte vinger ongeveer 10% sneller dan de 290X (4GB), wat het verschil met de GTX 980 voor een groot deel teniet doet, zeker in de nieuwere games.
PDF van de Excel file op aanvraag, tenzij iemand me een veilige, gratis online storage kan aanbieden. T.net heeft alleen privé storage zo te zien. Vooral COD: AW is hier met 18% minder performance opmerkelijk.
Prijzen: als we het prijsverloop mee in acht nemen, kunnen we heel andere conclusies trekken:
(gekozen op leverbaarheid 2014-2015 en basic uitvoering)
Voorbeeld GTX 970: pricewatch: EVGA GeForce GTX 970 4GB ACX 2.0
Voorbeeld GTX 980: pricewatch: Gigabyte GV-N980WF3OC-4GD
Voorbeeld R9 290X: pricewatch: Gigabyte GV-R929XOC-4GD
Wat we hier zien is dat de 290X, na zijn prijsaanpassing als reactie op de GTX 980, vrij stabiel is, ondanks de R9 390X die een paar maanden beschikbaar is voor ietsje meer. Echter de GTX 970 is zelfs duurder geworden, de GTX 980 is kort voor de nieuwe Radeon 300-series in prijs gedaald.
Als we dus kijken naar de waarde toen en nu, is de GTX 970 meer waarde voor zijn geld geweest in de periode nov 2014 -> sept 2015. Echter mogen we niet vergeten dat de R9 290X een jaar langer op de markt is geweest en dus geen slechte levensduur heeft waar hij waarschijnlijk 3 jaar later nog steeds relevant is. Ook de GTX 780 Ti doet het nog goed, maar die heeft nooit de prijs van 290X weten te bereiken en zit toch in hetzelfde vakje qua performance.
[ Voor 63% gewijzigd door Phuncz op 19-09-2015 10:31 ]
Hoe moeilijk is het om mijn post goed te lezen? Ik kijk naar de individuele spellen die hetzelfde zijn en heb Crysis 3 als voorbeeld genomen omdat dat het eerste in mij opkwam.Nature schreef op vrijdag 18 september 2015 @ 23:37:
Nee deze species neemt een benchmark van TPU van de nano waar de R9 290X in voor komt en ik de GTX 970 van dezelfde site TPU, je zegt uitgerekent maar dude? Het is nietszeggend hij vergelijkt het met de GTX 970 van wanneer? De Benchmark die hij laat zien staat de GTX 970 er beter voor dus... het enige verschil is daadwerkelijk Project cars, ik zou graag willlen dat het anders was dan zou ik er mss wat enthousiast van worden maar ik denk dat er niets aan de hand is.
In plaats van dat je mijn post ontkracht met een bron waarin je bewijst dat de GTX970 procentueel in titels die hetzelfde zijn meer winst heeft gekregen ga je kinderachtig doen, het is geen persoonlijke aanval
Je kan NIET kijken naar het gemiddelde van de benchmarks omdat er andere spellen worden gebruikt in beide benchmarks. Wat je wel kan doen is de titels afgaan die hetzelfde zijn en kijken hoe de oem GTX970 en oem 290x presteren. Je hebt niet eens de moeite genomen omdat te doen want anders had je wel een titel kunnen noemen waarin de GTX970 beter presteerd in de nieuwe test (want die zit er ook tussen).
Ik nam Project Cars als voorbeeld van een van de spellen die anders is, er zijn er obviously meer.
Mooie post Phunc (zal wel wat werk hebben gekost
Thx ! 2 uurtjes zo te zien aan de post- en edit-tijdenSp3ci3s8472 schreef op zaterdag 19 september 2015 @ 14:14:
Mooie post Phunc (zal wel wat werk hebben gekost). Dit laat zien dat ik niet helemaal correct zat en dat de kaart er op 4k dus niet vooruit op is gegaan maar alleen op lage resoluties. Klopt ook best wel met wat je zou verwachten van de highend AMD kaarten omdat die vaak op lagere resoluties een cpu bottleneck hebben.
Ik zou ook verwacht hebben dat ze op 4K beter zouden presteren later maar ik vermoed dat AMD zijn focus legt op de probleemsituatie (<4K) wat Nvidia juist omgekeerd doet. Maar dan nog zijn de verschillen behoorlijk minimaal met wat drivers (en mogelijk patches) hebben veroorzaakt. Het komt erop neer dat er weinig behaald is in die 9 maanden, maar dat kan met DX12 wel eens heel anders uitpakken.
Dat lijkt me wel veel moeilijker om bij te houden aangezien een engine ofwel geschreven is voor DX11 ofwel DX12 en ze onwaarschijnlijk voor beide geoptimaliseerd zullen zijn. En VR gaat het speelveld ook nog eens verstoren met 75-90Hz vereisten op >FullHD resoluties, maar met een zo laag mogelijke latency, wat alwéér een specifieke target is. Zeker aangezien de grote bedrijven nog steeds "oopsie per ongeluk" 30fps locked games uitbrengen.

Je hebt idd aangegeven dat AMD naarmate tijd verstrekt beter gaat lopen met oudere games maar wat ik wou zeggen is dat de GTX970 toen sneller was op 1080p dan de R9 290X en dat hij dat nog steeds is.Ik bekijk het vanuit een consumenten oogpunt je koopt een kaart voor GTA 5 etc niet voor Crysis 3 een game van februari 2013.Sp3ci3s8472 schreef op zaterdag 19 september 2015 @ 14:14:
[...]
Hoe moeilijk is het om mijn post goed te lezen? Ik kijk naar de individuele spellen die hetzelfde zijn en heb Crysis 3 als voorbeeld genomen omdat dat het eerste in mij opkwam.
In plaats van dat je mijn post ontkracht met een bron waarin je bewijst dat de GTX970 procentueel in titels die hetzelfde zijn meer winst heeft gekregen ga je kinderachtig doen, het is geen persoonlijke aanval.
Je kan NIET kijken naar het gemiddelde van de benchmarks omdat er andere spellen worden gebruikt in beide benchmarks. Wat je wel kan doen is de titels afgaan die hetzelfde zijn en kijken hoe de oem GTX970 en oem 290x presteren. Je hebt niet eens de moeite genomen omdat te doen want anders had je wel een titel kunnen noemen waarin de GTX970 beter presteerd in de nieuwe test (want die zit er ook tussen).
Ik nam Project Cars als voorbeeld van een van de spellen die anders is, er zijn er obviously meer.
Mooie post Phunc (zal wel wat werk hebben gekost). Dit laat zien dat ik niet helemaal correct zat en dat de kaart er op 4k dus niet vooruit op is gegaan maar alleen op lage resoluties. Klopt ook best wel met wat je zou verwachten van de highend AMD kaarten omdat die vaak op lagere resoluties een cpu bottleneck hebben.
Dat is wat ik wilde zeggen met het mijn eerste post toen de GTX970 uitkwam was hij sneller op 1080p met de toenmalige games en met de huidige is hij nog sneller dan toen, dat valt bij mij niet echt als iets iets positiefs uit te leggen, maarja bij wat individele spellen is de voorsprong minder geworden.
Eigenlijk is het misschien wel hetzelfde als zeggen dat het goed is dat AMD slechte drivers heeft want dan kunnen ze alleen maar beter worden, nvidia haar drivers zijn goed en de prestaties zullen over tijd ook niet veel veranderen zoals dus AMD.
Ik weet niet precies wat je bedoelt met kinderachtig, en als ik zonder dat ik het door had iets verkeerd tegen je heb gezegd dan zeg ik sorry, maar als het is om wat ik denk dat je bedoelt namelijk dat ik zei
"deze species'' toen ik mijn post opende dan was dat niet slecht bedoelt hier waar ik woon is dat een normale omgangsvorm, zoals deze beste man oid. Ik voelde me ook niet aangevallen door jou.
Dan zaten we langs elkaar heen te praten. Vanuit consumenten perspectief heb je inderdaad wel een punt, alleen is de GTX970 een nieuwere generatie en is de 290(x) de tegenstander van de GTX780(Ti). In dat opzicht is het leuk voor de consument om te zien dat ze destijds even snel waren op 1080p en nu wat sneller en in de buurt komen van een nieuwere en in begin toch snellere kaart.Nature schreef op zaterdag 19 september 2015 @ 19:11:
[...]
Je hebt idd aangegeven dat AMD naarmate tijd verstrekt beter gaat lopen met oudere games maar wat ik wou zeggen is dat de GTX970 toen sneller was op 1080p dan de R9 290X en dat hij dat nog steeds is.Ik bekijk het vanuit een consumenten oogpunt je koopt een kaart voor GTA 5 etc niet voor Crysis 3 een game van februari 2013.
Dat is wat ik wilde zeggen met het mijn eerste post toen de GTX970 uitkwam was hij sneller op 1080p met de toenmalige games en met de huidige is hij nog sneller dan toen, dat valt bij mij niet echt als iets iets positiefs uit te leggen, maarja bij wat individele spellen is de voorsprong minder geworden.
Eigenlijk is het misschien wel hetzelfde als zeggen dat het goed is dat AMD slechte drivers heeft want dan kunnen ze alleen maar beter worden, nvidia haar drivers zijn goed en de prestaties zullen over tijd ook niet veel veranderen zoals dus AMD.
Overreactie dusIk weet niet precies wat je bedoelt met kinderachtig, en als ik zonder dat ik het door had iets verkeerd tegen je heb gezegd dan zeg ik sorry, maar als het is om wat ik denk dat je bedoelt namelijk dat ik zei
"deze species'' toen ik mijn post opende dan was dat niet slecht bedoelt hier waar ik woon is dat een normale omgangsvorm, zoals deze beste man oid. Ik voelde me ook niet aangevallen door jou.
Ik denk dat de 970 en 290x is misschien niet de beste kaarten zijn om dit te vergelijken. Wel goed werk trouwens!
Je kunt beter kijken naar de 680/770 vs 7950/7970/280(x). Daar zijn de verschillen een stuk groter tussen.
Je kunt beter kijken naar de 680/770 vs 7950/7970/280(x). Daar zijn de verschillen een stuk groter tussen.
XFX Radeon Fury met waterkoeler



XFX Radeon Fury met luchtkoeler




XFX Radeon Fury met luchtkoeler


[ Voor 27% gewijzigd door -The_Mask- op 22-09-2015 00:15 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Misschien een domme vraag maar is de fury nano gpu ook niet goed geschikt voor laptops?
Het is namelijk al een klein dingetje dus klein in klein moet kunnen?
Het is namelijk al een klein dingetje dus klein in klein moet kunnen?
Eén zou moeten kunnen al wordt zo'n laptop dan wel een redelijk dik en zwaar ding door de benodigde koeling. Wordt dan meer een desktop in een hele platte behuizing met scherm, toetsenbord en touchpad geïntegreerd.
[ Voor 37% gewijzigd door -The_Mask- op 22-09-2015 16:46 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Gaming laptops zijn niet nieuw hoor, Asus, MSI en Alienware hebben er redelijk wat. Dat de koeling een laptop dik en zwaar maakt is dan ook geen nieuw gegeven.
Ik zie niet waarom een Nano niet in een laptop gebruikt kan worden. In theorie is HBM zelfs voordelig voor het formaat voor MXM, maar er moet ook wel interesse in zijn.
Ik zie niet waarom een Nano niet in een laptop gebruikt kan worden. In theorie is HBM zelfs voordelig voor het formaat voor MXM, maar er moet ook wel interesse in zijn.
Een MXM slot is niet bedoeld voor zo'n hoog verbruik, maximale verbruik is in principe 100W voor MXM 3.0 type B en MXM 3.1, sommige high-end MXM kaarten gaan daar wel iets overheen. Maar de Radeon Nano zit qua verbruik toch in een veel hogere klasse, als je dan de prestaties zover gaat afknijpen dat je rond de 100W uitkomt dan gaat dit wel erg ten koste van de prestaties natuurlijk.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hmm dan zal het een custom boardje moeten worden, maar aangezien men de GTX 980 in een laptop wil duwen, moet een R9 Nano ook wel lukken.
Ik denk ook dat 100W te ver gegrepen is voor de Nano, er is al veel verbruik gereduceerd tov. de Fury X.
Ik denk ook dat 100W te ver gegrepen is voor de Nano, er is al veel verbruik gereduceerd tov. de Fury X.
Als je kijkt naar techpowerup zit een r9 nano maar 30W boven een 980. Op zich zou het moeten kunnen, maar misschien heeft het geen zin, dat als je een nano terugklokt naar 980 prestaties hij nog steeds meer verbruikt dan een 980.
Mechwarrior Online: Flapdrol
Een Radeon R9 Nano is al een afgeknepen Fiji GPU, nog veel verder afknijpen is gewoon niet slim. Als je hem op de 100W wil krijgen dan krijg je waarschijnlijk niet een veel betere performance/watt, denk dat je dan onder de sweetspot zit.
Je gaat ook geen GTX 980 Ti of R9 290X/390X helemaal afknijpen naar 100W, dat werkt gewoon niet.
Je gaat ook geen GTX 980 Ti of R9 290X/390X helemaal afknijpen naar 100W, dat werkt gewoon niet.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kun je er beter een egpu van maken, in zo'n strak behuizinkje, hoewel daar natuurlijk ook een hoop beperkingen voor bestaan.
En wil je het goed doen, de kosten ook niet mals zullen zijn, buiten de vga, oh wacht dit is het DIY topic niet
En wil je het goed doen, de kosten ook niet mals zullen zijn, buiten de vga, oh wacht dit is het DIY topic niet
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Halve Nano (R9 280X) zou toch ook al heel interessant zijn voor laptops?
Graphene; a material that can do everything, except leave the lab. - Asianometry
Je bedoeld Tonga i.p.v. Tahiti neem ik aan.
Die bestaat al natuurlijk, de AMD Radeon R9 M295X, Tonga met de volledige 2048 streamprocessors. Alleen geen HBM natuurlijk. Wat wel moet kunnen is een hele nieuwe Hawaii revisie met GCN3 (1.2) en HBM daarmee moet een MXM kaart wel haalbaar zijn, maar die zal normaliter niet komen.
Die bestaat al natuurlijk, de AMD Radeon R9 M295X, Tonga met de volledige 2048 streamprocessors. Alleen geen HBM natuurlijk. Wat wel moet kunnen is een hele nieuwe Hawaii revisie met GCN3 (1.2) en HBM daarmee moet een MXM kaart wel haalbaar zijn, maar die zal normaliter niet komen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Imho heeft AMD daarmee juist een fout begaan. Ze hadden meerdere HBM gpu's moeten maken; 1024, 2048, 3072 en 4096 streamprocessors. Elk met een gelijke hoeveelheid HBM (aan het aantal sp's).
Graphene; a material that can do everything, except leave the lab. - Asianometry
Ik denk dat de technologie (nu) te duur is om te gebruiken in de goedkopere kaarten.
[ Voor 11% gewijzigd door LongBowNL op 23-09-2015 11:18 ]
Als dat zo is dan is Fiji dus niets anders dan een test-vehikel zoals de HD 4770 voor 40nm was.
Graphene; a material that can do everything, except leave the lab. - Asianometry
niet helemaal mee eens, de HD 4770 was een relatief simpele kaart die in het high end gedeelte van het spectrum niet meedeed maar echt diende als een "test-vehikel"
de fury is natuurlijk een echte high end kaart waarbij de nieuwste en duurste technieken gebruikt zijn om tot het resultaat te komen. Gezien HBM zo nieuw is is het best waarschijnlijk dat dit inderdaad een te dure techniek is voor mid/low- end kaarten.
de fury is natuurlijk een echte high end kaart waarbij de nieuwste en duurste technieken gebruikt zijn om tot het resultaat te komen. Gezien HBM zo nieuw is is het best waarschijnlijk dat dit inderdaad een te dure techniek is voor mid/low- end kaarten.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Wat zou het voordeel zijn? Enige voordeel is een lager verbruik, meer performance zal je niet bij de andere producten krijgen. Enige andere voordeel is dan dat je Tahiti van GCN2 naar 3 kan brengen en Pitcairn van GCN naar GCN3. Maar is dat nu die hele dure investering waard? Nog buiten beschouwing gelaten dat de GPU's daar waarschijnlijk een stuk duurder van worden.NitroX infinity schreef op woensdag 23 september 2015 @ 11:16:
Imho heeft AMD daarmee juist een fout begaan. Ze hadden meerdere HBM gpu's moeten maken; 1024, 2048, 3072 en 4096 streamprocessors. Elk met een gelijke hoeveelheid HBM (aan het aantal sp's).
Of gewoon bittere noodzaak voor AMD met een GCN3 product met 4096 streamprocessors. De enige andere mogelijkheid was een 512 bit geheugenbus met 2GHz geheugenchips dan kom je ook op 512GB/s. Maar dat betekend dat het verbruik voor Fiji zo maar 100W hoger kan zijn en dat de videokaart zelf ook erg groot wordt. Denk niet dat iemand hierop zat te wachten.NitroX infinity schreef op woensdag 23 september 2015 @ 11:21:
Als dat zo is dan is Fiji dus niets anders dan een test-vehikel zoals de HD 4770 voor 40nm was.
[ Voor 4% gewijzigd door -The_Mask- op 23-09-2015 11:43 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Lijkt me dat ze maar 1 chip gemaakt hebben om vast te experimenteren met HBM. Meerdere chips is de moeite niet waard aangezien iedereen de overgang naar een nieuw proces aan zag komen. Straks hebben ze dus een oud design op een nieuw proces, met de nodige tweaks uiteraard. Net iets anders dan de 4770 destijds was.
Lang leve de patenten en hun hulp in het helpen van de vooruitgang van technologie!!!



Fable Legends Early Preview: DirectX 12 Benchmark Analysis
Hele mooie resultaten voor de 290x, loopt rondjes om een GTX970. Ook leuk om te zien dat een standaard HD7970 een stukje sneller is dan een GTX680
Zou een 280x dan in de buurt komen van een GTX780, ben benieuwd.
Moet overigens zeggen dat ik wat meer had gehoopt voor de Fury X, opzich niet verbazing wekkend dat deze minder winst heeft. Dit was ook al bij Ashes of the Singularity te zien in verhouding met de 290x.
[ Voor 39% gewijzigd door Sp3ci3s8472 op 24-09-2015 15:56 . Reden: dx12 benchmarks!! ]
Waar de Radeon GCN kaarten veel beter uitkomen in DX12 met Star Swarm (AMD supported game) dan de Nvidia kaarten, komen ze gelijkwaardig uit in DX12 met Fable (UE is Nvidia supported engine).
Dat maakt me optimistisch voor de toekomst met een AMD 290X kaartje.
Dat maakt me optimistisch voor de toekomst met een AMD 290X kaartje.
Bij PCper hebben ze nu als test mooie interactieve grafieken in de Fable Legends Benchmark: DX12 Performance Testing Continues
Alhoewel er nog wel een paar relatief forsere hiccups in zitten her en der tov nVidia, lijkt AMD de framerate variantie inmiddels behoorlijk onder controle te hebben. Buiten de hiccups om is het zelfs strakker dan nVidia.
Alhoewel er nog wel een paar relatief forsere hiccups in zitten her en der tov nVidia, lijkt AMD de framerate variantie inmiddels behoorlijk onder controle te hebben. Buiten de hiccups om is het zelfs strakker dan nVidia.
[ Voor 12% gewijzigd door Help!!!! op 24-09-2015 19:14 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Hier zie je een andere test met Fable DX12... AMD toch echt the better choise https://www.extremetech.c...test-directx-12-benchmark
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Indien je alleen maar DX12 spellen gaat spelen dan zou ik dus nooit voor een GTX980 gaan, die wordt door allemaal oude (en goedkopere) rebrands voorbij gelopen alsof het niets is.
Helaas vermelden ze bij extremetech het gebruikte systeem niet.
Helaas vermelden ze bij extremetech het gebruikte systeem niet.
Dit is wel erg slecht van MS en gooit gelijk een zak zout/zoutmijn naar alle vorige benchmarks die we gezien hebben.Uit de test van Extremetech
The next thing to check was power management — and this is where we found our smoking gun. We tested Windows 10 in its “Balanced” power configuration, which is our standard method of testing all hardware. While we sometimes increase to “High Performance” in corner cases or to measure its impact on power consumption, Windows can generally be counted on to handle power settings, and there’s normally no performance penalty for using this mode.
The benchmark is actively running in the screenshot above, with power conservation mode and clock speed visible at the same time. And while CPU clock speed isn’t the determining factor in most titles, clocking down to 1.17GHz is guaranteed to have an impact on overall frame rates. Switching to “High Performance” pegged the CPU clock between 3.2 and 3.3GHz — exactly where we’d expect it to be. It’s not clear what caused this problem — it’s either a BIOS issue with the Asus X99-Deluxe or an odd driver bug in Windows 10, but we’ve retested both GPUs in High Performance mode.
btw Powermanagement moet helemaal uitschakelbaar gemaakt worden op windows, wat het niet is, met betrekking op performance is power management niks anders dan een virus.
Kan me ook niet aan het idee onttrekken dat het invloed heeft op dingen als microstutter.
How do you save a random generator ?
Ik kwam het volgende tegen, klopt het dus dat Fable Legends op de pc dus geen gebruik maakt van Async Compute? Het zou wel zonde zijn.
Jammer, Epic wil het misschien wel implementeren. Mjah had dus niet anders verwacht, het blijft een Nvidia engine.
.
https://docs.unrealengine...t/AsyncCompute/index.htmlNope. Unreal Engine doesn't utilize Async Compute. Their Xbox version does though. Check the latest Unreal Engine demo benchmarks as well. They don't use Async Compute. I don't know if they'll EVER code in Async Compute due to their partnership with nvidia, but hopefully thirdparty developers will utilize that key feature. Otherwise, there will be very minimal gains to be had.
Jammer, Epic wil het misschien wel implementeren. Mjah had dus niet anders verwacht, het blijft een Nvidia engine.
Maar aan de andere kant, AMD heeft zo te zien geen Async Compute nodig om Nvidia te verslaan met in DX11 minder snelle kaartenThanks and Future
This feature was implemented by Lionhead Studios. We integrated it and indend to make use of it as a tool to optimize the XboxOne rendering.
As more more APIs expose the hardware feature we would like make the system more cross platform. Features that make use use AsyncCompute you always be able to run without (console variable / define) to run on other platforms and easier debugging and profiling. AsyncCompute should be used with caution as it can cause more unpredicatble performance and requires more coding effort for synchromization.
Dan smeren ze er in de final wel wat GW special sauce overheen, en ziet het er ineens weer anders uit
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Verwijderd
Het verbaast me al niet dat Nvidia iets sneller zou zijn in Unreal dx 12. Daar voor zijn ze bij AMD toch Ace's voor nodig om Nvidia bij te houden. Aan de andere kant loopt de performance ook nog eens verder uit een op 4k wat ik juist niet had verwacht.
Hierboven.
This benchmark focuses more on the GPU side of DirectX 12 - on improved rendering techniques and visual quality rather than on the CPU scaling aspects that made Ashes of the Singularity stand out from other graphics tests we have utilized. Fable Legends is more representative of what we expect to see with the release of AAA games using DX12. Let's dive into the test and our results!
Fable Legends is a gorgeous looking game based on the benchmark we have here in-house thanks in some part the modifications that the Lionhead Studios team has made to the UE4 DX12 implementation. The game takes advantage of Asynchronous Compute Shaders, manual resource barrier tracking and explicit memory management to help achieve maximum performance across a wide range of CPU and GPU hardware.
Hierboven.
This benchmark focuses more on the GPU side of DirectX 12 - on improved rendering techniques and visual quality rather than on the CPU scaling aspects that made Ashes of the Singularity stand out from other graphics tests we have utilized. Fable Legends is more representative of what we expect to see with the release of AAA games using DX12. Let's dive into the test and our results!
Fable Legends is a gorgeous looking game based on the benchmark we have here in-house thanks in some part the modifications that the Lionhead Studios team has made to the UE4 DX12 implementation. The game takes advantage of Asynchronous Compute Shaders, manual resource barrier tracking and explicit memory management to help achieve maximum performance across a wide range of CPU and GPU hardware.
[ Voor 95% gewijzigd door Verwijderd op 25-09-2015 06:52 ]
Maar geeft wel aan dat je met budged CPU en midrange of betere GPU toch ook stuk minder inkakt omdat je met AMD door ACE stuk minder CPU bound bent.enchion schreef op donderdag 24 september 2015 @ 22:08:
[...]
Dit is wel erg slecht van MS en gooit gelijk een zak zout/zoutmijn naar alle vorige benchmarks die we gezien hebben.
btw Powermanagement moet helemaal uitschakelbaar gemaakt worden op windows, wat het niet is, met betrekking op performance is power management niks anders dan een virus.
Kan me ook niet aan het idee onttrekken dat het invloed heeft op dingen als microstutter.
Met dikke CPU haal je de CPU boundness weg en worden de OC en ROP belangrijker. En 980ti bied van sommige eenheden stuk meer.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Dmv powermanagement kan je juist met langzamere hardware een hogere score halen dan met snellere.
Omdat langzamere hardware eerder tegen de processorbelasting aanzit waardoor hij in een hogere performance state wordt gezet. (door bv een hogere clocksnelheid of lagere idle stand)
Benchmarks zijn dan perfect nutteloos.
Omdat langzamere hardware eerder tegen de processorbelasting aanzit waardoor hij in een hogere performance state wordt gezet. (door bv een hogere clocksnelheid of lagere idle stand)
Benchmarks zijn dan perfect nutteloos.
How do you save a random generator ?
Verwijderd
Dat is denk ik een bios probleem want ik heb er geen last van onder windows 10 met mijn hardware omdat mijn CPU tijdens het gamen op volle snelheid blijft draaien in balans mode.
Edit
Owners of Freesync Monitors can enlarge Hz range with simple hack.
Met een simpele tutorial er bij.
http://www.guru3d.com/new...nge-with-simple-hack.html
Edit
Owners of Freesync Monitors can enlarge Hz range with simple hack.
Met een simpele tutorial er bij.
http://www.guru3d.com/new...nge-with-simple-hack.html
[ Voor 38% gewijzigd door Verwijderd op 25-09-2015 13:22 ]
Heb je ook een link met de bron daarvan? Dat werkt wat makkelijkerVerwijderd schreef op vrijdag 25 september 2015 @ 06:22:
Het verbaast me al niet dat Nvidia iets sneller zou zijn in Unreal dx 12. Daar voor zijn ze bij AMD toch Ace's voor nodig om Nvidia bij te houden. Aan de andere kant loopt de performance ook nog eens verder uit een op 4k wat ik juist niet had verwacht.
Hierboven.
This benchmark focuses more on the GPU side of DirectX 12 - on improved rendering techniques and visual quality rather than on the CPU scaling aspects that made Ashes of the Singularity stand out from other graphics tests we have utilized. Fable Legends is more representative of what we expect to see with the release of AAA games using DX12. Let's dive into the test and our results!
Fable Legends is a gorgeous looking game based on the benchmark we have here in-house thanks in some part the modifications that the Lionhead Studios team has made to the UE4 DX12 implementation. The game takes advantage of Asynchronous Compute Shaders, manual resource barrier tracking and explicit memory management to help achieve maximum performance across a wide range of CPU and GPU hardware.
Zover ik uit de documentatie kan opmaken werkt Async Compute momenteel alleen nog op de Xbox One DX12 versie. Tenzij Lionhead Studios zelf zegt dat Async Compute op de pc versie werkt ga ik er van uit dat ze het niet gebruiken.
Heb het dus verkeerd gelezen, de standaard UE4 ondersteunt dus alleen Async Compute op de Xbox One. Lionhead Studios maakt dus wel gebruik van Async Compute in DX12.
http://www.anandtech.com/...ctx-12-benchmark-analysis
The engine itself draws on DX12 explicit features such as ‘asynchronous compute, manual resource barrier tracking, and explicit memory management’ that either allow the application to better take advantage of available hardware or open up options that allow developers to better manage multi-threaded applications and GPU memory resources respectively. The updated engine has had several additions to implement these visual effects and has promised that use of DirectX 12 will help to improve both the experience and performance.
[ Voor 21% gewijzigd door Sp3ci3s8472 op 25-09-2015 17:03 . Reden: zzzz ]
Yup, iemand op de anandtech forums heeft ook een testje gedraaid schijnbaar.Sp3ci3s8472 schreef op vrijdag 25 september 2015 @ 16:57:
One. Lionhead Studios maakt dus wel gebruik van Async Compute in DX12.
http://forums.anandtech.c...p?p=37724231&postcount=93
Mechwarrior Online: Flapdrol
De FreeSync monitor hack. Pas de refresh-rate range aan in de drivers:
http://www.guru3d.com/new...nge-with-simple-hack.html
http://www.guru3d.com/new...nge-with-simple-hack.html
One of the negative dependencies for AMDs FreeSync is that you are tied and limited towards the operational range in Hz the monitor is capable off. A new tool, let's call it driver mod allows you to change the parameters so you can enlarge the FreeSync range. Users in our forums report this to be working.
Ik volg bench marks al niet zo fanatiek meer. Omdat er zo veel factoren het resultaat drastisch beinvloeden. En games allergies op merk GPU kunnen reageren. Door o.a. naaistreken. Daarom probeer ik om en om mijn nvidia en "ATI" bak te upgraden.enchion schreef op vrijdag 25 september 2015 @ 08:21:
Dmv powermanagement kan je juist met langzamere hardware een hogere score halen dan met snellere.
Omdat langzamere hardware eerder tegen de processorbelasting aanzit waardoor hij in een hogere performance state wordt gezet. (door bv een hogere clocksnelheid of lagere idle stand)
Benchmarks zijn dan perfect nutteloos.
Want benchmarking zijn moment opname. GKaart schaf ik aan voor bepaalde tijd. En intussen kunnen er games uitkomen die je grijs speeld maar je toch minder ideale keuze heb gedaan op game die je dan amper speeld.
Mooie van DX12 is dat die ouwe P2x4-965 minder relevant wordt voor DX12 voor mijn dev bakje. Alleen moet ik mijn 5870 vervangen voor iets DX12 feature dekkend. Een 380.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
LET OP! Er zit een serieuze bug in deze driver. Bij het resizen van een windows (bijv. Chrome/Firefox), zit een memory leak van je VRAM. Binnen een paar seconden zit je VRAM vol en crasht de driver.
Nog niet updaten dus.
Nog niet updaten dus.
Verwijderd
Die bug treedt bij sommige mensen op, maar lang niet bij iedereen. Als je die driver nog niet hebt geïnstalleerd kun je er dus inderdaad beter nog maar even mee wachten, maar als je hem al wel hebt en het werkt gewoon is er geen reden om te downgraden. Mensen met durf kunnen het ook altijd even uitproberen natuurlijk, maar dat zou ik niet aanraden.
Durf? Moet je ook al durf hebben voor het installeren van een driver?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het gaat hier om een Bèta van de driver, dus ja dan heb je wat durf nodig. Nu weer OT.
2600WP | Zwolle | Zuid Oost 135° | Helling 12.5° | PV Output
Dit topic is gesloten.