Dat klinkt erg goed inderdaad! Ik denk alleen wel dat ze daarmee in het vaarwater van hun eigen toekomstige kaarten gaan zitten. Wellicht dat een AIB zelf een X2 kaart ontwerpt net als bij de 6870, zou gaaf zijn.Edmin schreef op woensdag 01 juni 2016 @ 18:57:
[...]
Iemand zei hier ineht topic dat Polaris de nieuwe HD4850 was. Een Polaris10X2 zou dan idd een mooie move zijn
AMD gaat het niet doen, die zal de tijd wel willen besteden aan Polaris 11 en Vega.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Zodra de eerste third party RX480's met aangepaste koeling te koop zijn koop ik er gelijk 1. Dit gaat een mooie vervanger worden voor mijn R9 280X.
Hier zal de 480 ook mijn 290x gaan vervangen. Performancewise geen enorme vooruitgang. Maar een mindering in hitte in mijn case is meer dan welkom. Heb het de afgelopen maanden/weken met spanning gevolgd en vanacht om 5 uur de recap van het event doorgelezen.
Ben zelf voornamelijk verrast door de prijs van 200-250 euro. Daarnaast ben ik met een 480 met 390x/fury prestaties op 110 watt (??) alleen maar nieuwsgieriger geworden naar wat vega ons nog kan brengen.
Ben zelf voornamelijk verrast door de prijs van 200-250 euro. Daarnaast ben ik met een 480 met 390x/fury prestaties op 110 watt (??) alleen maar nieuwsgieriger geworden naar wat vega ons nog kan brengen.
Het is nog maar even afwachten of de nu gepresenteerde RX 480 een volledige geactiveerde Polaris 10 chip is of een gekortwiekte Polaris 10 is. Ergo, komt er nog een R 480 of een RX 480X? Ik hoop het laatste. Het lijkt me onwaarschijnlijk aangezien de RX 480 al 2304 SPU's heeft. Hoeveel zou een RX 480X dan moeten hebben en hoeveel ruimte hebben ze nog om de klokfrequentie omhoog te gooien?Edmin schreef op woensdag 01 juni 2016 @ 18:57:
[...]
Iemand zei hier ineht topic dat Polaris de nieuwe HD4850 was. Een Polaris10X2 zou dan idd een mooie move zijn
Ja de prijs is een mooie verrassing. Ik denk dat het eerder ongeveer 980/390x prestaties gaan worden en 110-130W lijkt me aannemelijk. Ik hoop ook dat de prestaties ons nog positief gaan verrassen, maar realistisch gezien is het natuurlijk al een topkaart voor deze prijs.Temujin schreef op woensdag 01 juni 2016 @ 20:47:
Hier zal de 480 ook mijn 290x gaan vervangen. Performancewise geen enorme vooruitgang. Maar een mindering in hitte in mijn case is meer dan welkom. Heb het de afgelopen maanden/weken met spanning gevolgd en vanacht om 5 uur de recap van het event doorgelezen.
Ben zelf voornamelijk verrast door de prijs van 200-250 euro. Daarnaast ben ik met een 480 met 390x/fury prestaties op 110 watt (??) alleen maar nieuwsgieriger geworden naar wat vega ons nog kan brengen.
Nee, de gepresenteerde chip is de volledige.
RX 480
Ellesmere XT (C7)
2304 shaders
36 compute units
1266MHz Core
256bit Geheugenbus
2000MHz GDDR5
4 tot 8GiB
-The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 134"
RX 480
Ellesmere XT (C7)
2304 shaders
36 compute units
1266MHz Core
256bit Geheugenbus
2000MHz GDDR5
4 tot 8GiB
-The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 134"
Graphene; a material that can do everything, except leave the lab. - Asianometry
Verwijderd
Daarom is het zo verschrikkelijk jammer dat AMD nu niet eveneens een 50% grotere kaart (transistors, bandbreedte geheugen etc.) heeft uitgebracht. Stel je voor dat die kaart de concurrentie aankan met 1070 (het zal rond die 50% liggen, laten we niet mekkeren over 20 euro meer) en je zit niet met dat G-Sync gedoe en de daarbijbehorende premie van minstens 100 euro (ik verwacht dat NVidia uiteindelijk FreeSync zal gaan ondersteunen maar het blijft een gok voor de klant), dan zou AMD naast de budgetklanten ook het hogere mainstreamsegment (of bij AMD het enthusiastsegmentNate-Senpai schreef op woensdag 01 juni 2016 @ 04:28:
AMD moet nu wel met hele goeie crossfire support gaan komen naar deze uitspraken.
ik verwacht niet dat Nvidia hier een counteroffer tegen kan gaan brengen voor deze prijs.
wantja 200 dollars is heeeeeeeeeeeeeeel weinig.
De 1070 is op zich, voor nu, wel een geweldige kaart: 980 Ti performance voor 200 euro minder dan wat zo'n kaart kost en alles op 1440p met 60+ fps (ik vrees dat de 480 dit niet gaat halen en 2*480 is duurder dan 1*1070). Maar ja: G-Sync premie, weinig ondersteuning zo gauw er een nieuwe generatie uitkomt en inderdaad een licht hoge prijs.Waah schreef op woensdag 01 juni 2016 @ 08:06:
Hier komt de 480 er waarschijnlijk wel. Nvidia is gewoon veel te prijzig voor mijn doel. Game op 1080p (beamer) en dat doe ik liever dan op een 4K monitor. Ik wilde eerst de GTX1070 halen, of een 2e hands GTX970.
Maar met deze aangekondigde prijs wacht ik nog wel even op de 480. Hopelijk komt er ook een optie dat die passief gekoeld wordt bij lage/geen belasting, en kan die 3 monitoren tegelijk aansturen.
Als je voor de 480 kiest dan moet je waarschijnlijk bereid zijn om nog even te wachten met 1440p of in de tussentijd een tradeoff zoeken tussen de hogere resolutie en het detailniveau (geen idee wat je beter opoffert), of een fps van laag in de 50 accepteren voor sommige spellen.
[ Voor 42% gewijzigd door Verwijderd op 01-06-2016 21:15 ]
In mijn ogen absoluut geen blunder, juist precies wat ze gepland hebben. Ze willen marktaandeel winnen in het mainstreamsegment, waar de meeste kaarten verkocht worden. Er was geen enkele aanwijzing om een 50% grotere kaart te kunnen verwachten van AMD, dus ik zie niet in hoe ze geblunderd hebben door precies te doen wat de geruchten al aangaven. De enige verrassing was de lage prijs van de kaart.
edit: Ik zie dat je je bewoording hebt aangepast, even je post opnieuw lezen.
Ja de 1070 is een mooie kaart, maar voor veel mensen gewoonweg te duur. Er zijn veel meer mensen die een kaart van 100-200 euro kopen dan ruwweg 400 euro. Ik denk ook dat het gros van die mensen niet eens denkt over een upgrade naar 1440p.
edit: Ik zie dat je je bewoording hebt aangepast, even je post opnieuw lezen.
Ja de 1070 is een mooie kaart, maar voor veel mensen gewoonweg te duur. Er zijn veel meer mensen die een kaart van 100-200 euro kopen dan ruwweg 400 euro. Ik denk ook dat het gros van die mensen niet eens denkt over een upgrade naar 1440p.
[ Voor 29% gewijzigd door Derksenkarting op 01-06-2016 21:21 ]
Overal de helft meer van zou een kaart zijn die mooi tussen de GTX 1070 en GTX 1080 in zou vallen en waarschijnlijk dichter bij de GTX 1080 zitten. Mooiste zou dan zijn dat ze dan 12Gbps GDDR5X gingen gebruiken, kun je gewoon de 256bit geheugenbus behouden en 50% meer bandbreedte hebben. Zonder dat het verbruik van het geheugen met 50% omhoog gaat en je hoeft ook niet 12 geheugenchips op de kaart te drukken, kan gewoon met 8 dan.
Maar helaas gaat dan niet gebeuren, AMD gebruikt deze generatie geen GDDR5X. Misschien door een deal van nVidia maar misschien ook omdat ze te veel veranderingen moesten doen aan het ontwerp en te weinig tijd/geld daarvoor hadden/aan wilden besteden.
Maar helaas gaat dan niet gebeuren, AMD gebruikt deze generatie geen GDDR5X. Misschien door een deal van nVidia maar misschien ook omdat ze te veel veranderingen moesten doen aan het ontwerp en te weinig tijd/geld daarvoor hadden/aan wilden besteden.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
En het zal nu nog wel vrij prijzig zijn, niet handig voor een kaart van $200.-The_Mask- schreef op woensdag 01 juni 2016 @ 21:15:
Maar helaas gaat dan niet gebeuren, AMD gebruikt deze generatie geen GDDR5X. Misschien door een deal van nVidia maar misschien ook omdat ze te veel veranderingen moesten doen aan het ontwerp en te weinig tijd/geld daarvoor hadden/aan wilden besteden.
Mechwarrior Online: Flapdrol
Een hypothetische kaart welke 50% sneller is als Polaris 10 en tussen de GTX 1070 en GTX 1080 invalt gaat sowieso niet verkocht worden voor 200 dollar.haarbal schreef op woensdag 01 juni 2016 @ 21:20:
[...]
En het zal nu nog wel vrij prijzig zijn, niet handig voor een kaart van $200.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
AMD is volstrekt helder en consistent geweest (ik verwijt AMD in dat opzicht uiteraard niets): ze leveren precies wat ze beloofd hebben en binnnen dat segment misschien nog wel meer. Hoewel ik de prijs had verwacht (ik zei het hier nog dat ik tot 200 euro over heb voor een 480) is het fraai dat ze de kaart mooi afwerken voor die prijs.Derksenkarting schreef op woensdag 01 juni 2016 @ 21:13:
In mijn ogen absoluut geen blunder, juist precies wat ze gepland hebben. Ze willen marktaandeel winnen in het mainstreamsegment, waar de meeste kaarten verkocht worden. Er was geen enkele aanwijzing om een 50% grotere kaart te kunnen verwachten van AMD, dus ik zie niet in hoe ze geblunderd hebben door precies te doen wat de geruchten al aangaven. De enige verrassing was de lage prijs van de kaart.
edit: Ik zie dat je je bewoording hebt aangepast, even je post opnieuw lezen.
Ja, hun voornaamste doel is om meer klanten te werven in dat segment, aangezien hier de meeste klanten zitten en ook voor nieuwe gamers dit segment heel erg aantrekkelijk is.
Dat AMD dit doet is volstrekt logisch!
Alleen, zou het de 480 in de weg staan als je naast de 480 ook een 490 zou uitbrengen?
En/en in plaats van of/of, dat is mijn gedachtegang.
Verder een prima kaart maar voor mijn gevoel moet je in deze tijd bij de start van de nieuwe generatie ook een kaart leveren die gegarandeerd 1440p-ready is: 60+ fps bij de zwaarste instellingen van alle bestaande games. Ik vrees dat de 480 dat net niet gaat halen aangezien de 390 en de 780 hiervoor ook net tekort schieten. Of ze moeten geweldige softwareoptimalisatie en hardwareoptimalisatie hebben gedaan waar ze nog weinig over hebben verteld.
Als AMD naast deze kaart een iets grotere kaart zou uitbrengen die de 1070 verslaat maar voor een lagere prijs (en geen G-Sync gedoe, voor de bewuste gamer helpt dat zeker) dan zou AMD enkel het topsegment nog niet pakken. Ik besef dat het aantal klanten in dat segment van de markt aanzienlijk lager is dan in het 'mainstream'segment maar toch...
Futureproofing?Ja de 1070 is een mooie kaart, maar voor veel mensen gewoonweg te duur. Er zijn veel meer mensen die een kaart van 100-200 euro kopen dan ruwweg 400 euro. Ik denk ook dat het gros van die mensen niet eens denkt over een upgrade naar 1440p.
Nog niet maar wedden dat veel mensen het binnen 1-2 jaar wel overwegen aangezien die monitors verder goedkoper zullen worden?
Ik had het dan ook over een prijs van pak hem beet 300 dollar, geef en neem enkele tientjes en 10-20%.-The_Mask- schreef op woensdag 01 juni 2016 @ 21:22:
[...]
Een hypothetische kaart welke 50% sneller is als Polaris 10 en tussen de GTX 1070 en GTX 1080 invalt gaat sowieso niet verkocht worden voor 200 dollar.
Mijn punt was natuurlijk dat AMD daarnaast tegelijkertijd een 1070-killer had kunnen leveren voor een lagere prijs dan wat de 1070 kost.
En omdat je aanzienlijk extra betaalt voor een beetje extra throughput?-The_Mask- schreef op woensdag 01 juni 2016 @ 21:15:Maar helaas gaat dan niet gebeuren, AMD gebruikt deze generatie geen GDDR5X. Misschien door een deal van nVidia maar misschien ook omdat ze te veel veranderingen moesten doen aan het ontwerp en te weinig tijd/geld daarvoor hadden/aan wilden besteden.
Het GDDR5X wat NVidia gebruikt is momenteel maar iets sneller dan het GDDR5-geheugen wat in de 1070 zit.
Wat dat betreft begrijp ik goed dat AMD nog even wacht met het highendsegment.
[ Voor 27% gewijzigd door Verwijderd op 01-06-2016 21:30 ]
Natuurlijk zou dat de 480 niet in de weg staan, maar de realiteit is zoals we al weten van de roadmap dat de grotere chip Vega gaat zijn. Die chip is simpelweg nog niet klaar, dus kunnen ze geen 1070 killer leveren voor een lagere prijs. Het is helaas niet zo dat ze allemaal even wat langer door kunnen werken en die chip zo een paar maanden vroeger kunnen introduceren.Verwijderd schreef op woensdag 01 juni 2016 @ 21:24:
[...]
AMD is volstrekt helder en consistent geweest (ik verwijt AMD in dat opzicht uiteraard niets): ze leveren precies wat ze beloofd hebben en binnnen dat segment misschien nog wel meer. Hoewel ik de prijs had verwacht (ik zei het hier nog dat ik tot 200 euro over heb voor een 480) is het fraai dat ze de kaart mooi afwerken voor die prijs.
Ja, hun voornaamste doel is om meer klanten te werven in dat segment, aangezien hier de meeste klanten zitten en ook voor nieuwe gamers dit segment heel erg aantrekkelijk is.
Dat AMD dit doet is volstrekt logisch!
Alleen, zou het de 480 in de weg staan als je naast de 480 ook een 490 zou uitbrengen?
En/en in plaats van of/of, dat is mijn gedachtegang.
Verder een prima kaart maar voor mijn gevoel moet je in deze tijd bij de start van de nieuwe generatie ook een kaart leveren die gegarandeerd 1440p-ready is: 60+ fps bij de zwaarste instellingen van alle bestaande games. Ik vrees dat de 480 dat net niet gaat halen aangezien de 390 en de 780 hiervoor ook net tekort schieten. Of ze moeten geweldige softwareoptimalisatie en hardwareoptimalisatie hebben gedaan waar ze nog weinig over hebben verteld.
Als AMD naast deze kaart een iets grotere kaart zou uitbrengen die de 1070 verslaat maar voor een lagere prijs (en geen G-Sync gedoe, voor de bewuste gamer helpt dat zeker) dan zou AMD enkel het topsegment nog niet pakken. Ik besef dat het aantal klanten in dat segment van de markt aanzienlijk lager is dan in het 'mainstream'segment maar toch...
[...]
Ik had het dan ook over een prijs van pak hem beet 300 dollar, geef en neem enkele tientjes en 10-20%.
Mijn punt was natuurlijk dat AMD daarnaast tegelijkertijd een 1070-killer had kunnen leveren voor een lagere prijs dan wat de 1070 kost.
Heb nu een 290. Is een heethoofd. Ben benieuwd wat de benchmarks laten zien, misschien haal ik die 480 dan wel. Mooie kaartje. Zit wel te twijfelen of ik niet wat meer uit moet geven voor de 1070
Eerst mensen er Elite Dangerous mee zien spelen op goede FPS. Dan ben ik misschien geïnteresseerd. Maar ik denk dat ik op een stapje meer ga moeten wachten (of voor de 1070 moet gaan). Zo gigantisch veel schiet ik er niet mee op ten opzichte van mijn 280x. Maar misschien verrassen de benchmarks me over een maand.
Al die 'upgrades' van (2 naar 3)70/80/90 maakt het er ook niet duidelijker op.
De vraag is misschien meer hoeveel impact het Liquid VR van AMD en de features van de Nvidia 10*0 (Ansel en Simultaneous Multi-Projection) in het komende jaar op VR spellen gaat hebben en welke het meest/beste ondersteund gaan worden (Dx12 verhaal).
Al die 'upgrades' van (2 naar 3)70/80/90 maakt het er ook niet duidelijker op.
De vraag is misschien meer hoeveel impact het Liquid VR van AMD en de features van de Nvidia 10*0 (Ansel en Simultaneous Multi-Projection) in het komende jaar op VR spellen gaat hebben en welke het meest/beste ondersteund gaan worden (Dx12 verhaal).
Ja, maar 6GB gddr5x op een 192bit bus had ook gekund bijvoorbeeld, maar denk dat een iets grotere chip met 256bit bus en 8GB gddr5 dan goedkoper is. En handiger als je er veel van wilt produceren.-The_Mask- schreef op woensdag 01 juni 2016 @ 21:22:
[...]
Een hypothetische kaart welke 50% sneller is als Polaris 10 en tussen de GTX 1070 en GTX 1080 invalt gaat sowieso niet verkocht worden voor 200 dollar.
Mechwarrior Online: Flapdrol
Elite Dangerous zo'n zwaar spel dan? Draait op high en op 1080P op mijn GTX 960ArmEagle schreef op woensdag 01 juni 2016 @ 22:17:
Eerst mensen er Elite Dangerous mee zien spelen op goede FPS. Dan ben ik misschien geïnteresseerd. Maar ik denk dat ik op een stapje meer ga moeten wachten (of voor de 1070 moet gaan). Zo gigantisch veel schiet ik er niet mee op ten opzichte van mijn 280x. Maar misschien verrassen de benchmarks me over een maand.
Al die 'upgrades' van (2 naar 3)70/80/90 maakt het er ook niet duidelijker op.
De vraag is misschien meer hoeveel impact het Liquid VR van AMD en de features van de Nvidia 10*0 (Ansel en Simultaneous Multi-Projection) in het komende jaar op VR spellen gaat hebben en welke het meest/beste ondersteund gaan worden (Dx12 verhaal).
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Op mijn 2560x1440 monitor trek ik het wel. Maar VR is schokkendRobolokotobo schreef op woensdag 01 juni 2016 @ 22:21:
[...]
Elite Dangerous zo'n zwaar spel dan? Draait op high en op 1080P op mijn GTX 960
Haha, ja dat is idd flink zwaarder
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Weet je wat het is, even een paar gunstige specs bij elkaar rapen is best gemakkelijk. Werkelijk een chip ontwerpen met die specs kost gigantisch veel moeite. Je zegt een 192bit bus had ook gekund, maar dat weet je helemaal niet, misschien is dat technisch helemaal niet mogelijk voor de GCN architectuur. Het is dus ook bijzonder makkelijk te zeggen, waarom hebben ze niet even Polaris 10 maal anderhalf gedaan, maar om daadwerkelijk zo'n chip te ontwerpen is wel even wat anders. Ze plannen dit soort chips ook al jaren van te voren, dus wij kijken er nu naar met veel meer informatie over de huidige markt.haarbal schreef op woensdag 01 juni 2016 @ 22:21:
[...]
Ja, maar 6GB gddr5x op een 192bit bus had ook gekund bijvoorbeeld, maar denk dat een iets grotere chip met 256bit bus en 8GB gddr5 dan goedkoper is. En handiger als je er veel van wilt produceren.
Ergens hoop ik dat Vega toch wel op 450mm zit en 100% sneller is dan Polaris 10. Aangezien hij gebruik gaat maken van HBM2 zal het in ieder geval een grote chip zijn.-The_Mask- schreef op woensdag 01 juni 2016 @ 21:22:
[...]
Een hypothetische kaart welke 50% sneller is als Polaris 10 en tussen de GTX 1070 en GTX 1080 invalt gaat sowieso niet verkocht worden voor 200 dollar.
Nvidia kennende zal wel weer met een 600mm chip komen voor die 10-20% extra performance bovenop wat AMD heeft.
Verwijderd
Als ik een 290 zou hebben dan zou ik wachten op de Vega 11, het zou me verbazen als dat niet de 490 zou worden en als die kaart niet voor ongeveer dezelfde prijs gaat worden verkocht als waarvoor de 390 werd verkocht (aangezien ze dat bij de 480 ook deden, misschien betaal je nu iets meer vanwege het geheugen). Het lijkt erop (afgaande op de woorden van een AMD-medewerker) dat je binnen dat prijssegment voor HBM2 niet veel meer kwijt gaat zijn dan voor GDDR5 op de kaarten. Bovendien gaf AMD laatst aan wat de price-range zou zijn voor de Polaris- en de Vega-kaarten (iets in de 600 gaf die als hoogste prijs, dus voor de Vega 10, de Vega 11 zal tussen de Polaris en de Vega 10 in zitten). Allemaal koffiedik kijken maar wacht het even af en zie dan welke kaart beter is, bovendien kan de prijs van de 1070 alleen maar zakken in die tijd.FrankoNL schreef op woensdag 01 juni 2016 @ 22:13:
Heb nu een 290. Is een heethoofd. Ben benieuwd wat de benchmarks laten zien, misschien haal ik die 480 dan wel. Mooie kaartje. Zit wel te twijfelen of ik niet wat meer uit moet geven voor de 1070
Fair enough, het zou fijn zijn als AMD zelf hier het een en ander over vertelt, ze moeten dat niet maar als ze dat niet doen dan gaan klanten speculeren.Derksenkarting schreef op woensdag 01 juni 2016 @ 22:30:
[...]
Weet je wat het is, even een paar gunstige specs bij elkaar rapen is best gemakkelijk. Werkelijk een chip ontwerpen met die specs kost gigantisch veel moeite. Je zegt een 192bit bus had ook gekund, maar dat weet je helemaal niet, misschien is dat technisch helemaal niet mogelijk voor de GCN architectuur. Het is dus ook bijzonder makkelijk te zeggen, waarom hebben ze niet even Polaris 10 maal anderhalf gedaan, maar om daadwerkelijk zo'n chip te ontwerpen is wel even wat anders. Ze plannen dit soort chips ook al jaren van te voren, dus wij kijken er nu naar met veel meer informatie over de huidige markt.
[ Voor 61% gewijzigd door Verwijderd op 01-06-2016 22:51 ]
Ik denk dat Vega gewoon Fury2, Vega of Rage gaat heten aangezien er twee Vega chips zullen zijn en misschien 4 varianten. Hoe wil je die in één nummer proppen, 490, 490Pro, 490XT en 490XTX?
Krijgen we dat dan ook met de 480?
Nee, ik denk dat AMD bewust 490 niet zal gebruiken (of voor een derde Polaris chip) omdat het prestatieverschil tussen Ellesmere XT en de voorgaande R9 390X niet groot genoeg is. Dan krijg je namelijk Nvidiots die gaan roepen dat AMD niets opschiet qua prestaties en de minder geïnformeerde persoon zal dat voor waar aannemen.
Krijgen we dat dan ook met de 480?
Nee, ik denk dat AMD bewust 490 niet zal gebruiken (of voor een derde Polaris chip) omdat het prestatieverschil tussen Ellesmere XT en de voorgaande R9 390X niet groot genoeg is. Dan krijg je namelijk Nvidiots die gaan roepen dat AMD niets opschiet qua prestaties en de minder geïnformeerde persoon zal dat voor waar aannemen.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Je hebt een punt. Vega komt echter pas in 2017 en niemand weet precies wanneer. Ik vraag me af of de prijs zoveel lager zal zijn dan de 1070. De 480 is 30 % sneller dan een 290 voor 220 euro een mooie tussenkaart. Kan ik later altijd nog upgradenVerwijderd schreef op woensdag 01 juni 2016 @ 22:43:
[...]
Als ik een 290 zou hebben dan zou ik wachten op de Vega 11, het zou me verbazen als dat niet de 490 zou worden en als die kaart niet voor ongeveer dezelfde prijs gaat worden verkocht als waarvoor de 390 werd verkocht (aangezien ze dat bij de 480 ook deden, misschien betaal je nu iets meer vanwege het geheugen). Het lijkt erop (afgaande op de woorden van een AMD-medewerker) dat je binnen dat prijssegment voor HBM2 niet veel meer kwijt gaat zijn dan voor GDDR5 op de kaarten. Bovendien gaf AMD laatst aan wat de price-range zou zijn voor de Polaris- en de Vega-kaarten (iets in de 600 gaf die als hoogste prijs, dus voor de Vega 10, de Vega 11 zal tussen de Polaris en de Vega 10 in zitten). Allemaal koffiedik kijken maar wacht het even af en zie dan welke kaart beter is, bovendien kan de prijs van de 1070 alleen maar zakken in die tijd.
[...]
Fair enough, het zou fijn zijn als AMD zelf hier het een en ander over vertelt, ze moeten dat niet maar als ze dat niet doen dan gaan klanten speculeren.
Zou het niet iets als dit kunnen worden? R450 (P11), R460 (P11), RX470 (P10), RX480 (P10), RX490 (Vega) en de opvolger van Fury (Vega). Misschien wel twee Fury smaakjes (X en non-X) en zelfs een derde Vega SKU die dan de RX490 moet worden.
Waarom zou je niet het TBP noemen, vraag ik me even hardop af? Als je een stuk onder de 150w zit, lijkt me dat zeker iets waar je mee moet kunnen adverteren.-The_Mask- schreef op woensdag 01 juni 2016 @ 18:08:
AMD gebruikt bij de lauch altijd Typical Board Power (TBP) en geen TDP, TBP van AMD is vergelijkbaar met wat nVidia TDP noemt.
Op dit moment heeft AMD echter waarschijnlijk de TBP nog niet genoemd, ze hadden het alleen over "power" en dat kan van alles betekenen. Kan ook gewoon de 75W van het PCI Express slot en PEG connector bij elkaar opgeteld zijn.
Pak je een PPW-verbetering van 2.5x over de R9 390, en die verbruikt zo'n 280w, dan kom je uit op 112w. Máárrrr.......... Als blijkt dat het 'slechts' een verbetering van 150 (netto) procenten is, dus dat het stroomverbruik neerkomt op 280 x (1/1.5), dan kom je uit op toch een vette 186w. Maar dan zit je dus over de capaciteit van de power connectors, waardoor de eerste berekening toch het meest waarschijnlijke lijkt. En AMD zal niet zo hardop liegen, want zeker dat bedrijf wordt afgemaakt door zowel nVidia als de pers als op internet als het even tegenvalt *helaas schrijft men sneller negatief over AMD dan over nVidia de afgelopen jaren*.
Alles wat een R9 390 (snel gegoogled uit een paar reviews, even gemiddeld) minder verbruikt, zal ook gunstiger reflecteren op de Polaris 10-chip, dat is het goede nieuws
Als je dit leest, heb je teveel tijd.
Misschien laat AMD ruimte over voor partners om dik overgeklokte modellen te introduceren?
[ Voor 3% gewijzigd door NitroX infinity op 01-06-2016 23:06 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Mocht mijn berekening kloppen, dan zou er nog 38w ruimte moeten zijn om met voltages en clocks te rommelen. Binnen 38w kan je een hoop verpakken, in ieder geval.NitroX infinity schreef op woensdag 01 juni 2016 @ 23:05:
Misschien laat AMD ruimte over voor partners om dik overgeklokte modellen te introduceren?
Als je dit leest, heb je teveel tijd.
Zeker wel, 6GB is dan weer zo'n 'net-niet' RAM-configuratie waarop je te veel hebt voor 2560x1440 en ook nog eens duur uitkomt vanwege het geheugentype, terwijl het voor 4K in sommige gevallen weer net te weinig is.haarbal schreef op woensdag 01 juni 2016 @ 22:21:
[...]
Ja, maar 6GB gddr5x op een 192bit bus had ook gekund bijvoorbeeld, maar denk dat een iets grotere chip met 256bit bus en 8GB gddr5 dan goedkoper is. En handiger als je er veel van wilt produceren.
Als je dit leest, heb je teveel tijd.
De berekening is aannemelijk voor het vermogen dat de kaart gaat opnemen, maar niet relevant voor de hoeveelheid ruimte qua vermogen. Als een AIB meer vermogen moet kunnen leveren kunnen ze er gewoon een 8-pins of een extra 6-pins connector op zetten.Racing_Reporter schreef op woensdag 01 juni 2016 @ 23:08:
[...]
Mocht mijn berekening kloppen, dan zou er nog 38w ruimte moeten zijn om met voltages en clocks te rommelen. Binnen 38w kan je een hoop verpakken, in ieder geval.
Kan, komt niet bijzonder vaak voor, maar dat kan.Derksenkarting schreef op woensdag 01 juni 2016 @ 23:13:
[...]
De berekening is aannemelijk voor het vermogen dat de kaart gaat opnemen, maar niet relevant voor de hoeveelheid ruimte qua vermogen. Als een AIB meer vermogen moet kunnen leveren kunnen ze er gewoon een 8-pins of een extra 6-pins connector op zetten.
Als je dit leest, heb je teveel tijd.
Geen idee, maar er stond geen TBP en dat terwijl ze altijd TBP gebruiken op hun slides.Racing_Reporter schreef op woensdag 01 juni 2016 @ 23:04:
[...]
Waarom zou je niet het TBP noemen, vraag ik me even hardop af? Als je een stuk onder de 150w zit, lijkt me dat zeker iets waar je mee moet kunnen adverteren.
150% beter is ook 2,5 maal de prestaties. 50% beter is 1,5 maal de prestaties. Maar wat jij bedoeld is 150% van de prestaties en dus 50% meer of 1,5 maal de prestaties.Pak je een PPW-verbetering van 2.5x over de R9 390, en die verbruikt zo'n 280w, dan kom je uit op 112w. Máárrrr.......... Als blijkt dat het 'slechts' een verbetering van 150 (netto) procenten is, dus dat het stroomverbruik neerkomt op 280 x (1/1.5), dan kom je uit op toch een vette 186w.
Ze gaan natuurlijk sowieso wel uit van het meest positive zoals de marketing divisie van elk bedrijf doet.Maar dan zit je dus over de capaciteit van de power connectors, waardoor de eerste berekening toch het meest waarschijnlijke lijkt. En AMD zal niet zo hardop liegen, want zeker dat bedrijf wordt afgemaakt door zowel nVidia als de pers als op internet als het even tegenvalt *helaas schrijft men sneller negatief over AMD dan over nVidia de afgelopen jaren*.
Custom designs hebben juist heel vaak andere PEG connectors dan het reference design.Racing_Reporter schreef op woensdag 01 juni 2016 @ 23:18:
[...]
Kan, komt niet bijzonder vaak voor, maar dat kan.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
wie zegt er eigenlijk dat vega dit jaar niet meer haalt?
Verwijderd
Ik niet, want het lijkt me een slechte keus om die pas in 2017 uit te brengen... ik zou zeggen kondig ze aan in september en breng ze uit in oktober. Maar goed, ik vind AMD altijd onhandig omgaan met hun release tijden.tomcatha schreef op donderdag 02 juni 2016 @ 00:29:
wie zegt er eigenlijk dat vega dit jaar niet meer haalt?
Verwijderd
Het verschil tussen de 480 en de Polaris 11 (nog een vraagteken maar duidelijk veel kleiner en nog veel goedkoper) is groot, het lijkt me niet onwaarschijnlijk dat het verschil tussen Vega 10 en Vega 11 ook groot gaat zijn. 1 performance-kaart (490) en 1 enthusiastkaart (opvolger van Fury of FuryX). Hiermee zouden ze ook de segmentatie vasthouden. Stel dat AMD niet de segmentatie van de laatste generatie zou vasthouden, zou het dan niet onlogisch zijn om de Polaris 10 de 480 te noemen?NitroX infinity schreef op woensdag 01 juni 2016 @ 22:54:
Ik denk dat Vega gewoon Fury2, Vega of Rage gaat heten aangezien er twee Vega chips zullen zijn en misschien 4 varianten. Hoe wil je die in één nummer proppen, 490, 490Pro, 490XT en 490XTX?
Krijgen we dat dan ook met de 480?
Nee, ik denk dat AMD bewust 490 niet zal gebruiken (of voor een derde Polaris chip) omdat het prestatieverschil tussen Ellesmere XT en de voorgaande R9 390X niet groot genoeg is. Dan krijg je namelijk Nvidiots die gaan roepen dat AMD niets opschiet qua prestaties en de minder geïnformeerde persoon zal dat voor waar aannemen.
Met 4k gamen vind ik sowieso nogal onzinnig op dit moment, m.u.v. oudere spellen. Met 1 1080 kom je net boven de 30 fps uit, de schaling schijnt ongeveer 25% te zijn voor de tweede dus voorlopig lijkt het mij weinig interessant. Om nog maar te zwijgen over 4k gaming met de 480.Racing_Reporter schreef op woensdag 01 juni 2016 @ 23:09:
[...]
Zeker wel, 6GB is dan weer zo'n 'net-niet' RAM-configuratie waarop je te veel hebt voor 2560x1440 en ook nog eens duur uitkomt vanwege het geheugentype, terwijl het voor 4K in sommige gevallen weer net te weinig is.
[ Voor 29% gewijzigd door Verwijderd op 02-06-2016 01:16 ]
Verwijderd
Met jouw kaart kan je gemakkelijk tot die tijd alles spelen met zeer hoge instellingen op 1080p en veel goed spelen (redelijk hoge instellingen) met 1440p. Dat is voor een jaar toch wel te overzien? Langer dan 1 jaar gaat het sowieso niet duren! Volgens AMD's eigen figuur komt Vega in het begin van 2017 (eerste paar maanden), als je geluk hebt en de fabriek die HBM2 levert AMD tegenmoet kan komen (sneller productie opschroeven) dan kan het misschien zelfs al aan het einde van 2016 komen. Misschien wel net voor kerstmis? Een tijd in het jaar waarin mensen graag iets leuks kopen.FrankoNL schreef op woensdag 01 juni 2016 @ 23:00:
[...]
Je hebt een punt. Vega komt echter pas in 2017 en niemand weet precies wanneer.
Hoe dan ook hoef je waarschijnlijk niet veel langer dan een half jaar te wachten. Wat jij wil maar ik zou met die kaart even de Vega afwachten, zoveel ga je er niet op vooruit. Kleinere transistors, een aanzienlijk hogere kloksnelheid, een groter deel van de wafer en geheugen wat ongeveer 3 keer zoveel throughput levert terwijl het 50% van het energieverbruik heeft (dus minder snel thermal throttling door de GPU), het lijkt me een mooi moment om weer eens een nieuwe kaart te kopen. We weten wat de Vega 10 ongeveer gaat kosten en we weten dat de prijs van de Vega 11 substantieel lager gaat zijn. Zie het citaat wat iemand hier laasts plaatste (X tot Y euro voor alle Polaris en Vega-kaarten).
Nee! Maar wel HBM2-geheugen en dus een aanzienlijk betere performance als het goed is wanneer je snel veel data wil gebruiken uit het geheugen.Ik vraag me af of de prijs zoveel lager zal zijn dan de 1070.
Hoe kom jij aan 220 euro? Op dit moment is de euro weer wat meer (ongeveer 10%) waard dan de USD.De 480 is 30 % sneller dan een 290 voor 220 euro een mooie tussenkaart. Kan ik later altijd nog upgraden
Sowieso natuurlijk eerst de reviews en de benchmarks afwachten.
[ Voor 12% gewijzigd door Verwijderd op 02-06-2016 01:10 ]
Vega 10 wordt waarschijnlijk de goedkopere. Het is niet zoals bij Polaris dat de 10 de grotere chip is. Die getallen hebben geen betrekking op performance, het geeft alleen de volgorde van ontwikkeling aan zoals volgens mij Raja Koduri al eens heeft aangegeven.Verwijderd schreef op donderdag 02 juni 2016 @ 01:06:
[...]
We weten wat de Vega 10 ongeveer gaat kosten en we weten dat de prijs van de Vega 11 substantieel lager gaat zijn. Zie het citaat wat iemand hier laasts plaatste (X tot Y euro voor alle Polaris en Vega-kaarten).
Verwijderd
LOLDerksenkarting schreef op donderdag 02 juni 2016 @ 01:15:
[...]
Vega 10 wordt waarschijnlijk de goedkopere. Het is niet zoals bij Polaris dat de 10 de grotere chip is. Die getallen hebben geen betrekking op performance, het geeft alleen de volgorde van ontwikkeling aan zoals volgens mij Raja Koduri al eens heeft aangegeven.
Dat zou inderdaad ook kunnen.
Is het nu zeker dat de betere Vega eerst uitkomt?
7870Racing_Reporter schreef op woensdag 01 juni 2016 @ 23:18:
[...]
Kan, komt niet bijzonder vaak voor, maar dat kan.
[ Voor 16% gewijzigd door Verwijderd op 02-06-2016 01:20 ]
Ik heb geen idee, ik weet zelfs niet eens zeker of er wel een Vega 10 en 11 is, misschien is er maar één. Het lijkt me in ieder geval een logische stap om na Polaris 10 en 11 een grotere chip van ~400-450mm2 uit te brengen.Verwijderd schreef op donderdag 02 juni 2016 @ 01:17:
[...]
LOL
Dat zou inderdaad ook kunnen.
Is het nu zeker dat de betere Vega eerst uitkomt?
Verwijderd
Tja, dat kan je nu eenmaal niet perfect op voorhand plannen. Het is niet dat AMD een paar jaar op voorhand weet wanneer NVidia uit gaat komen met de nieuwe kaarten.Verwijderd schreef op donderdag 02 juni 2016 @ 00:41:
[...]
Ik niet, want het lijkt me een slechte keus om die pas in 2017 uit te brengen... ik zou zeggen kondig ze aan in september en breng ze uit in oktober. Maar goed, ik vind AMD altijd onhandig omgaan met hun release tijden.
Wat ik in dit geval vooral vervelend vind is dat AMD er zo slecht over communiceert. Je hoeft niet alle details te geven en je mag ook rustig een onzekerheid in het antwoord vermelden. Geef gewoon aan in welke segmenten die Vega-kaarten vallen (opvolgers van 390 en Fury?), wat ongeveer de prijs van de mindere Vega-kaart gaat zijn en wanneer die ongeveer uitkomt. Als AMD dat niet precies kan vertellen omdat ze afhankelijk zijn van het bedrijf wat het HBM-geheugen levert, prima, vertel dan gewoon wat de onzekerheidsmarge is die momenteel wordt verwacht. Niemand zal dan kwaad worden als het wat langer blijkt te duren of het juist wat sneller komt, hoop ik.
Ik meen me te herinneren dat het bevestigd is door AMD dat er twee Vega-kaarten gaan komen. Als ik de enige hier ben die zich dat meent te herinneren dan zal ik er vast naast zitten, ik wacht even de reacties af.Derksenkarting schreef op donderdag 02 juni 2016 @ 01:21:
[...]
Ik heb geen idee, ik weet zelfs niet eens zeker of er wel een Vega 10 en 11 is, misschien is er maar één. Het lijkt me in ieder geval een logische stap om na Polaris 10 en 11 een grotere chip van ~400-450mm2 uit te brengen.
[ Voor 19% gewijzigd door Verwijderd op 02-06-2016 01:25 ]
Ik denk dat als je Polaris x2 doet je een aardige indicatie zal hebbenTemujin schreef op woensdag 01 juni 2016 @ 20:47:
Hier zal de 480 ook mijn 290x gaan vervangen. Performancewise geen enorme vooruitgang. Maar een mindering in hitte in mijn case is meer dan welkom. Heb het de afgelopen maanden/weken met spanning gevolgd en vanacht om 5 uur de recap van het event doorgelezen.
Ben zelf voornamelijk verrast door de prijs van 200-250 euro. Daarnaast ben ik met een 480 met 390x/fury prestaties op 110 watt (??) alleen maar nieuwsgieriger geworden naar wat vega ons nog kan brengen.
HBM2.0 verdubbelt de bandbreedte (als niet meer dan het dubbele)
En dan met +- 4000-4500 shaders
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Waarom denkt iedereen bij Vega altijd aan groot, groter, grootst? Ja, alles wijst er op dat de eerste Vega die het licht gaat zien groter is dan Polaris 10, met ditto prestaties. Maar niemand lijkt het idee te hebben gevat dat de 2e Vega wel eens een kleinere chip kan zijn, die mogenlijk ergens tussen Polaris 10 en 11 in zit en met HBM komt. Een ~1800SPU chip met 1 stack HBM2 ergens in 2017 zou prima mogenlijk moeten kunnen zijn, om maar iets te noemen. Genoemde specificaties zijn natuurlijk puur hypothetisch, maar het punt is dat er een moment komt om HBM naar de mainstream te duwen, om de BoM ervan naar beneden te duwen. Dit ook met het oog op APU's die eventueel HBM gaan krijgen, zoals een gerucht gaat over de eerste Zen-APU.
1: kosten voor HBM zijn op dit moment te hoog voor een kaart in het 150-300 dollar segmentdahakon schreef op donderdag 02 juni 2016 @ 07:57:
Waarom denkt iedereen bij Vega altijd aan groot, groter, grootst? Ja, alles wijst er op dat de eerste Vega die het licht gaat zien groter is dan Polaris 10, met ditto prestaties. Maar niemand lijkt het idee te hebben gevat dat de 2e Vega wel eens een kleinere chip kan zijn, die mogenlijk ergens tussen Polaris 10 en 11 in zit en met HBM komt. Een ~1800SPU chip met 1 stack HBM2 ergens in 2017 zou prima mogenlijk moeten kunnen zijn, om maar iets te noemen. Genoemde specificaties zijn natuurlijk puur hypothetisch, maar het punt is dat er een moment komt om HBM naar de mainstream te duwen, om de BoM ervan naar beneden te duwen. Dit ook met het oog op APU's die eventueel HBM gaan krijgen, zoals een gerucht gaat over de eerste Zen-APU.
2: je hebt een bepaalde dje grote nodig voor je interconnects met een chip zoals Polaris kan je wellicht maar 1 stack verbinden. Dan heb je wel 8 gb maar qua bandbreedte schiet je niet veel op. Wellicht dat 2 ook nog past maar dan komt het 1e punt weer terug.
3: concurrent met nvidia. Als ze niets snellere uit brengen is dat niet goed voor AMD. Het is prima om met een midrange kaart te starten maar vroeg of laat is het wel goed om te laten zien dat je met de beste kan concurreren een dat zal dan een 1080 Ti zijn.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met één stack HBM2 heb je 256GB/s geheugenbandbreedte evenveel als de RX480 en GTX 1070, twee stacks geeft je al 512GB/s evenveel als Fury X. Eén stack kan 2GB, 4GB of zelfs 8 GB zijn, twee dus het dubbele daarvan.Astennu schreef op donderdag 02 juni 2016 @ 08:26:
[...]
2: je hebt een bepaalde dje grote nodig voor je interconnects met een chip zoals Polaris kan je wellicht maar 1 stack verbinden. Dan heb je wel 8 gb maar qua bandbreedte schiet je niet veel op. Wellicht dat 2 ook nog past maar dan komt het 1e punt weer terug.
Je zou dus prima de RX480 met één stack HBM2 kunnen uitbrengen en de keuze hebben tussen 4GB en 8GB. Alleen prijs en beschikbaarheid houden dit tegen.
Alles verdubbelen kan echter wel dan heb je een razendsnelle Vega 10 GPU met 4608 streamprocessors en twee stacks HBM2 met 512GB/s bandbreedte en 8 of 16GB videogeheugen. Heb je gelijk een GPU welke sneller als een GTX1080 gaat zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat is toch ook pressies wat ik zeg over die HBM stacks? qua bandbreedte schiet je met 1 stack niets op. Alleen je kosten schieten omhoog kortom niet interessant voor een chip rond de 200-250 dollar. Dan haal je die price targets niet meer en qua prestaties ga je er niets op vooruit.-The_Mask- schreef op donderdag 02 juni 2016 @ 08:49:
[...]
Met één stack HBM2 heb je 256GB/s geheugenbandbreedte evenveel als de RX480 en GTX 1070, twee stacks geeft je al 512GB/s evenveel als Fury X. Eén stack kan 2GB, 4GB of zelfs 8 GB zijn, twee dus het dubbele daarvan.
Je zou dus prima de RX480 met één stack HBM2 kunnen uitbrengen en de keuze hebben tussen 4GB en 8GB. Alleen prijs en beschikbaarheid houden dit tegen.
Alles verdubbelen kan echter wel dan heb je een razendsnelle Vega 10 GPU met 4608 streamprocessors en twee stacks HBM2 met 512GB/s bandbreedte en 8 of 16GB videogeheugen. Heb je gelijk een GPU welke sneller als een GTX1080 gaat zijn.
Maar dat is de rede dat ik denk dat ze voor Vega toch groter zullen gaan dan kan je wel met HBM gaan werken en winst halen tov GDDR5X. Je schetst het zelf al. Ik weet niet of 3 stacks een optie zou zijn (of dat er perse 2, 4 enz moet zijn) Maar 768GB/s met 12GB lijkt me ook niet verkeerd voor zo'n chip.
De tijd zal het leren wat Vega gaat worden. Nu eerst maar eens echte reviews van de RX 480 zien om ook te zien hoe deze het doet en of hij bv veel winst haalt als je het geheugen overclockt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het is nu dan ook nog lang geen mid-2017 natuurlijk. Als grote Vega ergens dit jaar of begin 2017 op de markt komt, helpt dit met het terugdringen van de BoM van HBM-oplossingen. Bovendien is de BoM van de HBM oplossing al behoorlijk gedaalt sinds het uitbrengen van Fiji een jaar geleden.
Nu zit die BoM misschien nog niet op een prijsniveau voor mainstream, maar er zijn verschillende bronnen die aangeven dat deze wel vrij vlot aan het dalen is naar mainstream niveau, waaronder Charlie. Als de BoM dicht tegen mainstream niveau komt te zitten mid-2017 en AMD besluit een mainstream GPU en een APU met HBM2 uit te brengen, dan zal die BoM ook echt wel kosten-efficient worden op dat moment.
Verder is het zoals The_Mask ook al zegt, met 1 stack HBM2 heb je ruimschoots genoeg bandbreedte voor een mainstream GPU. Daarmee kan de interposer klein blijven, heb je maar 1 'prijzige' geheugenchip nodig, ipv 4 tot 8 'goedkopere', bespaar je op het PCB. Overigens staat mij bij dat een 4096-bit HBM geheugen interface minder ruimte in beslag neemt dan een 512-bit gDDR5 geheugen interface. Ik zou het kunnen opzoeken, er is genoeg over geschreven bij de lancering van Fiji, maar dat is wellicht voor een volgende post. Punt is, dat een chip met een interface voor 1 stack HBM2 dus helemaal zo groot zou moeten hoeven zijn.
Nu zit die BoM misschien nog niet op een prijsniveau voor mainstream, maar er zijn verschillende bronnen die aangeven dat deze wel vrij vlot aan het dalen is naar mainstream niveau, waaronder Charlie. Als de BoM dicht tegen mainstream niveau komt te zitten mid-2017 en AMD besluit een mainstream GPU en een APU met HBM2 uit te brengen, dan zal die BoM ook echt wel kosten-efficient worden op dat moment.
Verder is het zoals The_Mask ook al zegt, met 1 stack HBM2 heb je ruimschoots genoeg bandbreedte voor een mainstream GPU. Daarmee kan de interposer klein blijven, heb je maar 1 'prijzige' geheugenchip nodig, ipv 4 tot 8 'goedkopere', bespaar je op het PCB. Overigens staat mij bij dat een 4096-bit HBM geheugen interface minder ruimte in beslag neemt dan een 512-bit gDDR5 geheugen interface. Ik zou het kunnen opzoeken, er is genoeg over geschreven bij de lancering van Fiji, maar dat is wellicht voor een volgende post. Punt is, dat een chip met een interface voor 1 stack HBM2 dus helemaal zo groot zou moeten hoeven zijn.
Volgens mij herhalen jullie beide pressies de argumenten die ik zelf aandraag.
Ik zeg namelijk ook dat je max maar 1 stack kwijt kan maar dan schiet je er qua bandbreedte tov GDDR5 niets mee op. Dus waarom al die moeite doen?
Waarom nog een gpu uitbrengen met specs lager dan polaris en die HBM geven. Je hebt dat markt segment al gedekt met polaris dan is het niet nuttig om een Vega chip met 1800 shaders uit te brengen in dat segment. Dat kan je prima met de kleinere polaris waar wij nu nog niet zo veel van weten en polaris 10 cut down SKU's afdekken. Het is dus logisch dat er iets gaat komen wat sneller en groter is als polaris want dan kunnen ze ook beter concurreren met nVidia. Want voorlopig hebben ze geen antwoord op de GTX1070 en 1080. En nVidia zit ook niet stil die gaan zeker met nog snellere chips komen.
Dat alles bij elkaar geeft mij rede om te denken dat Vega groter en sneller gaan worden en dat ze niet met een kleine vega komen die met Polaris gaat concurreren dat zou simpelweg verspilling van resources zijn en die heeft AMD helaas niet in overvloed.
Ik zeg namelijk ook dat je max maar 1 stack kwijt kan maar dan schiet je er qua bandbreedte tov GDDR5 niets mee op. Dus waarom al die moeite doen?
Waarom nog een gpu uitbrengen met specs lager dan polaris en die HBM geven. Je hebt dat markt segment al gedekt met polaris dan is het niet nuttig om een Vega chip met 1800 shaders uit te brengen in dat segment. Dat kan je prima met de kleinere polaris waar wij nu nog niet zo veel van weten en polaris 10 cut down SKU's afdekken. Het is dus logisch dat er iets gaat komen wat sneller en groter is als polaris want dan kunnen ze ook beter concurreren met nVidia. Want voorlopig hebben ze geen antwoord op de GTX1070 en 1080. En nVidia zit ook niet stil die gaan zeker met nog snellere chips komen.
Dat alles bij elkaar geeft mij rede om te denken dat Vega groter en sneller gaan worden en dat ze niet met een kleine vega komen die met Polaris gaat concurreren dat zou simpelweg verspilling van resources zijn en die heeft AMD helaas niet in overvloed.
[ Voor 8% gewijzigd door Astennu op 02-06-2016 09:09 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met 1 stack HBM2 zou je een geheugen interface hebben die kleiner is dan een 128-bit gDDR5 geheugeninterface, met de prestaties gelijk aan/groter dan een 256-bit gDDR5 geheugeninterface. Je bespaart dus al die-space op de GPU-chip zelf. Je schiet er dus wel iets mee op, maar op een andere plek dan waar jij aan denkt. Bovendien maakt het form-factors mogenlijk die met 4-8 gDDR5 chips nagenoeg onmogenlijk zijn. Ook niet onbelangrijk, je kunt je verbruik er danig mee naar beneden brengen, wat weer leuk is voor eventuele laptop gerichte GPU's. Er is dus genoeg te winnen door HBM te kiezen, zelfs op het lagere segment.Astennu schreef op donderdag 02 juni 2016 @ 09:07:
Volgens mij herhalen jullie beide pressies de argumenten die ik zelf aandraag.
Ik zeg namelijk ook dat je max maar 1 stack kwijt kan maar dan schiet je er qua bandbreedte tov GDDR5 niets mee op. Dus waarom al die moeite doen?
Anders had AMD namelijk ook gewoon een HD4870 uit kunnen brengen met een 384-bit interface met gDDR4 toentertijd. Waarom duur gDDR5 gebruiken?
Ik spreek ook niet over nu. Ik spreek over wat er in een jaar van nu zou kunnen gebeuren. Een jaar van nu is nog ver weg in GPU-land, zelfs nu nog. Bovendien lijkt er een behoorlijk gat te zitten tussen Polaris 11 en Polaris 10, uitgaande van de geruchten van de specificaties. Als je daar over een jaar iets tussen plant, waarbij een eventuele opvolger van Polaris 10 nog een half jaar later zou verschijnen, is dat dus niet helemaal vreemd. De concurrentie met GTX1070/1080 is waar de grote Vega zou moeten komen zitten. Maar heb je daar 2 verschillende grote Vega's voor nodig? het lijkt mij dat als ze 1 grote Vega op de markt zetten, deze een behoorlijk stukje sneller zou moeten kunnen zijn dan de GTX1080, waarbij nVidia veel moeite zal moeten doen om iets vergelijkbaars op de markt te zetten met een fatsoenlijke prijs.Waarom nog een gpu uitbrengen met specs lager dan polaris en die HBM geven. Je hebt dat markt segment al gedekt met polaris dan is het niet nuttig om een Vega chip met 1800 shaders uit te brengen in dat segment. Dat kan je prima met de kleinere polaris waar wij nu nog niet zo veel van weten en polaris 10 cut down SKU's afdekken. Het is dus logisch dat er iets gaat komen wat sneller en groter is als polaris want dan kunnen ze ook beter concurreren met nVidia. Want voorlopig hebben ze geen antwoord op de GTX1070 en 1080. En nVidia zit ook niet stil die gaan zeker met nog snellere chips komen.
De eerste Vega die ofwel in oktober komt/aangekondigd wordt, danwel begin 2017, zal zeer waarschijnlijk de officiele opvolger worden van Fiji, waarbij de die-size waarschijnlijk zal zitten tussen de 350 en 450mm2. Dat beantwoord echter niet de vraag wat de 2e Vega zal zijn. Ik heb persoonlijk sterke twijfels dat AMD gaat proberen een 600mm2 GPU te maken op 14nm. Misschien in 2018, als 10nm niet echt wil vlotten voor GPU's, maar anders?Dat alles bij elkaar geeft mij rede om te denken dat Vega groter en sneller gaan worden en dat ze niet met een kleine vega komen die met Polaris gaat concurreren dat zou simpelweg verspilling van resources zijn en die heeft AMD helaas niet in overvloed.
Het gaat mij er dus niet om wat de ene Vega chip gaat doen, dat lijkt allemaal vrij duidelijk te zijn.
Die space misschien maar er komt een interposer voor terug al met al kost je dat weer wat. Ik zeg niet dat het geen voordeel heeft qua grote van de kaart en zo alleen dat het veel te duur gaat worden om dat te doen. Belangrijkste punt blijft voor mij: waarom zou je met polaris concurreren?dahakon schreef op donderdag 02 juni 2016 @ 09:25:
[...]
Met 1 stack HBM2 zou je een geheugen interface hebben die kleiner is dan een 128-bit gDDR5 geheugeninterface, met de prestaties gelijk aan/groter dan een 256-bit gDDR5 geheugeninterface. Je bespaart dus al die-space op de GPU-chip zelf. Je schiet er dus wel iets mee op, maar op een andere plek dan waar jij aan denkt. Bovendien maakt het form-factors mogenlijk die met 4-8 gDDR5 chips nagenoeg onmogenlijk zijn. Ook niet onbelangrijk, je kunt je verbruik er danig mee naar beneden brengen, wat weer leuk is voor eventuele laptop gerichte GPU's. Er is dus genoeg te winnen door HBM te kiezen, zelfs op het lagere segment.
Anders had AMD namelijk ook gewoon een HD4870 uit kunnen brengen met een 384-bit interface met gDDR4 toentertijd. Waarom duur gDDR5 gebruiken?
Deden ze ook de HD4850 had gewoon GDDR3 en was aanzienlijk goedkoper. Alleen het topmodel had GDDR5 en de prijs viel toen nog wel mee tov de concurrentie. Bij Fury hebben we gezien dat het door HBM moeilijk was om die kaart voor een lage prijs uit te bregen. Eigenlijk had hij net iets goedkoper moeten zijn gezien de prestaties tov de 980 TI. (DX12 prestaties zijn wel goed maar in het begin werd vooral DX11 getest)
Als HBM echt goed goedkoop was geweest had AMD echt wel HBM op polaris gezet. Hetzelfde geld voor nVidia bij de GTX1080.
Ik zou eerst de echte specs van Polaris 11 en 10 moeten zien voordat daar iets over te zeggen is.[...]
Ik spreek ook niet over nu. Ik spreek over wat er in een jaar van nu zou kunnen gebeuren. Een jaar van nu is nog ver weg in GPU-land, zelfs nu nog. Bovendien lijkt er een behoorlijk gat te zitten tussen Polaris 11 en Polaris 10, uitgaande van de geruchten van de specificaties. Als je daar over een jaar iets tussen plant, waarbij een eventuele opvolger van Polaris 10 nog een half jaar later zou verschijnen, is dat dus niet helemaal vreemd. De concurrentie met GTX1070/1080 is waar de grote Vega zou moeten komen zitten. Maar heb je daar 2 verschillende grote Vega's voor nodig? het lijkt mij dat als ze 1 grote Vega op de markt zetten, deze een behoorlijk stukje sneller zou moeten kunnen zijn dan de GTX1080, waarbij nVidia veel moeite zal moeten doen om iets vergelijkbaars op de markt te zetten met een fatsoenlijke prijs.
De Kleine vega zou het op moeten nemen tegen de 1070 en 1080 de grotere wellicht al tegen een 1080 Ti.
Maar het is inderdaad te vroeg om daar iets zinnigs over te zeggen
Is het al wel zeker dat er twee vega chips komen? Ik verwacht zelf ook een die tussen de 350-450mm2 in. 600 verwacht ik pas het jaar daar na maar je weet het niet. Ligt er ook een beetje aan of 10nm op schema is of niet. Met 28nm kwamen de grote GPU's pas laat ze moeten iets om nog snellere hardware uit te brengen.[...]
De eerste Vega die ofwel in oktober komt/aangekondigd wordt, danwel begin 2017, zal zeer waarschijnlijk de officiele opvolger worden van Fiji, waarbij de die-size waarschijnlijk zal zitten tussen de 350 en 450mm2. Dat beantwoord echter niet de vraag wat de 2e Vega zal zijn. Ik heb persoonlijk sterke twijfels dat AMD gaat proberen een 600mm2 GPU te maken op 14nm. Misschien in 2018, als 10nm niet echt wil vlotten voor GPU's, maar anders?
Het gaat mij er dus niet om wat de ene Vega chip gaat doen, dat lijkt allemaal vrij duidelijk te zijn.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
We weten niet hoe duur een interposer met 1 stack HBM2 volgend jaar zou zijn. Bedenk daarbij overigens wel dat een ~180mm2 met 1 stack HBM2 een aanzienlijk kleinere interposer nodig heeft dan Fiji hedentendage. Daarbij is de huidige interposer van Fiji als ik het goed begreep al niet overdreven duur. Voor de rest weet ik niet in hoeverre je over concurreren moet praten, wanneer een dergelijke chip een jaar later op de markt komt.Astennu schreef op donderdag 02 juni 2016 @ 09:36:
[...]
Die space misschien maar er komt een interposer voor terug al met al kost je dat weer wat. Ik zeg niet dat het geen voordeel heeft qua grote van de kaart en zo alleen dat het veel te duur gaat worden om dat te doen. Belangrijkste punt blijft voor mij: waarom zou je met polaris concurreren?
In mijn voorbeeld zou HD4850 ook een 384-bit geheugeninterface hebben. Met gDDR3 zou deze wel minder bandbreedte hebben, maar de chip zou er niet kleiner van worden en dus evenmin goedkoper.Deden ze ook de HD4850 had gewoon GDDR3 en was aanzienlijk goedkoper. Alleen het topmodel had GDDR5 en de prijs viel toen nog wel mee tov de concurrentie. Bij Fury hebben we gezien dat het door HBM moeilijk was om die kaart voor een lage prijs uit te bregen. Eigenlijk had hij net iets goedkoper moeten zijn gezien de prestaties tov de 980 TI. (DX12 prestaties zijn wel goed maar in het begin werd vooral DX11 getest)
Enfin, Fury is niet goedkoop, of beter gezegd, kijkende naar DX11 titels, een beetje duurder dan je misschien zou willen zien. Maar Fury is dan ook de eerste kaart op de markt met een geheel nieuwe geheugen. Daar zit nu eenmaal een meerprijs aan vast. Dit is echter nodig om er voor te zorgen dat de prijs van dergelijk nieuw geheugen zakt naar een niveau waar het rendabel wordt om elders in te zetten. Met de lancering van HD4870 was het ook niet mogenlijk om gDDR5 in te zetten op een HD4350, maar tegenwoordig verwacht men niet anders. Met gDDR5 zag je dat binnen een jaar een kaart in een iets lager segment al gDDR5 kreeg (HD4770) en binnen 2 jaar gDDR5 was doorgesijpeld naar de kaarten waar Polaris 11 zich bevindt (HD5550). Nu is het nog te vroeg voor HBM in de mainstream, maar 2017 is weer een heel ander jaar.
Momenteel is alleen HBM verkrijgbaar in 'grote' hoeveelheid. HBM2 wordt al wel geproduceerd, maar niet in hoeveelheden die een mainstream chip als Polaris 10 nodig heeft voor een fatsoenlijke launch. Bovendien zal op dit moment de prijs inderdaad waarschijnlijk nog net wat te hoog zijn, zeker als we kijken naar de agressieve prijsstelling die AMD heeft ingenomen met Polaris 10. Hoe dan ook, beschikbaarheid en prijs zijn over een jaar niet te vergelijken met nu.Als HBM echt goed goedkoop was geweest had AMD echt wel HBM op polaris gezet. Hetzelfde geld voor nVidia bij de GTX1080.
NVidia heeft een heel ander probleem, naar de beschikbaarheid. Dat is het gebrek aan kennis aangaande interposers. Er gaan niet zonder reden geruchten rond over Bumpgate 2.0. GP100 moet zich nog bewijzen en is slechts in minieme hoeveelheden beschikbaar voor hen die de hoofdprijs willen betalen. Die afnemers krijgen daarbij dan ook garanties dat defecte kaarten direct worden vervangen, iets wat best wel mogenlijk is als je in acht neemt wat voor prijzen nVidia momenteel lijkt te vragen. Voor de consumentenmarkt is het echter een heel ander verhaal. NVidia zit echt niet te wachten op bumpgate achtige problemen met hun nieuwe kaarten. Ze zouden het vast niet fijn vinden als hun 700 dollar kostende kaarten met bosjes de geest geven na een half jaartje/jaartje gebruik. Het is dan ook niet geheel opvallend dat de geruchten rond GP102 samen gaan met de claim dat deze chip ook gDDR5x zou gebruiken. Nee, dat nVidia momenteel geen HBM gebruikt in de consumentenmarkt, zegt niet zo veel over prijs, als je het mij vraagt.
Mijn idee bij de aankondiging van de 480 van AMD:
AMD was gezien de resultaten van de 'energievretende' maar in directx 12 zeer goed presterende kaarten van de 390(x) serie overtuigd dat een die-shrink en daarmee lagere energieverbruik in combinatie van een iets hogere klokspeed een sneller geheugen wel kon meten met de nieuwe 'mainstream' kaart van nvidia, namelijk de 1070...
AMD is echter totaal verrast door de presaties van de 1070 en kan de klokfrequentie van zijn 480 niet zover verhogen (zonder de nadelen van hoog stroomverbruik of hitteproductie) dat het nu de strategie heeft gekozen om de introductieprijs te verlagen naar 200 dollar.
Maar (hoewel ze momenteel niet anders kunnen) bedrijfstechnisch is het niet de beste stap:
Ze hebben dezelfde kosten voor de die-shrink moeten maken als nvidia, maar ze zullen per verkochte kaart veel minder winst opstrijken. Ook zal het daarna makkelijker zijn voor nvidia om budget kaarten uit te brengen op basis van de chipset van de 1070, terwijl het juist voor AMD moeilijk is om op basis van polaris 10 een beter presterende kaart neer te zetten zonder concessies te doen op het gebied van stroomverbruik.
Daarbij valt op dat de 480 niet echt veel beter zal presteren als de 390(x) serie, zodat de mensen die nu zullen willen upgraden van een 970 in ieder geval niet zo snel voor de 480 zullen kiezen. En laat nu net de 970 de meest succesvolle kaart zijn van de afgelopen jaren (en dus de meeste pc gamers zullen deze kaart inmiddels hebben).
Om een lang verhaal kort te maken: met dezelfde kosten als nvidia, zal AMD veel minder winst per kaart maken en zullen alleen de budget-gamers en gewone consumenten en wellicht de oem-pc makers kiezen voor de 480 om hun pc's aan de man te brengen.
Al met al ben ik dus zeer verrast met de lage prijs van de 480, en wellicht zal ik deze ook aanschaffen voor mijn full hd game rig, maar vraag ik mij af of AMD, zoals ze zeggen te willen, met deze zet marktaandeel zal terugwinnen van Nvidia...
Ik denk het, jammer genoeg voor de concurrentiestrijd, niet.
AMD was gezien de resultaten van de 'energievretende' maar in directx 12 zeer goed presterende kaarten van de 390(x) serie overtuigd dat een die-shrink en daarmee lagere energieverbruik in combinatie van een iets hogere klokspeed een sneller geheugen wel kon meten met de nieuwe 'mainstream' kaart van nvidia, namelijk de 1070...
AMD is echter totaal verrast door de presaties van de 1070 en kan de klokfrequentie van zijn 480 niet zover verhogen (zonder de nadelen van hoog stroomverbruik of hitteproductie) dat het nu de strategie heeft gekozen om de introductieprijs te verlagen naar 200 dollar.
Maar (hoewel ze momenteel niet anders kunnen) bedrijfstechnisch is het niet de beste stap:
Ze hebben dezelfde kosten voor de die-shrink moeten maken als nvidia, maar ze zullen per verkochte kaart veel minder winst opstrijken. Ook zal het daarna makkelijker zijn voor nvidia om budget kaarten uit te brengen op basis van de chipset van de 1070, terwijl het juist voor AMD moeilijk is om op basis van polaris 10 een beter presterende kaart neer te zetten zonder concessies te doen op het gebied van stroomverbruik.
Daarbij valt op dat de 480 niet echt veel beter zal presteren als de 390(x) serie, zodat de mensen die nu zullen willen upgraden van een 970 in ieder geval niet zo snel voor de 480 zullen kiezen. En laat nu net de 970 de meest succesvolle kaart zijn van de afgelopen jaren (en dus de meeste pc gamers zullen deze kaart inmiddels hebben).
Om een lang verhaal kort te maken: met dezelfde kosten als nvidia, zal AMD veel minder winst per kaart maken en zullen alleen de budget-gamers en gewone consumenten en wellicht de oem-pc makers kiezen voor de 480 om hun pc's aan de man te brengen.
Al met al ben ik dus zeer verrast met de lage prijs van de 480, en wellicht zal ik deze ook aanschaffen voor mijn full hd game rig, maar vraag ik mij af of AMD, zoals ze zeggen te willen, met deze zet marktaandeel zal terugwinnen van Nvidia...
Ik denk het, jammer genoeg voor de concurrentiestrijd, niet.
[ Voor 7% gewijzigd door DeArmeStudent op 02-06-2016 10:17 ]
Dezelfde kosten? Als ik kijk naar die-size (helaas alleen nog uit geruchten voor Polaris 10), zie ik 232 mm2 voor de RX 480 tegen 314 mm2 voor de GTX1070. Polaris 10 is qua silicon goedkoper dan de 1070...
Daarnaast zijn beide gericht op een compleet ander segment. NVidia heeft nog geen 1060 uitgebracht die recht tegenover de RX 480 zou geplaatst moeten worden. Het verschil tussen $199 en $379 is best groot.
Daarnaast zijn beide gericht op een compleet ander segment. NVidia heeft nog geen 1060 uitgebracht die recht tegenover de RX 480 zou geplaatst moeten worden. Het verschil tussen $199 en $379 is best groot.
Heeft iemand ook een idee wanneer de third party versies zullen verschijnen? Het is namelijk het wachten op die kaarten. In ieder geval voor mij.
AMD heeft met deze generatie juist niet ingezet op uitsluitend prestaties. In plaats daarvan willen ze concurreren met de beste prijs/prestatie verhouding. Als ze iets geleerd hebben van de afgelopen jaren dan is het wel dat het geen zin heeft om puur op prestatie niveau te concurreren met het veel grotere Nvidia. Iedere keer wanneer ze de snelste kaart op de markt brachten lag er na een maandje of 2 a 3 weer een nieuw antwoord van Nvidia in de schappen. Door de prijzen van hun nieuwe producten te halveren ten opzichte van de concurrentie, maken ze hun producten veel interessanter voor de consument. Die zijn niet achterlijk, en wij als Nederlanders staan er niet om bekend een dief van onze eigen portemonnee te zijn.DeArmeStudent schreef op donderdag 02 juni 2016 @ 10:06:
Mijn idee bij de aankondiging van de 480 van AMD:
AMD was gezien de resultaten van de 'energievretende' maar in directx 12 zeer goed presterende kaarten van de 390(x) serie overtuigd dat een die-shrink en daarmee lagere energieverbruik in combinatie van een iets hogere klokspeed een sneller geheugen wel kon meten met de nieuwe 'mainstream' kaart van nvidia, namelijk de 1070...
AMD is echter totaal verrast door de presaties van de 1070 en kan de klokfrequentie van zijn 480 niet zover verhogen (zonder de nadelen van hoog stroomverbruik of hitteproductie) dat het nu de strategie heeft gekozen om de introductieprijs te verlagen naar 200 dollar.
Maar (hoewel ze momenteel niet anders kunnen) bedrijfstechnisch is het niet de beste stap:
Ze hebben dezelfde kosten voor de die-shrink moeten maken als nvidia, maar ze zullen per verkochte kaart veel minder winst opstrijken. Ook zal het daarna makkelijker zijn voor nvidia om budget kaarten uit te brengen op basis van de chipset van de 1070, terwijl het juist voor AMD moeilijk is om op basis van polaris 10 een beter presterende kaart neer te zetten zonder concessies te doen op het gebied van stroomverbruik.
Daarbij valt op dat de 480 niet echt veel beter zal presteren als de 390(x) serie, zodat de mensen die nu zullen willen upgraden van een 970 in ieder geval niet zo snel voor de 480 zullen kiezen. En laat nu net de 970 de meest succesvolle kaart zijn van de afgelopen jaren (en dus de meeste pc gamers zullen deze kaart inmiddels hebben).
Om een lang verhaal kort te maken: met dezelfde kosten als nvidia, zal AMD veel minder winst per kaart maken en zullen alleen de budget-gamers en gewone consumenten en wellicht de oem-pc makers kiezen voor de 480 om hun pc's aan de man te brengen.
Al met al ben ik dus zeer verrast met de lage prijs van de 480, en wellicht zal ik deze ook aanschaffen voor mijn full hd game rig, maar vraag ik mij af of AMD, zoals ze zeggen te willen, met deze zet marktaandeel zal terugwinnen van Nvidia...
Ik denk het, jammer genoeg voor de concurrentiestrijd, niet.
AMD zet misschien wel in op de VR hype die nu gaande is.DeArmeStudent schreef op donderdag 02 juni 2016 @ 10:06:
Mijn idee bij de aankondiging van de 480 van AMD:
AMD was gezien de resultaten van de 'energievretende' maar in directx 12 zeer goed presterende kaarten van de 390(x) serie overtuigd dat een die-shrink en daarmee lagere energieverbruik in combinatie van een iets hogere klokspeed een sneller geheugen wel kon meten met de nieuwe 'mainstream' kaart van nvidia, namelijk de 1070...
AMD is echter totaal verrast door de presaties van de 1070 en kan de klokfrequentie van zijn 480 niet zover verhogen (zonder de nadelen van hoog stroomverbruik of hitteproductie) dat het nu de strategie heeft gekozen om de introductieprijs te verlagen naar 200 dollar.
Maar (hoewel ze momenteel niet anders kunnen) bedrijfstechnisch is het niet de beste stap:
Ze hebben dezelfde kosten voor de die-shrink moeten maken als nvidia, maar ze zullen per verkochte kaart veel minder winst opstrijken. Ook zal het daarna makkelijker zijn voor nvidia om budget kaarten uit te brengen op basis van de chipset van de 1070, terwijl het juist voor AMD moeilijk is om op basis van polaris 10 een beter presterende kaart neer te zetten zonder concessies te doen op het gebied van stroomverbruik.
Daarbij valt op dat de 480 niet echt veel beter zal presteren als de 390(x) serie, zodat de mensen die nu zullen willen upgraden van een 970 in ieder geval niet zo snel voor de 480 zullen kiezen. En laat nu net de 970 de meest succesvolle kaart zijn van de afgelopen jaren (en dus de meeste pc gamers zullen deze kaart inmiddels hebben).
Om een lang verhaal kort te maken: met dezelfde kosten als nvidia, zal AMD veel minder winst per kaart maken en zullen alleen de budget-gamers en gewone consumenten en wellicht de oem-pc makers kiezen voor de 480 om hun pc's aan de man te brengen.
Al met al ben ik dus zeer verrast met de lage prijs van de 480, en wellicht zal ik deze ook aanschaffen voor mijn full hd game rig, maar vraag ik mij af of AMD, zoals ze zeggen te willen, met deze zet marktaandeel zal terugwinnen van Nvidia...
Ik denk het, jammer genoeg voor de concurrentiestrijd, niet.
De goedkoopste VR capable kaart wordt nu de 480 ipv de 290/970.
Niet iedereen wil 200 euro meer betalen voor 30% meer performance, daarnaast hebben we nog geen benchmarks gezien.
Juist voor arme studenten is dit een goeie kaart.
Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.
Nee hoor AMD is echt niet verrast door de GTX1070 en 1080. De afgelopen generaties heeft nVidia dezelfde sprongen gemaakt qua prestaties en efficiëntie. Dit is echt heel voorspelbaar. De winst is nog relatief klein gezien we nu 14 en 16nm hebben. Er is nog veel meer mogelijk als we naar 500-600mm2 chips gaan.DeArmeStudent schreef op donderdag 02 juni 2016 @ 10:06:
Mijn idee bij de aankondiging van de 480 van AMD:
AMD was gezien de resultaten van de 'energievretende' maar in directx 12 zeer goed presterende kaarten van de 390(x) serie overtuigd dat een die-shrink en daarmee lagere energieverbruik in combinatie van een iets hogere klokspeed een sneller geheugen wel kon meten met de nieuwe 'mainstream' kaart van nvidia, namelijk de 1070...
Gezien de die size van de Polaris chips was het doel voor AMD echt Premium vr prestaties voor de massa. We zien nu dat de R9 390 dat prima kan. Ik neem aan dat AMD daar ook wel een idee over had toen ze aan polaris begonnen.Dus als ze nog een kaart neer zetten die wat sneller is als een R9 390X en een die zo snel is als een R9 390 maar dan voor 199 euro zit je helemaal goed.
Ik ben er van overtuigd dat dit een bewuste keuze is geweest. Als ze voor de performance kroon gegaan waren hadden ze echt wel een grotere chip op de markt gezet met een 384Bit bus.
De grootste polaris chip is +-40-45% kleiner dan de GP104 van nVidia. Als je onder de 300mm2 gaat zitten weet je dat de kans groot is dat de concurrentie met iets komt wat sneller is.
Daarnaast wie zegt dat het een Die shrink is? ook daar ben ik er van overtuigd dat er onder de motorkap aardig wat gesleuteld is om het verbruik verder te verlagen en eventueel de prestaties per shader per clock op te krikken.
Dit werd ook wel tijd de aanpassingen aan GCN waren tot nu toe relatief klein.
[ Voor 9% gewijzigd door Astennu op 02-06-2016 11:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met kosten bedoel ik voornamelijk de research en development die er komt kijken bij een die-shrink en tegelijkertijd het ontwikkelen van een nieuwe generatie kaarten...LongBowNL schreef op donderdag 02 juni 2016 @ 10:25:
Dezelfde kosten? Als ik kijk naar die-size (helaas alleen nog uit geruchten voor Polaris 10), zie ik 232 mm2 voor de RX 480 tegen 314 mm2 voor de GTX1070. Polaris 10 is qua silicon goedkoper dan de 1070...
Als eenmaal de machines draaien, dan kunnen er misschien wel wat meer chips uit een wafel gehaald worden door AMD, maar het verschil in kosten daarvan is niet zo heel groot wanneer de machines op volle toeren draaien, en zeker geen prijsverschil van bijna 200 dollar per chip:
AMD brengt noodgedwongen deze polaris 10 uit in dit segment, omdat de 1070 zo verbazingwekkend goed presteert! Wanneer de 480 veel beter gepresteerd had en wat prestaties betreft net iets onder de 1070 uitgekomen was, dan hadden ze er net zo goed 300 dollar voor gevraagd. Het is dus, naar mijn mening, niet zo dat AMD expres gekozen heeft om bij de introductie van polaris 10 te gaan concureren in het budgetsegment, anders hadden ze wel in de lineup een chip aangekondigd tussen polaris 10 en vega.Daarnaast zijn beide gericht op een compleet ander segment. NVidia heeft nog geen 1060 uitgebracht die recht tegenover de RX 480 zou geplaatst moeten worden. Het verschil tussen $199 en $379 is best groot.
Dat nvidia momenteel met meer dan 379 dollar zijn kaarten duur op de markt zet, is dus alleen omdat ze geen concurrentie hebben van AMD en dus deze hoge prijs kunnen vragen, en niet omdat de chip maken voor nvidia zoveel duurder is dan voor AMD.
Tuurlijk, en ook ik zal eens grondig gaan nadenken of de 480 mijn nieuwe kaart wordt (ff de benchmarks afwachten) maar de grote groep gamers die nu al een 970 heeft zal niet voor de 480 kiezen...en die kaart is al jaren geleden uitgekomen. En tot eind 2016 zal AMD dus niet de leverancier zijn voor een upgrade voor deze gamers.Seth_Chaos schreef op donderdag 02 juni 2016 @ 10:54:
[...]
AMD heeft met deze generatie juist niet ingezet op uitsluitend prestaties. In plaats daarvan willen ze concurreren met de beste prijs/prestatie verhouding. Als ze iets geleerd hebben van de afgelopen jaren dan is het wel dat het geen zin heeft om puur op prestatie niveau te concurreren met het veel grotere Nvidia. Iedere keer wanneer ze de snelste kaart op de markt brachten lag er na een maandje of 2 a 3 weer een nieuw antwoord van Nvidia in de schappen. Door de prijzen van hun nieuwe producten te halveren ten opzichte van de concurrentie, maken ze hun producten veel interessanter voor de consument. Die zijn niet achterlijk, en wij als Nederlanders staan er niet om bekend een dief van onze eigen portemonnee te zijn.
Al met al heb ik het idee dat AMD, hoewel de 480 zeer veel biedt voor 200 dollar, toch een beetje achter het net blijft vissen.
Het is geen simpele die shrink. De architectuur is ook aangepast.DeArmeStudent schreef op donderdag 02 juni 2016 @ 11:03:
[...]
Met kosten bedoel ik voornamelijk de research en development die er komt kijken bij een die-shrink en tegelijkertijd het ontwikkelen van een nieuwe generatie kaarten...
Als eenmaal de machines draaien, dan kunnen er misschien wel wat meer chips uit een wafel gehaald worden door AMD, maar het verschil in kosten daarvan is niet zo heel groot wanneer de machines op volle toeren draaien, en zeker geen prijsverschil van bijna 200 dollar per chip:
Het is overigens Wafer en niet wafel.
Het verschil in kosten is wel aanzienlijk. Er kunnen veel meer Polaris chips op een wafer dan GP104 chips. Dat scheelt aardig in de kosten per kaart het zal geen 200 dollar per chip zijn. Maar AMD zal ook bij het ontwerpen van het PCB wel gekeken hebben naar mogelijkheden om kosten te besparen. Daarnaast is het inderdaad een bewuste keuze om de prijs zo scherp in te zetten.
Sorry dat ik het zeg maar ik vind je bijzonder negatief over AMD.[...]
AMD brengt noodgedwongen deze polaris 10 uit in dit segment, omdat de 1070 zo verbazingwekkend goed presteert! Wanneer de 480 veel beter gepresteerd had en wat prestaties betreft net iets onder de 1070 uitgekomen was, dan hadden ze er net zo goed 300 dollar voor gevraagd. Het is dus, naar mijn mening, niet zo dat AMD expres gekozen heeft om bij de introductie van polaris 10 te gaan concureren in het budgetsegment, anders hadden ze wel in de lineup een chip aangekondigd tussen polaris 10 en vega.
Dat nvidia momenteel met meer dan 379 dollar zijn kaarten duur op de markt zet, is dus alleen omdat ze geen concurrentie hebben van AMD en dus deze hoge prijs kunnen vragen, en niet omdat de chip maken voor nvidia zoveel duurder is dan voor AMD.
Woorden zoals 1070 zo verbazingwekkend goed, die shrink en Budget segment vind ik echt niet toepasselijk.
De GTX1070 presteert prima maar is niet verbazingwekkend goed. Ik was pas verbaast geweest als de GTX1080 80-90% sneller was geweest dan de Titan X. Zoals we dit in het verleden hebben gezien. Zowel de 1070 als 1080 presteerde geheel volgens verwachting. Zoals ik al zij toen we de 670/680, 780 en later de 970 en 980 kregen hadden we vergelijkbare stappen. Er waren genoeg mensen die dit soort percentages maanden van tevoren al gegokt hadden.
En 199 is niet het budget segment! dat is het 50-99 euro segment. Maar dat is erg klein geworden sinds de APU's en Intel CPU's met redelijk GPU's er in. Dan heb je ook nog het segment van 100-199 dat is net boven low end maar nog niet echt mid range. Die zit meer rond de 200-300. In die segmenten worden verreweg de meeste kaarten verkocht.
Er zijn maar weinig mensen die 400-500 euro aan een kaart uit geven laat staan 700+.
Als je zo op tweakers en HWI kijkt lijken dat er veel maar als je naar aantallen gaat kijken tov andere segmenten zijn dat er maar weinig.
Het ligt er aan wat je wil bereiken en ik denk dat je niet van achter het net vissen kan spreken als dit het doel was. Ze willen zorgen dat meer mensen VR kunnen proberen meer mensen op PC games gaan spelen door het betaalbaarder te maken. Dan moet je niet met een kaart van 300-400 dollar komen maar inderdaad 199 of zelfs goedkoper.
Ik ken genoeg mensen die wel een RX 480 zouden kopen qua prijs maar de 1070 veel te duur vinden.
Tijd zal het leren of dit de goede keuze was. Soms moet je het durven om keuzes te maken en bv in te zetten op een ander markt segment om te kijken of je op die manier marktaandeel kan winnen.
Met de HD4850 en HD4870 hebben ze dit ook al eens gedaan. Alleen dit is nog even een stapje extremer. Toen was het een hele goede zet. We zullen zien of dit een goede keuze is.
Ik denk dat de RX 480 straks heel hoog staat qua prijs prestatie verhouding en en ook qua performance per watt.
[ Voor 13% gewijzigd door Astennu op 02-06-2016 11:21 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
@dearmestudent
Ik betwijfel aan de ene kant of de groep overstappers nu wel zo groot is die tot 3/4 weken terug de laatste generatie videokaarten had, ik denk dat groep upgraders groter is die van oudere generatie kaarten komen
Radeon 2xx en ouder, en GTX7xx en ouder.
Edit:
Althans dit is mijn idee hierover, ikzelf heb een GTX980Ti (topkaart) maar geen haar op mijn hoofd die erover nadenkt om de upgraden naar een GTX1080 of toekomstige Ti of Vega,
Ik doe dat pas wanneer nieuwe games op 2560x1600 weer structureel onder de 60 fps gaan komen. gezien wanneer ik nieuwe kaarten haal is dat om de 2 tot 2,5 jaar duurt dat nog wel even.
Ik betwijfel aan de ene kant of de groep overstappers nu wel zo groot is die tot 3/4 weken terug de laatste generatie videokaarten had, ik denk dat groep upgraders groter is die van oudere generatie kaarten komen
Radeon 2xx en ouder, en GTX7xx en ouder.
Edit:
Althans dit is mijn idee hierover, ikzelf heb een GTX980Ti (topkaart) maar geen haar op mijn hoofd die erover nadenkt om de upgraden naar een GTX1080 of toekomstige Ti of Vega,
Ik doe dat pas wanneer nieuwe games op 2560x1600 weer structureel onder de 60 fps gaan komen. gezien wanneer ik nieuwe kaarten haal is dat om de 2 tot 2,5 jaar duurt dat nog wel even.
[ Voor 40% gewijzigd door Axelfoley007 op 02-06-2016 11:23 ]
Aan het einde van het jaar zou zowel SKHynix als Samsung 4GB en 8GB stacks HBM2 in mass production moeten hebben en de 4GB stacks zelfs nog wat eerder dan eind van het jaar. SKHynix zou in Q3 van dit jaar met de mass production van 4GB stacks HBM2 moeten komen.dahakon schreef op donderdag 02 juni 2016 @ 09:57:
Momenteel is alleen HBM verkrijgbaar in 'grote' hoeveelheid. HBM2 wordt al wel geproduceerd, maar niet in hoeveelheden die een mainstream chip als Polaris 10 nodig heeft voor een fatsoenlijke launch.
Ik dacht dat de GP100 Tesla pas geleverd wordt aan het einde van dit jaar. Hoorde iets over problemen en uitstellen.NVidia heeft een heel ander probleem, naar de beschikbaarheid. Dat is het gebrek aan kennis aangaande interposers. Er gaan niet zonder reden geruchten rond over Bumpgate 2.0. GP100 moet zich nog bewijzen en is slechts in minieme hoeveelheden beschikbaar voor hen die de hoofdprijs willen betalen. Die afnemers krijgen daarbij dan ook garanties dat defecte kaarten direct worden vervangen, iets wat best wel mogenlijk is als je in acht neemt wat voor prijzen nVidia momenteel lijkt te vragen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Inderdaad er zijn ook nog genoeg mensen die een kaart van 3-5 jaar oud hebben.Axelfoley007 schreef op donderdag 02 juni 2016 @ 11:18:
@dearmestudent
Ik betwijfel aan de ene kant of de groep overstappers nu wel zo groot is die tot 3/4 weken terug de laatste generatie videokaarten had, ik denk dat groep upgraders groter is die van oudere generatie kaarten komen
Radeon 2xx en ouder, en GTX7xx en ouder.
Niet iedereen koopt ieder jaar iets nieuws.
Hardware gekke tweakers doen 0,5-1 jaar met een kaart
De wat meer fanatieke gamers zullen 2-3 met een kaart doen
De de meeste mensen 3-5 jaar of langer gewoon als ze een nieuwe pc kopen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De GTX 970 mag dan wel een goedverkochte kaart zijn, maar de conclusie die je daar aan verbind klopt natuurlijk van geen kant.DeArmeStudent schreef op donderdag 02 juni 2016 @ 10:06:
En laat nu net de 970 de meest succesvolle kaart zijn van de afgelopen jaren (en dus de meeste pc gamers zullen deze kaart inmiddels hebben).
Een klein deel van de mensen zal een kaart hebben welke de prestaties heeft van een GTX 970 of sneller. Er zijn dus nog wel degelijk heel wat mensen die graag zo'n kaart willen hebben. Polaris 10 lijkt ongeveer twee maal zo snel te zijn als een HD7950 en dat is de kaart die ik tot een week geleden had. En de meeste mensen zullen waarschijnlijk niet eens zo'n snelle kaart hebben.
Ongeveer een maand later is meestal vrij normaal.Danny.G schreef op donderdag 02 juni 2016 @ 10:46:
Heeft iemand ook een idee wanneer de third party versies zullen verschijnen? Het is namelijk het wachten op die kaarten. In ieder geval voor mij.
[ Voor 16% gewijzigd door -The_Mask- op 02-06-2016 11:39 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De 970 had een MSRP bij release van $329.DeArmeStudent schreef op donderdag 02 juni 2016 @ 11:13:
[...]
Tuurlijk, en ook ik zal eens grondig gaan nadenken of de 480 mijn nieuwe kaart wordt (ff de benchmarks afwachten) maar de grote groep gamers die nu al een 970 heeft zal niet voor de 480 kiezen...en die kaart is al jaren geleden uitgekomen.
[...]
De RX 480 heeft een MSRP van $199.
Opnieuw ander segment. Dus ik snap niet waarom je appels met peren blijft vergelijken.
De GTX 1070 is alleen helemaal niet verbazingwekkend goed dat is het probleem. TSMC geeft zelfs dit aan:DeArmeStudent schreef op donderdag 02 juni 2016 @ 11:03:
AMD brengt noodgedwongen deze polaris 10 uit in dit segment, omdat de 1070 zo verbazingwekkend goed presteert!
Je kan dus zonder architectuur verbeteringen direct al zien dat je 65/70% sneller moet verwachten met een kleinere die size en dat klopt ook wel als je een GTX 970 vergelijkt met een GTX 1070 en GTX 980 met een GTX 1080. Nou ja "ook wel", dat klopt eigenlijk precies.TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.
Daarnaast als je ziet hoe de prestaties per cudacore is dan zie je dat er ook niks veranderd is aan de IPC.
Er is dus in de normale game prestaties echt helemaal niks bijzonders aan Pascal, dat valt exact in de lijn der verwachtingen. Enige bijzondere is de nieuwe PolyMorph Engine welke zorgt voor een extreme boost tijdens VR. Kan best zijn dat AMD die niet heeft zien aankomen.
Maxwell was verbazingwekkend goed.
-The_Mask- schreef op dinsdag 18 februari 2014 @ 18:08:
Wauw, dit had ik echt niet verwacht....
http://www.techpowerup.co...VIDIA/GeForce_GTX_750_Ti/
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Waarom dat? die 970 gebruikers kunnen overstappen naar een 1070, maar voor die prijs heb je even goed twee 480's en houd je nog geld over.DeArmeStudent schreef op donderdag 02 juni 2016 @ 11:13:
[...]
Tuurlijk, en ook ik zal eens grondig gaan nadenken of de 480 mijn nieuwe kaart wordt (ff de benchmarks afwachten) maar de grote groep gamers die nu al een 970 heeft zal niet voor de 480 kiezen...en die kaart is al jaren geleden uitgekomen. En tot eind 2016 zal AMD dus niet de leverancier zijn voor een upgrade voor deze gamers.
Al met al heb ik het idee dat AMD, hoewel de 480 zeer veel biedt voor 200 dollar, toch een beetje achter het net blijft vissen.
Komt AMD ook met n soort foundrs edition net zoals nvidia?

Waarom zou je dat willen?glenn-16 schreef op donderdag 02 juni 2016 @ 12:05:
Komt AMD ook met n soort foundrs edition net zoals nvidia?
Ik betwijfel het, misschien wel eerst een reference design zoals bij de 290, maar, aangezien de 380 [en Fury] direct naar 3th party koelers gingen, zie ik dat eigenlijk ook wel gebeuren.
Al moet in principe die blower voldoende zijn met zo'n laag verbruik.
Al moet in principe die blower voldoende zijn met zo'n laag verbruik.
People as things, that’s where it starts.
AMD heeft de reference koeler en die hebben ze al laten zien.
-The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 134"
-The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 134"
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Maar gaat die referencecooler ook echt uitgegeven worden? De HD7970 had er volgens mij ook zo'n eentje, en die heb ik nooit in het wild gezien. Net als de HD6000 series.
AMD is ook met dat soort dingen gewoon vreemd, want de HD5870 en R9 290[x] waren wel een tijd alleen met de blower te verkrijgen.
Maar, zoals ik zei, het verbruik van een 480 is dusdanig laag dat ook een blower gewoon nog acceptabel moet presteren.
AMD is ook met dat soort dingen gewoon vreemd, want de HD5870 en R9 290[x] waren wel een tijd alleen met de blower te verkrijgen.
Maar, zoals ik zei, het verbruik van een 480 is dusdanig laag dat ook een blower gewoon nog acceptabel moet presteren.
People as things, that’s where it starts.
En zit je weer met de problemen van multi-gpu setups.Seth_Chaos schreef op donderdag 02 juni 2016 @ 11:57:
[...]
Waarom dat? die 970 gebruikers kunnen overstappen naar een 1070, maar voor die prijs heb je even goed twee 480's en houd je nog geld over.
Zolang AMD voor 200 euro de performance van een GTX980 kan pakken, zitten ze prima. Dat betekent voor veel shoppers in dit segment (die dus nu een GTX760/280X/380 of GTX960 hebben) dat ze er tussen de 60 en 90% op vooruit gaan in één generatie.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Wellicht een beetje off-topic, maar ik ben na de aankondiging van de RX 480 wel eens benieuwd naar (de geruchten van) de refreshes op de consoles (XBox en Playstation). Deze worden aangestuurd door AMD chips en de huidige generatie is gewoon zwak (waren ze bij de launch al).
Echter, als AMD nu voor 200 dollar (retail prijs) een GPU kan leveren met ongeveer de kracht van een GTX980/R9 390X, dan zouden nieuwe consoles best wel eens een heel stuk krachtiger kunnen worden. Als deze enigszins in de buurt zouden kunnen komen van de RX 480 qua performance, dan moet 1080p60 peanuts zijn en 4K 30FPS met enige optimalisatie en de settings niet al te hoog ook haalbaar zijn.
Echter, als AMD nu voor 200 dollar (retail prijs) een GPU kan leveren met ongeveer de kracht van een GTX980/R9 390X, dan zouden nieuwe consoles best wel eens een heel stuk krachtiger kunnen worden. Als deze enigszins in de buurt zouden kunnen komen van de RX 480 qua performance, dan moet 1080p60 peanuts zijn en 4K 30FPS met enige optimalisatie en de settings niet al te hoog ook haalbaar zijn.
Ik zie zo nu en dan nog wel HD7970's met reference koelers voorbij komen in het V&A gedeelte, sterker nog: er staat er op dit moment zelfs een te koop.RobinHood schreef op donderdag 02 juni 2016 @ 12:16:
Maar gaat die referencecooler ook echt uitgegeven worden? De HD7970 had er volgens mij ook zo'n eentje, en die heb ik nooit in het wild gezien. Net als de HD6000 series.
Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT
dat wil ik helemaal niet! was een vraag ben nogal leek in dit soort dingen 
Geen founders, maar denk dat de retailers in het begin nog even wat marge zullen pakken zo lang de kaart schaars is.
Mechwarrior Online: Flapdrol
De HD6950 en 70 hadden beide een blower de HD7970 ook. Die coolers vond ik het prettigste en mooiste.RobinHood schreef op donderdag 02 juni 2016 @ 12:16:
Maar gaat die referencecooler ook echt uitgegeven worden? De HD7970 had er volgens mij ook zo'n eentje, en die heb ik nooit in het wild gezien. Net als de HD6000 series.
AMD is ook met dat soort dingen gewoon vreemd, want de HD5870 en R9 290[x] waren wel een tijd alleen met de blower te verkrijgen.
Maar, zoals ik zei, het verbruik van een 480 is dusdanig laag dat ook een blower gewoon nog acceptabel moet presteren.
De 390X is nooit met een blower uit gekomen zijn alleen samples van.
Ik ben helemaal weg van de Cooler van de RX480 ben benieuwd hoe hij het gaat doen.
Warme lucht gewoon lekker de kast uit
Hopelijk zijn ze in het begin gewoon met refferenced Cooler te krijgen. Ik hoef die dual fan sleeve bearing koelers niet. Al die tri X koelers kregen problemen als je er mee ging menen. Totaal niet gemaakt om lang te draaien en draaide dan op slechts 65%. Die dingen worden na 2 a 3 jaar gamen ook gaar die blowers gaan langer mee.
Hopelijk hebben ze voor Vega ook zo iets maar dat zou ook wel weer een aio h2o oplossing kunnen worden.
[ Voor 14% gewijzigd door Astennu op 02-06-2016 12:49 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Toelichting op het verschil in image quality in AotS:
https://www.reddit.com/r/...mage_quality_controversy/
https://www.reddit.com/r/...mage_quality_controversy/
Hi. Now that I'm off of my 10-hour airplane ride to Oz, and I have reliable internet, I can share some insight.
System specs:In Game Settings for both configs: Crazy Settings | 1080P | 8x MSAA | VSYNC OFF
- CPU: i7 5930K
- RAM: 32GB DDR4-2400Mhz
- Motherboard: Asrock X99M Killer
- GPU config 1: 2x Radeon RX 480 @ PCIE 3.0 x16 for each GPU
- GPU config 2: Founders Edition GTX 1080
- OS: Win 10 64bit
- AMD Driver: 16.30-160525n-230356E
- NV Driver: 368.19
Ashes Game Version: v1.12.19928
Benchmark results:
2x Radeon RX 480 - 62.5 fps | Single Batch GPU Util: 51% | Med Batch GPU Util: 71.9 | Heavy Batch GPU Util: 92.3% GTX 1080 – 58.7 fps | Single Batch GPU Util: 98.7%| Med Batch GPU Util: 97.9% | Heavy Batch GPU Util: 98.7%
The elephant in the room:
Ashes uses procedural generation based on a randomized seed at launch. The benchmark does look slightly different every time it is run. But that, many have noted, does not fully explain the quality difference people noticed.
At present the GTX 1080 is incorrectly executing the terrain shaders responsible for populating the environment with the appropriate amount of snow. The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly. Snow is somewhat flat and boring in color compared to shiny rocks, which gives the illusion that less is being rendered, but this is an incorrect interpretation of how the terrain shaders are functioning in this title.
The content being rendered by the RX 480--the one with greater snow coverage in the side-by-side (the left in these images)--is the correct execution of the terrain shaders.
So, even with fudgy image quality on the GTX 1080 that could improve their performance a few percent, dual RX 480 still came out ahead.
As a parting note, I will mention we ran this test 10x prior to going on-stage to confirm the performance delta was accurate. Moving up to 1440p at the same settings maintains the same performance delta within +/-1%.
AMD brengt maar heel erg weinig GPU's uit zonder reference koeler. Ik zou zo even geen één GPU weten welke niet eerst met reference kwam. Enige wat je wel eens ziet is dat de XT versie eerst met reference komt en de Pro enkele weken later zonder reference. Maar een GPU welke helemaal zonder reference koeler kwam weet ik zo even niet. Low-end stuff niet mee gerekend.RobinHood schreef op donderdag 02 juni 2016 @ 12:16:
Maar gaat die referencecooler ook echt uitgegeven worden? De HD7970 had er volgens mij ook zo'n eentje, en die heb ik nooit in het wild gezien. Net als de HD6000 series.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het viel mij ook al op. Vroeg mij inderdaad al af of er een stukje random terrain generation was.LongBowNL schreef op donderdag 02 juni 2016 @ 13:08:
Toelichting op het verschil in image quality in AotS:
https://www.reddit.com/r/...mage_quality_controversy/
[...]
Het beeld van de GTX1080 zag er inderdaad wat kleurvoller uit. Beetje ongelukkig uitgekozen? Ik weet niet of de GTX980 TI die problemen ook had of GTX980 SLi anders hadden ze beter daar mee kunnen vergelijken.
Maar goed dat ze het toelichten.
Low end en Midrange wel vaker niet.-The_Mask- schreef op donderdag 02 juni 2016 @ 13:10:
[...]
AMD brengt maar heel erg weinig GPU's uit zonder reference koeler. Ik zou zo even geen één GPU weten welke niet eerst met reference kwam. Enige wat je wel eens ziet is dat de XT versie eerst met reference komt en de Pro enkele weken later zonder reference. Maar een GPU welke helemaal zonder reference koeler kwam weet ik zo even niet. Low-end stuff niet mee gerekend.
High end meestal wel. R9 390(X) is er niet refferenced geweest en Fury ook niet. (De X en Nano waren er wel refferenced).
Maar verder waren alle kaarten ook verkocht met refferenced coolers. Ik heb ze TM de R9 290X thuis liggen.

Heb thuis ook nog wel een foto van boven af waar ze beter te zien zijn.
Edit:
Oude foto hier staan ze niet allemaal op:
Bij interesse kan ik de meest actuele ook wel een keer posten.
[ Voor 55% gewijzigd door Astennu op 02-06-2016 13:22 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
je kunt alvast een inschatting maken door te kijken naar de van de chip die in de huidige PS4 zit. Er zit een custom pitcairn chip in. Deze heeft een die size van 212mm dat is iets kleiner dan die van de polaris 10. Wat echter minstens net zo kritisch is als die size is de TDP en die van van een baseline pitcairn is 130w, als het klopt volgens geruchten is de tdp van de polaris 10 110w. De custom pitcairn in de PS4 heeft 2 clusters ook nog eens uitgeschakeld. Kans is redelijk aanwezig dat in een verbeterde PS4 een redelijk volledig draaiende polaris 10 dat sterker nog mogelijk gezien niet eens gedownclocked is. Een vraag hier ook echter is hoe het zit met de games, er zit toch een andere architectuur in. Waarschijnlijk zullen oude games patches moeten krijgen om er echt oke op te kunnen draaien.Moi_in_actie schreef op donderdag 02 juni 2016 @ 12:22:
Wellicht een beetje off-topic, maar ik ben na de aankondiging van de RX 480 wel eens benieuwd naar (de geruchten van) de refreshes op de consoles (XBox en Playstation). Deze worden aangestuurd door AMD chips en de huidige generatie is gewoon zwak (waren ze bij de launch al).
Echter, als AMD nu voor 200 dollar (retail prijs) een GPU kan leveren met ongeveer de kracht van een GTX980/R9 390X, dan zouden nieuwe consoles best wel eens een heel stuk krachtiger kunnen worden. Als deze enigszins in de buurt zouden kunnen komen van de RX 480 qua performance, dan moet 1080p60 peanuts zijn en 4K 30FPS met enige optimalisatie en de settings niet al te hoog ook haalbaar zijn.
een andere interessante vraag voor de PS4 VR of hoe het dan ook gaat heten is wat er gaat gebeuren met de CPU. Opnieuw kan er iets verwacht worden dat de zelfde TDP specificaties heeft als de oude CPU. Dat betekent rond de 25W, de vraag alleen is op basis van welke architectuur? Gaan ze ook al voor de Zen of nog niet? Waarschijnlijk heeft een polaris 10 wel een krachtigere cpu nodig, Ik denk dat de kans op een Zen wel redelijk aanwezig.
Ik had het dan ook expliciet over de GPU's en zei er ook nog bij XT versies en niet low-end.Astennu schreef op donderdag 02 juni 2016 @ 13:14:
[...]
Low end en Midrange wel vaker niet.
High end meestal wel. R9 390(X) is er niet refferenced geweest en Fury ook niet. (De X en Nano waren er wel refferenced).
Maar verder waren alle kaarten ook verkocht met refferenced coolers. Ik heb ze TM de R9 290X thuis liggen.
R9 390 en R9 390X hebben dezelfde GPU als de R9 290 en R9 290X waarvan de reference versie eerst was. En Fury is een Pro versie van de Fury X en Nano welke dus alleen maar als reference te krijgen waren.
Altijd leukBij interesse kan ik de meest actuele ook wel een keer posten.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Inderdaad. Als alle planeten in lijn staan, zou het misschien mogenlijk zijn om eind oktober, begin november een high performance kaart uit te brengen in redelijke kwantiteit. Begin 2017 zou sowieso geen probleem moeten zijn.-The_Mask- schreef op donderdag 02 juni 2016 @ 11:23:
Aan het einde van het jaar zou zowel SKHynix als Samsung 4GB en 8GB stacks HBM2 in mass production moeten hebben en de 4GB stacks zelfs nog wat eerder dan eind van het jaar. SKHynix zou in Q3 van dit jaar met de mass production van 4GB stacks HBM2 moeten komen.
Er is niet bepaald veel duidelijk over de situatie. Initieel zou nVidia gelijk beginnen met uitleveren van GP100 naar premium gebruikers, die veel geld over hebben voor nieuw spul. Een normale Tesla/Quaddro die de 'gewone' gebruikers in het bedrijfsleven zouden moeten kunnen kopen, lijken sowieso niet voor 2017 op de markt te komen. Als de geruchten over Bumpgate 2.0 enige waarheid bevatten, kon nVidia nog wel eens lang bezig zijn om te proberen het probleem op te lossen, voor ze een consumenten HBM kaart op de markt zetten. AMD heeft niet zonder reden vele jaren gewerkt aan het zo optimaal krijgen van de technologie.Ik dacht dat de GP100 Tesla pas geleverd wordt aan het einde van dit jaar. Hoorde iets over problemen en uitstellen.
Wauw episch, ik zie dat je mijn hd3850 er niet tussen hebt liggen.Astennu schreef op donderdag 02 juni 2016 @ 13:14:
[...]
Het viel mij ook al op. Vroeg mij inderdaad al af of er een stukje random terrain generation was.
Het beeld van de GTX1080 zag er inderdaad wat kleurvoller uit. Beetje ongelukkig uitgekozen? Ik weet niet of de GTX980 TI die problemen ook had of GTX980 SLi anders hadden ze beter daar mee kunnen vergelijken.
Maar goed dat ze het toelichten.
[...]
Low end en Midrange wel vaker niet.
High end meestal wel. R9 390(X) is er niet refferenced geweest en Fury ook niet. (De X en Nano waren er wel refferenced).
Maar verder waren alle kaarten ook verkocht met refferenced coolers. Ik heb ze TM de R9 290X thuis liggen.
[afbeelding]
Heb thuis ook nog wel een foto van boven af waar ze beter te zien zijn.
Edit:
Oude foto hier staan ze niet allemaal op:
[afbeelding]
Bij interesse kan ik de meest actuele ook wel een keer posten.
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Er waren in der daad al mensen die zijden dat het beeld van de 980Ti veel dichter bij het beeld van de RX480 zat dan dat van de 1080 met dezelfde settings, maar fijn dat het nu ook vanuit AMD is bevestigd. 
Of WCCFTech: http://wccftech.com/amd-radeon-rx-480-polaris-10-launch/
En dit klinkt natuurlijk ook goed:
LongBowNL schreef op donderdag 02 juni 2016 @ 13:08:
Toelichting op het verschil in image quality in AotS:
https://www.reddit.com/r/...mage_quality_controversy/
[...]
Ik ben benieuwd wat Fudzilla hier mee gaat doen: http://fudzilla.com/news/...g-differently-vs-gtx-1080At present the GTX 1080 is incorrectly executing the terrain shaders responsible for populating the environment with the appropriate amount of snow. The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly. Snow is somewhat flat and boring in color compared to shiny rocks, which gives the illusion that less is being rendered, but this is an incorrect interpretation of how the terrain shaders are functioning in this title.
Of WCCFTech: http://wccftech.com/amd-radeon-rx-480-polaris-10-launch/
En dit klinkt natuurlijk ook goed:
Q: Why weren't any single card benchmarks released?
A: Because that is what we sample GPUs to reviewers for.Independent third-party analysis is an important estate in the hardware industryy, and we don't want to take away from their opportunity to perform their duty by scooping them.
Klopt daar heb je ook helemaal gelijk in.-The_Mask- schreef op donderdag 02 juni 2016 @ 13:43:
[...]
Ik had het dan ook expliciet over de GPU's en zei er ook nog bij XT versies en niet low-end.
R9 390 en R9 390X hebben dezelfde GPU als de R9 290 en R9 290X waarvan de reference versie eerst was. En Fury is een Pro versie van de Fury X en Nano welke dus alleen maar als reference te krijgen waren.
[...]
Altijd leuk
Er was wel een refferenced versie van de R9 390(X) maar die is helaas nooit uit gekomen. Had er graag een willen hebben.

De HD3850 zit er inderdaad niet bij. Ik heb me vooral gericht op de high end XT kaarten.aminam schreef op donderdag 02 juni 2016 @ 14:17:
[...]
Wauw episch, ik zie dat je mijn hd3850 er niet tussen hebt liggen.Was ooit eens van plan de hele reference sapphire line up voor high end kaarten vanaf 3000 te verzamelen maar was iets te duur.
Af en toe zit er een Pro versie bij zoals de X1800 XL en de HD4850.
Alles bij elkaar is het inderdaad best duur. Sommige oudere zijn ook relatief kostbaar zoals de Rage Fury Maxx. En de hele nieuwe kaarten zijn ook erg duur.
Daarom heb ik alles tm de R9 290X en helaas geen R9 295X2 en Fury X.
[ Voor 32% gewijzigd door Astennu op 02-06-2016 14:51 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Zoiets zullen ze vast wel gaan doen maar ik denk dat AMD zich ook moet richten op de 1070, maak een kaart die de 1070 duidelijk outperformt dankzij het HBM2-geheugen. Die kaart hoeft niet de rekenkracht van een 1080 te hebben, een kaart die tussen de 1070 en de 1080 gaat inzitten voor onder de 400 euro moet te doen zijn voor AMD, afgaande op de prijs van de 1070 en de uitspraak van de AMD-medewerker (voor dat prijssegment is HBM-geheugen niet duurder). De 1080 is voorlopig forse overkill terwijl het tegelijkertijd gigantisch tekort schiet voor 4k-gaming (vaak net boven de 30 fps).-The_Mask- schreef op donderdag 02 juni 2016 @ 08:49:
[...]
Met één stack HBM2 heb je 256GB/s geheugenbandbreedte evenveel als de RX480 en GTX 1070, twee stacks geeft je al 512GB/s evenveel als Fury X. Eén stack kan 2GB, 4GB of zelfs 8 GB zijn, twee dus het dubbele daarvan.
Je zou dus prima de RX480 met één stack HBM2 kunnen uitbrengen en de keuze hebben tussen 4GB en 8GB. Alleen prijs en beschikbaarheid houden dit tegen.
Alles verdubbelen kan echter wel dan heb je een razendsnelle Vega 10 GPU met 4608 streamprocessors en twee stacks HBM2 met 512GB/s bandbreedte en 8 of 16GB videogeheugen. Heb je gelijk een GPU welke sneller als een GTX1080 gaat zijn.
Mwah, dan kan je net zo goed 1 1070 kopen. Geen problemen met microstutter en DX11, minder energieverbruik.RobinHood schreef op woensdag 01 juni 2016 @ 12:40:
[...]
Ik denk dat dat het wel is ja. Mensen zien graag een titanenstrijd, en die is er nu niet. Nvidia is inderdaad sneller, maar veel duurder.
Ik ben wel erg benieuwd naar hoe moderne games omgaan met CF. 2x 480 zal sneller zijn dan een 1070, voor minder of hetzelfde geld, mits de schaling okay is, en er geen gedoe is met microstutter.
Gezien het lage verbruik van de 480's zul je in principe aan een goede 450w voeding genoeg hebben voor CF, da's hetzelfde als nu wordt aangeraden voor elk gamesysteem![]()
Interessante tijden dus.
Nu geloof ik wel dat de komende jaren alle developers DX12 standaard gaan gebruiken maar ik geloof ook dat ze een aantal jaren nodig hebben om dat goed onder de knie te krijgen. Zie bijv. RotTR waarbij DX12 niet bepaald een indrukwekkende performance geeft, helaas.
Ockhams scheermes? Mijn gok: de reden dat ze slechts net iets meer dan de helft van de kaart belastten is omdat de support van crossfire zelfs bij dit spel onvoldoende is om de beide kaarten de hele tijd bezig te houden. Ze moeten regelmatig wachten totdat een andere kaart klaar is en iets levert of zo.FortyOne schreef op woensdag 01 juni 2016 @ 13:03:
[...]
Aan de andere kant, de Rx 480 zou toch zeker op het niveau van een 390X moeten zitten (gezien het aantal TF en het feit dat de Polaris architectuur een aantal efficiency verbeteringen heeft). Gaat een 390X CF niet veel meer over een 1080 heen? Misschien hebben ze het hier toch gecapped. Zou wel een leuke verassing zijn![]()
Dat is ook de enige reden waarmee je de 50% GPU utilization als positief kan benoemen, anders geef je alleen maar aan dat je een inefficiente chip hebt die niet goed benut kan worden
Er werd verteld dat ze met driverupdates mogelijk een hogere belasting van de kaarten zouden kunnen krijgen, op een nuttige manier (hogere FPS) uiteraard.
[ Voor 46% gewijzigd door Verwijderd op 03-06-2016 13:27 ]
Die 51% moet je zien als 151% van 1 kaart. De schaling van de multi-GPU (!= CrossFire, maar DX12 Multi-adapter) setup is dus nog niet perfect. Elke GPU wordt dus zo'n 75,5% gebruikt.FortyOne schreef op woensdag 01 juni 2016 @ 13:03:
[...]
Dat is ook de enige reden waarmee je de 50% GPU utilization als positief kan benoemen, anders geef je alleen maar aan dat je een inefficiente chip hebt die niet goed benut kan worden
Waarom zouden ze eigenlijk geen dual gpu bordje uitbrengen? 485x2 voor ca 400? Dan kan amd toch iets tegenover de 1070 zetten
Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.
Omdat ze dan in hun eigen Vega-vingers snijden, en zoiets ontwerpen is ook niet gratis natuurlijk.WillemAtHome schreef op donderdag 02 juni 2016 @ 15:58:
Waarom zouden ze eigenlijk geen dual gpu bordje uitbrengen? 485x2 voor ca 400? Dan kan amd toch iets tegenover de 1070 zetten
Dan spendeer je dus flink wat geld voor een kaartje welke misschien een half jaar, mocht Vega echt pas in 2017 uitkomen, nuttig is.
People as things, that’s where it starts.
Wat hieronder ook al gezegd wordt dan concurreer je met Vega. Je PCB wordt duurder. Je hebt een PCI Bridge chip nodig. Cooling moet beter en zal ook duurder worden. Kaart wordt groter.WillemAtHome schreef op donderdag 02 juni 2016 @ 15:58:
Waarom zouden ze eigenlijk geen dual gpu bordje uitbrengen? 485x2 voor ca 400? Dan kan amd toch iets tegenover de 1070 zetten
In het verleden hebben ze dit wel eens gedaan met de 3870X2. Maar toen hadden ze ook geen grotere en snellere chips.
Hetzelfde bij de 4870X2.
Daar na hebben ze de trend wel door gezet maar die kaarten waren ook aanzienlijk duurder. De 3870X2 en 4870X2 hadden prijzen die maar iets hoger waren dan de echte Single GPU toppers. De latere waren veel duurder omdat daar ook top GPU's gebruikt werden.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Vertel, waarom zou een grotere chip dan Polaris 10, wat de eerste Vega waarschijnlijk zal zijn, zich moeten richten op prestaties ergens tussen GTX1070 en GTX1080? Waarom niet gewoon een chip die GTX1080 kan verslaan (ook in DX11)? Dat lijkt me toch een logischer doel voor een grote chip dan hopen dat je er ergens tussen in komt te zitten. De geknepen bin kan die ruimte namelijk prima invullen en als RX480 op ongeveer 90% van een GTX1070 zit (zeker met DX12 titels), dan is het ook niet meer dan logisch.Verwijderd schreef op donderdag 02 juni 2016 @ 14:59:
Zoiets zullen ze vast wel gaan doen maar ik denk dat AMD zich ook moet richten op de 1070, maak een kaart die de 1070 duidelijk outperformt dankzij het HBM2-geheugen. Die kaart hoeft niet de rekenkracht van een 1080 te hebben, een kaart die tussen de 1070 en de 1080 gaat inzitten voor onder de 400 euro moet te doen zijn voor AMD, afgaande op de prijs van de 1070 en de uitspraak van de AMD-medewerker (voor dat prijssegment is HBM-geheugen niet duurder). De 1080 is voorlopig forse overkill terwijl het tegelijkertijd gigantisch tekort schiet voor 4k-gaming (vaak net boven de 30 fps).
Er is altijd wel een ontwikkelaar die iets verkloot. Maar tegenover RotTR staan al een aantal games die duidelijk wel goed ontwikkeld zijn met DX12/Vulkan in het achterhoofd.Mwah, dan kan je net zo goed 1 1070 kopen. Geen problemen met microstutter en DX11, minder energieverbruik.
Nu geloof ik wel dat de komende jaren alle developers DX12 standaard gaan gebruiken maar ik geloof ook dat ze een aantal jaren nodig hebben om dat goed onder de knie te krijgen. Zie bijv. RotTR waarbij DX12 niet bepaald een indrukwekkende performance geeft, helaas.
Verwijderd
De scaling van de dual 480 AOtS benchmark was 1.83x, voor het geval dit nog niet voorbij was gekomen 
iemand die het rekenwerk even gedaan haafte voor een single RX 480:
Correct numbers: at 1.83 scaling
1080/RX 480: 1080 is 70% faster, costs 200% more.
1080/1070: 1080 25% faster, costs 58% more.
1070/RX 480: 1070 36% faster, costs 90% more.
iemand die het rekenwerk even gedaan haafte voor een single RX 480:
Correct numbers: at 1.83 scaling
1080/RX 480: 1080 is 70% faster, costs 200% more.
1080/1070: 1080 25% faster, costs 58% more.
1070/RX 480: 1070 36% faster, costs 90% more.
[ Voor 54% gewijzigd door Verwijderd op 02-06-2016 19:39 ]
Verwijderd
Volgens mij is de 480 nooit bedoeld als 1070 competitor, dat is de 380 staat toch ook niet tegenover de 970 ?DeArmeStudent schreef op donderdag 02 juni 2016 @ 10:06:
Mijn idee bij de aankondiging van de 480 van AMD:
AMD is echter totaal verrast door de presaties van de 1070 en kan de klokfrequentie van zijn 480 niet zover verhogen (zonder de nadelen van hoog stroomverbruik of hitteproductie) dat het nu de strategie heeft gekozen om de introductieprijs te verlagen naar 200 dollar.
Polaris 10 is goedkoper om te maken dan de 1070, kleinere die size, kleiner PCBMaar (hoewel ze momenteel niet anders kunnen) bedrijfstechnisch is het niet de beste stap:
Ze hebben dezelfde kosten voor de die-shrink moeten maken als nvidia, maar ze zullen per verkochte kaart veel minder winst opstrijken. Ook zal het daarna makkelijker zijn voor nvidia om budget kaarten uit te brengen op basis van de chipset van de 1070, terwijl het juist voor AMD moeilijk is om op basis van polaris 10 een beter presterende kaart neer te zetten zonder concessies te doen op het gebied van stroomverbruik.
En vega gaat boven de p10 zitten dus waarom zouden ze een grotere p10 versie maken ?
Geloof me er zijn nog genoeg mensen die nog op de vorige generatie kaarten gamen zoals de gtx780Daarbij valt op dat de 480 niet echt veel beter zal presteren als de 390(x) serie, zodat de mensen die nu zullen willen upgraden van een 970 in ieder geval niet zo snel voor de 480 zullen kiezen. En laat nu net de 970 de meest succesvolle kaart zijn van de afgelopen jaren (en dus de meeste pc gamers zullen deze kaart inmiddels hebben).
Ook ga jij er van uit dat iedereen ieder jaar zijn GPU upgrade wat volgens mij niet klopt. Meeste mensen zullen om de 2 jaar een upgrade uitvoeren.
Oeps mag niet in dit topic zie ik.
[ Voor 87% gewijzigd door Bisamrat op 02-06-2016 20:40 ]
Lees anders even de topicwarning.Bisamrat schreef op donderdag 02 juni 2016 @ 20:37:
Zat eraan te denken om een nieuwe computer samen te stellen, maar denk toch maar dat ik alleen mijn AMD Radeon HD 7800 ga vervangen voor een AMD Radeon RX 480.
Of is dat niet echt de upgrade waard? Huidige computer heeft verder een Intel Core i7 (930 @2,8GHz) en 12 GB RAM. Speel mijn spellen op full HD.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Verwijderd
Mij maakt het niet uit, je moet toch de reviews afwachten alvorens je die kaart eventueel koopt. Ik vind het vervelender dat ze zo zuinig zijn met informatie over de Vega, alvorens je voldoende gefundeerd kan beslissen of dat je wel of niet de Polaris koopt moet je eerst voldoende informatie hebben over kaarten die 'binnenkort' uitkomen.
Dat betekent toch dat de FPS van de 1080 lager zou hebben gelegen als het wel fatsoenlijk die sneeuw had verwerkt?The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly.
Anderzijds laten ze nu een flink gat liggen in het middensegment en riskeren ze dat mensen die eigenlijk liever voor AMD zouden kiezen dan toch maar de 1070 kopen. Ik weet niet hoeveel werk het is maar je zou denken dat een duokaart niet al te complex is in vergelijking met het ontwerpen van een nieuwe kaart.RobinHood schreef op donderdag 02 juni 2016 @ 16:07:
[...]
Omdat ze dan in hun eigen Vega-vingers snijden, en zoiets ontwerpen is ook niet gratis natuurlijk.
Dan spendeer je dus flink wat geld voor een kaartje welke misschien een half jaar, mocht Vega echt pas in 2017 uitkomen, nuttig is.
Wellicht is de werkelijke reden dat AMD dit niet doet omdat de mindere Vega de 490 wordt? Als AMD daar per se HBM2-geheugen op wil stoppen dan zou dat toch kunnne verklaren waarom AMD start met enkel budgetkaartjes?
spoiler:
Dat ze niet met highend starten i.v.m. yields en probleempjes die horen bij een nieuwe procestechnologie is duidelijk maar geen enkele 'middenklasse'kaart...
Ik ben trouwens benieuwd of dat de 480X met 40 CU's uitkomt. Het lijkt erop dat die in de nieuwe XBox gaan zitten aangezien daarvoor 6 Tflop wordt beloofd terwijl de 480 met 36 CU's dat niet haalt.
[ Voor 65% gewijzigd door Verwijderd op 03-06-2016 13:34 ]
Ja, "less work" (per frame) is meer fps.Verwijderd schreef op vrijdag 03 juni 2016 @ 13:23:
Dat betekent toch dat de FPS van de 1080 lager zou hebben gelegen als het wel fatsoenlijk die sneeuw had verwerkt?
Maar goed, geneuzel dit, eerst zo'n vage crossfire benchmark met een gek usage getal. En dan later verklaren dat de 1080 het fout deed.
Bench gewoon een enkele kaart tegen de 290 of 280x oid.
Mechwarrior Online: Flapdrol
Dus jij vind een kaart met minstens 390x performance een budget kaartje?Verwijderd schreef op vrijdag 03 juni 2016 @ 13:23:
Anderzijds laten ze nu een flink gat liggen in het middensegment en riskeren ze dat mensen die eigenlijk liever voor AMD zouden kiezen dan toch maar de 1070 kopen. Ik weet niet hoeveel werk het is maar je zou denken dat een duokaart niet al te complex is in vergelijking met het ontwerpen van een nieuwe kaart.
Wellicht is de werkelijke reden dat AMD dit niet doet omdat de mindere Vega de 490 wordt? Als AMD daar per se HBM2-geheugen op wil stoppen dan zou dat toch kunnne verklaren waarom AMD start met enkel budgetkaartjes?
Verwijderd
Natuurlijk maar het is heel erg flauw dat mensen begonnen te zeuren over de grafishe verschillen die in het voordeel van NVidia uitvielen. Beter gezegd, die achterdocht is nogal flauw. Op het vlak van betrouwbaar handelen heeft AMD voor mij een betere reputatie dan NVidia.haarbal schreef op vrijdag 03 juni 2016 @ 13:34:
[...]
Ja, "less work" (per frame) is meer fps.
Maar goed, geneuzel dit, eerst zo'n vage crossfire benchmark met een gek usage getal. En dan later verklaren dat de 1080 het fout deed.
Bench gewoon een enkele kaart tegen de 290 of 280x oid.
Ik ben het met je eens dat het wat vreemd is dat ze 1 benchmark lieten zien en dan enkel met een crossfire-opstelling. Misschien deden ze dat om die mensen tevreden te stellen die verlekkerd kijken naar de 1070 en die ervan balen dat ze bij AMD nog een half jaar moeten wachten?
Verder dacht ik direct bij het zien hiervan dat deze test niet erg informatief is, iedereen weet dat dit momenteel het spel is wat het beste uitpakt voor AMD dankzij het feit dat DX12 hier op een goede manier wordt gebruikt en AMD dus gebruik kan maken van de architectuur die beter om kan gaan met asynchrone computing. Op zich zag AMD dit prima aankomen maar als AMD pech heeft dan heeft NVidia haar arhitetuur ook voldoende aangepast tegen de tijd dat de gamedevelopers 'eindelijk' eens fatsoenlijk hebben leren werken met DX12.
Laten we die man het voordeel van de twijfel geven en geloven dat hij een bot gooit naar de reviewers.
[ Voor 34% gewijzigd door Verwijderd op 03-06-2016 20:09 ]
Dit topic is gesloten.
Let op:
De nieuwe generatie GPU's is aangekondigd en dat brengt iedereen weer naar dit topic om te vragen wat zijn oude kaart waard is en of de nieuwe kaart een goede vervanger is voor hem... Dat is dus duidelijk niet de bedoeling van dit topic! Discussieer erop los, maar om advies vragen doen we in CAA.
De nieuwe generatie GPU's is aangekondigd en dat brengt iedereen weer naar dit topic om te vragen wat zijn oude kaart waard is en of de nieuwe kaart een goede vervanger is voor hem... Dat is dus duidelijk niet de bedoeling van dit topic! Discussieer erop los, maar om advies vragen doen we in CAA.