Graphene; a material that can do everything, except leave the lab. - Asianometry
Als je maar niet op een kaart duidt die vergelijkbaar is qua positionering en bouw als de GTX960, dat was een afgang. Elke andere kaart in die prijsklasse was een betere keus (GTX770, 280(x), 380(x)). De enige reden om voor een GTX960 te gaan was voor een HTPC (HDMI 2.0) indien je er nog een spelletje in 1080p op low/medium wilde spelen.The Source schreef op dinsdag 31 mei 2016 @ 22:29:
[...]
Geloof maar dat 1060 concurrerend wordt.
Meestal wacht NV totdat AMD lanceert, daarna zetten ze er iets beters langs.
Volgens mij is die kaart vooral verkocht omdat mensen blindelings voor Nvidia gingen of gewoon geen onderzoek deden.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
je hoort inderdaad genoeg verhalen over pc boeren die klakkeloos nvidia/Intel aanraden zonder echt een goede reden.-The_Mask- schreef op dinsdag 31 mei 2016 @ 23:27:
Dat is waarschijnlijk hoe nVidia meer dan 90% van hun kaarten verkoopt.
Jup, vandaag zij iemand nog tegen mij dat "ATI altijd artifacts heeft en dat je dus altijd Nvidia moet nemen. Alle games zijn toch geoptimaliseerd voor Nvidia en je sponsort dan wel GameWorks, maar dat moet je dan maar doen want op een ATI kaart werkt dat al helemaal niet."-The_Mask- schreef op dinsdag 31 mei 2016 @ 23:27:
Dat is waarschijnlijk hoe nVidia meer dan 90% van hun kaarten verkoopt.
Welke marketing kan tegen zulke redenatie op?

AMD heeft geen geld om tig chips te maken zodat ze netjes binnen een prijsrange kunnen vallen. Ze maken er een paar en binnen er flink op los, idem met hun CPUs en APUs. Daar zie je ook gewoon een FX4300 of een APU met de helft uitgeschakeld.NitroX infinity schreef op dinsdag 31 mei 2016 @ 13:37:
[...]
Als Vega 380mm²+ gaat worden, dan zie ik niet in waarom ze geen derde Polaris chip erbij doen van rond de 300mm². Het lijkt mij hartstikke onlogisch dat ze zo'n gat, ook qua prestaties niet zullen opvullen.
En AMD mag dan wel zeggen dat er twee chips zijn, maar dat betekent niet dat het waar is.
Er is een NDA die op 29 Juni eindigt en dat lijkt te ver weg voor P10 en P11. Maar stel dat het voor de derde Polaris chip is?
Dit is echt te gek nieuws. En lancering eind JuniVerwijderd schreef op dinsdag 31 mei 2016 @ 23:04:
Polaris vr ready kaarten voor 199 dollarshock..
http://www.wsj.com/articl...reality-market-1464725394
[...]
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Marketing niet nee, maar dat komt omdat Nvidia gewoon al eeuwen dat soort onzin roeptoetert. AMD heeft dat gewoon nooit echt gedaan, waarschijnlijk denkende dat het goed doen in de benchmarks wel voldoende is.Toettoetdaan schreef op dinsdag 31 mei 2016 @ 23:36:
[...]
Jup, vandaag zij iemand nog tegen mij dat "ATI altijd artifacts heeft en dat je dus altijd Nvidia moet nemen. Alle games zijn toch geoptimaliseerd voor Nvidia en je sponsort dan wel GameWorks, maar dat moet je dan maar doen want op een ATI kaart werkt dat al helemaal niet."
Welke marketing kan tegen zulke redenatie op?
Wat zo'n persoon zegt kun je natuurlijk wel makkelijk onderuit halen met een gedegen uitleg, al ben je dan opeens niet meer zo aardig meer
Het jammere vind ik nog wel dat dat soort mensen ook gewoon advies geven in DAA/CAA en hun onzin spuien in de commentes. Het meest typerende vind ik nog wel hoe AMD nu altijd weg wordt gezet als een milieuramp met een HDMI uitgang, en iedereen zuinigheid opeens heel belangrijk vindt, terwijl dat voor Maxwell niemand boeide

Het zou mij ook niks verbazen dat wanneer AMD een betere performance/watt krijgt, dat hele fenomeen direct uitsterft, en dan wordt het "pfft, je moet rauwe performance hebben jonguh! En Nvidia verbruikt dan wel 20% meer, die kaart is wel 5% sneller in bepaalde games op bepaalde settings!"
Fanboys will be fanboys.
En daarin zit denk ik nog wel het grootste gevaar voor AMD. Hoeveel mensen zullen Polaris en Zen laten staan, puur omdat er AMD op staat? Ik denk heel veel.
People as things, that’s where it starts.
Verwijderd
uhm betere marketing ? AMD is daar nou niet echt goed in, ze doen soms een poging maar vaak is dat lachwekkend. Wat mij betreft mogen ze nvidia wel wat meer kopiëren kwa marketing. Hopelijk kunnen ze met behulp van de consoles de developers en gamestudios wel aan hun zeide krijgen en dat uitbuiten. ze moeten in ieder geval meer targetten op de onwetende fanboys.Toettoetdaan schreef op dinsdag 31 mei 2016 @ 23:36:
[...]
Jup, vandaag zij iemand nog tegen mij dat "ATI altijd artifacts heeft en dat je dus altijd Nvidia moet nemen. Alle games zijn toch geoptimaliseerd voor Nvidia en je sponsort dan wel GameWorks, maar dat moet je dan maar doen want op een ATI kaart werkt dat al helemaal niet."
Welke marketing kan tegen zulke redenatie op?
Ik vond het zelf ook een veel te dure kaart voor de geleverde prestaties.Sp3ci3s8472 schreef op dinsdag 31 mei 2016 @ 23:21:
[...]
Als je maar niet op een kaart duidt die vergelijkbaar is qua positionering en bouw als de GTX960, dat was een afgang. Elke andere kaart in die prijsklasse was een betere keus (GTX770, 280(x), 380(x)). De enige reden om voor een GTX960 te gaan was voor een HTPC (HDMI 2.0) indien je er nog een spelletje in 1080p op low/medium wilde spelen.
Volgens mij is die kaart vooral verkocht omdat mensen blindelings voor Nvidia gingen of gewoon geen onderzoek deden.
Maar ik snap echter wel dat hij verkoopt. Veel consumenten kiezen eerst het merk, en dan het product dat bij hun past. Objectief gezien zou ook niemand een Peugeot, Renault of Citroen moeten kopen. Ze doen het echter toch iedere paar jaar weer opnieuw, ook al gaan er maandelijks oranje lampjes branden....
Vroeger werd de Radeon 9800 (Pro) blindelings aangeraden en moest de keuze voor een 5900XT worden verdedigd. Radeon zou bovendien betere beeldkwaliteit leveren. Ergens is dat omgeslagen en is Nvidia de standaard keuze geworden. Dat hebben ze echter moeten verdienen cq Radeon heeft het weg gegeven.
Belangrijkste factor is wat mij betreft driver support. De kritiek op de drivers komt niet uit de lucht vallen. AMD heeft zelf toegegeven dat ze hierin gefaald hebben, hebben Scott Wasson in dienst genomen (frametimes) en zijn met Crimson begonnen. Crimson is helaas nog een bende, in ieder geval wat mijn E-350 betreft (had er een topic voor nodig en ik moest zelf depencies uit de tijdelijke bestanden vissen). Die zure nasmaak raak je niet snel kwijt. Heb je een keer gezeik dan wil je geen Radeon meer.
Dan heb je nog de levensduur, Waar zijn al die 4870s gebleven? De GTX 260's leven namelijk nog. Vergeet ook legacy niet. Officieel is een kaart als de GTX 260 al lang legacy, maar als je naar Nvidia.com gaat dan kun je gewoon de nieuwste windows 10 driver downloaden. Probeer dat eens voor een 4870 uit hetzelfde jaar te doen. Dan krijg je dit: http://support.amd.com/en...000-and-older-Series.aspx. Ook dat geeft een zure nasmaak. Voor je denkt, wat moet je nu nog met een GTX 260. Nou bijvoorbeeld Borderlands 2 is op 1680x1050 nog prima op 60+ FPS te spelen.
Denk dan nog eens aan de PR als met de Batttlefield 2 launch waarbij Nvidia de benodigde driver op de CD meeleverde en Radeon bezitters maanden op een fix moesten wachten. Zo zijn er tientallen games te bedenken waarbij te lang op een hotfix moest worden gewacht. Ook dat gaat in het collectieve geheugen.
Verder zijn we 10 jaar lang doodgegooid met "The way it's meant to be played" en is het aantal AMD gesponsorde games onderhand op twee handen te tellen.
Nogmaals vroeger was Nvidia "evil", was de beeldkwaliteit prut en waren de kaarten te complex en onzuinig. Uiteindelijk is het niet één ding maar heel veel kleine dingetjes waarmee Nvidia langzaam de publieke opinie heeft kunnen wegdraaien van Radeon naar GeForce.
Daar kun je dan gefrustreerd over zijn en met de vinger naar de consument wijzen, het is echter AMD die het heeft laten gebeuren en niet in staat is gebleken in te grijpen.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Mechwarrior Online: Flapdrol
Maar dat is precies wat Nvidia heeft gedaan. De AMD user base is gewoon overgestapt op Nvidia. Veel van de users die de vorige keer nog voor kaarten als de 6870 gingen zijn nu voor een GTX 970 gegaan.madmaxnl schreef op woensdag 01 juni 2016 @ 00:06:
Zou net zoiets zijn als Ajax, supporters van Feyenoord gaat proberen over te halen supporter van Ajax te worden. Gaat hem niet worden, iets met onderbuikgevoelens en een gebrek aan rationaliteit. Dus nee, AMD gaat echt niet als bij een wonder opeens alle mindless nVidia kopers overhalen naar AMD.
Het is nu aan AMD om ze terug te winnen.
[ Voor 3% gewijzigd door sdk1985 op 01-06-2016 00:11 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Als dát klopt... Nou ja, dames, heren, het jachtseizoen is geopend.Verwijderd schreef op dinsdag 31 mei 2016 @ 23:04:
Polaris vr ready kaarten voor 199 dollarshock..
http://www.wsj.com/articl...reality-market-1464725394
[...]
Voor dat geld heb je er dus inderdaad 2, binnen het budget van één 1070
Ok, dan ben ik nu ook officieel nieuwsgierig naar de Zen/Summit Ridge CPU's...
Wall street journal is niet de minste.Verwijderd schreef op dinsdag 31 mei 2016 @ 23:04:
Polaris vr ready kaarten voor 199 dollarshock..
http://www.wsj.com/articl...reality-market-1464725394
[...]
Vorig jaar hebben we het er weleens over gehad of AMD nou met Nvidia mee moest doen en de marges verhogen, of dat ze juist veel kaarten moeten verkopen om de (R&D) kosten te kunnen spreiden. Lijkt erop dat ze voor het laatste gaan, en dat is wat mij betreft goed nieuws. Dwarsboomt ook meteen die belachelijke prijzen van Nvidia (799 euro, ga toch weg joh
Maar is een GTX 970 niet al "VR ready"?
[ Voor 3% gewijzigd door sdk1985 op 01-06-2016 00:27 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Ben alleen wel benieuwd wat ze met vr ready bedoelen. Voor hetzelfde geld hebben ze het over Polaris 11 (470) ...Twam schreef op woensdag 01 juni 2016 @ 00:10:
[...]
Als dát klopt... Nou ja, dames, heren, het jachtseizoen is geopend.
Voor dat geld heb je er dus inderdaad 2, binnen het budget van één 1070En dat heeft potentieel inderdaad ook vrij forse implicaties voor de OEM-markt etc. Wat voor het marktaandeel en de reputatie weer effecten zou hebben. Hm. Als ze een zelfde stunt uithalen voor de mobiele chips wordt het helemaal leuk...
Ok, dan ben ik nu ook officieel nieuwsgierig naar de Zen/Summit Ridge CPU's...
Maar we zullen zien vannacht...
Das waar, maar dan blijft die OEM-opmerking staan. Die gaan in de praktijk doorgaans voor de goedkoopste oplossingen om een bepaald prestatieniveau te leveren. Als dat deze ronde met kop en schouder de Radeons zijn, tsja, dan kan AMD misschien de oorlogskas weer even een beetje spekken.Verwijderd schreef op woensdag 01 juni 2016 @ 00:23:
[...]
Ben alleen wel benieuwd wat ze met vr ready bedoelen. Voor hetzelfde geld hebben ze het over Polaris 11 (470) ...
Maar we zullen zien vannacht...
Maar inderdaad, we gaan het meemaken. Spannend.
Dat zit ik me dus ook af te vragen... 199 lijkt me een extreem goede deal (instant buy), maar zou een Polaris 11 als VR Ready worden gezien? Not too sure about that one.Verwijderd schreef op woensdag 01 juni 2016 @ 00:23:
[...]
Ben alleen wel benieuwd wat ze met vr ready bedoelen. Voor hetzelfde geld hebben ze het over Polaris 11 (470) ...
Maar we zullen zien vannacht...
Als je dit leest, heb je teveel tijd.
Maar vergeet ook niet de enorme lading fuck-ups van Nvidia, je doet nu wel weer alsof AMD kommer en kwel is, Nvidia heeft er ook een handje van, even de dingen die ik weet/herinner:sdk1985 schreef op dinsdag 31 mei 2016 @ 23:58:
[...]
Ik vond het zelf ook een veel te dure kaart voor de geleverde prestaties.
Maar ik snap echter wel dat hij verkoopt. Veel consumenten kiezen eerst het merk, en dan het product dat bij hun past. Objectief gezien zou ook niemand een Peugeot, Renault of Citroen moeten kopen. Ze doen het echter toch iedere paar jaar weer opnieuw, ook al gaan er maandelijks oranje lampjes branden....
Vroeger werd de Radeon 9800 (Pro) blindelings aangeraden en moest de keuze voor een 5900XT worden verdedigd. Radeon zou bovendien betere beeldkwaliteit leveren. Ergens is dat omgeslagen en is Nvidia de standaard keuze geworden. Dat hebben ze echter moeten verdienen cq Radeon heeft het weg gegeven.
Belangrijkste factor is wat mij betreft driver support. De kritiek op de drivers komt niet uit de lucht vallen. AMD heeft zelf toegegeven dat ze hierin gefaald hebben, hebben Scott Wasson in dienst genomen (frametimes) en zijn met Crimson begonnen. Crimson is helaas nog een bende, in ieder geval wat mijn E-350 betreft (had er een topic voor nodig en ik moest zelf depencies uit de tijdelijke bestanden vissen). Die zure nasmaak raak je niet snel kwijt. Heb je een keer gezeik dan wil je geen Radeon meer.
Dan heb je nog de levensduur, Waar zijn al die 4870s gebleven? De GTX 260's leven namelijk nog. Vergeet ook legacy niet. Officieel is een kaart als de GTX 260 al lang legacy, maar als je naar Nvidia.com gaat dan kun je gewoon de nieuwste windows 10 driver downloaden. Probeer dat eens voor een 4870 uit hetzelfde jaar te doen. Dan krijg je dit: http://support.amd.com/en...000-and-older-Series.aspx. Ook dat geeft een zure nasmaak. Voor je denkt, wat moet je nu nog met een GTX 260. Nou bijvoorbeeld Borderlands 2 is op 1680x1050 nog prima op 60+ FPS te spelen.
Denk dan nog eens aan de PR als met de Batttlefield 2 launch waarbij Nvidia de benodigde driver op de CD meeleverde en Radeon bezitters maanden op een fix moesten wachten. Zo zijn er tientallen games te bedenken waarbij te lang op een hotfix moest worden gewacht. Ook dat gaat in het collectieve geheugen.
Verder zijn we 10 jaar lang doodgegooid met "The way it's meant to be played" en is het aantal AMD gesponsorde games onderhand op twee handen te tellen.
Nogmaals vroeger was Nvidia "evil", was de beeldkwaliteit prut en waren de kaarten te complex en onzuinig. Uiteindelijk is het niet één ding maar heel veel kleine dingetjes waarmee Nvidia langzaam de publieke opinie heeft kunnen wegdraaien van Radeon naar GeForce.
Daar kun je dan gefrustreerd over zijn en met de vinger naar de consument wijzen, het is echter AMD die het heeft laten gebeuren en niet in staat is gebleken in te grijpen.
De eeuwige problemen met de 8800/9800/GTS200 tot GTX260. Hoeveel van die kaarten werken nu nog? Het begint met een 0
Idioot late DX11 support, de hele GeForce 400 serie die gewoon slecht was.
In den beginne ook slechte DX11 prestaties met Tesselation.
Welke multimonitor support? Op Eyefinity kwam pas veel later een goed antwoord.
Support voor kaarten latten vallen als een baksteen, zie hoe geweldig een GTX770 of GTX780 het doet in moderne games. Ja, het zijn geen echte legacy kaarten nee, maar performance fixes kun je vergeten. Een HD7970 maakt gehakt van ze.
Ook Gameworks is een grotere killer voor de GeForce 700 series [en daaronder] dan voor AMD kaarten.
De problemen met Nvidia bij de launch van W10.
DX12, ook dat Pascal daar in nog steeds niet geweldig lijkt te presteren.
Het fiasco van G-Sync. Het werd gezien als een van de beste dingen voor gamers van de afgelopen jaren. Nu bloedt het dood, en zijn er veel meer, en goedkopere Freesync schermen.
De afgelopen maanden veel BSOD problemen bij WHQL drivers.
3,5GB VRAM "gate" bij de GTX970
En dan vergeet ik vast nog wel wat dingen.
Tja, dat zijn best wel wat problemen. Maar hoor je mensen daar over? Nope. .
Als hij inderdaad R9 390 prestaties heeft, moet hij het goed genoeg doen denk ik.Racing_Reporter schreef op woensdag 01 juni 2016 @ 00:27:
[...]
Dat zit ik me dus ook af te vragen... 199 lijkt me een extreem goede deal (instant buy), maar zou een Polaris 11 als VR Ready worden gezien? Not too sure about that one.
People as things, that’s where it starts.
sdk1985 schreef op dinsdag 31 mei 2016 @ 23:58:
Objectief gezien zou ook niemand een Peugeot, Renault of Citroen moeten kopen. Ze doen het echter toch iedere paar jaar weer opnieuw, ook al gaan er maandelijks oranje lampjes branden....
HEUJ, in mijn oude 206 is nooit een lampje gaan branden, niet gemeen doen
Wel viel de uitlaat er onderuit door geklungel van de vorige eigenaar

Gelukkig was het een Peugeot, dus hele handel van voor tot achter kostte 80 Euro en wederom, gelukkig was het een Peugeot dus vervangen was ook eenvoudig..doe ik met m'n VW nu toch niet zo makkelijk
Ja tuurlijk Nvidia heeft ook veel fout gedaan. Zoals ik al zei, Nvidia kreeg vroeger zelfs standaard de zwarte piet toebedoeeld (of moet ik nu gekleurde piet zeggenRobinHood schreef op woensdag 01 juni 2016 @ 00:28:
[...]
Maar vergeet ook niet de enorme lading fuck-ups van Nvidia, je doet nu wel weer alsof AMD kommer en kwel is, Nvidia heeft er ook een handje van, even de dingen die ik weet/herinner:
De eeuwige problemen met de 8800/9800/GTS200 tot GTX260. Hoeveel van die kaarten werken nu nog? Het begint met een 0![]()
Idioot late DX11 support, de hele GeForce 400 serie die gewoon slecht was.
In den beginne ook slechte DX11 prestaties met Tesselation.
Welke multimonitor support? Op Eyefinity kwam pas veel later een goed antwoord.
Support voor kaarten latten vallen als een baksteen, zie hoe geweldig een GTX770 of GTX780 het doet in moderne games. Ja, het zijn geen echte legacy kaarten nee, maar performance fixes kun je vergeten. Een HD7970 maakt gehakt van ze.
Ook Gameworks is een grotere killer voor de GeForce 700 series [en daaronder] dan voor AMD kaarten.
De problemen met Nvidia bij de launch van W10.
DX12, ook dat Pascal daar in nog steeds niet geweldig lijkt te presteren.
Het fiasco van G-Sync. Het werd gezien als een van de beste dingen voor gamers van de afgelopen jaren. Nu bloedt het dood, en zijn er veel meer, en goedkopere Freesync schermen.
De afgelopen maanden veel BSOD problemen bij WHQL drivers.
3,5GB VRAM "gate" bij de GTX970
En dan vergeet ik vast nog wel wat dingen.
Tja, dat zijn best wel wat problemen. Maar hoor je mensen daar over? Nope. .
[...]
Als hij inderdaad R9 390 prestaties heeft, moet hij het goed genoeg doen denk ik.
Mja dat zal er dus waarschijnlijk aan liggen dat die problemen wel meevallen qua impact. Ik verkoop eigenlijk zelden mijn videokaarten dus ik heb een hele collectie. Als we ons even beperken tot Nvidia dan ben er wel een paar kwijt, mijn 5900XT is bijvoorbeeld in de brand gevlogen
Maar wat betreft PCI-E heb nog een GTS 250 (toevallig vorige week in een oude pc gezet), GTX 260 en GTX 460 Hawk liggen die allemaal nog prima werken. Dan heb ik het over x64 Windows 10 op een PCIE 3.0 moederbord uit de Z170 serie.
Als je met https://archive.org/web/ naar de steam hardware survey kijkt dan zie je ook hoe lang die kaarten het blijven doen tov de concurrerende radeons. Kan natuurlijk wel zo zijn dat ze niet perse zijn overleden, maar in een systeem zonder steam zijn gegaan. Maar dat is eigenlijk niet relevant, op de oude beestjes van Nvidia wordt nog gegamed. In hele andere verhoudingen dan een jaar na de launch (in het voordeel van Nvidia).
Ik vermoed dat het een driver dingetje is maar dat zou je oud 4870, 5870 en 6870 bezitters moeten vragen.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Met mijn HD5870 heb ik werkelijk nooit problemen gehad, sublieme kaart, nooit spijt van gehad. De HD6950's van mijn pa hebben het ook geweldig gedaan, ook in CF.
Waarom ze niet meer meedoen? Nou, de R9 290
Ik ben geneigd te zeggen dat de gemiddelde AMD eigenaar een minder grote fanboy is [ja, ik compenseer dat weer
Verhalen dat HD4870's bij bosjes uitvallen heb ik namelijk niet gehoord, in dat opzicht is Tweakers een mooie graadmeter. Er was een tijd dat je wekelijks iemand kon adviseren zijn 8800/9800/GTS250 in de oven te gooien, maar dat soort topics heb ik nooit over HD4870's, of andere AMD's, gelezen. Ja, de ATI chips in oudere Macbooks, die hebben hetzelfde probleem als 8800's.
Ze lijken dus inderdaad gewoon te verdwijnen

Ook kun je je afvragen of de testmethodiek van Steam wel goed is. Wat ik kan vinden is dat het gewoon een prompt is of je mee wilt doen. Fanboys, en daar heeft Nvidia er nou eenmaal meer van, rammen natuurlijk direct op ja. Mensen die gewoon een goede PC hebben zullen daar, denk ik, toch minder snel wat voor voelen.
Houdt Origin niet bij wat voor hardware je hebt? Het zou mooi zijn als EA dat eens zou delen
People as things, that’s where it starts.
Verwijderd
om zelf te beginnen...
[ Voor 40% gewijzigd door Verwijderd op 01-06-2016 01:03 ]
Verder zijn videokaarten een beetje als schoenen, na 1.5.-2 jaar heb je toch echt weer nieuwe nodig. Wat dat betreft maakt het niet uit of je een 970 of een 290 hebt gekocht.
Mijn vriendin heeft de kaart van 2009 tot 2012 gebruikt. Daarna heeft hij een jaar stil gelegen. Toen heb ik hem van 2013 tot 2016 in de Dell van mijn vader gestopt. Daar heeft hij ingezeten tot die dit jaar een nieuwe pc kreeg, waar overigens nu een AMD in zit
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Welke fabrikant doet dat nou niet?Robolokotobo schreef op woensdag 01 juni 2016 @ 00:57:
Ik heb liever dat een fabrikant vijf jaar lang goede driver support geeft op een videokaart, dan 10 jaar lang waarbij na anderhalf jaar de kwaliteit van de drivers inzakt t.o.v de nieuwe generatie. Ik denk dan ook dat AMD er vanuit gaat dat gamers na een fix aantal jaren hun videokaart wel upgraden
Als je dit leest, heb je teveel tijd.
Overigens misschien ook wel leuk, een maand of 3 geleden heb ik nog Chivalry gespeelt op mijn 2900XT. Dit was net te doen zo rond de 40 fps met lage instellingen.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Nvidia
Drivers voor oude kaarten zijn inderdaad nog makkelijk te vinden, en werken zonder al teveel gedoe op W10. Echter, een GTX780 presteert nu echt ruk vergeleken met de aartsrivaal, de 290.
AMD heeft inderdaad een vrij grote groep legacy kaarten, en daarin ook weer twee soorten, dat is minder voor mensen met bijv. een HD5870, of een simpele HD4xxx die gewoon beeld moet geven, maar een HD7950 die inmiddels al jaren oud is krijgt nog steeds redelijke performance upgrades bij drivers.
De 290 is dan wel ouder dan een GTX970sdk1985 schreef op woensdag 01 juni 2016 @ 01:06:
Goede vraag laurens.
Verder zijn videokaarten een beetje als schoenen, na 1.5.-2 jaar heb je toch echt weer nieuwe nodig. Wat dat betreft maakt het niet uit of je een 970 of een 290 hebt gekocht.
Als DX12 nou eens opschiet, hoef ik de komende tijd mijn R9 290 echt niet in te ruilen, terwijl iemand met een GTX780 [ja, die is nog een half jaar ouder dan een 290] die al beter kan gaan inruilen nu voor een 1070 of een aankomende R9 480 als het goedkoper moet zijn, en als ik een GTX970 had gekocht, zou ik heel wat offers maken om ervoor te zorgen dat DX12 nauwelijks uitkomt
Technisch gezien, performance/watt dus oa. is de GTX970 een geweldige kaart, maar de R9 290 is gewoon een rekenmonster. Nee, zuinig is hij niet, maar performance heeft ie wel
Nvidia heeft daarin een betere balans, maar als ik nu mijn 290 zou slopen, en ik moest kiezen tussen een R9 390 of een GTX970, dan zou ik toch de 390 pakken, vanwege zijn ruwe performance.
People as things, that’s where it starts.
Als je door mijn post historie zoekt zul je zien dat ik een echte "fan" ben van het merk dat ik op dat moment zelf heb. Niet omdat ik iets geef om het merk, maar omdat ik oprecht vind dat ik er veel tijd en moeite in steek om het beste voor mijn geld te vinden (althans in het hogere segment zoals je aan mijn GPU history kunt zien) en mensen die dan iets anders kopen hebben dan al snel een gekleurde bril op voor mij
Anyway, die 680s heb ik vandaag de dag nog altijd omdat ik merkte dat ik minder vaak recente games speelde en ik eigenlijk verrassend goed nog mee kan met deze setup. Inmiddels speel ik dan weer wel Overwatch, maar "epic" settings met altijd 120+ fps vind ik meer dan prima. Ik wilde eigenlijk deze ronde toch maar weer eens mee gaan doen (en een broadwell-e setup) om mijn vriendin dan mijn huidige setup te geven. Maar zowel op GPU als CPU vind ik de prijzen voor wat ze (nVidia en Intel) hebben laten zien/gerealiseerd gewoon ruk. Ik was en ben bereid het geld te besteden alleen niet voor wat je er nu voor krijgt. Dus nu maar wachten op AMD voor beide processing units en anders weer een ronde wachten
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Even de pagina verversen als je niks zietVerwijderd schreef op woensdag 01 juni 2016 @ 02:41:
Is niet live meer dacht ik
[ Voor 79% gewijzigd door Robolokotobo op 01-06-2016 02:59 ]
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
ook nog wakker haha, ben echt benieuwd naar wat ze gaan brengen.Robolokotobo schreef op woensdag 01 juni 2016 @ 02:42:
Jawel, hij komt zo terug
[...]
Even de pagina verversen als je niks ziet
waarschijnlijk haal ik voorlopig een tweedehands 290 of zelfs een 7950 tot vega uitkomt maar ben wel heeel benieuwd naar wat AMD gaat laten zien vanavond.
Verwijderd
[ Voor 83% gewijzigd door madmaxnl op 01-06-2016 04:26 ]
Verwijderd
dat snap ik, maar dat zijn gewoon krankzinnige uitspraken ...
sneller dan een 1080 voor veel minder geld en dan ook nog claimen dat de gpu maar voor de helft belast wordt..
Verwijderd
2 480's!Verwijderd schreef op woensdag 01 juni 2016 @ 04:24:
waat sneller dan een 1080 in AOTS en maar voor de helft belast ?
Dit is echter wel HET spel wat goed gebruikt maakt van AMD's troeven, de zwakke schakel zijn de gamedevelopers: zijn zij bereid om goed gebruik te maken van asyncrhone computing en DX12?
[ Voor 161% gewijzigd door Verwijderd op 01-06-2016 04:40 ]
Verwijderd
edit; owja even gemist..

[ Voor 71% gewijzigd door Verwijderd op 01-06-2016 04:29 ]
ik verwacht niet dat Nvidia hier een counteroffer tegen kan gaan brengen voor deze prijs.
wantja 200 dollars is heeeeeeeeeeeeeeel weinig.
[ Voor 12% gewijzigd door madmaxnl op 01-06-2016 04:31 ]
Verwijderd
199 werd er gezegdmadmaxnl schreef op woensdag 01 juni 2016 @ 04:30:
Enige wat je kan stellen is dat een RX480 ongeveer 250 dollar gaat kosten aangezien twee kaarten minder dan 500 dollar zouden moeten gaan kosten. Die 200 dollar zal wel voor een R480 zijn.
ben echt benieuwd naar de eerste benchmarks.
Verwijderd
Verwijderd
Het kan een general statement dat door het juist coden van een game / API er het maximale aan efficientie kan worden bereikt, ipv de traditionele 'bruteforce' zoals beide kampen de laatste jaren doen.Verwijderd schreef op woensdag 01 juni 2016 @ 04:35:
Ik snap het verhaal van de 51% GPU utilization echt niet ;s . met die logica zou 1 GPU die 100% gebruikt wordt ook al genoeg zijn ?
Verwijderd
Verwijderd
Het goede nieuws, afgaande op wat ik nu zag is de kwaliteit/prijs-verhouding prima. Een goed afgewerkte kaart (volgens de spreker een afwerking die je normaal gesproken alleen bij de highend kaarten ziet) die iets onder doet voor de 1070 maar die wel slechts de helft kost. Ik vrees dat deze kaart niet gaat volstaan voor 1440p gaming (gegarandeerd 60+ fps) tenzij je een lagere FPS dan 60 aanvaardt. Ik ga de komende weken vooral met veel interesse kijken naar benchmarks die 2 480's vergelijken met 1 1070 voor een brede waaier aan games. Een van de games waar ik dan in het bijzonder benieuwd naar ben is Rise of the Tomb Raider, de performance van de laatste generatie AMD-kaarten viel wat tegen voor dat spel, gaan ze boven de 60 fps zitten met 2 480's en 1440p wanneer het in DX12-mode wordt gedraaid?
Ik kijk ook met veel interesse naar de performance van The Witcher 3 met hairworks (maar aangepaste tessellation voor zo ver je het niet ziet).
Ik vind het wel erg jammer dat AMD er niet voor heeft gekozen om van dezelfde wafer grotere kaarten te snijden voor 300 euro die wel 1 op 1 de concurrentie met de 1070 aankan, dit naast de 480 wat ik zeker een goed evenwicht tussen prijs en performance vind voor een grote groep klanten. Je zou dan voor minder kosten dezelfde performance halen en de schaling met een tweede kaart blijft helaas nog pover al zal het wel nog verbeteren.
Ik vroeg me vooral af waarom het niet een hogere fps haalt met al die reserveperformance. Als iemand dat kan uitleggen, graag.Verwijderd schreef op woensdag 01 juni 2016 @ 04:37:
[...]
Het kan een general statement dat door het juist coden van een game / API er het maximale aan efficientie kan worden bereikt, ipv de traditionele 'bruteforce' zoals beide kampen de laatste jaren doen.
Hij benadrukte dat die extra performance die je overhoudt gebruikt kan worden om via driveroptimalisatie een betere performance bij het spel te halen. Dat klinkt logisch, als de software van het spel het toestaat om met slimme driveroptimalisaties zoiets te doen. Nogmaals, als iemand hier meer ove rweet en het wil uitleggen, graag.
Nu trouwens een praatje over de samenwerking met MS voor W10, net een praatje over de nieuwe APU's (Zen?). FreeSync werd/wordt aardig benadrukt. Terecht, aangezien NVidia blundert door nog steeds niet te hebben verklaard dat te ondersteunen.

Reken maar dat het aardig wat klanten over de streep zou trekken om de 1070 te overwegen gezien het kleine aantal monitors wat G-Sync heeft ingebouwd en de hogere prijs van die monitors.
Oh ja, de developers van Doom waren erg enthousiast over Polaris: het DX12 en asyncrhone computing verhaal. Zij verwachten dat het spel geweldig gaat draaien op de Polaris 10 en dat je ook prima gaat kunnen spelen met de Polaris 11. Het grote promotiepraatje voor AMD.
[ Voor 38% gewijzigd door Verwijderd op 01-06-2016 05:02 ]
Maar dan vervolgens zijn het er twee, die samen sneller zijn. Maar wat dan volgt is dat blijkt dat beide kaarten maar op halve kracht aan het werk zijn. Dus ze zullen de Crossfire technology compleet vernieuwd hebben is mijn idee. Want volgens de oude Crossfire wetten zou dit betekenen dat één 480 net zo snel is als een 1080 (Als twee AMD kaarten op halve kracht net zo snel zijn als één Nvidia kaart) en als dat zo was, hadden ze dat natuurlijk gezegd
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Verwijderd
Prima toch?
Goed, ik snap dat je het lang vindt duren als je had gehoopt dat je over een paar weken al de kaart zou kunnen kopen maar dat valt toch wel mee? Het is nog voor de zomervakantie. Wat mogen we van de prijs verwachten? Krijg je nu toestanden zoals bij NVidia dat de vroeger kopers een extra premie betalen en gaat de prijs in de maanden daarna wat dalen?
Met die 51% procent willen ze alleen laten weten dat er nog meer in zit. D.m.v. drivers en de software. De drivers natuurlijk d.m.v. optimalisaties en software d.m.v. async. Echte DX12 en Vulkan games gaan nog wel een tijdje op zich laten wachten. Echte als in vanaf het begin rekeninghoudende met de mogelijkheden.
Verwijderd
Hmmm, daar zeg je iets. Ik dacht in eerste instantie dat ze een ruime speling nam voor wat de PCB-bouwers ermee gaan doen (luxere modellen) maar het zou kunnen dat er ook nog een 490 uitkomt. In dat geval wordt het helemaal spannend: 2 480 tegen 1 490 en 1 1070. Leuke benchmarks.Derksenkarting schreef op woensdag 01 juni 2016 @ 05:04:
Mooi dat Lisa Su dat nog even bevestigd. Ze zegt ook dat de Polaris producten tussen de 100 en 300 dollar uitkomen. Als de RX480 199 dollar moet kosten zou dat duiden op nog een kaart boven de RX480.
Verwijderd
Het was geen uiting van kritiek... Ik bedoelde het positief dat er een launchdate isVerwijderd schreef op woensdag 01 juni 2016 @ 05:06:
[...]
Prima toch?
Goed, ik snap dat je het lang vindt duren als je had gehoopt dat je over een paar weken al de kaart zou kunnen kopen maar dat valt toch wel mee? Het is nog voor de zomervakantie. Wat mogen we van de prijs verwachten? Krijg je nu toestanden zoals bij NVidia dat de vroeger kopers een extra premie betalen en gaat de prijs in de maanden daarna wat dalen?
Verwijderd
Dan had ik dat inderdaad verkeerd geïnterpreteerd.Verwijderd schreef op woensdag 01 juni 2016 @ 05:09:
[...]
Het was geen uiting van kritiek... Ik bedoelde het positief dat er een launchdate is
Hij had in gedachte dat er een 490 zou kunnen uitkomen voor 300 euro.madmaxnl schreef op woensdag 01 juni 2016 @ 05:06:
Polaris 11 is er ook nog. Die zal wel in het 100 dollar tot 200 dollar segment vallen. Terwijl Polaris 10 in het segment van 200 dollar tot 300 dollar gaat vallen.
Het spreekt voor zich dat die 100 euro voor de Polaris 11 geldt. Trouwens best aardig als je daarmee de meeste games die nu bestaan fatsoenlijk op je laptop zou kunnen spelen met middelmatige settings voor nieuwere games. Voor zo ver je op een laptop fatsoenlijk kan gamen.

Verwijderd
dat zou betekenen dat de schaling maar 50% is. dat vind ik dan weer niet zo positiefmadmaxnl schreef op woensdag 01 juni 2016 @ 05:06:
Polaris 11 is er ook nog. Die zal wel in het 100 dollar tot 200 dollar segment vallen. Terwijl Polaris 10 in het segment van 200 dollar tot 300 dollar gaat vallen.
Met die 51% procent willen ze alleen laten weten dat er nog meer in zit. D.m.v. drivers en de software. De drivers natuurlijk d.m.v. optimalisaties en software d.m.v. async. Echte DX12 en Vulkan games gaan nog wel een tijdje op zich laten wachten. Echte als in vanaf het begin rekeninghoudende met de mogelijkheden.
Verwijderd
Leuk en aardig maar in welke mate staat de softwarecode het toe om dat te doen? Het is leuk dat je die marge hebt maar ik heb er geen idee van hoe nuttig je die kan aanwenden. Jij wel?madmaxnl schreef op woensdag 01 juni 2016 @ 05:06:
Met die 51% procent willen ze alleen laten weten dat er nog meer in zit. D.m.v. drivers en de software. De drivers natuurlijk d.m.v. optimalisaties en software d.m.v. async. Echte DX12 en Vulkan games gaan nog wel een tijdje op zich laten wachten. Echte als in vanaf het begin rekeninghoudende met de mogelijkheden.
Om nog maar te zwijgen over dat Gameworks-verhaal. Smeriger dan dat kan NVidia het niet maken: Gameworks tussen de software en DX plaatsen zodat AMD gedwongen wordt om het mee te renderen. Kan Mantle (nu ja, de opvolger hiervan) worden gebruikt om de rendering van Gameworks uit te schakelen zodat AMD zelf dat soort effectjes kan toevoegen met een open standaard? Bijvoorbeeld TressFX in plaats van NVidia's hairworks (tessellation).
Ik weet niet of dat dat klopt (ik zou nog een keer de data moeten zien) maar stel dat dat zo zou zijn dan zouden ze toch al aanzienlijk meer schaling halen dan dat gebruikelijk is? Hoe dan ook zou een 490 heel erg fijn zijn.Verwijderd schreef op woensdag 01 juni 2016 @ 05:11:
[...]
dat zou betekenen dat de schaling maar 50% is. dat vind ik dan weer niet zo positief
[ Voor 17% gewijzigd door Verwijderd op 01-06-2016 05:15 ]
nVidia kan de GP104 ook naar notebooks brengen, maar is daar aanzienlijk minder geschikt voor als Polaris 10. De prijs van een dergelijke notebook zal niet mals zijn natuurlijk. Vooralsnog zit nVidia alleen in het high-end segment met de GP104. Geen idee wanneer ze met de GP106 komen.
[ Voor 33% gewijzigd door madmaxnl op 01-06-2016 05:18 ]
Verwijderd
Verwijderd
Dat zou kunnen verklaren dat AMD nu zo zwaar inzet op die markt.madmaxnl schreef op woensdag 01 juni 2016 @ 05:14:
Als ze nu eens opschieten met Polaris 11 dan hebben zo straks de hele dedicated GPU markt voor notebooks in handen. AMD heeft dat flink laten verloederen door maar te blijven rebranden en uiteindelijk als enige refersh Tonga bracht. Dat nou niet echt een succes was kijkende naar wat nVidia met Maxwell deed.
Ik denk dat AMD met deze grafische kaarten een aardig financieel resultaat kan halen, hier op Tweakers hebben veel mensen het liefst minstens een 1070 maar bij de totale gamerspopulatie zit AMD wel op de sweetspot qua prijs/kwaliteitverhouding. Als die Zen-CPU levert wat ze beloven (concurrent voor Skylake, 8 kernen) dan kan dat een mooie concurrent worden, wel even afwachten hoe de singlecoreperformance is. En even afwachten hoe het zich verhoudt tot de nieuwste generatie van Intel (ook qua prijs
Hopelijk voor AMD gaan ze deze keer niet het slachtoffer worden van slechte marketing zoals mid jaren 0 toen Intel de slechtere CPU's had (duidelijk) maar dankzij sluwe marketing wel voor elkaar kreeg dat ze overal werden ingebouwd in kant en klare desktops en laptops.
Zouden de laptopbouwers ook Polaris 10 kunnen gaan inbouwen in een laptop? Zoals Nvidia het mogelijk maakte om een 980 (een echte 980, geen 980m) in te bouwen. Het zou een verdomd goede zet zijn.
Een populaire theorie is dat de benchmarks voor RotTR voor 1440p mede fors tegenvielen voor de Fury X doordat 4 GB (maximum voor de eerste generatie van HBM) geheugen te weinig was. Bij de 970 waren er problemen doordat 3,5 GB te weinig bleek te zijn (0,5 GB minder maar dan kom je toch akelig dicht in de buurt).madmaxnl schreef op woensdag 01 juni 2016 @ 05:20:
8GB is sowieso overkill als je het mij vraagt. Een R9 290X kon met 4GB prima uit de voeten. Die standaard 8GB R9 390(X) kaarten zag ik niet zo zitten, mooi dat ze er zijn want kan zeker zo zijn nut hebben (met CF bijvoorbeeld).
Wil je op het randje gaan zitten of kies je voor zeker? Dat lijkt de keuze te zijn.
Let wel, ik denk nu aan 1440p en aan lekker hoge instellingen voor spellen zoals GTAV (veel verkeer, hoge resolutie schaduwen, grote afstand van waar alles zichtbaar wordt...), niet aan 1080p.
Vraagje, stel dat je crossfire gebruikt met 1 480 met 8 GB en 1 480 met 4 GB, heb je dan wat aan die 4 GB extra geheugen van de tweede kaart?
Ik had namelijk begrepen dat het helaas niet zo is dat je het totale geheugen mag nemen en dat het om het geheugen per kaart gaat? Alleen, zijn de drivers van AMD zo slim om dan voor het extra benodigde geheugen boven de 4 GB (of eigenlijk net iets minder) de kaart met 8 GB geheugen in te schakelen?
Ik zal zeker niet de eerste persoon zijn die deze vraag stelt?
[ Voor 34% gewijzigd door Verwijderd op 01-06-2016 05:31 ]
Verwijderd
Geen idee maar het lijkt me dat het voor AMD nu vooral belangrijk is om het marktaandeel te vergroten en dat het genoegen nemen met een aanzienlijk lagere winst per kaart in ruil voor een aanzienlijke groei van het marktaandeel de vestandige strategie is. Idem voor de CPU's.Verwijderd schreef op woensdag 01 juni 2016 @ 05:21:
Hoe zit het eigenlijk met de winst marge? Zal amd nog veel pakken op zon kaart of is het muntjeswerk?
Het is gelukkig niet dat ze op sterven na dood zijn maar het marktaandeel van NVidia en de verliezen die ze hebben geleden begon allicht best wel gevaarlijk te worden. Ik hoop dan ook echt op hele goede benchmarks voor de Polaris-kaarten en de Zen-processor want uiteindelijk hebben alle klanten er baat bij dat AMD goede concurrentie biedt aan Intel en Nvidia. Alleen al om die reden hoop ik dat ik voor beide voor AMD ga kunnen kiezen.
Ik heb een 7850, ik zou graag bij AMD blijven. Niet alleen om de bovengegeven reden, ook omdat je bij NVidia weet dat de ondersteuning voor vorige generaties slecht is en omdat ik een schijthekel heb aan fratsen zoals Gameworks.Verwijderd schreef op woensdag 01 juni 2016 @ 01:01:
Even een vraagje tussen door..Hoeveel van jullie AMD fans hebben nu een Nvidia kaart maar willen wel weer graag de overstap terug maken ?
Ja, AMD had TressFX maar AMD heeft volledige medewerking gegeven aan NVidia om dat netjes te implementeren voor haar klanten en een paar maanden later had NVidia een hogere FPS met vergelijkbare kaarten. Niet vergelijkbaar met die PhysX-hel en Gameworks.
Ik kies echter niet blind voor AMD, AMD moet wel een vergelijkbaar product leveren qua prijs en performance!
Ze gaan DX12 echt wel standaard gaan gebruiken, ze moeten wel, om performance redenen (als jij het niet doet en de concurrent doet het wel en die krijgt het onder de knie...). De vraag is alleen hoelang het duurt voordat dit standaard wordt en de DX12-performance aanzienlijk beter gaat zijn. Het probleem is dat het gebruik van DX12 ingwikkelder is voor de developers dan het gebruik van DX11, het is een kwestie van tijd voordat ze hiermee goed kunnen omgaan en de perfomance-voordelen (onmiskenbaar indien juist geïmplementeerd) motiveren de developers om hier tijd, energie en geld aan te besteden.om zelf te beginnen...Mijn 5850 is vervangen door een 970 waar ik opzich terveden mee ben maar zie de toekomst somber in met Dx12 titels waar de 390(x) toch de beter kaart blijkt te zijn..
[ Voor 83% gewijzigd door Verwijderd op 01-06-2016 05:45 ]
Ik denk dat de 199 dollar prijs die genoemd is in het begin voor de 4GB kaart geld. En de onder 500 dollar die genoemd werd bij de twee kaarten in CrossFire in de Singularity benchmark over de 8GB kaart gaat. Ik verwacht dus een prijs net onder de 250 dollar voor de 8 GB kaartDerksenkarting schreef op woensdag 01 juni 2016 @ 05:18:
Ik denk trouwens dat de 4GB polaris 10 199 dollar gaat kosten. De 8GB versie iets meer, maar geen 100 dollar. Er is dus inderdaad nog ruimte voor een extra kaart boven de RX480, maar een 490 verwacht ik eigenlijk pas bij vega.
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Verwijderd
Die gedachte had ik ook om dezelfde reden. De grote vraag, waarom die bovengrens van 300 euro?Robolokotobo schreef op woensdag 01 juni 2016 @ 05:33:
[...]
Ik denk dat de 199 dollar prijs die genoemd is in het begin voor de 4GB kaart geld. En de onder 500 dollar die genoemd werd bij de twee kaarten in CrossFire in de Singularity benchmark over de 8GB kaart gaat. Ik verwacht dus een prijs net onder de 250 dollar voor de 8 GB kaart
PCB-bouwers die een betere PCB aanbieden?
Het zou kunnen dat de Vega 11 de 490 wordt. De grote teleurstelling van de presentatie van AMD vandaag: geen enkele uitleg over wanneer de Vega komt en wat (prijsklasse en segment) de Vega gaat zijn, zelfs geen teasers.Derksenkarting schreef op woensdag 01 juni 2016 @ 05:18:
Ik denk trouwens dat de 4GB polaris 10 199 dollar gaat kosten. De 8GB versie iets meer, maar geen 100 dollar. Er is dus inderdaad nog ruimte voor een extra kaart boven de RX480, maar een 490 verwacht ik eigenlijk pas bij vega.
Het viel me trouwens op dat AMD het vrij weinig had over software, ze merkten weliswaar op dat software erg belangrijk is voor de performance (d'uh) en dat ze "console-like" performance brengen naar de PC met de Polaris-kaarten - een vaag verhaal voor mij - maar bij NVidia hadden ze het over verbeterde geometrie-shaders, verbeterde geheugencompressie en natuurlijk over dat audioverhaal (wat AMD blijkbaar al heeft). AMD repte er met geen woord over. De presentatie van NVidia was sowieso gelikter. Een groot contrast.
[ Voor 50% gewijzigd door Verwijderd op 01-06-2016 05:51 ]
Er werd niet alleen een bovengrens van 300 dollar genoemd, maar ook een minimum bedrag van 100 dollar. Dat ging dus ook over andere GPU's waarschijnlijk. Ik vind het eigenlijk maar vreemd. Had ze niet gewoon 200 dollar moeten zeggen?Verwijderd schreef op woensdag 01 juni 2016 @ 05:47:
[...]
Die gedachte had ik ook om dezelfde reden. De grote vraag, waarom die bovengrens van 300 euro?
PCB-bouwers die een betere PCB aanbieden?
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Klinkt allemaal erg interessant, zeker nu met de nieuwe drivers van AMD, de prijzen van Nvidia.
Daarnaast was AMD toch altijd beter in multidisplay support?
Hoop dat de 480x zijn naam gaat waarmaken. Zou zelf geen probleem hebben om een overstap te maken. Gaat een spannende week worden
Maar met deze aangekondigde prijs wacht ik nog wel even op de 480. Hopelijk komt er ook een optie dat die passief gekoeld wordt bij lage/geen belasting, en kan die 3 monitoren tegelijk aansturen.
Het FP artikel zegt dat Polaris een TDP van 150w krijgt. Ik hoop dat dat niet het daadwerkelijke stroomverbruik is want anders is dat bijzonder on-indrukwekkend. NVidia zit met de 9xx serie op 28nm namelijk op ongeveer dezelfde TDP met ongeveer dezelfde prestaties.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Ik dacht eerst aan de 1070, maar het ziet er nu officieel naar uit dat ik in het rode kamp blijf. Dit soort performance / euro doe ik het echt wel voor, en als ik toch iets extra oomph wil, kan ik gewoon tweede kaart erbij prikken
Maar kan er weinig van vinden voor de Radeon series.
TDP is vast berekend op basis van de aansluiting. 6 pin is 75 watt, en PCI-express is ook 75 watt. Dus dan kom je inderdaad op een TDP van 150w.Blaat schreef op woensdag 01 juni 2016 @ 08:19:
Wat is nou eigenlijk het verhaal met de TDP van Polaris?
Het FP artikel zegt dat Polaris een TDP van 150w krijgt. Ik hoop dat dat niet het daadwerkelijke stroomverbruik is want anders is dat bijzonder on-indrukwekkend. NVidia zit met de 9xx serie op 28nm namelijk op ongeveer dezelfde TDP met ongeveer dezelfde prestaties.
Daarnaast kan ik voor 150 euro (prijsverschil GTX970 vs 480) heel wat stroom verbruiken.
Ik zit normaal standaard op Nvidia (was, wanneer ik GPU's kocht, beste prijs kwaliteit voor mijn gebruik) maar lijkt toch echt dat ik dit keer voor het rode kamp kies
In Ashes haald de GTX 1080 58,7 de RX 480 CF setup 62,5
Ashes schaalt best goed op Fury kaarten. 90% op 1080P, 80% op 1440P en 75% @ 4K
Als je dat mee neemt kom ik uit op een FPS voor een single RX 480 van tussen de 35-37,5 FPS.
Dan heb je het over prestaties op het niveau van een R9 290.
Ik hoop dat ik het mis heb en dat er toch een modelletje is wat wat sneller is. Ik wil nu namelijk wel eens een keer een upgrade doen na zo veel jaar R9 290X
Edit:
Even een correctie. GPU Utilization was maar 51% bij de RX480. Nu vraag ik me dan wel af waarom ze 2 kaarten gebruiken en niet gewoon 1 die ook 100% load draait dan kom je volgens mij ook dichtbij die prestaties.
[ Voor 18% gewijzigd door Astennu op 01-06-2016 15:26 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Prijs lijkt verrassend maar past toch gewoon bij voorgaande target. USD 199 voor 4gb en USD 250 oid voor 8gb verwacht ik. Met wat uitloop naar boven voor luxere custom modellen. In Euro’s zal het zeker duurder zijn.
Zwakke punten die ik zie is dat het weinig toekomstgericht lijkt. Volgensmij koopt men grosso modo een kaart vaak toch voor een paar jaar.
- VR: Ik snap de marketing niet echt. Bij VR hoor je toch vaak dat je eigenlijk een hele brute kaart nodig hebt. Dat is dit niet. Daarnaast staat VR nog heel erg in de kinderschoenen. Vraag me af of je een relatief dure Oculus/Vive koopt om het vervolgens te gaan proberen met een relatief lichte kaart.
- Rsolutie: Vooral gericht op 1080p gaming. Echter is er nu toch wel een behoorlijke tendens naar 1440p en 120hz+ monitoren. Daar komen ze denk ik tekort.
Maar goed, ik hoop dat ze er heel veel gaan verkopen en dat er toch wat prijsdruk richting nvidia komt.
En wellicht zie ik het verkeerd en kan ik me niet goed genoeg in het perspectief van een mainstream koper verplaatsen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Eens, dit zie ik ook graag. Lisa Su gaf aan dat P10 kaarten in de $199-$299 range zouden vallen, wat dan net een beetje ruimte vrijlaat voor een derde P10.Astennu schreef op woensdag 01 juni 2016 @ 08:51:
Ik hoop dat ik het mis heb en dat er toch een modelletje is wat wat sneller is. Ik wil nu namelijk wel eens een keer een upgrade doen na zo veel jaar R9 290X
RX 480 [4GB] - $199
RX 480 [8GB] - $249
RX 480X - $299?
Ik moet telkens denken aan de 3DMark scores van een paar weken terug, waar de "C4" P10 variant boven de 970 en net onder de 390X kwam te liggen, en de "C7" P10 die boven de 980 en net onder de Fury non-X eindigde.
Of zou een opgevoerde base/boost voor dat verschil kunnen zorgen, en dat beide benches van de RX 480 zijn? Juni wordt een lange maand!
Volgens mij willen ze gewoon nog niet zeggen wat het is en houden ze 150watt aan omdat hij maar een PEG-6 connector nodig heeft. (PCI-e 75watt + PEG-6 75watt = 150watt)Blaat schreef op woensdag 01 juni 2016 @ 08:19:
Wat is nou eigenlijk het verhaal met de TDP van Polaris?
Het FP artikel zegt dat Polaris een TDP van 150w krijgt. Ik hoop dat dat niet het daadwerkelijke stroomverbruik is want anders is dat bijzonder on-indrukwekkend. NVidia zit met de 9xx serie op 28nm namelijk op ongeveer dezelfde TDP met ongeveer dezelfde prestaties.
Als je de R9 390X * 2,8 verbetering doet, dan kom je op: 99,5watt uit, dus 150watt zal niet de TDP zijn
en omdat het meer dan 75 Watt zal zijn moet er wel een PEG connector bij, anders gaan ze buiten spec.Toettoetdaan schreef op woensdag 01 juni 2016 @ 09:18:
[...]
Volgens mij willen ze gewoon nog niet zeggen wat het is en houden ze 150watt aan omdat hij maar een PEG-6 connector nodig heeft. (PCI-e 75watt + PEG-6 75watt = 150watt)
Als je de R9 390X * 2,8 verbetering doet, dan kom je op: 99,5watt uit, dus 150watt zal niet de TDP zijn
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Tijd zal het zeggen, daarnaast als er zowat elk jaar nieuwe generatie GPU komt kun je over 2/3 jaar een GPU kopen voor 120 euro die makkelijk VR aan kan. Men had het er vorig jaar al over dat komende generaties steeds een lagere drempel word voor VR.Help!!!! schreef op woensdag 01 juni 2016 @ 09:11:
Eigenlijk hebben we nu dus niet heel veel nieuws gehoord. Polaris 10 is conform geruchten, zowel qua prestatie als qua target zijnde de mainstream markt.
Prijs lijkt verrassend maar past toch gewoon bij voorgaande target. USD 199 voor 4gb en USD 250 oid voor 8gb verwacht ik. Met wat uitloop naar boven voor luxere custom modellen. In Euro’s zal het zeker duurder zijn.
Zwakke punten die ik zie is dat het weinig toekomstgericht lijkt. Volgensmij koopt men grosso modo een kaart vaak toch voor een paar jaar.De polaris 11 zie ik meer zitten. Klinkt heel goed voor notebooks e.d.
- VR: Ik snap de marketing niet echt. Bij VR hoor je toch vaak dat je eigenlijk een hele brute kaart nodig hebt. Dat is dit niet. Daarnaast staat VR nog heel erg in de kinderschoenen. Vraag me af of je een relatief dure Oculus/Vive koopt om het vervolgens te gaan proberen met een relatief lichte kaart.
- Rsolutie: Vooral gericht op 1080p gaming. Echter is er nu toch wel een behoorlijke tendens naar 1440p en 120hz+ monitoren. Daar komen ze denk ik tekort.
Maar goed, ik hoop dat ze er heel veel gaan verkopen en dat er toch wat prijsdruk richting nvidia komt.
En wellicht zie ik het verkeerd en kan ik me niet goed genoeg in het perspectief van een mainstream koper verplaatsen.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat zou een mooie actie zijn.NitroX infinity schreef op woensdag 01 juni 2016 @ 09:23:
@angry_itch; RX480 is denk ik de cut-down versie (Pro) en de volledige chip (XT) zal dan waarschijnlijk 2560 shaders hebben.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat zou ideaal zijn, mijn 7970 is inmiddels wel aan vervanging toe.NitroX infinity schreef op woensdag 01 juni 2016 @ 09:23:
@angry_itch; RX480 is denk ik de cut-down versie (Pro) en de volledige chip (XT) zal dan waarschijnlijk 2560 shaders hebben.
In de 3DMark screenshot kon de 'C7' (Ellesmere XT?) Xfire de GTX1080 niet verslaan, terwijl dat in de vergelijking bij Computex wel kon (in DX12, echter). Maar aangezien er daar gebruik werd gemaakt van een Ashes benchmark, zou dat misschien toch de 'C4' / RX 480 / Ellesmere Pro kunnen zijn en dat DX12 voor het verschil zorgde.
In DX12 ja maar met oudere games dus niet. Dat kan een GTX980 de 290X nog wel verslaan. En die games worden ook veel getest en gespeeld.winwiz schreef op woensdag 01 juni 2016 @ 09:08:
Het klopt toch ook. Een 290X is pak en beet 10-20% sneller dan de 970. Als de 480 ergens tussen de 970-980 zal vallen zal hij ongeveer 290X snelheid hebben.
AMD heeft zelf uitspraken gedaan over de prestaties tijdens de presentatie. Nog niet welk model wat doet maar ze hebben wel wat laten zien dus daar heb je wel een indicatie.Help!!!! schreef op woensdag 01 juni 2016 @ 09:11:
Eigenlijk hebben we nu dus niet heel veel nieuws gehoord. Polaris 10 is conform geruchten, zowel qua prestatie als qua target zijnde de mainstream markt.
Prijs lijkt verrassend maar past toch gewoon bij voorgaande target. USD 199 voor 4gb en USD 250 oid voor 8gb verwacht ik. Met wat uitloop naar boven voor luxere custom modellen. In Euro’s zal het zeker duurder zijn.
Zwakke punten die ik zie is dat het weinig toekomstgericht lijkt. Volgensmij koopt men grosso modo een kaart vaak toch voor een paar jaar.De polaris 11 zie ik meer zitten. Klinkt heel goed voor notebooks e.d.
- VR: Ik snap de marketing niet echt. Bij VR hoor je toch vaak dat je eigenlijk een hele brute kaart nodig hebt. Dat is dit niet. Daarnaast staat VR nog heel erg in de kinderschoenen. Vraag me af of je een relatief dure Oculus/Vive koopt om het vervolgens te gaan proberen met een relatief lichte kaart.
- Rsolutie: Vooral gericht op 1080p gaming. Echter is er nu toch wel een behoorlijke tendens naar 1440p en 120hz+ monitoren. Daar komen ze denk ik tekort.
Maar goed, ik hoop dat ze er heel veel gaan verkopen en dat er toch wat prijsdruk richting nvidia komt.
En wellicht zie ik het verkeerd en kan ik me niet goed genoeg in het perspectief van een mainstream koper verplaatsen.
VR is nu gewoon hot. En er gaan vast goedkopere VR headsets komen dus dan wordt het wel interessant.
Als je VR met 90FPS kan doen lukt 1440p ook prima. Gezien de prestaties van de R9 290(X) is 1440p geen probleem 120Hz continu is een ander verhaal maar daar heb je met een GTX 1080 ook nog niet genoeg power voor.
Daar hoop ik dus ook op. R9 290 performance voor de 480 en dat de X daar dan nog even 10%-20% overheen gaat en dan dus boven de R9 390X uit komt. Zo'n kaart zou voor mij prima zijn. Overclockje er op en lekker gamenNitroX infinity schreef op woensdag 01 juni 2016 @ 09:23:
@angry_itch; RX480 is denk ik de cut-down versie (Pro) en de volledige chip (XT) zal dan waarschijnlijk 2560 shaders hebben.
[ Voor 12% gewijzigd door Astennu op 01-06-2016 09:39 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Ik denk ook dat dit de HD4850 van deze generatie isNitroX infinity schreef op woensdag 01 juni 2016 @ 09:23:
@angry_itch; RX480 is denk ik de cut-down versie (Pro) en de volledige chip (XT) zal dan waarschijnlijk 2560 shaders hebben.
Desktop Tonga had een TDP van 190watt en zelfs de 212mm2 Curaçao had een TDP van 180watt.
Ik geloof niet dat ze Polaris 10 op max 100~150watt zetten, er moet zeker nog een +/-180watt model komen met alles een beetje meer.
Echter vraag ik me nu af hoeveel winst ik dan ga maken qua prestaties.. Ik denk eigenlijk niet heel veel, maar ik weet het ook niet zeker dus vandaar dat ik hier nu ben
Met Frame Rate Target Control (FRTC) kun je een maximale framerate kiezen en dan zal de gemiddelde belasting op de GPU of in dit geval bij twee GPU's een stuk lager kunnen liggen.Verwijderd schreef op woensdag 01 juni 2016 @ 04:35:
Ik snap het verhaal van de 51% GPU utilization echt niet ;s . met die logica zou 1 GPU die 100% gebruikt wordt ook al genoeg zijn ?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Qua prestaties zal het niet veel doen denk.Danny.G schreef op woensdag 01 juni 2016 @ 10:00:
Ik heb nu een pricewatch: Sapphire R9 290 4GB GDDR5 OC TRI-X en vond de rx480 wel interessant aangezien ik nog steeds wel een 200 euro voor de 290 kan krijgen.
Echter vraag ik me nu af hoeveel winst ik dan ga maken qua prestaties.. Ik denk eigenlijk niet heel veel, maar ik weet het ook niet zeker dus vandaar dat ik hier nu ben. Ik game op 2560*1080 en met bepaalde games heeft de kaart het al wat lastiger nu op ultra.
Maar je hebt weer garantie en een zuinigere kaart, dus mogelijk een stiller systeem.
Maar goed, je kan 200 euro vragen, of je het krijgt is een 2e.
Mechwarrior Online: Flapdrol
En hoe denk je dat de waarde over een maand is als je een nieuwe, bijna gelijkwaardige, voor dezelfde prijs kunt kopen?Danny.G schreef op woensdag 01 juni 2016 @ 10:00:
Ik heb nu een pricewatch: Sapphire R9 290 4GB GDDR5 OC TRI-X en vond de rx480 wel interessant aangezien ik nog steeds wel een 200 euro voor de 290 kan krijgen.
Echter vraag ik me nu af hoeveel winst ik dan ga maken qua prestaties.. Ik denk eigenlijk niet heel veel, maar ik weet het ook niet zeker dus vandaar dat ik hier nu ben. Ik game op 2560*1080 en met bepaalde games heeft de kaart het al wat lastiger nu op ultra.
Ik denk dat de waarde daalt naar de helft.....
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Tonga in de R9 285 was eerst ook de Pro versie, pas bij de R9 380X kwam de XT versie. XT was eerst alleen Radeon R9 M295X te vinden bij Apple. Kan zijn dat we weer zoiets zien natuurlijk.FortyOne schreef op woensdag 01 juni 2016 @ 10:29:
Ik hoop ook dat dit de 'Pro' versie is en er nog een 'XT' versie komt, maar waarom zouden ze dat niet meteen aankondigen? Jammer, ik ook wat meer info over de prestaties verwacht. Misschien zijn de drivers nog niet ver genoeg.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dit topic is gesloten.
De nieuwe generatie GPU's is aangekondigd en dat brengt iedereen weer naar dit topic om te vragen wat zijn oude kaart waard is en of de nieuwe kaart een goede vervanger is voor hem... Dat is dus duidelijk niet de bedoeling van dit topic! Discussieer erop los, maar om advies vragen doen we in CAA.