CJ's Radeon Info & Nieuwsdiscussie - Deel 128 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 11 Laatste
Acties:
  • 41.855 views

Onderwerpen


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op donderdag 16 oktober 2014 @ 11:17:
[...]

Waarom zou Nvidia beter geschikt geweest zijn?
Dat weet ik helaas niet want kan die bron nog maar moeilijk vinden, ik zit me al weer met tegenzin rot et zoeken omdat het mij opgelegd word. Het zou om kepler gaan in ieder geval en het waren ook maar geruchte, ik heb het alleen niet allemaal onthouden wat 2 jaar terug precies in die bronnen stond. Neem dit dus maar als speculatie, tot nu maar ben aan het zoeken. :)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Ze zullen echt wel bij nvidia en intel langsgegaan zijn, maar goed, nvidia had geen geschikte cpu op de plank liggen, en intel had waarschijnlijk geen zin om een aparte apu te ontwikkelen en die dan niet voor de hoofdprijs te verkopen.

Nvidia physx was misschien nog interessant geweest voor consoles, scheelt weer wat softwareontwikkeling, maar goed, als elke console daardoor een stuk duurder wordt door een aparte cpu doe je dat natuurlijk niet.

Dus ja, denk niet dat nvidia en intel echt in de race waren.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Inderdaad, Nvidia had waarschijnlijk geen zin om zich aan de hoge targets en stricte deadlines te committen, om dan met een relatief lage marge en hoog volume de kosten te moeten compenseren, terwijl er veel risico aan vasthangt (onvoorziene issues met procédé bv.). Uiteindelijk verdient Nvidia bakken met geld met hun consumer en professional GPU's en ze hadden zelf al wat extra projecten zoals SHIELD en G-Sync in het verschiet, dus vreemd is de keuze niet.

AMD had/heeft echter wat in te halen op marktpenetratie en met het concept van Mantle als een mooie ontwikkeltool voor ports tussen consoles en PC's zou het voor de consolebouwers ook interessant zijn.

Buiten natuurlijk de mogelijke keuzes qua hardware die er toen waren.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 16 oktober 2014 @ 11:21:
Dat weet ik helaas niet want kan die bron nog maar moeilijk vinden, ik zit me al weer met tegenzin rot et zoeken omdat het mij opgelegd word. Het zou om kepler gaan in ieder geval en het waren ook maar geruchte, ik heb het alleen niet allemaal onthouden wat 2 jaar terug precies in die bronnen stond. Neem dit dus maar als speculatie, tot nu maar ben aan het zoeken. :)
Dan moet je zulke dingen ook niet zomaar beweren :)

AMD's 390X blijft onder de 150W en verslaat de GTX 980 met ruim 50%, komt uit in januari. Bron geen zin om te zoeken maar die is er wel feitelijk.


Daar trap jij toch ook niet zomaar in? ;)


@ haarbal: je slaat daar de spijker op z'n kop. Van de drie grote was AMD de enige die zowel een degelijke CPU als GPU kon leveren. In tegenstelling tot wat velen denken zou je eigenlijk geen i7 op 4.0 GHz nodig moeten hebben voor games; er wordt maar relatief weinig werk gedaan dat echt op een CPU gedaan moet worden. Even afgezien van de drawcalls maken, is dat eigenlijk vooral de AI, het geluid en de scripts. Daar is in de afgelopen 10 jaar niet veel aan veranderd en daar hebben we gewoon geen i7 voor nodig (totdat men er achter komt dat we CPU cycles over hebben en dus misschien eens fatsoenlijke AI zien).

Als je dan gaat kijken:
- Nvidia had ARM kunnen leveren maar dan ben je behoorlijk beperkt door de instructie set
- Intel had wel de CPU, maar hun GPU's lopen achter
- AMD had genoeg CPU kracht in huis, efficiënte CPU's en had ook een ontwerp voor een aparte DSP
- IBM heeft sinds Cell niet veel gedaan, dus dan was het weer Cell geworden

Dan heb je als Sony/MS de keuze tussen GPU van Nvidia met een CPU van Intel/AMD/IBM, weer die gare Cell die gewoon lastig te benutten is...of gewoon een pakket met alles er in van AMD met als bonus een DSP. Dan moet de rest al van heel goede huize komen willen ze concurreren, want alles van 1 vendor is gewoon goedkoper en daar had simpelweg geen van hen de producten en ontwerpen voor op dat moment :)


Ik zie in elk geval niet in hoe AMD een slechte keus is, of hoe Nvidia beter geweest zou zijn. GCN 1.0/1.1 doet op kleinere die-sizes meer binnen een laag TDP dan Kepler en dat is nog steeds het voornaamste. En qua CPU is Jaguar meer dan voldoende.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Verwijderd schreef op donderdag 16 oktober 2014 @ 10:52:
Het was vooral de prijs die de keuze liet maken, er gingen ook geruchten dat het eerst een Nvidia chip zou worden maar Nvidia vond dat ze de chips toen te goedkoop weg moesten doen aan de console bouwers, Nvidia zou ook beter geschikt zijn voor de next gen, bron geen zin om te zoeken maar die is er wel feitelijk.
Dan haal aub die bron erbij. Zo kan je wel van alles gaan roepen.
Werelds schreef op donderdag 16 oktober 2014 @ 12:03:

Ik zie in elk geval niet in hoe AMD een slechte keus is, of hoe Nvidia beter geweest zou zijn. GCN 1.0/1.1 doet op kleinere die-sizes meer binnen een laag TDP dan Kepler en dat is nog steeds het voornaamste. En qua CPU is Jaguar meer dan voldoende.
Volgens dit artikel van wccftech vormt Jaguar wel een bottleneck bij AC Unity. Misschien is dit gewoon brak programmeerwerk Ubisoft, aangezien normaal devs klagen over de zwakke GPU inplaats over de CPU.

Acties:
  • 0 Henk 'm!

Verwijderd

ColinZ schreef op donderdag 16 oktober 2014 @ 12:41:
[...]

Dan haal aub die bron erbij. Zo kan je wel van alles gaan roepen.
*SNIP*

[ Voor 66% gewijzigd door dion_b op 18-10-2014 12:58 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
ColinZ schreef op donderdag 16 oktober 2014 @ 12:41:
Volgens dit artikel van wccftech vormt Jaguar wel een bottleneck bij AC Unity. Misschien is dit gewoon brak programmeerwerk Ubisoft, aangezien normaal devs klagen over de zwakke GPU inplaats over de CPU.
Gezien het feit dat AC4 en W_D op een i7-4770K op 4.4 GHz nog steeds willekeurig stotteren: ja, dat ligt aan de incompetentie van Ubisoft ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op donderdag 16 oktober 2014 @ 13:07:
[...]

Gezien het feit dat AC4 en W_D op een i7-4770K op 4.4 GHz nog steeds willekeurig stotteren: ja, dat ligt aan de incompetentie van Ubisoft ;)
Ubi moet je gewoon boycotten als pc gamer, ze kunnen niet meer met fatsoenlijke ports komen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
IBM had misschien wel een CPU kunnen leveren op basis van de nieuwste Power Architectuur. (2 generaties nieuwer dan wat er in de Xbox 360 zit).

Echter kan ik me voorstellen dat een SOC veel goedkoper is en ook wat efficiënter is qua verbruik, PCB ontwerp en koeling.

En dan valt IBM daar al weer af.
De PS3 en Xbox 360 hadden beide een losse CPU en GPU. Nu zijn het bij de One en de PS4 beide SOC's geworden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 16 oktober 2014 @ 13:04:
[...]


Zoals iedereen hier vaak doet en ik moet altijd gelijk met bronnen komen ga ergens anders zeiken of wees niet zo lui en help met zoeken waar ik al mee bezig was alleen hier door heb ik er nu geen zin meer in dus zoek het ook maar uit. Verder zijn hier meerdere die dit ook wel weten dus die kunnen het ook wel bevestigen.
Maar zo werkt het niet, jij doet de bewering. Het is dus aan jou om te bewijzen dat die klopt, dat hoeven wij niet voor jou te doen. Welke meerdere mensen? Als deze er zijn dan zullen ze vast nog wel reageren, maar je kan er niet altijd van uitgaan dat andere dat doen.

Zoals Werelds als vertelde (in zijn zeer uitgebreide en goed onderbouwde post!), Nvidia was op het moment dat de console makers een chip zochten niet in staat om een zuinige chip te maken met de specificaties die zij wilden. Als het ontwerp voor Kepler er al was dan had deze zich waarschijnlijk eerst moeten bewijzen. Pas sinds die generatie hebben ze een chip die de zelfde performance/Watt haalt als AMD met minder GPGPU computing power.

Maar laat dit je allemaal niet tegenhouden om je bron te zoeken, als je hem vind dan is het alsnog interessant om het te lezen.

Acties:
  • 0 Henk 'm!

Verwijderd

*SNIP*

[ Voor 193% gewijzigd door dion_b op 18-10-2014 12:58 ]


Acties:
  • 0 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 10-09 22:55
* SNIP *

[ Voor 99% gewijzigd door dion_b op 18-10-2014 13:06 ]

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

Verwijderd

hubhib schreef op donderdag 16 oktober 2014 @ 16:43:
Ik heb ook ooit ergens gelezen dat ene Magherb82 een enorme Nvidia troll is die alles uit zijn duim zuigt. Weet niet meer waar, maar het stond ergens op het internet. Google zelf maar als je het niet geloofd.

Ik lees dit topic al enkele jaren met plezier. Heel veel gebruikers posten hier dagelijks zeer uitgebreide, goed onderbouwde informatie. Maar wat jij (Magherb82) post slaat vaak als een slappe op een slagroomtaart. Beter ga je ergens een Nvidia topic aanmaken en daar het topic vol spammen met wat jij zelf graag wil geloven. Of je doet normaal en komt gewoon eens met echte bronnen en wat minder fanboyisme.
*SNIP*

[ Voor 4% gewijzigd door dion_b op 18-10-2014 12:58 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Phuncz schreef op donderdag 16 oktober 2014 @ 11:48:
Ze hadden zelf al wat extra projecten zoals SHIELD en G-Sync in het verschiet, dus vreemd is de keuze niet.
G-Sync is met de komst van een voor iedereen beschikbaar alternatief ingebouwd in de Display Port 1.3 standaard zo goed als dood.

SHIELD helpen ze zelf wel om zeep. Ze maken zelf een tablet en handheld en duwen daar hun eigen chip in. Typisch de arrogante houding van nVidia. Nu bedenken afnemers van SoC zich wel twee keer voordat ze voor nVidia gaan. Immers is het meteen ook je eigen concurrent. Dan nemen ze liever bij iemand anders af.

Een SHIELD tablet is leuk, maar wie heeft zoveel grafisch vermogen nodig? Mensen die zo nu en dan eens een spelletje spelen op hun tablet? :+ Ken namelijk niet zoveel mensen die zitten te wachten op een ultieme game tablet... Al helemaal niet als die bijna evenveel kost als een console en veel duurder is dan een handheld console van Sony of Nintendo. Zo goed is het game ecosysteem van Android gewoon niet. Is allemaal casual met her en der eens een echte fatsoenlijke game. Er is nog geen echte succes volle console of handheld die gebruik maakt van Android.

"The Shield's biggest challenges, however, are content and cost. There are simply too few compelling gameplay experiences on Android to justify a $300 dedicated handheld."

HWI vindt het een silver award waard, maar ik zie eigenlijk geen doelgroep. Mensen die hun tablet gebruiken voornamelijk voor games lijkt me schaars.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 16 oktober 2014 @ 16:16:
Waar is je bron dat Nvidia dat niet kon?
Nvidia maakte destijds grote moeilijk te produceren chips die veel stroom gebruikten omdat ze het leuk vonden }:O.

Reageer niet zo kleinzielig, de reden dat je denkt dat wij "schijnheilig" reageren is omdat jij een reputatie hebt dat je onzin uitkraamt. Totdat jij jezelf bewijst dat je een goed onderbouwde post plaatst met bronnen en dit voor een tijd doet zal iedereen met de huidige argwaan op jouw posts reageren.
We schieten je heus niet af als je het een keer fout hebt, zolang je maar die fout goed kan beredeneren.

Edit:
Mensen zoals Werelds hebben een reputatie opgebouwd de waarheid te spreken en hun posts goed te onderbouwen. Daarom kijken wij niet raar op als er een keer geen bron bij staat.

[ Voor 11% gewijzigd door Sp3ci3s8472 op 16-10-2014 16:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op donderdag 16 oktober 2014 @ 16:45:
[...]


Nvidia maakte destijds grote moeilijk te produceren chips die veel stroom gebruikten omdat ze het leuk vonden }:O.

Reageer niet zo kleinzielig, de reden dat je denkt dat wij "schijnheilig" reageren is omdat jij een reputatie hebt dat je onzin uitkraamt. Totdat jij jezelf bewijst dat je een goed onderbouwde post plaatst met bronnen en dit voor een tijd doet zal iedereen met de huidige argwaan op jouw posts reageren.
We schieten je heus niet af als je het een keer fout hebt, zolang je maar die fout goed kan beredeneren.
*SNIP*

[ Voor 75% gewijzigd door dion_b op 18-10-2014 12:59 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op donderdag 16 oktober 2014 @ 16:16:
Waar is je bron dat Nvidia dat niet kon?
Nvidia gave AMD the PS4 because console margins are terrible

Bottomline te duur. Ze kunnen het dus niet.

AMD kon het wel en plukt daar nu de vruchten van terwijl nVidia de console boot finaal heeft gemist en maar wat gaat hannesen met zijn Tegra SoC in SHIELD producten die ze zelf maar uitbrengen omdat er verder niemand brood in ziet of omdat ze denken dat ze zelf wel even zo een succesvolle console/handheld neer kunnen zetten.

Thanks to consoles, AMD posts first profit in over a year

[ Voor 59% gewijzigd door madmaxnl op 16-10-2014 17:03 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

madmaxnl schreef op donderdag 16 oktober 2014 @ 16:45:
G-Sync is met de komst van een voor iedereen beschikbaar alternatief ingebouwd in de Display Port 1.3 standaard zo goed als dood.

SHIELD helpen ze zelf wel om zeep.
Mijn punt was niet of dat goede of slechte technieken zijn, maar dat Nvidia dit waarschijnlijk 3 jaar geleden in de pijplijn had, waardoor dat ze genoeg te doen hadden buiten dan nog eens console-deals binnen te halen die een lage marge en een hoog risico betekende.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 16 oktober 2014 @ 16:58:
[...]


Nvidia gave AMD the PS4 because console margins are terrible

Bottomline te duur. Ze kunnen het dus niet.

AMD kon het wel en plukt daar nu de vruchten van terwijl nVidia de console boot finaal heeft gemist en maar wat gaat hannesen met zijn Tegra SoC in SHIELD producten die ze zelf maar uitbrengen omdat er verder niemand brood in ziet of omdat ze denken dat ze zelf wel even zo een succesvolle console/handheld neer kunnen zetten.

Thanks to consoles, AMD posts first profit in over a year
Dankje.
Vond deze net nog want ben weer gaan zoeken.
nieuws: Nvidia vond PlayStation 4 niet winstgevend genoeg

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Welk hoog risico? Dat van het uitbrengen van een eigen handheld/console?

Dan kun je beter in zee gaan met Microsoft, Sony en of Nintendo.

Dan sta je er samen voor om het een succes te maken en draag je daarvan ook samen het risico. Daarnaast blijf je dan als spreekwoordelijke schoenmaker bij je leest. Het ecosysteem, de games e.d, regelt MS, Sony en Nintendo terwijl jij de hardware ervoor levert.

Nu willen ze op het Android ecosysteem meeliftte. Een arena waar iedereen zo in kan stappen en wat dus risicovol is. Waar zijn de dikke AAA titels voor Android? Niets, maar dan ook niets komt in de buurt van de titels voor echte game consoles. Logisch ook als je bedenkt dat de games voor Android gratis zijn of bijna niks kosten. Voor de doelgroep gamers op Android is dat prima, maar voor de gamers die een game handheld, game console en of PC gaming gewend zijn is het puinzooi. Reken ook maar niet dat dat zo maar even veranderd omdat nVidia graag samen met Android voet aan de grond wil krijgen. Ouya is ook niks geworden (met Tegra 3). Omdat ergens Android op loopt maakt het nog niet tot een succes.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op donderdag 16 oktober 2014 @ 16:50:
Waar komt mijn reputatie van onzin weg, kun je dit uitleggen of is dit ook gewoon de zoveelste troll want voor zo ver ik weet heb ik nog geen onzin gepost het forum?
Een kleine selectie:
Verwijderd in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"

Verwijderd in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"

Verwijderd in "CJ's Radeon Info & Nieuwsdiscussie - Deel 128"

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
Dit vind ik iets te makkelijk om het als 'te duur' en 'niet kunnen' te bestempelen voor 1 partij en dat weet je zelf ook wel. NVidia heeft met de xbox1 dealer gruwelijk ruzie gekregen met Microsoft. Die wilde de inkoopprijs steeds verder drukken en nVidia had daar helemaal geen zin in omdat ze dan voor bijna productieprijs moesten gaan leveren. Die relatie was niet voort te zetten voor de 360.

De keuze voor AMD was ook heel anders als die van nVidia. De aangepaste voorwaarden van MS, namelijk zelf produceren van de chip op basis van het ontwerp van AMD tegen een fixed fee. AMD geen yield of productie/overschot risico en MS een goedkope chip waar ze zelf grip op de kosten hebben.

We weten allemaal wel door alle verhalen dat er vrijwel geen noemenswaardige winst is voor AMD of nVidia als het gaat om console gpu's sinds de afgelopen console generatie. Als het een vetpot was zou er veel meer moeite gedaan worden door beide partijen om contracten binnen te slepen en zou dit noemenswaardig zijn in de kwartaal en jaarcijfers van beide fabrikanten. Dat is het gewoon niet en zal het ook niet snel worden. Nvidia heeft geen zin in werk dat niet rendabel is en kiest bewust voor een eigen strategie, dat heeft volgens mij niet met onkunde te maken.

De keuze voor de APU van AMD snap ik goed, single chip en goedkoop. Alleen is dit niet een toekomstbestendige keuze van SONY en Microsoft, dat weten ze zelf ook heel goed. Ze maken nu wel winst op de hardware vanaf dag 1 ipv 3 jaar verlies draaien op hardware (ps3 xbox360) en het hopen te compenseren met sofware.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geen vetpot, maar zeker niet verkeerd. Daarnaast krijgt AMD een prominentere positie als het aankomt op goede code voor hun chips.
sjekneck schreef op donderdag 16 oktober 2014 @ 17:17:
[...]
De keuze voor AMD was ook heel anders als die van nVidia. De aangepaste voorwaarden van MS, namelijk zelf produceren van de chip op basis van het ontwerp van AMD tegen een fixed fee. AMD geen yield of productie/overschot risico en MS een goedkope chip waar ze zelf grip op de kosten hebben.
madmaxnl schreef op donderdag 16 oktober 2014 @ 00:33:
AMD heeft misschien met zijn prijsstelling gegokt op twee a drie opdrachten van: Nintendo, Microsoft en/of Sony. Minder marge, maar meer afzet en daardoor toch meer winst. Daarnaast mist nVidia finaal de boot.

Ze hebben uiteindelijke alle drie de opdrachten binnengesleept. Is geen kattenpis.
Als je weet dat je één design win binnen hebt dan kun je bij de volgende klant genoegen nemen met minder. Die luxe had nVidia denk ik dus niet. Daarnaast loopt AMD dan niet het risico dat een van de twee consoles flopt. Immers zal de andere dan wel succesvol zijn ten kosten van de concurrentie. Alle, gevestigde, console design binnen halen is gewoon een dikke win win situatie.

[ Voor 61% gewijzigd door madmaxnl op 16-10-2014 17:29 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Hoe dieper ik zoek hoe dichter ik bij de bron komt. Ik heb verder niet gezegd dat Nvidia de gpu zou leveren maar dat er sprake van was. Ik zoek nog wat dieper.
http://www.gamersnet.nl/n...t_playstation_4_geleverd/

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
madmaxnl schreef op donderdag 16 oktober 2014 @ 17:20:
Geen vetpot, maar zeker niet verkeerd. Daarnaast krijgt AMD een prominentere positie als het aankomt op goede code voor hun chips.


[...]
Zullen we het vergelijken met mimum loon arbeid? Dan kunnen mensen zelf bepalen of dat wel of niet verkeerd is voor een bedrijf.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Prima, geen arbeid en geen geld of werk met minimum loon?

Die eerste is nVidia die tweede is AMD.

AMD heeft het gewoon harder nodig dan nVidia.

Uit het artikel dat ik aanhaalde, waar je niet echt op in gaat. Want daaruit blijkt dat AMD er geld mee verdient.

Afbeeldingslocatie: https://secure.tweakers.net/ext/f/uHR6G3A0MAf5F4UrjalcnNKc/full.jpg?nohitcount=1
Verwijderd schreef op donderdag 16 oktober 2014 @ 17:25:
Hoe dieper ik zoek hoe dichter ik bij de bron komt. Ik heb verder niet gezegd dat Nvidia de gpu zou leveren maar dat er sprake van was. Ik zoek nog wat dieper.
http://www.gamersnet.nl/n...t_playstation_4_geleverd/
Komt neer op wat we al wisten. Ze zijn niet tevreden met minimumloon :+ Ergo, de marges waren niet hoog genoeg voor ze.

[ Voor 122% gewijzigd door madmaxnl op 16-10-2014 17:38 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ook al ga ik graag in discussie, we zitten uiteindelijk op een forum, ik hoop dat niet weer een paar pagina's aan het discussiëren hoe je AMD/Nvidia/Intel's financieële resultaten moet interpreteren want AMD heeft wel leukere dingen dan cijfertjes :) Niet gericht aan iemand specifiek ofzo.

[ Voor 7% gewijzigd door Phuncz op 16-10-2014 18:01 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Zo, dat waren even wat lelijke posts. Dat direct op de man spelen is niet zo leuk en verdient Magherb82 ook niet; andersom moet jij je ook niet zo aangevallen voelen als wij willen weten waar je je statements op baseert Magher ;)

En ja, Nvidia heeft zeker mee gedaan in de race en ze zullen inderdaad uiteindelijk blij zijn dat AMD simpelweg een beter aanbod kon doen, het bespaart Nvidia immers een hoop R&D. Maar ik zie nog steeds niet waarom Nvidia een betere keus geweest zou zijn.

Nogmaals, het komt er op neer dat op het moment dat Sony en MS aan kwamen kloppen Nvidia simpelweg niets te bieden had dat geschikt was voor de consoles. Ze zaten met een veel te grote GT200, waren bezig met een problematische Fermi en hun Kepler ontwerp was nog niet getest. Om weer in de console markt te stappen had ze een hele hoop R&D gekost om hun verbruik en die size drastisch omlaag te krijgen, een probleem dat AMD eenvoudig al niet meer had. Nvidia kan wel keihard roepen dat het "niet winstgevend" is - maar dat is alleen voor hen zo, omdat zij nog geen producten in ontwikkeling hadden die in dat straatje pastten. Voor hen had het heel veel extra R&D en dus kosten betekend; voor AMD zijn de consoles zeker wel uitermate winstgevend, juist omdat ze toch een weg waren ingeslagen die perfect bij consoles past. Hetzelfde geldt voor Intel en IBM; ook zij zouden veel meer aandacht aan hun GPU's besteed moeten hebben om in hun eentje dat contract binnen te slepen.

Vergeet ook niet dat die chips door de jaren heen goedkoper worden om te produceren, als wafer prijzen zakken, procedé's efficiënter en goedkoper worden, enzovoort.


Voor Nvidia was het alsof ze wel prachtige bananen hadden, maar dat de klant ook mandarijnen wilde hebben. Moeten ze die eerst gaan kweken, wat een hoop geld kost. En daar tegenover staat dan AMD, die een banaandarijn klaar heeft staan :+

[ Voor 4% gewijzigd door Werelds op 16-10-2014 19:32 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

In de zojuist aangekondigde Apple iMac 27" 5K Retina Display (5210x2880) zit standaard een Radeon R9 M290X en upgradebaar naar M295X. Voor de betere gaming zal het niet voldoende zijn, maar het is wel indrukwekkend om 15 megapixel aangestuurd te zien.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Gamen doe je ook niet op een iMac. OpenCL is de reden waarom ze hier voor AMD kiezen en niet voor nVidia.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Maxwell doet het ook prima in opencl benches, denk dat ie gewoon te laat of te duur was.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • The Fox NL
  • Registratie: Oktober 2004
  • Laatst online: 13-09 22:24
Volgens semiaccurate.com zou het liggen aan het feit dat Nvidia de patent troll kant is opgegaan. Ze hebben ook geprobeerd Apple te laten betalen voor hun patenten, met als resultaat dat Apple voor AMD is gegaan.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Dat en waarschijnlijk het feit dat Nvidia gruwelijk achterloopt met hun OpenCL drivers. AMD heeft een OpenCL 2.0 driver waar Nvidia nog met een OpenCL 1.2 driver zit.
Zelfs Intel heeft een OpenCL 2.0 driver uitgebracht voor hun HD5xxx serie. http://en.wikipedia.org/wiki/OpenCL

NVIDIA Will Soon Probably Introduce OpenCL 1.2 Linux Support

Daarbij ook de performance op Linux:
AMD Catalyst vs. NVIDIA OpenCL Performance

[ Voor 31% gewijzigd door Sp3ci3s8472 op 17-10-2014 00:30 . Reden: 2 extra bronnen ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als die drivers van nVidia nog steeds zo presteren ligt AMD wel erg ver voor. Al is Maxwell qua GPGPU wel iets krachtiger geworden. Dat zal niet genoeg zijn om dit gat te dichten. Ook Hawaii en Tonga zijn qua GPGPU weer ietsjes krachtiger geworden.

En ik kan me ook voorstellen dat de AMD GPU's wat goedkoper zijn. De afgelopen tijd waren de R9 kaarten ook een stukje goedkoper dan hun Geforce GTX 7xx en nu 9xx tegenhangers. En daar is Apple ook wel voor te porren dan hebben ze weer meer winst marge.

Ik weet niet hoe die R9 M290X of M295X het doet op 4K+ maar de R9 290X desktop kaarten kunnen de nieuwe GTX 980 dan regelmatig evenaren of verslaan. Hoe hoger de resolutie wordt hoe beter de AMD kaart het gaat doen. Met een 5K display is het dus ook een goede keuze.

[ Voor 28% gewijzigd door Astennu op 17-10-2014 09:04 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Het lijkt erop dat de prijsdalingen van onder andere de AMD R9 290(X), eindelijk ook Nederland bereikt hebben :) :
Goedkoopste R9 290X nu: 328,50 Euro
Goedkoopste R9 290 nu: 256,50 Euro

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Damm dat is een behoorlijke prijs drop zeg! Maar goed AMD heeft ook al aangegeven dat deze prijzen tijdelijk zijn.
Betekend niet veel goeds voor het 2e hands aanbod in V&A. Die prijzen zijn al maanden extreem laag en zullen nu alleen maar verder zakken.

Die R9 M295X is trouwens wel erg interessant als deze echt een full Tonga heeft. 2048 shaders is niet mis!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
mjah, d'r staan 38 290's in vraag en aanbod.

amd ontslaat trouwens 7% van het personeel.
http://techreport.com/new...nue-announces-7-staff-cut

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 17 oktober 2014 @ 00:23:
Dat en waarschijnlijk het feit dat Nvidia gruwelijk achterloopt met hun OpenCL drivers. AMD heeft een OpenCL 2.0 driver waar Nvidia nog met een OpenCL 1.2 driver zit.
Zelfs Intel heeft een OpenCL 2.0 driver uitgebracht voor hun HD5xxx serie. http://en.wikipedia.org/wiki/OpenCL

NVIDIA Will Soon Probably Introduce OpenCL 1.2 Linux Support

Daarbij ook de performance op Linux:
AMD Catalyst vs. NVIDIA OpenCL Performance
Nvidia is meer bezig met Cuda in plaats van OCL, vandaar dus dat OCL niet meer zo veel aandacht krijgt, ze vinden het waarschijnlijk niet belangrijk genoeg of het ligt elkaar in de weg?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 17 oktober 2014 @ 10:38:
[...]


Nvidia is meer bezig met Cuda in plaats van OCL, vandaar dus dat OCL niet meer zo veel aandacht krijgt, ze vinden het waarschijnlijk niet belangrijk genoeg of het ligt elkaar in de weg?
Ze vinden het niet belangrijk als in ze zien liever dat iedereen CUDA gebruikt. Wat vervolgens alleen werkt met nVidia GPU's.

Je ziet het gebruik van OpenCL steeds meer toe nemen. Niet raar aangezien dit op alle GPU's werkt ipv alleen die van nVidia. Voor een ontwikkelaar is dat dan veel interessanter. Je spreekt zo een veel grotere doelgroep aan. Zeker omdat intel IGP's het ook ondersteunen. En heel veel machines hebben niet eens een losse grafische kaart van nVidia of AMD. Als je geen games speelt heb je die ook helemaal niet meer nodig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nvidia will iedereen liever op CUDA en daar zit op zich wel iets in, zij waren er immers eerder mee.

OpenCL 2.0 ligt qua features echter voor op CUDA en als implementatie is het een logischere keus voor veel applicaties omdat je dan niet aan specifieke hardware gebonden bent.

Overigens presteert Nvidia's OpenCL 1.2 driver wel redelijk in vergelijking met hun 1.1 driver. Het heeft wel 18 maanden geduurd voordat 1.2 eindelijk kwam, maar het is in ieder geval een degelijke driver :P

Acties:
  • 0 Henk 'm!

Verwijderd

Hier kan AMD dus mooi mee weg komen, een gat in de markt om de normale consument aan te spreken. Ik zie hier dus wat voordelen in voor AMD, hebben ze ook een keer wat op andere gebieden en kan Nvidia mooi zijn Cuda behouden, die de professionele markt gebruikt vanwege de status en suport. .

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 17 oktober 2014 @ 11:26:
Hier kan AMD dus mooi mee weg komen, een gat in de markt om de normale consument aan te spreken. Ik zie hier dus wat voordelen in voor AMD, hebben ze ook een keer wat op andere gebieden en kan Nvidia mooi zijn Cuda behouden, die die professionele markt liever gebruikt vanwege de status en suport. .
Doen ze ook wel. Zie ook HSA. AMD zet daar wel op in. Maar de software ontwikkeling gaat nog niet zo heel snel.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Applicaties zoals Sony Vegas en Adobe's hele suite gebruiken OpenCL, dus daar heeft AMD een voordeel ja. En dat zal inderdaad ook zijn waarom Apple weer met AMD in zee is gegaan (naast natuurlijk een goede deal van AMD :P).

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Vergeet niet dat Apple hele sterke banden heeft met OpenCL, zelfs aan de wieg ervan stond. Logisch dus dat goede OpenCL performance voor hun hoofdzaak is. nvidia heeft zich wat Apple betreft dus in de eigen voet geschoten door compute uit de desktopkaarten te halen en richting de enterprise te schuiven. (al levert het zemisschien alsnog meer geld op doordat de enterprise zo lucratief is).

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Astennu schreef op vrijdag 17 oktober 2014 @ 09:01:
Als die drivers van nVidia nog steeds zo presteren ligt AMD wel erg ver voor. Al is Maxwell qua GPGPU wel iets krachtiger geworden. Dat zal niet genoeg zijn om dit gat te dichten. Ook Hawaii en Tonga zijn qua GPGPU weer ietsjes krachtiger geworden.
Heb totaal geen verstand van OpenCL, maar als ik dit artikel van phoronix erbij haal, lijkt het mij juist dat Maxwell gehakt maakt van Hawaii.

Oh en dit ziet er ook niet al te positief uit voor AMD. Weet niet of AMD dit al eerder bekend had gemaakt, of dat ze dit nu pas laten weten?

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Dat is op zich niet heel gek, voor het gemak kunnen we stellen dat Linux 1-1.5 procent van de OS-markt in handen heeft als we Steam Survey moeten geloven. Dat zou ik inderdaad dan geen heel hoge prioriteit geven ;)

[ Voor 15% gewijzigd door Racing_Reporter op 17-10-2014 13:03 ]

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
ColinZ schreef op vrijdag 17 oktober 2014 @ 12:38:
[...]

Heb totaal geen verstand van OpenCL, maar als ik dit artikel van phoronix erbij haal, lijkt het mij juist dat Maxwell gehakt maakt van Hawaii.

Oh en dit ziet er ook niet al te positief uit voor AMD. Weet niet of AMD dit al eerder bekend had gemaakt, of dat ze dit nu pas laten weten?
Zo te zien hebben ze het bij de grote maxwell aardig opgekrikt. Erg netjes.

Volgens mij hebben ze het al eerder bekend gemaakt dat de resultaten niet zo goed zouden zijn. De ontslagen is volgens mij wel iets nieuws.

Mja je moet iets.... Je moet toch weer winstgevend zien te worden. Het is alleen te hopen dat dit er niet voor zorgt dat ze minder goed in staat zijn nieuwe producten op de markt te zetten. En heeft het juist een positief effect op het R&D budget. We gaan het zien....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
ColinZ schreef op vrijdag 17 oktober 2014 @ 12:38:
[...]
Heb totaal geen verstand van OpenCL, maar als ik dit artikel van phoronix erbij haal, lijkt het mij juist dat Maxwell gehakt maakt van Hawaii.
Ach, amd wint nog steeds met sony vegas, al scheelt het weinig.

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8526/67745.png

Aangezien foto en videobewerking de doelgroep is voor deze imac denk ik niet dat ze meer voor maxwell wilden betalen voor vergelijkbare performance. Al was het voor een heleboel andere dingen wel leuk geweest.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Hoezo scheelt het weinig? Om en nabij 25% sneller noem ik niet weinig.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
De Linux drivers zijn een heel ander verhaal. Daar heeft AMD sowieso wat problemen.

Dit is het verschil tussen Nvidia's 1.1 en 1.2 driver (let op de 780 en vervolgens de 980):

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph6973/54894.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8526/67744.png

Dat is hoe slecht Nvidia's OpenCL driver was en nog steeds is; met de 980 maken ze duidelijk ergens een hele slimme optimalisatie slag.

[ Voor 22% gewijzigd door Werelds op 17-10-2014 13:59 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
madmaxnl schreef op vrijdag 17 oktober 2014 @ 13:38:
Hoezo scheelt het weinig? Om en nabij 25% sneller noem ik niet weinig.
Er zit geen 290 in die imac.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Eerste Free-Sync monitoren al in November?
http://nl.hardware.info/n...n-mogelijk-al-in-november

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
madmaxnl schreef op vrijdag 17 oktober 2014 @ 13:38:
Hoezo scheelt het weinig? Om en nabij 25% sneller noem ik niet weinig.
Zoek de prijzen per kaart eens op, een 7950 is meer dan de helft van de snelheid van de GTX 980 maar de GTX 980 is wel 4x zo duur. (klinkt eerlijkgezegd als een dubbelprocessor "oplossing")
600 euro per kaart is opzich gewoon onverkoopbaar als het bedrijf het alleen daarvan moet hebben, als je price/performance erbij haalt blijft er van de voorsprong eigenlijk niks meer over.

Is bijna hetzelfde als zeggen "mijn Ferrari-Enzo is sneller dan jouw Porsche", waarop de logische reactie is "nee, want ik heb nog geld voor benzine".
(meeste mensen geven geen 3000 euro meer uit voor een PC upgrade)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Is het bekend welke beeldscherm producenten MStar, Novatek en Realtek scalers gebruiken ???

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Iedereen behalve de bedrijven die zelf in staat zijn scalers te produceren; en zelfs die bedrijven gebruiken vaak MStar of Novatek voor hun budget modellen (Dell, Eizo, Samsung).

Edit: die reacties op HWI, waarom lees ik ze ook |:( |:( |:(

[ Voor 15% gewijzigd door Werelds op 17-10-2014 16:29 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 00:04

Tomas Hochstenbach

Redacteur componenten
Met MStar, Novatek en Realtek heb je sowieso de helft van de markt te pakken. Zijn dus de grote jongens wat dat betreft.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op vrijdag 17 oktober 2014 @ 16:25:

Edit: die reacties op HWI, waarom lees ik ze ook |:( |:( |:(
Ter vermaeck.... :o

Heb me alleen net 10min geleden toch maar eens geregistreerd daar.... :X :o :D

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben zelf wel zeer benieuwd naar de verschillen tussen Gsync en Free-sync, en mensen vragen zich dat nu eenmaal af omdat er nog geen vergelijking is gemaakt via tests tussen de 2 varianten. Tweakers en de members kan er nog veel van HWI leren maar ook andersom.

*SNIP*

[ Voor 94% gewijzigd door dion_b op 18-10-2014 13:00 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 18 oktober 2014 @ 09:09:
Ik ben zelf wel zeer benieuwd naar de verschillen tussen Gsync en Free-sync, en mensen vragen zich dat nu eenmaal af omdat er nog geen vergelijking is gemaakt via tests tussen de 2 varianten. Tweakers en de members kan er nog veel van HWI leren maar ook andersom.
Nee, dat is het niet. Er is genoeg over Adaptive Sync / FreeSync bekend. En het zijn dit soort reacties die mij irriteren:
Door 4Dpixel op 17 oktober 2014 15:03
het verschil is dat free sync niet de fps matched maar meer op basis van voorspelling werkt. G-Sync is een 1 op 1 match tussen monitor en videokaart.
In technisch opzicht lijkt G-Sync dus beter, maar het is wachten op definitieve test resultaten om te kunnen bepalen of het verschil tussen de 2 te merken is.
Het zou best zo kunnen zijn dat free sync zo goed werkt dat je het verschil niet ziet.
Bullshit.

#1: Zowel G-Sync als FreeSync vereisen DP; G-Sync vereist DP 1.2 + Nvidia scaler, FreeSync een monitor met Adaptive Sync (kan DP 1.2a of 1.3 zijn)
#2: Als hij nou eens goed had gelezen over eDP 1.3 en Adaptive Sync in 1.2a, had hij geweten dat de spec heel duidelijk aangeeft dat de GPU gewoon een VBLANK kan triggeren, daar hoeft niets voorspeld te worden.
#3: AMD geeft dit ook duidelijk aan in hun FAQ:
Is it true that the AMD Catalyst™ driver must predict the vblank interval with Project FreeSync?

With Project FreeSync, an AMD Radeon™ graphics card directly controls display timings. Direct control eliminates the need for polling or waiting on the display, which could impact latency and performance.
Upon connecting a FreeSync-enabled monitor to a compatible AMD Radeon graphics card, the minimum and maximum times between the display of new frames (the vblank period) is exposed to the GPU via DisplayPort Adaptive-Sync. Because the minimum/maximum vblank period is known to the graphics card, successive frames will intelligently be sent within those boundaries. Predictive or speculative timing is not required under this model, and the GPU will adjust the display's refresh rate to match the current frame rate.
If an upcoming frame is delivered outside of the monitor's supported vblank period, that frame will be immediately presented on-screen when available to ensure the fastest possible screen update.
#4: nog een hebben? Geen probleem: http://www.vesa.org/news/...splayport-video-standard/
Computer monitors normally refresh their displays at a fixed frame rate. In gaming applications, a computer’s CPU or GPU output frame rate will vary according to the rendering complexity of the image. If a display’s refresh rate and a computer’s render rate are not synchronized, visual artifacts—tearing or stuttering—can be seen by the user. DisplayPort Adaptive-Sync enables the display to dynamically match a GPU’s rendering rate, on a frame-by-frame basis, to produce a smoother, low latency, gaming experience.
Deze knuppel heeft de klok wel horen luiden, maar heeft vervolgens de klepel tegen z'n hoofd gekregen want hij heeft geen flauw benul waar hij het over heeft. Dit hele "FS werkt op basis van voorspelling" is een mythe die Nvidia fanboys in het leven hebben geroepen omdat ze niet willen toegeven dat G-Sync exact dezelfde technieken gebruikt. Je ziet zometeen wat ik hier mee bedoel.
Door DatAccountz op 17 oktober 2014 19:21
Volgens mij heeft iedereen hier het verkeerde idee. De nieuwe displayport 1.2 toevoeging geeft alleen de optie om een vblank te laten vallen. De daadwerkelijke software en toepassing, waar nvida de ASIC voor heeft gemaakt, ontbreekt. Het is nog steeds aan AMD om de techniek/drivers te implementeren softwarematig. Iets wat bij G-sync niet hoeft (hardwarematig). Gezien de complexiteit van die chip van nvidia, is het niet zo eenvoudig om te implementeren.

Het is dus nog maar zien hoe goed die monitors werken als ze op de markt komen.
Fout, u gaat niet door voor de koelkast. Ik doe het volgende even in irritante regels, zodat het duidelijk is hoe dicht GS en AS bij elkaar liggen. Dit is van een hoog niveau bekeken.

GS is zowel hardwarematig als softwarematig. Aan de monitor kant moet de software met het GS protocol overweg kunnen.
AS is zowel hardwarematig als softwarematig. Aan de monitor kant moet de software met het AS protocol overweg kunnen.

Aan de GPU kant moet deze een DP poort hebben met ondersteuning voor het GS protocol en moet de driver dit aansturen.
Aan de GPU kant moet deze een DP poort hebben met ondersteuning voor het AS protocol en moet de driver dit aansturen.

De GPU heeft bij GS de controle over de refresh rate van de monitor.
De GPU heeft bij AS de controle over de refresh rate van de monitor.


Zoek de verschillen maar, er zijn er 4 en ze betreffen allemaal een enkele letter. Waar de haters de fout in zijn gegaan is dat AMD's allereerste demo gebruik maakte van eDP 1.3, waar iets in zit dat Panel Self-Refresh heet. Met PSR wordt de DP verbinding stilgelegd en rendert de GPU tijdelijk niet; het display is vervolgens zelf verantwoordelijk voor z'n refreshes. Als dat alles was wat AMD gebruikt had voor die demo, hadden ze echter geen aangepaste hardware nodig voor die demo dus ze gebruikten niet PSR. Binnen PSR zou je inderdaad voorspelling nodig gehad moeten hebben; je had dan op tijd PSR uit moeten zetten zodat het display de framebuffer kon lezen voor de volgende VBLANK. Echter is vanaf het moment dat AS is aangekondigd al heel duidelijk gezegd dat dit niet het geval is. Bij PSR wordt er niets gewijzigd aan de refresh rate van het display (in principe blijft dit gewoon wat het was voordat PSR aan stond; in de praktijk gaan displays uiteraard terug naar 30 Hz of 24 Hz), terwijl bij AS de refresh rate gelijk loopt aan de render rate van de GPU. Staat gewoon in de officiële aankondiging: http://www.vesa.org/news/...splayport-video-standard/

Het enige verschil is dat GS de naam is voor zowel de hardware (monitor scaler) als de software (driver en GPU firmware) en het protocol is. In het andere geval is AS het protocol, FS de software kant (driver en GPU firmware) en ligt de monitor scaler bij de monitor fabrikant. Die zullen ook geen nieuwe naam bedenken, want die vinden het juist mooi om een extra sticker op de doos te kunnen plakken met "Supports DisplayPort 1.2a Adaptive Sync!". En dat is ook iets dat heel duidelijk moet zijn: er komen geen monitors met "FreeSync ondersteuning". Er komen monitors met Adaptive Sync. En met GPU's die vervolgens AMD's FreeSync ondersteunen (wat gewoon een naam is voor AS ondersteuning) kun je die AS monitors gebruiken. Dit is net zoiets als 3D in TV's en Bluray spelers; een TV/BD speler ondersteunt niet "Samsung 3D" of "LG 3D". Die ondersteunt "HDMI 1.4 3D". Dat vervolgens Samsung en LG hun eigen implementatie hebben (een actief, ander passief) dat maakt geen sodemieter uit. Dat is hier precies hetzelfde.

Daarnaast is het feit dat Nvidia DP 1.2 vereist ook een teken dat ze waarschijnlijk voor 90% hetzelfde doen als de AS spec voorschrijft. AS voegt namelijk niets toe aan de vereiste hardware voor DP; alles wat nodig is voor AS zit al in DP, AS is slechts een spec die de combinatie van die dingen vast legt in een protocol. GS is ook gewoon een protocol; dat Nvidia een scaler levert die dat protocol implementeert maakt het niet beter.


En hoe weet die knakker hoe "complex" die chip van Nvidia is? Ik weet namelijk dat het tegenovergestelde het geval is. Het ding is bij lange na niet complex genoeg, dat is waarom bedrijven zoals Eizo en Dell ook geen producten met die chip uit brengen. Ze moeten dan $100 betalen voor een chip die slechter is dan hun eigen chip. Helaas kan ik je hier geen links bij verschaffen, maar zoals anderen kunnen bevestigen heb ik een goede relatie met vooral Eizo en ik heb dit direct van hen te horen gekregen. Sterker nog, toen AS/FS nog niet aan waren gekondigd gaven ze in Japan al aan dat hun interesse al meteen 50% was gezakt toen ze er achter kwamen dat hun monitors dan alleen met Nvidia zouden werken.


Nee, sorry, dat geneuzel van sommige figuren daar heeft niets te maken met skepticisme. Dat heeft alleen iets te maken met onwetendheid of een groen brilletje.

Juist op papier lijkt het alsof de twee technieken identiek zijn. Tuurlijk wil iedereen een vergelijking zien als bewijs, maar juist op papier ziet het er niet naar uit dat de ene techniek voor de ander onder gaat doen zoals sommige van die figuren beweren.

[ Voor 6% gewijzigd door Werelds op 18-10-2014 11:56 . Reden: Even wat dingetjes vet drukken :P ]


Acties:
  • 0 Henk 'm!

Verwijderd

*SNIP*

[ Voor 103% gewijzigd door dion_b op 18-10-2014 13:00 ]


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 00:37

dion_b

Moderator Harde Waren

say Baah

Modbreak:Excuses voor (late) opruimactie. Een en ander liep niet zoals bedoeld. Kudos voor niet onnodig in-topic op de man spelen.

Nothing to see here, move along...

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik ga wel akkoord met Magherb82 dat ik een vergelijking/review wil zien, omdat ik geloof dat ze beide overeenkomen. Echter betaal je bij Nvidia hard voor vendor-lockin en het feit dat je het nú kan beleven.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Werelds schreef op zaterdag 18 oktober 2014 @ 11:47:
[...]
Ik doe het volgende even in irritante regels, zodat het duidelijk is hoe dicht GS en AS bij elkaar liggen. Dit is van een hoog niveau bekeken.
...
verhaal G-Sync en FreeSync
...
Bedankt voor je uitgebreide uitleg van de verschillen tussen G-Sync en AdaptiveSync/FreeSync. :)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Wow een user die een gift krijgt van AMD, vanwege een bug report.
http://forums.guru3d.com/showthread.php?t=393794

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

A Look At Civilization: Beyond Earth

It supports Mantle...

"Speaking of performance; Civilization: Beyond Earth is a Gaming Evolved title and for the sake of transparency we want you to know that we received a pre-release copy of the game from AMD through Steam so we could conduct our testing for this review. We also tested this game on a PC build on Intel’s Core i7-5960X on Gigabyte’s X99-UD7 motherboard with RAM and water-cooling from Corsair and a reference Radeon R9 290X send to us by AMD."

Afbeeldingslocatie: http://semiaccurate.com/assets/uploads/2014/10/CivBE-settings.png
Afbeeldingslocatie: http://semiaccurate.com/assets/uploads/2014/10/Mantle-Civ.png
Afbeeldingslocatie: http://semiaccurate.com/assets/uploads/2014/10/Civ-BE-Power.png

[ Voor 18% gewijzigd door madmaxnl op 31-10-2014 00:20 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
nou nou dat is een vrij dramatisch verschill

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Jammer dat ze hem niet getest hebben met een Kaveri APU, maarja die reviews zullen dan nog moeten komen.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Op een andere site las ik dat een 980 op DX11 de performance ligt tussen de 290x met en zonder mantel, er is dus nog werk aan de driver te doen voor AMD.

De reviewer had alsnog de voorkeur voor Mantel, omdat de frametimes beter waren :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
madmaxnl schreef op vrijdag 31 oktober 2014 @ 00:17:

A Look At Civilization: Beyond Earth

It supports Mantle...

"Speaking of performance; Civilization: Beyond Earth is a Gaming Evolved title and for the sake of transparency we want you to know that we received a pre-release copy of the game from AMD through Steam so we could conduct our testing for this review. We also tested this game on a PC build on Intel’s Core i7-5960X on Gigabyte’s X99-UD7 motherboard with RAM and water-cooling from Corsair and a reference Radeon R9 290X send to us by AMD."

[afbeelding]
[afbeelding]
[afbeelding]
Dat is wel een zieke boost zeg!
Als ze dat nou bij meer games voor elkaar kunnen krijgen wordt het zeer interessant.
enchion schreef op vrijdag 31 oktober 2014 @ 05:17:
Jammer dat ze hem niet getest hebben met een Kaveri APU, maarja die reviews zullen dan nog moeten komen.
Zal nog wel komen. Maar ik denk dat je daar ook veel winst zal zien.
DCG909 schreef op vrijdag 31 oktober 2014 @ 07:12:
Op een andere site las ik dat een 980 op DX11 de performance ligt tussen de 290x met en zonder mantel, er is dus nog werk aan de driver te doen voor AMD.

De reviewer had alsnog de voorkeur voor Mantel, omdat de frametimes beter waren :)
De GTX 980 is verrassend snel. Het gat met de GTX 970 is ook erg groot (bijna 25% op hogere resoluties). De R9 290X zit vrij dicht tegen de GTX970 aan. Op hogere resoluties is hij sneller. De Min fps is wel beter maar toch. Ik hoop dat AMD toch snel een keer met een betere architectuur op de proppen kan komen of ze moeten nog een of andere wonder driver hebben die er 10% extra fps uit pompt. Maar dat laatste zie ik niet zo snel gebeuren. Hooguit bij specifieke games maar niet over de hele linie.

Vooral het stroom verbruik moet en kan beter. (vooral de performance per watt totale verbruik boeit me dan nog niet eens zo veel al is dit voor laptops en andere mobile devices wel heel belangrijk en dat is toch het grootste marktsegment aan het worden)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Nog een review van Mantle
http://www.anandtech.com/...vilization-beyond-earth/2

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8640/68436.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8640/68438.png

[ Voor 44% gewijzigd door Verwijderd op 31-10-2014 09:03 ]


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Als ik één ding heb geleerd, dan is het dat average fps op zichzelf bijna geen zak meer zegt :s

Je moet frametimes en minimum fps hebben om iets te kunnen zeggen over de prestaties :/

Ik zal zo kijken of ik die review kan vinden.

Acties:
  • 0 Henk 'm!

Verwijderd

Ook de Average fps is belangrijk, ander weet je niet of je hoog genoeg zit met de gemiddelde fps, waar op de game het meeste van zijn tijd zich op af speelt. Min fps is ook net zo belangrijk, het beste heb je dan min en avg fps en de frametimes. :)

[ Voor 22% gewijzigd door Verwijderd op 31-10-2014 09:17 ]


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:06

Cheezus

Luiaard

De minimum framerates zien er beter uit voor AMD:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8640/68440.png

Al lijkt mantle hier weinig verbetering te geven..

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Weighted average FPS vind ik belangrijk, maar dat is meestal handwerk en zie je zelden in reviews. Het vlakt de extremen af. Maar dan heb je een indicatie hoe goed of slecht een bepaalde GPU presteert in de test.

Minimum FPS zegt meer iets over hoe geoptimaliseerd het level-design en de engine is, maar soms ook de efficientie van de GPU op het extreme gebied.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
http://www.pcper.com/revi...aii-DX11-vs-Mantle/2560x1

Op deze manier kun je er heel veel meer over zeggen hoe soepel iets speelt.
imo iig

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Lijkt mij dat 1 van die 2 reviews niet deugt btw.

Bij de ene is het verschil op 1080p: 25 FPS van 37 -> 62
Bij de andere is het verschil op 1080p: 6 FPS van 97 -> 103

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Ze hebben denk een totaal ander scenario getest.

Ik ben groot fan van techreport en de percentile fps grafiek.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik zag het ook al ja. Maar het gaat vooral om de Minum FPS gain:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8640/68442.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8640/68440.png

Op hoge resoluties scheelt het niet zo veel meer. Maar op lagere resoluties heeft het heel veel nut!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Astennu schreef op vrijdag 31 oktober 2014 @ 13:16:
[...]


Ik zag het ook al ja. Maar het gaat vooral om de Minum FPS gain:

[afbeelding]

[afbeelding]

Op hoge resoluties scheelt het niet zo veel meer. Maar op lagere resoluties heeft het heel veel nut!
Op de hoge resoluties is iets aan het bottlenecken aan de verschillen te zien.

Zowiezo vind ik testscenarios waar de snelste niet boven de 40FPS uitkomt erg nutteloos, want het bewijst eerder dat het spel/programma gewoon niet werkt met die instelling.
33 FPS is imho nl gewoon onacceptabel.

Als dat door 1 specifieke feature zo langzaam loopt betekent het gewoon dat die feature uit gezet moet worden totdat de implementatie beter overeenkomt met de beschikbare hardware, door software updates/bugfixing of doordat de hardware daar nog voor moet uitkomen die dat in hardware ondersteunt.

Reviews waarin gestelt wordt dat Merk-A 3x zo snel is als Merk-B want Merk-A haalt 6 FPS en Merk-B haalt 2 FPS zijn in mijn beleving dan dus ook totale onzin.

Als 1 merk 60-70 FPS haalt en het andere merk 30-40 is het natuurlijk wel zinnig.

De speelbaarheids vraag ligt imho tussen de 50-120 FPS (hangt van het spel af), boven de 120 maakt het allemaal ook niet meer uit of de ene 160 en de ander 130 haalt.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
een cruciaal toevoeging hier ook is dat semiaccurate de late game fps heeft bijgehouden en ik weet niet of daar spraken van is met de andere reviews. Ik ga er eigenlijk van uit dat hoge late game fps zich ook reflecteert in korte periodes tussen het enidigen van een turn en het starten van een nieuwe.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Kijk eens even een stapje onder de 290X heren, met name op 4K laat AMD daar wel iets aardigs zien ;)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

enchion schreef op vrijdag 31 oktober 2014 @ 13:56:
[...]
De speelbaarheids vraag ligt imho tussen de 50-120 FPS (hangt van het spel af), boven de 120 maakt het allemaal ook niet meer uit of de ene 160 en de ander 130 haalt.
Bij haast alle spellen zou ik je gelijk geven maar bij een trage rts/simulatie vind ik dat 40fps al zeker voldoende is. Zolang de input van je keyboard en muis maar niet wordt belemmert door de lage framerate, wat in oude spellen wel het geval was omdat die singlethreaded waren.

Bij minimum framerate is het misschien beter om een weighted minimum te nemen, dit is wel een geklooi om het goed op te stellen. Maar het zorgt ervoor dat de extreme gevallen door bijv. het moeten swappen van iets niet ineens de framerate naar 1fps springt en dat wordt meegerekent.

@Werelds
Inderdaad single gpu sneller dan een GTX980 :p. Helaas met 4k crossfire wat minder, dit zal wel met de drivers te maken hebben.

[ Voor 7% gewijzigd door Sp3ci3s8472 op 31-10-2014 15:47 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Vreemd dat de R9 285 niet mee opgenomen is in de tests. Je ziet ze eigenlijk zelden tijdens een vergelijking, nu zelfs nog.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Sp3ci3s8472 schreef op vrijdag 31 oktober 2014 @ 15:42:
[...]
Bij haast alle spellen zou ik je gelijk geven maar bij een trage rts/simulatie vind ik dat 40fps al zeker voldoende is. Zolang de input van je keyboard en muis maar niet wordt belemmert door de lage framerate, wat in oude spellen wel het geval was omdat die singlethreaded waren.

Bij minimum framerate is het misschien beter om een weighted minimum te nemen, dit is wel een geklooi om het goed op te stellen. Maar het zorgt ervoor dat de extreme gevallen door bijv. het moeten swappen van iets niet ineens de framerate naar 1fps springt en dat wordt meegerekent.
Dat bedoelde ik met "hangt van het spel af".

Als alle kaarten beneden het speelbare niveau zitten op die instelling heb je niks aan benchmarks want dan is de conclusie "Het spel is onspeelbaar, Klaar" en boven een bepaald maximum is het het gewoon "Op alle hardware speelbaar"

Stel voor dat bij elk spel behalve 1 AMD precies even snel is als nVidia (hypothetisch allebei maken maar 1 kaart per jaar voor precies dezelfde prijs), maar bij dat 1e spel AMD 200 FPS haalt en nVidia 150.
Dan is het gewoon zo dat allebei precies evenveel bang for the buck geven aangezien ik het verschil tussen die snelheden toch niet kan zien.
En aan de onderkant van de schaal precies hetzelfde.

Op de R9 250X in de tabel boven is het spel dus gewoon absoluut onspeelbaar.

Ze moeten dus gewoon instellingen pakken waar de speelbaarheidsgrenswaarde in het midden of zelfs onderaan de tabel gepaatst is.

Als daarvoor een functie als Physx/Tesselation uitgezet/laaggezet moet worden (want het zijn meestal maar 1of2 settings) dan snap je dat de uitkomst van de test ernstig kan veranderen.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

enchion schreef op vrijdag 31 oktober 2014 @ 16:59:
[...]

Dat bedoelde ik met "hangt van het spel af".
Excuses overheen gelezen |:( .

Bij HardOCP willen ze dat nog wel eens testen, ze kijken dan wat de max speelbare settings zijn van een spel met videokaart x en y. Voor een een op een vergelijking hebben ze apples to apples. Een van de redenen waarom het in mijn optiek een goede review site is :p.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
enchion schreef op vrijdag 31 oktober 2014 @ 05:17:
Jammer dat ze hem niet getest hebben met een Kaveri APU, maarja die reviews zullen dan nog moeten komen.
Over een week of twee zal Thomas Ryan (SemiAccurate's reviewer) een benchmark online gooien met een A10-7850K, zowel op iGPU alswel met een R9-270X.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Werelds schreef op vrijdag 31 oktober 2014 @ 15:42:
Kijk eens even een stapje onder de 290X heren, met name op 4K laat AMD daar wel iets aardigs zien ;)
Bedoel je de R9 280X die de GTX770 verslaat?
Phuncz schreef op vrijdag 31 oktober 2014 @ 16:32:
Vreemd dat de R9 285 niet mee opgenomen is in de tests. Je ziet ze eigenlijk zelden tijdens een vergelijking, nu zelfs nog.
Inderdaad jammer. Ik ben benieuwd hoe die nieuwere architectuur het in deze gevallen doet tov de R9 280X.
Ik vraag me toch af of een R9 285X niet zou kunnen helpen de positie van AMD te verbeteren. Maar misschien komt die ook wel te dicht bij de R9 290 en zouden ze zichzelf daar in de vingers snijden.

Het wordt in ieder geval hoog tijd voor de R9 3xx generatie zodat AMD het echt tegen Maxwell of de 20/16nm opvolger daar van kan opnemen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Spannend ! Helaas voor begin 2015 :|

[ Voor 5% gewijzigd door Phuncz op 10-11-2014 15:23 ]


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
In de database van SiSoftware staat sinds kort een nieuwe GPU met de volgende specificitaties:
AMD Radeon Graphics Processor (4096SP 64C 1GHz, 4GB 1.25GHz 4096-bit) (OpenCL)


http://www.sisoftware.eu/...8aacc9ac91a187f4c9f9&l=en

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Amd catalyst 14.11.1 beta
http://www.guru3d.com/fil...4-11-1-beta-download.html

of officiele site
http://support.amd.com/en...1BetaWINReleaseNotes.aspx

[ Voor 35% gewijzigd door Bullus op 11-11-2014 08:18 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
polli_ schreef op dinsdag 11 november 2014 @ 00:11:
[...]


In de database van SiSoftware staat sinds kort een nieuwe GPU met de volgende specificitaties:
AMD Radeon Graphics Processor (4096SP 64C 1GHz, 4GB 1.25GHz 4096-bit) (OpenCL)


http://www.sisoftware.eu/...8aacc9ac91a187f4c9f9&l=en
Zou dat dan niet een R9 285X zijn?
Shader processors zijn identiek aan de 7970 7990 (zat verkeerd te kijken... site is een beetje chaotisch), alleen de Vram en memory bus lijken anders.
Ik vraag mij echter af of die memory bus echt klopt :s 4096 bit vs 328 bit van de 7970?!? Dan denk ik dus aan stacked Vram of iets in die richting :9~

[ Voor 4% gewijzigd door DCG909 op 11-11-2014 10:32 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Niet echt nuttig voor de meeste mensen tenzij je COD AW of AC U speelt.
DCG909 schreef op dinsdag 11 november 2014 @ 08:25:
[...]


Zou dat dan niet een R9 285X zijn?
Shader processors zijn identiek aan de 7970, alleen de Vram en memory bus lijken anders.
Ik vraag mij echter af of die memory bus echt klopt :s 4096 bit vs 328 bit van de 7970?!? Dan denk ik dus aan stacked Vram of iets in die richting :9~
Die 4096SP lijkt me ook een beetje veel.... de R9 290X heeft er 2816. Als die 4096 kloppen (wat best kan als het over een 20 of 16nm chip gaat met een verbeterde / verkleinde SP architectuur zie HD2900 naar HD4800) is het geen Tonga XT.
Tonga XT zou iets van 2048 shaders hebben.

En van die memory bus klopt sowieso niet. 512Bit is al uitzonderlijk. Stacked Vram zou misschien kunnen maar dan vraag ik me af hoe dit geteld wordt. Wordt een complexe memory controller om zo veel aan te moeten sturen.

[ Voor 26% gewijzigd door Astennu op 11-11-2014 09:45 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

14.9.x naar 14.11.1 en de enige openbare improvements zijn voor twee games ? Misschien moet ik toch maar eens updaten, ze zouden maar eens het probleem met HDMI chroma subsampling gefixed hebben zonder het ergens te melden...

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Snot... zat verkeerd te kijken op hun site :/
Had blijkbaar bij 7990 specs gekeken ipv 7970 (daardoor dus de dubbele shader hoeveelheid...)

Als ik dit mag geloven zou het misschien toch kunnen kloppen qua geheugen :s
nieuws: 'AMD-gpu's krijgen eind 2014 stacked dram'

Maar dan vraag ik mij toch af, is dit een 390x of 395x?
Een 395x lijkt mij onwaarschijnlijk, want dan zouden er dus minder SP's in zitten dan een 295x en sisoftware's site lijkt de geheugenbussen per gpu wel te scheiden (vandaar mijn verwarring met de 7990, 7970)
Dus mijn gevoel zegt me dan dat dit een 390X zou moeten voorstellen, het zou ook nog een testmodel kunnen zijn met een grotere geheugenbus dan de productiemodellen.

Maar het kan altijd nog zo zijn dat iemand gewoon wat configs aangepast heeft (ik vind de bandwith/mhz aan de lage kant, uit mijn hoofd vergelijkbaar met een 7990?).

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
DCG909 schreef op dinsdag 11 november 2014 @ 10:43:
Snot... zat verkeerd te kijken op hun site :/
Had blijkbaar bij 7990 specs gekeken ipv 7970 (daardoor dus de dubbele shader hoeveelheid...)

Als ik dit mag geloven zou het misschien toch kunnen kloppen qua geheugen :s
nieuws: 'AMD-gpu's krijgen eind 2014 stacked dram'

Maar dan vraag ik mij toch af, is dit een 390x of 395x?
Een 395x lijkt mij onwaarschijnlijk, want dan zouden er dus minder SP's in zitten dan een 295x en sisoftware's site lijkt de geheugenbussen per gpu wel te scheiden (vandaar mijn verwarring met de 7990, 7970)
Dus mijn gevoel zegt me dan dat dit een 390X zou moeten voorstellen, het zou ook nog een testmodel kunnen zijn met een grotere geheugenbus dan de productiemodellen.

Maar het kan altijd nog zo zijn dat iemand gewoon wat configs aangepast heeft (ik vind de bandwith/mhz aan de lage kant, uit mijn hoofd vergelijkbaar met een 7990?).
Als de architectuur zwaar aangepast is kan het nog steeds dat die nieuwe shaders veel sneller zijn dan de oude. En dus 2048 shaders sneller zijn dan de 2816 shaders van de R9 290X.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
Het zou best kunnen dat de 300 series stacked RAM(HBM) krijgt. AMD heeft al in Oktober 2011 een GPU/CPU/APU met stacked Ram getoond, dus kans is groot/aanwezig dat we deze techniek in de volgende GPU serie van AMD zullen zien.

Afbeeldingslocatie: http://semiaccurate.com/assets/uploads/2011/10/AMD_Interposer_SemiAccurate.jpg

http://semiaccurate.com/2...e-prototype-gpu-pictured/

http://wccftech.com/amd-fiji-r9-390x-specs-leak/

Is ook wel nodig willen ze de concurrentie aangaan met Nvidia en de 970-980 serie. Aangezien dzeze techniek zorgt voor zuiniger, sneller en kleiner geheugen.

Afbeeldingslocatie: http://cdn3.wccftech.com/wp-content/uploads/2014/09/Hynix-HBM-24-e1412091427780.jpg

Deze standaard is door AMD en Hynix is ontworpen.

http://wccftech.com/amd-2...hbm-9x-faster-than-gddr5/

De kaart( AMD Radeon Graphics Processor (4096SP 64C 1GHz, 4GB 1.25GHz 4096-bit) scoort voor de (GPU/CPU/APU) Cryptography (Description Measures the cryptographic performance of GPGPU/GPCPU) een score van 63.6GB per second.

Ter perspectief andere kaarten scoorden:

4 Titan Z= 57.4GB per second.
http://www.sisoftware.eu/...81a7c2a79aaa8cffc2f2&l=en

2 gtx 970: 55.6 GB per second
http://www.sisoftware.eu/...88aecbae93a385f6cbfb&l=en

Single R9 290x:56.2 GB /s
http://www.sisoftware.eu/...82a4c1a499a98ffcc1f1&l=en

[ Voor 34% gewijzigd door polli_ op 11-11-2014 14:31 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik betwijfel of Fiji op 20nm van TSMC wordt gebakken of GF. Ik denk eerlijk gezegd dat het zaakje op 28nm uit komt.

GF heeft momenteel alleen 20LPM (Low Power Mobility), niet echt geschikt voor Fiji.

Over Samsung kan ik niet veel vinden m.b.t. 22nm of 20nm.

IBM heeft of had 22nm SOI (voor hun Power8 CPU)(nu van GF), ook niet echt ideaal voor een GPU.

TSMC heeft momenteel alleen CLN20SOC (20nm voornamelijk voor SoC, vandaar het SoC gedeelte). Voorheen hadden ze ook CLN20G op de planning staan (20nm voor GPU's, vandaar de G), maar die staat niet meer op de planning. Zie plaatjes>

Afbeeldingslocatie: http://www.cdrinfo.com/images/uploaded/TSMC_LogicTech_Roadmap_OCt2011.jpg
Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2014/07/TSMC_Roadmap_Wide-640x536.jpg

CLN20SOC zou nog wel kunnen omdat het niet specifiek gericht lijkt op low power noch op high performance. Terwijl het voorheen volgens de roadmaps wel gericht was op low power, maar toen hadden ze wel nog CLN20G, gericht op high performance. Aangezien deze lijkt te zijn vervallen hebben ze CLN20SOC maar wat meer naar het midden gehaald lijkt het.

"In its last conference call, AMD’s Lisu Su, VP and General Manager of Global Business Units, told David Wong of Wells Fargo that, “we are 28 this year, we have 20-nanometer in design, and then FinFET thereafter.” Looking at that timeline above, it’s obvious that AMD needs to already be thinking about its 14nm designs — especially since 14nm will be the big leap from current 28nm chips — but the architecture probably isn’t at a stage where GF’s roadmap shift will harm AMD’s ability to execute."

Ze hebben dus sowieso iets van 20nm aan de gang, maar denk dat dit eerder een APU of SoC is gezien de beschikbare productie procedés.

28nm voor Fiji zou kunnen. 28nm is zo volwassen als het maar kan zijn. HBM compenseert i.i.g. het stroomverbruik enigszins en het is niet ondenkbaar dat de architectuur ook efficiënter is. All in all zou dat dus ook kunnen.

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
madmaxnl schreef op dinsdag 11 november 2014 @ 15:02:
Ik betwijfel of Fiji op 20nm van TSMC wordt gebakken of GF. Ik denk eerlijk gezegd dat het zaakje op 28nm uit komt.

GF heeft momenteel alleen 20LPM (Low Power Mobility), niet echt geschikt voor Fiji.

Over Samsung kan ik niet veel vinden m.b.t. 22nm of 20nm.

IBM heeft of had 22nm SOI (voor hun Power8 CPU)(nu van GF), ook niet echt ideaal voor een GPU.

TSMC heeft momenteel alleen CLN20SOC (20nm voornamelijk voor SoC, vandaar het SoC gedeelte). Voorheen hadden ze ook CLN20G op de planning staan (20nm voor GPU's, vandaar de G), maar die staat niet meer op de planning. Zie plaatjes>

[afbeelding]
[afbeelding]

CLN20SOC zou nog wel kunnen omdat het niet specifiek gericht lijkt op low power noch op high performance. Terwijl het voorheen volgens de roadmaps wel gericht was op low power, maar toen hadden ze wel nog CLN20G, gericht op high performance. Aangezien deze lijkt te zijn vervallen hebben ze CLN20SOC maar wat meer naar het midden gehaald lijkt het.

"In its last conference call, AMD’s Lisu Su, VP and General Manager of Global Business Units, told David Wong of Wells Fargo that, “we are 28 this year, we have 20-nanometer in design, and then FinFET thereafter.” Looking at that timeline above, it’s obvious that AMD needs to already be thinking about its 14nm designs — especially since 14nm will be the big leap from current 28nm chips — but the architecture probably isn’t at a stage where GF’s roadmap shift will harm AMD’s ability to execute."

Ze hebben dus sowieso iets van 20nm aan de gang, maar denk dat dit eerder een APU of SoC is gezien de beschikbare productie procedés.

28nm voor Fiji zou kunnen. 28nm is zo volwassen als het maar kan zijn. HBM compenseert i.i.g. het stroomverbruik enigszins en het is niet ondenkbaar dat de architectuur ook efficiënter is. All in all zou dat dus ook kunnen.
Het zou kunnen dat Fiji op 22nm of lager wordt geproduceert, AMD was vorig jaar bezig met 20nm:

Advanced Micro Devices said Thursday that it would tape out the first products to be manufactured using 14nm FinFET and 20nm planar process technologies in the coming quarters. The company did not elaborate on actual products, but the names of the process technologies do indicate that the chip designer will work with both GlobalFoundries and Taiwan Semiconductor Manufacturing Co.

“We are typically at the leading edge across the technology nodes. We are fully top-top-bottom in 28nm now across all of our products, and we are transitioning to both 20nm and to FinFETs over the next couple of quarters in terms of designs. So we will continue to do that across our foundry partners. […] We will do 20nm first and then we will go to FinFETs,” said Lisa Su, senior vice president and general manager of global business units at AMD, during quarterly conference call with financial analysts.

The high-ranking executive from AMD did not reveal any additional details about the products planned or exact process technologies. Given the timing, Ms. Su referred to TSMC’s 20nm process technology that is going online in February ’14 and that is likely to be used to manufacture AMD’s next-generation graphics processing units. In addition, AMD will use 14nm-XM FinFET process technology from GlobalFoundries to make certain low-power products. 14nm-XM should enter mass production stage sometimes in calendar 2014.

While AMD did mention 20nm and 14nm FinFET process technologies, it does not mean that products made using both will actually be available in 2014. Most likely the company will only tape-out new products that will reach the market in late 2014 or early 2015. Virtually all AMD roadmaps indicate that the vast majority of AMD 2014 products will be made using 28nm and 32nm SOI process technologies. Still, the company will likely introduce new graphics chips made using 20nm fabrication process

http://www.xbitlabs.com/n...in_Next_Two_Quarters.html

http://wccftech.com/amd-t...4nm-finfet-chips-1h-2014/

Samsung heeft 20nm en ook IBM heeft 22nm in productie dat toevallig is overgenomen door Globalfoundries. Globalfoundries heeft wel een 20nm dat geschikt is voor 3D-stacked memory.

http://www.globalfoundrie...lities-on-20nm-technology
Pagina: 1 ... 4 ... 11 Laatste

Dit topic is gesloten.