Acties:
  • +1 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Eindelijk volledige GTX1070/1080 review van Anandtech

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Afuture heeft er een van 280, direct leverbaar:

https://www.afuture.nl/pr...-gtx-1060-turbo-6gb-gddr5

Hopelijk duiken de andere kaarten ook binnenkort naar de 250.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Verwijderd

Toettoetdaan schreef op dinsdag 19 juli 2016 @ 15:38:
Het kiezen is er niet makkelijker op geworden, dit vat het goed samen:
[afbeelding]
Mischien moet ik een niet-moeilijk-doen marge gebruiken, gewoon kiezen wat het meeste aanspreekt ;)
Een raar grafiekje: hoe wil je in godsnaam quantitatief DX12 + Vulkan afwegen tegen DX11 en hoe is hierin de veel hogere prijs van G-Sync t.o.v. FreeSync meegenomen? ;)
Daarnaast krijg je bij de RX 480 8 GB 2 GB extra RAM en de optie om crossfire te doen. Appels en peren. :)
Laten we het er maar op houden dat de RX 480 en de 1060 de meeste performance per euro geven binnen de respectievelijke merken. ;)
Zeara schreef op dinsdag 19 juli 2016 @ 15:47:
[...]


Tja, maar in DX12 heeft de 480 een klein voordeel.
Ik zou zeggen dat het nog onduidelijk is hoe groot het voordeel is. Bij RotTR is DX12 niet goed genoeg uitgewerkt, AoS geeft wellicht een betere indruk en daarin lijkt NVidia zich momenteel goed staande te houden (tot mijn verrassing eerlijk gezegd, misschien heeft NVidia hier extra moeite in gestoken en wat trucjes gebruikt?), in Hitman en Quantum Break presteert AMD duidelijk aanzienlijk beter maar komt dat door DX12 of heeft dat andere redenen?
Bottomline, we hebben meer samples nodig. Wel is het duidelijk dat AMD een voordeel heeft met DX12 en is het duidelijk dat AMD een gigantisch groot voordeel heeft met Vulkan, bij Doom verpulvert de RX 480 de 980 (en dus de 1060) en komt die heel erg dicht in de buurt van de 1070 die in principe 2 klasses hoger zit voor DX11-spellen, de andere AMD- en NVidia-kaarten geven hetzelfde beeld. Geweldig, maar hoeveel games gaan gebruik maken van Vulkan? Bij DX krijg je voor veel geld zoveel support van Microsoft als dat je wil, bij Vulkan moet je op forumpjes gaan zoeken en met medeprogrammeurs overleggen. Hartstikke leuk maar voor developers wat lastig en tijdrovend. ;)
Zelf hoop ik vurig dat Vulkan omarmd wordt, voor NVidia-kaarten geeft het geen nadeel, voor AMD-kaarten geeft het een gigantisch groot voordeel. + het voordeel van open code
Ik ben benieuwd hoe de custom 480s het gaan doen. En hoe duur die gaan worden.
Ik ook. De prijzen liggen momenteel nog heel erg hoog in Nederland in vergelijking met de USA, voor 1 model waarvan ik de prijs op Newegg vergeleek met de goedkoopste op Tweakers scheelt het $74 (na omrekening van de europrijs naar de dollarprijs, 290 euro vs $245). Price gouging. Ik hoop voor iedereen die de 1060 overweegt dat dit voor de 1060 minder het geval gaat zijn. ;)
Ik wacht in ieder geval rustig totdat die prijzen normaal zijn, of ik bestel ook gewoon bij Newegg, al is het maar omdat ik me niet laat afzetten door de tussenhandel.

[ Voor 81% gewijzigd door Verwijderd op 21-07-2016 01:13 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
Verwijderd schreef op donderdag 21 juli 2016 @ 00:58:
[...]

Een raar grafiekje: hoe wil je in godsnaam quantitatief DX12 + Vulkan afwegen tegen DX11 en hoe is hierin de veel hogere prijs van G-Sync t.o.v. FreeSync meegenomen? ;)
Daarnaast krijg je bij de RX 480 8 GB 2 GB extra RAM en de optie om crossfire te doen. Appels en peren. :)
Laten we het er maar op houden dat de RX 480 en de 1060 de meeste performance per euro geven binnen de respectievelijke merken. ;)
Ik ben het best met je eens, maar als ik het afzet tegen mijn huidige situatie:

DX12 + Vulkan VS DX11: Je koopt een kaart ook om nu te gamen, niet alleen voor over een jaar ;)
G-Sync t.o.v. FreeSync: Ik heb nu twee 22" schermen die het prima doen, die vervang ik voorlopig niet.
RX 480 8 GB/2 GB extra: 4GB(en zelfs 3GB) is meer dan genoeg voor 1080p gaming.
Crossfire: Mijn mATX moederbord heeft daar eigenlijk geen ruimte voor

Dan blijft er alleen mijn voorkeur en de prijs over, mischien nog een beetje het verbruik en het geluid dat een koeler maakt. AMD heeft iets meer mijn voorkeur (voornamelijk omdat de 290X al zo lang mee gaat), de 1060 is wat zuiniger dus het komt echt neer op de prijs.

En dat is het moeilijke, kan nVidia de MRSP waarmaken dan is dat de beste optie, maar als het rond de prijs van de FE blijft zitten, dan is de RX480 de beste optie. Een van de twee zou eigenlijk iets in prijs moeten zakken om een duidelijk voordeel te hebben.
En dan komt de 3GB 1060 nog en de 4GB RX480 en de RX470 en, en, en... Zo moeilijk! :+

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09-10 07:41

XanderDrake

Build the future!

XanderDrake schreef op dinsdag 12 juli 2016 @ 06:59:
Heeft iemand al ergens een round up gevonden over GTX 1070's met 3rd Party coolers en OCs? Ik mis een beetje het overzicht!
Nog geen antwoord gezien hierop. Iemand een linkje voor mij :) ?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Werelds schreef op dinsdag 19 juli 2016 @ 15:48:
Knap werk van Nvidia. GP106 lijkt daadwerkelijk iets betere IPC te hebben. Niet veel, maar net genoeg.

Alleen jammer van de prijs ;)
Lijkt mij een zegen voor AMD. Die hebben voorlopig nog geen tegenhanger in het hogere specturm. Als Nvidia deze kaart op 219 dollar had gezet dan valt de hele strategie van RTG in het water. (De strategie is de 480 zonder marge verkopen om zo marktaandeel terug te pakken, aldus de vice president). Een alternatieve strategie was de 480 hoger positioneren om de marges op te krikken.
The Source schreef op dinsdag 19 juli 2016 @ 16:41:
Ik voorspel een prijsdrop bij AMD (zodra er genoeg voorraad is, want nu kunnen zowel NV als AMD niets goed leveren).
Gezien het bovenstaande kan dat eigenlijk niet. Als je gaat voor een high volume low margin product dan kun je niet ineens 30 dollar omlaag zonder problemen. Als dat wel kan dan heeft de strategie afdaling wel heel erg gefaald (stuck in the middle).

Op termijn heb je natuurlijk altijd gelijk; uiteindelijk zie je een prijs daling (historisch gezien is die er vrijwel altijd, is ook logisch). Maar een reactie verlaging lijkt mij niet zo waarschijnlijk. Bovendien is het waarschijnlijk dat Nvidia omlaag kan (positionering is immers gebaseerd op wat AMD deed en niet op wat die 1060 kost, plak daar de historische marge op en je weet wat er ongeveer kan). Dan verliezen beide bedrijven (en wint de consument).

[ Voor 56% gewijzigd door sdk1985 op 21-07-2016 13:30 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 09-10 08:40

Racing_Reporter

Contentmaker

sdk1985 schreef op donderdag 21 juli 2016 @ 13:22:
[...]

Lijkt mij een zegen voor AMD. Die hebben voorlopig nog geen tegenhanger in het hogere specturm. Als Nvidia deze kaart op 219 dollar had gezet dan valt de hele strategie van RTG in het water. (De strategie is de 480 zonder marge verkopen om zo marktaandeel terug te pakken, aldus de vice president). Een alternatieve strategie was de 480 hoger positioneren om de marges op te krikken.


[...]


Gezien het bovenstaande kan dat eigenlijk niet. Als je gaat voor een high volume low margin product dan kun je niet ineens 30 dollar omlaag zonder problemen. Als dat wel kan dan heeft de strategie afdaling wel heel erg gefaald (stuck in the middle).

Op termijn heb je natuurlijk altijd gelijk; uiteindelijk zie je een prijs daling (historisch gezien is die er vrijwel altijd, is ook logisch). Maar een reactie verlaging lijkt mij niet zo waarschijnlijk. Bovendien is het waarschijnlijk dat Nvidia omlaag kan (positionering is immers gebaseerd op wat AMD deed en niet op wat die 1060 kost, plak daar de historische marge op en je weet wat er ongeveer kan). Dan verliezen beide bedrijven (en wint de consument).
Lijkt me lastig voor beide partijen, nVidia heeft nu een kaart erbij die medium populair is maar feit blijft dat beide fabrikanten nog altijd hun massive investeringen in 14nm / 16nm terug moeten verdienen. Ik denk echt dat ze allebei prijsverlagingen pas zo laat mogelijk willen doorvoeren om nog zoveel mogelijk te verdienen in de tussentijd. Een echte klap zal pas komen met een nieuwe revisie waardoor een van de GPU's goedkoper te maken wordt, óf ze moeten het mes in hun eigen marges willen zetten ten bate van marktaandeel.

[ Voor 10% gewijzigd door Racing_Reporter op 21-07-2016 13:39 ]

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Racing_Reporter schreef op donderdag 21 juli 2016 @ 13:37:
[...]

Lijkt me lastig voor beide partijen, nVidia heeft nu een kaart erbij die medium populair is maar feit blijft dat beide fabrikanten nog altijd hun massive investeringen in 14nm / 16nm terug moeten verdienen. Ik denk echt dat ze allebei prijsverlagingen pas zo laat mogelijk willen doorvoeren om nog zoveel mogelijk te verdienen in de tussentijd. Een echte klap zal pas komen met een nieuwe revisie waardoor een van de GPU's goedkoper te maken wordt, óf ze moeten het mes in hun eigen marges willen zetten ten bate van marktaandeel.
Hmm ik denk niet dat die specifieke investeringen echt een rol spelen. Deze producten vereisen altijd veel investeringen, dat is nu niet anders. Sterker nog gedurende de ontwikkeltijd van Polaris heeft AMD met een +- 30% lager R&D budget gewerkt. Vorig kwartaal is het budget voor het eerst sinds December 2011 verhoogd.

Kosten en marge spelen inderdaad wel een rol. Normaal zou ik zeggen AMD doet niet meer dan 5% operationele marge, Nvidia tussen de 15 en 35% (even uit geheugen, heb het niet helemaal na gezocht). Echter het is nu koffiedik kijken. Immers deze chips zijn heel klein dus je kunt er meer per waffer pakken, maar hoeveel zijn er gelukt? Wat dat betreft is het een beetje een "clean slate" voor beide bedrijven. Dus daar durf ik geen uitspraak over te doen tot we kwartaalcijfers zien (Q4).

[ Voor 5% gewijzigd door sdk1985 op 21-07-2016 14:48 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
sdk1985 schreef op donderdag 21 juli 2016 @ 14:45:
Kosten en marge spelen inderdaad wel een rol. Normaal zou ik zeggen AMD doet niet meer dan 5% operationele marge, Nvidia tussen de 15 en 35% (even uit geheugen, heb het niet helemaal na gezocht). Echter het is nu koffiedik kijken. Immers deze chips zijn heel klein dus je kunt er meer per waffer pakken, maar hoeveel zijn er gelukt? Wat dat betreft is het een beetje een "clean slate" voor beide bedrijven. Dus daar durf ik geen uitspraak over te doen tot we kwartaalcijfers zien (Q4).
Ik denk dat de yields wel goed zijn. Amd en nvidia hebben een vrij grote hoeveelheid kaarten met volledige chips gelanceerd. Als de yields slecht waren was de 1080 waarschijnlijk schaars geweest. En nvidia maakt ook nog belachelijk grote gp100 chips.

Maar goed, er moeten ook stomme telefoons op 16nm gemaakt worden, en de capaciteit zal sowieso al minder zijn dan op 28nm.

Blijft natuurlijk speculeren. We weten ook niet wat glofo/tsmc voor prijzen rekent.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Hmm de 1080 en 1070 zijn nog erg beperkt leverbaar. Volgens mij had iemand hier gepost dat MSI van de 1060 er circa 200 bij launch zou hebben. Ik vindt het aanbod aan de Nvidia kant maar matig voorlopig. Van de week had CDROMLAND er nog 10 (van de 1070), nu zijn het er alweer 0. Van de RX 480 hebben ze er nog 4 (dus ook dat is geen vet pot).

[ Voor 10% gewijzigd door sdk1985 op 21-07-2016 15:08 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:19
https://blogs.nvidia.com/blog/2016/07/21/titan-x/

[EDIT]
  • 11 TFLOPS FP32
  • 44 TOPS INT8 (new deep learning inferencing instruction)
  • 12B transistors
  • 3,584 CUDA cores at 1.53GHz (versus 3,072 cores at 1.08GHz in previous TITAN X)
  • Up to 60% faster performance than previous TITAN X
  • High performance engineering for maximum overclocking
  • 12 GB of GDDR5X memory (480 GB/s)

[ Voor 97% gewijzigd door LongBowNL op 22-07-2016 12:52 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Phuncz schreef op vrijdag 22 juli 2016 @ 08:08:

EDIT: Nvidia zijn nieuwe "enthusiast" kaart is aangekondigd: nieuws: Nvidia kondigt Titan X met Pascal-gpu aan
Alweer 20% duurder en vooral opvallend: geen HBM2 maar GDDR5X. Misschien heb ik iets gemist maar ik dacht dat de verwachtingen op HBM2 stonden voor die kaart. Ook een ~10% lagere clock dan de GTX 1080, dus ik ben benieuwd of het wel zoveel gaat schelen voor game performance. Er staat nu ook wel geen "GTX" meer in de naam, dus mogelijk meer een compute-kaart, wat niet zal beletten dat deze regelmatig ter discussie zal komen bij gaming performance.
Waarom had je HBM2 verwacht? nVidia geeft de voorkeur aan GDDR5X en daarmee kun je ook meer dan genoeg bandbreedte krijgen met een 384 bit geheugenbus welke nVidia al tijden gebruikt voor hun high-end kaarten.

Voor de rest stelt de kaart ook niet zoveel voor -The_Mask- in 'nieuws: Nvidia kondigt Titan X met Pascal-gpu aan'

Daarom wordt die ook zonder bombarie geïntroduceerd.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
Ik vind die titans altijd zonde van de chip. Had je veel meer uit kunnen halen met een betere koeler.

Maar goed, daar moeten we dan weer een paar maanden langer op wachten.

Mechwarrior Online: Flapdrol


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
Daar istie weer, de belachelijke Titan waar de fanboys zich aan kunnen vergapen en hun e-peen wat kunnen vergroten.

Op papier heb je het over 23-24% meer performance uit 67% meer transistors, 40% hoger TDP en een 100% hogere prijs. Daar krijg je dan wel 50% meer geheugen en bandbreedte bij, maar dat is in vrij weinig applicaties de bottleneck, zeker in games niet (zelfs in VR niet).

Acties:
  • +1 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Belachelijk vanuit welke hoek je het bekijkt; voor een workstation biedt het behoorlijk wat power in 2 pci-e slots, tegen een veel lagere prijs dan een quadro *6000. Voor gpu render of high end video applicaties is het een leuke oplossing. (al zijn setjes 1070 waarschijnlijk meer compute per $)

Begrijp ik nou alleen dat die titan x alleen op de website van nvidia te krijgen is?

[ Voor 7% gewijzigd door maratropa op 22-07-2016 11:30 ]

specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
Tuurlijk, vergeleken met een professionele workstation GPU is het aardig qua prijs, maar je krijgt ook niet de voordelen van die GPU's.

Het grote probleem is echter de vergelijking met de 1080; prijstechnisch is deze Titan X zelfs nog slechter dan de vorige. Die bood tenminste nog 33% meer rauwe performance. Een 980 Ti zat op hetzelfde niveau als deze nieuwe Titan X en kwam in vrijwel alles dusdanig dicht op de Titan X dat die volledig irrelevant werd.

Ik zie nu ook niet hoe Nvidia hier nog een 1080 Ti tussen gaat wurmen. Het verschil is gewoon nu al te klein; een 1080 Ti gaat ofwel te dicht op een 1080 zitten (<= 15%) of te dicht op deze nieuwe Titan X waardoor hij te duur moet gaan worden.

Acties:
  • 0 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
Voor de liefhebbers:

980 ti voor 400 nieuw: https://www.alternate.nl/...3&utm_source=tweakers.net

Best een leuke aanbieding :)

Evga heeft de reference 980 TI ook in de sale voor 429: http://eu.evga.com/Products/Product.aspx?pn=06G-P4-4992-KR

EVGA 1070 is ook weer beschikbaar voor 489: http://eu.evga.com/Products/Product.aspx?pn=08G-P4-6171-KR

Acties:
  • 0 Henk 'm!

  • Fryslanboy
  • Registratie: Maart 2010
  • Laatst online: 14-09 13:31
Ik ben ook benieuwd hoe de Ti gaat worden, als die er überhaupt komt. Nvidia kennende proppen ze die er wel ergens tussen. Of ze laten de 1080 fors in prijs zakken, met daarop aansluitende de 1070 en 1060.

Net zoals wat je zegt. Of hij hikt dan teveel tegen de 1080 aan, of de Titan X. Ervanuitgaan, dat de 1080 hier gemiddeld €800 doet, en de Titan X $1200 zal gaan kosten, hebben ze een uitdaging om de Ti én goed te laten presteren, én om die schappelijk te prijzen...

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
De 980 ti hikte toch ook tegen de titan x aan qua snelheid, of ging er overheen? De *** ti degraeert de titan eigenlijk altijd tot een niche de laatste jaren.

Ik neem ook aan dat nvidia die chips liever voor 4k per stuk in pro kaarten verkoopt..

Ik neem aan dat die ti dan ook met 12GB komt, met de 1080 op 8GB gaan ze die niet op 6GB zetten lijkt me?

specs


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:19
Ik denk dat het ligt aan AMD of er een 1080 Ti gaat komen. Als Vega genoeg concurrentie biedt, zal het nodig zijn. Anders niet.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
LongBowNL schreef op vrijdag 22 juli 2016 @ 12:53:
Ik denk dat het ligt aan AMD of er een 1080 Ti gaat komen. Als Vega genoeg concurrentie biedt, zal het nodig zijn. Anders niet.
De 1080Ti komt er sowieso. De 780 kwam een paar maanden na de titan, de 980Ti kwam een paar maanden na de titan x. Beide zonder amd tegenhanger. Maar eerst even enthousiastelingen met te veel geld uitmelken. ;)

Als vega goed presteert krijgen we misschien wel weer full chip aftermarket kaarten van nvidia, zoals de 780Ti.

https://blogs.nvidia.com/blog/2016/07/21/titan-x/
blijkbaar 44 TOps "int8", voor deep learing, is er toch nog wat titan achtigs aan deze kaart wat ze bij de non titan uit kunnen zetten.

[ Voor 20% gewijzigd door haarbal op 22-07-2016 14:17 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:19
De 980 Ti kwam juist op een onfortuinlijk moment voor AMD. Een paar weken voor de release van de Fury X. Als de 980 Ti er niet was geweest, was de Fury X een no-brainer tegenover de Titan X.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

LongBowNL schreef op vrijdag 22 juli 2016 @ 06:03:
https://blogs.nvidia.com/blog/2016/07/21/titan-x/

[EDIT]
  • 11 TFLOPS FP32
  • 44 TOPS INT8 (new deep learning inferencing instruction)
  • 12B transistors
  • 3,584 CUDA cores at 1.53GHz (versus 3,072 cores at 1.08GHz in previous TITAN X)
  • Up to 60% faster performance than previous TITAN X
  • High performance engineering for maximum overclocking
  • 12 GB of GDDR5X memory (480 GB/s)
$1200!?, dus 1500-1600 eur. hier voor een kleine 30% meer power tov de 1080, (3584/2560)-(1773/1531)*100. Ik denk dat ik hem dan aan mij voorbij laat gaan. €3200 (voor SLI) gaat mij echt te ver. Bring on the 96CU Vega please. Jammer genoeg lijkt Vega ver weg. nV "levert" in een moordend tempo.

[ Voor 4% gewijzigd door edward2 op 22-07-2016 17:38 ]

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
nVidia is niet achterlijk wat dat betreft, hoe ze met hun klanten omgaan misschien wel (i.i.g. naar mijn mening wel). De 8800 Ultra destijds kwam ook als counter tegen de HD2900XT, was helemaal niet nodig achteraf. Ze proberen voor zover ik kan meekrijgen AMD altijd een poot uit te draaien rond dezelfde tijd dat AMD met iets nieuws komt of iets aankondigt. Hierin speelt de nVidia marketing ook een grote rol omdat zelfs aankondigingen worden gecounterd met tegen aankondigingen. Nee, het staat er niet letterlijk bij, maar als je het nieuws volgt valt zoiets soms wel eens op.

Bijvoorbeeld, AMD: "hiep hiep hoera, alle console designs in da pocket!!!!1"
nVidia's reactie: "geen droog brood te verdienen met console design wins in da pocket!!!!1"

nVidia probeert altijd iets positiefs van AMD te overtreffen of te bagatelliseren en ridiculiseren. Uiteraard wordt er ook stevig armpje gedrukt met developers en studio's waar nVidia dan een stevige vinger in de pap wil hebben om i.i.g. te zorgen dat AMD zoveel mogelijk tegengewerkt kan worden. TR met TressFX, hola hola denkt nVidia, en jawel hoor de RotTR met Criplingworks. Assassins Creed destijds met DX10.1, hola hola dacht nVidia in de achteruit jullie!!!

nVidia concurreert heel erg hard. Dusdanig hard dat het de consumenten in mijn ogen al lang niet meer ten goeden komt, niet in prijs, niet in innovatie.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
edward2 schreef op vrijdag 22 juli 2016 @ 17:29:
[...]


$1200!?, dus 1500-1600 eur. hier voor een kleine 30% meer power tov de 1080, (3584/2560)-(1773/1531)*100. Ik denk dat ik hem dan aan mij voorbij laat gaan. €3200 (voor SLI) gaat mij echt te ver. Bring on the 96CU Vega please. Jammer genoeg lijkt Vega ver weg. nV "levert" in een moordend tempo.
30% meer? You wish. Custom GTX 1080 kaarten lopen op 2GHz en hebben daarmee 10,24Tflops aan rekenkracht, de nog geen 11Tflops die de nieuwe Titan levert is maar 7% meer. Ik zou er dan ook niet vanuit gaan dat het verschil meer dan 15% wordt doordat de boostclock toch nog wat hoger komt dan de opgegeven specs. Custom versies van de nieuwe Titan komen er ook niet, het is immers een Titan, dus dit is echt niet een kaart voor gamers.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Die GP102 zal toch ook wel wat OC-rek hebben en zoveel verschil zit er niet in de max. overclock FE180 vs custom 1080. (mijn 1080FE's doen makkelijk 1900 mhz steady met alleen een licht verhoogd fanprofiel en powertarget op 105%. (Ik gebruik wel een ruime slotopstelling voor SLI en de GP102 zal een stukkie warmer worden en meer prik nodig hebben). Maar dat het verschil met custom 1080's kleiner dan 30% zal zijn is niet onwaarschijnlijk ja. Of de nieuwere GP102 moet iets verder overklokken tov z'n boostclock, bv 1700/1800mhz wat natuurlijk maar de vraag is bij zo'n grote chip.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Ik vind het niet erg dat ze nu al met een peperdure titan komen..
Kunnen ze direct een 1080 ti met HBM maken zonder daar weer maanden tussen te laten :+

[ Voor 15% gewijzigd door SmokingCrop op 22-07-2016 19:06 ]


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
-The_Mask- schreef op vrijdag 22 juli 2016 @ 18:15:
[...]

30% meer? You wish. Custom GTX 1080 kaarten lopen op 2GHz en hebben daarmee 10,24Tflops aan rekenkracht, de nog geen 11Tflops die de nieuwe Titan levert is maar 7% meer. Ik zou er dan ook niet vanuit gaan dat het verschil meer dan 15% wordt doordat de boostclock toch nog wat hoger komt dan de opgegeven specs. Custom versies van de nieuwe Titan komen er ook niet, het is immers een Titan, dus dit is echt niet een kaart voor gamers.
Welk van custom 1080 kaarten lopen op 2GHz?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Nature schreef op zaterdag 23 juli 2016 @ 02:41:
[...]


Welk van custom 1080 kaarten lopen op 2GHz?
Nou ja net geen 2GHz, maar er tegenaan, de minder dan 1% zal het verschil niet maken bij onderstaande kaarten.

Gainward GeForce GTX 1080 Phoenix GLH stabiliseert op 1987MHz
Palit GeForce GTX 1080 GameRock Premium Edition stabiliseert op 1974MHz
Zotac GeForce GTX 1080 AMP! Extreme stabiliseert op 1987MHz
Inno3D GeForce GTX 1080 iChill X3 stabiliseert op 1962MHz
Asus GeForce GTX 1080 Strix OC stabiliseert op 1956MHz
Na 30 minuten volledige belasting met Rise of the Tomb Raider aldus Computerbase.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
haarbal schreef op vrijdag 22 juli 2016 @ 13:34:
[...]

De 1080Ti komt er sowieso. De 780 kwam een paar maanden na de titan, de 980Ti kwam een paar maanden na de titan x. Beide zonder amd tegenhanger. Maar eerst even enthousiastelingen met te veel geld uitmelken. ;)

Als vega goed presteert krijgen we misschien wel weer full chip aftermarket kaarten van nvidia, zoals de 780Ti.

https://blogs.nvidia.com/blog/2016/07/21/titan-x/
blijkbaar 44 TOps "int8", voor deep learing, is er toch nog wat titan achtigs aan deze kaart wat ze bij de non titan uit kunnen zetten.
Voortzetting van mijn antwoord op jouw comment op de FP ;)

Nvidia laat er verdomd weinig over los, maar de huidige stand van zaken *lijkt* te zijn:
- GP100: 3584 32-bit ALU's, 1792 FP64 ALU's
- GP104: 2560 (128 per SM) FP32 ALU's, 80 (4 per SM) FP64 ALU's en 20 (1 per SM) FP16x2 ALU's

Ik zeg nu bewust 32-bit ALU's voor GP100, omdat ze mixed precision zijn. Dat is hoe Nvidia die dubbele FP16 throughput haalt in GP100; ze stoppen dan 2xFP16 in de ALU. Kleine caveat daarbij is dat dat alleen werkt als je 2 dezelfde FP16 operaties hebt; dus FP16+FP16 met daarnaast nog eens FP16+FP16 kan op double rate. FP16+FP16 samen met FP16-FP16 loopt gewoon full rate. Zelfde geldt voor de FP16x2 ALU's in GP104. Het zit er vooral in omdat het een vereiste is voor compatibility. Althans, dit is wat "men" (Pascal thread op Beyond3D en op Nvidia's dev forums) tot dusver heeft af kunnen leiden, want Nvidia laat niet veel los.

Die FP16x2 ALU's in GP104 heeft Ryan Smith wel per email bevestigd gekregen van Nvidia.

Er is op Beyond3D 1 poster die claimed dat alles behalve GP100 ook dedicated int8 ALU's heeft, maar hij weigert bronnen te geven ondanks het feit dat bijvoorbeeld CarstenS (van PCGH) er om vraagt. Dat lijkt ook heel sterk, want dat zou een boel ruimte kosten. Dat zou 14336 int8 units betekenen. Ook al zouden die bijzonder klein zijn, het is onlogisch dat ze daar zo veel ruimte aan zouden besteden.

Voor GP104 lijkt het logischer dat dezelfde mixed precision 32-bit ALU's gebruikt worden; dan is die 44 TF mogelijk in theorie, in de praktijk zal dat niet haalbaar zijn (betekent overigens ook dat GP100 dat dus ook kan!). Dat geldt overigens ook voor de "native" FP16 in GP104. Sterker nog, als je echt FP16 wil doen op GP104 kun je het beter via de texture hardware laten lopen zodat je bijna gratis FP16 naar FP32 converteert en dan gewoon als FP32 operatie verwerken. 1:1 met de FP32 rate haal je dan niet helemaal, maar wel meer dan die 160 GFLOPS die je nu maximaal met die FP16 ALU's haalt 8)7

AMD heeft dan wel weer native FP16 ondersteuning sinds GCN3, dat loopt 1:1 met de FP32 rate.

"Native" hierboven slaat in beide gevallen op de instructies die naar de GPU gaan; of de GPU verder dan FP32 ALU's gebruikt of echte FP16/int8 ALU's staat daar los van. Met andere woorden, als je daadwerkelijk een FP16 instructie naar een GCN3/4 GPU stuurt, loopt dat op dezelfde snelheid als FP32. Maxwell en eerder hebben die instructie niet en in GP104 loopt dat dan dus via die paar FP16x2 ALU's. Vrij nutteloos ;)

Dat foefje heet overigens bit packing, is niet echt nieuw en is door programmeurs regelmatig gebruikt om langs dit soort beperkingen te komen. Een 16-bit operand vermommen als een 32-bit operand. Is wel redelijk "duur" (kost aardig wat extra cycles), tenzij er specifieke instructies zijn om het te doen - dat is wat AMD dus doet. Die kunnen dat blijkbaar in slechts 1 cycle.


Bovenstaande is voor een deel speculatie, we zullen binnenkort vast meer te horen krijgen. Carsten van PCGH en Ryan van Anandtech zijn er vrij druk mee bezig, ze willen het allebei graag exact weten (alsmede wat anderen op Beyond3D) :P

Dedicated int8 ALU's lijkt in elk geval onwaarschijnlijk, het gaat eerder om bit packing.


Edit: overigens laat dit ook weer het verschil tussen AMD en Nvidia zien. Er zijn heel veel mensen die al tijden wachten op meer documentatie over de Pascal ISA, nu met deze int8 instructie helemaal. Maar Nvidia maakt geen haast. AMD heeft hun volledige ISA gewoon al beschikbaar. De klanten die voor GP100 hebben betaald hebben de documentatie vast al, maar als kleinere gebruiker (en nee, dan heb ik het niet over de gemiddelde gamende consument, maar vooral ook over wetenschappers ;)) moet je vaak lang wachten.

[ Voor 10% gewijzigd door Werelds op 24-07-2016 00:58 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
Werelds schreef op zondag 24 juli 2016 @ 00:52:
Dedicated int8 ALU's lijkt in elk geval onwaarschijnlijk, het gaat eerder om bit packing.
Dat sowieso, maar dacht dat ze dat misschien uitzetten op "normale" gpu's. Maar blijkbaar niet.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
haarbal schreef op zondag 24 juli 2016 @ 20:14:
[...]

Dat sowieso, maar dacht dat ze dat misschien uitzetten op "normale" gpu's. Maar blijkbaar niet.
Dat is ook zo; althans voor GP104 en kleiner. De ALU's daar zijn echt fixed FP32. Maar GP102 lijkt dus meer een variant van GP100 te zijn dan een opgeblazen GP104 ;)

Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
Iemand deze al gezien?
Afbeeldingslocatie: http://media.bestofmicro.com/E/P/595393/original/Performance-vs.-Power-Consumption.png
Met de helft van het verbruik nog iets boven de 80% van de prestaties. Could be worse.

[ Voor 3% gewijzigd door haarbal op 24-07-2016 20:50 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA Accelerates Volta to May 2017?

Tja, denk dat ze toch wel heel graag snel "echte" AC in hun kaartjes willen.... :+

Denk grote kans dat, als ze pas in 2018 komen, ze flink voor lul gezet gaan worden door AMD de komende 1.5 jaar. :X

[ Voor 37% gewijzigd door Help!!!! op 25-07-2016 19:15 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • William/Ax3
  • Registratie: Augustus 2000
  • Laatst online: 04-10 22:11

William/Ax3

We are Starstuff

Zou kunnen of ze doen nu zelfde als met de 700 serie. Dat zou inhouden dat er een full gp102 1080ti + titan x black komt zodra AMD komt met 490x als die de 1080 bedreigt. Maar voor die tijd gewoon cashen met de 1080 en titan x.

Huidige titan x verbaasde me enigsinds had die specs verwacht voor de ti beetje vreemd is het wel.

[ Voor 20% gewijzigd door William/Ax3 op 25-07-2016 19:39 ]

|WOW Daggerspine | Troll Hunter Axejess |


Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Help!!!! schreef op maandag 25 juli 2016 @ 19:10:
NVIDIA Accelerates Volta to May 2017?

Tja, denk dat ze toch wel heel graag snel "echte" AC in hun kaartjes willen.... :+

Denk grote kans dat, als ze pas in 2018 komen, ze flink voor lul gezet gaan worden door AMD de komende 1.5 jaar. :X
Het is op zich niet zo vreemd. Volta zou ook de concurrent moeten worden voor deze generatie van AMD.

Afbeeldingslocatie: http://images.anandtech.com/doci/7900/OldRoadmap.jpg

Pascal bestond namelijk eerst niet zoals je kunt zien hierboven. Volta zou de opvolger van Maxwell moeten worden.

Afbeeldingslocatie: https://www.extremetech.com/wp-content/uploads/2015/03/Pascal1.png

Enkele jaren geleden is daar echter Pascal tussen gekomen. Echter is Pascal weinig meer dan Maxwell architectuur op 16nm, wat dus betekend dat de architectuur wel gewoon ouder is. Dat zie je dus nu ook aan de DX12 ondersteuning.

Waarschijnlijk willen ze het "gat" dus niet te groot laten worden wat betreft architectuur.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • Mitt3nz
  • Registratie: Maart 2002
  • Laatst online: 23-08 16:19
Dat is ook een van de redenen dat ik 'slechts' een goedkope 1070 heb aangeschaft i.p.v. een dure versie van een 1080: onzekerheid m.b.t. DX12/Vulkan performance in de toekomst. Stel dat die nou waardeloos blijkt te presteren, dan heb ik niet zo heel veel geld weggegooid. In de tussentijd draait die alles prima.

[ Voor 7% gewijzigd door Mitt3nz op 25-07-2016 22:41 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
-The_Mask- schreef op maandag 25 juli 2016 @ 21:35:
Pascal bestond namelijk eerst niet zoals je kunt zien hierboven. Volta zou de opvolger van Maxwell moeten worden.
Ook raar om maxwell op een DP Gflops/watt grafiek te zetten. En volta zou "stacked dram" hebben als nieuwe feature, wat ze nu bij de GP100 gebruiken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op maandag 25 juli 2016 @ 21:35:
[...]

Het is op zich niet zo vreemd. Volta zou ook de concurrent moeten worden voor deze generatie van AMD.

[afbeelding]

Pascal bestond namelijk eerst niet zoals je kunt zien hierboven. Volta zou de opvolger van Maxwell moeten worden.

[afbeelding]

Enkele jaren geleden is daar echter Pascal tussen gekomen. Echter is Pascal weinig meer dan Maxwell architectuur op 16nm, wat dus betekend dat de architectuur wel gewoon ouder is. Dat zie je dus nu ook aan de DX12 ondersteuning.

Waarschijnlijk willen ze het "gat" dus niet te groot laten worden wat betreft architectuur.
Scherp ! :)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ik lees dat de Quadro P6000 toch de GP102 blijkt te zijn, dus zoals bij maxwell erg verwant aan de titan-x en met lage FP64 perf. Klinkt ook logisch want dan heb je dezelfde kaart waar je alleen wat weerstanden op doorbrand en een andere koeler op zet om er 1 van de 2 gpu's van te maken? Ik vond het ook al niet echt logisch dat ze een dure FP64 gpu op een kaart zetten die primair bedoelt is als cad, viz en content creation kaart waar fp64 over het algmeen niet gebruikt wordt.

Ik zie bij anand dat ze de dgx-1 (naast de vca renderserver) ook pimpen voor renderwerk..

http://www.anandtech.com/...family-quadro-p6000-p5000

[ Voor 40% gewijzigd door maratropa op 26-07-2016 09:27 ]

specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zou zeggen op naar de volgende classaction rechtszaak in Amerika, die van Maxwell en Async Compute. Kunnen de GTX 970 eigenaren nog meer geld terug krijgen van nVidia, omdat nVidia beweert dat Maxwell Async Compute ondersteund, maar de rest van de wereld daar toch echt anders over denkt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Daar moest ik ook gelijk aan denken. Time will tell.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +2 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Help!!!! schreef op maandag 25 juli 2016 @ 19:10:
NVIDIA Accelerates Volta to May 2017?

Tja, denk dat ze toch wel heel graag snel "echte" AC in hun kaartjes willen.... :+

Denk grote kans dat, als ze pas in 2018 komen, ze flink voor lul gezet gaan worden door AMD de komende 1.5 jaar. :X
Ik zou eerst maar eens afwachten hoe het nu verder gaat met RTG. Ik heb ergens dit jaar al eens een doemscenario onderbouwd wat ik de R&D hamer heb genoemd (voordat we echt iets wisten over Polaris en Pascal). In dit scenario is de time to market van AMD zo traag geworden dat ze helemaal niet meer mee kunnen komen met het high-end segment, net als bij de cpu's.

Ondertussen weten we dat het minstens Q1 2016 wordt voor Vega komt. Als dat verder vertraagd wordt dan komt deze voorspelling sneller uit dan ik zelf had verwacht. Verder was er recentelijk een interessant interview met de vice president van AMD YouTube: The Future of Radeon: An Interview with Raja Koduri. Hieruit kwam duidelijk naar voren dat na 2013 de focus van AMD helemaal niet meer lag bij pc gaming.

Volgens de vice president heeft hij nu iedereen overtuigd en is het daarom flink aanpoten om de achterstand bij te benen. Het liefst had hij de volledige line-up vandaag. Hij geeft ook zelf diverse fouten van AMD met Radeon aan (o.a. te beperkte line-up waardoor ze niks aan het console marktaandeel hebben). Dat is wat mij betreft positief, dan kun je er namelijk iets aan veranderen.

Ondertussen is het R&D budget voor het eerst in jaren verhoogd, goed nieuws. Alleen de verhoging was slechts 13 miljoen (229>242). Concurrent Nvidia zit ondertussen nog flink hoger met 346 miljoen. Dat gat blijft wel erg groot. Het is dus wat mij betreft nog lang niet zeker dat Vega op tijd komt en doet wat het moet doen. De performance van de 1080 is natuurlijk niet moeilijk te matchen, maar je moet ook winst maken zodat het R&D budget omhoog kan. Het zit er dik in dat ze de huidige RX 480 zonder substantiële marges weggeven. Of dat zo is kunnen we hopelijk in de resultaten van Q4 achterhalen...

[ Voor 16% gewijzigd door sdk1985 op 29-07-2016 15:59 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 20:36
sdk1985 schreef op vrijdag 29 juli 2016 @ 15:53:
[...]
In dit scenario is de time to market van AMD zo traag geworden dat ze helemaal niet meer mee kunnen komen met het high-end segment, net als bij de cpu's.
Oh ja, want dat ligt ook echt aan AMD, en niet aan het gebrek aan een 20/14nm fab... AMD kon onmogelijk concureren met Intel zonder een gelijkwaardig productieprocede. Heeft niks te maken met R&D.

Q1 2017 is nergens bevestigd voor Vega, laat staan jouw hoop op uitstel (en natuurlijk dat je er vanuit gaat dat Volta eerder uitkomt).

Maargoed, je AMD doomscenario is inderdaad wel duidelijk.

[ Voor 40% gewijzigd door Richh op 30-07-2016 19:04 ]

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Richh schreef op zaterdag 30 juli 2016 @ 18:58:
[...]

Oh ja, want dat ligt ook echt aan AMD, en niet aan het gebrek aan een 20/14nm fab... AMD kon onmogelijk concureren met Intel zonder een gelijkwaardig productieprocede. Heeft niks te maken met R&D.

Q1 2017 is nergens bevestigd voor Vega, laat staan jouw hoop op uitstel (en natuurlijk dat je er vanuit gaat dat Volta eerder uitkomt).

Maargoed, je AMD doomscenario is inderdaad wel duidelijk.
AMD heeft uit geldnood eerst de fabs overgedragen naar GlobalFoundries, waarna ze hun belang daarin ook nog eens volledig hebben afgebouwd tot het punt dat ze er inderdaad niks meer over te zeggen hadden. Die geldnood volgende vooral uit de geflopte overname van Ati (meer dan 2 miljard te veel betaald). Natuurlijk konden ze daar zelf wat aan doen!

Bovendien kwam bulldozer veel te laat, was de performance hiervan veel te slecht en hebben ze tot de dag van vandaag (bijna 5 jaar later) nog geen oplossing voor het bulldozer probleem geïntroduceerd. Misschien dat Zen kan opboxen tegen de i5/i7's uit 2011, maar ook dat is nog afwachten.

AMD heeft de focus verlegd en de activiteiten gespreid terwijl het R&D budget sinds 2007 alleen maar is verlaagd. Dan gaat het mis, dat kan niet anders. Dat de focus fout was en er op management niveau fouten zijn gemaakt is ondertussen door AMD zelf min of meer toegegeven.

Het doemscenario voor de cpu had ik hier op tweakers in het desbetreffende jaar voorspeld (+- 2008), dus voor Bulldozer überhaupt flopte. Maar ?vorig jaar? zag ik het ook echt misgaan bij Radeon (lees toen onderdelen voor de 3e keer werden gerebrand in plaats van met een volledig nieuwe line-up te komen). Dat duidt op ernstig geld tekort aan geld en middelen. Nu weten we waarom, blijkbaar is in de AMD top besloten dat PC gaming geen speerpunt meer hoefde te zijn. J

e hoeft AMD verder niet zielig te vinden, ze zijn in mei 1969 begonnen, een paar maanden na Intel (juli 1968). Er zit dus al bijna 50 jaar aan keuzes maken in beide bedrijven. Het is voor iedereen beter als AMD voortaan betere keuzes maakt. De nieuwe topman van RTG zit wat mij betreft op het juiste spoor.

[ Voor 39% gewijzigd door sdk1985 op 30-07-2016 21:53 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 20:36
sdk1985 schreef op zaterdag 30 juli 2016 @ 21:39:
[...]

AMD heeft uit geldnood eerst de fabs overgedragen naar GlobalFoundries, waarna ze hun belang daarin ook nog eens volledig hebben afgebouwd tot het punt dat ze er inderdaad niks meer over te zeggen hadden. Die geldnood volgende vooral uit de geflopte overname van Ati (meer dan 2 miljard te veel betaald). Natuurlijk konden ze daar zelf wat aan doen!

Bovendien kwam bulldozer veel te laat, was de performance hiervan veel te slecht en hebben ze tot de dag van vandaag (bijna 5 jaar later) nog geen oplossing voor het bulldozer probleem geïntroduceerd. Misschien dat Zen kan opboxen tegen de i5/i7's uit 2011, maar ook dat is nog afwachten.

AMD heeft de focus verlegd en de activiteiten gespreid terwijl het R&D budget sinds 2007 alleen maar is verlaagd. Dan gaat het mis, dat kan niet anders. Dat de focus fout was en er op management niveau fouten zijn gemaakt is ondertussen door AMD zelf min of meer toegegeven.

Het doemscenario voor de cpu had ik hier op tweakers in het desbetreffende jaar voorspeld (+- 2008), dus voor Bulldozer überhaupt flopte. Maar ?vorig jaar? zag ik het ook echt misgaan bij Radeon (lees toen onderdelen voor de 3e keer werden gerebrand in plaats van met een volledig nieuwe line-up te komen). Dat duidt op ernstig geld tekort aan geld en middelen. Nu weten we waarom, blijkbaar is in de AMD top besloten dat PC gaming geen speerpunt meer hoefde te zijn. J

e hoeft AMD verder niet zielig te vinden, ze zijn in mei 1969 begonnen, een paar maanden na Intel (juli 1968). Er zit dus al bijna 50 jaar aan keuzes maken in beide bedrijven. Het is voor iedereen beter als AMD voortaan betere keuzes maakt. De nieuwe topman van RTG zit wat mij betreft op het juiste spoor.
Klopt hoor. Ze hebben met ATI op het verkeerde paard gewed met bovendien meer geld dan dat ze eigenlijk hadden om uit te geven.

Maar mij valt vooral de drang op die jij hebt voor het uitkomen van jouw voorspelde doemscenario :P dat lijkt mij een beetje onnodig en bovendien kan het nog best allemaal omslaan. We kunnen het hebben over de fouten die AMD 5+ jaar geleden heeft gemaakt, of we kunnen kijken en op z'n minst respect hebben voor de manier waarop ze het nu nog redelijk ver weten te schoppen. Ze lijken inderdaad op de goede weg.

De derde rebrand was overigens toch echt de schuld van 28nm naar mijn mening, btw :P het was financieel niet rendabel geweest om nog een generatie te ontwerpen. Nvidia had wat meer geluk, meer door timing.

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Ik hoop zelf dat RTG nu de middelen krijgt die ze nodig hebben en zo niet dat ze het afstoten. Mijn voorspelling is vooral een waarschuwing... Ik zie liever AMD meer R&D besteden aan cpu en gpu dan minder.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Geen idee waarom ik hier een post gedaan heb, had toch zeker weten het Overwatch topic...

[ Voor 96% gewijzigd door CH4OS op 30-07-2016 23:32 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
sdk1985 schreef op zaterdag 30 juli 2016 @ 21:39:
AMD heeft uit geldnood eerst de fabs overgedragen naar GlobalFoundries, waarna ze hun belang daarin ook nog eens volledig hebben afgebouwd tot het punt dat ze er inderdaad niks meer over te zeggen hadden.
Hè?

Fabs overgedragen naar GlobalFoundries? Ik denk dat je wel bedoelt wat er daadwerkelijke gebeurde, maar je woordkeuze is hier waardeloos. AMD heeft niets overgedragen, AMD is een joint venture met ATIC aangegaan omdat ze van hun productie tak af wilden. AMD heeft structureel hun aandeel in deze JV verkocht, de laatste 12% in 2012. GF bestond niet voordat AMD besloot hun productie tak te verkopen. En dat is niet uit geldnood geweest, het heeft ze juist geld gekost, ze hebben nog jarenlang afschrijvingen op dat verhaal moeten doen.

AMD wilde ook al veel langer fabless worden, alleen kon dat niet door hun cross-licensing agreement met Intel, waarin stond dat ze hun x86 licentie alleen konden behouden als ze ook in-house produceerden.
Maar ?vorig jaar? zag ik het ook echt misgaan bij Radeon (lees toen onderdelen voor de 3e keer werden gerebrand in plaats van met een volledig nieuwe line-up te komen). Dat duidt op ernstig geld tekort aan geld en middelen.
Want rebrands zijn een goede indicatie?

- 2012: GK104, GK106, GK107. Onder de 650 waren allemaal rebrands van Fermi (zowel 1e als 2e generatie; 2010 en 2011 dus).
- 2013: zelfde zooi als 2012, met 2 nieuwe chips in de vorm van GK110 en GK208. Dat zijn de 780 + Titan + GT 710/720/730. 5 kaarten.
- 2014: testertje met GM107 als GTX 750 (Ti) en GM204. 3 nieuwe kaarten dus.
- 2015: GM200 (Titan X, GTX 980 Ti) en GM206 (950, 960). Welgeteld 4 nieuwe kaarten.

Waar zijn die volledig nieuwe line-ups? Even AMD er tegenover zetten?

- 2012: 7750 t/m 7970 allemaal nieuwe chips. Daaronder rebrands van 2011.
- 2013: Bonaire en Hawaii als nieuwe chips, 4 kaarten in totaal
- 2014: Tonga Pro, 1 kaart
- 2015: Fiji en Tonga XT, 4 kaarten

Wereldschokkende verschillen hoor. Geen van beide heeft nog een "volledige" lineup geproduceerd sinds 2012. Ze hebben beide hier en daar oudere chips door nieuwere chips vervangen op sommige punten, maar die kwam telkens pas een jaar later. Als je het over relevante chips hebt, hadden beide er slechts één in 2013, 2014 en 2015.

Nee, dat je het uit de rebrands af zou leiden is gewoon kolder, sorry. Als je nou had gezegd dat je het gezien had aan het feit dat Nvidia in 2014 een voor hen ongebruikelijke stap maakte met Maxwell en hun efficiëntie ineens helemaal herstelde na 6 jaar matig tot ronduit waardeloos geweest te zijn op dat gebied, dan had ik het geloofd. Want dat is waar het verschil zit, niet in de rebrands. Want dat doen beide fabrikanten als een malle.

AMD is de fout in gegaan met Hawaii en Fiji door een relatief goedkoop R&D traject te doorlopen en de chips vooral groter te maken, zonder daarbij op de efficiëntie te letten. Nvidia daarentegen heeft hun R&D budget gestoken in het fixen van de waardeloze efficiëntie van hun shaders. Fermi was gewoon een misbaksel en de enige reden dat Kepler mee viel is omdat GK104 buiten games ook niets presteerde. GK110 iets meer, maar ook niet wereldschokkend.

[ Voor 5% gewijzigd door Werelds op 30-07-2016 23:54 ]


Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09-10 07:41

XanderDrake

Build the future!

Werelds schreef op zaterdag 30 juli 2016 @ 23:51:
[...]

Hè?

Fabs overgedragen naar GlobalFoundries? Ik denk dat je wel bedoelt wat er daadwerkelijke gebeurde, maar je woordkeuze is hier waardeloos. AMD heeft niets overgedragen, AMD is een joint venture met ATIC aangegaan omdat ze van hun productie tak af wilden. AMD heeft structureel hun aandeel in deze JV verkocht, de laatste 12% in 2012. GF bestond niet voordat AMD besloot hun productie tak te verkopen. En dat is niet uit geldnood geweest, het heeft ze juist geld gekost, ze hebben nog jarenlang afschrijvingen op dat verhaal moeten doen.

AMD wilde ook al veel langer fabless worden, alleen kon dat niet door hun cross-licensing agreement met Intel, waarin stond dat ze hun x86 licentie alleen konden behouden als ze ook in-house produceerden.


[...]

Want rebrands zijn een goede indicatie?

- 2012: GK104, GK106, GK107. Onder de 650 waren allemaal rebrands van Fermi (zowel 1e als 2e generatie; 2010 en 2011 dus).
- 2013: zelfde zooi als 2012, met 2 nieuwe chips in de vorm van GK110 en GK208. Dat zijn de 780 + Titan + GT 710/720/730. 5 kaarten.
- 2014: testertje met GM107 als GTX 750 (Ti) en GM204. 3 nieuwe kaarten dus.
- 2015: GM200 (Titan X, GTX 980 Ti) en GM206 (950, 960). Welgeteld 4 nieuwe kaarten.

Waar zijn die volledig nieuwe line-ups? Even AMD er tegenover zetten?

- 2012: 7750 t/m 7970 allemaal nieuwe chips. Daaronder rebrands van 2011.
- 2013: Bonaire en Hawaii als nieuwe chips, 4 kaarten in totaal
- 2014: Tonga Pro, 1 kaart
- 2015: Fiji en Tonga XT, 4 kaarten

Wereldschokkende verschillen hoor. Geen van beide heeft nog een "volledige" lineup geproduceerd sinds 2012. Ze hebben beide hier en daar oudere chips door nieuwere chips vervangen op sommige punten, maar die kwam telkens pas een jaar later. Als je het over relevante chips hebt, hadden beide er slechts één in 2013, 2014 en 2015.

Nee, dat je het uit de rebrands af zou leiden is gewoon kolder, sorry. Als je nou had gezegd dat je het gezien had aan het feit dat Nvidia in 2014 een voor hen ongebruikelijke stap maakte met Maxwell en hun efficiëntie ineens helemaal herstelde na 6 jaar matig tot ronduit waardeloos geweest te zijn op dat gebied, dan had ik het geloofd. Want dat is waar het verschil zit, niet in de rebrands. Want dat doen beide fabrikanten als een malle.

AMD is de fout in gegaan met Hawaii en Fiji door een relatief goedkoop R&D traject te doorlopen en de chips vooral groter te maken, zonder daarbij op de efficiëntie te letten. Nvidia daarentegen heeft hun R&D budget gestoken in het fixen van de waardeloze efficiëntie van hun shaders. Fermi was gewoon een misbaksel en de enige reden dat Kepler mee viel is omdat GK104 buiten games ook niets presteerde. GK110 iets meer, maar ook niet wereldschokkend.
Toch wel hilarisch, die woordkeuze van jou. Nvidia: misbaksels, waardeloze efficiëntie, niets presteren.

Maar dat AMD effectief met hun RX 480 een 'GTX 970' qua prijs, prestaties en efficiëntie geven uitgebracht, alleen dan twee jaar te laat? En dat die met een beetje pech je moederbord opblaast? Daar hoor je hem niet over.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 09-10 08:40

Racing_Reporter

Contentmaker

XanderDrake schreef op zondag 31 juli 2016 @ 10:36:
[...]

Toch wel hilarisch, die woordkeuze van jou. Nvidia: misbaksels, waardeloze efficiëntie, niets presteren.

Maar dat AMD effectief met hun RX 480 een 'GTX 970' qua prijs, prestaties en efficiëntie geven uitgebracht, alleen dan twee jaar te laat? En dat die met een beetje pech je moederbord opblaast? Daar hoor je hem niet over.
Wat :') Dat probleem was a. overrated, b. heel snel gefixt in de drivers. (c. rookie error)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Ik dacht dat dit het Nvidia nieuwstopic was? Ik zie alleen maar AMD.. :+

Ontopic: Heeft er al iemand meer informatie voorbij zien komen of Nvidia de te leveren regio's in het verkoopkanaal op nvidia.com gaat uitbreiden nu ze de Pascal TITAN X alleen rechtstreeks gaan verkopen? Wil er misschien één bestellen (afhankelijk hoe hoog de euro prijs uitvalt), dan is het wel handig als NL er ook tussen staat :)

[ Voor 3% gewijzigd door t!n0 op 31-07-2016 12:40 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
XanderDrake schreef op zondag 31 juli 2016 @ 10:36:
[...]

Toch wel hilarisch, die woordkeuze van jou. Nvidia: misbaksels, waardeloze efficiëntie, niets presteren.

Maar dat AMD effectief met hun RX 480 een 'GTX 970' qua prijs, prestaties en efficiëntie geven uitgebracht, alleen dan twee jaar te laat? En dat die met een beetje pech je moederbord opblaast? Daar hoor je hem niet over.
Niet mijn probleem dat je mijn eerdere reacties op de 480 niet hebt gelezen, de efficiëntie daarvan heb ik wel degelijk op af gegeven (niet dat dat hier aan de orde was). Ook hun power distributie probleem heb je mij nooit goed zien praten. Dat ik er in deze post niets over zeg heeft er alleen mee te maken dat dit het Nvidia topic is. Een 480 is echter nog steeds goedkoper dan een 970 is; de 4GB versie is zelfs flink goedkoper dan de goedkoopste 970 en dan krijg je ook daadwerkelijk 4 GB. Dat staat dan nog los van het feit dat dat gebaseerd is op DX11 prestaties.

Maar zullen we de vergelijking maar eens echt trekken dan?
- September 2009: HD 5870 voor $399
- Maart 2010: GTX 480 voor $499

Verhoudingen:
- Prijs: 5870 zit op 80%
- Verbruik: 5870 zit op ~55-65%
- Prestaties: 5870 zit op 90%, zelfs 95% als je toen al op 2560x1600 zat.

Of percentages omkeren:
- Prijs: 480 is 25% duurder
- Verbruik: 480 verbruikt 80% meer; in Furmark was het "maar" 55%, maar Nvidia beperkte dat toen al.
- Prestaties: 480 is 11% sneller op z'n best

Indrukwekkend hoor. 6 maanden te laat, 5870 had 60-70% betere perf/W. Zelfs ondanks de relatief hoge prijs (lag toch weer 30% hoger dan de 4870) was ook perf/$ nog steeds 10-15% beter. Dan had het ding ook nog Eyefinity, iets waar Nvidia pas een jaar later een software hack voor had en 2,5 jaar na AMD pas een echte oplossing (weet niet of je Surround in die tijd geprobeerd hebt, maar het was niks vergeleken met Eyefinity).


Kijken naar de huidige situatie:
- September 2014: GTX 970 voor $329
- Juni 2016: RX 480 voor $199 en $239 (MSRP van 970 staat dan en nu op $265)

Verhoudingen (480 8GB):
- Prijs: 480 zit op 90%
- Verbruik: 480 rond de ~85% ("TDP" van 970 is dan wel 145W, verbruik in de echte wereld ligt eerder op 185-190W)
- Prestaties: 480 zit op 2-10% sneller; op hogere resoluties is deze sneller

Of percentages omkeren:
- Prijs: 970 is 11% duurder
- Verbruik: 970 verbruikt 17,5% meer
- Prestaties: 970 is 2-10% trager

Perf/W ligt een paar procenten hoger, perf/$ is op hogere resoluties ruim 20% hoger (1080p ergens tussen de 10% en 15%). Nee, had dan de 1060 gezegd, want daar ligt de perf/W veel hoger. Zet de 1060 eens tegenover de 970? Perf/$ is nagenoeg gelijk, absolute performance zo'n 17,5%. Vergeet niet dat dit allebei veel kleinere chips zijn dan GM204. Ze zijn niet bedoeld als high-end. Qua perf/$ doet de RX480 het nog steeds beter dan de 1060. De 1060 en 480 vind ik dan ook goede concurrenten voor elkaar; de 1060 is iets sneller, duurder en zuiniger. Wil je wat geld besparen, dan kan dat ten koste van die eigenschappen. Meer bang voor je buck, met wat tradeoffs. Het zit wat dat betreft niet ver van RV770 vs. GT200 vandaan :)

Dus nee, de RX 480 is niet zo'n misbaksel als de GTX 480 was. De GTX 480 verloor op elk vlak van de 5870 - behalve absolute performance en dat was dan nog steeds verrekte matig. De RX 480 verliest alleen op het vlak van perf/W van de concurrent. En mij hoor je daar niet over? Verder kijken dan je neus lang is, zie deze, deze, deze. Overigens is de perf/W van GP106 eigenlijk ook maar matig ten opzichte van GP104 ;)

De GTX 480 was en is een van Nvidia's slechtste producten aller tijden. Sterker nog, er is denk ik maar 1 GeForce generatie die slechter was en dat is de stofzuiger generatie. De enige reden dat de GTX 480 niet net zo slecht als die generatie was, is dat ze niet achter lagen. R300 lag toen echt 2 jaar voor op NV3x, dat was met Evergreen/Fermi niet het geval (display spanning tel ik niet mee; is geen deel van de D3D spec).

Dus ja, Fermi was een misbaksel. Net zoals R400/RV500 matig waren (hoewel die 2 jaren sowieso wel saai waren) en RV600 simpelweg niet op kon boksen tegen G80 op welk vlak dan ook. Het is niet zo dat RV700 ineens wereldschokkend was, behalve dan qua prijs en dus perf/$ (die gewoon twee keer hoger lag dan een 280). Want daar heeft Nvidia ook nooit een antwoord op geproduceerd.

Ik zal mijn mening over Fermi nooit bij stellen en eenieder die al deze generaties mee heeft gemaakt zou er eigenlijk genoeg van af moeten weten om dat ook in te zien. Net zoals R300 en G80 met stipt de belangrijkste chips van de afgelopen 15 jaar zijn geweest.

[ Voor 3% gewijzigd door Werelds op 31-07-2016 13:45 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
De gtx 480 had voor z'n grootte en verbruik idd teleurstellende prestaties, maar de 560Ti was ook fermi, en die was vrij redelijk.

Je bent wel een beetje creatief aan het rekenen met de rx480 en de 970. Bij techpowerup zijn de strix en msi gaming 970's (de populairste 2 in de pricewatch) gewoon even efficient als de reference en even efficient als de rx480.

Er is ook geen 4GB rx480, de kleine batch die is omgeflasht is al lang verkocht. Maar de rx480 blijft wel de betere koop, iets sneller, iets duurder, maar wel 8GB vram in plaats van 3,5 a 4 en een stuk meer ruimte voor verbetering via drivers / fancy dx12 truukerij.

Ik snap ook niet dat oude kaarten niet echt in de aanbieding worden gedaan. De r9 390 willen ze ook nog 300 euro voor hebben, de rx480 doet nagenoeg hetzelfde voor dezelfde prijs met een veel lager verbruik.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Werelds schreef op zaterdag 30 juli 2016 @ 23:51:
[...]

Hè?

Fabs overgedragen naar GlobalFoundries? Ik denk dat je wel bedoelt wat er daadwerkelijke gebeurde, maar je woordkeuze is hier waardeloos. AMD heeft niets overgedragen, AMD is een joint venture met ATIC aangegaan omdat ze van hun productie tak af wilden. AMD heeft structureel hun aandeel in deze JV verkocht, de laatste 12% in 2012. GF bestond niet voordat AMD besloot hun productie tak te verkopen. En dat is niet uit geldnood geweest, het heeft ze juist geld gekost, ze hebben nog jarenlang afschrijvingen op dat verhaal moeten doen.

AMD wilde ook al veel langer fabless worden, alleen kon dat niet door hun cross-licensing agreement met Intel, waarin stond dat ze hun x86 licentie alleen konden behouden als ze ook in-house produceerden.


[...]
Als jij een bron hebt voor dat laatste dan hoor ik het graag.

Het was voor AMD een 'survival strategy', zie bijvoorbeeld Forbes. De oprichter van AMD heeft namelijk de slogan " Real men have fabs" verzonnen ;). Wat mij betreft was GlobalFoundries (nou ja The Foundry Company) was vooral een handige manier om verliezen te verschuiven (naar de Arabieren). De Arabieren gingen hier in mee omdat, in theorie, een fab die wel 100% capaciteit draait wel geld oplevert. Bovendien wilden de Arabieren heel graag niet langer 100% afhankelijk van olie zijn (zie ook andere absurde investeringen).
Want rebrands zijn een goede indicatie?

- 2012: GK104, GK106, GK107. Onder de 650 waren allemaal rebrands van Fermi (zowel 1e als 2e generatie; 2010 en 2011 dus).
- 2013: zelfde zooi als 2012, met 2 nieuwe chips in de vorm van GK110 en GK208. Dat zijn de 780 + Titan + GT 710/720/730. 5 kaarten.
- 2014: testertje met GM107 als GTX 750 (Ti) en GM204. 3 nieuwe kaarten dus.
- 2015: GM200 (Titan X, GTX 980 Ti) en GM206 (950, 960). Welgeteld 4 nieuwe kaarten.

Waar zijn die volledig nieuwe line-ups? Even AMD er tegenover zetten?

- 2012: 7750 t/m 7970 allemaal nieuwe chips. Daaronder rebrands van 2011.
- 2013: Bonaire en Hawaii als nieuwe chips, 4 kaarten in totaal
- 2014: Tonga Pro, 1 kaart
- 2015: Fiji en Tonga XT, 4 kaarten

Wereldschokkende verschillen hoor. Geen van beide heeft nog een "volledige" lineup geproduceerd sinds 2012. Ze hebben beide hier en daar oudere chips door nieuwere chips vervangen op sommige punten, maar die kwam telkens pas een jaar later. Als je het over relevante chips hebt, hadden beide er slechts één in 2013, 2014 en 2015.

Nee, dat je het uit de rebrands af zou leiden is gewoon kolder, sorry. Als je nou had gezegd dat je het gezien had aan het feit dat Nvidia in 2014 een voor hen ongebruikelijke stap maakte met Maxwell en hun efficiëntie ineens helemaal herstelde na 6 jaar matig tot ronduit waardeloos geweest te zijn op dat gebied, dan had ik het geloofd. Want dat is waar het verschil zit, niet in de rebrands. Want dat doen beide fabrikanten als een malle.
Hebben we het al eens over gehad, inclusief excel grafiek met time to market. Gaan we niet opnieuw doen toch?

Verder heeft, ook als een vermeld, de vice president nu zelf in het pcper interview aangegeven dat hij in heeft gezien dat AMD de kans had (met mantle vanuit consoles) maar niet de line-up had om er iets van te maken. Dit probleem kan wat hem betreft niet snel genoeg worden opgelost.

Het is nu geen speculatie meer of dit probleem speelt, het is bevestigd vanuit de top AMD.
AMD is de fout in gegaan met Hawaii en Fiji door een relatief goedkoop R&D traject te doorlopen en de chips vooral groter te maken, zonder daarbij op de efficiëntie te letten. Nvidia daarentegen heeft hun R&D budget gestoken in het fixen van de waardeloze efficiëntie van hun shaders. Fermi was gewoon een misbaksel en de enige reden dat Kepler mee viel is omdat GK104 buiten games ook niets presteerde. GK110 iets meer, maar ook niet wereldschokkend.
AMD is de fout ingegaan door PC Gaming als dood te zien terwijl het juist booming is geworden en het tegenwoordig meer omzet draait dan de consoles. Het hele verhaal waar ik al sinds APU voor waarschuw (de gevolgen voor een laag R&D budget, R&D=personeel overigens) werden 29 juni bevestigd:
"We went through a period where the priority of the company have shifted around. It's great that we won game consoles.... We had focus on APU's. We had focus on a lot of different great things. Somewhere along the line we did lose focus on pc gaming and pc discrete graphics. And you know that was one of my passions. When I came back to AMD in 2013 I was working hard on trying, how to get that back. How to get everybody at AMD convinced that this is actually the way of the future.... - .. I did see things like VR getting exiting. And high 4K displays, high resolution. I didn't see pc gaming as something was going down. I actually saw it as something that was actually going to have another big wave coming right in 2012-2013 time frame. And that's actually one of the reasons why I kind of came back to AMD. It took a while to get everyone rallied around that and you know so towards the end of last year right with our CEO's Lisa's help we formed the radion technology group to focus on that. But like I said to turn something around when you are behind you know two years behind, three years behind. To focus on this is not easy....
Vervolgens komt een verhaal over dat in 2013-2014 ze geen personeel konden vinden omdat alle bedrijven met graphics bezig waren en AMD het geld (en de vooruitzichten) niet had om daarmee te concurreren. Hij werd zelf ook voor gek verklaard dat hij bij AMD ging werken (aldus hemzelf).

Verder kan iedereen met boerenlogica wel redeneren dat een hoger R&D budget verspreid over minder activiteiten leidt tot meer budget per activiteit. Meer budget per activiteit leidt tot meer personeel en beter gekwalificeerd personeel. De kans van je succes neemt daarmee toe. Daarnaast is het niet prettig te werken in een bedrijf dat elk jaar je budget verlaagd. Dat jaagt werknemers weg en/of maakt ze depressief.

Maar goed zoals gezegd waarschuw ik hier al jaren voor, maar tot mijn verbazing zit er dus nu een vise-president die het exact hetzelfde ziet en vervolgens het ook nog eens voor elkaar krijgt om de Radeon Technology Group te vormen. Hetgeen mij weer positiever stemt. Maar gezien de achterstand en de huidige status van het R&D budget zou ik geen wonderen verwachten van de time-to-market van Vega. Als dat wel goedkomt dan is er echt een bijzondere prestatie geleverd. Als dat niet lukt is het geen schade, om vergissingen in richting van een heel bedrijf te corrigeren kan zo 2-3 jaar duren.

TDLR: Don't get your hopes up.

Vergelijkingen met Nvidia zijn verder helemaal niet nodig. Deze problematiek zit puur in AMD zelf. AMD zelf wil een betere line-up en een betere focus en een snellere time-to-market.

[ Voor 6% gewijzigd door sdk1985 op 31-07-2016 15:09 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Jeroen tweak
  • Registratie: Februari 2014
  • Laatst online: 30-01-2023
Als een videokaart 2 jaar later uitkomt is het überhaupt geen concurrent. Dus waarom zou je ze naast elkaar leggen?

Op dit moment komt AMD niet in de buurt van Nvidia. Dat is de realiteit. Kijk naar de vraag van de 1070 en 1080. Dat zijn allemaal gemiste kansen voor AMD.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 09-10 08:40

Racing_Reporter

Contentmaker

Jeroen tweak schreef op zondag 31 juli 2016 @ 15:22:
Als een videokaart 2 jaar later uitkomt is het überhaupt geen concurrent. Dus waarom zou je ze naast elkaar leggen?

Op dit moment komt AMD niet in de buurt van Nvidia. Dat is de realiteit. Kijk naar de vraag van de 1070 en 1080. Dat zijn allemaal gemiste kansen voor AMD.
Wel als de kaart in kwestie nog verkocht wordt in hetzelfde prijssegment. Totale tijd daarvan valt tegen dat ze tegelijk over de toonbank gaan, but still.

[ Voor 8% gewijzigd door Racing_Reporter op 31-07-2016 15:26 ]

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
haarbal schreef op zondag 31 juli 2016 @ 14:42:
De gtx 480 had voor z'n grootte en verbruik idd teleurstellende prestaties, maar de 560Ti was ook fermi, en die was vrij redelijk.

Je bent wel een beetje creatief aan het rekenen met de rx480 en de 970. Bij techpowerup zijn de strix en msi gaming 970's (de populairste 2 in de pricewatch) gewoon even efficient als de reference en even efficient als de rx480.

Er is ook geen 4GB rx480, de kleine batch die is omgeflasht is al lang verkocht. Maar de rx480 blijft wel de betere koop, iets sneller, iets duurder, maar wel 8GB vram in plaats van 3,5 a 4 en een stuk meer ruimte voor verbetering via drivers / fancy dx12 truukerij.

Ik snap ook niet dat oude kaarten niet echt in de aanbieding worden gedaan. De r9 390 willen ze ook nog 300 euro voor hebben, de rx480 doet nagenoeg hetzelfde voor dezelfde prijs met een veel lager verbruik.
Tuurlijk ben ik alleen van reference versies uit gegaan. GF104/GF114 was inderdaad ook vrij redelijk, maar het maakt GF100/GF110 niets beter. Er wordt nu door sommigen gedaan alsof de RX 480 een gigantische ramp is, terwijl het simpelweg nog steeds bij lange na niet zo slecht is als GF100/GF110 was tegenover Cypress (overigens heb ik het nog niet eens gehad over de die size).

Je ziet het ook op vele forums; dezelfde figuren die 6 jaar geleden zo schreeuwden dat het allemaal wel mee viel met de 480, schreeuwen nu dat de huidige 480 zo slecht is, dat Nvidia zo efficiënt is en ga zo maar door. Maar als puntje bij paaltje komt, is de situatie niet zo slecht als zij afschilderen; en in tegenstelling tot Nvidia, heeft AMD wel een manier om hun product toch nog goed in de markt te zetten: de prijs. Tegelijkertijd doen dat soort figuren alsof Nvidia al zo lang zo goed bezig is qua efficiëntie, terwijl dat pas 2 jaar is - daarvoor hadden ze 2 jaar nodig om grotendeels op AMD's niveau te komen (qua gaming wel; qua compute niet) ;)

En dit is allemaal heel normaal. Sinds de eerste GeForce schuift het allemaal constant heen en weer tussen deze 2, met uitzondering van het markt aandeel.
sdk1985 schreef op zondag 31 juli 2016 @ 14:53:
Als jij een bron hebt voor dat laatste dan hoor ik het graag.
Sectie 3: https://www.sec.gov/Archi...19312509236705/dex102.htm

De overeenkomst uit 2001 is privé en voor zover ik weet nergens te bekijken, maar deze overeenkomst is een correctie op die overeenkomst, alles wat hier in staat is "nieuw". Met deze correctie mag AMD producten elders laten produceren zonder daarbij de licentie te verliezen mits zij Intel ten tijde op de hoogte brengen van welke partij dit dan is.

De vorming van GF was ook iets dat Intel aan hun verdediging toe voegde. Daarom bleef AMD in eerste instantie aandeelhouder; de regeltjes uit 2001 stelden dat alleen AMD en haar dochterbedrijven de x86 licentie mochten gebruiken en Intel stelde dat deze JV daar niet onder viel. Deze overeenkomst stamt uit eind 2009; GF werd begin 2009 opgericht, dit "conflict" liep echter al langer. Het was voor Intel een laatste poging, want het zag er toen al langer naar uit dat ze de strijd gingen verliezen (en na de boete van de Europese Commissie duurde het ook niet lang voordat de schikking plaats vond ;)).
De oprichter van AMD heeft namelijk de slogan " Real men have fabs" verzonnen ;)
1 van de oprichters, niet dé oprichter - toch wel een wezenlijk verschil aangezien het om een groep van 8 man ging die bij Fairchild vertrokken waren; de 7 anderen hadden hem gevraagd de directeur te worden ;)

Noyce en Moore (de twee oprichters van Intel) kwamen overigens ook bij Fairchild vandaan ;)

Weet overigens niet hoe dit relevant is :P
Wat mij betreft was GlobalFoundries (nou ja The Foundry Company) was vooral een handige manier om verliezen te verschuiven (naar de Arabieren). De Arabieren gingen hier in mee omdat, in theorie, een fab die wel 100% capaciteit draait wel geld oplevert. Bovendien wilden de Arabieren heel graag niet langer 100% afhankelijk van olie zijn (zie ook andere absurde investeringen).
Tuurlijk, maar het was geen directe oplossing voor hun geldnood. Een JV als GF kost op korte termijn alleen maar geld, dat heb je zelf ook gezien in de jaarcijfers. De kosten werden wel gedrukt, maar dat werd ook weer teniet gedaan door de afschrijvingen.
Hebben we het al eens over gehad, inclusief excel grafiek met time to market. Gaan we niet opnieuw doen toch?
Als ik me niet vergis had je dat toen gedaan voor Kepler en heb ik toen geantwoord met eenzelfde grafiekje voor Southern Islands waaruit bleek dat daar amper verschil in zat? Toen nam je volgens mij ook de rebrands al mee.

Je doet alsof AMD zo traag is, maar ik laat hier toch duidelijk zien dat geen van beide veel geproduceerd heeft in de afgelopen 4 jaar? Waar heeft AMD dan geen "volledige" lineup geproduceerd terwijl Nvidia dat wel deed? Maxwell? Verspreid over een jaar ja, met maar liefst 3 chips. En ook dat heb ik volgens mij al eens eerder verklaard: Nvidia had met Maxwell iets te winnen over AMD (efficiëntie), terwijl AMD's rebrands voor het grootste deel gewoon mee konden doen. Dus AMD heeft in die periode een stel rebrands uit gebracht.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Dat klinkt wat leip, maar voorzover ik begrijp heet het al geen "legacy" meer en betekend dit ook niet dat er bijv geen optimalisaties voor games e/d doorgevoerd worden, dus eigenlijk is het meer administratief dan dat je in de praktijk er als maxwell eigenaar problemen van ondervind?

http://www.nvidia.com/page/legacy.html

specs


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 20:07

Tomas Hochstenbach

Redacteur componenten
maratropa schreef op zondag 31 juli 2016 @ 17:20:
[...]


Dat klinkt wat leip, maar voorzover ik begrijp heet het al geen "legacy" meer en betekend dit ook niet dat er bijv geen optimalisaties voor games e/d doorgevoerd worden, dus eigenlijk is het meer administratief dan dat je in de praktijk er als maxwell eigenaar problemen van ondervind?

http://www.nvidia.com/page/legacy.html
Het zal zeker geen nieuwe problemen introduceren, maar kaartspecifieke optimalisaties kun je vanaf nu denk ik wel vergeten. In nieuwe games is de performance winst van driverupdates dus waarschijnlijk wel kleiner dan met nieuwe kaarten, als die er al is.

Edit: En met deze update van de productstatus lijkt me het laatste vleugje hoop op het 'fixen' van async/prefetching ook vervlogen, voor zover iemand dat nog had.

[ Voor 10% gewijzigd door Tomas Hochstenbach op 31-07-2016 17:25 ]


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Werelds schreef op zondag 31 juli 2016 @ 16:35:

Je doet alsof AMD zo traag is, maar ik laat hier toch duidelijk zien dat geen van beide veel geproduceerd heeft in de afgelopen 4 jaar? Waar heeft AMD dan geen "volledige" lineup geproduceerd terwijl Nvidia dat wel deed? Maxwell? Verspreid over een jaar ja, met maar liefst 3 chips. En ook dat heb ik volgens mij al eens eerder verklaard: Nvidia had met Maxwell iets te winnen over AMD (efficiëntie), terwijl AMD's rebrands voor het grootste deel gewoon mee konden doen. Dus AMD heeft in die periode een stel rebrands uit gebracht.
Doet alsof? Heel aparte redenatie. Als er iemand iets te winnen had dan was het AMD die in 2014 van +- 40% marktaandeel naar +- 20% marktaandeel daalde.

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2015/04/Nvidia-AMD.png

Dit hebben we eerder gezien: AMD reageert niet (goed en/of te traag):
Afbeeldingslocatie: https://g.foolcdn.com/editorial/images/67732/amd-intel-chart_1_large.png

Ik hoop dat het deze keer niet hetzelfde te gaan als bij mijn Pascal voorspelling. Ik doe een onderbouwde voorspelling gebaseerd op historische ontwikkeling op de FrontPage (en refereer ernaar op het forum). Deze wordt aan alle kanten afgebrand. Echter als ik vraag om een tegenvoorspelling dan blijft het oorverdovend stil :'( .

Ik weet nu echt niet of je nu discussieert om het discussiëren, last hebt van blind fanatisme of de situatie daadwerkelijk heel anders inschat. Daarom vraag ik mij de volgende zaken af;

-Zie jij een gevaar in een dalend R&D budget
-Denk jij dat het huidige R&D budget voldoende is voor RTG om mee te komen met Nvidia?
-Zie jij een gevaar in een dalend marktaandeel
-Ben jij het met mij (en de VP van RTG) eens dat het dalende marktaandeel is veroorzaakt door een slechte line-up
-Vindt jij dat het bedrijf AMD het de zaken voor Ati verbeterd of verslechterd heeft
-Zie jij over 3-5 jaar AMD met Radeon nog opboxen tegen high-end Nvidia? (cetris parisbus, als ze volgend jaar 1 miljard meer R&D pakken dan verandert dat antwoord natuurlijk, ga even uit van hoe het NU gaat).

Dat gezegd hebbende ben ik persoonlijk dus voorzichtig positief over de strategie zoals vermeld door RTG. Die is marktaandeel terug veroveren met Polaris. Hierdoor de developer support uitbreiden wat op termijn goed voor de omarming van Radeon is. Hierdoor kunnen ze misschien eindelijk eens wat positiefs halen uit het console marktaandeel.

Ik zie ook hier echter een groot gevaar en dat is Nvidia. We weten dat AMD ongeveer op de laagst mogelijke prijs van Polaris zit (anders had AMD hem nog lager uitgebracht, dit is meer all-in). Dus als Nvidia nu een 1050 met gelijke/betere performance per dollar uitbrengt dan wint AMD geen marktaandeel. Vervolgens zit AMD wel met een hele lage marge wat weer te koste gaat van de toekomst. Een alternatieve stragie (heb ik hier ook weleens gepost) is meegaan in de gekte van Nvidia en die RX 480 op 300-350 dollar zetten. Dan behoudt je hetzelfde marktaandeel maar ga je wel geld verdienen en kun je op de lange termijn een come-back maken. Nu kan dat natuurlijk niet meer omdat hij al is gelaunched en NVidia er al een reactieprijs op heeft gezet. Maar het was wel mogelijk. Zat er dik in dat Nvidia de GTX 1060 dan op 400 dollar had gezet. Zo niet dan kan je altijd nog omlaag.

[ Voor 36% gewijzigd door sdk1985 op 31-07-2016 18:04 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 20:36
maratropa schreef op zondag 31 juli 2016 @ 17:20:
[...]


Dat klinkt wat leip, maar voorzover ik begrijp heet het al geen "legacy" meer en betekend dit ook niet dat er bijv geen optimalisaties voor games e/d doorgevoerd worden, dus eigenlijk is het meer administratief dan dat je in de praktijk er als maxwell eigenaar problemen van ondervind?

http://www.nvidia.com/page/legacy.html
Je krijgt er geen problemen mee, maar het blijft dus bij Game Ready. Je krijgt geen 10% performance winst meer na de release, zoals AMD onlangs deed met Doom/Vulkan/RX480.

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Richh schreef op zondag 31 juli 2016 @ 18:05:
[...]

Je krijgt er geen problemen mee, maar het blijft dus bij Game Ready. Je krijgt geen 10% performance winst meer na de release, zoals AMD onlangs deed met Doom/Vulkan/RX480.
de vraag bij NV is natuurlijk of dat er uberhaupt in gezeten had ;)

specs


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09-10 07:41

XanderDrake

Build the future!

Mooi relaas en veel dingen kloppen. Maar waar ik het over had: woord gebruik.

Als je een gebalanceerd beeld wil geven, dan moet je niet oude koeien uit de sloot trekken die omstreeks 2010 zijn verdronken (Fermi), en het dan niét hebben over al de andere miskleunen van AMD. Het gedoe over de RX 480 kwam er niet eens aan te pas, terwijl dat wél wat relevanter is.

Maar nee, je beeldspraak is wel duidelijk. Anti nvidia.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
sdk1985 schreef op zondag 31 juli 2016 @ 17:38:
Doet alsof? Heel aparte redenatie. Als er iemand iets te winnen had dan was het AMD die in 2014 van +- 40% marktaandeel naar +- 20% marktaandeel daalde.
Ik had het specifiek over jouw herhaalde statement dat AMD geen "volledige lineup" produceerde. Heeft Nvidia ook niet gedaan. Het heeft niets met volledige of gedeeltelijke lineups te maken, het heeft te maken met specifieke producten.

Dat ze door Maxwell een hoop markt aandeel kwijt zijn geraakt heb je me nergens zien ontkennen en de reden dat ze daar niets tegenover hebben gezet heb ik ook al lang een mogelijke verklaring voor gegeven (zeker weten doen we het toch nooit). Qua prestaties konden AMD's bestaande chips nog mee en ze hebben er waarschijnlijk geen brood in gezien om nog een deel van hun R&D budget in 28nm te steken.

De 950/960 van Nvidia heeft geen donder uit gemaakt; en daaronder hebben ze nog steeds niets. Ik weet ook niet of ze daar met Pascal nog aan gaan beginnen, want dat segment is niet zo bijster boeiend. Dat segment wordt alsmaar kleiner door AMD's APU's en Intel's iGPU. In dat segment gaat de losse GPU langzaamaan verdwijnen. Het is GM204 geweest waardoor AMD zo veel marktaandeel is kwijt geraakt.
Ik hoop dat het deze keer niet hetzelfde te gaan als bij mijn Pascal voorspelling. Ik doe een onderbouwde voorspelling gebaseerd op historische ontwikkeling op de FrontPage (en refereer ernaar op het forum). Deze wordt aan alle kanten afgebrand. Echter als ik vraag om een tegenvoorspelling dan blijft het oorverdovend stil :'(
Als je het nu over je voorspellingen qua prestaties hebt, dan hebben The_Mask en ik toen allebei wel gereageerd. Ik verwachtte ook al op voorhand dat GP106 Polaris niet zou evenaren als het op prijs/prestatie aan komt.
Ik weet nu echt niet of je nu discussieert om het discussiëren, last hebt van blind fanatisme of de situatie daadwerkelijk heel anders inschat. Daarom vraag ik mij de volgende zaken af;

-Zie jij een gevaar in een dalend R&D budget
-Denk jij dat het huidige R&D budget voldoende is voor RTG om mee te komen met Nvidia?
-Zie jij een gevaar in een dalend marktaandeel
-Ben jij het met mij (en de VP van RTG) eens dat het dalende marktaandeel is veroorzaakt door een slechte line-up
-Vindt jij dat het bedrijf AMD het de zaken voor Ati verbeterd of verslechterd heeft
-Zie jij over 3-5 jaar AMD met Radeon nog opboxen tegen high-end Nvidia? (cetris parisbus, als ze volgend jaar 1 miljard meer R&D pakken dan verandert dat antwoord natuurlijk, ga even uit van hoe het NU gaat).
Ik discussieer niet om het discussiëren, ik zie jou gewoon een fout statement maken met betrekking tot GF en reageer daar op. Vervolgens kom je voor de zoveelste keer met dat "volledige lineup" verhaal aankakken.

Ik begrijp echt wel wat je bedoelt en je hebt zeker geen ongelijk (zie hieronder), maar je woordkeuze is dusdanig slecht dat wat je typt iets heel anders is dan wat je bedoelt.

- Zeker is een dalend R&D budget een gevaar, maar dat is denk ik ook waarom Raja niet gepusht heeft om voor 2015 nog iets op 28nm te produceren. Dat had hij kunnen doen toen hij terug kwam in 2013.
- Eerlijk gezegd? Ja, op puur hardware vlak wel. Zie GF100 en Cypress, GK104 en Tahiti. En dat is ondanks hun waardeloze software. Stel je eens voor hoe Tahiti zou presteren als ze niet die overhead hadden? Zonder die overhead had een 7970 al op 780 niveau gezeten in 2012. En gezien hun aanpak dit jaar denk ik dat hun software kant een stuk beter gaat worden.
- Uiteraard is een dalend marktaandeel een probleem. Echter is het juist dit en volgend jaar waar we hopelijk weer iets goeds uit de CPU tak zien komen. Ook al strijdt die tak niet tegen Nvidia, het geeft wel AMD in z'n geheel een ander beeld als Zen straks gewoon competitief kan zijn voor games.
- AMD heeft het volledig verkeerd aangepakt met ATI. Ze dachten even snel flink wat mindshare te kunnen pakken op Intel door een goed stel GPU's onder hun naam te plakken, maar dachten vervolgens niet na over wat er op GPU gebied moest gebeuren.
- Daar durf ik niets over te zeggen. Er hangen te veel nieuwe dingen in de lucht om daar een goed onderbouwde voorspelling over te kunnen doen. Pascal is een heel lui product, Polaris is niet zo efficiënt als zou moeten, Zen komt er aan, we zitten met twee nieuwe API's die het landschap flink aan het veranderen zijn. We weten weinig over Zen, niets over Volta.
Dat gezegd hebbende ben ik persoonlijk dus voorzichtig positief over de strategie zoals vermeld door RTG. Die is marktaandeel terug veroveren met Polaris. Hierdoor de developer support uitbreiden wat op termijn goed voor de omarming van Radeon is. Hierdoor kunnen ze misschien eindelijk eens wat positiefs halen uit het console marktaandeel.
Het belangrijkste wat mij betreft is het feit dat Raja Koduri aan het hoofd staat. Dat is een GPU man in hart en nieren en alle positieve dingen die we AMD/RTG/Radeon hebben zien doen sinds 2013 komen zonder twijfel uit zijn hoge hoed. Ik denk echter ook dat juist hij de reden is dat het in 2014 en 2015 vrij stil is geweest rondom Radeon. Het was voor R300 ook stil, R100 en R200 hadden allebei kleine stukjes van wat uiteindelijk R300 werd. Het waren geen slechte chips, maar ze misten gewoon onderdelen waardoor Nvidia toch de overhand hield. Met R300 werd dat echter allemaal samen gevoegd en sprong ATI verdomd handig in op die "nieuwe" dingen die we nu voor lief nemen (vooral AF). Dat was Raja's werk.
XanderDrake schreef op zondag 31 juli 2016 @ 20:20:
Als je een gebalanceerd beeld wil geven, dan moet je niet oude koeien uit de sloot trekken die omstreeks 2010 zijn verdronken (Fermi), en het dan niét hebben over al de andere miskleunen van AMD. Het gedoe over de RX 480 kwam er niet eens aan te pas, terwijl dat wél wat relevanter is.

Maar nee, je beeldspraak is wel duidelijk. Anti nvidia.
Tuurlijk joh, laten we ophouden met oude koeien uit de sloot te trekken. Doe ik op het moment dat ik hier niet meer "amd drivers zijn slecht, nvidia ftw; omg amd beta driver, geen whql hahahaha" lees; want dat gaat dan niet over de overhead, maar over driver bugs en dergelijke. Sterker nog, ik begin me dusdanig aan Nvidia's drivers te irriteren dat ik juist daarom de volgende keer wellicht voor AMD ga. Nieuwe GFE is nog irritanter dan de vorige en de driver zelf wordt steeds onstabieler. Installeerde een paar weken geleden ook een nieuwe driver, 10 minuten later de eerste TDR binnen. In Rocket League. Een game waar m'n CPU bij uit z'n neus zit te vreten en m'n 970 1 GHz wel rap genoeg vindt om 120 FPS te halen. Rollback en all is well. Heb ik met m'n 5870 en 6950 toch echt nooit hoeven doen.

Als oude koeien de enige manier zijn om te laten zien hoe overdreven en soms ronduit fout sommige reacties zijn, so be it.

En dat ik anti Nvidia zou zijn is de grootste onzin die er bestaat. Sinds m'n R9700 (2002) heb ik gehad: 6800 GT, 8800 GTS 640, 9800 GTX+, 9800 GTX+, 5870, GTX 460 (was tijdelijk), 6950, GTX 680, GTX 770, GTX 970 (die alweer bijna 2 jaar oud is). Dat zijn 3 Radeons tegenover 9 GeForces - en dan tel ik m'n 9700 nog mee. Voor die 9700 had ik een Radeon DDR, een paar GeForces (3 in totaal als ik me niet vergis; GF, GF2 MX en GF2 Ti) en een Voodoo (die dan wel gekoppeld was aan een Mach64 voor 2D werk).

En dan heb ik met m'n G80/G92 kaarten ook nog alle pech gehad, ik moest twee keer terug voor RMA. Géén één van die andere kaarten is ooit terug gegaan voor RMA (sterker nog, die 9700 en Voodoo heb ik hier nog liggen en werken allebei nog :+). Ondanks dat ben ik toch bij Nvidia gebleven voor het grootste deel.

Als je echter goed kijkt, zul je zien dat het niet gaat om ATI/AMD of Nvidia. Ik heb gewoon telkens ofwel de koning gekozen of de kaart die ik goedkoper kon krijgen (Radeon DDR, 680 en 770 vooral).

Wel ben ik tegen Nvidia's bedrijfsvoering wat betreft al hun vendor lock-in. Dat staat wat mij betreft echter los van wat ze op nanometer niveau doen.

Ik raad je aan mijn opmerking over drivers niet al te serieus te nemen, want in tegenstelling tot de meesten weet ik dat zulke onzin aan beide kanten gebeurt. Wat dus ook mijn punt is. AMD's drivers zijn bij lange na niet zo slecht als 10 jaar geleden en die van Nvidia zijn verre van foutloos.

Mijn opmerking over GFE mag je wel serieus nemen, dat is een irritant stuk stront. Het is niet eens zo zeer het feit dat het bestaat, maar vooral hoe traag en buggy het is.

[ Voor 4% gewijzigd door Werelds op 01-08-2016 09:44 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sdk1985 schreef op vrijdag 29 juli 2016 @ 15:53:
[...]

Ik zou eerst maar eens afwachten hoe het nu verder gaat met RTG. Ik heb ergens dit jaar al eens een doemscenario onderbouwd wat ik de R&D hamer heb genoemd (voordat we echt iets wisten over Polaris en Pascal). In dit scenario is de time to market van AMD zo traag geworden dat ze helemaal niet meer mee kunnen komen met het high-end segment, net als bij de cpu's.

Ondertussen weten we dat het minstens Q1 2016 wordt voor Vega komt. Als dat verder vertraagd wordt dan komt deze voorspelling sneller uit dan ik zelf had verwacht. Verder was er recentelijk een interessant interview met de vice president van AMD YouTube: The Future of Radeon: An Interview with Raja Koduri. Hieruit kwam duidelijk naar voren dat na 2013 de focus van AMD helemaal niet meer lag bij pc gaming.

Volgens de vice president heeft hij nu iedereen overtuigd en is het daarom flink aanpoten om de achterstand bij te benen. Het liefst had hij de volledige line-up vandaag. Hij geeft ook zelf diverse fouten van AMD met Radeon aan (o.a. te beperkte line-up waardoor ze niks aan het console marktaandeel hebben). Dat is wat mij betreft positief, dan kun je er namelijk iets aan veranderen.

Ondertussen is het R&D budget voor het eerst in jaren verhoogd, goed nieuws. Alleen de verhoging was slechts 13 miljoen (229>242). Concurrent Nvidia zit ondertussen nog flink hoger met 346 miljoen. Dat gat blijft wel erg groot. Het is dus wat mij betreft nog lang niet zeker dat Vega op tijd komt en doet wat het moet doen. De performance van de 1080 is natuurlijk niet moeilijk te matchen, maar je moet ook winst maken zodat het R&D budget omhoog kan. Het zit er dik in dat ze de huidige RX 480 zonder substantiële marges weggeven. Of dat zo is kunnen we hopelijk in de resultaten van Q4 achterhalen...
^

Wat is nu relevant in jouw post voor wat AMD de komende 1.5jr op DX12/AC gebied gaat laten zien. :? Die architecturen staan immers al vast.

Nvidia heeft gedurende die tijd Pascal met preempting en AMD heeft CGN met ‘echte’ AC.

Op basis vd huidige benches lijkt het aannemelijk dat de Polaris / Vega CGN architectuur de duurdere 10xx (Ti?) kaarten regelmatig last zal kunnen maken op dit gebied.

Ervanuitgaande dat het gerucht klopt, wat zou volgens jou dan de reden zijn dat nvidia Volta naar voren wil halen ?

Je kunt verder wel gaan doemdenken over Vega maar voorlopig zie ik geen signalen dat deze niet in het veronderstelde timeframe dec16/17Q1 komt.

Verder wordt de mate waarin je gelijk wilt krijgen inzake je bedrijfskundige en jaarrekenininganalyses ook een beetje vermoeiend imo. Wij zijn niet dom ofzo. Iedereen snapt dat een lager/ krimpend / whatever R&D budget en een krimpende marketshare iha niet de meest gunstige situatie is. En je bent niet de enige/eerste die dat opmerkt. Zefs jaren geleden al niet.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Help!!!! schreef op zondag 31 juli 2016 @ 22:40:
[...]

^

Wat is nu relevant in jouw post voor wat AMD de komende 1.5jr op DX12/AC gebied gaat laten zien. :? Die architecturen staan immers al vast.

Nvidia heeft gedurende die tijd Pascal met preempting en AMD heeft CGN met ‘echte’ AC.

Op basis vd huidige benches lijkt het aannemelijk dat de Polaris / Vega CGN architectuur de duurdere 10xx (Ti?) kaarten regelmatig last zal kunnen maken op dit gebied.

Ervanuitgaande dat het gerucht klopt, wat zou volgens jou dan de reden zijn dat nvidia Volta naar voren wil halen ?

Je kunt verder wel gaan doemdenken over Vega maar voorlopig zie ik geen signalen dat deze niet in het veronderstelde timeframe dec16/17Q1 komt.
Ik denk dat wij beiden graag nu al een tegenhanger van de 1070 en 1080 hadden gezien. Desnoods in de vorm van een uit de kluiten gewassen Polaris a 500 dollar. Dan maar memory bandwidth limited. Als liefhebber wil je überhaupt zo snel mogelijk zo veel nieuwe kaarten.

Verder heb je gelijk dat er nog geen tekenen zijn dat het niet goed gaat komen. Ik vrees er alleen voor gezien het bovenstaande. Ik kan AMD wel begrijpen dat ze het op de OEM markt willen winnen alleen voor "ons" is dat jammer.
Verder wordt de mate waarin je gelijk wilt krijgen inzake je bedrijfskundige en jaarrekenininganalyses ook een beetje vermoeiend imo. Wij zijn niet dom ofzo. Iedereen snapt dat een lager/ krimpend / whatever R&D budget en een krimpende marketshare iha niet de meest gunstige situatie is. En je bent niet de enige/eerste die dat opmerkt. Zefs jaren geleden al niet.
:+

Overige lange verhalen moeten tot morgen wachten, tijd om te slapen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
Smakelijke discussie heren!
Prettig om even lekker door te lezen op de maandag ochtend d:)b

Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:40
Blijkbaar gebruikt nvidia al sinds maxwell tile based rasterization om geheugenbandbreedte en het verbruik te verlagen, maar nvidia heeft dat natuurlijk niet aan de grote klok gehangen.

http://www.realworldtech....asterization-nvidia-gpus/

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
Dat las ik zojuist ook (via Anandtech), het verklaart een hoop. Slim gedaan van Nvidia, vraag me wel af of dit ten alle tijde wordt toegepast, want zij zelf, AMD/ATI en bijvoorbeeld Sweeney hebben in het verleden nogal afgegeven op tiled rendering. Dat was wel in de tijd van fixed pipelines, dus wellicht dat ze er nu anders over denken.

Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op zondag 31 juli 2016 @ 10:36:
[...]

Toch wel hilarisch, die woordkeuze van jou. Nvidia: misbaksels, waardeloze efficiëntie, niets presteren.

Maar dat AMD effectief met hun RX 480 een 'GTX 970' qua prijs, prestaties en efficiëntie geven uitgebracht, alleen dan twee jaar te laat? En dat die met een beetje pech je moederbord opblaast? Daar hoor je hem niet over.
Ik denkt niet dat je de rx480 met een gtx970 wilt gaan vergelijken, een 480 heeft zoveel nieuwe dingen en kan zoveel meer dan een 970 en dat komt duidelijk naar voren in de laatste benchmarks waar een throttlende reference rx480 bijna een 980Ti oc kan bijhouden. Als straks een rx480 de 1400-1500mhz gaat halen dan komt de performence heel dicht bij een 1070.

Ik wil hier geen advies of een AMD Nvidia discussie losmaken maar ik hou er wel van als we reëel en realistisch blijven.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Mogelijk het geheime wapen van Nvidia en de verklaring waarom Maxwell het beter doet dan Fermi, nee het heeft niks te maken met Gameworks):

Hidden Secrets: Investigation Shows That NVIDIA GPUs Implement Tile Based Rasterization for Greater Efficiency
In any case, Real Word Tech’s article goes into greater detail about what’s going on, so I won’t spoil it further. But with this information in hand, we now have a more complete picture of how Maxwell (and Pascal) work, and consequently how NVIDIA was able to improve over Kepler by so much. Finally, at this point in time Real World Tech believes that NVIDIA is the only PC GPU manufacturer to use tile based rasterization, which also helps to explain some of NVIDIA’s current advantages over Intel’s and AMD’s GPU architectures, and gives us an idea of what we may see them do in the future.
Bron: http://www.realworldtech....asterization-nvidia-gpus/



Disclaimer: hij heeft geen GCN kaart getest.

[ Voor 10% gewijzigd door sdk1985 op 02-08-2016 02:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • pafdaddy
  • Registratie: April 2008
  • Niet online
Verwijderd schreef op maandag 01 augustus 2016 @ 17:20:
[...]


Ik denkt niet dat je de rx480 met een gtx970 wilt gaan vergelijken, een 480 heeft zoveel nieuwe dingen en kan zoveel meer dan een 970 en dat komt duidelijk naar voren in de laatste benchmarks waar een throttlende reference rx480 bijna een 980Ti oc kan bijhouden. Als straks een rx480 de 1400-1500mhz gaat halen dan komt de performence heel dicht bij een 1070.

Ik wil hier geen advies of een AMD Nvidia discussie losmaken maar ik hou er wel van als we reëel en realistisch blijven.
Ik zie weinig realisme terug in je bewering dat een 480 dicht bij een 1070 kan komen, alsof de 1070 niet veel meer overclock potentie heeft.

[ Voor 13% gewijzigd door pafdaddy op 02-08-2016 09:58 ]

Dit bericht kan oorzaak of gevolg zijn van misverstanden.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
sdk1985 schreef op dinsdag 02 augustus 2016 @ 01:11:
Mogelijk het geheime wapen van Nvidia en de verklaring waarom Maxwell het beter doet dan Fermi, nee het heeft niks te maken met Gameworks):
Haarbal en ik hadden het er 2 posts boven jou al over ;)
Disclaimer: hij heeft geen GCN kaart getest.
Anderen inmiddels wel.


Edit: dit is trouwens geen magische oplossing voor alles of iets nieuws (IT doet dit al 20 jaar met PowerVR), maar het verklaart wel hoe Maxwell zo efficient is.

Tiled rendering is met uitstek geschikt voor deferred shading en veel post processing effecten (zelfs zoiets simpels als FXAA heeft hier nog baat bij). Dat is uiteraard wat veel engines nu doen, dus Nvidia heeft hier gedaan waar ze goed in zijn: een heel specifieke oplossing voor een heel specifiek "probleem" gecreëerd.

Het is echter niet zonder nadelen; geometry heeft hier geen baat bij en hoe hoger de resolutie wordt, hoe sneller alles zal moeten tikken om niet te veel performance te verliezen (of je moet je GPU uiteraard breder maken). Het verklaart dus ook waarom AMD op hogere resoluties het gat iets kleiner maakt (of wellicht is het beter te zeggen dat Nvidia iets van hun efficiëntie verliest :P). Het verklaart ook waarom Nvidia hun L2 cache ineens zo veel groter maakte (van 256 KB naar 2MB; dat is 8 keer meer). Ook voor transparency is dit juist "duurder", dat kost meer tijd dan bij immediate rendering.

Tweetal artikelen van IT over dit verhaal (uiteraard zeggen zij dat het altijd veel beter is ;)):
- http://lib.csdn.net/article/embeddeddevelopment/14714
- http://www.gradcracker.co...cture-deferred-rendering/

[ Voor 64% gewijzigd door Werelds op 02-08-2016 11:01 ]


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Heeft iemand al een review gezien waar de nieuwe Titan XP overgeclockt wordt?

Gewoon puur uit interesse, ik ben benieuwd hoe ver hij komt (zeker onder water oid).

Als hij ook maar in de buurt komt van de clocksnelheden die zijn kleinere broertjes halen dat is de performance winst opeens een stuk groter.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • markklok
  • Registratie: Oktober 2000
  • Laatst online: 06-10 08:37

markklok

< Tijdelijk buiten gebruik >

Blaat schreef op woensdag 03 augustus 2016 @ 06:28:
Heeft iemand al een review gezien waar de nieuwe Titan XP overgeclockt wordt?

Gewoon puur uit interesse, ik ben benieuwd hoe ver hij komt (zeker onder water oid).

Als hij ook maar in de buurt komt van de clocksnelheden die zijn kleinere broertjes halen dat is de performance winst opeens een stuk groter.
http://www.hardwarecanuck...erformance-review-17.html

Legion 7i i9 3080 32gb


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Niet verkeerd!
I’ll let some charts do the talking. In short what you are seeing is a single overclocked TITAN X achieve performance levels that almost approach two reference GTX 1080’s in SLI. I don't care what side of the AMD / NVIDIA divide you are swinging from; that's just bonkers.
Ze halen 1923MHz op de core. Gezien de conservatieve originele clockspeeds is dat niet verkeerd, al helemaal niet met de brakke FE koeler.

[ Voor 12% gewijzigd door Blaat op 03-08-2016 08:22 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • markklok
  • Registratie: Oktober 2000
  • Laatst online: 06-10 08:37

markklok

< Tijdelijk buiten gebruik >

Blaat schreef op woensdag 03 augustus 2016 @ 08:20:
[...]


Niet verkeerd!

[...]


Ze halen 1923MHz op de core. Gezien de conservatieve originele clockspeeds is dat niet verkeerd, al helemaal niet met de brakke FE koeler.
Nu nog onder water en je hebt een killer :)

Legion 7i i9 3080 32gb


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

markklok schreef op woensdag 03 augustus 2016 @ 08:28:
[...]


Nu nog onder water en je hebt een killer :)
Moet EK alleen eerst even met een waterblok komen. :P

Als die beschikbaar is gaan ik dat overpriced fanboy product bestellen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PCper: The NVIDIA Titan X (Pascal) 12GB Graphics Card Review

Interessante sidenote waar andere reviewers ook tegenaan zouden moeten lopen:

" Readers and listeners might have also heard about the issues surrounding the move to DirectX 12 and UWP (Unified Windows Platform) and how it affected our testing methods. Our benchmarking process depends on a secondary application running in the background on the tested PC that draws colored overlays along the left hand side of the screen in a repeating pattern to help us measure performance after the fact. The overlay we have been using supported DirectX 9, 10 and 11, but didn’t work with DX12 or UWP games.

We’ve been working with NVIDIA to fix that, and I can report that we now have an overlay that behaves exactly in the same way as before, but it now will let us properly measure performance and smoothness on DX12 and UWP games! This is a big step to maintaining the detailed analytics of game performance that enable us to push both game developers and hardware vendors to perfect their products and create the best possible gaming experiences for consumers."

[ Voor 72% gewijzigd door Help!!!! op 03-08-2016 17:48 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Jayztwocents weet er 2050MHz uit te harken. :9

YouTube: NVIDIA Titan X... again - Another weird Titan X Review!

Dat is wat mijn 1080 nu ook doet. :D

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 22:02

Tortelli

mixing gas and haulin ass

Guru3D review van de Titan X (Pascal)
http://www.guru3d.com/art...an-x-pascal-review,1.html

[ Voor 11% gewijzigd door Tortelli op 04-08-2016 21:13 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Jammer dat ze weinig compute testen in al die titan xp reviews.. Maar voorzover ik begrijp is de laatste cuda ook nog niet af en is de cuda performance nog niet wat het zou kunnen zijn.

Iemand bekend met een review waar ze al wat meer in compute duiken?

specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
maratropa schreef op vrijdag 05 augustus 2016 @ 11:38:
Jammer dat ze weinig compute testen in al die titan xp reviews.. Maar voorzover ik begrijp is de laatste cuda ook nog niet af en is de cuda performance nog niet wat het zou kunnen zijn.
Dat is onzin :)

Weet niet waar je dat vandaan haalt, maar dit is allemaal al beschikbaar, CUDA 8.0 is tegelijkertijd met de 1080 uitgekomen. Preview releases waren al sinds april beschikbaar.

Voor compute is Titan XP niet interessant, net zoals Titan XM dat niet echt meer was, vergeleken met de goedkopere kaarten. Hij biedt niets meer dan een 1080 qua verhoudingen. Beide hebben de volgende verhoudingen (flops op basis van boost core clock):

- FP32 = 10974 (XP @ 1531 MHz) vs 8873 (1080 @ 1733 MHz)
- FP64 @ 1/32 FP32 (343 vs 277)
- FP16 @ 1/64 FP32 (139 vs 171)
- INT8 @ 4/1 FPS32 (35492 vs 43896)

Op gelijke clocks wordt het verschil uiteraard iets groter. En ja, GP104 doet ook gewoon 4/1 INT8. Dat is niet alleen op Titan XP, Nvidia maakt er nu alleen een punt van omdat ze het ding anders niet verkocht krijgen.

Iedereen die claimed dat ze dit ding voor compute aanschaffen heeft duidelijk niet veel gerekend. Als het je echt om compute gaat en je zo veel mogelijk performance wilt halen, ben je beter af met 2x1070 (en voor compute is multi-GPU meestal geen enkel probleem), laat staan 2x1070. In beide gevallen is het prijstechnisch vele malen efficiënter en in het geval van de 1080 haal je er ook nog meer performance per Watt uit. Deze criteria zijn veel belangrijker dan bij games. Dat is waarom AMD zo populair is voor de meeste mining algoritmes. Je krijgt gewoon veel meer per dollar en per watt, dus je haalt meer uit je investering. Zelfs op gelijke clocks krijg je nog steeds meer uit een GP104 dan uit GP102 qua prijs en stroomverbruik.

En voor professionele doeleinden? Geen ECC, geen 10bpc in windowed OpenGL.

Beide Titan X's vind ik gewoon een grote grap. De oorspronkelijke Titan en Titan Black hadden tenminste nog FP64 performance. Als je nu echter FP64 performance wil hebben als thuis gebruiker kun je beter een oude 5850 kopen. Dan krijg je 358 GFLOPS voor een fractie van de prijs en zo'n 40% van het stroomverbruik. En gaat die dan kapot omdat hij al oud is? Ach, je kunt er nog wel een stuk of 30-35 kopen voordat je even duur uit bent als met een enkele Titan XP. Laat staan een Titan XM, dan kun je zelfs nog een 4870 halen en meer FP64 performance krijgen.

Wil je FP16? Een RX 460 doet al 1953 GFLOPS joh, want AMD doet FP16 gewoon 1:1 omdat ze de FP32 ALU's hergebruiken en dan native FP16 opslaan (dus geen rekenvoordeel, wel opslagvoordeel, minder druk op de registers).

Ik weet niet of er ergens een site is die bijvoorbeeld Caffe DNN benchmarkt met zowel cuDNN (CUDA, Nvidia) als de OpenCL branch, maar als ik moet gokken doet een RX 480 het daar een stuk beter in dan velen verwachten.

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Werelds schreef op vrijdag 05 augustus 2016 @ 14:31:
[...]

Dat is onzin :)

Weet niet waar je dat vandaan haalt, maar dit is allemaal al beschikbaar, CUDA 8.0 is tegelijkertijd met de 1080 uitgekomen. Preview releases waren al sinds april beschikbaar.

Voor compute is Titan XP niet interessant, net zoals Titan XM dat niet echt meer was, vergeleken met de goedkopere kaarten. Hij biedt niets meer dan een 1080 qua verhoudingen. Beide hebben de volgende verhoudingen (flops op basis van boost core clock):

- FP32 = 10974 (XP @ 1531 MHz) vs 8873 (1080 @ 1733 MHz)
- FP64 @ 1/32 FP32 (343 vs 277)
- FP16 @ 1/64 FP32 (139 vs 171)
- INT8 @ 4/1 FPS32 (35492 vs 43896)

Op gelijke clocks wordt het verschil uiteraard iets groter. En ja, GP104 doet ook gewoon 4/1 INT8. Dat is niet alleen op Titan XP, Nvidia maakt er nu alleen een punt van omdat ze het ding anders niet verkocht krijgen.

Iedereen die claimed dat ze dit ding voor compute aanschaffen heeft duidelijk niet veel gerekend. Als het je echt om compute gaat en je zo veel mogelijk performance wilt halen, ben je beter af met 2x1070 (en voor compute is multi-GPU meestal geen enkel probleem), laat staan 2x1070. In beide gevallen is het prijstechnisch vele malen efficiënter en in het geval van de 1080 haal je er ook nog meer performance per Watt uit. Deze criteria zijn veel belangrijker dan bij games. Dat is waarom AMD zo populair is voor de meeste mining algoritmes. Je krijgt gewoon veel meer per dollar en per watt, dus je haalt meer uit je investering. Zelfs op gelijke clocks krijg je nog steeds meer uit een GP104 dan uit GP102 qua prijs en stroomverbruik.

En voor professionele doeleinden? Geen ECC, geen 10bpc in windowed OpenGL.

Beide Titan X's vind ik gewoon een grote grap. De oorspronkelijke Titan en Titan Black hadden tenminste nog FP64 performance. Als je nu echter FP64 performance wil hebben als thuis gebruiker kun je beter een oude 5850 kopen. Dan krijg je 358 GFLOPS voor een fractie van de prijs en zo'n 40% van het stroomverbruik. En gaat die dan kapot omdat hij al oud is? Ach, je kunt er nog wel een stuk of 30-35 kopen voordat je even duur uit bent als met een enkele Titan XP. Laat staan een Titan XM, dan kun je zelfs nog een 4870 halen en meer FP64 performance krijgen.

Wil je FP16? Een RX 460 doet al 1953 GFLOPS joh, want AMD doet FP16 gewoon 1:1 omdat ze de FP32 ALU's hergebruiken en dan native FP16 opslaan (dus geen rekenvoordeel, wel opslagvoordeel, minder druk op de registers).

Ik weet niet of er ergens een site is die bijvoorbeeld Caffe DNN benchmarkt met zowel cuDNN (CUDA, Nvidia) als de OpenCL branch, maar als ik moet gokken doet een RX 480 het daar een stuk beter in dan velen verwachten.
Ah dan was ik in de war ivm iets wat ik gelezen had over het niet werken van bijv. Octane op de 1080. Dat zal dan wel aan de software zelf liggen.

Alleen niet helemaal eens met dat de titan niet zinnig is voor compute; het ligt natuurlijk aan wat voor compute en in welke context;

FP64 ben ik met je eens, daarvoor is hij niet interessant. En dat is ook meteen een beetje de doelgroep waar bijv ecc voor interessant is.

10 bits en opengl zijn vieuwport dingen en die heb je op zich al goedkoop met een instap pro quadro of firepro. Maar zijn vaak ook niet zo hard nodig.

Maar voor 3d/vfx is de titan een leuk ding. 12Gb vind je verder niet zo goedkoop, en de prijs (1080 euro ex btw) is in die context ook niet zo'n issue. Helaas is CUDA hier nog erg dominant.. Ook geeft de titan je maximale compute voor de beschikbare ruimte, ook niet altijd onbelangrijk.

maar meerdere 1080's of 1070's is idd in veel gevallen ook een optie. Ik zit zelf ook met het dilemma nu ik wat aan het rondkijken voor gpu's om wat meer met gpu renderen te doen. Voor de prijs van een titan xp haal je 3 1070's, alleen dan zit m'n pc vol. Terwijl met 1 titan hou je nog ruimte over voor, nouja nog een titan of 2 later :)

Ik neem aan dat nvidia het liefst al de chips als quadro P6000 voor 4k+ zou verkopen, maar waarschijnlijk krijgen ze zo veel P6000's niet verkocht en er is gewoon een (vfx) markt voor high end non pro gpu's voor het renderen van effecten en 3d (naast die van gamers met veel geld)

specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
maratropa schreef op vrijdag 05 augustus 2016 @ 15:24:
10 bits en opengl zijn vieuwport dingen en die heb je op zich al goedkoop met een instap pro quadro of firepro. Maar zijn vaak ook niet zo hard nodig.

Maar voor 3d/vfx is de titan een leuk ding. 12Gb vind je verder niet zo goedkoop, en de prijs (1080 euro ex btw) is in die context ook niet zo'n issue. Helaas is CUDA hier nog erg dominant.. Ook geeft de titan je maximale compute voor de beschikbare ruimte, ook niet altijd onbelangrijk.

maar meerdere 1080's of 1070's is idd in veel gevallen ook een optie. Ik zit zelf ook met het dilemma nu ik wat aan het rondkijken voor gpu's om wat meer met gpu renderen te doen. Voor de prijs van een titan xp haal je 3 1070's, alleen dan zit m'n pc vol. Terwijl met 1 titan hou je nog ruimte over voor, nouja nog een titan of 2 later :)

Ik neem aan dat nvidia het liefst al de chips als quadro P6000 voor 4k+ zou verkopen, maar waarschijnlijk krijgen ze zo veel P6000's niet verkocht en er is gewoon een (vfx) markt voor high end non pro gpu's voor het renderen van effecten en 3d (naast die van gamers met veel geld)
Het geheugen is het enige, maar om daar nu twee keer zo veel voor te betalen zonder dat je verder echt iets wint? Ruimte mag geen probleem zijn als je toch zo'n bedragen uit geeft ;)

Als het puur op snelheid aankomt is het ding het gewoon niet waard. Komt nog eens bovenop dat je in sommige gevallen de GPU slechts voor een deel van het werk kan gebruiken (Houdini doet voor zover ik weet de definitieve afbeelding nog steeds gewoon op de CPU). Dat terwijl dingen als Blender zonder problemen met meerdere GPU's kunnen werken (en microstuttering is dan geen probleem :P).

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Het idee van een kaart als de Titan is dat je een premium prijs betaalt voor een premium product. Zoals ik al op de frontpage zie; Een Ferrari heeft ook een veel slechtere prijs per PK dan een Fiat multipla van hetzelfde concern.

Het lijkt me uberhaupt niet zinnig om een dergelijk product proberen goed te praten omdat hij in niche toepassing x mogelijk wel beter is. Het is gewoon een product met een slechte value for money, zo is het ook bedoeld. Ik zou me daar niet te druk voor maken. In Nederland betaal je voor niet veel producten de kostprijs, allemaal fictieve prijzen ;). Denk maar eens na wanneer je voor het laatst een ijsje op hebt en wat dat kost (tip in Oost Europa koop je een Unilever Cornetto voor 5 eurocent in de supermarkt).

[ Voor 32% gewijzigd door sdk1985 op 05-08-2016 16:33 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
sdk1985 schreef op vrijdag 05 augustus 2016 @ 16:27:
Het idee van een kaart als de Titan is dat je een premium prijs betaalt voor een premium product. Zoals ik al op de frontpage zie; Een Ferrari heeft ook een veel slechtere prijs per PK dan een Fiat multipla van hetzelfde concern.
Verschil is alleen dat die Ferrari ook een betere versnellingsbak heeft, betere ophanging, stijver chassis, mooier ontwerp (nu is dat tegenover een Multipla niet lastig :+), veel intelligentere electronica die sowieso al beter in elkaar steekt, veel betere stoelen en ga zo maar door. De Ferrari is vele malen beter gebouwd terwijl er aan de Fiat van alles schort.

Correctere vergelijking is te zeggen dat je in plaats van een 1.6 16V met 100 PK nu een 2.6 V6 met 140 PK en een tank van 90 liter in plaats van 60 liter krijgt, maar verder nog steeds dezelfde Multipla. Echter wel voor €45000 in plaats van €25000 ;)

offtopic:
Moest hier wel op reageren, als autogek kan zo'n opmerking niet laten passeren :(

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Werelds schreef op vrijdag 05 augustus 2016 @ 17:30:
[...]

Verschil is alleen dat die Ferrari ook een betere versnellingsbak heeft, betere ophanging, stijver chassis, mooier ontwerp (nu is dat tegenover een Multipla niet lastig :+), veel intelligentere electronica die sowieso al beter in elkaar steekt, veel betere stoelen en ga zo maar door. De Ferrari is vele malen beter gebouwd terwijl er aan de Fiat van alles schort.

Correctere vergelijking is te zeggen dat je in plaats van een 1.6 16V met 100 PK nu een 2.6 V6 met 140 PK en een tank van 90 liter in plaats van 60 liter krijgt, maar verder nog steeds dezelfde Multipla. Echter wel voor €45000 in plaats van €25000 ;)

offtopic:
Moest hier wel op reageren, als autogek kan zo'n opmerking niet laten passeren :(
Haha ik had er al even ge-edit dat je ook een BMW kon pakken, daar zit je ook zo op de 300 pk alleen dan mét comfort :Y) . MAar ik wilde het niet complexer maken dan nodig :P .

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 08-10 23:23
Werelds schreef op vrijdag 05 augustus 2016 @ 17:30:
[...]

Verschil is alleen dat die Ferrari ook een betere versnellingsbak heeft, betere ophanging, stijver chassis, mooier ontwerp (nu is dat tegenover een Multipla niet lastig :+), veel intelligentere electronica die sowieso al beter in elkaar steekt, veel betere stoelen en ga zo maar door. De Ferrari is vele malen beter gebouwd terwijl er aan de Fiat van alles schort.
Onder welke kaart categorie valt een Giulia Quadrifoglio blok gezien die eigenlijk ook van Ferrari afstamt :+.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
Paprika schreef op vrijdag 05 augustus 2016 @ 18:06:
[...]

Onder welke kaart categorie valt een Giulia Quadrifoglio blok gezien die eigenlijk ook van Ferrari afstamt :+.
Iets van een 1070 Lightning die vanuit het niets een koeler van Matrox krijgt ofzo? :+

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Ik ben iig hartstikke blij dat nV zo snel de nieuwe Titan heeft uitgebracht, met de krankzinnige prijs wat minder, maar dat krijg je in zo'n geval zonder perf. concurrentie, dat ding is 2x zo snel als een FuryX die voor 600/700 eur over de toonbank gaat.

Er komen er 2 deze kant op, het equivalent van een leuke 2 weken vakantie met gezin en gem. 1,7 kind aan de Costa en dan heb ik er waarschijnlijk toch wel wat langer plezier van en vooral veel meer :D

Opvallend, Titan Pascal kan gewoon naar ~2000 mhz indien goed gekoeld, dus geen 30, maar 40% erbij tov van een 1080, eindelijk voer voor 5K@60 fps, sneller heeft even geen zin meer, eindelijk rustig slapen ;)

Hoewel, over auto's gesproken, ik rij Aud(iTT), zo'n TFSI V6 motor is ook wel leuk in te bouwen...dat gaat pas duiten kosten :D

http://wardsauto.com/tech...fsi-supercharged-dohc-v-6

[ Voor 13% gewijzigd door edward2 op 06-08-2016 14:05 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 29-09 19:02
maratropa schreef op vrijdag 05 augustus 2016 @ 11:38:
Jammer dat ze weinig compute testen in al die titan xp reviews.. Maar voorzover ik begrijp is de laatste cuda ook nog niet af en is de cuda performance nog niet wat het zou kunnen zijn.

Iemand bekend met een review waar ze al wat meer in compute duiken?

[...]

Ah dan was ik in de war ivm iets wat ik gelezen had over het niet werken van bijv. Octane op de 1080. Dat zal dan wel aan de software zelf liggen.
Nee hoor, je heb helemaal gelijk. Werelds weet zoals wel vaker gewoonweg niet waar hij het over heeft.

Volledige support zal nog ff duren, momenteel werkt enkel de Cuda 8 Release Candidate (geen final dus) op de Pascal series, welke niet volledig code-compatible is met voorheen gebruikte Cuda 7.5 implementaties op de oudere gpu gens. Daarnaast vergt het nog tijd om de boel voor Pascal te optimaliseren.

Zelfs Nvidia's eigen tools, zoals o.a. alle Iray-plugins, hebben nog geen ondersteuning voor Pascal, en Nvidia's Mental Ray Maya-plugin heeft afgelopen dinsdag pas, als eerste, een update gekregen met Pascal compatibility.

Daarnaast ontbreekt er een hoop documentatie, en zo ook Nvidia's gebruikelijke "Pascal Tuning/Compatibility Guide".

Dus dat er geen compute tests worden uitgevoerd is niet zo vreemd, gezien er vrijwel niets beschikbaar is om mee te testen. Software upgraden naar Cuda 8 kost tijd en man-uren, en niet ieder professioneel bedrijf heeft zin om SDK support voor een non-final release te implementeren, zeker gezien er nog vervelende bugs in de RC zitten.

Is overigens één van de redenen waarom er hier nog geen Pascal lig :) .

[ Voor 22% gewijzigd door SirNobax op 06-08-2016 20:21 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
SirNobax schreef op zaterdag 06 augustus 2016 @ 11:23:
Nee hoor, je heb helemaal gelijk. Werelds weet zoals wel vaker gewoonweg niet waar hij het over heeft.

Volledige support zal nog ff duren, momenteel werkt enkel de Cuda 8 Release Candidate (geen final dus) op de Pascal series, welke niet volledig code-compatible is met voorheen gebruikte Cuda 7.5 implementaties op de oudere gpu gens. Daarnaast vergt het nog tijd om de boel voor Pascal te optimaliseren.

Zelfs Nvidia's eigen tools, zoals o.a. alle Iray-plugins, hebben nog geen ondersteuning voor Pascal, en Nvidia's Mental Ray Maya-plugin heeft afgelopen dinsdag pas, als eerste, een update gekregen met Pascal compatibility.

Daarnaast ontbreekt er een hoop documentatie, en zo ook Nvidia's gebruikelijke "Pascal Tuning/Compatibility Guide".

Dus dat er geen compute tests worden uitgevoerd is niet zo vreemd, gezien er vrijwel niets beschikbaar is om mee te testen. Software upgraden naar Cuda 8 kost tijd en man-uren, en niet ieder professioneel bedrijf heeft zin om SDK support voor een non-final release te implementeren, zeker gezien er nog vervelende bugs in zitten.

Is overigens één van de redenen waarom er hier nog geen Pascal lig :) .
Nou nou, rustig maar hoor.

Het verschil tussen 8.0 en 7.5 is (vanuit een API perspectief) niet zo groot als het op compatibility aan komt. Denk dat de grootste valkuil is dat cublasDataType_t geen eigen type meer is, maar een alias van cudaDataType. Voor de rest komt het vooral aan op nieuwe dingen, waarmee men software dus nog iets zou kunnen optimaliseren; en dan vooral met dp2a/dp4a uiteraard.

Dat RC label zegt geen reet. De final versie zal enkele bugs gefixt hebben en die paar stukjes van de documentatie die missen zullen er in zitten, maar dan heb je het ook wel gehad. Dat was bij 7 (waar overigens veel meer documentatie mistte dan in 8.0 nu) en 6.5 ook zo; daarvoor weet ik niet, zo lang heb ik er zelf nog niet mee te maken. Het verschil tussen de early access versie (klant van me is al sinds april bezig met DGX-1 :P) en RC is ook maar minimaal. Final komt waarschijnlijk deze maand, duurt normaal gesproken maar 2-3 maanden tussen RC en final.

De SDK ondersteunt Pascal verder volledig, nieuwe compute caps zijn toegevoegd; er zit er zelfs een niveau in dat nog niet door een GPU wordt gebruikt (6.2, wordt waarschijnlijk Tegra). 6.0 is GP100, 6.1 is GP10x. 6.1 is daarbij identiek aan 5.2 met uitzondering van textures die 2 keer zo groot mogen zijn.

Qua performance is er niet veel meer te optimaliseren binnen de SDK. Pascal is 95% Maxwell, dus het gros van het werk is al gebeurd. Wel heeft Nvidia wat winst weten te boeken in z'n geheel; ook Maxwell krijgt op sommige vlakken een fikse boost. Afhankelijk van wat je doet krijg je met GP104 gewoon 60%-100% winst ten opzichte van GM204, wat klopt met de specs. De eigen libraries heeft Nvidia al lang geoptimaliseert, die zijn allemaal geupdate - inclusief documentatie. PTX is bijgewerkt, BLAS is gedocumenteerd (hoewel de eerder genoemde wijziging niet zo heel duidelijk wordt aangekaart).

Voor benchmarks is er geen reden waarom CUDA 8.0 niet gebruikt kan worden. De meeste CUDA benchmarks (of beter gezegd, tools die als benchmark gebruikt worden) gebruiken Nvidia's eigen libraries en die heeft Nvidia dus al bijgewerkt voor zover dat nodig was. cuDNN zit inmiddels aan de 2e versie voor 8.0, Tensorflow en Caffe werken gewoon op 8.0, Amber was zelfs in April al geupdate aan de hand van de EA release. Phoronix heeft ook gewoon de 1080 gebenchmarkt. Maxas werkt gewoon op Pascal zonder wijzigingen, omdat er simpelweg nauwelijks iets gewijzigd is. Wel zitten er een aantal nieuwe optimalisaties in.

Je hebt wel gelijk dat sommige software iets meer werk nodig zal hebben, maar de veelgebruikte libraries niet. Dat geldt vooral voor gesloten dingen en voor software die meer dan compute doet, zoals bijvoorbeeld Iray. Overigens is Iray wel geupdate, 2016.2 ondersteunt Pascal. Juist software zoals dit wordt echter niet gebruikt om te benchmarken, daar worden juist dingen als Caffe AlexNET en dergelijke voor gebruikt. Sterker nog, de benchmarks die het meest worden gebruikt door "mainstream" tech websites draaien op OpenCL. Daar loopt Nvidia wel achter; zowel qua features als qua performance.

En ik weet "zoals zo vaak" niet waar ik het over heb? Kan best, maar dan kun je me ook corrigeren zonder denigrerend te doen en daarbij daadwerkelijk een voorbeeld geven. Volgens mij had je me ook aangesproken toen ik het over DCC had een tijd terug? Toen reageerde je op dezelfde manier en had het vervolgens over DXT, wat op een geheel ander niveau werkt.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Werelds schreef op zaterdag 06 augustus 2016 @ 20:42:

Qua performance is er niet veel meer te optimaliseren binnen de SDK. Pascal is 95% Maxwell, dus het gros van het werk is al gebeurd.
Huh, moet ik dit binnen een bepaalde context zien ofzo? Bij het launch event hadden ze het namelijk over ?1200? grote en kleine veranderingen. Verder zien de die shots er ook heel anders uit en kwam van de week nog naar voren dat de tile based rendering heel anders loopt (rechte strepen omlaag). Het is geen die-shrink van Maxwell.

[ Voor 3% gewijzigd door sdk1985 op 06-08-2016 20:55 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Hoe bedoel je "huh"? Het is toch al minimaal 100 maal gezegd dat er heel weinig verschil in Pascal en Maxwell zit.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:56
sdk1985 schreef op zaterdag 06 augustus 2016 @ 20:54:
Huh, moet ik dit binnen een bepaalde context zien ofzo? Bij het launch event hadden ze het namelijk over ?1200? grote en kleine veranderingen. Verder zien de die shots er ook heel anders uit en kwam van de week nog naar voren dat de tile based rendering heel anders loopt (rechte strepen omlaag). Het is geen die-shrink van Maxwell.
Wat van de week naar voren kwam is dat ze vanaf Maxwell aan tiled rendering doen. Ik heb nergens gezien dat Pascal dat anders zou doen dan Maxwell.

Waar heb jij een die shot van GP104 of GP102 gezien? Ik heb alleen de architectuur diagrammen gezien :)

De microarchitectuur is nauwelijks verandert. De geometry engine valt buiten de SM, er is wat geschoven met wat registers en caches, maar verder is het gewoon Maxwell. Voordat er iemand begint over DLB - DLB is geen wijziging in de architectuur, dat is een wijziging in de warp schedulers. Het is ook niet iets waar je als ontwikkelaar direct aanspraak op maakt; dat gebeurt indirect via prioriteiten danwel interrupts. Binnen CUDA zijn er wat nieuwe instructies voor FP16/INT8 en dan heb je het grotendeels gehad.

Er zijn zeker een hoop veranderingen, maar het gros van die veranderingen zitten op nanometer niveau en hebben vooral betrekking op minder latency, lager verbruik. Dat cijfer van 1200 heb ik overigens nog nooit gehoord :P

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 07-10 13:02
Werelds schreef op zaterdag 06 augustus 2016 @ 21:12:
[...]

Wat van de week naar voren kwam is dat ze vanaf Maxwell aan tiled rendering doen. Ik heb nergens gezien dat Pascal dat anders zou doen dan Maxwell.
Kijk de video eens af die ik van de week hier binnen [video] tags heb geplaatst. Daar komt namelijk duidelijk naar voren dat Pascal een heel ander algoritme gebruikt :)
Waar heb jij een die shot van GP104 of GP102 gezien? Ik heb alleen de architectuur diagrammen gezien :)

De microarchitectuur is nauwelijks verandert. De geometry engine valt buiten de SM, er is wat geschoven met wat registers en caches, maar verder is het gewoon Maxwell. Voordat er iemand begint over DLB - DLB is geen wijziging in de architectuur, dat is een wijziging in de warp schedulers. Het is ook niet iets waar je als ontwikkelaar direct aanspraak op maakt; dat gebeurt indirect via prioriteiten danwel interrupts. Binnen CUDA zijn er wat nieuwe instructies voor FP16/INT8 en dan heb je het grotendeels gehad.
Oh je hebt gelijk die diagrammen lijken verdacht veel op elkaar (iig tov die van Maxwell gen2 GTX 980). Ik vraag me af naar welk plaatje ik nou pas zat te kijken 8)7 .
Er zijn zeker een hoop veranderingen, maar het gros van die veranderingen zitten op nanometer niveau en hebben vooral betrekking op minder latency, lager verbruik. Dat cijfer van 1200 heb ik overigens nog nooit gehoord :P
Dat getal zat in de livestream tijdens de 1080 unveil. Kan ook een ander getal zijn, is weer een paar maanden geleden, maar volgens mij was het 1200 :p. Dat kwam volgens mij voor het stukje van de presentatie met de slide van performance=efficiency.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

Pagina: 1 ... 33 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.