Acties:
  • +2 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Dat zal een Shield zijn.

Wat denkt Videocardz nu weer dat een "Titan Xpp" is? Denken ze nog steeds aan een consumenten GP100 8)7

Serieuze vraag want ik volg die site helemaal niet.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Werelds schreef op donderdag 13 april 2017 @ 11:03:
[...]

Dat zal een Shield zijn.

Wat denkt Videocardz nu weer dat een "Titan Xpp" is? Denken ze nog steeds aan een consumenten GP100 8)7

Serieuze vraag want ik volg die site helemaal niet.
Zal gewoon sarcasme zijn, gezien de nogal verwarrende naamgeving van de laatste paar titans. :)

Nieuwe shield portable zou wel top zijn.

Acties:
  • 0 Henk 'm!

  • zabuza134
  • Registratie: Oktober 2011
  • Laatst online: 30-03-2023
ColinZ schreef op donderdag 6 april 2017 @ 16:34:
[url="https://https://videocardz.com/68039/nvidia-launches-titan-xp-with-3840-cuda-cores"]Nieuwe Titan XP krijgt volledig ingeschakelde GP102[/url].

3840 cuda cores
11.4 Gbps 12 GB GDDR5X

Was wel te verwachten na de 1080Ti lancering.
beetje jammer dat ik de eerste titan x(pascal) al had gekocht toen (weetje wel degene die trager is dan een 1080ti -.-)
ach ja het is wel nog steeds een goede kaart alleen jammer van het prijs kaartje

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

zabuza134 schreef op donderdag 13 april 2017 @ 12:20:
[...]


beetje jammer dat ik de eerste titan x(pascal) al had gekocht toen (weetje wel degene die trager is dan een 1080ti -.-)
ach ja het is wel nog steeds een goede kaart alleen jammer van het prijs kaartje
Dat zag je met eerdere Titans ook, het is gewoon het snelste wat Nvidia op dat moment heeft (of wil releasen) en daar betaal je dus ook voor. Dus het moment dat je de kaart koopt zou je moeten weten dat hij naar een klein aantal maanden een stuk minder waard is (snel is hij nog steeds :P).

Acties:
  • 0 Henk 'm!

  • Ozbro89
  • Registratie: Oktober 2011
  • Laatst online: 01-01 09:24
Wat denken jullie dat er gaat gebeuren met de prijzen van de 1080? Zijn die weer gestabiliseerd? Of gaan ze nog meer naar beneden bij goede beschikbaarheid 1080ti?

Ook gezien release van Vega volgend maand.

Acties:
  • +2 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
zabuza134 schreef op donderdag 13 april 2017 @ 12:20:
[...]


beetje jammer dat ik de eerste titan x(pascal) al had gekocht toen (weetje wel degene die trager is dan een 1080ti -.-)
ach ja het is wel nog steeds een goede kaart alleen jammer van het prijs kaartje
Dat weet je toch op voorhand? (en anders weet je het nu voor naar de toekomst toe :P)
Die Titan X 2016 is voor 8~ maanden de sterkste geweest. Dat is nu net waar je dat extra geld voor betaalt. Als je die 8 maanden kan wachten, kan je de Ti versie kopen die ongeveer even sterk is.

[ Voor 33% gewijzigd door SmokingCrop op 16-04-2017 19:10 ]


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 10-10 11:53
Ik weet niet hoe betrouwbaar de bron is maar ik las dit bij de buren:

https://nl.hardware.info/...rten-al-in-derde-kwartaal

Het lijkt mij toch niet? Of ze komen met een laag segment kaartje om wat dingen te testen misschien?
Dat deden ze ook met de 750 toch? of zit ik nu helemaal fout.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
nVidia's huidige tactiek is eerst de high-end Tesla GPU en pas maanden later GeForce en Quadro GPU's van dezelfde serie. Zo ging dat de laatste generatie ook, met de eerste Pascal meer dan een jaar geleden en pas een GTX 1080 Ti een maand geleden.

Volta dit jaar is dan ook wel mogelijk, maar als je verwacht een betaalbare high-end gaming videokaart op de Volta te krijgen dit jaar dan zul je wel bedrogen gaan uitkomen. Ga dus eerst uit van een high-end Tesla chip voor bijvoorbeeld SuperComputers. Daar zit het grote geld, maar daar hebben wij helemaal niks aan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 10-10 11:53
Ja dat is idd ook mogelijk om eerst een Tesla te maken.

Maar stel dat ze hetzelfde pad volgen als bij Pascal.
Dan zou bijvoorbeeld de tesla 21 september uitkomen en dan pak em beet 5-6 maanden later de high end starters als in 1170-1180 (ik noem ze maar ff zo).
En dan eind 2018 de ti versie.
Die verwachting heb jij hierbij?

Voor mn gevoel is Volta dan best snel op de laatste Pascal kaart. maar dat kan bedrog zijn natuurlijk.

Acties:
  • +2 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zoiets idd, eerst Tesla ergens richting einde dit jaar. Dan kan het best nog eens een half jaar duren voor een GV104, dan iets van twee maanden later een GV106, twee maanden daarna GV102 als Titan Volta, twee maanden later GV107 en twee maanden daarna weer een GV102 maar dan als goedkopere Ti. Dan zitten we dus nog iets van een jaar verwijderd voor de opvolger van de GP104 aka GTX 1070 en GTX 1080 en nog iets van ander half jaar voor een opvolger van de GTX 1080 Ti. Hoe het precies gaat zijn zal ook aan AMD liggen, heeft AMD iets beters dan zal nVidia meer haast maken. Heeft AMD niks interessants heeft nVidia ook geen haast.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Cyclonist
  • Registratie: Oktober 2005
  • Laatst online: 01:31
Ik heb niets meer gehoord van de 1060's met grotere geheugen bandbreedte (8 > 9), is daar al iets over bekend geworden? Het zou een 'stille update' betreffen die alleen met een sticker op de doos te herkennen is.

Maar ik ben wel benieuwd hoeveel % dat aan performance increase zou kunnen opleveren. Jammer dat er geen 1060 Ti komt :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Cyclonist schreef op donderdag 20 april 2017 @ 16:59:
Ik heb niets meer gehoord van de 1060's met grotere geheugen bandbreedte (8 > 9), is daar al iets over bekend geworden?
Ja ze hebben sneller geheugen. :p Als je wil weten als ze te koop zijn, zoek je de productnaam op ook wel SKU genoemd en zoek je die op Google of in de pricewatch op.
Het zou een 'stille update' betreffen die alleen met een sticker op de doos te herkennen is.
Nee het lijkt mij dat elke fabrikant wel een andere naam en SKU aan het product geeft.
https://www.techpowerup.c...060-9-gbps-graphics-cards
https://www.techpowerup.c...-with-9-gbps-gddr5-memory
Beide nieuwsberichten zijn ook net geschreven.
Maar ik ben wel benieuwd hoeveel % dat aan performance increase zou kunnen opleveren.
Klein verschil, vast wel ergens te vinden omdat er vast meerdere mensen zijn die het geheugen wel eens hebben overgeklokt van 2GHz naar 2,25GHz.
Jammer dat er geen 1060 Ti komt :)
Wat is een GTX 1060 Ti volgens jouw? Een verder gecastreerde GTX 1070? Dus eigenlijk een GTX 1070 LE?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Cyclonist
  • Registratie: Oktober 2005
  • Laatst online: 01:31
Thanks! Die TechPowerUp berichten kwamen mooi op tijd binnen :)

Ik heb geen suggesties voor een GTX 1060 Ti, voor de midden range is het al een tijdje geleden dat er een Ti versie is uitgebracht. Nu de RX580 op meerdere vlakken de 1060 voorbij is gestreefd zou NV natuurlijk nog een verder gepushte versie uit kunnen brengen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 10-10 16:17
beebie121 schreef op donderdag 20 april 2017 @ 11:19:
Ik weet niet hoe betrouwbaar de bron is maar ik las dit bij de buren:

https://nl.hardware.info/...rten-al-in-derde-kwartaal

Het lijkt mij toch niet? Of ze komen met een laag segment kaartje om wat dingen te testen misschien?
Dat deden ze ook met de 750 toch? of zit ik nu helemaal fout.
Gerucht op basis van één chinese bron die gewoon lijkt te speculeren. Een herhaling van de 750 (Ti) zou leuk zijn (echt een kaart 'for the poeple'), maar zoals The Mask al terecht opmerkt lijkt Nvidia tegenwoordig juist in het duurdere segment te beginnen.

Ik zou persoonlijk geen 2060/2070/2080 op basis van Volta in Q3 verwachten (bron heeft het over Geforce 20, Geforce 11 lijkt mij persoonlijk logischer).

Dat zou echt een trendbreuk zijn. Een refresh met de bekende beperkte snelheidswinst (15% relatief als ik me niet vergis, heb het even niet nagekeken) en dan pas daarna Volta in de vorm van de 30x/12x serie is een stuk traditioneler. In mei/juni zal er wel wat meer informatie beschikbaar komen.

Aangezien een refresh voor de deur staat zie ik Nvidia eigenlijk niet reageren op de rx 580 met een 1060 Ti. Dat zal wel gecorrigeerd worden door de positionering van de 2060/1160, die in ieder geval voor het back-to-school seizoen beschikbaar moet zijn. Dat kan geen kwaad want de 1060 is nu echt een bende (3 GB, 6 GB, 6 GB snel...)

[ Voor 30% gewijzigd door sdk1985 op 20-04-2017 22:27 . Reden: verduidelijking 10>20 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Cyclonist schreef op donderdag 20 april 2017 @ 20:02:

Ik heb geen suggesties voor een GTX 1060 Ti, voor de midden range is het al een tijdje geleden dat er een Ti versie is uitgebracht. Nu de RX580 op meerdere vlakken de 1060 voorbij is gestreefd zou NV natuurlijk nog een verder gepushte versie uit kunnen brengen.
Dat doen ze dus nu met een GTX 1060 9Gbps, die zou je ook prima GTX 1060 Ti kunnen noemen, het is immers niet meer dan een naam. Meer streamprocessors inschakelen kan iig niet, aangezien alles al is ingeschakeld. Hogere kloksnelheid is ook niet echt mogelijk, aangezien de custom versies al rond de 2GHz uitkomen. Enige wat je dan zou kunnen doen is dus sneller geheugen, wat ze hebben gedaan of dus een GTX 1070 LE maken en die GTX 1060 Ti noemen. Maar als de yields goed zijn en de concurrent ook niks heeft in dit segment kun je dat zelf beter ook niet doen. Simpelweg omdat je dan chips die je als GTX 1070 had kunnen verkopen verder gaat castreren om met minder winst als GTX 1060 Ti te verkopen. Dat is niet slim natuurlijk.
sdk1985 schreef op donderdag 20 april 2017 @ 22:17:
Ik zou persoonlijk geen 2060/2070/2080 op basis van Volta in Q3 verwachten (bron heeft het over Geforce 20, Geforce 11 lijkt mij persoonlijk logischer).
GeForce 2000 serie lijkt mij ook logischer, maar het is maar een naam, alles kan ook opgeschoven worden, daarom is het gemakkelijker om over de GPU naam te praten. In geval van een GeForce Volta GPU, dus GVxxx. Waarbij het logisch is dat GV100 gebruikt voor zakelijke toepassingen, GV102 de enthousiast gaming en workstation GPU is, GV104 de high-end gaming GPU, GV106 de mainstream gaming GPU en GV107 de instap gaming GPU.
Dat zou echt een trendbreuk zijn. Een refresh met de bekende beperkte snelheidswinst (15% relatief als ik me niet vergis, heb het even niet nagekeken) en dan pas daarna Volta in de vorm van de 30x/12x serie is een stuk traditioneler. In mei/juni zal er wel wat meer informatie beschikbaar komen.
Geruchten over Volta zijn er nu al en refresh lijkt alleen dus een geheugenboost te worden onder dezelfde naam. Ik zou niet nog een refresh verwachten. Pascal is immers ook al een refresh van Maxwell op een kleiner productieproces, om daar nog een refresh van te maken dan gaat nVidia qua architectuur wel heel ver op AMD achterlopen. Huidige Pascal kaarten zijn ook eigenlijk allemaal op DX11 en ouder gericht en doen het niet echt goed onder DX12 en Vulkan, dus nog een hele generatie uitbrengen welke hierop gebaseerd is, is best wel onlogisch. Ik zie het niet gebeuren. Volta zakelijk dus einde dit jaar en gaming begin volgend jaar tot ergens eind volgend jaar voor de laatste versies, lijkt mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op donderdag 20 april 2017 @ 23:37:
Geruchten over Volta zijn er nu al en refresh lijkt alleen dus een geheugenboost te worden onder dezelfde naam. Ik zou niet nog een refresh verwachten. Pascal is immers ook al een refresh van Maxwell op een kleiner productieproces, om daar nog een refresh van te maken dan gaat nVidia qua architectuur wel heel ver op AMD achterlopen. Huidige Pascal kaarten zijn ook eigenlijk allemaal op DX11 en ouder gericht en doen het niet echt goed onder DX12 en Vulkan, dus nog een hele generatie uitbrengen welke hierop gebaseerd is, is best wel onlogisch. Ik zie het niet gebeuren. Volta zakelijk dus einde dit jaar en gaming begin volgend jaar tot ergens eind volgend jaar voor de laatste versies, lijkt mij.
Aan de andere kant, het heeft wel gewerkt de afgelopen jaren. AMD heeft nogal wat klappen gekregen bij hun GPU tak de laatste jaren, op het moment dat ze na jaren van zeer veel innovatie in ontwerp en architectuur, en de bijbehorende kosten moesten gaan cashen toen GCN er eenmaal was. Juist toen kwamen de problemen. Ze zijn nu eigenlijk weer terug bij af met het "3000 series vs de 8800's" scenario.

Ik zou het ook niet erg vinden als Nvidia nu eindelijk eens met een architectuur komt die DX12 daadwerkelijk kan gebruiken. Dat zal dus onder andere een hardware scheduler worden om renderindstructies over cores te kunnen verdelen. Voor professionele applicaties (waar uiteraard het echte geld zit) is dat al zinvol, voor games ook steeds meer nu de API's er eindelijk gebruik van kunnen maken. Overigens zou het natuurlijk ook zeer amusant zijn als Volta GPU's merkbaar minder gaan presteren bij Nvidia Gameworks titels omdat ze tegen dezelfde problemen aan gaan lopen als AMD GCN based GPU's. Dat is een bonus. :+

Ik heb er ook weinig twijfel over dat Volta eerst professioneel zal gaan, en daarna uit zal rollen afhankelijk van hoe sterk Vega is. Is vega meh, dan komen de mainstream GPU's misschien eerst. De enthousiast modellen krijgen dan misschien een refresh, een GTX1070Ti ofzo. Is Vega zeer goed dan eerst enthousiast Volta. Ik denk alleen dat we dit jaar misschien alweer een Titan X gaan zien, maar nu een Volta based, en uiteraard cut down zodat Nvidia volgend jaar nog een Titan X kan lanceren. Uiteraard elke keer voor €1200. Dat blijven ze denk ik doen totdat niemand ze meer koopt. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 10-10 16:17
-The_Mask- schreef op donderdag 20 april 2017 @ 23:37:
[...]

Dat doen ze dus nu met een GTX 1060 9Gbps, die zou je ook prima GTX 1060 Ti kunnen noemen, het is immers niet meer dan een naam. Meer streamprocessors inschakelen kan iig niet, aangezien alles al is ingeschakeld. Hogere kloksnelheid is ook niet echt mogelijk, aangezien de custom versies al rond de 2GHz uitkomen. Enige wat je dan zou kunnen doen is dus sneller geheugen, wat ze hebben gedaan of dus een GTX 1070 LE maken en die GTX 1060 Ti noemen. Maar als de yields goed zijn en de concurrent ook niks heeft in dit segment kun je dat zelf beter ook niet doen. Simpelweg omdat je dan chips die je als GTX 1070 had kunnen verkopen verder gaat castreren om met minder winst als GTX 1060 Ti te verkopen. Dat is niet slim natuurlijk.
De Ti zijn traditioneel kaarten met soort van high-end performance voor een lagere prijs (denk aan Ti 4409, GTX 660 Ti). Die GTX 1060 9 Gbps red dat IMO niet.

Verder ben ik het met de analyse eens.

Wat ik wel nog zie gebeuren is dat straks in Juni-Augustus de GTX 1080 hernoemd wordt naar GTX 2070/1170. Er is al 300 euro af, die laatste 100 euro kan er ook nog wel af. In dat geval is een kunstmatig beperkte 1070 nog wel een aardige vervanger voor de 1060.

Maar daar moet dan wel reden toe zijn (lees Vega moet het goed doen). Met goed doen bedoel ik dat hij goed moet verkopen. Dus zowel de prestatie, beschikbaarheid als prijs moeten goed zijn. Zo niet dan is er weinig reden om erop te reageren. Intel reageert bijvoorbeeld tot nu toe aardig flauwtjes op Ryzen (alhoewel er ineens wel een hyperthreading Pentium is).
DaniëlWW2 schreef op vrijdag 21 april 2017 @ 00:52:


Ik zou het ook niet erg vinden als Nvidia nu eindelijk eens met een architectuur komt die DX12 daadwerkelijk kan gebruiken. Dat zal dus onder andere een hardware scheduler worden om renderindstructies over cores te kunnen verdelen. Voor professionele applicaties (waar uiteraard het echte geld zit) is dat al zinvol, voor games ook steeds meer nu de API's er eindelijk gebruik van kunnen maken. Overigens zou het natuurlijk ook zeer amusant zijn als Volta GPU's merkbaar minder gaan presteren bij Nvidia Gameworks titels omdat ze tegen dezelfde problemen aan gaan lopen als AMD GCN based GPU's. Dat is een bonus. :+
Ik kan eigenlijk niet meer enthousiast worden van DX12. In de twee games waar ik met DX12 heb getest (lees Civilzation VI en Battlefield One) bleek DX12 helemaal niets te doen. Van de belofte van meer performance op de vorige generatie kaarten heb ik ook niets kunnen ontdekken.

Het lijkt erop dat devs er niks mee kunnen of er geen tijd/zin in hebben. Een gameworks achtige aanpak lijkt sneller omarmt te worden dan het bare metal concept. Eigenlijk wel logisch want dat de mogelijkheid er nu is betekent niet dat ineens elke studio de kunde heeft er iets mee te doen.

[ Voor 28% gewijzigd door sdk1985 op 21-04-2017 01:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sdk1985 schreef op vrijdag 21 april 2017 @ 01:53:

Ik kan eigenlijk niet meer enthousiast worden van DX12. In de twee games waar ik met DX12 heb getest (lees Civilzation VI en Battlefield One) bleek DX12 helemaal niets te doen. Van de belofte van meer performance op de vorige generatie kaarten heb ik ook niets kunnen ontdekken.
Ja, omdat je een Nvidia GPU gebruikt. Nvidia GPU's ondersteunen de belangrijkste feature van DX12 dus niet. Dat is de mogelijkheid om renderinstructies over verschillende cores uit te smeren, en zo veel hogere framerates te halen uit je GPU. Dat kan de software matige scheduler van Nvidia niet. Die moet alle instructies op een core ontvangen en schuift een klein beetje naar een paar andere cores. Een AMD GPU haar driver schuift de instructies gewoon naar een core die op het moment even niks doet. Daarom zijn AMD GPU's zoveel sneller in DX12, en schalen ze extra op met Ryzen, want meer cores. Nvidia gaat daar niet aan ontsnappen, want DX11 gaat ook verdwijnen en vervangen worden door DX12 voor steeds meer games. De aanpak die DX12 faciliteert is al jaren de standaard voor console games, en dat komt ook gewoon naar de PC.
Het lijkt erop dat devs er niks mee kunnen of er geen tijd/zin in hebben. Een gameworks achtige aanpak lijkt sneller omarmt te worden dan het bare metal concept. Eigenlijk wel logisch want dat de mogelijkheid er nu is betekent niet dat ineens elke studio de kunde heeft er iets mee te doen.
Gameworks is een gedrocht, dat mag je onderhand toch wel stellen. Welke game werd er nu werkelijk beter van? De Witcher 3 waar iedereen de Nvidia opties uit zet zodat de game speelbaar is? Of Batman: Arkham knight wat zo slecht draaide dat de game tijdelijk van steam werd gehaald? Dat had zeker ook helemaal niks met Gameworks te maken. Moet ik nog doorgaan over AC Unity, Fallout 4 of Gears of War 4, games die ook absoluut waardeloos draaide zonder reden, en uiteraard over Gameworks beschikte...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 10-10 16:17
DaniëlWW2 schreef op vrijdag 21 april 2017 @ 02:17:
[...]

Ja, omdat je een Nvidia GPU gebruikt. Nvidia GPU's ondersteunen de belangrijkste feature van DX12 dus niet. Dat is de mogelijkheid om renderinstructies over verschillende cores uit te smeren, en zo veel hogere framerates te halen uit je GPU. Dat kan de software matige scheduler van Nvidia niet. Die moet alle instructies op een core ontvangen en schuift een klein beetje naar een paar andere cores. Een AMD GPU haar driver schuift de instructies gewoon naar een core die op het moment even niks doet. Daarom zijn AMD GPU's zoveel sneller in DX12, en schalen ze extra op met Ryzen, want meer cores. Nvidia gaat daar niet aan ontsnappen, want DX11 gaat ook verdwijnen en vervangen worden door DX12 voor steeds meer games. De aanpak die DX12 faciliteert is al jaren de standaard voor console games, en dat komt ook gewoon naar de PC.
Inderdaad een GTX 1070, maar als ik Google op Battlefield One benchmarks dan zie ik bij de RX 480 eigenlijk ook geen gains. Voor Civ VI uberhaupt geen benchmarks kunnen vinden.

edit: Bij Civ VI alleen op medium, zal wel een driver bug zijn: https://nl.hardware.info/...pus-directx-12-prestaties . Die achteruitgang heb ik overigens niet kunnen vaststellen, haalde exact dezelfde fps (circa 140 op 2560x1080).
Gameworks is een gedrocht, dat mag je onderhand toch wel stellen. Welke game werd er nu werkelijk beter van? De Witcher 3 waar iedereen de Nvidia opties uit zet zodat de game speelbaar is? Of Batman: Arkham knight wat zo slecht draaide dat de game tijdelijk van steam werd gehaald? Dat had zeker ook helemaal niks met Gameworks te maken. Moet ik nog doorgaan over AC Unity, Fallout 4 of Gears of War 4, games die ook absoluut waardeloos draaide zonder reden, en uiteraard over Gameworks beschikte...
Mja maar het punt is niet zozeer dat gameworks voor 'ons' goed is, maar dat het vanuit het oogpunt van de ontwikkelaar een geweldig systeem. Je hoeft een hele library aan effecten niet zelf te ontwikkelen en je krijgt nog on-site support ook.

Het bare-metal systeem is het tegenovergestelde. In theorie kan alles maar je kan nergens met je vragen terecht.

Een standaard api met support zal eigenlijk altijd beter omarmd worden dan een open systeem waarbij je zelf aan de slag moet, tenzij dat systeem jaren stabiel blijft en het dus loont erin te investeren. Maar dan nog heb je de kennis nodig. Als je googled op dx12 implementation dan kom je op de gameworks documentatie https://developer.nvidia.com/dx12-dos-and-donts :+ .

[ Voor 78% gewijzigd door sdk1985 op 21-04-2017 14:23 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sdk1985 schreef op vrijdag 21 april 2017 @ 14:09:
[...]

Inderdaad een GTX 1070, maar als ik Google op Battlefield One benchmarks dan zie ik bij de RX 480 eigenlijk ook geen gains. Voor Civ VI uberhaupt geen benchmarks kunnen vinden.
Een RX480 hoort een GTX1070 dan ook niet te verslaan in de meeste scenario's. Qua BF1 kan ik dus echt geen recente benchmark vinden waar ze DX11 en DX12 eens naast elkaar hebben gezet, en beide optimaal laten presteren in een realistisch scenario. Dat zou dus een GTX1060 zijn met een 7600K OC, en een RX580 met een Ryzen 5 1600 OC. Beide naar het maximum pushen, en ideaal gezien ook stock voor controle. Dan zowel DX11 als DX12 testen, voor beide systemen. Zo kan je tenminste bepalen of een game überhaupt goed gebruikt maakt van DX12 en dus relevant is. Zo ja, dan zal de RX580 weglopen bij DX12, en vergelijkbaar zijn of licht verliezen in DX11. Dat heeft uiteindelijk ook met meer dan met drivers, API, game optimalisatie etc te maken. Polaris 10/20 is een grotere chip, heeft een niet verwaarloosbaar groter aantal transistoren, en is op een iets kleiner proces gebakken. Die zal winnen als die voluit kan gaan. Dat is dus het scenario van geoptimaliseerde DX12 titel die de scheduler van GCN goed kan gebruiken. Als de RX580 vervolgens in de buurt komt van de GTX1070, dan heb je een serieus optimalisatieprobleem aan de kant van Nvidia voor die titel in DX12.

CiV 6 heb ik wel voor je.
Afbeeldingslocatie: https://tweakers.net/ext/f/ldhBwCA7UmvQLcryPd7XNGSC/full.jpg
Anandtech, hun Ryzen 5 review met DX12. Auw...
Dat is dus optimalisatie en de softwarematige scheduler die het niet aankan in het geval van de GTX1080.
Mja maar het punt is niet zozeer dat gameworks voor 'ons' goed is, maar dat het vanuit het oogpunt van de ontwikkelaar een geweldig systeem. Je hoeft een hele library aan effecten niet zelf te ontwikkelen en je krijgt nog on-site support ook.

Het bare-metal systeem is het tegenovergestelde. In theorie kan alles maar je kan nergens met je vragen terecht.

Een standaard api met support zal eigenlijk altijd beter omarmd worden dan een open systeem waarbij je zelf aan de slag moet, tenzij dat systeem jaren stabiel blijft en het dus loont erin te investeren. Maar dan nog heb je de kennis nodig.
En hoe is het precies voordelig voor een gamedeveloper, of de uitgever, om volledig afgebrand te worden omdat de game niet te spelen is? PR schade, refunds, mensen die de game niet kopen want het is onspeelbaar, veel extra developertijd na de release om de game speelbaar te krijgen en als mensen het dan kopen, dan zoeken ze een fikse korting. Dat is Gameworks, losstaand van AMD GPU's bewust minder te laten presteren, en oudere Nvidia's GPU's ook. Kortom, het is een verschrikkelijke dienst, behalve voor Nvidia bij release benchmarks omdat de waardeloos draaiende game net iets minder waardeloos draait op een veel te dure Nvidia GPU. Koop dus Nvidia, onze drivers hebben deze game speelbaar gekregen. 8)7

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
DaniëlWW2 schreef op vrijdag 21 april 2017 @ 15:12:
CiV 6 heb ik wel voor je.
[afbeelding]
Anandtech, hun Ryzen 5 review met DX12. Auw...
Dat is dus optimalisatie en de softwarematige scheduler die het niet aankan in het geval van de GTX1080.
Ik vind dat je die conclusie erg snel trekt.

Als nvidia de cpu gebruikt en amd gcn hardware zou je verwachten dat amd een hoop cpu tijd over heeft en dus ook met quads significant beter zou moeten presteren, en dat is niet het geval.

Waarschijnlijk loopt amd in die test ook tegen een cpu limit op, je weet het alleen niet zeker omdat een fury en een 480 in de praktijk vaak dicht bij elkaar in de buurt zitten.

Voor hetzelfde geld komt nvidia straks met een patch die ze 10% betere performance op ryzen cpu's geeft en zitten ze ook tegen die 70 fps aan te hikken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

haarbal schreef op vrijdag 21 april 2017 @ 16:01:
[...]

Ik vind dat je die conclusie erg snel trekt.

Als nvidia de cpu gebruikt en amd gcn hardware zou je verwachten dat amd een hoop cpu tijd over heeft en dus ook met quads significant beter zou moeten presteren, en dat is niet het geval.

Waarschijnlijk loopt amd in die test ook tegen een cpu limit op, je weet het alleen niet zeker omdat een fury en een 480 in de praktijk vaak dicht bij elkaar in de buurt zitten.

Voor hetzelfde geld komt nvidia straks met een patch die ze 10% betere performance op ryzen cpu's geeft en zitten ze ook tegen die 70 fps aan te hikken.
Misschien vind jij de conclusies kort door de bocht, maar kijk ook eens naar de GTX1060 vs GTX1080 bij de Intel CPU's. Daar is het ook slechter voor de Nvidia GPU's dan de AMD's. Bij Nvidia was de R5 1500X ook getest en daar heb je al veel betere prestaties dan bij Intel.

Hieruit kan je logischerwijs twee dingen concluderen. Ten eerste maakt CiV 6 duidelijk gebruik van meer dan vier cores. Het optimale is tenminste meer dan 4c/8t gezien het verschil tussen de 1500X en 1600X. Komen er 6c/12t beschikbaar dan is er opeens ruimte voor veel meer renderinstructies voor de GPU omdat alle andere berekeningen afgeschoven worden op andere cores. Dat is het moment dan de AMD's verder uitlopen. Ze lagen al voor omdat Nvidia's drivers een iets grotere CPU overhead hebben, maar nu lopen ze verder uit.

Ten tweede, aangezien de zeer vergelijkbare prestaties tussen de GTX1060 en GTX1080 bij zowel Intel als AMD moet geconcludeerd worden dat de GTX1080 behoorlijk gebottlenecked wordt, door zowel Intel als AMD bij deze game en DX12. Anders zou deze GPU met gemak de anderen achter zich hebben gelaten.

Het magische Nvidia driver verhaal slik ik in deze ook niet zomaar. Deze game is al een halfjaar geleden verschenen en nog steeds presteerde de Nvidia GPU's minder dan de RX480 in DX12, op Intel CPU's. Onderhand zou je dan toch verwachten dat die driver van Nvidia, die dit probleem op zou moeten lossen, gematerialiseerd zou zijn...

Ik zou zeggen, kijk wat Nvidia er dus zelf over te zeggen heeft:
https://developer.nvidia.com/dx12-dos-and-donts

Ze zeggen nota bene zelf dat in DX12 de driver niet langer meer CPU ladingen uitspreid en dat de developer het zelf moet doen.
1)Don’t rely on the driver to parallelize any Direct3D12 works in driver threads
2)On DX11 the driver does farm off asynchronous tasks to driver worker threads where possible – this doesn’t happen anymore under DX12
Ja, dit is ook een extreem voorbeeld van DX12 vs DX11 prestaties, maar het is wel een trend die al jaren bestaat. Een AMD GCN gebaseerde GPU presteert systematisch beter dan een vergelijkbare Nvidia GPU in een DX12 titel. Geen "superieure" Nvidia driver die hier iets aan kan doen. Zie ook de speculatie hier een aantal reacties boven dat Volta wel eens terug kan gaan naar een hardware scheduler. Dat is namelijk de oplossing voor dit probleem.


Dan is er nog Gameworks. Gameworks plaatst systematisch, onnodige extra berekeningen op de CPU core die word gebruikt voor renderinstructies. DX11 games zijn allemaal afhankelijk van een core voor die instructies. Nvidia haar scheduler kan een klein beetje van die lading naar andere cores verplaatsen. Daardoor presteren Nvidia GPU's bijvoorbeeld beter in waardeloos geoptimaliseerde games. Met Gameworks titels heb je vaak te maken met bijvoorbeeld PhysX, de mislukte physics engine omdat AMD er geen gebruik van mag maken op haar GPU's. Nooit een standaard geworden, en dat zal ook nooit gebeuren. Die berekeningen komen bij een AMD GPU dus terecht op de CPU terwijl ze bij de Nvidia veel efficiënter op de GPU worden berekent. Gooi maar genoeg van dergelijke berekeningen in een game en het is onspeelbaar op een AMD GPU, en de Nvidia GPU krijgt het moeilijk. Dat ging vaak ook met Tesselation, en die hebben we nu ook al vaak gezien.

Zou het daarbij blijven dan is het al niet netjes. In de praktijk blijken games die gebruik maken van Gameworks vaak totale treinwrakken te zijn die gewoon nergens goed op draaien en enorme problemen hebben met CPU bottlenecks die niet logisch te verklaren zijn. Altijd een core die volledig overbelast is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
Ik zie ook wel dat de 1060 en 1080 hetzelfde presteren, ik ben niet blind, maar amd loopt ook tegen de cpu bottleneck aan, alleen zijn ze op ryzen cpu's ~8% sneller.

Jij leidt hieruit af dat nvidia een groot probleem heeft?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

haarbal schreef op vrijdag 21 april 2017 @ 17:20:
Ik zie ook wel dat de 1060 en 1080 hetzelfde presteren, ik ben niet blind, maar amd loopt ook tegen de cpu bottleneck aan, alleen is op ryzen cpu's ~8% sneller.

Jij leidt hieruit af dat nvidia een groot probleem heeft?
Ja. De prestaties voor de GTX1060, Fury X en RX480 zijn ongeveer wat je mag verwachten voor deze game. Ruwweg vergelijkbare GPU's en ietwat vergelijkbare prestaties. De AMD's winnen omdat ze in de regel beter presteren in DX12. Tot dusver is het allemaal duidelijk en logisch.

De GTX1080 had hier al die andere GPU's moeten slopen, en behoorlijk ook. 90+ fps is denk ik een redelijke inschatting van wat we zouden moeten zien hier. In plaats daarvan zien we helemaal niks. Dat is een CPU bottleneck. Het maakt ook duidelijk hoe zinloos het eigenlijk is om een GTX1080 te testen op 1080p.

Pakken we dan een 4K test, dan blijft de GTX1080 hetzelfde presteren terwijl de GTX1060 GPU's wegzakt en de Intel CPU's inlopen.
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph11244/86271.png
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph11244/86319.png

De AMD's zakken ook weg. Kan je allemaal hier vinden.
http://www.anandtech.com/...twelve-threads-vs-four/11

Hier is de GPU duidelijk de bottleneck geworden in alle scenario's. Wat leer je hier nu van?

Ten eerste is CiV 6 zwaar voor de CPU, en behoorlijk multithreaded. Ik draaide net even de benchmark met mijn R7 1700 @3,5ghz, alles maxed out, 4xMSAA 1080p en DX12 mode. Kijk zelf maar naar de belasting. Het was helaas wel met een oude 7950 @880mhz, dus er kan nog veel meer bij qua load. De GPU was een non factor in deze test en zat net boven de 20 frames.
Afbeeldingslocatie: https://tweakers.net/ext/f/SVEKW2V67kETM3YgqRWnuW4Y/thumb.jpg
Afbeeldingslocatie: https://tweakers.net/ext/f/KA8wKlnQOG0WANsNOersNQtS/thumb.jpg
Afbeeldingslocatie: https://tweakers.net/ext/f/gp1vreYQIMqXeQT9xjykmXac/thumb.jpg

De load op de CPU is al behoorlijk, terwijl de GPU deze bench absoluut niet aankan. Ook dat alle cores en threads werden aangesproken mag opvallend genoemd worden. Dat is pas zeer recent en begint nu een beetje door te dringen voor gaming.

Ook maakt dit duidelijk dat de GTX1080 hier keihard CPU bottlenecked is, omdat de Nvidia driver nog steeds vrijwel alle renderinstructies op een core gooit, omdat er geen alternatief is. Die ene core moet dus extreem snel zijn om een GTX1080 te kunnen voorzien, en dat geld al helemaal voor een game die zwaar is op de CPU. Dat is waarom in zoveel "reviews" de laatste tijd, je de 7700k kan zien uitlopen op de rest. Ze testen alleen maar Nvidia en 1080p. Daarmee test je geen CPU prestaties, maar hoe goed de Nvidia scheduler is in renderinstructies uitvoeren als deze een hogere clockspeed ter beschikking heeft. Als je eenmaal begrijp hoe dit werkt, dan zie je de stupiditeit van al die GTX1080 testen. Je test uiteindelijk alleen singlecore prestaties terwijl multicore steeds belangrijker aan het worden is. 8)7

Dit is ook wel het moment om te wijzen op het probleem. Als je nog 20 minuten hebt dan is dit zeer leerzaam. Dit is hoe AMD en Nvidia drivers grofweg werken. :)
YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling &amp...

De prestaties die de GTX1080 laat zien zijn alleen wel illustratief voor de toekomst. Stel je voor dat er over een paar jaar veel games zo zwaar op de CPU zijn, behoorlijk multithreaded en DX12 only. Dat gaat niet lekker draaien op een GTX1080 omdat de GPU grotendeels gelimiteerd is op een core. Dan kan je een game hebben met allerlei geavanceerde physics, betere hitboxes, dynamische lichteffecten etc, maar de GPU is bottlenecked en kan het dus niet aan.


Waar wil ik nu naartoe vraag je je af? Ik denk dat Volta om onder andere deze reden ook weer een hardwarematige scheduler zal krijgen. Ze beloven behoorlijke prestatiewinsten bij Nvidia bovenop Pascal. Ik zie niet waar ze die vandaan moeten gaan halen, tenzij de GPU gebruik kan maken van meerdere cores om geen bottleneck te vormen. Anders lopen ze gewoon vast op CPU prestaties, tenzij je een 7700k @5ghz hebt. Aangezien dit een zeer onrealistisch scenario is zal Nvidia iets behoorlijk moeten veranderen in hun GPU architectuur.

Klopt mijn vermoeden dan is DX11 over een paar jaar wat DX9 nog heel lang is geweest. De backup API voor weinig eisende games. Het maakt dan ook niet uit of je AMD of Nvidia hebt, je zal enorme framerates halen, puur vanwege je hardware, want veeleisend zullen die games niet zijn, of kunnen zijn omdat ze anders waardeloos draaien en gelimiteerd worden. DX12 zal dan snel de standaard worden, en Vulkan zal ook blijven. Het liefst zie ik Vulkan ook de standaard worden, maar dat zal denk ik niet gebeuren. DX12 is dan afdoende. Er zitten kennelijk ook al veel DX12 titels aan te komen, al is het maar omdat moderne games de extra cores goed kunnen gebruiken. Porten vanaf een console is ook lekker makkelijk met DX12. Zowel de XBONE als de PS4 zijn acht core based (AMD) en hebben een GCN GPU. Met DX12 hoef je geen trucjes meer uit te halen om de port draaiende te krijgen op twee cores, een voor de GPU en een voor de CPU gerelateerde berekeningen van de game. Op de PC wordt de hardware dan meer vergelijkbaar, maar veel sneller. In principe zou je dan ook primair voor de PC kunnen ontwikkelen en terugschalen voor de consoles zonder al te veel problemen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
Ik ben niet overtuigd, op 1080p heeft de RX 480 maar een 40% hogere framerate dan op 4K, die wordt net zo goed zwaar beperkt door de cpu, alleen op een 8% hogere framerate.

Die 8% betere prestaties zou door de hardware scheduler kunnen komen, maar kan ook een andere reden hebben, hoe dan ook lijkt dit verschil me te beperkt om een hardware scheduler noodzakelijk te maken voor een volgende architectuur, al gaat het verhaal dat nvidia weer een scheduler in gaat bouwen in de volgende architectuur al een eeuwigheid de ronde.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

haarbal schreef op vrijdag 21 april 2017 @ 20:05:
Ik ben niet overtuigd, op 1080p heeft de RX 480 maar een 40% hogere framerate dan op 4K, die wordt net zo goed zwaar beperkt door de cpu, alleen op een 8% hogere framerate.

Die 8% betere prestaties zou door de hardware scheduler kunnen komen, maar kan ook een andere reden hebben, hoe dan ook lijkt dit verschil me te beperkt om een hardware scheduler noodzakelijk te maken voor een volgende architectuur, al gaat het verhaal dat nvidia weer een scheduler in gaat bouwen in de volgende architectuur al een eeuwigheid de ronde.
Ik heb er nog een gevonden, RX580 in CiV 6 bij de buren.
https://nl.hardware.info/...ilization-vin+-frametimes

Kijk eens naar de ultra 1080p settings.

Hoe bedoel je geen bottleneck. De RX580 zit gewoon in de buurt van de GTX1080Ti. :D _O-
De GTX1070 en 1080 die gelijk presteren is al een weggevertje, de 1080Ti die iets lager uitvalt kan ik niet verklaren. Wel mag duidelijk zijn dat de RX580, de GTX1060 behoorlijk achter zich laat, en de RX480 ook. Die is dus niet gelimiteerd door een i7 5960X @4ghz. De 1080 duidelijk wel en de 1080Ti gaat al helemaal mis.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De reviews van HWI moet je niet naar kijken verschillende driver versies en waarschijnlijk ook game versies door elkaar gegooid. Kan dus best zijn dat de meting van de GTX 1070 al een half jaar oud is, met een half jaar oude driver en half jaar oude game update, terwijl de RX 580 met de nieuwste driver en game update getest wordt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op vrijdag 21 april 2017 @ 23:27:
De reviews van HWI moet je niet naar kijken verschillende driver versies en waarschijnlijk ook game versies door elkaar gegooid. Kan dus best zijn dat de meting van de GTX 1070 al een half jaar oud is, met een half jaar oude driver en half jaar oude game update, terwijl de RX 580 met de nieuwste driver en game update getest wordt.
Point noted, maar de GTX1080Ti dan? Dat kan moeilijk een halfjaar oude driver zijn. Die presteerde nog minder dan de GTX1070 en 1080. Dat klopt al helemaal niet en dat lijkt me een understatement. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik heb niet eens zin om de reviews te lezen of het probleem te onderzoeken, aangezien HWI het toch niet gaat verbeteren. Ze weten wel dat het niet klopt maar het interesseert ze gewoon niet dat ze mensen onzin wijsmaken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Als ze inderdaad met oude drivers testen dan verklaart dat misschien ook de belachelijk lage score van de GTX980Ti. Althans dat hoop ik voor die kaart.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Asus GeForce GTX 1060 9Gbps en MSI GeForce GTX 1080 Gaming X 11Gbps review
https://www.computerbase....-1060-1080-speicher-test/

Wat direct ook opvalt is dat deze kleine Asus GTX 1060 9Gbps kaart een stuk stiller is als de oude GTX 1060 Strix met zijn veel grotere en duurdere koeler. Alleen maar omdat de Strix koeler maar anderhalve heatpipe van de vijf verbonden had met de GPU.

Overigens heeft deze Asus ook nog steeds geen heat spreader, maar omdat de heatpipes nu 90 graden gedraaid zijn is hebben wel meer heatpipes contact met de GPU. Waarschijnlijk drie van de vier, maar ze hebben de koeler er niet afgehaald, dus niet uit de review te halen helaas.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 10-10 16:17
DaniëlWW2 schreef op vrijdag 21 april 2017 @ 18:51:
[...]


Ten eerste is CiV 6 zwaar voor de CPU, en behoorlijk multithreaded. Ik draaide net even de benchmark met mijn R7 1700 @3,5ghz, alles maxed out, 4xMSAA 1080p en DX12 mode. Kijk zelf maar naar de belasting. Het was helaas wel met een oude 7950 @880mhz, dus er kan nog veel meer bij qua load. De GPU was een non factor in deze test en zat net boven de 20 frames.
[afbeelding]
[afbeelding]
[afbeelding]

De load op de CPU is al behoorlijk, terwijl de GPU deze bench absoluut niet aankan. Ook dat alle cores en threads werden aangesproken mag opvallend genoemd worden. Dat is pas zeer recent en begint nu een beetje door te dringen voor gaming.
Als je op heel veel cores een beetje load ziet dan is dit geen teken van een goede multithreaded game. Denk maar eens aan de loads tijdens je eerste quad core. Software die niet kon threaden zag je daar al voorbij komen als 25%, maar dan wel met load grafieken op al je cores (omdat hij bounced).

Wil je testen of een game multithreaded is dan kun je gaan spelen met het aantal beschikbare cores. Even uit Civ topic bij elkaar gezet:
Core scaling:
sdk1985 schreef op dinsdag 15 november 2016 @ 22:54:
Ik heb me ook even verdiept in de rendering performance van Civilization VI. Ik heb een behoorlijk rappe GTX 1070 (overgeclocked, FTW editie). Vervolgens heb ik V-sync uitgezet en ben ik gaan kijken wat de cpu impact doet op de framerate:

4 cores: 142 FPS
3 cores: 139 FPS
2 cores: 138 FPS (soms ook eventjes kort naar 141)
1 core: 70 FPS

Met andere woorden: Je kunt Civilization VI beter op een snelle dual-core spelen dan op een groter aantal threads waarbij de performance per thread lager ligt. Dit houdt in dat de huidige cpu's van AMD geen goed idee zijn (zoals gezegd heeft de FX 8150 een 45% achterstand tov de G4400 van 60 euro) maar ook de instap i5 modellen zijn daarmee geen goed idee. Een hoog geclockte i3 gaat een beter resultaat leveren. Aangezien de i3-6100 op 3.7 GHz draait lijkt me dat een top cpu voor deze game. Natuurlijk staat het je vrij om een duurdere i5 of i7 te pakken maar dan moeten die wel minimaal die snelheid halen.
Mhz scaling:
sdk1985 schreef op woensdag 16 november 2016 @ 21:37:


De bottleneck is de single threaded performance van mijn CPU, maar mijn systeem is heel erg goed in balans. De GTX 1070 wordt voor 98% belast op mijn standaard clocks.

4.4 Ghz: 142 fps @ 80% cpu usage
3.0 Ghz: 115 fps @ 60% cpu usage
2.0 Ghz: 79 fps @ 42% cpu usage (en dan daalt de gpu dus ook naar 55% usage)

Wat we hier zien is verder allemaal heel logisch. Doordat de main thread kracht tekort komt zakt de fps in en daardoor zit de rest van het systeem te wachten. Civilization VI is hiermee eigenlijk het schoolvoorbeeld van een single threaded game.
DX12 effect:
sdk1985 schreef op vrijdag 18 november 2016 @ 13:19:
Nieuwe test van de render engine met de DX12 modus na de patch:
4.4 GHz = 142 fps op 80% (identiek)
3.0 GHz =115 fps op 61% (identiek)
2.0 GHz = 79 fps op 47% (identiek)
Nieuwe conclusie: DirectX12 doet in Civilization VI niets voor je cpu.
Inderdaad met een Nvidia gpu, zou echter niet uit moeten maken. Immers als je bij AMD ineens wel een significant effect ziet met 3 en 4 cores dan zou dat eerder betekenen dat AMD relatief meer cpu kracht nodig heeft om tot dezelfde (of zelfs minder) fps te komen.

In ieder geval denk ik niet dat jij met de Ryzen 1700 ineens hele andere resultaten gaat zien. Op een schaal van 10-30 kun je niet zoveel zeggen. Dus ik zou wel even zorgen dat je in je gunstigste test minimaal 60 fps haalt. Desnoods door je resolutie te verlagen.


Dat gezegd hebbende is Civilization VI is dus nadrukkelijk geen voorbeeld van een core schalende game, sterker nog de release versie gebruikte één core om de saves te laden 8)7 . Dus daar zou ik persoonlijk je toekomstvisie mbt dx12 en betere multithreading niet aan ophangen. Om dat punt te maken denk ik dat je beter Battlefield One erbij kan pakken, die lijkt wel goed om te gaan met 6 cores (en dan ook te schalen).

Dan zijn er alleen nog, minimaal, drie problemen met die 'trend' . De eerste is dat dit het vooruitstrevende Dice is met belachelijke budgetten. De algemene adoptie van dit soort veranderigen is in de regel zo traag dat je beter niet kan rekenen op toekomstige voordelen voor je huidige hardware. Tegen de tijd dat die effecten er zijn is de hardware die je nu hebt alweer achterhaald.

Daarnaast schijnt het uberhaupt ook semi onmogelijk te zijn om een game echt goed te threaden, blijft altijd een soort zware main thread bestaan. Zeker in games als Civ. Bij veel pracht en praal in een shooter ligt dit wellicht anders.

Laatste dat ik kan bedenken is dat DX12 voorlopig uberhaupt niet omarmd wordt.

Dat laatste is niet heel gek want voor Nvidia kaarten lijkt het niets te doen, en rara wat gebruikt 61.5% van de steam gebruikers... Met een userbase van 3:1 is het de extra moeite al snel niet waard (AMD staat als 21.9%). Daarmee wordt het een kip-ei probleem wat pas verdwijnt wanneer Nvidia er iets aan doet. Dat is op zijn vroegst met Volta, wat dus nog minimaal 1 jaar duurt. Daarna moeten de ontwikkelaars er ook nog mee aan de slag.

[ Voor 20% gewijzigd door sdk1985 op 06-05-2017 23:22 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
sdk1985 schreef op zaterdag 6 mei 2017 @ 23:02:
Daarnaast schijnt het uberhaupt ook semi onmogelijk te zijn om een game echt goed te threaden, blijft altijd een soort zware main thread bestaan. Zeker in games als Civ. Bij veel pracht en praal in een shooter ligt dit wellicht anders.
Bij ashes of the singularity hebben ze een poging gedaan zonder main thread te draaien. Maar blijkbaar zijn er toch een hoop afhankelijkheden waardoor threads af en toe op elkaar moeten wachten, dus die schaalt ook niet geweldig naar heel veel cores.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 10-10 16:17
haarbal schreef op zaterdag 6 mei 2017 @ 23:50:
[...]

Bij ashes of the singularity hebben ze een poging gedaan zonder main thread te draaien. Maar blijkbaar zijn er toch een hoop afhankelijkheden waardoor threads af en toe op elkaar moeten wachten, dus die schaalt ook niet geweldig naar heel veel cores.
Interessant, kwam deze review tegen:

Afbeeldingslocatie: http://images.techhive.com/images/article/2016/02/dx12_cpu_ashes_of_the_singularity_beta_2_average_cpu_frame_rate_high_quality_19x10-100647718-large.png
Je kunt er tussen 2 en 6 cores zo een lijn door trekken. Helaas wel een aparte game, in de zin dat vrijwel niemand hem speelt.
Playtime total: 09:39 (average) 02:48 (median)

[ Voor 8% gewijzigd door sdk1985 op 07-05-2017 22:18 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
nieuws: Nvidia boekt hogere omzet door onder meer goede verkoop van Nintendo ...

http://files.shareholder....Q1FY18_CFO_Commentary.pdf
Het datacentrumonderdeel presteerde relatief gezien het beste. In dit onderdeel vallen servertoepassingen, zakelijke gpu's voor onder andere supercomputers, technologie inzake artificiële intelligentie en deep learning-toepassingen. De omzet van dit segment steeg naar 409 miljoen dollar, een stijging van 186 procent ten opzichte van het eerste kwartaal van 2016. Nvidia verwacht veel van dit onderdeel. Volgens Nvidia-ceo Jensen Huang wordt Nvidia's gpu deep learning platform steeds meer gebruikt door internetgiganten, onderzoekers en startups, die volgens hem steeds meer in deze technologie en ai zien.
En de stock schiet weer omhoog...
NVIDIA jumped more than 13 percent in after-hours trading after earnings crushed Wall Street estimates.

[ Voor 6% gewijzigd door Paprika op 10-05-2017 08:53 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Goh, ik dacht dat consoles "niet interessant" waren? :+ :+

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
Werelds schreef op woensdag 10 mei 2017 @ 10:42:
Goh, ik dacht dat consoles "niet interessant" waren? :+ :+
Wel als je er een tegra chip in kan dumpen die toch al op de plank ligt.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Dat weet jij, dat weet ik en hebben we vast allebei 4 jaar geleden ook over AMD gezegd toen bekend werd dat zij Sony en MS binnen hadden. Maar er waren anderen die allerlei andere onzin claimden. Zou niet rendabel zijn, AMD zou er verlies op draaien door idioot goedkoop te zijn, enzovoort ;)

Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 10-10 11:53
Wat ik wel bijzonder vind is dat Nvidia met die "paar" miljoen Switchen er wel goed aan kunnen verdienen en AMD met vele miljoenen Xboxen en Sony's niet of minder aan kan verdienen.
Ach ik snap die hele discussie tussen beide merken niet.
Ze kunnen toch niet zonder elkaar.

Beide hebben mooie en minder mooie producten en diensten.

Voor Nvidia is het mooi dat ze hogere omzet en winst hebben dan hetzelfde kwartaal vorig jaar.

Hoop dat AMD ook hogere winst gaat halen zodat ze beide gezond zijn.

En ik hoop dat we binnenkort eens mooi nieuws uit een GPU kamp kunnen horen :)

Acties:
  • 0 Henk 'm!

  • Mitt3nz
  • Registratie: Maart 2002
  • Laatst online: 23-08 16:19
Waar blijven de hybrid modellen van de 1080 Ti? Heb nu een Gaming X maar die wordt me te heet.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
beebie121 schreef op woensdag 10 mei 2017 @ 13:18:
Wat ik wel bijzonder vind is dat Nvidia met die "paar" miljoen Switchen er wel goed aan kunnen verdienen en AMD met vele miljoenen Xboxen en Sony's niet of minder aan kan verdienen.
AMD verdient zat aan die XBO's en PS4's hoor. Het verschil is echter dat AMD ook een slecht draaiende CPU tak heeft waardoor veel teniet wordt gedaan. Hopelijk verandert dat in de cijfers voor Q2 als de impact van Ryzen zichtbaar wordt :)

Overigens verkoopt de Switch harder dan de PS4 bij launch deed. Die "paar miljoen" is juist uitzonderlijk goed. Eind maart had het ding al 2,75 miljoen exemplaren verkocht; dat is dus op tijd van zo'n 4 weken. Ter vergelijking, de PS4 stond in diezelfde periode ergens tussen de 2 en 2,5 miljoen; en dat was eind november, holiday season.

Acties:
  • +1 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Volta V100 met 5120 Cuda Cores
  • 815mm2 die
  • 12nm FinFet
  • 21B Transistors
  • 15 FP32 TFLOPS
  • 7.5 FP64 TFLOPS
  • NEW 120 Tensor TFLOPS
  • 16GB HBM2 @ 900 GB/s
  • 5120 CUDA cores

[ Voor 48% gewijzigd door ColinZ op 10-05-2017 19:20 ]


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
God sodeju wat een monster.

Overigens een veel nuttigere link dan Wccfbait: https://devblogs.nvidia.com/parallelforall/inside-volta/

Staat niet zo veel in waar we iets aan hebben om iets af te leiden over de gaming GPU's, behalve dan dat het er op lijkt dat Volta eindelijk GCN achterna gaat en veel vrijer kan schedulen. Partities zijn ook kleiner, dus dat zou allemaal goed moeten komen :)

En voordat er iemand begint: nope, deze gaan we niet als gaming GPU zien - de kans bij deze is nog duizenden keren kleiner dan dat bij GP100 het geval is. GV104 en GV102 zullen er compleet anders uit zien. Nog veel meer dan GP100 naar GP104.

[ Voor 3% gewijzigd door Werelds op 10-05-2017 20:15 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Wat een sick ding is dit zeg met die 815mm die.

Boost clock is bij die size van 610 naar 815 wel vergelijkbaar gebleven.

En wat zei hij :? USD 3miljard aan R&D uitgegeven voor Volta ?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

ik vraag me af hoeveel de diesize zal afnemen als ze die 5120 fp32 cores behouden en de rest eruit, valt zo iets te extrapoleren kijken naar GP100>GP102 waar ze een soortgelijk iets hebben gedaan ?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Verwijderd schreef op woensdag 10 mei 2017 @ 20:44:
ik vraag me af hoeveel de diesize zal afnemen als ze die 5120 fp32 cores behouden en de rest eruit, valt zo iets te extrapoleren kijken naar GP100>GP102 waar ze een soortgelijk iets hebben gedaan ?
Nee, daar is niets aan af te leiden :)

We hebben geen flauw benul hoe veel ruimte elk type ALU nodig heeft. Met name de Tensor cores zullen aardig wat ruimte nodig hebben.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Volgens mij wou Nvidia zeker weten dat hun volgende zakelijke/deep learning GPU sneller was dan wat AMD ook te bieden had. Ik denk missie geslaagd met een 815mm die. :P

Zoals Werelds al zegt valt hier weinig uit te halen voor een GTX2080 ofzo. Nvidia haar Gx 100 serie is nu al een fundamenteel andere GPU dan de geforce lijn. GTX2080 zal wel een GV 104 worden, GV102 voor een Ti, en alweer een Titan because reasons.

Dit is een Tesla GPU met veel meer features dan een Geforce GPU, dus ook veel groter in omvang. Geforce Volta zal ook anders zijn qua ontwerp. Kleiner, dat zeker, maar ook uitgekleed qua features en waarschijnlijk toegespitst op alleen FP32. Ook weten we nu dat Nvidia heeft gekozen voor Samsung HMB2, waarschijnlijk GDDR6 van SK Hynix en dat AMD dus SK Hynix geeft voor HMB2. Verder gezien de 900GB/s en de 4096 bit bus zal dat geheugen op 2,2Gbit/s moeten lopen.

@Werelds, waar zie jij precies de parallel met GCN? Als ik een SM layout van een GP104 erbij pak, dan zie ik weinig verschillen, behalve de toespitsing op FP32. Voor zover ik weet wat Pascal al iets meer richting GCN gegaan, terwijl AMD met Vega nu ook dingen van Maxwell overneemt. (ja, vragen stellen :+ )

GV100
Afbeeldingslocatie: https://ic.tweakimg.net/ext/i/2001503389.png

GP104
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2016/08/NVIDIA-Pascal-GP104-SM-483x840.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
DaniëlWW2 schreef op woensdag 10 mei 2017 @ 21:57:
@Werelds, waar zie jij precies de parallel met GCN? Als ik een SM layout van een GP104 erbij pak, dan zie ik weinig verschillen, behalve de toespitsing op FP32. Voor zover ik weet wat Pascal al iets meer richting GCN gegaan, terwijl AMD met Vega nu ook dingen van Maxwell overneemt. (ja, vragen stellen :+ )
Het eerste zijn de SM partities. Ik vergelijk GV100 dan even met GP100, niet GP104. GP100 had 2 partities, GV100 heeft er 4. Die zijn nu bijna net zo groot (of klein :P) als een SIMD in een GCN CU. Als ik die lijn door trek naar GV104, krijgt die straks 8 partities per SM. Wel hebben ze nog steeds minder registers, wat ik niet helemaal snap. Dat is momenteel een voordeel dat AMD heeft met HPC, er is veel minder register strain.

Het gaat echter vooral om het SIMT gedeelte. Het is nog even wachten tot we een diagram van een niveau hoger krijgen te zien, maar de manier waarop ze nu warps kunnen verdelen lijkt op GCN. Komt er vooral op neer dat ze hun ALU's beter kunnen benutten.

Daarnaast zit er nu ook een instructie cache in de partities, die de instructie buffer vervangt. Wat dat precies betekent weten we nog niet, maar ik gok dat ook dat bedoeld is om net als GCN de zaken op nog kleinere delen van de GPU te kunnen toewijzen.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wat je hier het meeste van leert is wat voor een gok Nvidia eigenlijk maakt met GV100. Een compleet nieuwe architectuur, die $3 miljard koste aan R&D, een gigantische GPU en waarschijnlijk zeer slechte yields per wafer. Dit alles om koste wat het kost de beste in deze lucratieve markt te blijven, en wat nieuws te bieden. Dan vraag je je wel af waarom? Waarom een gigantische investering zoals deze. Natuurlijk zijn de opbrengsten bij succes enorm, maar toch. Nvidia speelt het weliswaar allemaal cool, maar als je werkelijk overtuigd bent dat je concurrent niks kan uithalen, dan kies je voor een minder risicovolle strategie dan dit monster.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
DaniëlWW2 schreef op donderdag 11 mei 2017 @ 13:42:
[...]

Dit alles om koste wat het kost de beste in deze lucratieve markt te blijven, en wat nieuws te bieden. Dan vraag je je wel af waarom? Waarom een gigantische investering zoals deze. Natuurlijk zijn de opbrengsten bij succes enorm, maar toch. Nvidia speelt het weliswaar allemaal cool, maar als je werkelijk overtuigd bent dat je concurrent niks kan uithalen, dan kies je voor een minder risicovolle strategie dan dit monster.
Staat er toch gewoon letterlijk?
NVIDIA is going to be sacrificing a lot of silicon for a relatively small number of good chips, just so that they can sell them to eager customers who are going to pay better than $15K/chip. This is how badly NVIDIA’s customers want more powerful GPUs, and how hard NVIDIA is going to push the limits of modern fab technology to deliver it.
Moneys...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op donderdag 11 mei 2017 @ 13:51:
[...]

Staat er toch gewoon letterlijk?

[...]

Moneys...
Ja, dat was mijn punt dus niet. Nvidia heeft even $3 miljard naar de R&D van GV100 gegooid. Hoe is succes gegarandeerd? Er kan altijd wat misgaan, van productieproblemen tot tegenvallende resultaten. Ook voor Nvidia, toch al een bedrijf met een groter R&D budget dan alles van AMD bij elkaar, is $3 miljard geen schijntje. Er zitten ook zeker risico's aan dit ding.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
Dat is een schijntje in vergelijking tot het kapitaal dat ze vastzetten bij klanten die zo worden gebonden aan NVIDIA technieken.

Deep learning en data mining speelt nu bij alle grote merken in de wereld een rol. Van de drankfabrikanten (Heineken tot Coca Cola) tot luchtvaartmaatschappijen tot verzekaars tot banken tot autofabrikanten tot elektronica tot ... Gaat deze GPU op zichzelf staand dat bedrag terugverdienen? Nee, maar ze investeren in zichzelf. De beurswaarde staat inmiddels op 85 miljard... Dan moet je juist wel.

[ Voor 60% gewijzigd door Paprika op 11-05-2017 14:34 ]


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op donderdag 11 mei 2017 @ 13:42:
[...]


Wat je hier het meeste van leert is wat voor een gok Nvidia eigenlijk maakt met GV100. Een compleet nieuwe architectuur, die $3 miljard koste aan R&D, een gigantische GPU en waarschijnlijk zeer slechte yields per wafer. Dit alles om koste wat het kost de beste in deze lucratieve markt te blijven, en wat nieuws te bieden. Dan vraag je je wel af waarom? Waarom een gigantische investering zoals deze. Natuurlijk zijn de opbrengsten bij succes enorm, maar toch. Nvidia speelt het weliswaar allemaal cool, maar als je werkelijk overtuigd bent dat je concurrent niks kan uithalen, dan kies je voor een minder risicovolle strategie dan dit monster.
Denk dat het toch meer een calculated risk is dan een gok.

De gebieden waar ze zich nu op richten groeien heel hard en zijn de gebieden waar je presence wilt hebben. Misschien wel belangrijker dan de graphicskant vwb de toekomst :?

Wat dat betreft doen ze het volgensmij heel goed door dmv hun (enorme) investeringen in hardware, software, partnerships e.d. ervoor te zorgen een heel ecosysteem te creeeren waar ze in deze beginfase hun naam heel stevig neerzetten.

Zie er dan nog maar tussen te komen als concurrent.

Eerlijk gezegd denk ik dat ze nog niet eens zo met AMD bezig lijken te zijn maar meer om alles wat ze hebben, vanuit eigen kracht, in te zetten om ervoor te zorgen dat ze op deze markten de norm zullen zijn. Nu en ver in de toekomst.

Heb deze persconf zowat helemaal gekeken en hoewel er een hoop zaken vrij koekebakkerig gingen en zowat alle grappen van de CEO niet echt landen en publiek maar matig ethusiast leek was ik toch wel onder de indruk van de visie en hoe snel de ontwikkelingen gaan op gebied van AI e.d. Nou wist ik dat al wel maar het is toch best bijna beangstigend. Beetje Cyberdyne gevoel krijg ik er wel bij..... :P

ps:
Als je kijkt wat Jen-Hsun Huang allemaal bereikt heeft, eerst als engineer en nu al jaren als co-founder en ceo van nvidia is dat toch wel indrukwekkend. Die heeft wel een aardige rekenmachine bovenin zitten :)
Saillant detail, hij heeft oorspronkelijk in ver verleden ook bij AMD gewerkt als cpu engineer.

[ Voor 7% gewijzigd door Help!!!! op 11-05-2017 18:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Ik kan niet te veel los laten, dus ik houd het er maar even op dat er bedrijven zijn die maar net in de dubbele cijfers (in miljoenen) zitten qua omzet maar toch genoeg aan DGX-1 uit (gaan) geven om daar op een investering met 7 cijfers uit te komen.

Die 3 miljard haalt Nvidia er zo uit. De verkopen an sich komen al een heen eind, maar vooral het feit dat ze mensen zo hun ecosysteem in trekken en vervolgens nog meer aan ze verkopen gedurende meerdere kwartalen, zoniet jaren. Die wat was het, 400 miljoen omzet die ze afgelopen kwartaal uit datacenter trokken? Dat gaat nog wel omhoog. En de marges daar zijn zo ziek dat desktop GPU's écht een lachertje zijn.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dat weet ik ook al, ik wijs alleen op iets anders. We hebben nu een "big shiny" monster GPU voor $3 miljard, maar hoe weten we dat het slaagt? Moet ik echt de olifant in de kamer, Fermi benoemen? Het lijkt nu zowat een gegeven dat Nvidia zal slagen zonder enige concurrentie. Die $3 miljard staat kennelijk ook nog eens los van de rest van Volta, kan je nog meer optellen. Dit zijn toch behoorlijke bedragen, uitgesmeerd over de afgelopen jaren, zelfs voor het oh zo winstgevende Nvidia van het afgelopen jaar. Of ze dat vasthouden is maar de vraag nu AMD eindelijk met concurrentie zou moeten komen.

Ondertussen heeft AMD zich ook al jaren op deze uiterst lucratieve markten gestort. Duidelijk met minder succes dan Nvidia, maar AMD heeft hele andere voordelen te bieden, nu ze met een totaalpakket komen van CPU, en GPU. De afgelopen jaren zal je bij prosumer markten (zoals rendering) al dat Cuda niet de enige standaard meer is. Hoe dat bij echte zakelijke markten geregeld is weet ik niet echt, maar onderhand zou AMD toch enige impact moeten hebben gehad met alle iteraties van GCN. AMD zet met Vega dan ook nog eens keihard in op FP16, waar Nvidia niks over te melden had, en 15,6tflops FP32, voor een 12nm, 815mm die GPU van nieuwe architectuur is ook niet volledig van je sokken geblazen geweldig. GP100 is 12tflops, voor een substantieel kleinere die, op een al bewezen productieproces. Ik begrijp echt wel dat dergelijke prestaties gewenst zijn, en elk beetje helpt, maar het blijft een gok, geen gegarandeerde.

Ja, ik doe moeilijk, maar dat lijkt me toch een redelijk standpunt bij een 800mm+ GPU, maakt niet uit dat de marges per unit zo in de duizenden dollars kunnen lopen. Dit ding ,tien jaar geleden (ja ander, veel groter proces etc, I know), oké, er was geen concurrentie dus slikken of stikken. Nu ligt dit denk ik toch anders. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@DaniëlWW2
Dat de chip groot is betekent m.i. niet dat het ook onverantwoord risicovol is. Het betekent m.i. ook niet dat, omdat er ooit Fermi was, dat ze daar niet van geleerd hebben.

nVidia heeft de afwegingen gemaakt en is blijkbaar tot de conclusie gekomen dat dit het juiste pad is. Geld hebben ze genoeg dus waarom dat niet gebruiken voor R&D. Als je veel geld hebt kan ineffecientie op de loer liggen. Echter dat het veel geld is, betekent niet gelijk dat het over de balk gegooid is en er niet goed gekeken is of het wel zinvol is.
Zo’n grote chip had ik ook niet verwacht en het voelt als risicovol maar dat hoeft het niet te zijn.

Denk dat nVidia gewoon hard aan het knallen is en dat het te hopen is dat AMD met Vega een grote stap heeft gemaakt. Ook met weinig geld kun je goede dingen doen.

Verder valt er volgensmij niet zoveel te zeggen totdat we op zijn minst de reviews van Vega gezien hebben.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

Is die 815mm2 die inclusief de interposer ?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
https://ycharts.com/companies/NVDA/r_and_d_expense
Misschien dat dit wel een relevante chart is voor die discussie overigens... :p

Overigens zie bijvoorbeeld: http://www.marketwatch.co...?siteid=yhoof2&yptr=yahoo
RBC Capital Markets raised its price target on Nvidia to $150 from $138 on Thursday afternoon, thanks to “increased confidence around data-center growth” after an event for analysts at GTC. Analyst Mitch Steves also said he thinks total artificial-intelligence applications can grow faster than even the current rise for Nvidia’s server business, potentially at a rate of more than 200%.

“For data center, we see no slowdown in sight and believe the segment can continue its torrid triple-digit growth in 2017 and beyond,” wrote Steves, who has an outperform rating on the stock.
Toch weer data center waarmee het bedrijf een waarderingswaarde stijging heeft gekregen van een factor x het genoemde R&D budget. @DaniëlWW2, zoals ik al zei... Investors geven hier wel om.

[ Voor 83% gewijzigd door Paprika op 12-05-2017 11:57 ]


Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
Verwijderd schreef op vrijdag 12 mei 2017 @ 11:28:
Is die 815mm2 die inclusief de interposer ?
Ik las op beyond3d dat de interposer nog groter is.
https://forum.beyond3d.com/posts/1980526/

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

haarbal schreef op vrijdag 12 mei 2017 @ 12:02:
[...]

Ik las op beyond3d dat de interposer nog groter is.
https://forum.beyond3d.com/posts/1980526/
The impressive part for me is more of a "oh shit I can't believe they were bullish enough to do this" than an actually technical achievement.
Each waffer can only make very few chips and most probably the great majority of them comes out with a defect (either for disabled units or for . With a 300mm wafer they're probably getting around 60-65 dies per wafer.
They're only making this because they got the clients to pay for >$15k per GPU, meaning a 2% yield (practically 1 good GPU per wafer) is already providing some profit.
10% yields (6 good chips) means getting them $90K revenue, of which they're probably getting a profit of well over $80K after putting the cards together.
Dus inderdaad nooit consumenten chips zoals Werelds al aangeeft :p.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Ook zonder dat feit komen hier nooit 1:1 consumenten chips van, net zoals die van GP100 ook nooit zijn gekomen (of dat nog zullen doen). GV100 schopt het wellicht niet eens tot Quadro.

De tensor cores hebben geen enkel nut voor games of andere "reguliere" desktop zaken. FP64 is ook nog steeds niet boeiend. Dat kan er allemaal uit ;)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wederom, mijn punt is niet waarom Nvidia het doet, maar dat het een gok is. Je gaat heel weinig functionele GPU's uit een wafer halen, en het is een nieuw productieproces. Gaat daar iets mis, dan ga je je forse investering er dus niet uithalen. 815mm is gewoon gigantisch, zelfs voor Nvidia waar ze toch al menig 500mm+ GPU's hebben gehad. Daar zitten risico's aan. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Daarom worden de GPU's ook voor zo'n extreem bedrag verkocht.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Werelds schreef op donderdag 11 mei 2017 @ 19:28:
Ik kan niet te veel los laten, dus ik houd het er maar even op dat er bedrijven zijn die maar net in de dubbele cijfers (in miljoenen) zitten qua omzet maar toch genoeg aan DGX-1 uit (gaan) geven om daar op een investering met 7 cijfers uit te komen.
Maar doen ze dat omdat ze denken dat dat op zeer korte termijn wat op gaat leveren, of doen ze dat omdat ze erop vertrouwen dat ze gaan worden uitgekocht? ;)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
foppe-jan schreef op vrijdag 12 mei 2017 @ 20:33:
[...]

Maar doen ze dat omdat ze denken dat dat op zeer korte termijn wat op gaat leveren, of doen ze dat omdat ze erop vertrouwen dat ze gaan worden uitgekocht? ;)
Niet denken maar weten ;)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op vrijdag 12 mei 2017 @ 20:26:
Daarom worden de GPU's ook voor zo'n extreem bedrag verkocht.
Zo ver was ik ook al. Wederom is mijn punt anders. Je pushed hier tot het absoluut maximale, dat is uiteindelijk een gok die ook mis kan gaan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +5 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 10-10 16:17
DaniëlWW2 schreef op donderdag 11 mei 2017 @ 20:20:
Dat weet ik ook al, ik wijs alleen op iets anders. We hebben nu een "big shiny" monster GPU voor $3 miljard, maar hoe weten we dat het slaagt? Moet ik echt de olifant in de kamer, Fermi benoemen? Het lijkt nu zowat een gegeven dat Nvidia zal slagen zonder enige concurrentie. Die $3 miljard staat kennelijk ook nog eens los van de rest van Volta, kan je nog meer optellen. Dit zijn toch behoorlijke bedragen, uitgesmeerd over de afgelopen jaren, zelfs voor het oh zo winstgevende Nvidia van het afgelopen jaar. Of ze dat vasthouden is maar de vraag nu AMD eindelijk met concurrentie zou moeten komen.

Ondertussen heeft AMD zich ook al jaren op deze uiterst lucratieve markten gestort. Duidelijk met minder succes dan Nvidia, maar AMD heeft hele andere voordelen te bieden, nu ze met een totaalpakket komen van CPU, en GPU. De afgelopen jaren zal je bij prosumer markten (zoals rendering) al dat Cuda niet de enige standaard meer is. Hoe dat bij echte zakelijke markten geregeld is weet ik niet echt, maar onderhand zou AMD toch enige impact moeten hebben gehad met alle iteraties van GCN. AMD zet met Vega dan ook nog eens keihard in op FP16, waar Nvidia niks over te melden had, en 15,6tflops FP32, voor een 12nm, 815mm die GPU van nieuwe architectuur is ook niet volledig van je sokken geblazen geweldig. GP100 is 12tflops, voor een substantieel kleinere die, op een al bewezen productieproces. Ik begrijp echt wel dat dergelijke prestaties gewenst zijn, en elk beetje helpt, maar het blijft een gok, geen gegarandeerde.

Ja, ik doe moeilijk, maar dat lijkt me toch een redelijk standpunt bij een 800mm+ GPU, maakt niet uit dat de marges per unit zo in de duizenden dollars kunnen lopen. Dit ding ,tien jaar geleden (ja ander, veel groter proces etc, I know), oké, er was geen concurrentie dus slikken of stikken. Nu ligt dit denk ik toch anders. :)
Eigenlijk is dit nu juist de verklaring waarom het met Nvidia zo goed gaat en met AMD niet. Nvidia is al die jaren aan het investeren door steeds meer te gaan toevoegen aan het R&D budget. Dit terwijl AMD meer jouw logica heeft gevolg door sinds circa 2010 precies de tegenovergestelde beweging te maken; elke keer het budget verlagen.

Overigens zijn dit soort investeringen binnen de context voor Nvidia niet heel gek, immers ondanks die 'miljarden' investering heeft Nvidia de laatste jaren toch nog circa 400,800,800=2 miljard netto overgehouden. Voor 2017 (cijfers lopen voor) lag dit zelfs op 1.6 miljard netto. Er zijn heel wat bedrijven die het met heel wat lagere marge moeten doen.

Mbt de lucratieve markt vergelijking: Juist het technisch succes was geen financieel succes waardoor je eigenlijk wat kritischer moet oordelen over datzelfde technische succes. Als je kijkt naar de laatste cijfers dan is het voor Nvidia geen enkel probleem om de GTX 1080 voor 250 dollar te verkopen.

Even overdreven voorbeeld: Wat je ziet gebeuren is dat AMD zijn dure 'GTX 1080' inzet om het middensegment te voorzien. Dit lijkt dan technisch een goed product, maar er een jaar later blijkt dat er gewoon geen of nauwelijks winst is gemaakt. Dit is al zo sinds de HD 4870 vs GTX 260. De 4870 was een prijsbreker die de GTX 260 met $100 liet dalen en de GTX 280 met $150, maar het heeft AMD geen centen opgeleverd. Met andere woorden; ze hadden die 4870 voor $399 in de markt moeten zetten dan was de reactie van NVidia uitgebleven en hadden ze ook nog winst gemaakt.

Nvidia doet al jaren het tegenovergestelde; zodra de architectuur te goed is dan pakken ze bijvoorbeeld een midrange kaart als de GTX 1050 die ze vervolgens als GTX 1080 verkopen (even overdreven). Precies genoeg om toch de vervangingsmarkt te stimuleren en tegelijkertijd ook meteen de marge op te krikken.

Goede nieuws is dat de ruimte voor verandering er daadwerkelijk is, maar dan moet AMD dus eerst met een winstgevend product komen en niet, zoals sinds de overname van Ati, met dumpprijzen aankomen zetten. Het lijkt erop dat ze dit bij Ryzen nu voor elkaar hebben (cijfers waren slecht maar was pas heel vroeg in het seizoen, dus die zie ik nog wel bijtrekken).

Hele APU verhaal is nu juist het schoolvoorbeeld van een risicovolle en verkeerde gok. Het is immers de directe aanleiding van de situatie waarin we nu zitten (veel te hoge prijzen). Ati was te duur, miljarden afschrijvingen waren te hoog, winsten op GPU waren te laag. Resultaat; afstoten fabs en verlagen R&D en het vrijwel volledig verlaten van het high-end en server segment. Verschil met Nvidia/Intel is dat die zich een 'foutje' van 5 miljard kunnen veroorloven.

[ Voor 5% gewijzigd door sdk1985 op 13-05-2017 14:41 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

ik vind dit met de gtx 1080 inderdaad heel duidelijk naar voren komen, Had AMD iets concurerends gehad dan was de 1080 gewoon als 1070 verkocht...

Was dus niet nodig dus gewoon de 1080 als volle mep verkopen en alle echte highend chips als een luxe premium product op de markt zetten, tel je winst :P

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@sdk1985 Wederom, dat is mijn punt niet.
Nvidia zet zo enorm in op deze markt, met een enorm budget voor alleen GV100, omdat ze hun voorsprong willen behouden. Alles van timing, een week voordat AMD eindelijk wat over Vega komt melden, tot de enorme omvang, en opeens informatie vrijgeven. Allemaal signalen dat Nvidia wel degelijk rekening houdt met AMD die behoorlijk terugkomen. AMD kan ook een totaalpakket leveren met Naples en Vega, bijvoorbeeld werkgeheugen zal echt een non issue zijn bij het AMD only platform. Gewoon RAM aanspreken door de GPU kan, voor zover wij nu weten met Naples/Vega. Nvidia zal zo op andere dingen in moeten zetten, waaronder dit monster.

Lukt het allemaal met GV100, dan houden ze hun voorsprong en de markt, uitgezonderd applicaties waar de AMD combinatie beter zal zijn. Dat is dus geen gegeven. We hebben het hier over een gigantische GPU, waar kennelijk een speciaal productieproces voor ontwikkeld moest worden. Dat is wel degelijk een gok, die ook kan mislukken. Dat is mijn punt, niet de vraag naar, de kosten etc. Nee, de GPU zelf maken, zonder rampzalige yields, en laten presteren, dat blijft gewoon een uitdaging.

Verder weet ik ook wel dat ATi kopen een rampzalige beslissing was, te duur en tijdens hoogconjunctuur gekocht, enorme afschrijvingen en de gevolgen zijn duidelijk. Pak je een 5 jaar cyclus voor een GPU ontwikkeling, dan kijk je naar 2011, GCN, daarna bijna niks echt nieuws vanuit AMD. R&D zakte weg, etc, etc. Nu is GCN gewoon hartstikke goed, en jarenlang competitief gebleven met minimale verbeteringen, maar niet tegen Nvidia die flink aanzette door bijvoorbeeld de 48xx, toen Nvidia gemakzuchtig was geworden. Komt er dan zoiets als Pascal, dan krijg je problemen.

Bij AMD gaat het uiteindelijk ook om de CPU's, en niet GPU's. Kleinere dies, weinig extra kosten, geen AIB's of een PCB nodig en beduidend grotere marges kunnen draaien. Met de meltdown van AMD bij Bulldozer ging dat helemaal mis. Gaat Ryzen lopen, en Naples ook, dan komen die marges wel. Radeon is uiteindelijk een zijtak van AMD. Leuk als ze 40% marktaandeel hebben in discrete GPU's voor de PC, maar Nvidia slopen is niet nodig. Ze hoeven alleen maar genoeg marktaandeel te hebben om de investeringen eruit te halen, en wat winst.

Vega gaat afhangen van HMB2 beschikbaarheid. Qua prestaties zal het wel loslopen met Pascal denk ik. Gelijkwaardig of iets sneller, zien we wel. Een Vega 2, of toch Navi dat zal tegenover Volta komen, als antwoord op Volta, en dan zijn beide kampen hopelijk weer gelijk.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Hoeveel HIGH-end consumenten GPUS worden eigenlijk verkocht in 1 jaar??? Minimaal BIG chips

[ Voor 20% gewijzigd door A87 op 13-05-2017 18:52 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

WT

[ Voor 100% gewijzigd door edward2 op 28-05-2017 01:08 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 06-10 15:51
Voorlopig geen Volta voor gaming: http://fudzilla.com/news/...force-will-be-incremental

Maar dat is erg verstandig, Nvidia wet dat AMD een inhaalslag maakt, ze kunnen dus door het gerbuik van een beter procede de al goede pascall argitectuur nog een ronde mee laten doen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Uiteindelijk gaat het erom welk prestatieverschil en prijsverschil er is met de vorige generatie. Maar het klinkt als een behoorlijke turn off... :-( - :O

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Toettoetdaan schreef op zaterdag 24 juni 2017 @ 23:15:
Voorlopig geen Volta voor gaming: http://fudzilla.com/news/...force-will-be-incremental

Maar dat is erg verstandig, Nvidia wet dat AMD een inhaalslag maakt, ze kunnen dus door het gerbuik van een beter procede de al goede pascall argitectuur nog een ronde mee laten doen.
Ik plaats zowel twijfels bij dit verhaal, als bij de eventuele wijsheid om Volta niet uit te brengen, en een verklaring waarom dit wel logisch kan zijn is.

Ik plaats twijfels omdat het Nvidia is, en ze meestal ruim voorhanden zijn met informatie over de aankomende generatie, en omdat Nvidia geen Intel is waar ze even een voorsprong weggooien. Voor Jen-Hsun Huang lijkt het ook al jaren persoonlijk te zijn om altijd te winnen van AMD. Hij werkte ooit voor AMD, en werkte met ze samen totdat ATi werd gekocht door AMD. Dat lijkt niet helemaal goed te zijn gevallen...

Ik zie Nvidia niet zomaar haar voordeel weggooien, tenzij ze echt denken dat Vega zeer slecht is. Blijkt Vega dan toch goed, dan kan Nvidia bijna niet meer van koers draaien. Nvidia is ook wel een tikkeltje voorspelbaar de laatste jaren. Elke 18 maanden 30 a 40% extra prestaties erbij voor de top, en de line up verschuif eigenlijk ruwweg een stapje. Voor AMD zullen ze dan ook makkelijk in te schatten zijn, terwijl AMD op het moment door niemand echt in te schatten is, en dat willen ze ook zo houden totdat je iets kan kopen. Zeker dwaalsporen die AMD uit lijkt te zetten kunnen helpen om te verhullen hoe Vega nu echt presteert. Dat weten we namelijk absoluut nog niet, en het kan beide kanten opgaan.

Ook doet Nvidia al jaren een "tick tock". In dat opzicht is een Pascal refresh wel logisch, tenzij je Pascal ziet als een "tock" van Maxwell. Ik denk niet dat Nvidia het zo ziet. Een Pascal refresh zou zeker kunnen, maar dat zullen behoorlijk grote chips worden. Dat kan, want TMSC haar speciale 12nm proces voor Nvidia laat dit toe, zie het GV100 monster. Dat het eigenlijk een verbeterd 16nm proces, moet wel vermeld worden, dus geen yields voordeel te behalen, clocks zien we ter zijner tijd wel. Dan zal je dus een werkelijk gigantische GPU van Nvidia krijgen, dat doen ze nog wel eens om maar de snelste te zijn. Waardeloze yields be dammed, als het maar de snelste is. Hier kunnen ze ook nog eenmaal mee wegkomen, want Navi is de volgende cyclus van AMD. Daarna is het afgelopen en moeten ze echt iets bijzonders uit de hoed toveren, om niet hetzelfde probleem als Intel te krijgen, namelijk dat AMD een kleine chip kan schalen door meerdere op een interposer te stoppen en te verbinden. Is dit er eenmaal, dan kan AMD keihard op de prijs gaan zitten met Nvidia, en enorm marktaandeel pakken. €100 minder voor een gelijkwaardig presterende GPU kunnen ze dan gewoon doen, en dan bedoel ik GPU's uit bijvoorbeeld de €350 tot €450 range.

Ook vermoede ik ergens al een tijdje dat Geforce Volta best wel eens een ligt aangepaste Pascal kan zijn, waardoor het niet echt "Volta" is, zoals aangekondigd. Dat lijkt toch vooral gericht op de professionele markt, en er moet wel heel veel uitgesloopt worden voor Geforce. Dan kan je net zo goed Pascal hergebruiken, en het Volta noemen. Wat mij dwars zit, is de oude roadmap van Nvidia, waar Pascal niet op bestond. HBM stond ook al op de roadmap voor Volta, jaren geleden. Volta werd doorgeschoven, en Pascal verscheen opeens, waarschijnlijk vanwege HBM productieproblemen. Het zou mij niks verbazen als Pascal in feite al is wat Volta had moeten zijn, maar dan zonder HBM geheugen. Klopt dit, dan is Geforce Volta dood als een nieuwe architectuur, en is het inderdaad Pascal. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 09-10 07:18

SG

SG surft naar info hardewaren

sdk1985 schreef op zaterdag 13 mei 2017 @ 14:34:

Eigenlijk is dit nu juist de verklaring waarom het met Nvidia zo goed gaat en met AMD niet. Nvidia is al die jaren aan het investeren door steeds meer te gaan toevoegen aan het R&D budget. Dit terwijl AMD meer jouw logica heeft gevolg door sinds circa 2010 precies de tegenovergestelde beweging te maken; elke keer het budget verlagen.
Budget of kapitaal is meer iets wat je ten eerste moet hebben om dat deftig te kunnen verdelen. AMD is CPU & GPU dat houd in dat als je jaren lang de kop is ingedrukt en laatste Gross van decade met 32nm moet concurreren. Dan houd het op , er is dan eens niet genoeg kapitaal om CPU GPU breed toe te slaan. CPU heeft dus blijkbaar voorrang gekregen en dat is zeer goede keuze. Die markt is groter Desktop Het Workstation server datacenter supercomputers . APU notebooks tablets Nuc NAS etc.
Overigens zijn dit soort investeringen binnen de context voor Nvidia niet heel gek, immers ondanks die 'miljarden' investering heeft Nvidia de laatste jaren toch nog circa 400,800,800=2 miljard netto overgehouden. Voor 2017 (cijfers lopen voor) lag dit zelfs op 1.6 miljard netto. Er zijn heel wat bedrijven die het met heel wat lagere marge moeten doen.
nV focus zich al jaren lang op GPU en heeft geen CPU bakker met grote Procede handicap probleem die hun jaren lang naar beneden trekt.
Nvidia doet al jaren het tegenovergestelde; zodra de architectuur te goed is dan pakken ze bijvoorbeeld een midrange kaart als de GTX 1050 die ze vervolgens als GTX 1080 verkopen (even overdreven). Precies genoeg om toch de vervangingsmarkt te stimuleren en tegelijkertijd ook meteen de marge op te krikken.
nV focus in hier en nu. Nu performance en dev lastig vallen om direct bij game releases zwaar te scoren. Dat is enorm simuleren om snel de king te zijn en review te winnen. Deze voordeel is marketing technisch een zware slag. Tegen innoverende producten die veel later pas kunnen schijnen. Met de ASP zit het wel goed gezien door APU de volume lowbudget vervallen zijn. En daarmee is de markt aanzienlijk kleiner en mis je dus de volume sales van goedkoopste GPU. AMD heeft dan de APU en heeft daar dus geen last van mits de APU concurrerend is met die van iNtel.
Goede nieuws is dat de ruimte voor verandering er daadwerkelijk is, maar dan moet AMD dus eerst met een winstgevend product komen en niet, zoals sinds de overname van Ati, met dumpprijzen aankomen zetten. Het lijkt erop dat ze dit bij Ryzen nu voor elkaar hebben (cijfers waren slecht maar was pas heel vroeg in het seizoen, dus die zie ik nog wel bijtrekken).
AMD is recent bij door Global foundry en Samsung en TMSC eindelijk bij zijn. En dan met nadruk van gelijkere procede tegen iNtel. Prijs is afhankelijk van performance maar ook vraag en aanbod maar ook kwa TDP en geluid etc waarvan de Tdp klok en ipC sterk afhankelijk zijn van procede.
Een 32nm chip kan niet tegen een 14nm chip op. En als je product lijn daardoor niet boven midrange uitkomt dan zijn de ASP gebaseerd op die low range dan ook zeer laag . Door de TDP zijn ze ook nog eens niet gewild dus verkopen slecht en dan draai je verlies. AMD GPU tak concurreert tot latere gen. op dezelfde procede van TMSC met nV. Dus er is vaak niet zo een grote verschil en second runner up kan zijn GPU in performance range zetten voor redelijke prijs. Dat heeft ook tot goede sales geleid en markt aandeel.
Hele APU verhaal is nu juist het schoolvoorbeeld van een risicovolle en verkeerde gok. Het is immers de directe aanleiding van de situatie waarin we nu zitten (veel te hoge prijzen). Ati was te duur, miljarden afschrijvingen waren te hoog, winsten op GPU waren te laag. Resultaat; afstoten fabs en verlagen R&D en het vrijwel volledig verlaten van het high-end en server segment. Verschil met Nvidia/Intel is dat die zich een 'foutje' van 5 miljard kunnen veroorloven.
De GPU overname is juist een goede zet. CPU markt is groter de nood voor computer power is bij de desktop massa gestagneerd en daar is intergratie en de gang naar x86-64 Soc meer in tot desktop vervangen aan toe. Dan kan je niet om een APU principe heen. Bij elke dieshrink kan er ook degelijkere iGPU op. Dus Gross van casual gamen kan steeds meer met instap APU richting 10nm en 7nm als nog steeds 4 cores aanhouden kan APU makkelijk Scorpio console performance behalen en dan krimpt de algehele GPU markt voor gamen. De ASP zijn lekker want voor nV en AMD vervallen de aller goedkoopste kaarten ivm APU de productlijnen zijn nu meer van instap midrange tot high end.
Die volume markt pakt dus iNtel & AMD weg met hun iGPU. Dus wel hogere ASP maar met verdwijnen van high volume sales van low budget.

Het probleem is dus dat AMD hun high-end op 32nm moesten doen en APU op 22nm tegen 14nm van iNtel.
Daar kan AMD eigenlijk niet veel doen. Als dieshrink mislukt of stagneert bij de foundry dan houdt het op.
Ook als je kapitaal krimpt kan je steeds minder doen en zijn de opties beperkter.

De kracht van iNtel zit hem in het decennia graaien van OEM kapitaal waardoor ze groot en slagkrachten zijn met dieshrinks uitrollen. Dat is al heel lang het probleem wat AMD tegen zit.

Het zou dus eerder goed kunnen dat voor AMD nu alles of niets is. Die kapitaal uithongering van de laatste 10 jaren komt er uiteindelijk ook een eind aan. Gezien ze moesten kiezen wie voorrang krijgt en breder mag gaan zie je dat hun slag kracht Fink gereduceerd is. Hun 1 of 2 of 4 Die voor CPU is teken van beperkte middelen dus de nadruk op efficiënt produceren 1 DIE waar iNtel vele heeft.
GPU dat is flink gestagneerd. kapitaal beperking om Global foundry productie lijnen te alloceren of beperkt kapitaal om producten release dus na mekaar en CPU voorrang op GPU afdeling.

Ze kunnen de discrete GPU ook schrappen. Je weet wat iNtel gedaan heeft met gebrek aan concurrentie. Zo ook nVidia. Dus ik ga lig op Vega wachten en er zal ook niks anders komen. Innovatie moet ook beloond worden ipv de focus op cijferneukers.

Dus wat AMD op GPU gebied kan doen is enorm afhankelijk wat AMD kwa kapitaal status heeft en die is afhankelijk van hoe de CPU tak het doet. Die zijn sterk afhankelijk van Procede

Ik zie de toekomst van discrete GPU nogal somber in. 7nm APU kan dan behoorlijk krachtig zijn om ook redelijke nieuwere games te spelen. En daarmee ATI overname een goede stap in de toekomst.
Misschien dat VR de toekomst wat kan uitstellen.
Er komt een tijd dat APU ook midrange gaan verdringen. De top APU halen dat al.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaniëlWW2 schreef op zondag 25 juni 2017 @ 00:12:
Voor Jen-Hsun Huang lijkt het ook al jaren persoonlijk te zijn om altijd te winnen van AMD. Hij werkte ooit voor AMD, en werkte met ze samen totdat ATi werd gekocht door AMD. Dat lijkt niet helemaal goed te zijn gevallen...
Bij mij ook niet eerlijk gezegd :-( ATi had gewoon ATi moeten blijven!

Ja, er zijn leuke produkten door die samenwerking ontstaan en er komt nog meer aan, maar toch... het had een bepaalde charme die ik graag weer terug zie :)


En ja, ik besef dat ik dit post in het nVidia topic, maar een modje begon erover dus het zal wel mogen :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 00:48
Toettoetdaan schreef op zaterdag 24 juni 2017 @ 23:15:
Voorlopig geen Volta voor gaming: http://fudzilla.com/news/...force-will-be-incremental

Maar dat is erg verstandig, Nvidia wet dat AMD een inhaalslag maakt, ze kunnen dus door het gerbuik van een beter procede de al goede pascall argitectuur nog een ronde mee laten doen.
Logisch; tot nu toe wijzen de hoopvolle voorspellingen erop dat Vega rond de 1080Ti presteert, wellicht net iets beter. Tegelijkertijd moet AMD wel het dure HBM2 erop plakken en schijnt het energieverbruik (aka warmteonwikkeling) hoog te zijn, waardoor zeker de hogere concentratie van geheugen + GPU wellicht opnieuw een waterkoeling nodig hebben. Vega gaat duur worden.

Nvidia schijnt zo'n 50% marge te draaien op z'n GPU's. Ze gaan de 1070/1080/1080Ti gewoon in prijs laten droppen als Vega uitkomt. Volta ligt klaar op de plank als AMD eindelijk klaar is voor Navi...

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
NVIDIA Adds DirectX 12 Support to GeForce "Fermi" Architecture
With its latest GeForce 384 series graphics drivers, NVIDIA quietly added DirectX 12 API support for GPUs based on its "Fermi" architecture, as discovered by keen-eyed users on the Guru3D Forums. These include the GeForce 400-series and 500-series graphics cards. The support appears to be sufficient to run today's Direct3D feature-level 12_0 games or applications, and completes WDDM 2.2 compliance for GeForce "Fermi" graphics cards on Windows 10 Creators Update (version 1703), which could be NVIDIA's motivation for extending DirectX 12 support to these 5+ year old chips. Whether they meet your games' minimum system requirements is an entirely different matter.
https://www.techpowerup.c...eforce-fermi-architecture

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 26-09 14:29
-The_Mask- schreef op maandag 3 juli 2017 @ 10:34:
NVIDIA Adds DirectX 12 Support to GeForce "Fermi" Architecture

[...]

https://www.techpowerup.c...eforce-fermi-architecture
Wel beter laat dan nooit zeker >:)
Eigenlijk konden ze niets anders daar ze beloofd hadden dat Fermi dx12 compatibel was, in dat opzicht vind ik de support enorm laat.
Soit aan de andere kant tot nu toe kon je met dx12_0 niet veel aanvangen zeker? Zelf nu nog zal je der enkel iets aan hebben indien je software gebruikt die de feature set aanspreekt.

Uiteindelijk is dit één van de redenen dat ik en velen toch graag nvidia kaarten hebben. Oude gaming kaarten hebben mss niet de performantie voor oude games. Ze blijven wel werken/ondersteunt worden.
(Qua performantie gaan ze wel niet vooruit zoals Ati/AMD kaarten)

/me Lightdestroyer vraagt zich af of z'n geforce 5200 nog zou werken met de creator's update van win10 :+
Momenteel ligt m'n main desktop al meer dan een maand uit elkaar dus geen goesting om nog eens m'n oude agp kaart uit te testen :P

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
lightdestroyer schreef op maandag 3 juli 2017 @ 10:49:
Uiteindelijk is dit één van de redenen dat ik en velen toch graag nvidia kaarten hebben. Oude gaming kaarten hebben mss niet de performantie voor oude games. Ze blijven wel werken/ondersteunt worden.
Wat een onzin :)

Ze hebben compatibiliteit met de API toegevoegd, maar daar is ook alles mee gezegd. Alles Tier 1 of niet ondersteund; geen typed UAVs en sowieso maar 8 stuks. En het grootste deel moet ook software emulatie zijn aangezien Fermi de hardware voor veel dingen niet heeft.

Het enige positieve is dat scheduling in theorie beter zou moeten werken dan op Kepler. Heb je verder niet veel aan als er niet veel gescheduled kan worden :+

Acties:
  • +1 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 26-09 14:29
Werelds schreef op maandag 3 juli 2017 @ 13:56:
[...]

Wat een onzin :)

Ze hebben compatibiliteit met de API toegevoegd, maar daar is ook alles mee gezegd. Alles Tier 1 of niet ondersteund; geen typed UAVs en sowieso maar 8 stuks. En het grootste deel moet ook software emulatie zijn aangezien Fermi de hardware voor veel dingen niet heeft.

Het enige positieve is dat scheduling in theorie beter zou moeten werken dan op Kepler. Heb je verder niet veel aan als er niet veel gescheduled kan worden :+
Ik snap je probleem echt niet :?
nVidia zorgt er gewoon voor dat je Fermi kaarten compatibel blijven met de laatste win 10 versie (ze hadden deze feature set idd vroeger mogen releasen .. veel vroeger namelijk in 2014-2015 zoals beloofd.. commerciele redenen?)
Wat is daar mis mee?

Zoals ik al zei je hoeft niet te verwachten dat je plots een performantie verbetering krijgt, maar voor vele mensen is dit niet nodig.
Remember ... tis hard om te geloven maar echt waar .. sommige gamers (eigenlijk zelf de meerderheid) spelen niet de allerlaatste AAA++++ games op ultra maar spelen gewoon oude degelijke games met goede gameplay.

Momenteel speel ik al maanden EU4. Dat spel heeft echt geen 8-core cpu met een GTX1080ti gpu nodig maar ik amuseer me er momenteel het meeste mee (uit een bibliotheek van 200-300 games op steam bv).
Zo'n game kan je gerust op een GTX 460 spelen (zoals m'n vader doet) en zo'n driver update zorg ervoor dat je weer een jaar of 2 extra zo'n kaart kan gebruiken voor te gamen en eventueel andere software die wel minstens DX12_0 vereist.
Daar is niets mis mee.
Eigenlijk kun je zelfs zeggen dat mensen met een oude kaart die plots met de creators update gingen merken dat ze hardware support missten bij een eventuele update van één of ander pakket nu enkel hun driver dienen up te daten.

Hoe sommige mensen zelf zo'n driver update als negatief kunnen aanzien |:(
Kzou zeggen kruip terug in je "alleen de allernieuwste kaarten zijn goed genoeg en ik speel enkel met games die DX12_1 EN DX12_2 vereisen"...
Wat wellicht momenteel geen vetten zal zijn >:)

Het enige punt is at de "install" base nu zo klein is gewordend dat ze wel de commerciele geste willen doen omdat de meesten "echte" gamers hun update al reeds gedaan hebben.
Maar denk eraan, veelal worden deze kaarten dan 2de hands aangeboden. Die kopers gebruiken ook nog die kaarten hoor, behalve als je geloofd dat er een hele volksstam bestaat die enkel oude gpu's opkoopt om ergens in een vitrine kast te leggen ..

Specs


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Mijn probleem is dat Nvidia dit uit brengt als "KIJK ONS EENS, DX12 SUPPORT VOOR FERMI WOOHOO" en dat jij en anderen dat ook als dusdanig opvatten. Sterker nog, jij geeft aan dat je dit een reden vindt om Nvidia te kopen, omdat ze langer "ondersteunen".

Niets is echter minder waar, want juist het punt waar zo op gefocust wordt is het minst relevant. De DX12 ondersteuning is volledig nutteloos aangezien ze op het laagste van het laagste zitten (het is overigens FL11_1; niet 12_0, hoewel ik denk dat jij ook DX12.0 bedoelde en niet FL12_0). Al zou je D3D12 software op deze chips draaien, ze gaan dan zo hard op de knieën dat je ook weer heel rap op ALT+F4 drukt.

Wat relevant is, is dat ze WDDM 2.2 ondersteunen. Echter hoeft dat niet gepaard te gaan met DX12 ondersteuning. AMD heeft gewoon WDDM 2.0 drivers uitgebracht voor Terascale, zonder daarbij ook maar enige pseudo-ondersteuning voor D3D12 toe te voegen.

Dat is wat mij irriteert aan hoe de tech-pers dit nieuws brengt en hoe het opgevat wordt.

Dat Nvidia een WDDM 2.2 driver uit brengt is goed. De "DX12 support" heisa er omheen niet, want dat geeft de consument een volledig verkeerd beeld van wat dit inhoudt.

[ Voor 3% gewijzigd door Werelds op 03-07-2017 15:27 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

lightdestroyer schreef op maandag 3 juli 2017 @ 15:01:
Remember ... tis hard om te geloven maar echt waar .. sommige gamers (eigenlijk zelf de meerderheid) spelen niet de allerlaatste AAA++++ games op ultra maar spelen gewoon oude degelijke games met goede gameplay.
Dit vergeten mensen heel vaak inderdaad : Zat oude games die nog veel gespeeld worden!
Misschien wel meer dan sommige AAA titels :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • MadDogMcCree
  • Registratie: Januari 2011
  • Laatst online: 09-10 04:13
Worden de Pascal kaarten inmiddels ook opgekocht door miners? In de Pricewatch schieten de prijzen omhoog, een GTX 1070 (op voorraad) kost al snel 550-600 euro, een 1060 (op voorraad) 350-450 euro. Dit gaat echt nergens meer over. Ik kocht mijn oude 1070 vorig naar september voor 450 euro. Bij de GTX 1080 is de stijging wat minder scherp, maar ook hier is te zien dat voorraden per dag kleiner worden.

Nog geen maand geleden heb ik mijn 1070 geüpgrade naar een 1080ti, bij Coolblue, voor 789 euro. Voor dezelfde kaart vraagt Coolblue nu 999 euro (ok, andere concurrenten circa 900 euro, maar toch).

Nvidia zal blij zijn met deze mining bubble, maar de markt wordt hier toch behoorlijk verstoord. Met enkel AMD kaarten was het nog te overzien, echter nu ook Nvidia kaarten weggegraaid worden blijft er binnen een paar weken echt niets meer over voor de gamer, je weet wel, die lui waarvoor deze kaarten zijn gemaakt.

Nouja, of ik zit er naast en gaat men bij Nvidia pas weer restocken op het moment AMD met consumer Vega kaarten komt.

[ Voor 6% gewijzigd door MadDogMcCree op 04-07-2017 01:38 ]


Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

MadDogMcCree schreef op dinsdag 4 juli 2017 @ 01:37:
Worden de Pascal kaarten inmiddels ook opgekocht door miners? In de Pricewatch schieten de prijzen omhoog, een GTX 1070 (op voorraad) kost al snel 550-600 euro, een 1060 (op voorraad) 350-450 euro. Dit gaat echt nergens meer over. Ik kocht mijn oude 1070 vorig naar september voor 450 euro. Bij de GTX 1080 is de stijging wat minder scherp, maar ook hier is te zien dat voorraden per dag kleiner worden.

Nog geen maand geleden heb ik mijn 1070 geüpgrade naar een 1080ti, bij Coolblue, voor 789 euro. Voor dezelfde kaart vraagt Coolblue nu 999 euro (ok, andere concurrenten circa 900 euro, maar toch).

Nvidia zal blij zijn met deze mining bubble, maar de markt wordt hier toch behoorlijk verstoord. Met enkel AMD kaarten was het nog te overzien, echter nu ook Nvidia kaarten weggegraaid worden blijft er binnen een paar weken echt niets meer over voor de gamer, je weet wel, die lui waarvoor deze kaarten zijn gemaakt.

Nouja, of ik zit er naast en gaat men bij Nvidia pas weer restocken op het moment AMD met consumer Vega kaarten komt.
Interessant onderwerp, maar zo'n discussie kan beter hier gevoerd worden: [nVidia GeForce GTX 10xx] Levertijden en Beschikbaarheid

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ondertussen zit Nvidia overduidelijk ook niet te slapen, zoals eigenlijk wel te verwachten was. Het zat er dik in dat met AMD haar Infinity Fabric voor Zen met meerdere dies op een interposer, en waarschijnlijk ook Navi, opvolging zou krijgen van Nvidia. Ze kunnen simpelweg niet achter blijven nu AMD hiermee is begonnen. Nou daar komt het hoor, multiple GPU's op een die. :)

nieuws: Nvidia overweegt multichip-module-ontwerp voor gpu's

[ Voor 14% gewijzigd door DaniëlWW2 op 04-07-2017 19:03 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MadDogMcCree
  • Registratie: Januari 2011
  • Laatst online: 09-10 04:13
Maar lever je met een dergelijke GPU niet in op power consumption, kracht en warmte? Dat worden straks 4-5 slots brede kaarten.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MadDogMcCree schreef op dinsdag 4 juli 2017 @ 21:23:
Maar lever je met een dergelijke GPU niet in op power consumption, kracht en warmte? Dat worden straks 4-5 slots brede kaarten.
Het doel is niet viermaal "400mm2" dies op een interposer, maar viermaal "100mm2" dies die samen functioneren alsof het een 400mm2 die is. Heb je drastisch betere yields, hoef je niet meer te investeren in dure, speciale processen om grote chips te maken, kan je de achitectuur schalen door meer of minder van die kleine chips te gebruiken en kan je in het geval van Nvidia nog meer marge pakken. :+

AMD doet dit nu met Threadripper en Epyc, en Intel heeft er geen antwoord op. Waarom ze het nog niet doen met Vega, al sla je me dood. Navi daarentegen lijkt ook deze kant op te gaan, en Nvidia moet hierop reageren. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
DaniëlWW2 schreef op dinsdag 4 juli 2017 @ 18:57:
Ondertussen zit Nvidia overduidelijk ook niet te slapen, zoals eigenlijk wel te verwachten was. Het zat er dik in dat met AMD haar Infinity Fabric voor Zen met meerdere dies op een interposer, en waarschijnlijk ook Navi, opvolging zou krijgen van Nvidia. Ze kunnen simpelweg niet achter blijven nu AMD hiermee is begonnen. Nou daar komt het hoor, multiple GPU's op een die. :)

nieuws: Nvidia overweegt multichip-module-ontwerp voor gpu's
Ik vond het maar een beetje suf artikel, NVLink werd niet eens genoemd terwijl dat juist zo relevant is, relevanter nog dan IF voor het artikel, die wel genoemd werd..

NVLink verbinding zit gewoon op de die van de chips en zal voor de prestatie echt niet zo veel extra logic ertussen hebben, wedden dat als nvidia zou willen ze best een paar van de huidige chips op 1 substraat zouden kunnen krijgen, het is alleen niet practisch om meerdere redenen. Maar conceptueel zal er niet heel erg veel verschil zijn tussen hoe de P100 en V100 chips nu aan elkaar zitten in bijv een dgx1 of zo'n ibm bak en meerdere chips dicht op elkaar op 1 fysieke plaat. Net als dat de sub-chips in een epyc cpu eenzelfde soort verbinding met een epyc cpu hebben op een andere socket, het verschil wordt marginaal.

Binnenkort gaat sierra de lucht in wat per systeem niet alleen de gpu's maar ook de (ibm) cpu's met NVLink verbind. Ik denk dat Nvidia niet zo heel achter loopt. Ze lijken iig verder dan intel :)

Veel mensen denken dat nvlink een vervanger is van sli ofzo..

specs


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

maratropa schreef op dinsdag 4 juli 2017 @ 23:59:
[...]


Ik vond het maar een beetje suf artikel, NVLink werd niet eens genoemd terwijl dat juist zo relevant is, relevanter nog dan IF voor het artikel, die wel genoemd werd..

NVLink verbinding zit gewoon op de die van de chips en zal voor de prestatie echt niet zo veel extra logic ertussen hebben, wedden dat als nvidia zou willen ze best een paar van de huidige chips op 1 substraat zouden kunnen krijgen, het is alleen niet practisch om meerdere redenen. Maar conceptueel zal er niet heel erg veel verschil zijn tussen hoe de P100 en V100 chips nu aan elkaar zitten in bijv een dgx1 of zo'n ibm bak en meerdere chips dicht op elkaar op 1 fysieke plaat. Net als dat de sub-chips in een epyc cpu eenzelfde soort verbinding met een epyc cpu hebben op een andere socket, het verschil wordt marginaal.

Binnenkort gaat sierra de lucht in wat per systeem niet alleen de gpu's maar ook de (ibm) cpu's met NVLink verbind. Ik denk dat Nvidia niet zo heel achter loopt. Ze lijken iig verder dan intel :)

Veel mensen denken dat nvlink een vervanger is van sli ofzo..
Dat is het punt niet van wat AMD doet, en waar Nvidia ook naar lijkt te streven. Natuurlijk zullen er technische complicaties zijn, maar de mogelijkheid om in feite een chip te produceren die je schaalbaar in kan zetten is een behoorlijk voordeel vanuit productie oogpunt. Zeker nu de chips langzaam tegen de limiet van silicon aanzitten, de vraag nar met name zeer grote chips alleen maar toeneemt, juist ook omdat deep learning een vlucht neemt en steeds meer GPU's nodig heeft.

Als je met een chip meerdere verschillende modellen kan maken, dan kan je die chips flexibeler inzetten, hoge yields binnenhalen en meer marge draaien. Je ziet dat AMD het al doet voor Zen. Voor de GPU zal het waarschijnlijk om chips gaan met een enkele rendering pipeline erop en die dan verbinden. Een chip zoals GV100 kan zo veel, veel makkelijker worden geproduceerd, en dat is interessant genoeg voor Nvidia om R&D in te gooien. Verder heeft AMD al bewezen dat het technisch allemaal mogelijk is. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA Ships First Volta-based DGX Systems

Kosten USD 149k. Het kan zo goedkoop omdat ze op de doos en goodies bezuinigd hebben die krepsers van nVidia! :+

[ Voor 30% gewijzigd door Help!!!! op 07-09-2017 17:47 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

NVIDIA Readying a GeForce GTX 1070 Refresh; GTX 1070 Ti

NVIDIA is readying a new GeForce GTX 1070 refresh graphics card, according to well-placed sources. Positioned between the current GTX 1070 and the GTX 1080 11 Gbps in performance, the refreshed GTX 1070 could at least displace the current GTX 1070 from its price-point, if not replace it. NVIDIA could carve the new chip out of the latest stepping of the GP104 silicon, and give it more CUDA cores, likely 2,048 (on par with GTX 1070 Mobile), if not higher. It could also get faster memory, likely 9 Gbps GDDR5 or even 10 Gbps GDDR5X. Its core and GPU Boost clock speeds could even be dialed up a little.

NVIDIA's objective here appears to be convincingly outperforming AMD Radeon RX Vega 56, at a lower power-draw. There's a 20 percent performance gap between the current desktop GTX 1070 and GTX 1080, and the new GTX 1070 refresh could find a price-performance equation somewhere in the middle. As NVIDIA's product-stack currently stands, the GTX 1080, which was refreshed with faster 11 Gbps GDDR5X memory, has a wider performance gap with the GTX 1070, creating room for a GTX 1070 refresh SKU somewhere in the middle, which could perform within the 90th percentile of the original GTX 1080 with 10 Gbps memory. What NVIDIA could name the SKU is anybody's guess. Historically, NVIDIA has updated SKU specifications without changing the name. The GTX 1080 and GTX 1060 6 GB were refreshed with faster memory, by simply prominently mentioning the memory clock below the SKU branding, there's also the remote possibility of the GTX 1070 Ti branding to combat the "grandeur" of AMD's RX Vega branding. NVIDIA could have the new GeForce GTX 1070 refresh SKU out in time for Holiday.

https://www.techpowerup.c...-1070-refresh-gtx-1070-ti
https://www.techpowerup.c...0-ti.237016/#post-3725228

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik hoop dat ze er GDDR5x op plakken... Zijn ze gelijk ook minder populair bij de miners...

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Nog verdere segmentatie (1060 3gb vs 6gb)? Of gaat de 1070 eruit, en wordt de 1080 minder interessant?

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou, ik wens Nvidia veel succes hiermee. Als je zelf je kaart tweaked, dan kan je er heel wat meer uithalen dan reviews laten zien, voor heel wat minder power draw dan je normaal krijgt. Helaas doet bijna niemand dit. :/

Maar nu ook al een GTX1070Ti, waar we nog niks van weten, behalve dat die sneller zou moeten zijn dan de GTX1070. Gelooft iemand nog dat de Geforce Volta chips snel uitbracht zal worden, of dat het niet gewoon refresh van Pascal gaat worden?

Nvidia is al bezig om haar hele line-up te refreshen. Ik zie het gebeuren dat ze alleen een GV102 chip uitbrengen voor de Geforce lijn en de rest refreshen onder lagere nummers. Innovatie is dan ook nul voor de GPU kant. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 10-10 17:19
DaniëlWW2 schreef op donderdag 14 september 2017 @ 11:10:
Nou, ik wens Nvidia veel succes hiermee. Als je zelf je kaart tweaked, dan kan je er heel wat meer uithalen dan reviews laten zien, voor heel wat minder power draw dan je normaal krijgt. Helaas doet bijna niemand dit. :/

Maar nu ook al een GTX1070Ti, waar we nog niks van weten, behalve dat die sneller zou moeten zijn dan de GTX1070. Gelooft iemand nog dat de Geforce Volta chips snel uitbracht zal worden, of dat het niet gewoon refresh van Pascal gaat worden?

Nvidia is al bezig om haar hele line-up te refreshen. Ik zie het gebeuren dat ze alleen een GV102 chip uitbrengen voor de Geforce lijn en de rest refreshen onder lagere nummers. Innovatie is dan ook nul voor de GPU kant. :/
Ook niet direct onlogisch als je concurrent geen echt zware concurrentie geeft op dit vlak. Als je dan relatief goedkoop de 1070 wat kan tunen zodat deze weer mee kan met Vega 56 kun je de echt vernieuwende zaken wat langer onder de pet houden en terug slaan wanneer het echt nodig is. Net leuk voor ons techies, maar uit zakelijk oogpunt niet onlogisch.
Pagina: 1 ... 37 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.