• Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Persoonlijk zie ik liever vandaag een 1180Ti dan morgen. :9
Echter, hoe rustiger aan NVidia doet, hoe meer kans AMD heeft om langszij te komen. :)

Zelf denk ik alleen niet dat NVidia in slaap valt of rustig aan doet qua technologische ontwikkeling, maar ze hun focus en mankracht nu bij gebrek aan urgentie inzetten op andere gebieden waar meer te halen is.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 14 september 2017 @ 12:34:
[...]


Ook niet direct onlogisch als je concurrent geen echt zware concurrentie geeft op dit vlak. Als je dan relatief goedkoop de 1070 wat kan tunen zodat deze weer mee kan met Vega 56 kun je de echt vernieuwende zaken wat langer onder de pet houden en terug slaan wanneer het echt nodig is. Net leuk voor ons techies, maar uit zakelijk oogpunt niet onlogisch.
Ik begrijp de logica voor de korte termijn zeker, maar ik heb ook de roadmaps van AMD aardig in mijn hoofd zitten, want wat voor een "fanboy" zou ik nou zijn als ik dit niet wist? :+

Navi haar tape-out zal de komende maanden zijn. Dat bekent ongeveer een jaar voor de daadwerkelijke release. Deze serie zal op 7mn van GF worden gebakken. Massaproductie van 7nm GF staat in de planning voor H2/2018. Als er niks misgaat, dan hou ik rekening met eind 2018/begin 2019 voor Navi.

Nvidia zit ondertussen op een 18 maanden cyclus en is vrij voorspelbaar. Komen ze nu weer met een refresh serie van Maxwell, dan is dit met weinig extra prestaties, minder marge per chip, en geven ze de RTG de kans om in te lopen. Weinig extra prestaties en minder marge zal ontstaan omdat Nvidia zeer waarschijnlijk de clocks verder gaat pushen en dus de chips groter zal moeten maken. Tussen Maxwell en Pascal kwam er nog een behoorlijke die shrink die Nvidia in kostenbesparing, kleinere chips dus, en in hogere clocks voor de chips geeft gegooid. De sprong van 16nm naar 12nm TSMC is alleen erg klein, dus nieuwe verbeteringen in clockspeed zullen moeten komen uit de chips weer groter maken.

De RTG kan in dit scenario gaan inlopen, of Nvidia voorbij gaan streven omdat er tussen de gehele Volta release in begin 2018, en Navi in eind 2018/begin 2019, hoogstens een jaar zal zitten. Nvidia zal waarschijnlijk niet voor de helft van 2019 reageren. Vervolgens zie ik de RTG niet maar een klein stapje nemen met Navi als deze architectuur echt schaalbaar is. Ik kan me niet van de indruk onttrekken dat Vega een testchip is van wat Navi allemaal zal brengen, maar dat Navi zal verfijnder zijn en het maximale uit de chips zal halen, voor zowel compute als graphics workloads. Dan kan je iets heel moois krijgen vanuit de RTG, dat ook nog eens goedkoop zal zijn om te produceren. Het enige obstakel zal misschien HBM2 zijn, maar hopelijk is dat beter leverbaar over een jaar. Anders misschien toch GDDR6 voor de gaming kaarten.

Van mij mag het hoor, beetje concurrentie. Of dit nu een goed idee is voor Nvidia. De laatste keer dat ze achterover gingen leunen was met Tesla, en toen kwam destijds nog ATi ook keihard terug met de 4xxx en 5xxx series. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:12
DaniëlWW2 schreef op donderdag 14 september 2017 @ 13:54:
[...]


Ik begrijp de logica voor de korte termijn zeker, maar ik heb ook de roadmaps van AMD aardig in mijn hoofd zitten, want wat voor een "fanboy" zou ik nou zijn als ik dit niet wist? :+

Navi haar tape-out zal de komende maanden zijn. Dat bekent ongeveer een jaar voor de daadwerkelijke release. Deze serie zal op 7mn van GF worden gebakken. Massaproductie van 7nm GF staat in de planning voor H2/2018. Als er niks misgaat, dan hou ik rekening met eind 2018/begin 2019 voor Navi.

Nvidia zit ondertussen op een 18 maanden cyclus en is vrij voorspelbaar. Komen ze nu weer met een refresh serie van Maxwell, dan is dit met weinig extra prestaties, minder marge per chip, en geven ze de RTG de kans om in te lopen. Weinig extra prestaties en minder marge zal ontstaan omdat Nvidia zeer waarschijnlijk de clocks verder gaat pushen en dus de chips groter zal moeten maken. Tussen Maxwell en Pascal kwam er nog een behoorlijke die shrink die Nvidia in kostenbesparing, kleinere chips dus, en in hogere clocks voor de chips geeft gegooid. De sprong van 16nm naar 12nm TSMC is alleen erg klein, dus nieuwe verbeteringen in clockspeed zullen moeten komen uit de chips weer groter maken.

De RTG kan in dit scenario gaan inlopen, of Nvidia voorbij gaan streven omdat er tussen de gehele Volta release in begin 2018, en Navi in eind 2018/begin 2019, hoogstens een jaar zal zitten. Nvidia zal waarschijnlijk niet voor de helft van 2019 reageren. Vervolgens zie ik de RTG niet maar een klein stapje nemen met Navi als deze architectuur echt schaalbaar is. Ik kan me niet van de indruk onttrekken dat Vega een testchip is van wat Navi allemaal zal brengen, maar dat Navi zal verfijnder zijn en het maximale uit de chips zal halen, voor zowel compute als graphics workloads. Dan kan je iets heel moois krijgen vanuit de RTG, dat ook nog eens goedkoop zal zijn om te produceren. Het enige obstakel zal misschien HBM2 zijn, maar hopelijk is dat beter leverbaar over een jaar. Anders misschien toch GDDR6 voor de gaming kaarten.

Van mij mag het hoor, beetje concurrentie. Of dit nu een goed idee is voor Nvidia. De laatste keer dat ze achterover gingen leunen was met Tesla, en toen kwam destijds nog ATi ook keihard terug met de 4xxx en 5xxx series. :)
Ik denk niet zozeer dat Nvidia achterover gaat leunen of aan het leunen is, maar eerder dat ze de "kaarten" nog een tijdje dichtbij de borst houden en te finetunen daar de huidige generatie nog als zoete broodjes over de toonbank lijkt te gaan en om dan te releasen mocht AMD nog komen met de Vega refresh. De huidige Vega is nu helaas niet direct het product waar Nvidia direct "guns blazing" op hoeft te reageren met een volledig nieuwe range aan gaming kaarten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Daarnaast kunnen ze wellicht hun wafercapaciteit winstgevender benutten door deze te gebruiken voor de andere (professionele) markten.

Zolang ze hun gamingmarketshare op pijl houden is het denk ik voor nu goed genoeg voor nVidia

Hoe meer ze in de professionele markten kunnen groeien en marktaandeel verovern, hoe moeilijker die markten voor AMD worden en hoe meer pijn ze AMD doen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 14 september 2017 @ 14:22:
[...]


Ik denk niet zozeer dat Nvidia achterover gaat leunen of aan het leunen is, maar eerder dat ze de "kaarten" nog een tijdje dichtbij de borst houden en te finetunen daar de huidige generatie nog als zoete broodjes over de toonbank lijkt te gaan en om dan te releasen mocht AMD nog komen met de Vega refresh. De huidige Vega is nu helaas niet direct het product waar Nvidia direct "guns blazing" op hoeft te reageren met een volledig nieuwe range aan gaming kaarten.
De volgende generatie kunnen ze al niks meer aan fine tunen op hardware niveau, want die zijn allang taped out. Is het wederom een Maxwell refresh, dan zullen ze qua software ook weinig kunnen doen. Is Volta iets heel anders qua achitectuur dan zien we dat dan wel. Dat denk ik eigenlijk niet. Als je ziet wat Nvidia in chips zoals de GP100 en GV100 heeft gestoken, dan betwijfel ik of ze er naast een totaal nieuwe achitectuur voor de Geforce lijn hebben ontwikkeld.

Ondertussen zetten ze wel flink in op de HPC markt, waar flink wat groei zit, en daar is er wel concurrentie, zelfs van de RTG. Ondertussen zal Nvidia inderdaad proberen hun marktaandeel op pijl te houden, terwijl de RTG hier ook een aanval zal willen lanceren, want het is een aardige cash flow voor Nvidia, behoorlijk wat meer dan de HPC markt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:12
DaniëlWW2 schreef op donderdag 14 september 2017 @ 14:57:
[...]


De volgende generatie kunnen ze al niks meer aan fine tunen op hardware niveau, want die zijn allang taped out. Is het wederom een Maxwell refresh, dan zullen ze qua software ook weinig kunnen doen. Is Volta iets heel anders qua achitectuur dan zien we dat dan wel. Dat denk ik eigenlijk niet. Als je ziet wat Nvidia in chips zoals de GP100 en GV100 heeft gestoken, dan betwijfel ik of ze er naast een totaal nieuwe achitectuur voor de Geforce lijn hebben ontwikkeld.

Ondertussen zetten ze wel flink in op de HPC markt, waar flink wat groei zit, en daar is er wel concurrentie, zelfs van de RTG. Ondertussen zal Nvidia inderdaad proberen hun marktaandeel op pijl te houden, terwijl de RTG hier ook een aanval zal willen lanceren, want het is een aardige cash flow voor Nvidia, behoorlijk wat meer dan de HPC markt.
Ik verwacht dat ze zeker zaken anders zullen gaan doen de komende generaties. Als DX12/Vulcan gaan groeien (en dat moet gaan gebeuren, al zal het verwacht ik langzaam maar zeker zijn) zullen ze wel moeten. Dan kunnen ze echt niet op deze architectuur blijven daar AMD ze dan sowieso voorbij gaat hollen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 14 september 2017 @ 15:09:
[...]


Ik verwacht dat ze zeker zaken anders zullen gaan doen de komende generaties. Als DX12/Vulcan gaan groeien (en dat moet gaan gebeuren, al zal het verwacht ik langzaam maar zeker zijn) zullen ze wel moeten. Dan kunnen ze echt niet op deze architectuur blijven daar AMD ze dan sowieso voorbij gaat hollen.
Dan zal Nvidia een hardware scheduler toe moeten voegen, en hun drivers drastisch kunnen versimpelen, in ruil voor het opgeven van betere prestaties bij games die nog steeds nauwelijks multithreaded zijn op het CPU vlak. Dat is uiteindelijk ook de zwakte van Nvidia, en de sterkte van de RTG. Met DX12/Vulkan API games kan je de luiheid van gamedevelopers niet meer compenseren met betere drivers. Nvidia geeft nu een hele hoop geld uit om dit op te lossen, omdat de RTG dit niet kan doen en ze dus verhoudingsgewijs beter presteren, en dus ook meer chips verkopen. Zo verdient Nvidia die investering terug. Dat ze nu ook nog eens opzettelijk bepaalde games hun prestaties saboteren is even wat minder ja...

Voor Nvidia is de overgang naar DX12/Vulkan niet voordelig, omdat het ze hun voordelen kost ten opzichte van de RTG, en ze qua hardware een inhaalslag zullen moeten maken op de RTG. Ik kan geen technische reden bedenken waarom je Maxwell niet dusdanig kan aanpassen om deze volledig DX12 compatible kan maken, met alle feature flags enabled, zoals Vega 10. Nu is wederom Maxwell echt niet slecht, maar bijvoorbeeld die hardware scheduler kan een obstakel zijn. AMD heeft hier nu jaren recente ervaring mee voor graphics workloads, Nvidia eigenlijk niet meer. Het is nu ook weer niet zo dat Nvidia totaal onfeilbaar is, en terug gaan naar hardware scheduling is wel een stap. Het zal in ieder geval die space kosten, en het verbruik van de chip verhogen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Zou dit een verlate 1/4 grap zijn? https://videocardz.com/73...ition-is-star-wars-themed

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

nieuws: Nividia kondigt Titan V met Volta-gpu aan

Geen spannende release imo.

Het enige wat mij verbaast is de naamgeving. De titel Titan suggereert een opvolger voor de Titan Xp maar niets is minder waar. Een eventuele opvolger van de 1080Ti zal niet dezelfde GPU dragen me dunkt, daar heb je niets aan de tensor cores...

Of ben ik nu aan het raaskallen?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Misschien kunnen die Tensor cores worden toegepast voor FP16 in games zoals AMD dat ook doet, wie weet?

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Devil N
  • Registratie: September 2000
  • Laatst online: 05-09 20:08
Blaat schreef op vrijdag 8 december 2017 @ 08:56:
nieuws: Nividia kondigt Titan V met Volta-gpu aan

Geen spannende release imo.

Het enige wat mij verbaast is de naamgeving. De titel Titan suggereert een opvolger voor de Titan Xp maar niets is minder waar. Een eventuele opvolger van de 1080Ti zal niet dezelfde GPU dragen me dunkt, daar heb je niets aan de tensor cores...

Of ben ik nu aan het raaskallen?
Desondanks wil ik nog steeds game benchmarks zien. En gelukkig weten we allemaal dat er mensen zo gek gaan zijn om 3000 dollar aan de Titan V uit te geven, al is het alleen maar om benchmark records te breken. :P

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik ben benieuwd of er nog Volta consumentenkaarten komen want dit werd eerst volgens gerucht niet meer gepland. Aangezien ze deze keer 2x de hoofdprijs vragen voor Enthusiast/GPGPU kaartben ik benieuwd of die vlieger wel opgaat in het komende half jaar.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Devil N schreef op vrijdag 8 december 2017 @ 10:43:
[...]

Desondanks wil ik nog steeds game benchmarks zien. En gelukkig weten we allemaal dat er mensen zo gek gaan zijn om 3000 dollar aan de Titan V uit te geven, al is het alleen maar om benchmark records te breken. :P
Ik zou zeggen koop de Titan V en maak een user review, je kunt er nu maximaal 2 betellen bij Nvidia zelf :+

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@edward2
Hopelijk alles goed. Neem je er eentje of sla je deze toch maar even over ;) :P

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Help!!!! schreef op vrijdag 8 december 2017 @ 18:13:
@edward2
Hopelijk alles goed. Neem je er eentje of sla je deze toch maar even over ;) :P
Ze schijnen geen Sli te ondersteunen, dus nee :D

Ben wel erg benieuwd wat deze in games doet. TitanXp +30-40%?

[ Voor 11% gewijzigd door edward2 op 08-12-2017 20:01 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Juist wel. ;)
Het enige wat mij verbaast is de naamgeving. De titel Titan suggereert een opvolger voor de Titan Xp maar niets is minder waar. Een eventuele opvolger van de 1080Ti zal niet dezelfde GPU dragen me dunkt, daar heb je niets aan de tensor cores...

Of ben ik nu aan het raaskallen?
Ja. :P

Nvidia heeft haar bizar grote monsterchip van 815mm2 in de Titan lijn gezet voor maar $3000. Dit verraad twee dingen.

Ten eerste laat het zien dat Nvidia zich helemaal niet comfortabel voelt met hun huidige HPC line-up. Ze gaan er niet vanuit dat onderzoeksinstituten maar even bakken met geld uit gaan geven voor de Tesla GV100, en brengen de chip nu voor eigenlijk een koopje ook als discrete insteekkaart op de markt. Ze maken zich bi Nvidia zorgen. Zorgen om Intel Nervana, omdat Intel Koduri heeft gekocht want daar is flink wat geld en middelen geboden aan Koduri, en ze maken zich zorgen om de HPC potentie van Vega, samen met het ROCm platform van AMD wat steeds volwassener aan het worden is.

Ten tweede geeft het aan dan de Titan lijn weer terug gaat naar professionele applicaties. Hiermee is dit een direct antwoord op de Radeon Pro WX9100 en SSG kaarten. Daar is Vega uiteindelijk voor bedoeld, en niet voor gamers.

Ook geeft dit eigenlijk weg hoe de Nvidia lineup eruit gaat zien. GV102 gaat zowel een Ti, als een xx80 worden. GV104 een xx70 en xx60, GV106 een xx50ti en xx50. Terug naar hoe het was met Kelper dus. Eerst ga je een cut down GV102 zien, later pas de volle chip. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
DaniëlWW2 schreef op vrijdag 8 december 2017 @ 20:34:
[...]

Juist wel. ;)

[...]


Ja. :P

Nvidia heeft haar bizar grote monsterchip van 815mm2 in de Titan lijn gezet voor maar $3000. Dit verraad twee dingen.

Ten eerste laat het zien dat Nvidia zich helemaal niet comfortabel voelt met hun huidige HPC line-up. Ze gaan er niet vanuit dat onderzoeksinstituten maar even bakken met geld uit gaan geven voor de Tesla GV100, en brengen de chip nu voor eigenlijk een koopje ook als discrete insteekkaart op de markt. Ze maken zich bi Nvidia zorgen. Zorgen om Intel Nervana, omdat Intel Koduri heeft gekocht want daar is flink wat geld en middelen geboden aan Koduri, en ze maken zich zorgen om de HPC potentie van Vega, samen met het ROCm platform van AMD wat steeds volwassener aan het worden is.

Ten tweede geeft het aan dan de Titan lijn weer terug gaat naar professionele applicaties. Hiermee is dit een direct antwoord op de Radeon Pro WX9100 en SSG kaarten. Daar is Vega uiteindelijk voor bedoeld, en niet voor gamers.

Ook geeft dit eigenlijk weg hoe de Nvidia lineup eruit gaat zien. GV102 gaat zowel een Ti, als een xx80 worden. GV104 een xx70 en xx60, GV106 een xx50ti en xx50. Terug naar hoe het was met Kelper dus. Eerst ga je een cut down GV102 zien, later pas de volle chip. ;)
Dat is nog al een hele opsomming van veel speculatie en vermoedens. Veel feiten laten zien dat Nvidia pro-markt alleen maar aan het groeien is, de bestaande cijfers hier van liegen er ook niet om. :)
Met het tweede ben ik het wel eens.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gekke Jantje schreef op zaterdag 9 december 2017 @ 10:21:
[...]


Dat is nog al een hele opsomming van veel speculatie en vermoedens. Veel feiten laten zien dat Nvidia pro-markt alleen maar aan het groeien is, de bestaande cijfers hier van liegen er ook niet om. :)
Met het tweede ben ik het wel eens.
Maar het is allemaal goed verdedigbaar. ;)
Kijk, Nvidia is hartstikke voorspelbaar in hun grafische producten. Ongeveer elke 18 maanden komt er een nieuwe generatie aan Geforce producten die enkele tientallen procenten aan winst laten zien. Deze launch is altijd verdeeld in een aantal chips, Gx100, Gx102, Gx104 en Gx106 zijn meestal van de partij. Gx100 is puur HPC en gaat nooit uitgebracht worden als Geforce. Dit is eigenlijk een totaal andere achitectuur dan de rest van de generatie. GP100 en GV100 zitten veel dichter op AMD GCN dan op Maxwell/Pascall. Daar zijn hele goede redenen voor. Nvidia heeft jaren nodig gehad om hun GPGPU architectuur op orde te krijgen, terwijl AMD het de eerste keer eigenlijk meteen goed deed. Het probleem was dan Nvidia de bijbehorende software ondersteuning had, en AMD dacht dat bedrijven dat wel zouden gaan creëren. Enorme fout. AMD had nu een enorm aandeel kunnen hebben gehad in de HPC markt, als ze voor 2014 ook geleid waren door mensen die enig idee hadden waar ze mee bezig waren. Afijn, verder niet erg relevant.

Eerst ter illustratie GV100.
Afbeeldingslocatie: https://images.anandtech.com/doci/11367/voltablockdiagram.png

Gx102 is een Gx100 chip met alle HPC onderdelen eruit gesloopt. Ook veranderen de verhoudingen van CUDA cores per SM. Gx100 is een 64 per SM ontwerp, hetzelfde als GCN, Gx102 en lager is 128 per SM. De reden is dat puur grafische berekeningen meer hebben aan een diepere SM met meer rekeneenheden. Vervolgens is het een kwestie van SM's toevoegen. Dit is Maxwell, en Maxwell is als achitectuur zeer schaalbaar. Je kan zonder problemen extra SM's toevoegen, of juist weghalen, en het presteert uitstekend. Daarom gaat Maxwell voorlopig niet verdwijnen. Ja, Maxwell want Pascal was een vergrote Maxwell, en niks meer.

GV102 kan je nu ook al aardig inschatten qua formaat. GV100 is een monsterlijke 5376 CUDA cores in 84 SM blokken van 64 CUDA cores. GV102 gaat waarschijnlijk 5376 CUDA cores in 42 SM blokken van 128 CUDA cores zijn. Denk de horizontale scheiding weg, geen tenser cores, nog wat dingen weg en dat is het ongeveer wel. Dit ook georganiseerd in zes grotere GPC's.

Dat gaat een 500mm2+ monster van een chip worden. Nvidia is voorspelbaar qua launches dus eerst krijg je de cut down variant. Nvidia hakt graag ongeveer 25% van een chip af, dus we gaan van zeven SM's per GPC, naar waarschijnlijk vijf. Kom je uit op 128x5x6=3840 CUDA cores. Dat noemen we een Titan Xp. ;)
Voor dit privilege mag je minstens €800 gaan betalen. Goedkoper dan een Titan Xp, en sneller dan een GTX1080Ti, dus iedereen blij, vooral Nvidia omdat iedereen er weer in gaat trappen. Later komt er dan een 5376 CUDA core monster en dan is iedereen weer boos, of kopen ze deze ook voor minstens €800. :+

Dan volgt GV104. GV104 gaat een kleinere chip zijn, maar nog steeds niet klein. Pak je de Pascal GP104, dan zie je 20x128 CUDA cores, dit gaan er meer worden.

GP104/GTX1080. (let ook op hoe er alleen het separate SM gedeelte is weggehaald waardoor het nu een 128 CUDA core SM's zijn)
Afbeeldingslocatie: https://www.legitreviews.com/wp-content/uploads/2016/05/GeForce_GTX_1080_Block_Diagram.jpg

GV104 komt ook in een vier GPC verhouding, maar dan met in totaal 24 of 28 SM's, ik vermoed zelf zes, maar zeven per GPC kan ook heel goed. Krijg je dus 24x128=3072 CUDA cores. De volle chip gaat de GTX1080 verslaan, de cut down kan heel goed 20x128 worden, oftewel de 2560 CUDA cores van de GTX1080. Dat noemen we dan een xx60.

GP106, care. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Waarom denk je dat ik voor een GTX 1080 Ti ben gegaan omdat ik net als iedereen bijna niet voor de Titan gaat kiezen vanwege het kleine verschil met de prestaties en het enorme prijs verschil. Mensen die een Titan kopen doen dat dan ook omdat het gewoon kan en die balen dan echt niet van de Ti dat die kaart vergelijkebare prestaties kan leveren voor veel minder geld, dit weten ze wel behalve toen de eerste Titan en Ti uit kwamen jaren terug. GPGPU had Nvidia al lang geleden goed op orde met fermi, de big chip zou volgens bepaalde mensen ook niets toevoegen voor GPGPU maar ik wist wel beter. Dat Nvidia met latere generaties niet meer zo veel focus had op fp64 komt omdat Nvidia andere prioriteiten had waar vast meer winst valt te boeken, je kan niet overal domineren.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
Nvidia brengt de titan altijd eerder uit, bij de huidige kaarten is dat de voornaamste reden om een titan te halen.

Cad optimalisaties in de driver is ook een geldige reden, amd begon daar mee met vega frontier en nvidia heeft het toen ook gedaan voor de titans.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Gezien het gebrek van AMD in dit segment op het moment & de vraag naar Machine Learning etc hoeft deze Titan niet echt te passen in het rijtje; zie de prijs, de marketing en de functionaliteit. De anthausiast met centen is bijvangst. Er is gewoon vraag naar wat de GV100 kan maar dan op de desktop met actieve koeling.

Er zal nog wel een Quadro GV100 komen alá de GP100, of mogelijk slaan ze die over, en een quadro V6000 die meer zal lijken op de gtx'en die gaan komen. Als sloegen ze wel eens chips over met de Quadro lijn..

specs


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
@DaniëlWW2, onzin dat Nvidia nu die kaart uitbrengt, omdat ze angstig zijn voor Koduri. Ten eerste weet iedereen dat ze zo'n kaart niet opeens out of the blue kunnen ophoesten en ten tweede gaat het nog lang duren voordat je ook maar enig effect gaat zien van zijn aanstelling.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

maratropa schreef op zaterdag 9 december 2017 @ 12:27:
Gezien het gebrek van AMD in dit segment op het moment & de vraag naar Machine Learning etc hoeft deze Titan niet echt te passen in het rijtje; zie de prijs, de marketing en de functionaliteit. De anthausiast met centen is bijvangst. Er is gewoon vraag naar wat de GV100 kan maar dan op de desktop met actieve koeling.
Je vindt Vega FE, Radeon Pro WX9100 en Radeon Pro SSG gebrekkig? Iedereen staart zich maar rot op gaming benchmarks, terwijl dat voor AMD nauwelijks relevant is. Waarom zouden ze een kaart voor $200-$300 aan een AIB verkopen die er ook marge over moet maken, en dan nog een paar keer voor de retailketen? Zijn ze alsnog te duur, en AMD zal er geen winst op maken. Ze kunnen er zo $1000-$2000+ voor vragen door er iets van $100-$200 te investeren voor extra HBM2, en de koeler een ander kleurtje te geven. En of Vega goed is in HPC taken. GP102 is al een absolute no go voor AI werk omdat HBM2 een vereiste is, en Vega zal in veel andere applicaties ook sneller zijn dan een GP102 chip.

Nvidia verkocht verder de Tesla versie van GV100 voor $10.000, en nu komen ze met een cut down memory bus versie voor $3000. Denk je nu echt dat dit geen reactie is op Radeon Pro met die gestoord grote 815mm2 monsterchip voor deze prijs? Nvidia bakent hiermee zeer bewust hun AI markt af, en valt zeer bewust de kansen voor de Radeon Pro lijn aan.
Er zal nog wel een Quadro GV100 komen alá de GP100, of mogelijk slaan ze die over, en een quadro V6000 die meer zal lijken op de gtx'en die gaan komen. Als sloegen ze wel eens chips over met de Quadro lijn..
Er komt altijd een Quadro, omdat ze daar meer voor kunnen vragen. ;)
Paprika schreef op zaterdag 9 december 2017 @ 12:36:
@DaniëlWW2, onzin dat Nvidia nu die kaart uitbrengt, omdat ze angstig zijn voor Koduri. Ten eerste weet iedereen dat ze zo'n kaart niet opeens out of the blue kunnen ophoesten en ten tweede gaat het nog lang duren voordat je ook maar enig effect gaat zien van zijn aanstelling.
Helemaal niet. Intel heeft miljarden uitgegeven aan Nervana, en door een van de beste grafische architecten in de industrie te kopen en een complete afdeling aan hem te geven, geeft Intel aan dat ze het menen. Niks meer interne kennis die ze zelf hebben en de eigen ivoren toren waar al jaren mislukking na mislukking uit is gekomen. Nu menen ze het. Nvidia kan hier alleen op reageren door nu zoveel mogelijk vendor lockin te creëren. Koduri zijn resultaten zie je pas over vijf, misschien vier jaar als het om hardware gaat, maar Intel heeft meer te doen. Nervana heeft een software ecosysteem nodig, en laat Koduri dat nu op hebben gezet bij AMD, op een zeer beperkt budget. Dat is de expertise die Intel nu wil hebben, de hardware komt later wel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@DaniëlWW2 Ik heb het juist niet over games. Je noemde het zelf al, het gaat voor de eindgebruiker om het ecosysteem en de software, ik noem de hardware zelf niet zo zeer gebrekkig. Meer de pech dat veel software er in de praktijk niet of minder goed mee werkt.
NVIDIA's standard libraries made it very easy to establish the first deep learning libraries in CUDA, while there were no such powerful standard libraries for AMD's OpenCL. Right now, there are just no good deep learning libraries for AMD cards; so NVIDIA it is. Even if some OpenCL libraries would be available in the future I would stick with NVIDIA: The thing is that the GPU computing or GPGPU community is very large for CUDA and rather small for OpenCL. Thus, in the CUDA community, good open source solutions and solid advice for your programming is readily available.
link naar recent artikel uit september

No go? Er worden servers vol met gp102 titan-x verkocht voor Deep learning en ai etc toepassingen.

Die titan V van 3000 euro heeft weinig te maken met AMD, maar dat er een vraag is naar CUDA capable desktop gpu's met deze power.

Ik zou graag een gezondere markt zien maar dat gebeurt niet zo lang CUDA dominant is. Ik begrijp dat AMD nu een tool heeft die CUDA omzet maar dat moet wel toegepast worden..

specs


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

maratropa schreef op zaterdag 9 december 2017 @ 18:29:
@DaniëlWW2 Ik heb het juist niet over games. Je noemde het zelf al, het gaat voor de eindgebruiker om het ecosysteem en de software, ik noem de hardware zelf niet zo zeer gebrekkig. Meer de pech dat veel software er in de praktijk niet of minder goed mee werkt.


[...]
link naar recent artikel uit september

No go? Er worden servers vol met gp102 titan-x verkocht voor Deep learning en ai etc toepassingen.

Die titan V van 3000 euro heeft weinig te maken met AMD, maar dat er een vraag is naar CUDA capable desktop gpu's met deze power.

Ik zou graag een gezondere markt zien maar dat gebeurt niet zo lang CUDA dominant is. Ik begrijp dat AMD nu een tool heeft die CUDA omzet maar dat moet wel toegepast worden..
Die tool, HIP, onderdeel van GPUOpen, is er nu pas twee jaar...
https://gpuopen.com/platform-aware-coding-inside-hip/

Verder verraad die bron meteen dat die niet op de hoogte is van de nieuwste ontwikkelingen. OpenGL is dus niet AMD exclusief, of wat AMD gebruikt. Nee, AMD begrijpt heel goed dat OpenGL een waardeloos platform is voor HPC, dus zetten ze CUDA helemaal om naar C++. Dat is ook open software, maar dan wel met een basis waar je mee kan werken zonder zelf alles te moeten doen. ;)

Verder is HBM2 wel wat meer dan wat extra bandbreedte. Zaken zoals diepgaande error correcting, korte afstanden tussen de GPU en de geheugenchips wat voor lage latecy's zorgt. Zijn de acces times ook nog eens zeer snel. Dit alles zorgt ervoor dat elke serieuze HPC chip met HBM2 werkt. Of dat nu Intel, Nvidia, AMD of Google is.

Voor AI heb je specifiek nog wat extra dingen nodig. FP16, FP32 en FP64 capaciteit zonder prestatieverlies. Dus FP16 = FP32 x 2 aan TFLOPS, FP64 is 0,5x van FP32. Verder heb je ook Tensercores nodig.

Dat is Nvidia haar aas. Nvidia is de enige die werkelijk alles biedt op een chip. Dat betekent niet dat er geen rovers op de kust zijn, of dat AI het enige is wat er gebeurd met een GPGPU. Wil je bijvoorbeeld 4K of 8K films gaan renderen op kwaliteitsinstellingen van Hollywood, dan is de Radeon Pro SSG je kaart, en daar heeft Nvidia weer geen antwoord op. Een 2TB NVME gebruiken als cache is iets dat alleen Vega kan.

Nee, die Titan V heeft alles met chips zoals Vega te maken. Vega is niet toptier, maar kan alsnog heel veel. Verder waarom zou Nvidia hun monsterchip van 815mm2 verkopen voor maar $3000, als ze er ook $10.000 voor kunnen krijgen? Die chip is die $10.000 waard, omdat de AI race winnen veel meer op kan leveren dan de investering in die chips. Personeel dat met deze hardware werkt kost meer, en die zullen dit gewoon eisen, of vertrekken naar een concurrent. Nvidia laat met de effectieve prijsdaling zien dat wel meer op het oog hebben.

Nvidia is niet Intel die zich volledig met de broek naar beneden hebben laten verrassen door Intel. Nvidia is juist bezig om boven alle verwachtingen te presteren, omdat ze weten dat AMD een aanval zou wagen, en omdat Intel hun peilen heeft gericht op Nvidia. Ze moeten wel, want Intel kan je niet van winnen, wel verliezen. De enige die een Intel aanval hebben overleeft, ternauwernood zijn AMD, en die zijn dus ook niet gek of te onderschatten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op zaterdag 9 december 2017 @ 19:15:
[...]


Die tool, HIP, onderdeel van GPUOpen, is er nu pas twee jaar...
https://gpuopen.com/platform-aware-coding-inside-hip/

Verder verraad die bron meteen dat die niet op de hoogte is van de nieuwste ontwikkelingen. OpenGL OpenCL is dus niet AMD exclusief, of wat AMD gebruikt. Nee, AMD begrijpt heel goed dat OpenGL OpenCL een waardeloos platform is voor HPC, dus zetten ze CUDA helemaal om naar C++. Dat is ook open software, maar dan wel met een basis waar je mee kan werken zonder zelf alles te moeten doen. ;)
De reden waarom OpenCL waardeloos lijkt is omdat Nvidia verder was met Cuda en daarmee de standaard heeft gezet in de industrie; Ze ondersteunen wel OpenCL alleen was dat voor lange tijd alleen de basis, ze liepen tot voor kort daarin behoorlijk achter.
https://www.phoronix.com/...x=OpenCL-2.0-NVIDIA-Preps
Dit heeft AMD geforceerd die tool te maken zodat CUDA code om te zetten is naar OpenCL (dat is voor c++) code dat op AMD kaarten werkt.

Acties:
  • 0 Henk 'm!

Verwijderd

Niet heel indrukwekkend die Titan V, een paar procent sneller dan de 1080TI met gaming en dat voor €3000....
https://videocardz.com/74...titan-v-benchmarks-emerge

Deze Titan V is gewoon een 100% gaming kaart, zelfde gforce drivers.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Verwijderd schreef op zondag 10 december 2017 @ 09:50:
Niet heel indrukwekkend die Titan V, een paar procent sneller dan de 1080TI met gaming en dat voor €3000....
https://videocardz.com/74...titan-v-benchmarks-emerge

Deze Titan V is gewoon een 100% gaming kaart, zelfde gforce drivers.
Het is absoluut geen gaming kaart. ;)
Het is een deep learning kaart met een beperkte driverstack.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
De game prestatie vallen erg tegen, wat een gedrocht voor 3000 pegels. De enige die er wat aan zal hebben is de semi pro, ik denk dat daarom Nvidia volta toegankelijker heeft gemaakt.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op zondag 10 december 2017 @ 09:53:
[...]


Het is absoluut geen gaming kaart. ;)
Het is een deep learning kaart met een beperkte driverstack.
Haha iets met Vega FE...... daar was hetzelfde gelul, gaming prestaties waren niet beter dan de 1080TI en dus werd die omgedoopt tot workstation kaart, wat blijkt de Vega gaming kaarten waren gewoon hetzelfde.
En nu begint het bij NVIDIA, de gaming prestaties vallen tegen en is het plots een workstation kaart volgens NVIDIA marketing.
Helaas wel in het achterhoofd dat de Volta “gaming” kaarten (lol) waarschijnlijk niet komen dus ook geen vergelijkingen.

Acties:
  • +1 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Verwijderd schreef op zondag 10 december 2017 @ 10:01:
[...]

Haha iets met Vega FE...... daar was hetzelfde gelul, gaming prestaties waren niet beter dan de 1080TI en dus werd die omgedoopt tot workstation kaart, wat blijkt de Vega gaming kaarten waren gewoon hetzelfde.
En nu begint het bij NVIDIA, de gaming prestaties vallen tegen en is het plots een workstation kaart volgens NVIDIA marketing.
Helaas wel in het achterhoofd dat de Volta “gaming” kaarten (lol) waarschijnlijk niet komen dus ook geen vergelijkingen.
De Vega FE was dan ook een semi pro kaart net als de Titan, dit is nooit anders geweest dus ik vraag me af wat je probeert te bereiken met je opmerking. Volgens mij was het ook al redelijk bekent dat Volta niet geschikt is voor gaming. Het is wachten op Ampère of Pascal refresh.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
DaniëlWW2 schreef op zaterdag 9 december 2017 @ 19:15:
[...]


Die tool, HIP, onderdeel van GPUOpen, is er nu pas twee jaar...
https://gpuopen.com/platform-aware-coding-inside-hip/

Verder verraad die bron meteen dat die niet op de hoogte is van de nieuwste ontwikkelingen. OpenGL is dus niet AMD exclusief, of wat AMD gebruikt. Nee, AMD begrijpt heel goed dat OpenGL een waardeloos platform is voor HPC, dus zetten ze CUDA helemaal om naar C++. Dat is ook open software, maar dan wel met een basis waar je mee kan werken zonder zelf alles te moeten doen. ;)

Verder is HBM2 wel wat meer dan wat extra bandbreedte. Zaken zoals diepgaande error correcting, korte afstanden tussen de GPU en de geheugenchips wat voor lage latecy's zorgt. Zijn de acces times ook nog eens zeer snel. Dit alles zorgt ervoor dat elke serieuze HPC chip met HBM2 werkt. Of dat nu Intel, Nvidia, AMD of Google is.

Voor AI heb je specifiek nog wat extra dingen nodig. FP16, FP32 en FP64 capaciteit zonder prestatieverlies. Dus FP16 = FP32 x 2 aan TFLOPS, FP64 is 0,5x van FP32. Verder heb je ook Tensercores nodig.

Dat is Nvidia haar aas. Nvidia is de enige die werkelijk alles biedt op een chip. Dat betekent niet dat er geen rovers op de kust zijn, of dat AI het enige is wat er gebeurd met een GPGPU. Wil je bijvoorbeeld 4K of 8K films gaan renderen op kwaliteitsinstellingen van Hollywood, dan is de Radeon Pro SSG je kaart, en daar heeft Nvidia weer geen antwoord op. Een 2TB NVME gebruiken als cache is iets dat alleen Vega kan.

Nee, die Titan V heeft alles met chips zoals Vega te maken. Vega is niet toptier, maar kan alsnog heel veel. Verder waarom zou Nvidia hun monsterchip van 815mm2 verkopen voor maar $3000, als ze er ook $10.000 voor kunnen krijgen? Die chip is die $10.000 waard, omdat de AI race winnen veel meer op kan leveren dan de investering in die chips. Personeel dat met deze hardware werkt kost meer, en die zullen dit gewoon eisen, of vertrekken naar een concurrent. Nvidia laat met de effectieve prijsdaling zien dat wel meer op het oog hebben.

Nvidia is niet Intel die zich volledig met de broek naar beneden hebben laten verrassen door Intel. Nvidia is juist bezig om boven alle verwachtingen te presteren, omdat ze weten dat AMD een aanval zou wagen, en omdat Intel hun peilen heeft gericht op Nvidia. Ze moeten wel, want Intel kan je niet van winnen, wel verliezen. De enige die een Intel aanval hebben overleeft, ternauwernood zijn AMD, en die zijn dus ook niet gek of te onderschatten.
Ik begrijp dat die tool er al langer is, maar het gaat om; wordt hij gebruikt, kan ik als eindgebruiker nu ook mijn favo rendertool op een AMD gpu draaien, etc.

Ik neem aan dat je OpenCL bedoelt, geen openGL? :) Maar die bron kijkt er gewoon practisch naar, alles is cuda, nvidia is de norm, afwijken is het jezelf moeilijk maken. Een vervelende viceuze cirkel voor AMD.

Als die extra's zijn leuk maar voor AI berekeningen heb je die niet perse allemaal nodig, anders had je geen servers en pc's vol "consumenten" chips om dit te doen.

Die Radeon Pro SSG; ze plakken wat NVME ssd's via een pci-e multiplexer op een gpu, daar is niks speciaals aan, een goeie nvme ssd naast je gpu in een pci-e 16x slot is hetzelfde. De truuk is dit goed gebruiken met software, dus de driver en applicatie ondersteuning gaat het om. Wie weet komt nvidia ook nog met zoiets (pci-e of ram cache) maar de vraag is of er echt vraag naar is..

Zou nvidia al die V100 chips voor 10K weg kunnen zetten? Volgens mij hebben ze er genoeg en zijn ze voor een bepaalde doelgroep gewoon te duur voor 10K?

specs


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
maratropa schreef op zondag 10 december 2017 @ 13:05:
Die Radeon Pro SSG; ze plakken wat NVME ssd's via een pci-e multiplexer op een gpu, daar is niks speciaals aan, een goeie nvme ssd naast je gpu in een pci-e 16x slot is hetzelfde. De truuk is dit goed gebruiken met software, dus de driver en applicatie ondersteuning gaat het om. Wie weet komt nvidia ook nog met zoiets (pci-e of ram cache) maar de vraag is of er echt vraag naar is..
Is er al jaren
https://developer.nvidia.com/gpudirect

Using GPUDirect, multiple GPUs, third party network adapters, solid-state drives (SSDs) and other devices can directly read and write CUDA host and device memory, eliminating unnecessary memory copies, dramatically lowering CPU overhead, and reducing latency, resulting in significant performance improvements in data transfer times for applications running on NVIDIA Tesla™ and Quadro™ products

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10-10 16:22
K|ngp|n zijn Superposition resultaten (GTX1080 Ti LN2 vs Titan V air) zijn anders behoorlijk gecrushed:
https://benchmark.unigine...extreme/single-gpu/page-1

Een eigenaar op Reddit heeft wat benchmarks gedraaid:
Superposition 1080p extreme
8552 @ stock everything
8850 @ 120% tdp
9520 @ gpu+100mhz, mem+100mhz, fan on max
Stock dus hetzelfde resultaat als een zwaar overgeklokte GTX1080Ti (~2600MHz...)

[ Voor 40% gewijzigd door Paprika op 10-12-2017 13:26 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Verwijderd schreef op zondag 10 december 2017 @ 10:01:
[...]

Haha iets met Vega FE...... daar was hetzelfde gelul, gaming prestaties waren niet beter dan de 1080TI en dus werd die omgedoopt tot workstation kaart, wat blijkt de Vega gaming kaarten waren gewoon hetzelfde.
En nu begint het bij NVIDIA, de gaming prestaties vallen tegen en is het plots een workstation kaart volgens NVIDIA marketing.
Helaas wel in het achterhoofd dat de Volta “gaming” kaarten (lol) waarschijnlijk niet komen dus ook geen vergelijkingen.
Er is toch niks omgedoopt? Nvidia's marketing/prijs/doelgroep is duidelijk

Voor niet geoptimaliseerde drivers is de game-performance toch prima? Slechtste pijs/prestatie ever alleen in die context :)

Die V100 chip is niet bedoeld om op te gamen, zo lang ze ze voor meer geld kwijt kunnen.

De Titan positionering is blijkbaar erg flexibel, handig voor veranderende marktomstandigheden.

specs


Acties:
  • 0 Henk 'm!

Verwijderd

maratropa schreef op zondag 10 december 2017 @ 14:22:
[...]


Er is toch niks omgedoopt? Nvidia's marketing/prijs/doelgroep is duidelijk

Voor niet geoptimaliseerde drivers is de game-performance toch prima? Slechtste pijs/prestatie ever alleen in die context :)

Die V100 chip is niet bedoeld om op te gamen, zo lang ze ze voor meer geld kwijt kunnen.

De Titan positionering is blijkbaar erg flexibel, handig voor veranderende marktomstandigheden.
Zoals ik al zei, heel het AMD verhaal maar dan bij NVIDIA.

Vega FE volgens AMD een workstation kaart, volgens de benchmarks is het geen 1080TI killer kaart, forum gebruikers: maar het is GEEN gaming kaart of er moeten nog driver optimalisaties komen.

Titan V volgens NVIDIA een workstation kaart, gezien de specs zijn de gaming resutaten slecht, forum gebruikers: maar het is GEEN gaming kaart of er moeten nog driver optimalisaties komen.

Vega 64 de Vega gaming kaart, exact dezelfde performance als de Vega FE, forum gebruikers: maar...... maar...... er staan nog dingen uitgeschakeld.

Straks de GTX 1180TI/2080TI exact dezelfde performance als de Titan V, forum gebruikers: maar..... maar..... er staan nog dingen uitgeschakeld.

Titan is altijd al een gaming marketing kaart geweest.
NVIDIA wil alleen de prestaties laten zien van een Titan voor heel veel geld, zodat er een xx80TI variant komt die voor veel goedkoper verkocht gaat worden met dezelfde performance, maar nog steeds zeer en zeer overpriced.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

haarbal schreef op zondag 10 december 2017 @ 13:11:
[...]

Is er al jaren
https://developer.nvidia.com/gpudirect

Using GPUDirect, multiple GPUs, third party network adapters, solid-state drives (SSDs) and other devices can directly read and write CUDA host and device memory, eliminating unnecessary memory copies, dramatically lowering CPU overhead, and reducing latency, resulting in significant performance improvements in data transfer times for applications running on NVIDIA Tesla™ and Quadro™ products
Nee, dit is ook wat anders dan wat Vega kan. Vega haar HBCC kan direct wegschrijven naar RAM of een SSD zonder tussenkomst van de CPU. De Raden Pro SSG heeft een NVME op de kaart zitten, die eigenlijk dient als een gigantische cache. Maar dit is offtopic hier. :)
maratropa schreef op zondag 10 december 2017 @ 13:05:
[...]


Ik begrijp dat die tool er al langer is, maar het gaat om; wordt hij gebruikt, kan ik als eindgebruiker nu ook mijn favo rendertool op een AMD gpu draaien, etc.

Ik neem aan dat je OpenCL bedoelt, geen openGL? :) Maar die bron kijkt er gewoon practisch naar, alles is cuda, nvidia is de norm, afwijken is het jezelf moeilijk maken. Een vervelende viceuze cirkel voor AMD.

Als die extra's zijn leuk maar voor AI berekeningen heb je die niet perse allemaal nodig, anders had je geen servers en pc's vol "consumenten" chips om dit te doen.

Die Radeon Pro SSG; ze plakken wat NVME ssd's via een pci-e multiplexer op een gpu, daar is niks speciaals aan, een goeie nvme ssd naast je gpu in een pci-e 16x slot is hetzelfde. De truuk is dit goed gebruiken met software, dus de driver en applicatie ondersteuning gaat het om. Wie weet komt nvidia ook nog met zoiets (pci-e of ram cache) maar de vraag is of er echt vraag naar is..

Zou nvidia al die V100 chips voor 10K weg kunnen zetten? Volgens mij hebben ze er genoeg en zijn ze voor een bepaalde doelgroep gewoon te duur voor 10K?
Ah, maar er is meer dan alleen AI werk voor deze kaarten. AI is juist nieuw, en daar worden de echte data accelerators, Tesla's dus voor gebruikt. Daarnaast heb je nog taken zoals rendering, natuurkundige modellen, medicatie, architectuur in verschillende gradaties, van gebouwen naar raketten/straaljagers. AI is de enorme groeimarkt, maar die andere markten bestaan. Daar is een GP102 geschikt voor, en een Vega ook. GP100/GV100 is echt AI werk, en Intel gaat hier aanvallen met Nervana, en Google heeft hun eigen hardware ontwikkeld.
Paprika schreef op zondag 10 december 2017 @ 13:24:
K|ngp|n zijn Superposition resultaten (GTX1080 Ti LN2 vs Titan V air) zijn anders behoorlijk gecrushed:
https://benchmark.unigine...extreme/single-gpu/page-1

Een eigenaar op Reddit heeft wat benchmarks gedraaid:

[...]

Stock dus hetzelfde resultaat als een zwaar overgeklokte GTX1080Ti (~2600MHz...)
Niet zo vreemd. Kijk naar het verschil in clocks. Extra hardware compenseert dit.

[ Voor 9% gewijzigd door DaniëlWW2 op 10-12-2017 15:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
DaniëlWW2 schreef op zondag 10 december 2017 @ 15:26:
Nee, dit is ook wat anders dan wat Vega kan. Vega haar HBCC kan direct wegschrijven naar RAM of een SSD zonder tussenkomst van de CPU. De Raden Pro SSG heeft een NVME op de kaart zitten, die eigenlijk dient als een gigantische cache. Maar dit is offtopic hier. :)
Het is wat anders, maar je bereikt er hetzelfde mee.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Verwijderd verschil is wel dat de FE en de 64 dezelfde chip is, Nvidia heeft geld voor meerdere chips, het is niet logisch om de V100 chip, die ze nu in de titan V gestopt hebben, met al z'n fp64, tensor power etc in een game gpu te stoppen lijkt me.

Gezien de voorsprong denken ze bij nvidia waarschijnlijk geen titan voor gamers nodig te hebben komende tijd. :)

specs


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Verwijderd schreef op dinsdag 6 februari 2018 @ 21:46:
[...]
Voor DX11 is Nvidia helemaal gestopt met SLI nog te ondersteunen (voor nieuwe spellen.[/small]
Hier moet ik nog wel wat over kwijt want dit klopt gewoon niet, de sli ondersteuning is wel minder geworden maar laatst waren er nog systeem specs van Far Cry 5 dat sli word aanbevolen voor 4k met maximale instellingen. Ook komen er nog altijd nieuwe sli profielen uit voor nieuwe games (staat in bijna iedere release note maar dat gebeurt nu enkele weken na dat de game uit is.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Gekke Jantje schreef op woensdag 7 februari 2018 @ 14:15:
[...]

Hier moet ik nog wel wat over kwijt want dit klopt gewoon niet, de sli ondersteuning is wel minder geworden maar laatst waren er nog systeem specs van Far Cry 5 dat sli word aanbevolen voor 4k met maximale instellingen. Ook komen er nog altijd nieuwe sli profielen uit voor nieuwe games (staat in bijna iedere release note maar dat gebeurt nu enkele weken na dat de game uit is.
Ik ging af op de aankondiging van Nvidia dat SLI sterk wordt afgebouwd en dat 3* helemaal niet meer wordt ondersteund. Hoe dan ook, het is tegenwoordig een uitzondering dat SLI wordt ondersteund en dan ook nog eens goed wordt uitgewerkt, als gamen het doel is dan is 1 betere grafische kaart verstandiger. SLI en CF zijn een aflopende zaak, AMD heeft zelfs de naam Crossfire geschrapt op hun website omdat je bij Vulkan en DX12 niet meer van CF mag spreken, ze gebruiken nu dus een generieke term die voor zowel ouderwetse API's als meer moderne API's van toepassing is. Een tweede grafische kaart kan wel handig zijn voor andere toepassingen, taken die wel automatisch goed schalen met het aantal kaarten (rendering...) en virtuele machines (als je geen geïntegreerde graphics hebt) maar voor gaming zou ik het nooit aanraden.
maratropa schreef op zondag 10 december 2017 @ 16:26:
@Verwijderd verschil is wel dat de FE en de 64 dezelfde chip is, Nvidia heeft geld voor meerdere chips, het is niet logisch om de V100 chip, die ze nu in de titan V gestopt hebben, met al z'n fp64, tensor power etc in een game gpu te stoppen lijkt me.
Of dat het wel of niet bijdraagt voor gaming-applicaties, Nvidia zal het sowieso niet doen omdat ze meer geld kunnen vragen voor dat andere segment kaarten door in het lagere segment van alles te locken of op een andere manier functies niet aan te bieden. Bij AMD zitten momenteel de verschillen enkel in de software, niet in de hardware. AMD heeft niet de luxe dat het twee productlijnen voor twee marktsegmenten kan ontwikkelen, een voor de gamers en een voor zakelijke toepassingen waarbij je duizenden € of meer voor 1 grafische kaart kan vragen. Nvidia kan dit wel en wil voldoende verschil in hardware hebben om te garanderen dat mensen die die betere hardware (voor die toepassingen) nodig hebben bereid zijn om de hoofdprijs te betalen.

[ Voor 63% gewijzigd door Verwijderd op 07-02-2018 18:14 ]


Acties:
  • +1 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Gerucht: Nvidia GTX 2000-serie met GA104 Ampere-chips komt in april.
https://nl.hardware.info/...mpere-chips-komt-in-april

[ Voor 24% gewijzigd door choogen op 09-02-2018 15:38 ]


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Nu online
choogen schreef op vrijdag 9 februari 2018 @ 15:30:
Gerucht: Nvidia GTX 2000-serie met GA104 Ampere-chips komt in april.
https://nl.hardware.info/...mpere-chips-komt-in-april
Erg goed nieuws (ook al is het een gerucht), want ik zit al een tijdje naar een nieuwe build te kijken. Ik houd alleen mijn hart vast met het mining gedoe.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het zou heel goed kunnen wat dit gerucht zegt. Kijk, Nvidia is eigenlijk hardstikke voorspelbaar als het om hun Geforce releases gaat. Ik verwacht de Gx104 chip als eerste met als prestatiedoel de GTX1080Ti +10% prestaties. Dan kan Nvidia namelijk claimen dat ze een beter product uit hebben gebracht dan hun vorige generatie. Vervolgens zullen ze dit als rechtvaardiging gebruiken voor eenzelfde prijskaartje als de GTX1080Ti. Ga dus uit van €800 of meer. De GTX2070 zal dan net onder de GTX1080Ti inzitten, voor een bedrag van minstens €600.

Klinkt redelijk hé qua prijzen? Nu ben je er dus ingetrapt. ;)
Nvidia doet dat trucje al jaren en mensen trappen er gewoon steeds in. Zo kan je dus een geringe prestatiesprong verkopen voor enorme per eenheid winsten. AMD kan er ook helemaal niks meer tegenover zetten dus dat zal nog wel even doorgaan.

Wat ik mij afvraag is welke node gaat Nvidia gebruiken? Ze hebben hun eigen custom 12nm node bij TSMC, maar die is voor zover we nu weten bedoeld voor gigantische chips. Chips zoals GV100 die Nvidia absoluut niet gaat verkopen als Geforce. Deze node gebruiken lijkt de meest logische keuze als de release in april is. Dan heb je dus een relatief kleine die shrink en gaat de GA104 chip waarschijnlijk vrij groot, 400nm+ zijn.

Het alternatief is dat Nvidia nu al met 7nm chips komt. Dat zou betekenen dat Nvidia risk production wafers gaat inkopen en de chips verkopen. Dat zou waarschijnlijk een zeer beperkte oplage bij launch inhouden omdat het productieproces nog niet helemaal gereed is en veel duurder. TSMC 7nm lanceert namelijk officieel pas in mei 2018. 7nm zou wel betekenen dat de chips een stuk kleiner zullen zijn, en waarschijnlijk een extra sprong in clockspeeds. Aan de andere kant zullen die chips ook een stuk duurder om te maken zijn omdat 7nm een exponentiële stijging aan productiekosten met zich meebrengt. Iets dat Nvidia ook zomaar door kan rekenen door er bijvoorbeeld nog eens €50 aan MSRP op te gooien voor een kaart.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het is geen gerucht het zijn gewoon allemaal aannames/verwachtingen van de schrijver. Dat is wat 3DCenter altijd doet, bij elke generatie. Het komt overigens ook nooit uit, kijk maar eens terug wat ze allemaal hebben gezegd.

[ Voor 23% gewijzigd door -The_Mask- op 09-02-2018 18:32 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Ik verwacht er niet heel veel van, ampère is een refresh van pascall en dat is weer een refresh van maxwell.
Ampère zal het dan moeten hebben van hogere kloksnelheden en lager verbruik.
Tijd zal het moeten uitwijzen.

Ik ben overigens eerder benieuwd naar AMD Navi op 7nm, dat zou mijn upgrade zijn, gelukkig gaat het jaar snel. ;)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Enchantress schreef op vrijdag 9 februari 2018 @ 19:56:
Ik verwacht er niet heel veel van, ampère is een refresh van pascall en dat is weer een refresh van maxwell.
Ampère zal het dan moeten hebben van hogere kloksnelheden en lager verbruik.
Tijd zal het moeten uitwijzen.

Ik ben overigens eerder benieuwd naar AMD Navi op 7nm, dat zou mijn upgrade zijn, gelukkig gaat het jaar snel. ;)
Ik hoop dat Nvidia en AMD niet een of andere domme ghz race gaan doen. Ik heb geen zin in een Bulldozer/P4 videokaart :+.

Acties:
  • +1 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Enchantress schreef op vrijdag 9 februari 2018 @ 19:56:
Ik verwacht er niet heel veel van, ampère is een refresh van pascall en dat is weer een refresh van maxwell.
We weten niet eens zeker of Ampere wel echt bestaat, en jij weet al dat het een refresh gaat worden? Deel je bron dan ff ;)

Het lijkt mijn iig logischer dat de komende generatie Geforce kaarten gewoon Volta zullen zijn. Minus de tensor cores en fp64 natuurlijk.
Enchantress schreef op vrijdag 9 februari 2018 @ 19:56:
Ampère zal het dan moeten hebben van hogere kloksnelheden en lager verbruik.
Tijd zal het moeten uitwijzen.
Of ze proppen er gewoon meer cuda cores bij, gebruiken GDDR6 en houden de kloksnelheden gelijk. Vooralsnog valt er weinig over te zeggen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 9 februari 2018 @ 20:37:
[...]


Ik hoop dat Nvidia en AMD niet een of andere domme ghz race gaan doen. Ik heb geen zin in een Bulldozer/P4 videokaart :+.
Kijk eens terug naar wat generaties van GPU's, in het bijzonder Maxwell naar Pascal. Vervolgens kijk eens naar wat een Pascal chip kan doen qua clockspeed. Wat denk je nu zelf? ;)

Zeker voor GPU's wil je juist clockspeeds omhoog gooien. Het zijn geen CPU's die een beperkt aantal rekeneenheden heeft die berekeningen ook nog eens in serie doen. Daar is het relevant dat de rekeneenheid, een core dus, zoveel mogelijk instructions per clock kan uitvoeren, ja het magische IPC woord. Nee, IPC is geen statisch gegeven, maar bij gebrek aan beter is het wel redelijk indicatief van prestaties. Bulldozer/P4 waren pogingen om zo veel mogelijk instructies uit te voeren door clockspeeds gigantisch op te voeren. Beiden waren totale mislukkingen omdat je tegen fysieke limieten aanloopt. Zeker Bulldozer was terugkijkend gewoon dom want de mislukking van P4 was toen allang bekent. Een speculatieve "Phenom III" was waarschijnlijk veel beter geweest. Zen is dat eigenlijk een beetje. Afijn, verder totaal niet relevant hier.


GPU's zijn heel anders. Dit zijn chips met veel meer, veel kleinere parallelle rekeneenheden. Verder zijn het niet alleen rekeneenheden, maar ook zaken zoals het omzetten van berekende 2D lijnen naar 3D primitives (polygons dus). Dat doen de rasterizers/ROPS. Heb je ook nog zaken zoals een framebuffer, pixel en texture fill rate etc. Als een van deze onderdelen overbelast is, dan verminderd dit prestaties voor de rest van de chip.

Voor GPU's is het idee van IPC eigenlijk volslagen onzin. Ten eerste is een relatie tussen "IPC" en clockspeed. Hogere IPC bereik je in de regel door een grotere capaciteit aan geheugen beschikbaar te stellen aan een rekeneenheid. Geheugen schaalt alleen niet lineair mee met rekeneenheden omdat het spul relatief groot is, waardoor deze aanpak tegen beperkingen aanloopt. Er is een punt waar je voor hogere prestaties van je rekeneenheden een disproportioneel grotere chip moet ontwerpen en produceren. Dan kan een sprong in prestaties veel efficiënter met hogere clocks worden bereikt.

Stel je moet 20.000 primitives renderen voor een frame waarmee je het dus over een grafisch vrij goed uitziende game hebt anno 2018. Dat kan je op twee manieren aanpakken. De eerste methode is de "IPC" methode. Dus krachtigere rekeneenheden die met minder hoge clockspeeds werken. De tweede is minder krachtige rekeneenheden die met hogere clockspeeds werken. Als beiden gewoon die 20.000 primitives kunnen renderen en op je scherm kunnen krijgen, en dan het liefst minstens 60 keer per seconde dan is er geen probleem. Ondertussen is de chip met de extra rekeneenheden in de regel wel groter en dus duurder om te produceren.

Hogere clockspeeds zijn dus verleidelijk omdat het makkelijke prestatiewinst is. Wederom Maxwell en Pascal. Nieuwe node, clocks paar honderd megahertz omhoog en nieuwe lijn met minimale inspanning. Kijk alleen maar naar de GTX970 en de GTX1060. Vergelijkbare prestaties, de GTX1060 chip is ondertussen wel de helft van de GTX970, maar clocked een stuk beter. Natuurlijk was de sprong van 28nm naar 16nm enorm, maar zelfs dan nog.

AMD doet precies hetzelfde. Polaris 10 die iets sneller is dan Hawaii, terwijl de chip de helft zo groot is. Verschil zit wederom voor een groot deel in clockspeeds. AMD heeft ook enorm veel transistoren in Vega 10 gestopt om maar hogere clocks te bereiken. Daar is wel iets behoorlijk misgegaan in de schaling. Je kan leuk voorbij de 1700MHz gaan, als je er 400W+ doorheen jaagt waarvoor je dus waterkoeling nodig hebt. Dat is alleen totaal zinloos, want 400W+ voor een GPU is een beetje veel. Ondertussen staat wel dat een Vega 10 veel clocked veel hoger dan een Fij, ook voor minder stroomverbruik terwijl "IPC" zo goed als hetzelfde is. Vega 10 is dus ook sneller. Je moet alleen niet ver voorbij de 1500MHz gaan want daar loop je tegen een andere limiet aan, hoogstwaarschijnlijk de 14nm node.


Met Volta/Amper/whatever ga je deze afweging gewoon weer zien. Het gaat waarschijnlijk afhangen op welke node de chips gebakken gaan worden. 12nm TSMC gaat waarschijnlijk grotere chips betekenen en weinig verbetering in clockspeed. TSMC 7nm gaat waarschijnlijk een enorme sprong in clocks opleveren en weinig tot geen vergroting van de chips zelf. Idem voor AMD die hoogstwaarschijnlijk voor Navi naar 7nm TSMC gaan. Die gaan clockspeeds drastisch omhoog gooien.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Natuurlijk is dit precies wat Nvidia nu aan het doen is, betekent niet dat ik het leuk vind :p.

Beide ontwikkelingen hebben hun eigen voor en nadelen. Het gebruik van hoge clocksneden en dure grotere chips die lastig te maken zijn en timings op de chip. Juist de kracht van een gpu is dat het veel dingen parallel kan doen.
Er is een derde optie, specialisme. Dit heeft alleen ten nadele dat een gpu minder general purpose wordt, en indien je ook de gpgpu markt wil aanspreken dan zal je ook een gpu moeten ontwikkelen die zich daar meer op richt.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 9 februari 2018 @ 21:53:
Natuurlijk is dit precies wat Nvidia nu aan het doen is, betekent niet dat ik het leuk vind :p.
Waarom? AMD doet precies hetzelfde als Nvidia.
Beide ontwikkelingen hebben hun eigen voor en nadelen. Het gebruik van hoge clocksneden en dure grotere chips die lastig te maken zijn en timings op de chip. Juist de kracht van een gpu is dat het veel dingen parallel kan doen.
Er is een derde optie, specialisme. Dit heeft alleen ten nadele dat een gpu minder general purpose wordt, en indien je ook de gpgpu markt wil aanspreken dan zal je ook een gpu moeten ontwikkelen die zich daar meer op richt.
En een chip met minder rekeneenheden die hoger zijn geclocked presteert dus niet minder voor grafische applicaties. Of je nu 100 rekeneenheden hebt die op 1000MHz zijn geclocked of 66 die op 1500MHz zijn geclocked is niet relevant. Voor het gemak ervan uit gaande dat beiden een berekening per clock doen, kom je dus op 100.000 berekeningen per seconde. Kan je dit doen met een kleinere en goedkopere chip, dan is dat gewoon beter.

Het GPGPU/HPC chip vraagstuk is anders. Daar wil je extra fysieke hardware hebben omdat je een extreme hoeveelheid aan parallelle berekeningen wil uitvoeren binnen een zeer beperkte tijdspanne. Het hogere clockmodel is daar minder aantrekkelijk omdat fysieke rekeneenheden hier belangrijk zijn. Dan maak je dus specifieke hardware voor als je kan. Als je product slaagt, dan verdien je die investering wel terug. Zit meer dan genoeg geld in die markt. Als je dit niet kan, dan moet je een compromis sluiten. Ook niks mis mee. Niet zo efficiënt, maar zeker functioneel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op vrijdag 9 februari 2018 @ 22:12:
[...]

Waarom? AMD doet precies hetzelfde als Nvidia.

[...]
Lees de post ervoor..., AMD doet inderdaad precies hetzelfde. We zitten in het Nvidia topic dus ik noem in mijn tweede post alleen Nvidia.
En een chip met minder rekeneenheden die hoger zijn geclocked presteert dus niet minder voor grafische applicaties. Of je nu 100 rekeneenheden hebt die op 1000MHz zijn geclocked of 66 die op 1500MHz zijn geclocked is niet relevant. Voor het gemak ervan uit gaande dat beiden een berekening per clock doen, kom je dus op 100.000 berekeningen per seconde. Kan je dit doen met een kleinere en goedkopere chip, dan is dat gewoon beter.

Het GPGPU/HPC chip vraagstuk is anders. Daar wil je extra fysieke hardware hebben omdat je een extreme hoeveelheid aan parallelle berekeningen wil uitvoeren binnen een zeer beperkte tijdspanne. Het hogere clockmodel is daar minder aantrekkelijk omdat fysieke rekeneenheden hier belangrijk zijn. Dan maak je dus specifieke hardware voor als je kan. Als je product slaagt, dan verdien je die investering wel terug. Zit meer dan genoeg geld in die markt. Als je dit niet kan, dan moet je een compromis sluiten. Ook niks mis mee. Niet zo efficiënt, maar zeker functioneel.
Qua efficientie is het wel relevant. Als je zie dat een Vega64 zoveel zuiniger kan zijn door gewoon het voltage te verlagen en de clocksnelheid wellicht 100 omlaag te gooien. Dan heb je ineens een chip met 1080 verbruik, sterker in compute maar zwakker in veel games.
Hogere clocksnelheden heeft een hoger voltage nodig. Het voltage verhogen werkt quadratisch op het gebruik.

Het punt wat je maakt is logisch gezien het feit dat je met een gpgpu chip gewoon meer kan verdienen. Logisch dat je dan voor een grotere chip kan gaan. Wat ik met een gpgpu chip bedoel is niet een 1080, maar een chip die in verhouding een grote hoeveelheid double precision floating point berekeningen kan doen, dat is de laatste tijd in game kaarten nauwelijks gegroeit. Nvidia heeft duidelijk de route gekozen om een appart gpgpu chip te bouwen, bij AMD heb je nog steeds een sterke compute kaart.
Het feit dat je minder op grote game kaarten kan verdienen heeft AMD of Nvidia voorheen nooit tegengehouden om monsterchips uit te brengen, met lagere clocksnelheden die nog steed zeer goed waren in games en een oke gebruik hadden. Natuurlijk zitten er uitzonderingen tussen.
Ik praat monsterchips hier niet mee goed maar ik denk ook niet dat chips die 2.5GHz gaan lopen ideaal zijn.

Ik zie liever slimme trucs zoals tesselation, delta color compression of de primitive discard accelerators die de efficientie van een kaart vergroten.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Enchantress schreef op vrijdag 9 februari 2018 @ 19:56:
Ik verwacht er niet heel veel van, ampère is een refresh van pascall en dat is weer een refresh van maxwell.
Ampère zal het dan moeten hebben van hogere kloksnelheden en lager verbruik.
Tijd zal het moeten uitwijzen.

Ik ben overigens eerder benieuwd naar AMD Navi op 7nm, dat zou mijn upgrade zijn, gelukkig gaat het jaar snel. ;)
Om maar even mee te speculeren. Ik denk eerder dat het om Volta gaat zonder de tensor cores en daarom ook Ampère als naam krijgt. Ik verwacht er ook niet al te veel van gezien de Titan V prestaties die er alleen uit schiet in sommige DX12 en Vulkan games.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Nee, ampere is een nieuwe uarch, vermoedelijk op een nieuwe node (10nm). Volta is alleen sneller omdat hij zo enorm is, en op een iets efficienter proces ('12'nm) gebakken. Maar niet vernieuwend genoeg om pascal op te volgen buiten HPC, want daarvoor waren de prestatiewinsten te klein.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
foppe-jan schreef op zaterdag 10 februari 2018 @ 09:25:
Nee, ampere is een nieuwe uarch, vermoedelijk op een nieuwe node (10nm). Volta is alleen sneller omdat hij zo enorm is, en op een iets efficienter proces ('12'nm) gebakken. Maar niet vernieuwend genoeg om pascal op te volgen buiten HPC, want daarvoor waren de prestatiewinsten te klein.
Nee volta is sneller in DX12 omdat die kaart op Hardware niveau beter werk met low level API's, het was ook getest en de conclusie was door betere Async compute ondersteuning, als dit niet zo was was DX11 performance ook wel veel beter. https://www.gamersnexus.n...right-for-volta?showall=1

Als je zo zeker weet dat het een nieuwe microarchitectuur is heb je daar vast een born van?
Als dit ook klopt is de Titan V een apert geval qua performance in de Geforce series, heel onlogisch, ook al is die puur bedoeld als semi pro videokaart.

[ Voor 34% gewijzigd door Gekke Jantje op 10-02-2018 09:56 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Gekke Jantje schreef op zaterdag 10 februari 2018 @ 09:29:
[...]


Als je zo zeker weet dat he teen nieuwe microarchitectuur is heb je daar vast een born van?
Heb je daar een bron voor nodig dan? We zijn nu 1.5 jaar na de launch van Pascal, die al langer afontwikkeld is, ook al hebben ze de 'launch' natuurlijk uitgesmeerd t/m de 1070Ti, want geen concurrentie.

NVidia heeft in die 2016+2017 15 miljard omzet gedraaid. Die hebben ondertussen (ook Volta is rond mei al een jaar 'af') echt wel weer wat veranderingen doorgevoerd, waardoor Ampere een nieuwe uarch mag heten.
Of die revolutionair en vernieuwend zal heten -- tja. Maar als ze van 12nm gebruik willen maken, is er niet echt een reden om tot april/mei te wachten met (relatief veel) kleinere dies dan v100. En 16/14/12nm begint achterhaald te raken, terwijl http://www.tsmc.com/engli...undry/technology/10nm.htm < deze 10nm node tegen april/mei al dik een jaar in gebruik is (door SoC-bakkers), en dus waarschijnlijk wel beschikbaar begint te worden voor grotere dies.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Je brengt het als feit dan zie ik wel graag een bron, ook al ben ik het wel met je eens dat het een mogelijkheid is. Vandaar ook mijn mogelijke verklaring dat het Volta kan zijn zonder tensor cores en meer (cores) hardware wat geschikt is voor gaming. Ik ben in ieder geval benieuwd wat we gaan zien in maart/april/mei als deze geruchten kloppen.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Waarom is er geen concurrentie? De enige kaart die geen echte concurrentie heeft is de 1080TI.
Dat de AMD kaarten moeilijk leverbaar zijn is een ander verhaal en heeft weinig te maken met concurrentie, geldt trouwens ook voor NVIDIA.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Enchantress schreef op zaterdag 10 februari 2018 @ 10:23:
[...]

Waarom is er geen concurrentie? De enige kaart die geen echte concurrentie heeft is de 1080TI.
Dat de AMD kaarten moeilijk leverbaar zijn is een ander verhaal en heeft weinig te maken met concurrentie, geldt trouwens ook voor NVIDIA.
Er is nu concurrentie ja. Maar die kwam in sep 2017, en ook dan pas mondjesmaat qua volume (minstens zo belangrijk als 'bestaan'), terwijl zelfs de 1080Ti pas enkele maanden eerder werd gelanceerd (icm een prijsdaling van de tot dan toe bespottelijk dure 1080). Ze hadden er echt niet op gerekend dat ze die pas zo laat zouden hoeven te lanceren, ook al hadden ze daar vast op gehoopt.

[ Voor 7% gewijzigd door foppe-jan op 10-02-2018 12:00 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 9 februari 2018 @ 22:46:
[...]

Lees de post ervoor..., AMD doet inderdaad precies hetzelfde. We zitten in het Nvidia topic dus ik noem in mijn tweede post alleen Nvidia.


[...]


Qua efficientie is het wel relevant. Als je zie dat een Vega64 zoveel zuiniger kan zijn door gewoon het voltage te verlagen en de clocksnelheid wellicht 100 omlaag te gooien. Dan heb je ineens een chip met 1080 verbruik, sterker in compute maar zwakker in veel games.
Hogere clocksnelheden heeft een hoger voltage nodig. Het voltage verhogen werkt quadratisch op het gebruik.

Het punt wat je maakt is logisch gezien het feit dat je met een gpgpu chip gewoon meer kan verdienen. Logisch dat je dan voor een grotere chip kan gaan. Wat ik met een gpgpu chip bedoel is niet een 1080, maar een chip die in verhouding een grote hoeveelheid double precision floating point berekeningen kan doen, dat is de laatste tijd in game kaarten nauwelijks gegroeit. Nvidia heeft duidelijk de route gekozen om een appart gpgpu chip te bouwen, bij AMD heb je nog steeds een sterke compute kaart.
Het feit dat je minder op grote game kaarten kan verdienen heeft AMD of Nvidia voorheen nooit tegengehouden om monsterchips uit te brengen, met lagere clocksnelheden die nog steed zeer goed waren in games en een oke gebruik hadden. Natuurlijk zitten er uitzonderingen tussen.
Ik praat monsterchips hier niet mee goed maar ik denk ook niet dat chips die 2.5GHz gaan lopen ideaal zijn.

Ik zie liever slimme trucs zoals tesselation, delta color compression of de primitive discard accelerators die de efficientie van een kaart vergroten.
Ik snap het probleem echt niet. :S
Er zijn twee manieren om een snellere GPU te ontwerpen, clockspeeds verhogen en fysieke hardware vergroten. Nvidia koos voor clockspeeds voor Pascal en daar is niks mis mee. Kleinere chips die minder verbruiken voor dezelfde prestaties, of beter presteren voor vergelijkbaar verbruik als Maxwell. Het kwam zo uit omdat er een enorme dieshrink kwam. Niks mis mee om zo een volgende generatie neer te zetten.

De volgende generatie, of het nu Volta of Amper heet kan zomaar weer de andere kant opgaan. Nvidia produceert graag ook de grootste chips, dat is bekend. Houdt Nvidia hun 18 maanden cyclus aan dan gaan die chips zeer waarschijnlijk op 12nm gebakken worden. Nvidia heeft dan weinig keuze anders dan groter gaan. Denk aan 450mm2+ voor de GV/GA104. Is dat nu efficiënter als clockspeeds richting de 1800MHz zullen gaan ofzo? Moeilijk te zeggen want dit zal weer afhangen van de node en toleranties voor clockspeeds en voltages van die node. Als je bijvoorbeeld 200MHz erbij kan clocken zonder voltage te verhogen dan pak je die gewoon. Als dat betekent dat je met een kleinere chip en hogere clocks vergelijkbare prestaties kan bereiken voor minder verbruik dan zou ik dat efficiënt noemen.

Vervolgens zou ik GP104 of een GP102 geen GPGPU chip noemen. Die zijn ontworpen rond maximale prestaties in geometrie, niet compute. Dat is een andere afweging die Nvidia heeft gemaakt. Ze hebben juist goede tesselation en delta coloring, flink wat ROPS, tile based rasterisation etc. Allemaal bedoeld voor hogere efficiëntie in geometrie.

De AMD vs Nvidia vergelijking moet je hier ook niet maken omdat het twee anderen bedrijven zijn met twee andere architecturen die beiden hun eigen sterktes en zwaktes hebben. Dat geld helemaal als een van de twee met volslagen bezopen beslissingen komt als het gaat om voltages en gebruik voor een zeer geringe prestatiewinst. O-)

Ja ik zie liever ook een chip met meer fysieke hardware en innovatie. Zeker als die nog een flinke sprong in prestaties kan maken in de jaren na de release. Zie DX12/Vulkan API games waar je opeens gigantische sprongen ziet. Ik heb echt niet voor niks een RX Vega 56 en geen GTX1070. Het is alleen niet het enige model dat effectief is. Zeker omdat AMD die Vega 10 chips voor de RX lijn waarschijnlijk met verlies verkoopt zou ik dit niet erg geslaagd willen noemen. Een shink naar 7nm en Navi kan de boel natuurlijk helemaal omgooien. Een chip met vergelijkbare prestaties als Vega 10 voor een veel lagere kostprijs, GDDR6 geuegen, misschien hogere clocks want 7nm, maar vooral gewoon 1000mv in plaats van 1150mv is natuurlijk wel efficiënt en zou ik beter vinden dan puur clocks verhogen. Moet die chip er wel zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Er is toch ook helemaal geen probleem? Ik heb een voorkeur voor chips minder hoge clocksnelheden omdat we weten dat een gigahertz race nergens op gaat uitlopen. Als het in een architectuur goed gaat dan is dat prima.
Het punt wat ik maak is dat een hogere clocksnelheid vaak ten koste gaat van performance/watt, nu is deze exelent voor Pascal; maar zou je de GTX 1060 pakken en deze downclocken naar GTX 1050Ti prestaties dan is de GTX 1060 waarschijnlijk de zuiniger kaart.
De grootste winst bij Pascal komt van de die shrink, en inderdaad dat zijn die "gratis" 400MHz extra. Als je Maxwell met Pascal vergelijkt op gelijke clocksnelheden dan zijn ze in 9 van de 10 gevallen identiek qua prestaties. Er zijn wat uitschieters bij bijvoorbeeld VR en andere specifieke dingen.

Waar zeg ik dat de GP104 en GP102 goed zijn in gpgpu? :P
Ik zeg juist dat Nvidia de keuze heeft gemaakt om game en gpgpu kaarten appart te ontwerpen voor een groot gedeelte. Nvidia heeft al sinds Kepler geen echte gpgpu kaarten meer voor consumenten (Titans zitten er een beetje tussenin). Het is een slimme keuze, en ze kunnen die keuze maken omdat ze het research budget hebben om dit te doen.
AMD heeft een veel grotere focus op gpgpu computing, dit zorgt er alleen voor dat hun chips ook minder zuinig zijn hierdoor. Kijk maar wat een Volta kaart gebruikt, al die tensor cores heb je niks aan met games.

AMD en Nvidia vergelijkingen kunnen hier prima, zo lang je het maar op feiten houdt. Met AMD vs Nvidia vergelijkingen ga je mensen onnodig op hun tenen trappen, er zit een verschil in.

Acties:
  • 0 Henk 'm!

Verwijderd

RobinNL schreef op vrijdag 9 februari 2018 @ 17:15:
[...]


Erg goed nieuws (ook al is het een gerucht), want ik zit al een tijdje naar een nieuwe build te kijken. Ik houd alleen mijn hart vast met het mining gedoe.
Je gaat ook meer betalen door het 'tekort' aan RAM. Voor 8 GB op een videokaart gaat het inmiddels om zo'n €30 extra productiekosten? Vervolgens nog bij elke schakel tussen Nvidia en de klant wat erbij als het winstpercentage niet verandert: eerste distributeur, tweede distributeur, retailwinkeltje en tenslotte de BTW (stel dat de kaart €40 meer kost door de duurdere RAM, dan mag je nog eens ongeveer €8 extra betalen aan BTW). De invloed van 'mining' is momenteel groter maar de prijzen zullen voorlopig (2018) waarschijnlijk ook hoger blijven als die 'mining' crasht.

Niemand van ons heeft een glazen bol maar objectief bezien lijkt Nvidia geen reden te hebben om te haasten met Ampère zolang Pascal goed blijft verkopen en AMD hier onvoldoende tegenover kan zetten.

[ Voor 11% gewijzigd door Verwijderd op 10-02-2018 19:13 ]


Acties:
  • +6 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Naar aanleiding van een discussie in het AMD topic, voor de liefhebber.


Ben het HairWorks repo eens ingedoken en voor zover ik kan zien zit alles er gewoon open en bloot in :)

De header files die ik in eerste instantie niet meteen kon plaatsen zitten buiten de API-specifieke implementaties en fungeren min of meer als interfaces, helemaal niets mis mee. Ik ben door een deel van de code gewandeld en zie niets vreemds. Sterker nog, de documentatie en samples die ze leveren zijn behoorlijk duidelijk wat performance betreft, in de zin dat men daar zinvol mee om moet springen.

Wat de licentie betreft, zolang je de copyrights (van zowel Nvidia als de overige betrokken partijen) intact houdt mag je alles gewoon vrij aanpassen; ik zie in elk geval nergens een restrictie (en de algemene licentie zegt precies hetzelfde). Wat niet mag is de broncode verder distribueren. Aanpassen is geen probleem, zolang het niet buiten je eigen licentie valt (voor bedrijven betekent dat dus alleen de eigen werknemers met toegang). Compilen en distribueren mag wel, als je licentie tenminste distributie van een product met GameWorks inhoudt ;)

Ik heb verder ook één van de samples genomen en wat aangepast om on-the-fly enkele van de instellingen aan te passen om te zien wat voor invloed ze hebben en hoeveel winst er uit te halen valt door simpelweg wat andere verhoudingen aan te houden. Laat ik het maar kort houden en duidelijk maken dat developers meer dan genoeg input hebben om de prestaties in toom te houden. Je zult dat echter wel per geval moeten bekijken, want er zijn 3 belangrijke factoren (width, density, noise) die uiteindelijk voor het grootste deel bepalen hoe veel werk er verricht moet worden. En ik vermoed dat het daar mis gaat voor velen. Gewoon lui en altijd hetzelfde hanteren.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Gezien je bij de source code kan komen, kan je een vergelijking maken tussen Hairworks en bijvoorbeeld de AMD variant TressFX. Gezien jij een Nvidia kaart hebt ben ik wel benieuwd wat de impact van beide technieken zal zijn.
Ik zou het best willen testen op mijn AMD kaart daarna en mijn lowend GTX960M :P.
(voel je overigens niet verplicht gezien het best wat tijd kan kosten).

Overigens, als ontwikkelaars te lui zijn om fatsoenlijk te optimaliseren dan mogen we daar best kritiek op uiten. Je ziet dat ontwikkelaars bij een console poort er snel GameWorks op plakken (waarschijnlijk wel een deal met Nvidia) en er daardoor een zooitje van maken. Nu is het aan de Nvidia kant ook belangrijk dat ze hun merk en kwaliteit waarborgen, dat gebeurt volgens mij te weinig, nu zullen ze er wellicht niet veel baat bij hebben gezien het vaak beter op hun kaarten draait.
Als ik als consument met een GTX 1080Ti microstuttering krijg tijdens een redelijk lichte en grafisch niet fantastische benchmark dan gaat er wel een rode vlag op. Met een kleine optimalisatieslag zou dat weg kunnen zijn.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Haald weer een hoop onzin onderuit waar over ik niet mocht reageren. Ook al had ik gelijk. Het zijn de gameontwikkelaars die te lui zijn.

[ Voor 21% gewijzigd door Gekke Jantje op 11-02-2018 15:51 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Gekke Jantje schreef op zondag 11 februari 2018 @ 15:38:
Haald weer een hoop onzin onderuit waar over ik niet mocht reageren. Ook al had ik gelijk. Het zijn de gameontwikkelaars dien te lui zijn.
Je kan nu eindelijk feest vieren, je had gelijk!!! :z

Bij de Witcher 3 is het nog de vraag.
Het is nog steeds niet echt opensource in mijn optiek, laat niet weg dat ontwikkelaars vrij zijn om aanpassingen te maken zolang het maar niet de performance van Nvidia kaarten belemmerd.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Sp3ci3s8472 schreef op zondag 11 februari 2018 @ 15:34:
Gezien je bij de source code kan komen, kan je een vergelijking maken tussen Hairworks en bijvoorbeeld de AMD variant TressFX. Gezien jij een Nvidia kaart hebt ben ik wel benieuwd wat de impact van beide technieken zal zijn.
Ik zou het best willen testen op mijn AMD kaart daarna en mijn lowend GTX960M :P.
(voel je overigens niet verplicht gezien het best wat tijd kan kosten).
Zou ik heel graag willen doen, maar puur op broncode kan ik dat niet :)

Voor een goede vergelijking moet ik dan dezelfde assets laden en dergelijke en vervolgens twee render paths opzetten. Zoals je zelf al aan geeft kost dat nogal wat tijd en ik denk dat het woord "roestig" niet eens adequaat omschrijft hoe mijn ervaring op dit gebied is :P

D3D11/12 heb ik nog nooit echt iets mee gedaan, dus hoewel ik m'n weg wel door de broncode kan vinden en op een hoog niveau gekke dingen kan zien, moet ik daarvoor eerst weer een hoop dingen opnieuw leren. Dat sample van Nvidia aanpassen was kinderspel, dit zou een stuk verder gaan. Als ik echt wat tijd over heb zal ik dat zeker doen, maar op dit moment kost me dat meer tijd dan ik heb.
Overigens, als ontwikkelaars te lui zijn om fatsoenlijk te optimaliseren dan mogen we daar best kritiek op uiten. Je ziet dat ontwikkelaars bij een console poort er snel GameWorks op plakken (waarschijnlijk wel een deal met Nvidia) en er daardoor een zooitje van maken. Nu is het aan de Nvidia kant ook belangrijk dat ze hun merk en kwaliteit waarborgen, dat gebeurt volgens mij te weinig, nu zullen ze er wellicht niet veel baat bij hebben gezien het vaak beter op hun kaarten draait.
Als ik als consument met een GTX 1080Ti microstuttering krijg tijdens een redelijk lichte en grafisch niet fantastische benchmark dan gaat er wel een rode vlag op. Met een kleine optimalisatieslag zou dat weg kunnen zijn.
Volledig mee eens. Maar dat zeg ik al jaren, in veel gevallen kun je de schuld niet alléén bij Nvidia of AMD leggen. De keuzes die beide maken zijn over het algemeen volledig te verantwoorden en hartstikke logisch, waar het fout gaat zijn vooral de publishers die regelmatig hun studio's een bepaalde techniek opleggen. En voordat dingen als HairWorks open source waren kan ik me best voorstellen dat het een stuk lastiger was uit te vogelen waar de performance te winnen valt als je licentie overeenkomst met Nvidia alleen binaries omvatte. Neemt niet weg dat een beetje developer daar adequaat op hoort te reageren, zoals CDPR dat deed. Die hebben waarschijnlijk Nvidia om hulp gevraagd -in tegenstelling tot wat er vaak wordt beweerd, dat je dat standaard van ze krijgt-, waarna ze de parameters hebben aangepast.

Neemt niet weg dat ik denk dat er weldegelijk nog wel wat te optimaliseren valt binnen HW. Er is geen lineair verloop qua prestaties; de parameters die je hebt worden vooral vermenigvuldigt, waardoor je al heel snel te ver gaat.
Gekke Jantje schreef op zondag 11 februari 2018 @ 15:38:
Haald weer een hoop onzin onderuit waar over ik niet mocht reageren. Ook al had ik gelijk. Het zijn de gameontwikkelaars dien te lui zijn.
Nee, jij had slechts deels gelijk. Jij had het specifiek over TW3 en beweerde dat CDPR het volledig aan kon passen en dat het daarom open source was.

Ten eerste kunnen we dat niet 100% zeker weten, omdat we niet weten wat hun licentie toentertijd in hield. Wat we wel zeker weten is dat HW toen nog niet open source was zoals jij beweerde - dat is pas in 2016 gebeurd en TW3 stamt inmiddels alweer uit 2015. Nu is het een kwestie van registreren en je hebt de broncode. Toen moest je nog echt een licentie deal met Nvidia sluiten. CDPR kon sowieso de externe parameters aanpassen en hoogstwaarschijnlijk is dat wat ze hebben gedaan, maar zeker weten kunnen we dat nooit. Gezien het feit dat het CDPR is neig ik echter naar een "simpele" deal waarbij ze slechts binaries en header files kregen; hun reputatie is goed genoeg om er van uit te mogen gaan dat ze anders echt wel naar de bron hadden gekeken. Hetzelfde geldt voor bijvoorbeeld DICE; beide horen tot de relatief kleine groep ontwikkelaars die over het algemeen het uiterste uit hardware persen.

En ook al had CDPR de broncode wél, dan nog was HW niet open source omdat je geen toegang kon verkrijgen zonder te betalen (en ja, als jij een marketing deal sluit waarbij je technisch gezien geen cent overmaakt is ook een vorm van betaling; je geeft hen het recht jouw merk(en) te gebruiken en andersom). Sommige OSS puristen vinden dat het nog steeds closed is omdat het achter een registratie muur zit, daar ben ik het echter niet mee eens. Een registratie muur verplicht je gewoon de licentie te accepteren alvorens de broncode te krijgen; dat je met veel andere OSS eerst kunt kijken alvorens je besluit de licentie te accepteren is wat mij betreft een kwestie van semantiek.

Daarnaast had jij het over "complot" theorieën die niet bewezen waren, terwijl men er al in de eerste week na de release van TW3 achter kwam dat tessellation beperken in de AMD driver zo'n gunstig effect op performance had zonder daarbij aan kwaliteit in te boeten. Dat was geen theorie, dat was gewoon feit :)

Net zoals we al lang wisten dat HW sterk op tessellation leunde, net zoals we weten dat AMD's TressFX juist zwaar op geometry shaders leunt. Beide spelen in op hun sterke punten; verschil is echter dat AMD's sterke punt niet noodzakelijkerwijs een zwak punt van Nvidia is en dat het daarnaast een flexibelere oplossing is omdat je meer controle hebt over het betrokken rekenwerk en daarmee dus ook een "netter" resultaat krijgt ;)

Ik snap heel goed waar jouw redenering vandaan kwam en vanuit jouw oogpunt heb je in zekere zin wel gelijk, echter zitten we hier op een vrij technisch forum waar genoeg software ontwikkelaars zitten, inclusief ikzelf. De term "open source" is vrij strak gedefinieerd en jouw opvatting van die term strookt simpelweg niet met wat het daadwerkelijk betekent.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Sp3ci3s8472 Dan snap ik nog steeds niet wat het probleem is als clocks weer een stap omhoog gaan? Dat gebeurd zo ongeveer elke generatie en is gewoon een belangrijk onderdeel van de prestatiesprong. Dat is geen race.


@Werelds Een ding zit met wel heel erg dwars hier namelijk wat er elke keer gebeurd als een game met Gameworks elementen is uitgerust. Elke keer zie je dat games slecht draaien op Nvidia hardware voor wat je ongeveer zou mogen verwachten, en nog even wat slechter op AMD hardware. Het spectrum varieert dan van slecht zoals bijvoorbeeld GR: Wildlands tot totaal onspeelbaar wrak a.k.a Batman Knight. De echte bagger heeft dan vaak ook nog eens last van microstutter om het helemaal af te maken. Je kon er de afgelopen jaren je klok zowat gelijk op zetten. Nieuwe "AAA" game, aankondiging Gameworks ondersteuning, en draait waardeloos.

CDPR en de Witcher 3 zijn een bijzonder geval in deze hele sage. Min of meer die hele studio heeft het jaar voor de release op crunch time gezeten. Dat is inmiddels allemaal naar buiten gekomen omdat de werknemers behoorlijk pissed waren over de managementcultuur en ook na de release niet eens een bedankje kregen, fatsoenlijk salaris of uberhaupt van crunch time af werden gehaald. Dat schijnt pas in 2016 te zijn gebeuren. Ik vermoed dat ze daar om hulp hebben gevaagd van Nvidia voor optimalisaties en er meteen na de launch spijt van kregen en dat er dingen zijn aangepast door CDPR.

De game draait namelijk zeker niet slecht op AMD hardware nadat CDPR de boel patchte. Mijn RX Vega 56 zit behoorlijk dicht op een GTX1080 terwijl mijn videokaart zeker geen 100% utilisatie haalt, want Vega. :P Er is echt geen game die ik ken die werkelijk 100% haalt of zelfs maar constant in de 90% range. Meestal varieert het tussen de 60-80%. De uitzondering is van elke DX12 titel die ik heb en daar gaat die ook helemaal los.


Nvidia heeft op zijn minst de schijn tegen als het om Gameworks gaat. Voor zover je het online kan achterhalen biedt Nvidia zowel de tools aan, als actieve ondersteuning in implementatie. Sinds Gameworks OS ging zijn er ook nauwelijks titels verschelen die het ondersteunen, tot natuurlijk FFXV en de boel weer opnieuw begon. Ik betwijfel of de developers van FFXV werkelijk zo stom zijn om onbewust objecten zoals die buffels altijd te renderen met hairworks enabled met enorme prestatie hit voor Nvidia, en al helemaal voor AMD. Er is ook precedent voor dergelijke zaken met bijvoorbeeld de tesselation zee onder de map in Crysis 2. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DeArmeStudent
  • Registratie: December 2003
  • Laatst online: 03-05-2024
Ik geloof er geen barst van dat Nvidia vanaf mei vorig jaar de volta aankondigde, maar nu ineens in februari een fabriek opstart om in april al een Ampère uit te brengen...

Ik denk dat ze eerst een refresh zullen doen met hogere clocksnelheden, met de huidige fabrieken, omdat de huidige generatie kaarten nog geen concurrentie hebben van AMD, maar toch verkopen als de tierelier: ze noemen het dan gewoon Ampère.

En voor de rest denk ik dat @DaniëlWW2 er een goede kijk op heeft: de refresh met hogere kloksnelheden zal gewoon voor een (huidige) premium prijs verkocht worden, zoals Nvidia de laatste jaren sowieso gedaan heeft...

De 'mamoet'-Volta chip met meer dan 5000 cuda cores kunnen ze daarna alsnog uitbrengen als 2080ti...

[ Voor 32% gewijzigd door DeArmeStudent op 11-02-2018 17:11 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

DeArmeStudent schreef op zondag 11 februari 2018 @ 17:04:
Ik geloof er geen barst van dat Nvidia vanaf mei vorig jaar de volta aankondigde, maar nu ineens in februari een fabriek opstart om in april al een Ampère uit te brengen...

Mijn idee is eerder dat de 'Volta'-naam gewoon gedropt is en alleen een etiketje 'Ampère' heeft gekregen. En voor de rest denk ik dat @DaniëlWW2 er een goede kijk op heeft: de refresh met hogere kloksnelheden zal gewoon voor een premium prijs verkocht worden, zoals Nvidia de laatste jaren sowieso gedaan heeft...
Om eerlijk te zijn weet ik niet wat Nvidia nu precies wil met Volta/Ampere. Het zijn allemaal geruchten. We weten het volgende uit publieke bron.

-GP100, de GPGPU chip van de Pascal architectuur is een behoorlijk andere chip dan de rest van de Pascal lijn. Eigenlijk is dit een andere achitectuur. GV100 is een grotere chip dan GP100 met meer mogelijkheden en capaciteiten. Verder zeer vergelijkbaar in architectuur.

-Pascal had eigenlijk nooit moeten bestaan. Na Maxwell zou Volta er al moeten zijn, maar daar is niks meer van gehoord. Pascal zelf is een Maxwell refresh met wat relatief kleine aanpassingen. Je kan er over twisten of je dit een aparte architectuur kan noemen.


Twee dingen zijn mogelijk voor de volgende generatie, op meerdere manieren. :P

-Het gaan de GV of GA chips zijn. Dus Volta of Ampère. Architectuurnaam zegt alleen niks meer bij Nvidia na de twee aparte architecturen die samen Pascal vormen.
-Het kan een nieuwe iteratie van Maxwell zijn met wat kleine optimalisaties, of toch iets nieuws. Niemand die je hier nu een antwoord op kan geven. Ik neig naar nieuwe Maxwell maar ik weet het zelf ook niet.
-Als Nvidia aan hun cyclus van achttien maanden blijft dan moeten ze de komende maanden verschijnen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DeArmeStudent
  • Registratie: December 2003
  • Laatst online: 03-05-2024
Ik had mijn post hierboven al voor @DaniëlWW2 een deel aangepast omdat de beloofde architecturen van de chips niets zeggen in de praktijk.

Maar mijn idee is dat, gezien de makkelijke overklokbaarheid van de huidige generatie Nvidia kaarten, dat ze een refresh zullen doen van de huidige kaarten met hogere clocks, eventueel met hoger geclocked gddr6 geheugen, zodat ze met minimale aanpassingen de maximale prijs ervoor kunnen vragen.

De huidige markt is namelijk zo opgedroogd door de mining-gekte, dat alles verkocht wordt...en als wij als consumenten dat al zien, dan weten ze dat bij Nvidia natuurlijk net zo goed.

Andersgezegd: Nvidia zou zichzelf in de voet schieten wanneer ze op dit tijdstip van de markt met een monster-chip van 5000+ cuda cores op de proppen komen, terwijl de vraag naar mid-range kaarten veel groter is door de mining-gekte.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 10-10 14:15
DeArmeStudent schreef op zondag 11 februari 2018 @ 17:33:
Maar mijn idee is dat, gezien de makkelijke overklokbaarheid van de huidige generatie Nvidia kaarten, dat ze een refresh zullen doen van de huidige kaarten met hogere clocks, eventueel met een hoger gelocked gddr6 geheugen, zodat ze met minimale aanpassingen de maximale prijs ervoor kunnen vragen.
Als ze voor gddr6 gaan moeten ze sowieso een andere chip gaan bakken. Denk niet dat ze pascal nog aan gaan passen om met gddr6 te kunnen werken.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
DaniëlWW2 schreef op zondag 11 februari 2018 @ 17:04:

@Werelds Een ding zit met wel heel erg dwars hier namelijk wat er elke keer gebeurd als een game met Gameworks elementen is uitgerust. Elke keer zie je dat games slecht draaien op Nvidia hardware voor wat je ongeveer zou mogen verwachten, en nog even wat slechter op AMD hardware. Het spectrum varieert dan van slecht zoals bijvoorbeeld GR: Wildlands tot totaal onspeelbaar wrak a.k.a Batman Knight. De echte bagger heeft dan vaak ook nog eens last van microstutter om het helemaal af te maken. Je kon er de afgelopen jaren je klok zowat gelijk op zetten. Nieuwe "AAA" game, aankondiging Gameworks ondersteuning, en draait waardeloos.
GR: Wildlands is gewoon slecht werk, met of zonder GameWorks. Punt. En dat zou ook geen verrassing moeten zijn, gezien het Ubisoft label. Dat heeft te maken met de waardeloze QA die zij hanteren. Ik heb het vast al eens gezegd in één van deze draadjes, maar Ubisoft is echt een slechte grap. Een kennis van me heeft een half jaar bij één van hun QA afdelingen mee gelopen in een potentiële aanloop naar een vaste aanstelling en hij heeft naar aanleiding van die ervaring bedankt. Performance heeft gewoon geen enkele prioriteit zolang het 30 FPS haalt - ze kijken vooral naar gamebreaking bugs. Ze hebben ook geen arsenaal aan test hardware. En tja, dan werken ze vooral met Nvidia en krijgt AMD simpelweg weinig tot geen aandacht. Daar kan ik Nvidia de schuld niet van geven, dat is gewoon slechte bedrijfsvoering.

Zeg nu zelf, welke Ubisoft titel van de afgelopen 10 jaar had geen performance problemen? AC, FC, SC, W_D en The Division - stuk voor stuk waren ze slecht geoptimaliseerd tot gewoon ronduit dikke stront (W_D spant toch wel de kroon denk ik). Zelfs zonder enige GW toeters lopen ze allemaal op z'n best matig. De Far Cry games lopen dan nog het beste, maar ook die hebben ontzettend veel last van slechte frame pacing.

Voor Batman geldt deels hetzelfde, WB richt zich met name op consoles en PC "komt wel". Verschil is dan wel dat GW daar achteraf op geplakt is, waardoor je niet veel mist als je het uit zet (en dat ook heel expliciet kunt doen) en de spellen dan ineens wel normaal draaien.
Sinds Gameworks OS ging zijn er ook nauwelijks titels verschelen die het ondersteunen, tot natuurlijk FFXV en de boel weer opnieuw begon.
Hier vergis je je in :)

Heel veel engines gebruiken PhysX voor body (lichaam in natuurlijke zin, niet biologische ;)) collisions en daar merk je niets van. Dat heeft dan ook nooit op de GPU gelopen - er zijn wel delen van PhysX die wél via de GPU lopen, maar die moet je dan ook expliciet gebruiken (APEX). En PhysX is toch echt één van de onderdelen van GameWorks.

En waarom zou het vreemd zijn dat Squeenix daar niet goed mee om gaat? Het gaat om een console game die naar de PC wordt gebracht, waarbij de Nvidia effecten duidelijk naderhand zijn toegevoegd. Er is niets in te stellen aan deze features voor de benchmark, die staan aan of uit - op consoles hebben ze deze dingen überhaupt niet. En tja, als je dan domweg gewoon alles door de verschillende API's gooit, is dit het resultaat. Voor hen hoop ik dat ze nog tijd hebben gehad de boel te optimaliseren. Simpelweg toggles op dingen specifiek aan/uit te zetten is al genoeg (zodat je "high" zonder GameWorks kunt draaien), laat staan parameters tweaken.

Helaas komt dat vaak zat voor en mogen we niets meer instellen. AA is aan of uit; niets kiezen welk algoritme of met hoeveel samples.

[ Voor 4% gewijzigd door Werelds op 11-02-2018 17:42 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 11 februari 2018 @ 17:39:
[...]

GR: Wildlands is gewoon slecht werk, met of zonder GameWorks. Punt. En dat zou ook geen verrassing moeten zijn, gezien het Ubisoft label. Dat heeft te maken met de waardeloze QA die zij hanteren. Ik heb het vast al eens gezegd in één van deze draadjes, maar Ubisoft is echt een slechte grap. Een kennis van me heeft een half jaar bij één van hun QA afdelingen mee gelopen in een potentiële aanloop naar een vaste aanstelling en hij heeft naar aanleiding van die ervaring bedankt. Performance heeft gewoon geen enkele prioriteit zolang het 30 FPS haalt - ze kijken vooral naar gamebreaking bugs. Ze hebben ook geen arsenaal aan test hardware. En tja, dan werken ze vooral met Nvidia en krijgt AMD simpelweg weinig tot geen aandacht. Daar kan ik Nvidia de schuld niet van geven, dat is gewoon slechte bedrijfsvoering.

Zeg nu zelf, welke Ubisoft titel van de afgelopen 10 jaar had geen performance problemen? AC, FC, SC, W_D en The Division - stuk voor stuk waren ze slecht geoptimaliseerd tot gewoon ronduit dikke stront (W_D spant toch wel de kroon denk ik). Zelfs zonder enige GW toeters lopen ze allemaal op z'n best matig. De Far Cry games lopen dan nog het beste, maar ook die hebben ontzettend veel last van slechte frame pacing.

Voor Batman geldt deels hetzelfde, WB richt zich met name op consoles en PC "komt wel". Verschil is dan wel dat GW daar achteraf op geplakt is, waardoor je niet veel mist als je het uit zet (en dat ook heel expliciet kunt doen) en de spellen dan ineens wel normaal draaien.
Tja ik speel nauwelijks Ubisoft games maar ik ga nu wel even flink vloeken in de kerk met AC Unity. Die game draait namelijk best goed op mijn Ryzen en Vega combo. ;)
Oke, 60%+ CPU load in de menigten van Parijs, op alle 16 threads, maar het is altijd een solide 60fps+ en grafisch is het echt niet slecht. Voor een 2014 PC natuurlijk onspeelbaar, maar voor een 2014 game is het grafisch wel indrukwekkend. Verder leeft die stad leeft ook echt en zijn lang niet alle NPC's willekeurig rondlopende bots. Ideaal zou ik het niet noemen, maar na de patches is het niet slecht. AC Origins heb ik ook en die draait relatief minder ja. Redelijk vergelijkbare CPU load maar veel meer variaties in framerate zonder een duidelijk aanwijsbare oorzaak. Zeker een mooie game, maar niet goed geoptimaliseerd. Voor de rest vermijd ik Ubisoft meestal preventief net zoals EA. Dat helpt. :+

Met Ubisoft heb ik meer gameplay of UI dan framerate of optimalisatieproblematiek. Ik kan geen redelijk recente Ubisoft game bedenken waar ik niet een totaal bezopen probleem heb gehad. Alles van waardeloze menu's, keymapping voor je controller, random bugs die de game gewoon vergallen zoals willekeurig vastlopen op punten etc. Ubisoft games vis ik dus altijd uit de budgetbak of ik zoek naar flinke kortingen. No way dat ik er volle prijs voor betaal.
[...]

Hier vergis je je in :)

Heel veel engines gebruiken PhysX voor body (lichaam in natuurlijke zin, niet biologische ;)) collisions en daar merk je niets van. Dat heeft dan ook nooit op de GPU gelopen - er zijn wel delen van PhysX die wél via de GPU lopen, maar die moet je dan ook expliciet gebruiken (APEX). En PhysX is toch echt één van de onderdelen van GameWorks.
Dat game engines zoals UE4 of Unity PhysX gebruiken weet ik gewoon. ;)
Het gaat daar om een puur CPU implementatie die niet wordt gebruikt voor vage extra effecten om bewust een bottleneck op te werken. Geen problemen mee dus. Natuurlijk kan je gaan muggenziften dat Havok eigenlijk beter was geweest als neutrale standaard maar dat is zinloos.

Ga je expliciet GPU PhysX effecten toepassen dan kom je al snel in Gameworks terrein en dan beginnen de problemen vaak. Blijft staan dat er in 2016 en 2017 maar zeer weinig Gameworks titels waren. Losstaand van bepaalde zaken zoals microtransacties waar volgens mij wat over te doen was, iets met Star Wars volgens mij, waren er eigenlijk maar weinig onspeelbare baggergames voor de PC. Ook niet veel goeds, maar ook geen totale bagger. Er was natuurlijk ARK SE, natuurlijk een Gameworks titel en totaal onspeelbaar op hogere settings, maar voor de rest was het best wel aardig.

Ik begin dus een patroon te zien. Niet noodzakelijk causaal, maar wel aangrenzend aan. Natuurlijk komt de echte lakmoesproef binnenkort met Far Cry 5 die AMD sponsored is. :)
En waarom zou het vreemd zijn dat Squeenix daar niet goed mee om gaat? Het gaat om een console game die naar de PC wordt gebracht, waarbij de Nvidia effecten duidelijk naderhand zijn toegevoegd. Er is niets in te stellen aan deze features voor de benchmark, die staan aan of uit - op consoles hebben ze deze dingen überhaupt niet. En tja, als je dan domweg gewoon alles door de verschillende API's gooit, is dit het resultaat. Voor hen hoop ik dat ze nog tijd hebben gehad de boel te optimaliseren. Simpelweg toggles op dingen specifiek aan/uit te zetten is al genoeg (zodat je "high" zonder GameWorks kunt draaien), laat staan parameters tweaken.

Helaas komt dat vaak zat voor en mogen we niets meer instellen. AA is aan of uit; niets kiezen welk algoritme of met hoeveel samples.
En dat is het punt juist. Het zijn zaken die Nvidia heeft toegevoegd die vervolgens voor een enorm prestatieverlies leiden, buiten Square Enix om, voor de PC port. Over ports weet ik ook genoeg onderhand. Zou er soms weer een "dirty console peasant" door willen worden. Aan de andere kant heb ik onderhand een aardig zesde zintuig ontwikkeld als het gaat om welke games je moet vermijden. Dat helpt ook. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
DaniëlWW2 schreef op zondag 11 februari 2018 @ 18:49:
Voor een 2014 PC natuurlijk onspeelbaar, maar voor een 2014 game is het grafisch wel indrukwekkend.
Ga voor de gein eens wat benchmarks uit 2014 opzoeken. 1080p op high (laat staan ultra) lukte niet eens op een 980 :)

Alles minder dan een 980 gaf je minima van maximaal 30.
Ga je expliciet GPU PhysX effecten toepassen dan kom je al snel in Gameworks terrein en dan beginnen de problemen vaak.
Dat zeg je verkeerd. PhysX is onderdeel van GameWorks. GW bestaat uit PhysX, VisualFX (HairWorks, TXAA, HBAO+ enzovoort) en OptiX (lighting). Er is enige overlap tussen PhysX en VisualFX (beide hebben namelijk dingen voor bijvoorbeeld vloeistoffen), maar PhysX is gewoon deel van GW ;)
En dat is het punt juist. Het zijn zaken die Nvidia heeft toegevoegd die vervolgens voor een enorm prestatieverlies leiden, buiten Square Enix om, voor de PC port.
Hoho, wacht even. Dat is niet correct. Squeenix heeft de beslissing genomen een marketing deal aan te gaan en zij zijn dan ook degenen die het implementeren. Dat hele gedoe dat Nvidia programmeurs zou sturen om hun zooi aan jouw engine toe te voegen is klinkklare onzin. Je kunt hulp van ze krijgen; wat ook kan betekenen dat er iemand on-site komt, maar ze doen dat niet vóór je. Ze assisteren.

Dat hele verhaal is iets dat vele hardcore fanboys nog steeds verkondigen, dat Nvidia alles voor je zou doen, het jou geen cent kost en dat AMD dat niet doet. Het is simpelweg niet waar. Je kunt van AMD ook hulp krijgen als je dat wil, en Nvidia doet dat niet voor niets; en ze doen al helemaal niet al het werk voor je.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 11 februari 2018 @ 20:05:
[...]

Ga voor de gein eens wat benchmarks uit 2014 opzoeken. 1080p op high (laat staan ultra) lukte niet eens op een 980 :)

Alles minder dan een 980 gaf je minima van maximaal 30.
Tja, dan is Vega gewoon veel beter want die doet het met gemak op ultra. oOo :P

Oke serieus. Ik weet het nog van 2014 hoe erg het was. Zag de puinzooi een beetje aankomen en miste die mooi. Ik heb afgelopen herfst de game voor een prikkie gekocht en een kans gegeven. De game grotendeels met Rivaturner stats aan gespeeld omdat ik benieuwd was gezien de reputatie. Ben zelden onder de 60 fps gedipt en dan ook maar net. Meestal was het 70+ fps en natuurlijk geen 100% utilisatie van de GPU, wederom want Vega. CPU load was wel gestoord voor een 2014 game en ik denk eerder dat dit het probleem is. Het laagste was ongeveer 40% op alle zestien threads van mijn R7 1700 en eentje natuurlijk 95%+ voor zaken zoals draw calls/main thread etc. Overigens is die bizarre CPU load niet helemaal ongerechtvaardigd. En draaien heel veel dingen in de gamewereld mee.

Zou interesant zijn als een GTX980 opnieuw getest zou worden met een Ryzen of Coffee Lake. Lijken of het dan opeens veel beter draait.
Dat zeg je verkeerd. PhysX is onderdeel van GameWorks. GW bestaat uit PhysX, VisualFX (HairWorks, TXAA, HBAO+ enzovoort) en OptiX (lighting). Er is enige overlap tussen PhysX en VisualFX (beide hebben namelijk dingen voor bijvoorbeeld vloeistoffen), maar PhysX is gewoon deel van GW ;)
Dat weet ik maar ik zeg iets anders. PhysX implementatie voor physics berekeningen door de CPU heb ik geen probleem mee, waarom zou ik? Ik krijg er problemen mee als een game onnodige effecten heeft die disproportioneel veel prestaties kosten voor zeer weinig grafische verbetering, en niet uit te schakelen zijn. Als je dan een Nvidia GPU hebt en deze effecten draaien op de GPU dan is je prestatiehit veel kleiner dan als je een AMD kaart hebt. Daar heb ik een probleem mee en dat zie je nog wel eens terugkomen in Gameworks titels.
Hoho, wacht even. Dat is niet correct. Squeenix heeft de beslissing genomen een marketing deal aan te gaan en zij zijn dan ook degenen die het implementeren. Dat hele gedoe dat Nvidia programmeurs zou sturen om hun zooi aan jouw engine toe te voegen is klinkklare onzin. Je kunt hulp van ze krijgen; wat ook kan betekenen dat er iemand on-site komt, maar ze doen dat niet vóór je. Ze assisteren.

Dat hele verhaal is iets dat vele hardcore fanboys nog steeds verkondigen, dat Nvidia alles voor je zou doen, het jou geen cent kost en dat AMD dat niet doet. Het is simpelweg niet waar. Je kunt van AMD ook hulp krijgen als je dat wil, en Nvidia doet dat niet voor niets; en ze doen al helemaal niet al het werk voor je.
Bij gebrek aan duidelijke informatie. Maar ik sta gecorrigeerd dan. :)

Blijft staan dat er een merkbare relatie is tussen Gameworks titels en slecht tot waardeloze prestaties op Nvidia hardware, en gewoon waardeloos op AMD. Als je de effecten uit kan zetten dan draait de game in een keer een stuk beter op vrijwel alles. Daar zie ik dan geen verklaring voor, terwijl het wel steeds gebeurd.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 11 februari 2018 @ 15:24:
Naar aanleiding van een discussie in het AMD topic, voor de liefhebber.


Ben het HairWorks repo eens ingedoken en voor zover ik kan zien zit alles er gewoon open en bloot in :)

De header files die ik in eerste instantie niet meteen kon plaatsen zitten buiten de API-specifieke implementaties en fungeren min of meer als interfaces, helemaal niets mis mee. Ik ben door een deel van de code gewandeld en zie niets vreemds. Sterker nog, de documentatie en samples die ze leveren zijn behoorlijk duidelijk wat performance betreft, in de zin dat men daar zinvol mee om moet springen.

Wat de licentie betreft, zolang je de copyrights (van zowel Nvidia als de overige betrokken partijen) intact houdt mag je alles gewoon vrij aanpassen; ik zie in elk geval nergens een restrictie (en de algemene licentie zegt precies hetzelfde). Wat niet mag is de broncode verder distribueren. Aanpassen is geen probleem, zolang het niet buiten je eigen licentie valt (voor bedrijven betekent dat dus alleen de eigen werknemers met toegang). Compilen en distribueren mag wel, als je licentie tenminste distributie van een product met GameWorks inhoudt ;)

Ik heb verder ook één van de samples genomen en wat aangepast om on-the-fly enkele van de instellingen aan te passen om te zien wat voor invloed ze hebben en hoeveel winst er uit te halen valt door simpelweg wat andere verhoudingen aan te houden. Laat ik het maar kort houden en duidelijk maken dat developers meer dan genoeg input hebben om de prestaties in toom te houden. Je zult dat echter wel per geval moeten bekijken, want er zijn 3 belangrijke factoren (width, density, noise) die uiteindelijk voor het grootste deel bepalen hoe veel werk er verricht moet worden. En ik vermoed dat het daar mis gaat voor velen. Gewoon lui en altijd hetzelfde hanteren.
Top! Het ligt dus aan de developers en niet aan Hairworks zelf, goed om te weten. Hopelijk gaat de developer van FFXV dit aanpassen of helpt Nvidia hier een handje mee nu er zo'n shitstorm is losgebarsten.
Volledig mee eens. Maar dat zeg ik al jaren, in veel gevallen kun je de schuld niet alléén bij Nvidia of AMD leggen. De keuzes die beide maken zijn over het algemeen volledig te verantwoorden en hartstikke logisch, waar het fout gaat zijn vooral de publishers die regelmatig hun studio's een bepaalde techniek opleggen. En voordat dingen als HairWorks open source waren kan ik me best voorstellen dat het een stuk lastiger was uit te vogelen waar de performance te winnen valt als je licentie overeenkomst met Nvidia alleen binaries omvatte. Neemt niet weg dat een beetje developer daar adequaat op hoort te reageren, zoals CDPR dat deed. Die hebben waarschijnlijk Nvidia om hulp gevraagd -in tegenstelling tot wat er vaak wordt beweerd, dat je dat standaard van ze krijgt-, waarna ze de parameters hebben aangepast.

Neemt niet weg dat ik denk dat er weldegelijk nog wel wat te optimaliseren valt binnen HW. Er is geen lineair verloop qua prestaties; de parameters die je hebt worden vooral vermenigvuldigt, waardoor je al heel snel te ver gaat.
En dat is nu het voordeel van code open source maken, laat tal van capabele vrijwilligers en professionals maar meekijken naar de code en die optimaliseren.

[ Voor 24% gewijzigd door Verwijderd op 11-02-2018 22:52 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • DeArmeStudent
  • Registratie: December 2003
  • Laatst online: 03-05-2024
Er is nu een nieuw gerucht dat Nvidia de nieuwe Ampère kaarten op hardwareniveau ongeschikt, of in ieder geval, minder geschikt gaat maken voor cryptocurrency mining:

https://segmentnext.com/2...ampere-gpus-block-mining/

Dit zou ik als bedrijfsstrategie heel plausibel vinden:
1. Volta (grote chip en goed in mining) zou wellicht zo uitverkocht zijn als het als consumenten gpu op de (mining)markt zou komen.
2. Wanneer de nieuwe mid-range kaarten van Nvidia wel, en die van AMD niet voor de consumenten verkrijgbaar zijn voor een redelijke prijs, doordat miners ze niet willen hebben, verdringt Nvidia AMD nog meer van de gamers-markt dan ze nu al doen.
3. Nvidia kan dan door zijn monopolypositie op de consumentenmarkt hun hogere prijzen langer hooghouden.

Het domme van AMD is ook nog eens hun vaste afspraken met vastgestelde chipfabrikanten. Wanneer zij geen vaste afspraken hadden gemaakt met 1 bepaalde chipfabrikant, waren er tegen de huidige marktprijzen allang veel meer chipfabrikanten die hun polaris architectuur in productie hadden genomen...

Of de geruchten waar zijn, moet nog maar blijken, maar Nvidia's kaarten waren toch geen geweldige mining kaarten (vergeleken met AMD), dus hopelijk kloppen de geruchten.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En nu hebben we Volta, Ampère en Turing. :P

Ik zou Turing wel leuk vinden als ze dan ook cryptomining blokkeren. Turing, wiskundige, computerontwerp om cryptografische versleuteling te breken met algoritmes en toen gebeurde er heel wat minder leuke dingen met de man. :/

Neemt niet weg dat het wel ironisch zou zijn als Nvidia met Turing komt en dan cryptomining gaat saboteren. Verder ga je dan geen AMD kaarten meer kunnen krijgen. Ik ben bang dat mining niet zomaar meer weggaat, hooguit verminderen in vraag. Kan Nvidia inderdaad dus gewoon een totaal monopoly gaan vormen rond de mid, high en enthousiast gaming markt. Krijg je dadelijk nog hogere MSRP's dan voor Pascal. :N

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Is het uberhaupt mogelijk om (ook kosteneffective) een GPU / MEM combi te ontwerpen die hardwarematig ongeschikt voor mining is maar tegelijkertijd nog steeds zeer competitief voor gaming :?

[ Voor 7% gewijzigd door Help!!!! op 14-02-2018 12:03 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Als die geruchten maken het alleen maar ongeloofwaardig waar door ik alleen nog maar uit ga van de roadmap als feit, want word het nu Ampère, Turing of beide? En ik geloof ook niet dat er 2 verschillende architecturen binnen een korte tijd op de markt komt voor gaming en andere zaken, of heeft Nvidia zo veel man aan het werk dat het wel mogelijk is om meerdere verschillende architecturen tegelijk te ontwikkelen en uit te brengen, zo iets heb ik nog nooit meegemaakt in ieder geval.

[ Voor 3% gewijzigd door Gekke Jantje op 14-02-2018 12:24 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op woensdag 14 februari 2018 @ 12:03:
Is het uberhaupt mogelijk om (ook kosteneffective) een GPU / MEM combi te ontwerpen die hardwarematig ongeschikt voor mining is maar tegelijkertijd nog steeds zeer competitief voor gaming :?
Dat is een heel goede vraag. :P
Voor zover ik het begrijp gaat het bij cryptoming om de rekeneenheden, CU's/SM''s/whatever en geheugen. Ik kan nu wel wat theorieën gaan poneren maar ik heb eigenlijk geen idee hoe ze het willen doen, maar ik zou niet verbaast zijn als ze het kunnen en gaan doen. :)
Gekke Jantje schreef op woensdag 14 februari 2018 @ 12:21:
Al die geruchten maken het alleen maar ongeloofwaardig waar door ik alleen nog maar uit ga van de roadmap als feit, want word het nu Ampère, Turing of beide? En ik geloof ook niet dat er 2 verschillende architecturen binnen een korte tijd op de markt komt, of heeft Nvidia zo veel man aan het werk dat het wel mogelijk is om meerdere verschillende architecturen tegelijk te ontwikkelen en uit te brengen, zo iets heb ik nog nooit meegemaakt in ieder geval.
Volta was vorig jaar en Pascal was eigenlijk ook twee architecturen. Nvidia heeft ook geen gering R&D budget dus ik denk dat twee aparte GPU architecturen goed mogelijk is. Turing, Volta of Ampère zijn gewoon namen die helemaal niks inhoudelijks zeggen. Daar zou ik me niet blind op staren. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • futuwes
  • Registratie: Maart 2012
  • Laatst online: 31-08 16:42
Hoort hier niet helemaal thuis maar weet niet waar anders.
Ik heb een koopje gevonden voor een GTX1060 6GB kaart maar helaas is meneer van Belgie naar Nederland (Lochem) verhuisd en dat is mij iets te ver!

Als je in de buurt woont kan je kopen en gebruiken of weer verkopen!

https://www.2dehands.be/c..._reactie&utm_medium=email

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Ja maar nu lijkt het elkaar nog weer sneller op te volgen dan Pascal en Volta, daar zat nog wat tijd tussen met de consumenten gpu's, nu lijkt het dat Amperé en Turing bijna tegelijk uit komt terwijl zoals hier onder zegt dat er meer tijd tussen de verschillende architecturen zit (18 maanden) Maxwell en Pascal >Volta kwamen ook niet tegelijktijdig voor de consumenten. Juist wel dus.

[ Voor 49% gewijzigd door Gekke Jantje op 14-02-2018 13:34 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gekke Jantje schreef op woensdag 14 februari 2018 @ 12:30:
Ja maar nu lijkt het elkaar nog weer sneller op te volgen dan Pascal en Volta, daar zat nog wat tijd tussen met de consumenten gpu's
Juist niet. Nvidia zit al jaren op een cyclus van 18 maanden voor de Geforce lijn. Daar zitten ze nu al voorbij en ze gaan nu al richting de 24 maanden. Nvidia verdient ondertussen bakken met geld aan de Pascal lijn, en naast wat refresh kaarten en de GTX1080Ti hebben ze nu al ruim 18 maanden niks laten zien. Geld voor R&D hebben ze echt wel, hoewel de resultaten pas over een paar jaar zullen zijn.

Ondertussen zijn de GP100 en GV100 een andere achitectuur en hebben weinig te maken met Geforce Pascal. Nee, ik zie Nvidia de komende maanden gewoon een nieuwe lijn neerzetten die er gewoon 30% overheen gaat per positionering. Er gaat ook geen concurrentie zijn vanuit het rode kamp. Ga dus maar uit van de hoofdprijs. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DeArmeStudent
  • Registratie: December 2003
  • Laatst online: 03-05-2024
Over 'Turing' gesproken: is het mogelijk voor een gpu-ontwerper om een kaart te fabriceren met bijvoorbeeld 8 kleine gpu/asics chips die samen de 8 gigabyte aan videogeheugen samen delen? Wanneer dit met de 'Turing' chip bedoelt wordt, dan slaat nvidia echt 2 vliegen in 1 klap: een specialistische miningkaart die alle miners wegjaagt van de gamer-gpu markt (en 2dehands de AMD's kaarten de markt laat overspoelen) en daarna een Ampère architectuur die op game-prestaties de AMD kaarten in het stof laat bijten...dan valt het doek voor de grafische tak van AMD.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
DaniëlWW2 schreef op woensdag 14 februari 2018 @ 12:45:
[...]


Juist niet. Nvidia zit al jaren op een cyclus van 18 maanden voor de Geforce lijn. Daar zitten ze nu al voorbij en ze gaan nu al richting de 24 maanden. Nvidia verdient ondertussen bakken met geld aan de Pascal lijn, en naast wat refresh kaarten en de GTX1080Ti hebben ze nu al ruim 18 maanden niks laten zien. Geld voor R&D hebben ze echt wel, hoewel de resultaten pas over een paar jaar zullen zijn.

Ondertussen zijn de GP100 en GV100 een andere achitectuur en hebben weinig te maken met Geforce Pascal. Nee, ik zie Nvidia de komende maanden gewoon een nieuwe lijn neerzetten die er gewoon 30% overheen gaat per positionering. Er gaat ook geen concurrentie zijn vanuit het rode kamp. Ga dus maar uit van de hoofdprijs. :/
Je snapt niet wat ik bedoel., laat ook maar zitten.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gekke Jantje schreef op zondag 18 februari 2018 @ 10:10:
[...]


Je snapt niet wat ik bedoel., laat ook maar zitten.
Nog maar een keertje dan. :)

GP102-GP108 gebruiken een andere achitectuur dan GP100. De grootste verschillen zijn:
-128 Cuda cores vs 64 per SM
-GDDR5(X) vs HBM2

Dat zijn twee enorme verschillen die ook weer veel kleine aanpassingen met zich meebrengen. Voor geheugen heb je een totaal andere geheugencontroller nodig wat al een vrij ingrijpende verandering is. De organisatie van de SM's geeft aan dat we hier te maken hebben met een totaal andere achitectuur. Niet alleen de organisatie, maar de rekeneenheden zelf, CUDA cores (eigenlijk heten die ALU's) in dit geval zijn anders.

GP102-108 gebruiken 128 CUDA cores per SM. Deze zijn allemaal bedoeld voor FP32 berekeningen of de ondersteuning hiervan. GP100 heeft een verdeling van verschillende type "CUDA cores" die FP16, FP32 en FP64 berekeningen kunnen uitvoeren. Dat is het verschil in grote lijnen. Kan je ook nog echt gaan "mierenneuken" maar daar heb ik gewoon geen zin in.

GV100 is dan weer een serie aan aanpassingen en verbeteringen van GP100. GV100 heeft dan al helemaal niks meer te maken met de Pascal Geforce lijn, maar GP100 ook niet. Je kan tot op zekere hoogte verdedigen dat GP100 meer lijkt op AMD haar Vega architectuur dan op Geforce Pascal. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
DaniëlWW2 schreef op zondag 18 februari 2018 @ 11:22:
GV100 is dan weer een serie aan aanpassingen en verbeteringen van GP100. GV100 heeft dan al helemaal niks meer te maken met de Pascal Geforce lijn, maar GV100 ook niet. Je kan tot op zekere hoogte verdedigen dat GP100 meer lijkt op AMD haar Vega architectuur dan op Geforce Pascal. ;)
Euh, zondagmorgen? :>

offtopic:
Da's gemeen, jij bent mod, bij jou komt er geen "DaniëlWW2 wijzigde deze reactie...." :+

[ Voor 10% gewijzigd door zion op 18-02-2018 11:33 ]

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
DaniëlWW2 schreef op zondag 18 februari 2018 @ 11:22:
[...]

Nog maar een keertje dan. :)

GP102-GP108 gebruiken een andere achitectuur dan GP100. De grootste verschillen zijn:
-128 Cuda cores vs 64 per SM
-GDDR5(X) vs HBM2

Dat zijn twee enorme verschillen die ook weer veel kleine aanpassingen met zich meebrengen. Voor geheugen heb je een totaal andere geheugencontroller nodig wat al een vrij ingrijpende verandering is. De organisatie van de SM's geeft aan dat we hier te maken hebben met een totaal andere achitectuur. Niet alleen de organisatie, maar de rekeneenheden zelf, CUDA cores (eigenlijk heten die ALU's) in dit geval zijn anders.

GP102-108 gebruiken 128 CUDA cores per SM. Deze zijn allemaal bedoeld voor FP32 berekeningen of de ondersteuning hiervan. GP100 heeft een verdeling van verschillende type "CUDA cores" die FP16, FP32 en FP64 berekeningen kunnen uitvoeren. Dat is het verschil in grote lijnen. Kan je ook nog echt gaan "mierenneuken" maar daar heb ik gewoon geen zin in.

GV100 is dan weer een serie aan aanpassingen en verbeteringen van GP100. GV100 heeft dan al helemaal niks meer te maken met de Pascal Geforce lijn, maar GP100 ook niet. Je kan tot op zekere hoogte verdedigen dat GP100 meer lijkt op AMD haar Vega architectuur dan op Geforce Pascal. ;)
Nu komen ze dus met 2 verschillende namen voor één architectuur, alleen met meer en minder van alles aan boord, dit hebben we nog niet eerder gezien bij Nvidia en dat was wat ik bedoelde, 2 verschillende namen voor één architectuur ;) Ik dacht zelfs aan 2 heel verschillende architecturen maar dat lijkt me sterk maar wel meer logisch. Van Maxwel had ik ook 2 verschillende chips maar uit de zelfde architectuur, dit heeft pascal ook met zijn hele lijn, nu in eens niet meer. De cijfers waren dan wel weer anders voor de verschillende chips.

[ Voor 7% gewijzigd door Gekke Jantje op 24-02-2018 15:03 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

'Nvidia onthult nieuwe GeForce GTX-reeks tijdens GTC 2018': (26 tot 29 maart)
https://nl.hardware.info/...tx-reeks-tijdens-gtc-2018

[ Voor 29% gewijzigd door choogen op 24-02-2018 16:23 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gekke Jantje schreef op zaterdag 24 februari 2018 @ 14:58:
[...]


Nu komen ze dus met 2 verschillende namen voor één architectuur, alleen met meer en minder van alles aan boord, dit hebben we nog niet eerder gezien bij Nvidia en dat was wat ik bedoelde, 2 verschillende namen voor één architectuur ;) Ik dacht zelfs aan 2 heel verschillende architecturen maar dat lijkt me sterk maar wel meer logisch. Van Maxwel had ik ook 2 verschillende chips maar uit de zelfde architectuur, dit heeft pascal ook met zijn hele lijn, nu in eens niet meer. De cijfers waren dan wel weer anders voor de verschillende chips.
Nog maar een keertje dan. :P

Je hebt de Geforce lijn aan de ene kant en de Tesla lijn aan de andere kant.
Geforce = gaming. Tesla = deep learning.

Voor Geforce kwam Nvidia met de Maxwell architectuur in 2014. Deze bestaat weer uit een aantal afzonderlijke chips. Dat zijn je GM chips. De eerste generatie Maxwell kan eigenlijk niemand echt wat schelen. Allemaal low power chips. De tweede generatie is wat de meeste mensen verstaan als Maxwell. Dat zijn je GTX9xx videokaarten die weer uit verschillende chips bestaan. GM200, GM204 en GM206.

Vervolgens kwam Nvidia in 2016 met een nieuwe lijn. Dat is de Pascal architectuur. Ze verschillen in detailwerk met Maxwell, maar zijn grotendeels identiek in architectuur.

Nu GP100. Dat is geen Geforce maar een Tesla chip die speciaal is ontworpen voor deep learning. Nvidia noemt het nog steeds Pascal, maar dat is eigenlijk onzin omdat het een andere achitectuur is die weinig met de rest van de Maxwell/Pascal architectuur te maken heeft. GV100, ook een Tesla chip lijkt veel meer op GP100, maar is weer geavanceerder en verfijnder.


Je moet dus de volgende dingen tegenwoordig uit elkaar houden bij Nvidia.
-Doelgroep, dus gamers of professionele applicaties.
-Architectuurnaam. Dat lijkt bij Pascal meer de naam voor een generatie dan architectuur te zijn.
-Chipnaam. Dus GM100 (GTX980Ti), GM204 (GTX970-980), GP102 (GTX1080TI) of GP104 (GTX1070-1070Ti-1080)


Nu lijken we toch Ampère te krijgen. Daar is het de vraag of het weer een licht verbeterde Maxwell is, of iets nieuws. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Nog maar een keertje dan. De namen van 2 architecturen binnen enkele maanden klopt gewoon niet, dat is nooit zo geweest en dat is wat ik bedoelde. Simpel. Ampere en Turning zeg maar binnen nu en Juni 2018.

[ Voor 14% gewijzigd door Gekke Jantje op 24-02-2018 17:24 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Ampère (maxwell) zal niet voor gamers beschikbaar zijn, de miners zullen alles opkopen.
Vindt het dan ook niet handig om dat op dit moment te gaan doen, dacht dat gamers voorrang kregen bij NVIDIA. ;)

Ik verwacht iets hogere clocks en iets lager verbruik, geen grote verbeteringen dus.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Enchantress schreef op zaterdag 24 februari 2018 @ 17:24:
Ampère (maxwell) zal niet voor gamers beschikbaar zijn, de miners zullen alles opkopen.
Vindt het dan ook niet handig om dat op dit moment te gaan doen, dacht dat gamers voorrang kregen bij NVIDIA. ;)

Ik verwacht iets hogere clocks en iets lager verbruik, geen grote verbeteringen dus.
Nvidia kan willen wat ze willen, als bijvoorbeeld de verkopers van GPU's MSI Asus enzv er niet op aanpassen houd het op. Het gaat denk ik meer om Nvidia zijn eigen online winkel waar Nvidia de verkoop tot maximaal 2 videokaarten beperken.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Niemand wil een luidruchtige koeler.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Er zijn zat mensen die ze wel kopen, dus niemand bestaat niet.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i

Pagina: 1 ... 38 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.