Werelds schreef op woensdag 11 januari 2017 @ 23:34:
[...]
Ik weet het niet. Veel sneller dan Titan XP gaat ook niet zonder dat het stroom verbruik daarbij de spuigaten uit loopt. Nvidia bespaart niet zo heel veel stroom met uitgeschakelde clusters; zelfs een 970 zat maar wat, 15% onder de 980? 1070 ook ongeveer hetzelfde onder een 1080? En dan had die laatste ook nog eens meer uitgeschakeld in verhouding.
Ik verwacht iig 10GB GDDR5X gecombineerd met een 320 bit geheugenbus. 12GB voor een kaart die puur voor gaming is, is vrij nutteloos en als je de GTX 1080 Ti ook 12GB geeft is er ook geen voordeel meer voor een Titan X. 6GB met een 384 bit geheugenbus wordt hem sowieso niet aangezien dat minder is als AMD heeft met de RX 480 en nVidia met de GTX 1070 en GTX 1080, dus dat is onlogisch. 8GB is evenveel als die kaarten, dus dat is ook niet verwacht. Ook voor de noobs welke alleen naar geheugen hoeveelheid kijken om de prestaties van een kaart te bepalen, moet die immers sneller lijken.

Dus dan kom je op 10GB uit als logische hoeveelheid. Om op 10GB te komen is het meest logische om twee 32 bit geheugencontrollers uit te schakelen, vandaar de 320 bit geheugenbus. Geen gekke dingen meer zoals de GTX 970 denk ik, ezel, steen enzo.

Door de kleinere geheugenbus heb je echter wel minder geheugenbandbreedte die is ook 1/6 minder geworden. Van de 480GB/s is daar dan nog maar 400GB/s van over gebleven. Maar dit is echter simpel op te lossen door in plaats van 1250MHz/10Gbit GDDR5X, 1500MHz/12Gbit GDDR5X te gebruiken, dan zit je weer gewoon op 480GB/s aan geheugen bandbreedte. Zou ook moeten kunnen want schijnbaar is dit gewoon al
in productie. Overigens kan door 1750MHz 14Gbit GDDR5X te gebruiken maar liefst 560GB/s bereikt worden, al is het de vraag of dit al in productie is. Nodig is het iig niet lijkt mij voor een GTX 1080 Ti, 1500MHz/12Gbit met een 320bit geheugenbus klinkt mij vrij realistisch in de oren.
Daarmee moet nog steeds wel iets meer prestaties uit een GP102 te halen zijn. Hoe ze dat dan doen, geen idee. Kan door een volledige chip, kan door één met een vergelijkbaar aantal cuda core's, maar kan ook door één met minder cuda core's. Een iets hogere GPU frequentie moet naar mijn idee wel kunnen, want er lijkt nog wel wat rek in te zitten.
Als ik het verbruik van de GTX Titan X Pascal op
TechPowerUp bekijk dan is het verschil tussen typical gaming en peak gaming bij de Titan X Pascal in verhouding groter dan bij de GTX 1080 en al helemaal bij de GTX 1070. Dat betekend dat er dus nog wat ruimte zit door het typical gaming verbruik omhoog te gooien, maar peak gaming dezelfde ~270W te houden, door een agressievere vorm van GPU Boost 3.0 die meer overeenkomt met de GTX 1080 en GTX 1070.
Het moet een van de volgende dingen worden als ze Titan XP minimaal bij willen houden qua performance:
- Meer uitgeschakeld op hogere kloksnelheid
- Hetzelfde aantal SP's op dezelfde snelheid
- Meer SP's op lagere snelheid
Dat laatste betwijfel ik ten zeerste. Dat zou wel heel gemeen zijn richting de Titan XP kopers; nu zie ik Nvidia daar wel toe in staat.
Ze hebben het al eens gedaan, zo had een GTX 780 Ti een hogere kloksnelheid en meer stream processors als een GTX Titan welke eerder was gelaunched tegen een hogere prijs, maar van dezelfde generatie was. Dit was nodig omdat de veel goedkopere R9 290X sneller was als GTX Titan. Als AMD dus weer zo'n goede kaart heeft, is nVidia ook weer genoodzaakt om hetzelfde te doen. Een GTX 1080 Ti uitbrengen welke sneller is als een GTX Titan X voor een veel lagere prijs.