• lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-03 14:37
Afbeeldingslocatie: http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/LLnXQ2qoaO1jW5HMM11FAekj/full.png
Afbeeldingslocatie: http://tweakers.net/ext/f/IIV2Xu94T1OvXaPvBMU1wcR4/full.png

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
Afbeeldingslocatie: http://tweakers.net/ext/f/EimNDv9D62BzAx1T9uoZbK2n/full.png

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

Afbeeldingslocatie: http://tweakers.net/ext/f/IiBlw5UTAQAYcRwjpuA62qvp/full.png

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

Afbeeldingslocatie: http://tweakers.net/ext/f/Es32Jf7Tn3TABct0PrEQ5QhU/full.png

Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44
Afbeeldingslocatie: http://tweakers.net/ext/f/QejmE87rfK3TtIlqovpWlPFU/full.png

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden ;)

Afbeeldingslocatie: http://tweakers.net/ext/f/tkROAO8YtKWeoyQN2rOfkJAR/full.png

De Fermi microarchitectuur werd voornamelijk gebruikt in de GeForce 400 en 500 reeksen en in sommige 600/700/800 reeks kaarten (rebrands en in de laatste 2 reeksen voornamelijk mobile gpu's


Instap level


Afbeeldingslocatie: http://tweakers.net/ext/f/yG88VVgaQbBBCuiJ6BJmSC6j/full.png

GT 520
  • GPU: GF108
  • Release Date: 12/4/2011
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:48
  • Shader clock: 1620 MHz
  • ROP's: ??
  • Core Clock: 810 MHz
  • Memory Clock: 900 MHz
  • Memory Bandwidth: 14,4 GB/sec
  • Memory Interface: 64 bit
  • Memory: 1024 MB DDR3
  • Consumption: max 29 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/dw3gTsIa1mGxb7NObZNlEusv/full.png

GT 610
  • GPU: GF119 (40 nm)
  • Release Date: 15/5/2012
  • Interface: PCI-E x16 2.0
  • Die size: 79 mm²
  • CUDA Cores: 48
  • Shader clock: 1620 MHz
  • ROP's: 4
  • Core Clock: 810 Mhz
  • Memory Clock: 900 Mhz(DDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 64 bit
  • Memory: 1024 MB
  • Texture Units: 8
  • Texture Fill Rate: 6.5 (b/s)
  • GFLOPS: 100.4 FMA
  • Consumption: max 29 Watt


Low End


Afbeeldingslocatie: http://tweakers.net/ext/f/dw3gTsIa1mGxb7NObZNlEusv/full.png

GT 530/620
  • GPU: GF119 (40nm)
  • Release Date: 3/4/2012
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • CUDA Cores : 96
  • Shader clock: 1400 MHz
  • ROP's:4
  • Core Clock: 700 Mhz
  • Memory Clock: 900Mhz (DDR3)
  • Memory Bandwidth: 14.4 GB/s
  • Memory Interface: 64 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Texture Fill Rate: 11.2 (b/s)
  • GFLOPS: 268.8 FMA
  • Consumption: max 49 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/dw3gTsIa1mGxb7NObZNlEusv/full.png

GT 430/GT 720(128bit-DDR3 versie(900Mhz))
  • GPU: GF108
  • Release Date: 11/10/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • Unified shaders:96
  • Shader clock: 1400 MHz
  • ROP's: 4
  • Core Clock: 700 Mhz
  • Memory Clock: 800 - 900Mhz (GDDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Consumption: Officieel max 49 Watt


Low End GT440 varianten en rebrands :X


Afbeeldingslocatie: http://tweakers.net/ext/f/JKxXQscJTHo30A0LlKJvUaQF/full.png

GT 440/540/630 DDR3-variant
  • GPU: GF108
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • CUDA cores: 96
  • Shader clock: 1620 MHz
  • ROP's: 4
  • Core Clock: 810 Mhz
  • Memory Clock: (800)-900 Mhz (GDDR3)
  • Memory Bandwidth: (25,6)28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024MB-2048 (GDDR3)
  • Texture Fill Rate: 13.0 (b/s)
  • Consumption: max 65 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/JKxXQscJTHo30A0LlKJvUaQF/full.png

GT 440/540/630 GDDR5-variant
  • GPU: GF108
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • CUDA cores: 96
  • Shader clock: 1620 MHz
  • ROP's: 4
  • Core Clock: 810 Mhz
  • Memory Clock: 800 Mhz (GDDR5)
  • Memory Bandwidth: 51.2 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024MB-2048 (GDDR3)
  • Texture Fill Rate: 13.0 (b/s)
  • Consumption: max 65 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/4WdEsNMsdlPX7n0ekWrrpecI/full.png

Mid-End


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GTS 450
  • GPU: GF106 (40nm)
  • Release Date: Q2 2010 Uitgesteld naar 13 september
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders:192
  • Shader clock: 1566 MHz
  • ROP's: 16
  • Core Clock: 789 983 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 60,16/90,24 57,6 GB/s
  • Memory Interface: 128 /192 bit
  • Memory: 512?/768?/ 1024/2048? MB
  • L2 Cache Size: 256KB
  • Texture Units: 32
  • Consumption: max 106 watt
  • Performatie: mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GT 545/ GT640 DDR3- 192 bit(OEM)
  • GPU: GF118 (28nm)
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • CUDA Cores: 144
  • Shader clock: 1440 MHz
  • ROP's: 24
  • Core Clock: 720 Mhz
  • Memory Clock: 891 Mhz (DDR3)
  • Memory Bandwidth: 42.8 GB/s
  • Memory Interface: 192 bit
  • Memory: 1536/3072 MB
  • Texture Units: 24
  • Texture Fill Rate: 17.3 (b/s)
  • Consumption: 75 watt (TDP)


Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/H8pPpi3Getzim43Cn89pa8nn/full.png

GTX 550 Ti
  • GPU: GF116 (40nm)
  • Release Date: 15/03/2011
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders: 192
  • Shader clock: 1800 MHz
  • ROP's: 24
  • Pixel Fill Rate: 21.6 GP/s
  • Core Clock: 900 Mhz
  • Memory Clock: 1026 Mhz (GDDR5)
  • Memory Bandwidth: 98,5 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 1024MB
  • Texture Units: 32 (28.8 GT/s)
  • Consumption: 116 Watt (TDP)
  • Performantie: Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/H8pPpi3Getzim43Cn89pa8nn/full.png

GTX 555/GTX 560 SE/GT 645
  • GPU: GF114 [red](40nm)[/green]
  • Release Date: maart 2012
  • Interface: PCI-E x16 2.0
  • Transistors: 1.95 miljard
  • CUDA Cores: 288
  • Shader clock: 1645 MHz
  • ROP's: 24
  • Core Clock: 776 Mhz
  • Memory Clock: 1001 Mhz (GDDR5)
  • Memory Bandwidth: 91.9 GB/s
  • Memory Interface: 192 bit
  • Memory: 1024/1512 MB
  • Texture Units: 48
  • Texture Fill Rate: 37.2 (b/s)
  • Consumption: 140 watt (TDP)


Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/phjybpjPRLTfCXqT74gSevOU/full.jpg

GTX 460 SE
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 288 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 650 Mhz
  • Memory Clock: 850 Mhz (GDDR5)
  • Memory Bandwidth: 108,8 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • L2 Cache Size: 384KB
  • Texture Units: 48
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/phjybpjPRLTfCXqT74gSevOU/full.jpg

GTX 460 768 MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 86,4 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 768MB (mogelijkheid voor 1536MB)
  • L2 Cache Size: 384KB
  • Texture Units: 56
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end

Afbeeldingslocatie: http://www.pcper.com/images/reviews/997/slide1.jpg

High Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/IzAm2tdUPMw1lnhzJ0jaQ7ir/full.jpg

GTX 460 1024MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 32
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 115,2 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • Texture Units: 56
  • L2 Cache Size: 512KB
  • Consumption: 160 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/1hZCHr605s55Ir42DtOqAPfs/full.png

GTX 560
  • GPU: GF114 (40nm)
  • Release Date: 17/05/2011
  • Interface: PCI-E x16 2.0
  • Transistors: 1,95 miljard
  • Unified shaders: 336
  • Shader clock: 1620 MHz
  • ROP's: 32
  • Core Clock: 810 Mhz
  • Memory Clock: 1001 Mhz (GDDR5)
  • Memory Bandwidth: 128 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB (mogelijkheid voor 2048MB)
  • Texture Units: 56
  • Texture Fill Rate: 45.4 (b/s)
  • Consumption: 150 Watt TDP


GTX 560


Afbeeldingslocatie: http://tweakers.net/ext/f/1hZCHr605s55Ir42DtOqAPfs/full.png

GTX 560 Ti
  • GPU: GF114 (40nm)
  • Release Date: 25/01/2011
  • Interface: PCI-E x16 2.0
  • Transistors: 1,95 miljard
  • Unified shaders: 384
  • Shader clock: 1645 MHz
  • ROP's: 32
  • Core Clock: 822 Mhz
  • Memory Clock: 1002 Mhz (GDDR5)
  • Memory Bandwidth: 128,26 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB (mogelijkheid voor 2048MB)
  • Texture Units: 64
  • Texture Fill Rate: 52.61 (b/s)
  • Consumption: 170 Watt TDP
  • Performantie:High Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/WnqX1wuSaxYcCGRQoa8uMmzX/full.png

GTX 560 Ti 448 core
  • GPU: GF114 (40nm)
  • Release Date: 1/12/2011
  • Interface: PCI-E x16 2.0
  • Transistors: 1,95 miljard
  • Unified shaders: 384
  • Shader clock: 1464 MHz
  • ROP's: 40
  • Core Clock: 752 Mhz
  • Memory Clock: 950 Mhz (GDDR5)
  • Memory Bandwidth: 152 GB/sec (GDDR5)
  • Memory Interface: 320 bit
  • Memory: 1280MB
  • Texture Units: 56
  • Texture Fill Rate: 41 (b/s)
  • Consumption: 170 Watt TDP
  • Performantie:High Mid-end


Low High End


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 465
  • GPU: GF100
  • Release Date: eind mei 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 352
  • Shader clock:1215 MHz
  • Core Clock: 607 MHz
  • ROP's: 32
  • Pixel Fill Rate: 26.7 GP/s
  • Memory Clock: 802 Mhz (GDDR5)
  • Memory Bandwidth: 102.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Consumption: max 200W


Afbeeldingslocatie: http://tweakers.net/ext/f/gYo5ZDCNRwiHM4aMwYzgJPV1/full.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/REatBjguJ5slPw5Gt74HVMU6/full.png

High End


Afbeeldingslocatie: http://tweakers.net/ext/f/4bn0B7kMYQki1XpQ174HXDEF/full.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/5yBx1EPEGTmB1Gk79wpHlTdr/full.png

GTX 570
  • GPU: GF110
  • Release Date: 7/12/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 480
  • Shader clock: 1464 Mhz
  • Core Clock: 732 MHz
  • ROP's: 40
  • Pixel Fill Rate: 43,92 GP/s
  • Memory Clock: 950MHz (GDDR5)
  • Memory Bandwidth: 152 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 60
  • Texture Fill Rate: 43.9 (miljard/sec)
  • Consumption:219 Watt


High End


Afbeeldingslocatie: http://tweakers.net/ext/f/Dl8jWtJe6AgxSiEf6EIdn8dz/full.png

GTX 580
  • GPU: GF110
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2? miljard
  • Unified shaders: 512
  • Shader clock: 1544 Mhz
  • Core Clock: 772 MHz
  • ROP's: 48
  • Pixel Fill Rate: 37.06 GP/s
  • Memory Clock: 1002 (GDDR5)
  • Memory Bandwidth: 192,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Texture Fill Rate: 49.4 (miljard/sec)
  • Consumption: 250 Watt


Afbeeldingslocatie: http://tweakers.net/ext/f/o8fPY2rJKd5fdo3UvzCE6Hu9/full.png

GTX 590
  • GPU: 2*GF110
  • Release Date: Zomer 2010 --> 24 maart 2011
  • Interface: PCI-E x16 2.0
  • Transistors: 2*3,0 miljard
  • Unified shaders: 512*2
  • Shader clock:1215 mhz
  • Core Clock:607 Mhz
  • ROP's: 2*48
  • Pixel Fill Rate:58,75 GP/s
  • Memory Clock: 853,5 Mhz (GDDR5)
  • Memory Bandwidth: 2* 163,9GB/s
  • Memory Interface: 2* 384 bit
  • Memory: 2*768/1536 MB
  • Texture Units: 64*2
  • Texture Fill Rate: 77,7 (miljard per sec)
  • Consumption: "Extreme" 365Watt officiele TDP


ModelGPUShadersGPU
kloksnelheid
Geheugen
type
Geheugen
snelheid
Band
breedte
Bus
breedte
SLI
GT 410MGF11948575MHz(G)ddr31600MHz12,8GB/s64bitNee
GT 520MGF11948740MHzddr31600MHz12,8GB/s64bitNee
GT 520MXGF11948900MHzddr31800MHz14,4GB/s64bitNee
GT 415MGF10848500MHzddr31600MHz25,6GB/s128bitNee
GT 420MGF10896500MHzddr31600MHz25,6GB/s128bitNee
GT 425MGF10896560MHzddr31600MHz25,6GB/s128bitNee
GT 525MGF10896600MHzGddr5/ddr31800MHz28,8GB/s128bitNee
GT 435MGF10896650MHzddr31600MHz25.6GB/s128bitNee
GT 540MGF10896672MHzGddr5/ddr31800MHz28,8GB/s128bitNee
GT 550MGF10896740MHzGddr5/ddr31800MHz28,8GB/s128bitNee
GT 445MGF106144590MHzGddr5/ddr31600/2500MHz25.6/60GB/s128/192bitNee
GT 555MGF106/8144590MHzGddr5/ddr31800MHz43,2GB/s192bitNee
GT 560MGF116192775MHzGddr52500MHz60,0GB/s192bitNee
GT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee
GTX 485MGF104384575MHzGddr53000MHz76,8GB/s256bitJa
GT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee


Afbeeldingslocatie: http://tweakers.net/ext/f/v54Ba9aRY0Jhu8tnASGEhiyu/full.png


Very Low End


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GT720
  • GPU: GK208
  • Release Date: 27/03/2014
  • Interface: PCI-E x8 2.0
  • Transistors: 1.02 miljard
  • CUDA Cores: 192
  • Shader clock: 797 MHz
  • ROP's: 8
  • Core Clock: 797 Mhz
  • Memory Clock: 900(DDR3)/1250(GDDR5) Mhz
  • Memory Bandwidth: 14.4/40 GB/s
  • Memory Interface: 64 bit
  • Memory: 1024 DDR3/2048 GDDR5 MB
  • Texture Units: 16
  • Texture Fill Rate: 12.8 (b/s)
  • Consumption: 19 watt (TDP)


[img]Nieuwe afbeelding nodig[/img]]

GT730
(128-bit,DDR3 versie is een Fermi kaart!)
  • GPU: GK208
  • Release Date: 18/06/2014
  • Interface: PCI-E x16 2.0
  • Transistors: 1.02 miljard
  • CUDA Cores: 384
  • Shader clock: 902 MHz
  • ROP's: 8
  • Core Clock: 902 Mhz
  • Memory Clock: 900(DDR3)/1250(GDDR5)Mhz
  • Memory Bandwidth: 14.4/40 GB/s
  • Memory Interface: 64 bit
  • Memory: 2048/1024 MB
  • Texture Units: 16
  • Texture Fill Rate: 14.4 (b/s)
  • Consumption: 23/25 watt (TDP)



Selectie van GT640 varianten ..


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GT640 DDR3- 128 bit
  • GPU: GK107 (28nm)
  • Release Date: 5/6/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 1.3 miljard
  • CUDA Cores: 384
  • Shader clock: 900 MHz
  • ROP's: 16
  • Core Clock: 900 Mhz
  • Memory Clock: 891 Mhz (DDR3)
  • Memory Bandwidth: 28.5 GB/s
  • Memory Interface: 128 bit
  • Memory: 2048 MB
  • Texture Units: 32
  • Texture Fill Rate: 28.8 (b/s)
  • Consumption: 65 watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/H8pPpi3Getzim43Cn89pa8nn/full.png

GT640 GDDR5- 128 bit(OEM)
  • GPU: GK107 (28nm)
  • Release Date: 24/4/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 1.3 miljard
  • CUDA Cores: 384
  • Shader clock: 950 MHz
  • ROP's: 16
  • Core Clock: 950 Mhz
  • Memory Clock: 1250 Mhz (GDDR5)
  • Memory Bandwidth: 80 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024/2048 MB
  • Texture Units: 32
  • Texture Fill Rate: 30.4 (b/s)
  • Consumption: 75 watt (TDP)


Low-end


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GT740
  • GPU: GK107
  • Release Date: 29/05/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 1.27 miljard
  • CUDA Cores: 384
  • Shader clock: 993 MHz
  • ROP's: 16
  • Core Clock: 993 Mhz
  • Memory Clock: 900(DDR3)/1250(GDDR5) Mhz
  • Memory Bandwidth: 28.8/80 GB/s
  • Memory Interface: 128 bit
  • Memory: 2048/1024 MB
  • Texture Units: 32
  • Texture Fill Rate: 31.8 (b/s)
  • Consumption: 64 watt (TDP)


Lower Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GTX645
  • GPU: GK106
  • Release Date: 22/04/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 2.54 miljard
  • CUDA Cores: 567
  • Shader clock: 823 MHz
  • ROP's: 16
  • Core Clock: 823.5(888,5 B) Mhz
  • Memory Clock: 1000 Mhz (GDDR5)
  • Memory Bandwidth: 64 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Texture Fill Rate: 39.5 (b/s)
  • Consumption: 64 watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/H8pPpi3Getzim43Cn89pa8nn/full.png

GTX650
  • GPU: GK107-450-A2
  • Release Date: 13/09/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 1.3 miljard
  • CUDA Cores: 384
  • Shader clock: 1058 MHz
  • ROP's: 16
  • Core Clock: 1058 Mhz
  • Memory Clock: 1250 Mhz (GDDR5)
  • Memory Bandwidth: 80 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024/2048 MB
  • Texture Units: 64
  • Texture Fill Rate: 33.8 (b/s)
  • Consumption: 64 watt (TDP)


Lower Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/qPZ2611IqdNTJShKonoG67Q2/full.jpg

GTX650 Ti
  • GPU: GK106-220-A1
  • Release Date: 09/10/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 2.54 miljard
  • CUDA Cores: 768
  • Shader clock: 928 MHz
  • ROP's: 16
  • Core Clock: 928 Mhz
  • Memory Clock: 1350 Mhz (GDDR5)
  • Memory Bandwidth: 86.4 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024/2048 MB
  • Texture Units: 64
  • Texture Fill Rate: 59.2 (b/s)
  • Consumption: 110 watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/H8pPpi3Getzim43Cn89pa8nn/full.png

GTX650 Ti Boost
  • GPU: GK106-240-A1
  • Release Date: 26/03/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 2.54 miljard
  • CUDA Cores: 768
  • Shader clock: 980 MHz
  • ROP's: 24
  • Core Clock: 980(1033 B) Mhz
  • Memory Clock: 1500 Mhz (GDDR5)
  • Memory Bandwidth: 144.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 1024/2048 MB
  • Texture Units: 64
  • Texture Fill Rate: 62.7 (b/s)
  • Consumption: 134 watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/REatBjguJ5slPw5Gt74HVMU6/full.png

Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 660
  • GPU: GK106-400-A1 (28nm)
  • Release Date: 13/09/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 2.54 miljard
  • CUDA Cores: 960
  • Shader clock:980 mhz
  • Core Clock: 980-1033-1084 Mhz
  • ROP's: 24
  • Pixel Fill Rate: 23.5 GP/s
  • Memory Clock: 1500 Mhz (GDDR5)
  • Memory Bandwidth: 144.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 2/3 GB
  • Texture Units: 80
  • Texture Fill Rate: 78.5 (b/s)
  • Consumption: 140 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTx 660 (OEM)
  • GPU: GK104 (28nm)
  • Release Date: augustus 2012
  • Interface: PCI-E x16 3.0
  • Transistors: 3,54 miljard
  • CUDA Cores: 1152
  • Shader clock:823 mhz
  • Core Clock: 823-888 Mhz
  • ROP's: 24/32
  • Pixel Fill Rate: 19.8 GP/s
  • Memory Clock: 1450 Mhz (GDDR5)
  • Memory Bandwidth: 134/179 GB/s
  • Memory Interface: 192/256 bit
  • Memory: 1,5/2 GB
  • Texture Units: 96
  • Texture Fill Rate: 79 (b/s)
  • Consumption: 130 Watt (TDP)



Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 760 (OEM)
  • GPU: GK104
  • Release Date: ??
  • Interface: PCI-E x16 3.0
  • Transistors: 3.54 miljard
  • CUDA Cores: 1152
  • Shader clock:823 mhz
  • Core Clock: 823-888 Mhz
  • ROP's: 24
  • Pixel Fill Rate: 19.8 GP/s
  • Memory Clock: 1452 Mhz (GDDR5)
  • Memory Bandwidth: 134 GB/s
  • Memory Interface: 192 bit
  • Memory: 1.5/3 GB
  • Texture Units: 96
  • Texture Fill Rate: 79 (b/s)
  • Consumption: 130 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTx 760
  • GPU: GK104
  • Release Date: 25/06/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 3,54 miljard
  • CUDA Cores: 1152
  • Shader clock:980 mhz
  • Core Clock: 980-1033 Mhz
  • ROP's: 32
  • Pixel Fill Rate: 31.4 GP/s
  • Memory Clock: 1502 Mhz (GDDR5)
  • Memory Bandwidth: 192 GB/s
  • Memory Interface: 256 bit
  • Memory: 2/4 GB
  • Texture Units: 96
  • Texture Fill Rate: 94.1 (b/s)
  • Consumption: 170 Watt (TDP)


High Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/gYo5ZDCNRwiHM4aMwYzgJPV1/full.png

GTX 660 Ti
  • GPU: GK104 (28nm)
  • Release Date: 16/8/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 3,54 miljard
  • CUDA Cores: 1344
  • Shader clock:915-980 mhz
  • Core Clock: 915-980 Mhz
  • ROP's: 24
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 1500 Mhz (GDDR5)
  • Memory Bandwidth: 144.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 2048 MB
  • Texture Units: 112
  • Texture Fill Rate: 102.5 (b/s)
  • Consumption: 150 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/Dl8jWtJe6AgxSiEf6EIdn8dz/full.png

GTX 670/760Ti
  • GPU: GK104
  • Release Date: 10/05/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 3.54 miljard
  • CUDA Cores: 1344
  • Shader clock: 915-1084 mhz
  • Core Clock: 915-1084 Mhz
  • ROP's: 32
  • Pixel Fill Rate: 29.3 GP/s
  • Memory Clock: 1250 Mhz (GDDR5)
  • Memory Bandwidth: 192.256GB/s
  • Memory Interface: 256 bit
  • Memory: 2048 MB
  • Texture Units: 112
  • Texture Fill Rate: 102.5(b/s)
  • Consumption: 170 Watt (TDP)



High End


Afbeeldingslocatie: http://tweakers.net/ext/f/Dl8jWtJe6AgxSiEf6EIdn8dz/full.png

GTX 680
  • GPU: GK104 (28nm)
  • Release Date: 22/03/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 3,54 miljard
  • CUDA Cores: 1536
  • Shader clock: 1006-1110 Mhz
  • Core Clock: 1006-1110 MHz
  • ROP's: 32
  • Pixel Fill Rate: 32.2 GP/s
  • Memory Clock: 1252 (GDDR5)
  • Memory Bandwidth: 192,256 GB/s
  • Memory Interface: 256 bit
  • Memory: 2048/4096 MB
  • Texture Units: 128
  • Texture Fill Rate: 128.8 (b/sec)
  • Consumption: 195 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/o8fPY2rJKd5fdo3UvzCE6Hu9/full.png

GTX 770
  • GPU: GK104
  • Release Date: 30/05/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 3,54 miljard
  • CUDA Cores: 1536
  • Shader clock: 1085 Mhz
  • Core Clock: 1046-1085 MHz
  • ROP's: 32
  • Pixel Fill Rate: 33.5 GP/s
  • Memory Clock: 1752.5 (GDDR5)
  • Memory Bandwidth: 224 GB/s
  • Memory Interface: 256 bit
  • Memory: 2048/4096 MB
  • Texture Units: 128
  • Texture Fill Rate: 134 (b/sec)
  • Consumption: 230 Watt (TDP)


High End


Afbeeldingslocatie: http://tweakers.net/ext/f/Dl8jWtJe6AgxSiEf6EIdn8dz/full.png

GTX 780
  • GPU: GK110
  • Release Date: 23/05/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 7,08 miljard
  • CUDA Cores: 2304
  • Shader clock: 863 Mhz
  • Core Clock: 863-900 MHz
  • ROP's: 48
  • Pixel Fill Rate: 41.4 GP/s
  • Memory Clock: 1252 (GDDR5)
  • Memory Bandwidth: 288 GB/s
  • Memory Interface: 384 bit
  • Memory: 2048/4096 MB
  • Texture Units: 192
  • Texture Fill Rate: 166 b/s
  • Consumption: 250 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/o8fPY2rJKd5fdo3UvzCE6Hu9/full.png

GTX 780 Ti
  • GPU: GK110
  • Release Date: 7/11/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 7,08 miljard
  • CUDA Cores: 2880
  • Shader clock: 876 Mhz
  • Core Clock: 876-928 MHz
  • ROP's: 48
  • Pixel Fill Rate: 42 GP/s
  • Memory Clock: 1750(GDDR5)
  • Memory Bandwidth: 336 GB/s
  • Memory Interface: 384 bit
  • Memory: 3072 MB
  • Texture Units: 240
  • Texture Fill Rate: 210 b/s
  • Consumption: 250 Watt (TDP)


High End


Afbeeldingslocatie: http://tweakers.net/ext/f/Dl8jWtJe6AgxSiEf6EIdn8dz/full.png

GTX Titan
  • GPU: GK110
  • Release Date: 19/02/2013
  • Interface: PCI-E x16 3.0
  • Transistors: 7,08 miljard
  • CUDA Cores: 2688
  • Shader clock: 837 Mhz
  • Core Clock: 837-876 MHz
  • ROP's: 48
  • Pixel Fill Rate: 40.2 GP/s
  • Memory Clock: 1252 (GDDR5)
  • Memory Bandwidth: 288 GB/s
  • Memory Interface: 384 bit
  • Memory: 6144 MB
  • Texture Units: 224
  • Texture Fill Rate: 188 b/s
  • Double Precision: 1500GFLOP
  • Consumption: 250 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/o8fPY2rJKd5fdo3UvzCE6Hu9/full.png

GTX Titan Black
  • GPU: GK110
  • Release Date: 18/02/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 7,08 miljard
  • CUDA Cores: 2880
  • Shader clock: 889 Mhz
  • Core Clock: 889-980 MHz
  • ROP's: 48
  • Pixel Fill Rate: 42.7 GP/s
  • Memory Clock: 1750(GDDR5)
  • Memory Bandwidth: 336 GB/s
  • Memory Interface: 384 bit
  • Memory: 6114 MB
  • Texture Units: 240
  • Texture Fill Rate: 213 b/s
  • Double Precision: 1707GFLOP
  • Consumption: 250 Watt (TDP)


High End


Afbeeldingslocatie: http://tweakers.net/ext/f/o8fPY2rJKd5fdo3UvzCE6Hu9/full.png

GTX 690
  • GPU: 2*GK104
  • Release Date: 29/04/2012
  • Interface: PCI-E x16 3.0
  • Transistors: 2*3,540 miljard
  • Unified shaders: 2*1536
  • Shader clock:915-1058 mhz
  • Core Clock:915-1058 Mhz
  • ROP's: 2*32
  • Pixel Fill Rate:2*28.8 GP/s
  • Memory Clock: 1252 Mhz (GDDR5)
  • Memory Bandwidth: 2* 192,256GB/s
  • Memory Interface: 2* 256 bit
  • Memory: 2*2048 MB
  • Texture Units: 2*128
  • Texture Fill Rate: 2*117.12 (b/S)
  • Consumption: 300 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/o8fPY2rJKd5fdo3UvzCE6Hu9/full.png

GTX Titan Z
  • GPU: 2*GK110
  • Release Date: 25/03/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 2*7,080 miljard
  • Unified shaders: 2*2880
  • Shader clock:705 mhz
  • Core Clock:705-876 Mhz
  • ROP's: 2*48
  • Pixel Fill Rate:2*33.8 GP/s
  • Memory Clock: 1750 Mhz (GDDR5)
  • Memory Bandwidth: 2* 336 GB/s
  • Memory Interface: 2* 384 bit
  • Memory: 2*6144 MB
  • Texture Units: 2*240
  • Texture Fill Rate: 2*169 (b/S)
  • Consumption: 375 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/DFeDURbVIwGuYmupll8jMSgD/full.png


http://www.geforce.com/hardware/technology/mfaa


Afbeeldingslocatie: http://tweakers.net/ext/f/tYGrbfKMtRf6MsmKd6GQsR4D/full.jpg

Low Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 745 (OEM)
  • GPU: GM107
  • Release Date: 18/02/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 1.87 miljard
  • CUDA Cores: 384
  • Shader clock:1033 mhz
  • Core Clock: 1033-?? Mhz
  • ROP's: 16
  • Pixel Fill Rate: 16.5 GP/s
  • Memory Clock: 900 Mhz (DDR3)
  • Memory Bandwidth: 28.8 GB/s
  • Memory Interface: 128 bit
  • Memory: 4 GB DDR3
  • Texture Units: 24
  • Texture Fill Rate: 24.8 (b/s)
  • Consumption: 55 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTx 750
  • GPU: GM107
  • Release Date: 29/02/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 1,87 miljard
  • CUDA Cores: 512
  • Shader clock:1020 mhz
  • Core Clock: 1020-1085 Mhz
  • ROP's: 16
  • Pixel Fill Rate: 16.3 GP/s
  • Memory Clock: 1250 Mhz (GDDR5)
  • Memory Bandwidth: 80 GB/s
  • Memory Interface: 128 bit
  • Memory: 1 GB
  • Texture Units: 32
  • Texture Fill Rate: 32.6 (b/s)
  • Consumption: 55 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/4UKnRDm8mNQxk4ay9az2aBJt/full.png

Mid-end


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 750 Ti
  • GPU: GM107
  • Release Date: 18/02/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 1.87 miljard
  • CUDA Cores: 640
  • Shader clock:1020 mhz
  • Core Clock: 1020-1085 Mhz
  • ROP's: 16
  • Pixel Fill Rate: 16.3 GP/s
  • Memory Clock: 1350 Mhz (GDDR5)
  • Memory Bandwidth: 86.4 GB/s
  • Memory Interface: 128 bit
  • Memory: 1/2 GB
  • Texture Units: 40
  • Texture Fill Rate: 40.8 (b/s)
  • Consumption: 60 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 960
  • GPU: GM206
  • Release Date: ??
  • Interface: PCI-E x16 3.0
  • Transistors: 1,87 miljard
  • CUDA Cores: 1024
  • Shader clock:1127 mhz
  • Core Clock: 1127-1178 Mhz
  • ROP's: 32
  • Pixel Fill Rate: 39.3 GP/s
  • Memory Clock: 1752.5 Mhz (GDDR5)
  • Memory Bandwidth: 112 GB/s
  • Memory Interface: 128 bit
  • Memory: 2/4 GB
  • Texture Units: 64
  • Texture Fill Rate: 104.4 (b/s)
  • Consumption: 120 Watt (TDP)


High-end


Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/thumb/2000546305.png

GTX 970
  • GPU: GM204
  • Release Date: 18/09/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 5.2 miljard
  • CUDA Cores: 1664
  • Shader clock:1050 mhz
  • Core Clock: 1050-1178 Mhz
  • ROP's: 64
  • Pixel Fill Rate: 54.6 GP/s
  • Memory Clock: 1352.5 Mhz (GDDR5)
  • Memory Bandwidth: 224 GB/s
  • Memory Interface: 256 bit
  • Memory: 4 GB
  • Texture Units: 104
  • Texture Fill Rate: 109.2 (b/s)
  • Consumption: 145 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX 980
  • GPU: GM204
  • Release Date: 18/09/2014
  • Interface: PCI-E x16 3.0
  • Transistors: 5,2 miljard
  • CUDA Cores: 2048
  • Shader clock:1127 mhz
  • Core Clock: 1127-1178 Mhz
  • ROP's: 64
  • Pixel Fill Rate: 72.1 GP/s
  • Memory Clock: 1752.5 Mhz (GDDR5)
  • Memory Bandwidth: 224 GB/s
  • Memory Interface: 256 bit
  • Memory: 4 GB
  • Texture Units: 128
  • Texture Fill Rate: 144 (b/s)
  • Consumption: 165 Watt (TDP)


Enthusiast


Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/thumb/2000546305.png

GTX 980 Ti
  • GPU: GM200
  • Release Date: 01/06/2015
  • Interface: PCI-E x16 3.0
  • Transistors: 8 miljard
  • CUDA Cores: 2816
  • Shader clock:1000 mhz
  • Core Clock: 1000-1076 Mhz
  • ROP's: 96
  • Pixel Fill Rate: 96 GP/s
  • Memory Clock: 1752,5 Mhz (GDDR5)
  • Memory Bandwidth: 336 GB/s
  • Memory Interface: 384 bit
  • Memory: 6 GB
  • Texture Units: 176
  • Texture Fill Rate: 176 (b/s)
  • Consumption: 250 Watt (TDP)


Afbeeldingslocatie: http://tweakers.net/ext/f/5jUKQoJTOdWmtSIJg80ltgtb/full.png

GTX Titan X
  • GPU: GM200
  • Release Date: 17/03/2015
  • Interface: PCI-E x16 3.0
  • Transistors: 8 miljard
  • CUDA Cores: 3072
  • Shader clock:1000 mhz
  • Core Clock: 1000-1089 Mhz
  • ROP's: 96
  • Pixel Fill Rate: 96 GP/s
  • Memory Clock: 1752.5 Mhz (GDDR5)
  • Memory Bandwidth: 336 GB/s
  • Memory Interface: 384 bit
  • Memory: 12 GB
  • Texture Units: 192
  • Texture Fill Rate: 192 (b/s)
  • Consumption: 250 Watt (TDP)


Notebook GPU's, let vooral op de GTX 965M tot en met de 980M Welke eigenlijk gewoon (gerecoverde) GTX970 desktop kaarten zijn!
ModelGPUShadersGPU Basis
kloksnelheid
Geheugen
type
Geheugen
snelheid
Band
breedte
Bus
breedte
SLI
Geforce 930MGM1083841029MHzDDR31600MHz16GB/s64bitNee
Geforce 940M (igp)GM1083841029MHzDDR31001MHz16GB/s64bitNee
Geforce 940M (MxM)GM1076401029MHzDDR3900MHz28,8GB/s128bitNee
GTX 950MGM107640914MHzDDR31000MHz32GB/s128bitNee
GTX 950MGM107640914MHzGDDR51250MHz80GB/s128bitNee
GTX 960MGM1076401096MHzGDDR51250MHz80GB/s128bitNee
GTX 965MGM2041024944MHzGDDR51250MHz80GB/s128bitJa
GTX 970MGM2041280924MHzGDDR51250MHz120GB/s192bitJa
GTX 980MGM20415361038MHzGDDR51250MHz160GB/s256bitJa



Afbeeldingslocatie: http://tweakers.net/ext/f/uOlshIJnuUxnqeB9KonYmfXH/full.png

Het vroegtijdig overlijden van ons forumlid CJ:
The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:

• [url=http://tweakers.net/nieuws/100915/driver-update-verraadt-onaangekondigde-grafische-kaarten-nvidia.html]Frontpage: Driver-update verraadt onaangekondigde grafische kaarten Nvidia
Frontpage: TSMC verwacht in 2016 op grote schaal op 16nm te produceren
(TSMC verkoopt daarnaast zijn belang van 5 procent in ASML. <<ook wel een belangrijk gegeven, ook al zijn er niet echt veel concurrenten van ASML)

Externe nieuwsberichten:

ARS: All this has happened before: NVIDIA 3.0, ARM, and the fate of x86

Afbeeldingslocatie: http://tweakers.net/ext/f/PWpn4EzOVCOP4VX6SyUELZfx/full.png


Pascal

Afbeeldingslocatie: http://tweakers.net/ext/f/JSpVElffUk9ZNvgJrms3cl0c/full.png

Officiële (WHQL) nVidia drivers voor GeForce 400, 500,600,700 en 900 series
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:
Support inclusief Mobile en quadro versies!nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Windows OS:
Geen daar de whql driver een stuk recenter/actueler is dan de laatste beta[list type=X][/list]De allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.

Afbeeldingslocatie: http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews GeForce 500 serie
Deze kan u vinden in Deel 55 van dit topic

Vorige Topics:Gebruikerservaring:
Het Nvidia GTX5xx series ervaringen topic
Het Nvidia GTX4xx series ervaringen topic
nVidia GTX470/GTX480 Levertijden Topique

[Ervaringen] Bakken grafische kaart
Het doodgaan van GeForce 8000 serie kaarten
nVidia GeForce GT(X) 9xx Serie Ervaringen - Deel 1

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce 500 serie in de Pricewatch
GeForce Qaudro in de Pricewatch
Afbeeldingslocatie: http://tweakers.net/ext/f/1neA5jmcpdLKJpfbbhbV9GtN/full.png


Afbeeldingslocatie: http://tweakers.net/ext/f/nF8p0LbXAQ69PE5Ii454VjHe/full.png


Afbeeldingslocatie: http://tweakers.net/ext/f/Q2FAjDupA2zEziFqgq0NKSih/full.png


Afbeeldingslocatie: http://tweakers.net/ext/f/NMswYmP7M4Qs4WZyLht5TCmE/full.png

Afbeeldingslocatie: http://www.nvidia.com/docs/CP/11033/purevideo_header.jpg

Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum




Startpost: Jejking & biobak & RappieRappie
Afbeeldingslocatie: http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

*TODO*
->Afbeeldingen toevoegen, Kepler/Maxwell info toevoegen, geruchten, nieuwsberichten, drivers updaten ..
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
  • PV engine 4 bijvoegen
  • CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

[ Voor 6% gewijzigd door lightdestroyer op 23-07-2015 18:27 . Reden: Update van de Maxwell 2 generatie (en mobiele kaarten) ]

Specs


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Jeroenneman schreef op donderdag 22 januari 2015 @ 15:56:
En de reviews zijn binnen!

In eerste instantie vooral teleurstelling, vooral als je naar de minimale framerates kijkt.

Toch weer een klein pluspunt in de overclock resultaten, daar lijkt de kaart erg goed op te reageren. Bij TPU van 72 naar 87FPS, wat hem net onder de GTX780 plaats. Voor 200 euro!

Helaas nu nog hoge prijzen, maar als die zakt onder de 200, prima kaartje mits je op 1080p blijft, en niet gaan downsamplen!
Dit was toch te verwachten dat hij zo zou presteren.

Ik denk dat hij in SLI op 2560x1600 zwaar voorbij wordt gelopen door een GTX760 SLI setup of R9 285/280 (non x) in Crossfire. Met 4k hoef je niet eens te beginnen terwijl dat op de vorige kaarten op lagere settings misschien nog te doen was.
Stom want juist de x6x kaarten zijn altijd in trek om in SLI te zetten.

Verschil tussen de kaarten wordt groter op hoge resoluties.
Afbeeldingslocatie: http://tpucdn.com/reviews/EVGA/GTX_960_SSC_ACX_Cooler/images/perfrel_3840.gif
Afbeeldingslocatie: http://tpucdn.com/reviews/EVGA/GTX_960_SSC_ACX_Cooler/images/perfrel_1920.gif

Prima kaart dus voor 1080p in single opstelling, zolang de prijs maar onder 200 valt.

  • D33F
  • Registratie: September 2006
  • Laatst online: 31-03 14:55

D33F

Tweelingtemmer

Zoiets als dit ? :+
Afbeeldingslocatie: http://i.imgur.com/VWmi2v7.png

[ Voor 6% gewijzigd door D33F op 24-01-2015 19:19 ]

Lies are obvious to read because the truth is already written


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Misschien zal je er single gpu geen last van hebben. Maar zodra je de kaarten in SLI zet en je daadwerkelijk dat laatste stukje ram nodig hebt, dan kan ik me voorstellen dat je dan performance drops krijgt bij de GTX970 waar de GTX980 goed zijn werk blijft doen.

De snelheden van die laatste 500mb zijn erg laag voor een videokaart.
Afbeeldingslocatie: http://www.pcper.com/files/news/2015-01-24/gtx970memory.jpg

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 01-04 17:08
Ik heb het tooltje eens uitgetest bij mijn GTX670, met het volgende resultaat:

Afbeeldingslocatie: http://i.imgur.com/B2C9FZn.png

Of de GTX6xx reeks heeft eenzelfde fenomeen, of dit tooltje is niet echt betrouwbaar. Ik vraag me af of dit tooltje ook werkt op AMD kaarten en wat daar de resultaten zijn.
Mocht iemand het zelf willen proberen, in deze post staat een download link. Let op: pas in "runCustom.bat" file even de geheugengrootte aan naar dat wat jouw GPU heeft (2048, 3072 of 4096 voor 2GB, 3GB of 4GB).

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 01-04 09:36
Doe het gewoon in dit topic, denk dat het dicht genoeg bij deze materie zit en in elk geval mijn eerdere opmerking verklaart. Ik ga er even stilzwijgend van uit dat iedereen wel zo'n beetje weet wat DDR is en doet, wat quad pumping (of Quad Data Rate, hoe je het wilt noemen) is. Zoniet, heel makkelijk te vinden op WikiPedia, tal van artikelen via Google.

Nu, GDDR5 Clamshell mode.

Een GDDR5 chip heeft een 32-bits interface; dat wil zeggen, er kunnen niet meer dan 32 bits (4 bytes) in één keer geschreven of gelezen. Hier is al meteen een kleine hint, een GDDR5 bus is dus altijd een meervoud van 32. Een 144-bit GDDR5 bus bestaat niet, het is 128 of 160 bits. Normaal gesproken heeft een memory controller (MC) gewoon een 32-bit "verbinding" met elke chip; dus als je een 256-bit geheugen bus hebt, heb je in principe 256/32 = 8 chips. Met 2 Gbit (256 MB) GDDR5 chips heb je dan 8 * 256 = 2048 MB = 2 GB VRAM, met 4 Gbit chips wordt dat 4 GB. Een GTX 970/980 heeft dus 4 Gbit chips. En dit is ook waarom je van die vaste cijfers ziet tussen bus breedte en geheugen grootte.

GDDR5 heeft echter iets in de trukendoos dat ze "clamshell" mode noemen. Wat dan gebeurt is dat 2 chips een interface naar de MC delen; dit zie je ook op het PCB, de chips zitten dan letterlijk tegenover elkaar aan de twee zijden van het PCB. Ze delen daar de 32 "data draadjes" - ze krijgen er elk 16. De command bus wordt gewoon volledig gedeeld. Dit doet Nvidia regelmatig op hun mid-end range. Dan knallen ze op een 192-bit bus (maximaal 6 chips) toch 8 chips van 2 Gbit GDDR5 - dat betekent dat van die 8 chips er 4 in clamshell zitten. Of nog veel leuker, 16 chips van 2 Gbit op een 256-bit bus. Juist ja, de GTX 770 4 GB bijvoorbeeld. Er wordt soms gezegd dat een 770 die 4GB niet kan aanspreken - onzin. Die chips zijn allemaal volledig te gebruiken; wat de 770 niet kan is elke chip tegelijk aanspreken zonder snelheidsverlies - niet veel, maar het is er wel. We negeren hier even dat de GPU zelf van z'n leven niet snel kan renderen om die 4 GB nódig te hebben :P

Met dank aan Qimonda, hier een afbeelding van hoe dit er uit ziet (een DQ is een enkele Data I/O, of data draad):

Afbeeldingslocatie: http://f.cl.ly/items/0c2e3S3S1C0U1t0c0C1D/Image%202015-01-26%20at%209.53.13%20pm.png

Nu zitten er in GDDR5 heel veel dingen waardoor clamshell niet betekent dat je 50% van je bandbreedte kwijt bent; sterker nog, behalve op de momenten waar je beide chips in clamshell opstelling aan moet spreken, zul je er geen donder van merken. Dit heeft te maken met de verschillende klokken die vanuit de MC komen. De command bus wordt gedreven door de Command Clock (CK) - dit is de "unpumped" snelheid. In het geval van een 770/970/980 is dat dus 1753 MHz. Naast die CK zijn er twee Write Clocks (WCK01 en WCK23), die elk een data bus voor hun rekening nemen. De WCK draait echter twee keer zo snel als de CK (hier is dat 3506 MHz). Dat betekent dus dat je per geheugen chip weliswaar slechts 16 bits hebt, maar omdat de data bus twee keer zo snel draait kun je gewoon 32 bits aan data kwijt samen met een commando.

De problemen ontstaan pas op het moment dat je beide geheugen chips in zo'n clamshell opstelling tegelijkertijd moet aanspreken. Dan zit je namelijk vast aan die command bus die aan de CK gebonden is. Om er even een iets zinniger voorbeeld bij te nemen, de 660 Ti 2 GB: 192-bit bus met daarop 8 chips van 2 Gbit (passen er maar 6 op 192 bits, dus 4 chips in clamshell). Als je daar de laatste 512 MB gaat aanspreken tegelijk met de 512 MB ervoor ben je ineens gebonden aan 1502 MHz in plaats van de 3004 MHz op de data bus. Dat betekent dat als je beide chips wil aanspreken, je twee commando's in serie moet sturen over de command bus. Het is maar 1 enkele tik die het extra gaat kosten, maar als dit dus lang aanhoudt ben je op die 1024 MB wel ineens tijdelijk een groot deel van je bandbreedte kwijt. Moet je die hele 1024 MB wisselen zal dat zeker enkele ms kosten, wat gewoon heel erg traag is. Zou je dat merken? Zeker, die paar ms zou je best wel eens een Vsync kunnen kosten en dan neigen we al naar microstuttering. Komt dit veel of zelfs maar regelmatig voor? Fuck no - vooral tijdens het laden :+

De MC zorgt er ook voor dat de clamshell chips apart worden gebruikt, ook qua timing. Daarnaast heb ik het niet eens over dingen als de 8n prefetch in GDDR5 gehad of het feit dat de geheugen cellen stiekem helemaal niet op 1502 of een meervoud daarvan draaien (zo diep ga ik maar niet :P). In de praktijk valt clamshell gelukkig wel mee, vooral omdat het maar weinig wordt toegepast. Daarnaast is geheugen bandbreedte in games gewoon nog steeds geen probleem. In de meeste games is de helft van het gebruikte geheugen gewoon nog steeds vooral een cache, wat betekent dat er maar weinig mee wordt gedaan en het dus ook geen bandbreedte nodig heeft. Je verliest met clamshell in principe niets van je totale bandbreedte, elke cel op zich kan gewoon op de volle snelheid aangesproken worden. Het probleem op 4K is dan ook niet geheugen bandbreedte (die 288-320 waar we nu op zitten is nog steeds genoeg), de ROPs zijn daar de bottleneck.


Linkjes voor de liefhebber:
- http://en.wikipedia.org/ - Double data rate, Quad data rate, DDR3, GDDR5 - veel van de basis informatie staat gewoon op WP.
- http://www.hwstation.net/...onda_GDDR5_whitepaper.pdf
- http://www.micron.com/~/m...r5_sgram_introduction.pdf


offtopic:
Edit voordat iemand me weer wijst op het feit dat ik hier heel kort door de bocht ga: ik ga hier niet het hele verhaal achter de timings uitleggen. Ik weet dat ik niet uitleg wat überhaupt het nut van QDR is als we dankzij die WCK toch snel genoeg data kunnen versturen in clamshell mode, of dat ik uitleg hoe WCK01 en WCK23 gebruikt worden. Ik vind echter niet dat dit in deze discussie past. Dat zijn dingen die veel te diep gaan en degenen die zulke details willen weten hebben dat al lang uitgezocht.

[ Voor 7% gewijzigd door Werelds op 26-01-2015 23:56 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
XanderDrake schreef op donderdag 29 januari 2015 @ 08:29:
[...]

Dank voor delen. Conclusie:

[...]


De resultaten zijn te variabel om iets concluderends te zeggen over de laatste 512mb van de GTX 970. Op de settings om het te emuleren zit je vaak al onder de 30FPS en soms zelfs onder de 25FPS dus is het haast onmogelijk om praktisch de extra stutter van de lagere bandbreedte op te merken. Daarbij kunnen de variaties in frametimes tussen de GTX 980 en de GTX 970 ook komen door het feit dat de GTX 980 sneller is.

Dus, storm in glas water, die nooit een echte storm was geworden als nVidia gewoon openheid toonde :O
Met name dat laatste ja, als ze gewoon de kaart als 3.5gb plus extra hadden geadverteerd dan was dit nooit gebeurt...
I spent nearly the entirety of two days testing the GeForce GTX 970 and trying to replicate some of the consumer complaints centered around the memory issue we discussed all week. I would say my results are more open ended than I expected. In both BF4 and in CoD: Advanced Warfare I was able to find performance settings that indicated the GTX 970 was more apt to stutter than the GTX 980. In both cases, the in-game settings were exceptionally high, going in the sub-25 FPS range and those just aren't realistic. A PC gamer isn't going to run at those frame rates on purpose and thus I can't quite convince myself to get upset about it.
Ze gaan dus waarschijnlijk ook nog SLI testen. Hier wat meetresultaten van een user die GTX970 in SLI hebben getest.
January 28, 2015 | 08:36 PM - Posted by GoldenTiger (not verified)

Did a little testing of my own using afterburner's frametime readings and other monitoring tools... it's not FCAT but it's very accurate regardless. Here's what I got...
Afbeeldingslocatie: http://i.imgur.com/PHaofek.png
Afbeeldingslocatie: http://i.imgur.com/mhOevfQ.png

  • D33F
  • Registratie: September 2006
  • Laatst online: 31-03 14:55

D33F

Tweelingtemmer

Dat bericht is nog van woensdag. Tussentijds is aangegeven door Nvidia (PeterS) dat ze geen specifieke driver gaan ontwikkelen voor de GTX 970 met betrekking tot geheugen allocatie gezien ze nu weer van mening zijn dat er niks mis is met de GTX 970, en er derhalve geen specifieke drivers nodig zijn om dit probleem op te lossen.

Edit: aangevuld met reacties uit de thread waaruit is op te maken dat het statement met betrekking tot de drivers is ingetrokken.

Afbeeldingslocatie: http://i.imgur.com/mMGCiLG.png

Verder heb ik de gehele thread gevolgd sinds het begin, en PeterS van Nvidia heeft uiteindelijk ergens gezegd dat de te ontwikkelen driver een misinterpretatie was en dat hij eigenlijk bedoelde dat ze continue hun drivers voor alle GPU's blijven verbeteren zoals dat altijd al het geval was.

[ Voor 28% gewijzigd door D33F op 31-01-2015 15:56 ]

Lies are obvious to read because the truth is already written


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja vooral die luidruchtigere koelers doen het hem. Op 1 meter in een behuizing (waarin verder geen fans zitten) krijg je de volgende waarden:

Afbeeldingslocatie: http://www.kitguru.net/wp-content/uploads/2014/04/noise3.png

Bron

Of je het in de praktijk gaat merken met je kaart in een kast waarin wel ventilatoren zitten waardoor de videokaartkoeler zelf al weer minder hard hoeft te werken. Oh ja, headset niet vergeten op te zetten ;)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 01-04 09:36
Afbeeldingslocatie: http://www.androidpolice.com/wp-content/uploads/2015/02/nexus2cee_invite_thumb.png

  • Phuuz
  • Registratie: April 2009
  • Laatst online: 06-11-2025
Daar issie dan

Afbeeldingslocatie: https://pbs.twimg.com/media/B_RanfFW0AAdjhR.jpg:large

Titan X

12GB Framebuffer
8 Miljard transistoren

Vermoedelijke specs;

24 SSM's
3072 Shaders
96 ROPs
192 TMUs

op GTC krijgen we meer te horen. Wat een beest :9~

[ Voor 3% gewijzigd door Phuuz op 04-03-2015 19:46 ]


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Je krijgt vanaf deze week de game "The Witcher 3" gratis bij een GTX 960/970/980!

Check ook even bij je shop als je vorige week een van deze kaarten hebt besteld!
Ik heb zelf bij 4Launch vorige week al de 960 gekocht, deze week een mailtje gestuurd en vanochtend in de brievenbus:

Afbeeldingslocatie: http://i.imgur.com/DR5HOrD.jpg

Erg netjes van 4Launch, bedankt hiervoor!

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • maratropa
  • Registratie: Maart 2000
  • Niet online
Tja, ipv fp64 perf. krijg je extra fp32 perf, best een aardige trade-off. Je ziet bij de luxrender test van Anandtech dat hij flink beter scoort dan de gtx 980. Al had ik graag gezien dat ze wat meer real life cuda benchjes zouden draaien. Maar het gaat weer een erg leuke kaart zijn om op te renderen, en met scenes waar je voorheen een veel duurdere kaart voor nodig had ivm de hoeveelheid vram.

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph9059/72523.png

specs


  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03-2025
is deze al voorbijgekomen?

Afbeeldingslocatie: http://cdn3.wccftech.com/wp-content/uploads/2015/04/Nvidia-AMD.png

[ Voor 9% gewijzigd door ColinZ op 20-04-2015 21:01 ]


  • BSOD baby
  • Registratie: Februari 2015
  • Laatst online: 01-04 23:42
Hebben jullie trouwens ook dat je bij shadowplay te zien krijgt dat je CPU niet goed genoeg is? Heb een i7 4690K maar zie dit:
Afbeeldingslocatie: http://i.gyazo.com/df684f94c36d4fded18f212ae22606f1.png

ook trouwens bij game stream:
Afbeeldingslocatie: http://i.gyazo.com/c070e20f93195c383b0b3e79537bfe30.png

niet dat ik ze gebruik maar toch.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 01-04 09:36
Phuncz schreef op zaterdag 09 mei 2015 @ 16:48:
Officieel is dat totaal niet bekend
Dat is niet helemaal juist, van AMD's eigen Financial Analyst Day (6 mei):

Afbeeldingslocatie: http://www.pcper.com/files/news/2015-05-06/63566517812.png

;)

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:08

XanderDrake

Build the future!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Verwijderd

NVIDIA GeForce GTX 980 Ti Core Configuration Revealed

It looks like NVIDIA's GTX 980 Ti launch, which is imminent, won't be a repeat of the GTX 780 Ti, in that it won't be faster than the TITAN product at the time of launch. According to Korean tech publication HWBattle, the GTX 980 Ti will feature fewer CUDA cores than the GeForce GTX TITAN-X, at 2,816. NVIDIA gets that count by disabling 2 of the 24 SMM (streaming multiprocessor Maxwell) units on the GM200 silicon. The texture memory unit (TMU) count will be proportionately lower, at 176 (compared to 192 on the GTX TITAN-X). The ASIC bears the model number GM200-310, according to older reports.

We can't take a call on the ROP count and L3 cache amount. Normally we would deduce that it has a full complement of 96 ROPs, but given that Maxwell allows SKU designers to disable components in a way they previously couldn't, it's possible that the GTX 980 Ti could have a different ROP count than the GTX TITAN-X, just as the GTX 970 has a lower "effective" ROP count at 56, compared to the GTX 980, despite the same memory bus width. We know from other reports, that the GTX 980 Ti will feature 6 GB of memory. The TDP is a very arbitrary number, and 250W shouldn't surprise us. What also wouldn't surprise us is NVIDIA reusing the PCB and NVTTM (NVIDIA Time-to-Market) cooler design from the GTX TITAN-X (and several older SKUs). NVIDIA could allow its AIC (add-in- card) partners to come up with custom board designs from day-one.
Afbeeldingslocatie: http://www.techpowerup.com/img/15-05-22/90c.jpg
Just a quick recap.
SKU name: GeForce GTX 980 Ti
ASIC: GM200-310, 28 nm
2,816 CUDA cores
176 TMUs
Unknown ROP count
384-bit GDDR5 memory interface
6 GB standard memory amount
Afbeeldingslocatie: http://www.techpowerup.com/img/15-05-22/90b.jpg

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:08

XanderDrake

Build the future!

Ook dit plaatje van The Mask is wel handig.

Afbeeldingslocatie: http://framebuffer.com.br/wp-content/uploads/2015/03/656x341xo4wOYxm.png.pagespeed.ic.6BBul3Zp0A.png

Klein vraagje, welke GPU is Kepler v1 en welke v2? Is de GTX 700 serie v2?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Verwijderd

NVIDIA Tapes Out "Pascal" Based GP100 Silicon

Sources tell 3DCenter.org that NVIDIA has successfully taped out its next big silicon based on its upcoming "Pascal" GPU architecture, codenamed GP100. A successor to GM200, this chip will be the precursor to several others based on this architecture. A tape-out means that the company has successfully made a tiny quantity of working prototypes for internal testing and further development. It's usually seen as a major milestone in a product development cycle.

With "Pascal," NVIDIA will pole-vault HBM1, which is making its debut with AMD's "Fiji" silicon; and jump straight to HBM2, which will allow SKU designers to cram up to 32 GB of video memory. 3DCenter.org speculates that GP100 could feature anywhere between 4,500 to 6,000 CUDA cores. The chip will be built on TSMC's upcoming 16 nanometer silicon fab process, which will finally hit the road by 2016. The GP100, and its companion performance-segment silicon, the GP104 (successor to GM204), are expected to launch between Q2 and Q3, 2016.
Afbeeldingslocatie: http://www.techpowerup.com/img/15-06-08/99a.jpg

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 01-04 22:45

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Nvidia probeert wat nieuws met reclame maken
Afbeeldingslocatie: https://scontent.xx.fbcdn.net/hphotos-xpf1/v/t1.0-9/11059327_1094031590625755_6605737616889984181_n.jpg?oh=f3d300f0f79890b97ae176c6f7563941&oe=5629DC95

https://www.facebook.com/...0567743320&type=1&theater

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:08

XanderDrake

Build the future!

nVidia Shield Console komt naar Europa:
http://www.fudzilla.com/n...o-hit-europe-in-september

Niet geheel onlogisch maar nu wel officieel: de Shield console komt naar Europa. Prijzen zijn nog niet bekend. USP: 4k ondersteuning voor TVs en nVidia GRID streaming. Daarnaast is het gewoon een hele snelle Ouya met een betere controller :P
Afbeeldingslocatie: http://www.fudzilla.com/media/k2/items/cache/06b6fe382908f587e0257f7454dede13_L.jpg

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:08

XanderDrake

Build the future!

Dit is trouwens de reden waarom nVidia geen GPU's meer onder de GTX 950 zal gaan uitbrengen geloof ik:

Afbeeldingslocatie: http://media.bestofmicro.com/5/Q/516014/original/gtav.png

Intel is de toekomst hiero. De marge ligt voor nVidia toekomst alleen in high end ondertussen. AMD focust op bang-for-buck, maar een snelle intel CPU met gratis GPU erbij is altijd nog meer bang-for-buck....

[ Voor 4% gewijzigd door XanderDrake op 25-08-2015 14:38 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Verwijderd

Verwijderd schreef op woensdag 02 september 2015 @ 18:53:
[...]

Dit, de performance hit zal wat groter zijn. En aangezien de 980ti nog steeds de vloer aanveegt met de FuryX in dx11
Afbeeldingslocatie: http://tpucdn.com/reviews/Sapphire/R9_Fury_Tri-X_OC/images/perfrel_3840.gif
Echt een groot verschil idd. :p
en veel harder overclocked zou ik mij geen zorgen maken.
Ik heb eigenlijk nog weinig serieuze reviews gezien waar overklokken is meegenomen. De software was bij de launch nog niet gereed, maar is dat nu wel. Er leek nogal eens een geheugenbandbreedte te kort te zijn en een 100% overklok op HBM heb ik al gezien, dus ik denk dat je een beetje te voorbarig bent.

Vergeet ook niet dat de boost klok bij nVidia toch al vaak vrij hoog is, zodat er procentueel minder ruimte is voor overklokken.

Afbeeldingslocatie: http://tpucdn.com/reviews/AMD/R9_Fury_X_Overvoltage/images/memory.gif
Zie hier het verschil in performance met het geheugen van 500MHz naar 560MHz.

Zelf met deze bescheiden verhoging in kloksnelheid was de winst in performance al beter dan met een nVidia GeForce GTX 980 Ti was gehaald door TechPowerUp. Dus ik zou eerst wat meer resultaten afwachten voordat je je conclusie trekt.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 01-04 17:16
Verwijderd schreef op woensdag 02 september 2015 @ 20:18:
[...]

[afbeelding]
Echt een groot verschil idd. :p

[...]

Ik heb eigenlijk nog weinig serieuze reviews gezien waar overklokken is meegenomen. De software was bij de launch nog niet gereed, maar is dat nu wel. Er leek nogal eens een geheugenbandbreedte te kort te zijn en een 100% overklok op HBM heb ik al gezien, dus ik denk dat je een beetje te voorbarig bent.

Vergeet ook niet dat de boost klok bij nVidia toch al vaak vrij hoog is, zodat er procentueel minder ruimte is voor overklokken.

[afbeelding]
Zie hier het verschil in performance met het geheugen van 500MHz naar 560MHz.

Zelf met deze bescheiden verhoging in kloksnelheid was de winst in performance al beter dan met een nVidia GeForce GTX 980 Ti was gehaald door TechPowerUp. Dus ik zou eerst wat meer resultaten afwachten voordat je je conclusie trekt.
Vergeet je dan ook niet om even de keerzijde van de overclock te tonen
Afbeeldingslocatie: https://tpucdn.com/reviews/AMD/R9_Fury_X_Overvoltage/images/power.gif

En de conclusie van het verhaal in dat zelfde verhaal
In this graph, I'm showing full-system power draw during testing. This test has clock speeds fixed at 1100 MHz for better comparison. As you can see, power ramps up very quickly, much faster than maximum clock or performance. From stock to +144 mV, power draw increases by 27%, while overclocking potential only went up by 5% and real-life performance increases by only 3%.

En dan eronder ook nog
Looking at the numbers, I'm not sure if a 150W power draw increase for a mere 3 FPS increase is worth it for most gamers. Smaller voltage bumps to get a specific clock frequency 100% stable are alright, though.

Niet heel gunstig volgens mij De chip kan harder draaien, maar gaat sneller meer verbuiken en opwarmen dan deze sneller werkt. De fury x is duidelijk geen chip om all out te gaan. Daarom is er maar 1 versie van en mogen fabrikanten niet knoeien met de kaart.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Help!!!! schreef op zaterdag 05 september 2015 @ 21:54:
[...]

Of ze dachten dat ze er mee weg konden komen, maar dat is evengoed vrij dom.

[...]

En dat is volgensmij de hele crux.
Zelf denk ik na het lezen van een aantal posts op OC.net dat het een software oplossing is. Blijkbaar heeft Nvidia het gedeelte wat het normaal hardwarematig zou schedulen eruit gesloopt om daarmee stroom te besparen. Dit plus het eruitslopen van GPGPU compute dingen helpt ze om stroom te besparen.
Alleen lopen ze er nu tegen aan dat het wat pittiger wordt om het allemaal werkende te krijgen en de latency met VR laag te houden. Het is dus nog even afwachten hoe dat voor ze uitpakt.

Zie ook volgende filmpje (David Kanter blijkbaar na een Nvidia event):


Afbeeldingslocatie: http://cdn.overclock.net/7/7b/7b6389c4_Context.jpeg

[ Voor 4% gewijzigd door Sp3ci3s8472 op 06-09-2015 01:51 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Indy91 schreef op maandag 07 september 2015 @ 15:59:
[...]

Dan volg je het videokaarten nieuws niet zo heel lang, dunkt mij.

Volgens mij hebben in het verleden zowel nVidia als AMD wel eens de plank misgeslagen op drivergebied. Ik zal je geheugen eens wat opfrissen.
De nVidia missers:
  • DX10 done wrong drivers, nVidia mistte ten tijde van de introductie van DX10 nogal wat functionaliteiten voor de oorspronkelijke DX10 API. De DX10 specificaties zijn toen naar beneden zijn bijgesteld om nVidia tevreden te stellen.
  • Diverse (beta)driver releases die defecten konden veroorzaken bij een bepaalde serie nVidia kaarten.
De AMD missers:
  • Zeer slechte drivers voor ATi Rage pro
Ik zou juist stellen dat nVidia NIET altijd goed bezig is met hun drivers.
Je ziet op het forum dit jaar steeds vaker dat de WHQL drivers van Nvidia niet altijd lekker werken, vaak wordt dan simpelweg aangeraden om naar een oudere versie over te stappen. Natuurlijk leuk dat Nvidia vaker drivers uitbrengt maar als ze niet stabiel zijn dan heb je er weinig aan.

Je vergeet het Vista driver debakel ;).
Afbeeldingslocatie: http://media.arstechnica.com/news.media/vistacrash-1.jpg
http://arstechnica.com/ga...-of-buggy-nvidia-drivers/

Maar dit wordt altijd vergeten. AMD heeft zover ik weet hun drivers altijd goed op orde, het enige wat je ze kan aanmerken is dat ze bij GameWork/TWIMTBP titels wat meer werk nodig hebben (obviously) en daardoor de driver later uitbrengen.

Het verbaast mij eigenlijk altijd waarom AMD ervan wordt beschuldigt slechte drivers te hebben.

Om de zaak wat luchtiger te houden nog een filmpje betreft Async Compute :+.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:15
Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]


Precies dit.

AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.

Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.

Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....

Kwestie van de juiste dingen prioriteren.
Ik denk dat HBM voor amd de juiste keuze was, qua kosten en beschikbaarheid is het nu matig, maar het maakt de fury X wel gigantisch veel efficienter dan de andere gcn kaarten. Met gddr5 hadden ze dat niet bereikt.

Geheugenbandbreedte is zeker wel belangrijk, nvidia heeft niet voor niets hun cache vergroot en compressie verbeterd, puur om alles uit die bus te persen. HBM is efficienter, maar nvidia compenseert dit doordat de rest van de kaart ook efficienter is. Nog amper DP compute, en cpu sceduling, maar voor graphics en sp compute lijkt het vooralsnog prima te werken.

Maar ik denk niet dat het voor amd reëel was geweest om in een hele nieuwe architectuur te investeren. Als de shrink straks komt heeft gcn voor desktopkaarten waarschijnlijk toch geen problemen met powerefficiency meer. Alleen jammer voor amd dat die shrink zo lang duurt.

Ik zou ook niet zeggen dat amd "te vaak" op verkeerde dingen inzet, nvidia doet het ook pas beter sinds de gtx 680, en dat was ook maar voor de helft, want de 290x gaf wel meer performance per oppervlak dan de 780Ti. Of met de gtx280 tegen de 4870. 8)7
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/4800/rv770vsgtxvspenryn.png
Pakte ook wel eens goed uit, met de 8800gtx, 8800GT cashcow die ze een paar keer verkleind en gerebrand hebben.

Mechwarrior Online: Flapdrol


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 01-04 09:36
Verwijderd schreef op woensdag 23 september 2015 @ 17:49:
Maar niet in games actief voor dx 12 wat Nvidia wil gaan doen voor geforce kaarten zodat er als nog performance winst te behalen is zoals AMD dat ook doet via hardware alleen gaat dat bij nvidia dan over de cuda cores. Dus dat werk ook niet alleen maar softwarematig?
Nee, dat gaat niet "over de CUDA cores". Ik zal de afbeelding van de oc.net post er bij nemen en uit leggen.

Afbeeldingslocatie: http://cdn.overclock.net/0/0b/0b05d6b8_HyperQ_at_work.jpeg

Alles in dit diagram zit in software op de CPU - behalve die SMX'en onderaan, dat is het enige stukje GPU hier. In elke SMX/SMM (cluster van Shader Processors...of "CUDA Core" in Nvidia marketing termen) zit een Asynchronous Warp Scheduler. Die laatste is degene die weet welke SP bezet is in "zijn" cluster en welke niet. Het werk is dan echter al verdeeld. En elk van die AWS'en heeft geen flauw benul hoe druk de andere clusters zijn. Het gevolg is dat die Grid Management Unit regelmatig moet wachten tot hij antwoord van de GPU krijgt, anders weet hij niet of er al resources vrij zijn; en waar. Dat brengt latency met zich mee en zorgt er voor dat je alsnog korte resource barriers hebt.

Bekijk nu de volgende diagrammen eens (deze doe ik als platte links, zijn iets te groot :P):

http://images.anandtech.c...0_Block_Diagram_FINAL.png

http://images.anandtech.com/doci/9390/FijiBlockDiagram.png

Bij AMD zitten de queues in de GPU, maar vóór de cluster groepen (ACE bovenin). De ACE's kunnen ook elke CU aansturen en weten welke CUs bezig zijn. Zij kunnen dus heel nauwkeurig het werk verdelen, ongeacht hoe en waar het binnen komt. Nog veel belangrijker, ze weten ook van tevoren waar er binnenkort ruimte is (dat is dat preemption verhaal). Dat is wat Nvidia mist. Zij moeten aan de software kant al een hoop werk verdelen. Dat verdelen brengt wachttijd met zich mee, omdat ze niets naar de GPU kunnen sturen voordat ze weten of daar ruimte voor is.

Poging tot een analogie (bear with me :P): grote parkeerplaats met duizenden auto's (instructies) die weg moeten door een van de uitgangen (groepen shader clusters), die elk op hun beurt weer een hoop uitvalswegen (shader clusters) hebben.

Bij AMD gaat iedereen fijn in een van de 64 rijen (queues) staan en zijn er per 8 rijen 1 verkeersagent (ACE). Die verkeersagenten zien op een live kaart precies welke uitvalswegen en uitgangen het drukst zijn en dirigeren op basis daar van. Klaar.

Bij Nvidia staat er midden op de parkeerplaats een enkele verkeersagent (GMU). Die heeft een walkietalkie waarmee hij met de gasten bij de uitgangen communiceert. Pas als hij van hen hoort dat er ruimte is, laat hij auto's door. Vervolgens komen die bij de uitgangen, maar wordt er dan pas gekeken welke uitvalswegen het rustigste zijn en waar ze precies terecht komen. Die agent in het midden probeert wel zo slim mogelijk auto's te verdelen, maar hij is toch afhankelijk van die andere gasten.


Je moet overigens wellicht eens Anandtech's oudere artikelen lezen. Ik ben wellicht een mierenneuker, maar termen als "CUDA Core" zijn grote onzin. Het klinkt mooi, maar als puntje bij paaltje komt is dat gewoon een Shader Processor en kan Nvidia daar niet meer mee dan AMD met die van hen kan. Als je een beetje door de oudere artikelen heen gaat zie je hoe de GPU's zich ontwikkelen en zul je ook iets abstracter gaan denken. Ik denk dat je dan ook beter begrijpt waar de "grenzen" zitten.

Verwijderd

Werelds schreef op woensdag 23 september 2015 @ 21:09:
[...]

Nee, dat gaat niet "over de CUDA cores". Ik zal de afbeelding van de oc.net post er bij nemen en uit leggen.


Je moet overigens wellicht eens Anandtech's oudere artikelen lezen. Ik ben wellicht een mierenneuker, maar termen als "CUDA Core" zijn grote onzin. Het klinkt mooi, maar als puntje bij paaltje komt is dat gewoon een Shader Processor en kan Nvidia daar niet meer mee dan AMD met die van hen kan. Als je een beetje door de oudere artikelen heen gaat zie je hoe de GPU's zich ontwikkelen en zul je ook iets abstracter gaan denken. Ik denk dat je dan ook beter begrijpt waar de "grenzen" zitten.
Ik denk dat Nvidia zelf de betere bron is voor de uitleg
http://blogs.nvidia.com/b...des-with-keplers-hyper-q/

How Hyper-Q Works A GPU consists of multiple CUDA cores grouped into streaming multiprocessors operating in parallel. A hardware unit called the CUDA Work Distributor (CWD) is responsible for assigning work to the individual multiprocessors. - See more at: http://blogs.nvidia.com/b...r-q/#sthash.AvaHBTBH.dpuf


Afbeeldingslocatie: http://blogs.nvidia.com/wp-content/uploads/2012/08/Hyper-Q.png
Phuncz schreef op woensdag 23 september 2015 @ 20:33:

[...]
Welke DX12 games bedoel je ? ;) :P
Unreal games enzv en op steam komen honderden Indie's daar op uit.

[ Voor 54% gewijzigd door Verwijderd op 24-09-2015 11:21 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Helaas niet, de Titan Z heeft een DVI connector op de "2de slot" hoogte:

Afbeeldingslocatie: https://a248.e.akamai.net/f/574/7105/8d/www.extremetech.com/wp-content/uploads/2014/05/TitanZ3.jpg

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Verwijderd schreef op zaterdag 26 september 2015 @ 18:40:
Je cijfers kloppen ook van een kan want bij Anandtech is de gtx stock refenrence sneller dan de fury x en bij Extremetech juist het omgekeerde met de zelfde kaarten en niet een beetje ook 8)7
Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2015/09/Fable-Retest.png
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph9659/4Ki7.png
Waar dan?

Of bedoel je die halve fps?

Die meet resultaten vallen prima binnen de margin of error. Niet elke website gebruikt hetzelfde moederbord/cpu en niet elke website heeft de cpu op dezelfde clocks. Als jij hiermee websites zwart wilt gaan maken dan hou ik je niet tegen, het is alleen niet erg slim.

Afbeeldingslocatie: http://techreport.com/r.x/fable-legends-dx12/fable4k-fps.gif
Hier een +/- 20% overclock.
Doe eens voor de grap 31 fps (gemiddelde tussen extremetech en anandtech) * 1.2? Goh dat lijkt wel op 37 fps, zelfs al zou je de testresultaten van anandtech *1.2 doen dan kom je op een vergelijkbaar getal namelijk 39 fps uit.

http://www.pcgameshardwar...Spiele-Benchmark-1172196/
Van pcgameshardware +/- 10% overclock:
EVGA GTX 980 Ti Superclocked/6G 34 fps
Verrek dat lijkt wel erg op 31fps * 1.1.

Ik zie hier op elke website de Fury +/- 30fps halen, op elke website als je de overclock weghaalt haalt de GTX980 Ti tussen de 31 en 32.5 fps. Het is haast belachelijk hoe consistent de Fury X scored bij elke website.
Dus leg mij maar uit waar mijn resultaten niet kloppen. Als je dat niet kan post dan niks, want deze discussie gaat al veels te lang door.

[ Voor 3% gewijzigd door Sp3ci3s8472 op 27-09-2015 17:10 . Reden: pcgameshardware link ]


Verwijderd

Sp3ci3s8472 schreef op zondag 27 september 2015 @ 17:09:
[...]


[afbeelding]
[afbeelding]
Waar dan?

Of bedoel je die halve fps?

Die meet resultaten vallen prima binnen de margin of error. Niet elke website gebruikt hetzelfde moederbord/cpu en niet elke website heeft de cpu op dezelfde clocks. Als jij hiermee websites zwart wilt gaan maken dan hou ik je niet tegen, het is alleen niet erg slim.

[afbeelding]
Hier een +/- 20% overclock.
Doe eens voor de grap 31 fps (gemiddelde tussen extremetech en anandtech) * 1.2? Goh dat lijkt wel op 37 fps, zelfs al zou je de testresultaten van anandtech *1.2 doen dan kom je op een vergelijkbaar getal namelijk 39 fps uit.

http://www.pcgameshardwar...Spiele-Benchmark-1172196/
Van pcgameshardware +/- 10% overclock:
EVGA GTX 980 Ti Superclocked/6G 34 fps
Verrek dat lijkt wel erg op 31fps * 1.1.

Ik zie hier op elke website de Fury +/- 30fps halen, op elke website als je de overclock weghaalt haalt de GTX980 Ti tussen de 31 en 32.5 fps. Het is haast belachelijk hoe consistent de Fury X scored bij elke website.
Dus leg mij maar uit waar mijn resultaten niet kloppen. Als je dat niet kan post dan niks, want deze discussie gaat al veels te lang door.
Hier met reference 0% overklock met een i7 en die verschillen zijn veel groter dan die jij aan haalt ook met langzamere cpu's zoals de i3 dus ik vind alle websites helemaal niet over een komen zeker niet op de lagere resoluties.

Afbeeldingslocatie: http://www.pcper.com/files/imagecache/article_max_width/review/2015-09-23/fable-1080p-avg.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph9659/980Ti-4k-percent.png

VS

Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2015/09/Fable-Retest.png

Ik respecteer je moeite wel en vind dit zelf ook meer zeuren. :)

[ Voor 3% gewijzigd door Verwijderd op 28-09-2015 11:06 ]


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik heb al een 3 jaar een GTX 680, maar nu begint die rare keuren te vertonen.
Tijdens het gamen clockt de GPU zichzelf terug omdat de temperatuur oploopt, vervolgens begint de fan op 100% te draaien voor een paar seconden. Vervolgens is de GPU weer op normale temperatuur om vervolgens zodra die weer te warm wordt weer terug te clocken etc. Je snapt het al dit is gigantisch storend en zorgt ook voor een aantal framedrops in het spel iRacing wat ik speel. Iemand enig idee wat het probleem zou kunnen zijn? Ik heb al een keer het koelblok eraf gehaald en ontdoen van stof maar dat mag het probleem helaas niet oplossen. Hieronder een kleine log uit GPU-Z.
Afbeeldingslocatie: http://www.fabje.eu/gpuz.jpg

Verwijderd

Jeroenneman schreef op dinsdag 13 oktober 2015 @ 16:52:
[...]


Nou, laat de reviews maar zien dan.
sjekneck schreef op dinsdag 13 oktober 2015 @ 17:06:
[...]

Daar gaan we weer. Het voorbeeld wat je al eerder hebt opgehoest liet nauwelijks winst zien (1 to 3% stijging is verwaarloosbaar
Ik heb het idd eerder uitgelegd, dus beetje dubbelop, maar hier nogmaals voor degenen die het gemist hebben of niet gesnapt hebben.

Afbeeldingslocatie: https://tpucdn.com/reviews/AMD/R9_Fury_X_Overvoltage/images/memory.gif
In dit geval zijn de eerste drie staafdiagrammen interessant. In de eerste twee staafdiagrammen daar zie je een GPU overklok van 1050MHz naar 1160MHz met een geheugen dat op dezelfde 500MHz blijft. Een GPU overklok van 1050MHz naar 1160MHz is een verhoging van zo'n 10,5%, de prestaties gaat hier echter maar 5% vooruit, van 50,9 fps naar 53,5 fps. In de derde staaf zie je dat ook het geheugen wordt overgeklokt, van 500MHz naar 560MHz, een overklok van 12% dus. Wat je nu ziet is dat de prestaties tussen de eerste en derde staaf van 50,9 fps naar 55,1 fps zijn gegaan, een verhoging van 8,25%. Hier kun je dus zien dat de Fiji GPU wel degelijk de geheugenbandbreedte nodig heeft, had die dat niet dan was het verschil tussen de eerste en tweede staaf veel groter geweest en tussen de tweede en derde veel kleiner.
HBM is een tof geheel, maar de Fury X gpu is niet de chip die het huidige HBM geheugen op de standaard snelheid laat bottlenecken. Dit gaat nog wel gebeuren natuurlijk, maar op dit moment is het imo nog redelijk overkill.
Het is duidelijk niet overkill zoals je hierboven kunt zien en dat zou ook raar zijn anders had de Tonga en Hawaii GPU ook veel te veel geheugenbandbreedte gehad. Dezen zijn immers op een vergelijkbare architectuur gebaseerd en de geheugenbandbreedte is gewoon gelijk meegegroeid met het aantal streamprocessors van de GPU's. AMD heeft ook niet voor niks bij Grenada de geheugenfrequentie opgeschroeft in vergelijking met Hawaii.
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 16:52:
Uhh, want Nvidia kaarten verbruiken allemaal 300 Watt omdat ze wel nog GDDR5 gebruiken? Dacht het niet.
Dat heeft er toch echt helemaal niks mee nodig, dat slaat echt nergens op.
Ik klaag ook niet over HBM, ik zeg alleen dat je het verschil NU nog niet echt merkt. Als geheugenbandbreedte zoveel had uitgemaakt, hadden we immers de Fury X ver voorbij de 980Ti moeten zien gaan toch? Blijkbaar maakt het dus toch niet zoveel uit.
Nee dat kan toch niet. De architectuur is vergelijkbaar gebleven en dan krijg je met dit aantal streamprocessors deze prestaties, mits nergens een bottleneck ligt. Dat je niet oneindig streamprocessors kunt toevoegen en perfecte scaling behoudt moet je ook niet vergeten.
sjekneck schreef op dinsdag 13 oktober 2015 @ 17:06:
[...]

Ja logisch, dat is ook veel stroom en vooral heel veel hitte. De aanpak met HBM als middel is prima, maar het geheel is toekomstmuziek en niet nu al onmisbaar. Het hoge verbruik van de Fury kaarten, komt vooral door de onzuinige chip volgens mij.
Ja, maar dat weet je en daar moet je mee werken. Het is niet dat je een gehele nieuwe architectuur even uit een hoge hoed tovert, daar gaat echt jaren overheen. En als TSMC en GloFo dan beide hebben zitten te prutsen met het 20nm process waardoor je op 28nm blijft zitten blijft er maar heel weinig over. Fiji uitbrengen op 28nm met HBM is dus een hele logische keuze en ook de enige goede. Beter dan een 512 bit geheugenbus met 2GHz GDDR5, een groot PCB en een verbruik van 350/375W. Ook beter dan helemaal geen kaart/GPU uitbrengen. En dat zijn de enige twee andere opties die ik kan bedenken. Maar als je een betere optie hebt dan hoor ik hem graag.
Verwijderd schreef op dinsdag 13 oktober 2015 @ 18:57:
[...]


Word wat verkeerd verwoord denk ik.
Wat?
Maar gpu kracht is nog altijd het meeste van belang voor 4k en hoger en dat is een stuk belangrijker voor extra fps en dat laat benchmarks ook duidelijk zien neem bijvoorbeeld 2x of 3x de gpu kracht daar mee gaat je fps overal harder mee omhoog dan extra geheugen of extra veel bandbreedte voor het geheugen.
Als je een 2 tot 3 maal krachtigere GPU maakt en dezelfde geheugenbandbreedte behoud dan kun je wel dag zeggen tegen de performance want dat wordt echt helemaal niks.

En het is toch echt HBM, je maakt er telkens wat anders van.

Verwijderd

tomcatha schreef op dinsdag 13 oktober 2015 @ 13:01:
ik denk dat HBM op niet al te lange termijn goedkoper zal worden dan de traditionele manier.
Afhankelijk van de kracht van de GPU, de beschikbaarheid van snel geheugen en wat je nodig hebt. Een 512 bit geheugenbus maakt het PCB erg complex en duur, in zo'n geval kan HBM best wel goedkoper zijn. Misschien is HBM nu ook wel goedkoper voor AMD dan een 512 bit geheugenbus met 2GHz chips.
Verwijderd schreef op dinsdag 13 oktober 2015 @ 20:02:
[...]


Kijk maar naar de meeste 4k benchmarks met 2 of 3 gtx 980's TI's conclusie gpu power te kort met 1 gpu waar 2 en 3 overal meer fps halen en een betere frametime. Dit geldt natuurlijk niet voor kaarten met een te kleine doorvoer waar jij op doelt.
Zoals anderen al zeggen, slaat dit echt helemaal nergens op.
Je ziet spoken denk ik ;)
Het staat volgens mij heel duidelijk uitgelegd met cijfertjes erbij nog wel.
sdk1985 schreef op dinsdag 13 oktober 2015 @ 20:12:
[...]


Als ik die grafieken zie ben ik het met je analyse eens. Die kaart kan nog wel wat bandbreedte gebruiken.

Het roept bij mij echter wel wat vragen op. Immers zit de Fury al op 512 GB/s terwijl de 980 Ti nog op 336 GB/s zit. Is die architectuur van AMD dan zoveel inefficiënter?
Lijkt wel zo, maar ik denk trouwens dat het eerder andersom is. :p Volgens mij is nVidia gewoon heel erg efficiënt bezig.
Gaat dit geen problemen opleveren op het moment dat Nvidia ook met HBM komt???
Waarom zou dat uitmaken? HBM2 heeft zoveel bandbreedte dat moet meer dan genoeg zijn. En sowieso zie ik niet in waarom nVidia daar wat mee te maken heeft. Bij een toekomstige architectuur kan het trouwens ook anders zijn. Als AMD met betere compressie komt kan het zo weer andersom zijn.
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 20:08:
En wat zegt dit? Als ik overclock, dan levert dat meer performance op?
Begrijpend lezen blijft een kunst.

Er wordt beweerd dat wel niks aan HBM hebben en dat het overdreven veel bandbreedte is. Ik laat duidelijk zien dat dat niet zo is en dat HBM de enige juiste keuze is voor AMD's Fiji GPU. En als je denkt dat dat niet zo is geef dan maar een betere optie.

Wat iig geen optie is:
GDDR5, reden al gegeven, te hoog verbruik en misschien nog wel duurder ook.
Andere meer efficiënte architectuur met betere compressie, reden ook gegeven, te weinig tijd, zoiets kost jaren.
Geen Fiji GPU uitbrengen, lijkt mij ook geen goede optie.
Jij nog iets anders?
Het gaat me erom of we HBM nodig hebben. Hieruit blijkt duidelijk van niet. wel
Wel idd, zie mijn uitgebreide vorige bericht wat volledig onderbouwd is.
Het is weinig overklokbaar (GDDR5 op de Nvidia kaarten haalt makkelijk een 15% overklok) en dan nog is de winst luttle FPS.
Zo toe maar 15% nog wel.

Afbeeldingslocatie: http://static.tweakers.net/ext/f/i2Vjuz8PSmmOA77DASp2v4yE/medium.png
100% OC en dat is een softwarematige limitatie. Er zijn gewoon heel erg weinig OC resulataten bekend van Fiji doordat de software bij de launch nog geen ondersteuning er voor had. En bijna alle reviews worden geschreven tijdens de launch en bijna niemand doet ze nog eens een aantal maanden of weken later.
Je zegt dat HBM als voordeel een lager verbruik heeft. Dat is zeker mooi, maar heeft Nvidia dan een gigantische voorsprong op de core? Want Nvidia's kaarten zijn allemaal nog GDDR5, en verbruiken minder dan hun AMD counterpart.
Iedereen weet toch dat Maxwell een erg energie efficiënte GPU architectuur is voor gaming? Het is mooi wat jaren andersom geweest en Maxwell is de eerste generatie sinds jaren waarbij nVidia duidelijk een energie efficiëntere architectuur heeft.



Info over GDDR5X:

Room For Innovation On GDDR5: Higher Density, Faster Data Rates Coming With 'GDDR5X'

With the adoption of 4K monitors on the rise, and the release of consumer-grade virtual reality just around the corner, the need for larger amounts of faster memory has never been so high. Graphics cards have been released with ever-increasing frame buffers year over year to accommodate high resolutions. Graphics cards today come equipped with as much as 8 GB, and in some cases even 12 GB of memory. Until now, 4 Gb modules were the highest density available, forcing manufacturers to work with limited frame buffers, or build large PCBs to house all the memory modules.

With today's announcement, Micron has released memory chips with 8 Gb density, effectively doubling the maximum memory capacity of upcoming graphics cards and other products that use GDDR5 memory, such as game consoles.

On the other hand, it is now also possible to reduce the size of board needed, while maintaining the same amount of graphics memory, making it possible to design cards that take up a smaller footprint.

In addition to launching higher density GDDR5 modules, Micron also hinted at what's to come in 2016. Currently, 7 Gbps GDDR5 is what we see on many graphics cards offered today. Micron said that 8 Gbps modules are currently in production, but it sees this as the absolute peak for GDDR5 in its current form. The company said it observed that command address protocoling and array speed were the two limiting factors, while the interface had plenty of additional headroom.

Afbeeldingslocatie: http://media.bestofmicro.com/3/8/523700/gallery/gddr5x_w_600.png

In order to surpass the 8 Gbps barrier of GDDR5, without completely building a new memory technology from the ground up, Micron doubled the pre-fetch of GDDR5 from eight data words for each memory access, to 16 data words per access. Doing this resulted in 10 to 12 Gbps on the first generation, and the company expects to be able to surpass 14 Gbps, and perhaps reach 16 Gbps and beyond as the technology is refined.

Micron will make a formal announcement about this new memory technology some time in 2016, but what we know so far is that the company is calling it "GDDR5X," and it will be significantly faster than current offerings. The company wanted to make adoption as simple as possible, so it retained as much of the GDDR5 commands and protocols as possible. Additionally, Micron is not keeping this as a proprietary option, and has instead approached JEDEC to make GDDR5X a widely available standard.

8 Gb GDDR5 modules are available now for hardware manufacturers. Micron expects availability of products using GDDR5X to start hitting the market in the second half of 2016.

http://www.tomshardware.c...-gddr5-modules,29974.html

[ Voor 25% gewijzigd door Verwijderd op 14-10-2015 00:27 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
nVidia heeft zijn compressie beter op orde.

Afbeeldingslocatie: http://techreport.com/r.x/radeon-r9-fury-x/b3d-bandwidth.gif

Daar valt voor AMD met de nieuwe generatie nog aan te werken, maar zelfs bij een verbetering lijkt me HBM, zeker voor high-end kaarten, onmisbaar. HBM zal denk ik zelfs voor de volgende generatie mid-range kaarten lonen.

Om met GDDR5X en bijbehorende bus een zelfde bandbreedte te verkrijgen doet een dergelijke kaart de das om. Voor high-end is het niet interessant omdat je de performance gewoon niet haalt die. Voor mid-range is het te complex, duur en verbruikt het te veel. Of denkt er iemand dat nVidia bij de volgende generatie voor mid-range kaarten (gebaseerd op de GP104) een 512 bits geheugenbus krijgt?

Ik denk dat de Fury kaarten qua performance in de volgende generatie in de mid-range performance klassen gaan vallen. Een GPU met om en nabij 4096 SPs, op 14/16nm, zal de mid-range gaan invullen. Hiervoor is HBM t.o.v. GDDR5X m.b.t. performance dus vrijwel zeker lonend.

Het verhaal van GDDR5X bij nVidia zie ik dan ook als een slecht teken voor de implementatie van HBM bij nVidia. Slechte yields? Te kort aan capaciteit? Te doer?

Vergeet niet dat het hierbij niet alleen de afweging HBM of GDDR5X is voor nVidia. Er wordt immers gesproken over een hybride oplossing. Dus één chip die met beide overweg kan afhankelijk van de PCB. Ergo je hebt dus ook twee geheugencontrollers aan boord, met alle nadelen en voordelen van dien.

Dit hybride idee lijkt me voor high-end kaarten van de volgende generatie sowieso een no-go.

Verwijderd

HMB 2.0 zal wel te duur zijn en vandaar niet op low en mid end kaarten komt. Er gingen geruchten dat Nvidia er ook extra voor zou moeten betalen maar weet zo niet meer aan wie en AMD gebruikt ook al geen HMB op mid end videokaarten tot nu toe.

Sta je niet dood op dx12 en AMD want Nvidia maakt er ook goed gebruik van en heeft veel van de game ontwikkelaars achter zich en dat ook mede omdat Nvidia ook bezig is om bepaalde dingen uit dx 12 aan te sporen naar de ontwikkelaars toe. Het maakt dus niet zo veel uit welk merk je gebruik voor dx 12 games in de toekomst. Bijna alle games op de consoles hebben ok iets van gameworks en cpu physx.

Veder heeft Nvidia al windows drivers voor Vulkan dus die lopen wat dat betreft ook niet achter de feiten aan en dat ook mede omdat niet alles om Ace's draait het is maar een klein deel wat wel belangrijk is maar niet zo belangrijk dat AMD daar door heer en meester word in 2016. Dan mogen ze eerst wel een groot markt aandeel terug pakken want zonder dat gaan ontwikkelaars niet 80% van de pc gamers links laten liggen.


Nog wat leuk leesvoer

[Exclusive] Asynchronous Compute Investigated On Nvidia And AMD in Fable Legends DX12 Benchmark, Not Working on Maxwell

Read more: http://wccftech.com/async...-benchmark/#ixzz3owUgQfNq


http://www.tweaktown.com/...est-new-driver/index.html

Afbeeldingslocatie: http://imagescdn.tweaktown.com/news/4/8/48021_06_nvidia-beats-amd-ashes-singularity-dx12-test-new-driver.jpg

Maar goed ben het er niet mee eens dat Nvidia wint want het gaat niet eens om een volledige fps en op 4k is de TI ook langzamer vermoed ik dus het woord winnen komt hier niet bij kijken voor beide niet.

[ Voor 108% gewijzigd door Verwijderd op 18-10-2015 20:09 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Verwijderd schreef op vrijdag 06 november 2015 @ 13:40:
Trouwens HBAO+ en TXAA werk helemaal niet slechter op AMD.
Het enige wat slecht werkt is die tessellation en na mijn idee is dat echt het enige uit gameworks wat slecht op AMD draait. De rest is altijd maar dom zeuren over Gameworks
Afbeeldingslocatie: http://cdn.overclock.net/c/cf/cf6b236e_add_more_tesselation.jpeg
Stom plaatje gevonden wat dit mooi verwoord :+. Ik denk dat zelfs ik nog beter in paint iets kan tekenen :D.

@tomcatha en Spliffire
Het is wellicht persoonlijke voorkeur maar ik vind TXAA er niet uitzien, je kan beter SMAA pakken waar je minder performance kwijtraakt en wat er beter uitziet.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Zag dat er op de FP een discussie was betreft de aangeraden specificaties voor Far Cry Primal. Ik heb dus volgende review bekeken.
https://www.techpowerup.com/reviews/ASUS/R9_380X_Strix/

Wat me daar vooral in opvalt is het verschil tussen de GTX770, 280x en de GTX780.

Waar je ziet dat de Maxwell kaarten prima mee kunnen komen met hun AMD tegenhangers, daar zie je dat de Kepler kaarten het soms al verliezen op 1600x900; kom op dat is de resolutie waar AMD het vaak verliest doordat ze cpu limited zijn. Ik snap dat Nvidia de focus heeft op Maxwell, maar het verschil mag toch niet zo groot zijn.

Om even te cherry picken.
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/cod_aw_1600_900.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/cod_aw_2560_1440.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/farcry4_1600_900.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/farcry4_2560_1440.png
Niet mega representatief want het draait gewoon slecht, de verschillen in procent zijn nog wel aanwezig:
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/acu_1600_900.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/acu_2560_1440.png
Tjah...
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_1600_900.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_2560_1440.png

Twee van de boven genoemde spellen zijn Nvidia titels (Farcry 4, Assasins Creed) en bevatten GameWorks, GTA5 bevat dacht ik zowel GameWorks en AMD specifieke dingen.
In de rest van de spellen is het eigenlijk zoals vanouds, de GTX770 wint het op 900p en 1080p, de 280x wint het op 1440p en hoger.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
madmaxnl schreef op vrijdag 15 januari 2016 @ 22:41:
Dat kan wel zo zijn, maar de vraag daarbij is wat AMD doet. Als AMD voor de tegenhanger van de GP204 HBM inzet dan kan nVidia haast niet achterblijven.

Probleem van de eerste generatie HBM 1.0 en dus Fury X was voornamelijk de limiet van 4GB. Nu lijkt dat niet altijd een limiet te vormen, maar zeker in CF en hogere resoluties.
Korte toevoeging hieraan, AMD lijkt ook efficienter met geheugen om te gaan. AMD vermelde een tijd terug dat er eigenlijk weinig werd gedaan aan geheugen gebruik optimalisaties, schijnbaar zijn ze daar wat achteraan gegaan.
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_1600_900.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_2560_1440.png

AMD kaarten lijken pas op 4k uit geheugen te lopen, zoals je ziet verliezen de 2gb kaarten van AMD procentueel gezien daar meer dan die van Nvidia.
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_3840_2160.png
https://www.techpowerup.c...SUS/R9_380X_Strix/13.html

Nvidia daarentegen lijkt efficienter om te gaan met bandwith of hebben een betere vorm van compressie.

GTAV is natuurlijk op max settings en dus niet echt representatief, maar het is wel interessant om te zien hoe beide fabrikanten met geheugen omgaan.

Om wat aan de vorige discussie toe te voegen, er is best wel Nvidia nieuws. Maar als de "groene" mensen nooit slides en ander nieuws posten dan is er dus ook geen leuke discussie :+.
Natuurlijk wordt er iets opgehemelt in het AMD topic (hence the name AMD topic), maar er is genoeg discussie over nieuwe technieken en wat er binnenkort weer uit gaat komen. Dingen zoals meer support voor HDR, HDMI Freesync, de nieuwe architectuur Polaris etc... Op andere fora zie ik genoeg Nvidia discussies.....

offtopic:
Deze plaatjes zullen natuurlijk als een aanval op Nvidia op worden gevat, geplaatst door een gemene AMD fanboy :+.
Een discussie over de beide architecture kan ik hier helaas niet mee uitlokken...

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Yes onrealistisch en daarmee irrelevant scenario. In regel zit er zoveel vram op de kaart als onder 99% van de omstandigheden zinnig is. Natuurlijk zijn er uitzonderingen, bijvoorbeeld de low-end kaarten met dubbel ram. Vroeger had je die zelfs met trager SD/DDR ram. De keren dat de kopers beter af waren met de kaarten met extra ram en "I told you so" konden zeggen is over de laatste 15 jaar erg beperkt. Meestal was de kaart dan alweer te traag en zaten we dan alweer met een fps of 30.

Geheugenbandbreedte discussie is voor een hele berg games ook niet relevant. Zie de benchmarks van een GTX 660 Ti en de GTX 670 (dezelfde chip maar minder bandbreedte). Waar het uiteindelijk om draait in de performance. Gelukkig hebben ze bij Techpowerup een duidelijke performance summary grafiek.

Het hele 4K voor gaming is voorlopig nog redelijk onzinnig. We zitten nog lang niet bij fotorealisme. Dus in plaats van al die rekenkracht weggooien aan scherpte kunnen we beter nog betere shaders, lightning, meshes, enz gebruiken.

Stel je voor dat we die fout een paar jaar eerder hadden gemaakt. Dan hadden we nu dit gehad op speelbare framerates :P :
Afbeeldingslocatie: http://dl.pcgamer.com/LPC/pixelboost/ut2004/unreal2k4-08.png
http://www.pcgamer.com/pi...al-tournament-2004-at-4k/

Persoonlijk heb ik dan liever Battlefield 3/4 op 120 fps :).

[ Voor 4% gewijzigd door sdk1985 op 16-01-2016 15:48 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

NVIDIA Readies GeForce GTX 950 SE Graphics Card

NVIDIA is planning to shake up its sub-$150 graphics card lineup with a new SKU carved out of the current $140 GeForce GTX 950. The company is planning to retire the GTX 750 Ti, and is looking for a true replacement to the GTX 750 (non-Ti). The GTX 750 duo are based on the slightly older first-gen "Maxwell" architecture. The new GeForce GTX 950 SE, or GTX 950 LE, as it's being called; will be a further crippled GTX 950, rather than its better-endowed sibling (currently being served by the GTX 960).

The GeForce GTX 950 SE will feature one less streaming multiprocessor Maxwell (SMM) than even the current GTX 950, 5 out of 8 physically present on the GM206 silicon. This works out to a CUDA core count of 640. The TMU count is proportionately lower at 40, ROP count at 32, and memory bus width at 128-bit; holding 2 GB of GDDR5 memory. With a typical board power expected to be around 70W, cards by various AIC partners will either make do with single 6-pin PCIe power inputs, or completely lack them. The GPU and memory clock speeds are expected to be slightly lower than those of the GTX 950, too. NVIDIA could launch this SKU some time in March.


Afbeeldingslocatie: http://www.techpowerup.com/img/16-02-17/62a.jpg

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Dus 2x de SP GFLOPS van de GTX980Ti en 1.5x die van de Fury X (hoewel dat niet goed te vergelijken valt). Wel een wereld van verschil met de GTX980Ti wat betreft dpFlops, waar de GTX980Ti een magere 176 DP GFLOPS heeft (en 5632 SP GFLOPS).
Dit is duidelijk een compute kaart die een stuk meer stroom gaat gebruiken doordat hij 1/3 DP GFLOPS heeft. Denk ook niet dat deze kaart voor normale consumenten is bedoelt maar eerder voor rekencentra. Lijkt me niet dat Nvidia ineens weer het roer gaat omgooien van zuinig naar GPGPU computing rekenmonsters.

Afbeeldingslocatie: http://www.3dcenter.org/dateien/abbildungen/nVidia-GP100-Specifications.png

Wat grappig aan dat plaatje is is dat een oude HD7970 al 1000 DP GFLOPS haalt omdat deze nog een 1/4 verhouding had. Zet het wel wat in perspectief.

Dit is ook een van de redenen dat Kepler en Maxwell zuinig zijn, geen DP GFLOPS.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Quad SLI werkt toch al een tijd niet meer correct. SLI werkt goed met twee kaarten maar zelfs met drie kaarten is het nut al zoek qua scaling:

Afbeeldingslocatie: http://www.pcper.com/files/imagecache/article_max_width/review/2014-10-09/bf4.png

Afbeeldingslocatie: http://www.pcper.com/files/imagecache/article_max_width/review/2014-10-09/bioshock.png

http://www.pcper.com/revi...and-4-Way-SLI-Performance

Enkel Crysis 3 schaalde behoorlijk, maar met een paar games die support hebben valt het idee ook maar in het water.

Aan bandbreedte zal het niet liggen, maar ik vermoed dat SLI te grote beperkingen heeft. Niet dat het erg is, als er maar enkele procenten mensen aan SLI doen, dan ben ik benieuwd naar de hoeveelheid 3-way en 4-way SLI, áls het zou werken.

NVLink zou hier misschien wat aan kunnen veranderen maar dat belooft vooral meer bandbreedte, niet nieuwe techniek, waar SLI volgens mij toch zijn bottleneck heeft.

[ Voor 48% gewijzigd door Phuncz op 22-02-2016 21:59 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58

Early OpenGL vs. Vulkan Linux Benchmarks With Talos Principle

To no surprise at all, the Vulkan performance is currently noticeably lower than the OpenGL renderer for this Croteam game on Linux. This is explained in more detail in my original Vulkan 1.0 article (see the Vulkan Gaming & Launch Title section) while under Windows the Vulkan renderer is reported as being a bit faster than the OpenGL renderer, considering the Windows driver differences. I'm not surprised by Vulkan being clear across the board slower at this stage and at least Croteam is committed to improving the performance and ensuring good Vulkan support for future titles.
Omdat Phoronix geen plaatjes heeft Vulkan is op Nvidia gpu's zo'n 10-30% trager dan OpenGL afhankelijk van de kaart.
Afbeeldingslocatie: http://openbenchmarking.org/embed.php?i=1602191-GA-TALOSP12801&sha=513a762&p=2

offtopic:
Wat is het dood in dit topic :X.

[ Voor 4% gewijzigd door Sp3ci3s8472 op 02-03-2016 21:18 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Komen de Titan en Ti variante überhaupt nog dit jaar uit? Ben benieuwd of ze eindelijk de 20 TFlops gaan halen :+

Afbeeldingslocatie: https://static.tweakers.net/ext/f/O9nZnS5tR9RqryOinjSn6tnK/full.png?nohitcount=1

[ Voor 58% gewijzigd door madmaxnl op 11-03-2016 18:16 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Werelds schreef op vrijdag 11 maart 2016 @ 23:33:
Thunderbolt zit niet in Intel's CPU's. Het is dan wel een "Intel standaard"; maar het is een standaard die op twee verdere standaarden voort borduurt: Thunderbolt is in feite niets meer dan PCI-e en DP door een kabeltje. Er zijn ook gewoon AM-moederborden met Thunderbolt hoor ;)


[...]

Ik geloof helemaal niet dat ze de CPU tak in de voet schieten. Ik betwijfel of de CPU tak ooit een nieuwe standaard zou ontwikkelen (het gaat niet om de connector, die kan net zo makkelijk weer DP worden in plaats van USB-C ;)). Dat krijgt niemand meer voor elkaar. In plaats daarvan verwacht ik dat ze dat gewoon op HSA gaan gooien.
De gedachtegang was niet zo heel complex/vergezocht wat mij betreft. AMD komt nu met XConnect op basis van Thunderbolt 3. Echter AMD zelf zit niet in de thunderbolt groep. Het is dus niet heel waarschijnlijk dat we bij AMD thunderbolt support op chipset niveau gaan zien. Ervan uitgaande dat Zen een succes wordt en we dus weer AMD laptops gaan zien dan is het onwaarschijnlijk dat daar een thunderbolt poort op komt. Immers een add-in kaart of iets dergelijks is duur (Asus heeft het weleens gedaan op een desktop bord). AMD zit de komende tijd nog wel vast in het low-budget segment. Niet echt een plek waar je een (Intel) chipoplossing van tientallen dollars moet verwachten.

Dat houdt dan vervolgens in dat kopers van een externe AMD Radeon kaart deze niet kunnen combineren met een laptop met een AMD cpu. Dan verlies je dus potentiele klanten bij de cpu afdeling.
Verwijderd schreef op maandag 07 maart 2016 @ 17:06:
Daar is niks overdreven aan, tussen de GTX 750 Ti op 18 februari 2014 en GTX 980 Ti op 1 juni 2015 zit bijna anderhalf jaar en het verschil tussen de eerste Maxwell 2 kaart de GTX 970 op 19 september 2014 en de laatste de GTX 980 Ti op 1 juni 2015 zit ook driekwart jaar.

Een videokaart/GPU ontwerpen is niet iets simpels zoals het vouwen van een papiertje, zoiets kost nu éénmaal heel veel tijd, geld en mensen. Als je dan alles tegelijkertijd wil doen heb je of veel meer mensen en geld nodig of moet je gewoon wachten met lanceren van de eerste kaart tot de laatste klaar is.

Beide ideeen zijn gewoon dom, de eerste kost je gewoon heel veel extra geld en mensen en de tweede zorgt er voor dat gewoon niks verdient doordat je concurrent wel slim genoeg is om het nieuwe product direct te lanceren.
Tja wat is dom, ik vindt vooral je voorbeeld behoorlijk dom niet zo handig gekozen. Immers los van dat de 750 een soort proefballon was, zitten de 750 en de 980 niet in dezelfde serie (7xx en 9xx) en beschikken ze ook niet over dezelfde architectuur (first en second generation). Verder is het genoemde aantal van 6 kaarten tegelijk lanceren is iets heel anders dan wachten alle 20+ kaarten klaar zijn, laat staan cross generation.

Het is ook hemaal niet zo ver gezocht. Immers als bedrijf moet je voor een launch überhaupt altijd stockpilen, zeker in deze globale tijden. Tenminste als je een paper launch wil voorkomen.

Sterker nog het is ook eigenlijk meestal de realiteit. Zie bijvoorbeeld de eerder aangehaalde 6xx serie:
Afbeeldingslocatie: http://tweakers.net/ext/f/ONdX9KKCUuSxCBACZRkTp2eg/full.png
Daar zie je 14 van de 22 kaarten binnen 2 maanden lanceren (63%). Binnen de 5 maanden zit je op 17 (72%). Intel blijft natuurlijk de beste van de klas.

Zijn Intel en Nvidia dan dom? Nou nee, er zijn heel veel voordelen te verzinnen. Denk aan logistiek, marketing, economies of scale, het verkorten van de duur dat je nog met je oude producten concureert, voorlichting richting groothandel en retail, enz, enz.

Met één ding had je wel een punt (nou ja, je zat er in de buurt), producten achter houden is inderdaad makkelijker te doen uit een luxe positie. Intel en Nvidia bezitten die luxe positie momenteel, zowel op marktaandeel als marge. Wat dat betreft blijf ik dus op een brede launch hopen en geen laffe proefballonnetjes.

[ Voor 7% gewijzigd door sdk1985 op 12-03-2016 02:47 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 01-04 09:36
sdk1985 schreef op zaterdag 12 maart 2016 @ 02:26:
[...]

De gedachtegang was niet zo heel complex/vergezocht wat mij betreft. AMD komt nu met XConnect op basis van Thunderbolt 3. Echter AMD zelf zit niet in de thunderbolt groep. Het is dus niet heel waarschijnlijk dat we bij AMD thunderbolt support op chipset niveau gaan zien. Ervan uitgaande dat Zen een succes wordt en we dus weer AMD laptops gaan zien dan is het onwaarschijnlijk dat daar een thunderbolt poort op komt. Immers een add-in kaart of iets dergelijks is duur (Asus heeft het weleens gedaan op een desktop bord). AMD zit de komende tijd nog wel vast in het low-budget segment. Niet echt een plek waar je een (Intel) chipoplossing van tientallen dollars moet verwachten.

Dat houdt dan vervolgens in dat kopers van een externe AMD Radeon kaart deze niet kunnen combineren met een laptop met een AMD cpu. Dan verlies je dus potentiele klanten bij de cpu afdeling.
Het is dan ook geen oplossing die in elke huis-tuin-en-keuken laptop komt. En in een gaming laptop maakt het een stuk minder uit of ze er een extra controller in stoppen. AMD weet ook dat ze in dat segment voorlopig nog geen deuk zullen maken qua CPU's, want zelfs als Zen helemaal bij komt duurt dat nog eeuwen voordat ze daar marktaandeel terug kunnen snoepen.

In de tussentijd hebben ze wel al een externe GPU oplossing die bouwt op bestaande technologie, waar men de benamingen al kent en die inmiddels meer gevonden worden in high-end laptops. En ja, dan moeten ze wellicht een relatief dure licentie af nemen als ze zelf in dat segment willen gaan knokken; maar of dat duurder is dan zelf een nieuwe standaard te ontwikkelen, marketen, terwijl je moet opboksen tegen de bestaande? ;)

Ik zie de logica echt wel :P
Daar zie je 14 van de 22 kaarten binnen 2 maanden lanceren (63%). Binnen de 5 maanden zit je op 17 (72%). Intel blijft natuurlijk de beste van de klas.
En van die 14 zijn er ook 10 Fermi rebrands; met de overgebleven 4 heb je het over slechts 2 chips, daar een 670, 680 en 690 allemaal GK104 zijn, al dan niet met uitgeschakelde clusters. En dan blijft over GK107 voor de GT 640.

Dat is geen brede launch gebaseerd op "kleine chips eerst". GK104 was een geforceerde launch die niet gepland was. Nogmaals, je moet met dit soort dingen niet naar de kaart nummers kijken. De chips is waar het om gaat.

Zelfde chart bij AMD:

Afbeeldingslocatie: http://f.cl.ly/items/0J2c3V1C2X022l1V150Q/a.png

Puntjes om op te letten:
- 7350, 7450, 7470, 7510, 7670 zijn slechts OEM-only rebrands
- De chips uit lagere bin komen meteen op dag 0 uit (7950), in tegenstelling tot Nvidia (670)
- 2 maanden na release zijn alle 3 de chips uit.

Dat is een brede launch. Op tijd van 2 maanden had AMD 7970 tot en met 7750 voorzien van GCN; dat zijn 3 aparte prijs klasses. Sterker nog, alle drie de chips waren op de markt zelfs nog voordat Nvidia's ene chip in een enkele GPU uit kwam. Nog eens twee maanden later voor de lagere bin en nog eens 3 maanden daarna om eens aan de "sweet spot" klasse te beginnen.

Nvidia heeft al jaren geen volledige lineup weten te produceren. Kepler was een gedwongen release omdat ze hun primaire chip niet klaar hadden en besloten die te laten vallen. Fermi was veel te laat en dusdanig problematisch dat ze hun lineup amper op de markt hadden tegen de tijd dat ze de refresh klaar hadden. En dat is waarom ze met de 500-serie de rest wat meer hadden verspreid en sommige chips relatief laat kwamen.

En dan heb je nog Maxwell, wat een pleister op de TSMC wonde is en die ze heel bewust gespreid uit hebben gebracht.

[ Voor 17% gewijzigd door Werelds op 14-03-2016 15:41 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Naamgeving en specificaties toekomstige Pascal-GPU's duiken mogelijk op

Afbeeldingslocatie: http://content.hwigroup.net/images/articles/NVIDIA-GeForce-X80-X80Ti-X80-TITAN.png

Is waarschijnlijk flauwekul, HBM 2.0 en GDDR5 geheugencontroller, toe maar. Dat wordt een grote chip.

Verwijderd

sdk1985 schreef op dinsdag 22 maart 2016 @ 02:32:
Echter dit jaar ben ik nu al twee keer een game tegengekomen die voor mij echt onspeelbaar is. De eerste was Black Ops III (framedrops naar 20 FPS). Verlagen van details hielp niet en op lager dan medium ziet de game er echt bizar slecht uit. Zojuist kwam ik tot dezelfde conclusie voor ARK: Survival of the Fittest. Op sommige plekken heb ik 9 FPS gezien (medium). Het valt mij op dat beide games er bar slecht uit zien op alles onder high terwijl de fps winst marginaal is. Er zijn games uit 2007 die er beter uit zien en beter draaien...

Verder valt op dat in ARK een GTX 960 circa 50% sneller is dan een GTX 760. Ook doen de topkaarten slechts 40 fps op high. Dat zaakje stinkt :P.
Het is geen geheim dat nVidia oudere kaarten redelijk verwaarloost qua optimalisaties daarnaast is het ook geen geheim dat nVidia grote problemen heeft met videokaarten van 2GB en minder in een aantal games. In een aantal games is de prestaties gewoon altijd slecht rond de 10 fps, de instellingen maken niet uit, zelfs op de laagste instellingen loopt het niet.

Eén van de voorbeelden:
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_1600_900.png
http://www.techpowerup.co...SUS/R9_380X_Strix/13.html

Zijn vast wel meer te vinden naast GTA V.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Phuncz schreef op dinsdag 22 maart 2016 @ 20:16:
[...]

Dat heeft weinig met optimalisatie te maken maar met de gewoonte van velen dat de hoogste settings altijd speelbaar zijn op de snelste Nvidia kaart van dat moment. Sommige engines en games hebben settings bedoeld voor multi-GPU oplossingen of bedoeld om door nieuwere GPU's pas aangesproken kunnen worden. In de meeste games kan je zonder waarneembaar verschil in kwaliteit een tandje terug, terwijl je framerate drastisch hoger ligt.
In algemene zin ben ik het met je stelling eens; het is niet erg als het bij launch niet direct op 60 fps op ultra draait.

In geval van ARK lijkt het me niet dat dit op gaat. Immers zelfs op epic (onspeelbaar) ziet de game er niet echt bijzonder uit. Meer een gevalletje slecht engine gebruik.

Dit is medium:
Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/original/2016/01/Ark_Survival_Evolved_Vergleich_02_Medium-pcgh.png

Dit is high (26 fps op een GTX 970):
Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/original/2016/01/Ark_Survival_Evolved_Vergleich_01_High-pcgh.png
Totaal niet indrukwekkend. De laatste Star Wars Battlefront ziet er echt onwijs veel beter uit met hogere framerates om maar iets te noemen.

Met Black Ops III was eigenlijk ook iets raars. Ik vermoed dat het te maken heeft met de hoeveelheid VRAM (1500+MB) in combinatie met de a-sync memory configuratie van mijn 660 Ti. Opvallend genoeg zien zowel Black Ops I en II er beter uit op high terwijl de framerates speelbaar blijven.

Sommige games zijn gewoon raar aan het doen momenteel :P . Natuurlijk kun je daar gewoon power tegen aangooien. Op optimalisaties hoeven we niet te wachten (denk aan Crysis). Daarom kijk ik ook uit naar de volgende generatie :).

[ Voor 14% gewijzigd door sdk1985 op 22-03-2016 21:32 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Mja en de eerste Far Cry (2004) had nog mooiere blaadjes eigenlijk :P

Afbeeldingslocatie: http://static.gamespot.com/uploads/original/115/1156321/2436438-farcry0004.jpg
(Zie varens.)

[ Voor 73% gewijzigd door sdk1985 op 22-03-2016 23:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Donderstraaltje schreef op vrijdag 25 maart 2016 @ 14:53:
[...]


Die boxen zijn niet altijd een vervanging of oplossing! En er zijn redenen om Windows te blijven gebruiken. Zo heeft mijn htpc bijvoorbeeld een blu-ray drive die ik niet wil inwisselen en een ingebouwde dual tv tuner. Voor dit alles kun je keuzes maken maar mijn afwegingen vallen altijd richting een Windows htpc. Voor mij is een android bak gewoon geen optie.
Zelf heb ik eigenlijk geen bluerays maar anders zou ik een bluerayspeler in mijn NAS gooien of een losse blueray speler achter de tv wegwerken :).
En er is wel meer gaming dan steam gaming... Van alle games die ik op steam heb zijn er maar een paar die ik op de tv wil spelen die ook allemaal op consoles te verkrijgen zijn. En laat dat nu net zijn wat ik wil gamen! Wii is tegenwoordig prima te doen, maar op dit moment ben ik meer geïnteresseerd in snes gaming enzo (gaat wel op de HD4000). De reden om te emuleren? Ik haat een tv kast vol met consoles en kastjes! Verder zijn er games die niet te krijgen zijn of ontzettend duur zijn.
Elke game die je hebt kun je als non-steam game toevoegen en vervolgens streamen :).

Verder draait juist die oude troep gaat toch prima op Android :P?
[YouTube: https://www.youtube.com/watch?feature=player_embedded&v=5ax5uegL9Xg]
Nog 2 dingetjes; upscaling gaat veel beter op een htpc met filters die je handmatig kan afstellen als je dat zo nodig wenst en deze kast is gewoon 19", iets dat de meeste android bakken ook niet zijn. Ook kwa uiterlijk past het helemaal in het plaatje.
Ik denk eerlijk gezegd niet dat je met een HTPC beter kan upscalen dan met de X-reality pro processor. Ik zou in ieder geval niet weten wat ik zou verbeteren aan mijn huidige beeld :P.
En het is ook een funfactor; ik moet kunnen sleutelen eraan. Puur het werkend krijgen exact zoals jij wilt dat het werkt is magic en tenzij je niet aan computers sleuteld of aan auto's of dergelijke is dat enorm lastig uit te leggen. Foto's van mijn bak zodat je het beter snapt/ziet;
http://i.imgur.com/ZUmDSqG.jpg
http://i.imgur.com/wMEfeSt.jpg

En ja daar past een gfx kaart nog bij :P
Ik sleutel aan mijn NAS:
Afbeeldingslocatie: http://tweakers.net/ext/f/EvP6bQWidbILU7y9D6JD8SbY/full.jpg
(Jah de SSD ligt op de bodem :D ). Maar dan vooral aan de software kant. Ik heb een duaboot Win7/Debian met de bekende software suite. Dus daar hoef je het niet voor te laten :).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Case_C
  • Registratie: Maart 2012
  • Laatst online: 11:39

Case_C

[Team Carrack]

De naam gaat dus met hoge waarschijnlijkheid toch GTX 1080 en GTX 1070 worden als we deze heatsink covers kunnen geloven. Wel een aardig agressief uitziend stuk aluminium :) , de looks van de kaarten gaan dus eindelijk na zoveel jaar een keer veranderen.
http://news.mydrivers.com/1/476/476079.htm
Afbeeldingslocatie: http://img1.mydrivers.com/img/20160330/60895a94634a40d7bdd7de9f920d1ad9.jpg

[ Voor 5% gewijzigd door Case_C op 30-03-2016 09:58 ]


  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 09:33
Verwijderd schreef op woensdag 30 maart 2016 @ 18:16:
[...]

Nee dan doe je precies hetzelfde, alleen dan bij XFX ipv AMD. Op die manier is er namelijk geen enkele fabrikant waarvan je een kaart kan kopen, aangezien elke wel luidruchtige kaarten heeft verkocht.

Het enige wat je kan doen is 8)7 omdat je zelf van te voren je niet hebt ingelezen over het product.
Ik lees mijzelf altijd goed in over het product. Hoofdreden in mijn geval voor deze 290x was de prijs. Die lag op het moment lager dan een 290. Neemt niet weg dat ik voortaan alles wat ik zie van Club3D (of Powercolor) met deze fans niet koop of kan aanraden.

Daarbij was dit de enige review voor handen.

Afbeeldingslocatie: http://www.kitguru.net/wp-content/uploads/2014/05/noise3.png

Maar goed, inderdaad altijd goed inlezen! En ik ben zeker niet ontevreden met mijn 290x. Ik game hoofdzakelijk met mijn koptelefoon op. En ik kan altijd nog maar eens kijken naar het fanprofiel.

[ Voor 5% gewijzigd door Zeara op 30-03-2016 18:41 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Verwijderd schreef op woensdag 06 april 2016 @ 12:08:
[...]

:?
Als je dit gaat doortrekken naar een GeForce is het juist erg slecht, hoe kom je erbij dat die er goed uitziet?

Is overigens niet zo vreemd Maxwell was duidelijk niet gericht op double precision, terwijl deze GP100 GPU daar duidelijk wel voor bedoeld is.

Maar als je kijkt naar cudacores en kloksnelheid dan komt die er heel beroerd vanaf. Enkele GTX 980 Ti's boosten nu al richting de 1500MHz vanuit de fabriek. Dan heb je dus alleen maar 27% meer aan cudacore's, terwijl het verbruik ook zo'n 20% omhoog gaat.

De performance/watt zou dus bedroevend zijn voor het nieuwe productieprocess en de prestatiewinst zou dat ook zijn mocht de performance per core ongeveer vergelijkbaar zijn.

Is dus duidelijk dat hier geen GeForce kaart van komt, anders zou het een grote grap worden naar alle waarschijnlijkheid.
Ik vergeleek echter niet met de consumenten kaarten maar met de, door tweakers toegevoegde, oude garde. Uit die tabel blijkt dat de GM200 948 Mhz en de GK 110 er 745 deed. Hoe hoger de frequentie, des te meer vermogen je trekt. Ergens zit de sweet spot. Mijn aanname is dan ook dat Nvidia heel goed zelf deze sweet spot kan bepalen en deze blijkbaar nu een stuk hoger ligt. Wat dus wat mij betreft goed nieuws is voor een eventuele consumenten versie. Immers daar is de sweet spot veel minder van belang dan in een datacenter/rekencluster.

Om bij de GTX980 te blijven:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8526/67792.png
22% meer vermogen voor een 15-20% toename in prestaties is het, zo lang je nog meer kunt uitbreiden, in een cluster niet waard. Op grote schaal zijn diminishing returns zijn niet handig voor de kosten aan koeling en vermogen.

Overigens zijn er nog wel meer positieve hints te vinden. Zo zijn er met een toename van 1.5% in grootte en 20% tdp meer dan 91% transistoren extra te vinden. Dat kan ik geen tegenvaller noemen. Uit diezelfde tabel blijkt de stap van Kepler naar Maxwell in ieder geval een stuk minder spectaculair; een 12% toename in een 9% grotere die. Logisch want het is beide 28nm.

Wat zat er eigenlijk voor de K40? Wie weet geeft dat nog een leuke vergelijking mbt de toename tijdens 40nm>28nm.

[ Voor 21% gewijzigd door sdk1985 op 06-04-2016 15:42 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 01-04 22:55

Racing_Reporter

Contentmaker

MetalSonic schreef op zaterdag 09 april 2016 @ 10:58:
[...]

Neuh goed nieuws, fijn dat bekend is wanneer er nieuwe producten komen
Gezien de reputatie van beide websites:

Afbeeldingslocatie: http://www.bulkrocksaltsuppliers.com/wp-content/uploads/2015/07/need-boat-load-frac-sand.png

PS: met mijn clicks ga ik ze niet verblijden. Met Maskman dus ;)

Als je dit leest, heb je teveel tijd.


Verwijderd

Afbeeldingslocatie: http://www.techpowerup.com/img/16-04-11/26a.jpg
Bron: https://www.chiphell.com/thread-1563086-1-1.html

Dit zou GP104 moeten zijn, bron is alleen verwijderd.

Die size zou vergelijkbaar moeten zijn met die van de GK104 chip van de GTX 680/770. Geheugen op de afbeelding is GDDR5 met een maximale snelheid van 2GHz oftewel 8GT/s.

[ Voor 32% gewijzigd door Verwijderd op 11-04-2016 12:52 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
DX12 preview van HardOCP.
http://www.hardocp.com/ar..._framerate/1#.Vw6jSkAmBgM

Interessant om te zien.

Wat me verder opvalt in de test bij de Nvidia kaart is dat ze weinig winst weten te boeken met extra cores in DX12, terwijl je wel extra winst ziet wanneer de clockspeed omhoog gaat. Trek je eigen conclussie...
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1460040024Wl2AHtuhmm_3_1.png

[ Voor 47% gewijzigd door Sp3ci3s8472 op 13-04-2016 22:02 ]


Verwijderd

Afbeeldingslocatie: http://static.tweakers.net/ext/f/nmKWcjsoTjksCyJldIV23NsD/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/WWzi3KAOyIECg1d3jDmbJ8J5/full.jpg

Foto's van Chiphell

256 bit geheugenbus met 8Gbps GDDR5, dat is dus maar 14% meer geheugenbandbreedte als de GTX 980.

[ Voor 11% gewijzigd door Verwijderd op 22-04-2016 19:01 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:08

XanderDrake

Build the future!

Ik vond dit overzicht:Gp104
Oftewel er zijn drie Pascals die verkocht worden vanaf juni. Ik ben heel benieuwd of dit uit gaat komen en wat de prijs zal zijn van de 1080 non-TI.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:25
En dat was ook aan het eind van de levensduur van 90nm. Niet aan het begin zoals Fermi of Kepler. Shrink binnen een jaar naar 324mm²
Al sinds de 8800 GTX? Een 9800 GTX presteert nagenoeg identiek aan een 8800 GTX. Qua prijs zat hij een stuk lager, maar het is weldegelijk een nieuwe generatie.
De GeForce 7-serie kaarten verdienen dan ook geen seconde aandacht... :p, maar 90nm heeft inderdaad niet zo heel lang meegedraaid, en de kaarten die ermee gemaakt zijn ook niet. Al valt dat nog te betwisten voor de 8800GTX. Zelf heb ik nog een 9800GTX gehad, maar ik speelde dan ook op 1680x1050. Op "echte resoluties" was de 8800GTX nog altijd de baas. Just the price... :+


Afbeeldingslocatie: https://tpucdn.com/reviews/Zotac/GeForce_9800_GTX/images/perfrel.gifAfbeeldingslocatie: https://tpucdn.com/reviews/Zotac/GeForce_9800_GTX/images/perfdollar.gif'

Even Wikipedia erbij genomen, wat werd die arme 8800GT (of eigenlijk G92) toch misbruikt. Eerst door z'n opgefokte broer (de 8800GTS) en broertje (de 8600GTS), dan als 9800GT (65nm), 9800GTX (65nm), 9600GSO (65nm), 9800GT (55nm), 9800GT Green Edition (55nm/75W), 9800GTX+ (55nm), GTS 150 (55nm), GTS 250 (65nm), GTS 250 Green Edition (65nm), GTS 240 (65nm), GTS 250 (55nm), GTS 250 Green Edition (55nm), GTS240 (55nm), GT 230 (v2, 55nm). :+

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
maratropa schreef op dinsdag 03 mei 2016 @ 17:31:
[...]


Nvidia zet z'n high end chips natuurlijk ook liever af op de pro markt dan op de consumenten markt, qua marge.. Weet je toevallig of er ergens omzet van nvidia gesplitst is in consumenten gpu's en pro gpu's? Ik ben benieuwd naar wat de verhouding nu is. Gezien de populariteit van gpu compute lijkt me dat nvidia's afzet op de pro/compute markt alleen maar toeneemt tov de consumentenmarkt?
Zo ver ik weet was 2012 het laatste jaar waarbij de pro markt apart werd vermeld. Dat was ook tevens het jaar van het financiële success genaamd Fermi, de GPU divisie begon toen ook flink knaken te verdienen (528 miljoen). In tegenstelling tot de twee jaren ervoor waarbij alleen de Pro markt iets opleverde. CPB heeft vooral veel geld gekost.

Afbeeldingslocatie: http://tweakers.net/ext/f/RgjjcyLyUZ1PtqkLaM2xy8Om/full.png

[ Voor 5% gewijzigd door sdk1985 op 03-05-2016 17:46 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Vaelin
  • Registratie: Oktober 2015
  • Laatst online: 09:48
Succes ermee :')

Afbeeldingslocatie: http://i.imgur.com/h7Rg7eO.png

  • Uberdude
  • Registratie: Mei 2011
  • Laatst online: 14-03 18:02
Afbeeldingslocatie: http://puu.sh/oIZvn/6fbc6cb491.png

Afbeeldingslocatie: http://puu.sh/oIZFG/97d57a4eb2.png

Afbeeldingslocatie: http://puu.sh/oIZHZ/83f313304d.png

[ Voor 54% gewijzigd door Uberdude op 07-05-2016 04:20 ]


  • Sir_Hendro
  • Registratie: Augustus 2006
  • Laatst online: 08:38
Nieuwe foto's:

Afbeeldingslocatie: http://hmdlive.com/nvidia/pascal_gtx_1080_001.jpg

Afbeeldingslocatie: http://hmdlive.com/nvidia/pascal_gtx_1080_002.jpg

Afbeeldingslocatie: http://hmdlive.com/nvidia/pascal_gtx_1080_003.jpg

Afbeeldingslocatie: http://hmdlive.com/nvidia/pascal_gtx_1080_004.jpg

Afbeeldingslocatie: http://hmdlive.com/nvidia/pascal_gtx_1080_005.jpg

Afbeeldingslocatie: http://hmdlive.com/nvidia/pascal_gtx_1080_006.jpg

Bron:
http://www.guru3d.com/new...orce-gtx-1080-photos.html

[ Voor 7% gewijzigd door Sir_Hendro op 07-05-2016 14:46 ]

GTA VI - All aboard the hype train!!


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 01-04 09:36
Beetje jammer hoe er meteen een hoop doem gelul over AMD is. Ik weet niet waar men dat op baseert, ik gok op "geruchten" van WCCF en/of VC?

GP104 zit in ieder geval iets onder de lijn der verwachting wat mij betreft (65% over GM204, beetje minnetjes vergeleken met Fermi -> Kepler). En een beetje teleurgesteld ben ik wel, vanuit technisch oogpunt, want het ziet er naar uit dat hij inderdaad toch behoorlijk "Maxwell" is (saai :(). Ziet er naar uit dat de SPs grofweg hetzelfde zijn als in Maxwell (25% meer op +-40% hogere clocks..komt wel overeen met de prestaties) dus niets bijzonders daar. Een hele veilige chip.

Wat me wel positief stemt is het stukje over wat ze voor VR doen; dat zou kunnen betekenen dat ze nu wél een hardware scheduler hebben. Nog even afwachten wat daar uit rolt. En ik ben blij te zien dat de kloksnelheden inderdaad zo veel hoger kunnen als ik had verwacht :)


Wat geruchten betreft: Polaris 10 zou 232mm² zijn (GP104 is ~285-290mm², uitgaande van 25m transistors per mm²). Ook zou P10 2816 SPs gaan krijgen zoals Hawaii. Als ik dan even 10% hogere dichtheid neem omdat het AMD is (25m * 1.1 = 27.5m) en dat op Hawaii toepas (6200m transistors / 27.5m) kom ik op 226mm² uit, dus dat zou grofweg kunnen kloppen voor een lompe die shrink.

Maar dat het ding vervolgens dan slechts even snel zou zijn als een 390X? Al haalt AMD slechts 1,5 GHz zijn die 2816 SPs al meer dan genoeg om ruim langs de 980 Ti te gaan, laat staan AMD's claims van "veel" betere IPC.

Wat ik denk?

Afbeeldingslocatie: http://content.hwigroup.net/images/articles/NVIDIA-GeForce-X80-X80Ti-X80-TITAN.png

:+

/cc ... XanderDrake geloof ik? Jij vroeg je toch af wat er klopt van geruchten? Dit dus, in de meeste gevallen. Helemaal niets :P

[ Voor 5% gewijzigd door Werelds op 07-05-2016 21:05 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Verwijderd schreef op zaterdag 07 mei 2016 @ 22:55:
[...]

nVidia zegt vergelijkbare performance als een GTX 980 in SLI en hup een GTX 1080 is in één keer twee maal zo snel als een GTX 980. En dan straks raar opkijken dat die heel veel langzamer blijkt te zijn.


[...]

Nee dat heeft AMD nooit gezegd.
De livestream zei beter dan een GTX 980 SLI en meer dan 2x de performance van een Titan X. Daarna volgde deze slide:

Afbeeldingslocatie: http://puu.sh/oIZvn/6fbc6cb491.png

Maar goed dat zijn TFLOPS en geen fps. Tot heden echter zeker geen reden om pessimistisch te zijn. Mooie cijfers en mooie prijzen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Astennu schreef op dinsdag 10 mei 2016 @ 11:01:

Ik bedoelde inderdaad Gbit/s. Het is de vraag hoe goed de geheugen controller met snel GDDR5X geheugen om kan gaan en of ze dan wel hoge clockspeeds alla 1750 - 2000 MHz kunnen halen zoals nu met GDDR5 ik verwacht van niet.
GDDR5X op 1750/2000MHz?

Op de GTX 1080 komt 1,25GHz 10Gb/s, 1,5GHz 12Gb/s is op dit moment al haalbaar en 1,75GHz 14Gb/s komt nog.

Afbeeldingslocatie: http://cdn.wccftech.com/wp-content/uploads/2015/10/GDDR5X-clock-rates-and-bandwidth.png
grote_oever schreef op dinsdag 10 mei 2016 @ 13:09:
[...]


Waarom zijn de foto's van de kaarten allemaal hetzelfde? Of hebben ze nog geen officele foto's van de kaarten?
Omdat ze allemaal hetzelfde zijn. Zijn reference kaarten, die nu dus een fancy naampje hebben "Founders Edition" en een stuk duurder zijn dus. :p
Jeroenneman schreef op dinsdag 10 mei 2016 @ 13:47:
[...]

Liggen er al samples bij review sites?
Ja reviews komen de 17 mei, dus als het goed is heeft elke reviewer die een kaart krijgt er nu wel één.
Remco2001 schreef op dinsdag 10 mei 2016 @ 21:06:
Is er ook een eis wat gesteld wordt aan minimale cpu-kracht i.c.m. de 2 nieuwe kaarten of is dat een heel rare vraag?
Verschilt altijd per game. Maar een moderne i7 Skylake of Haswell quadcore moet sowieso goed genoeg zijn voor zo goed als alle games.

[ Voor 12% gewijzigd door Verwijderd op 10-05-2016 23:48 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:15
Nature schreef op woensdag 11 mei 2016 @ 18:03:
Denk je alleen de winst van klok? Hoe hij met DX12 omgaat lijkt me ook belangrijk, daar zullen ook wel hoge winsten zijn te halen.Ook is het wel belangrijk hoe Nvidia met Maxwell om zal gaan straks, of ze hem niet gewoon laten vallen zoals met Kepler want dan zit je met je 2de hands GTX 980 TI voor weinig die niet meer wordt ondersteund, misschien ook door gebrek DX12 of door een andere nieuwe feature o.i.d.
Kepler laten vallen? Kijk, m'n glorieuze 670, sneller dan een 280X
Afbeeldingslocatie: http://gamegpu.com/images/stories/Test_GPU/MMO/Overwatch/Overwatch_1920.jpg

:+
ook langzamer dan een 950...... :(

Of dx12 pascal veel zal helpen betwijfel ik, cpu overhead wel, maar qua gpu? Als je aantal transistoren maal clock uitrekent zie je dat de 1080 2x de 980 is, alleen heeft hij maar 1.4x de memorybandbreedte. Dx12 haalt z'n voordeel uit het bezighouden van de gpu cores, maar bij pascal zal het misschien niet zo'n probleem zijn als die regelmatig uit hun neus staan te vreten omdat ze toch niet allemaal tegelijk door de memorybus passen.

Maar goed, blijft speculeren natuurlijk, over iets meer dan 2 weken weten we het.

Mechwarrior Online: Flapdrol


  • Case_C
  • Registratie: Maart 2012
  • Laatst online: 11:39

Case_C

[Team Carrack]

De kaarten van Zotac, dat lijkt toch de trend te gaan worden in aftermarket coolers. Een overdadige hoeveelheid RGB lighting, hoewel ik niet zeker weet of de kleuren bij deze ook onbeperkt zijn.

http://wccftech.com/zotac-geforce-gtx-1080-pgf-edition/
Afbeeldingslocatie: http://cdn.wccftech.com/wp-content/uploads/2016/05/ZOTAC-GeForce-GTX-1080-PGF-Edition-Graphics-Card-1-635x402.jpg

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 01-04 22:45
Omdat de nieuwe SLI brug een dubbele connector nodig heeft.

De middelste GPU op dit plaatje is een dedicated PhysX kaart.
Afbeeldingslocatie: http://cdn.mos.cms.futurecdn.net/zisuMPDXcCeZwmtVAijPPg-650-80.jpg

  • ArthurMorgan
  • Registratie: Januari 2001
  • Niet online
http://videocardz.com/598...-and-3dmark11-performance

Afbeeldingslocatie: http://cdn.videocardz.com/1/2016/05/NVIDIA-GeForce-GTX-1080-3DMark-Performance-V2.png

Dat ziet er behoorlijk indrukwekkend uit zeg.
Natte vingerwerk, maar er lijkt inderdaad best ruimte te liggen voor de 1070 op op of net boven de 980 ti uit te komen qua prestaties.

[ Voor 3% gewijzigd door ArthurMorgan op 13-05-2016 06:11 ]

I hear voices in my head, they counsel me, they understand.


  • ArthurMorgan
  • Registratie: Januari 2001
  • Niet online

I hear voices in my head, they counsel me, they understand.


  • Uberdude
  • Registratie: Mei 2011
  • Laatst online: 14-03 18:02
Afbeeldingslocatie: http://puu.sh/oRLnd/3355f0d9c5.png

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:25
Afbeeldingslocatie: https://blog.synology.com/wp-content/uploads/2015/07/image02.png

Zullen GPUs de CPUs gaan nalopen? Eerst clock-wars en later uitschalen over meerdere cores met lagere clocks (denk aan bv de Q6600 des tijds) om dan toch weer te eindigen met clockwars omdat de software zelden echt goed schaalt?

2.5GHz is natuurlijk wel echt remarkable voor de GPU wereld. Een beetje history erbij. Dit waren de behaalbare clocks voor "eindgebruikers" met een redelijk goede overclocker (en de 1080 op basis van de huidige geruchten):
GPUStock clock (geen boost)Overclock (met boost)
7800GTX430MHz480Mhz
8800GTX575MHz640Mhz
9800GTX675MHz800Mhz
GTX 280602MHz690Mhz
GTX 480700MHz825Mhz
GTX 580772MHz950Mhz
GTX 6801006MHz1250Mhz
GTX 780863MHz1250Mhz
GTX 9801126MHz1500Mhz
GTX 10801607MHz2400Mhz


Overclock resultaten zijn op basis van wat "Overclocking the XXXX"-threads na wat google searches. Graag geen discussie over de getallen m.b.t. jouw resultaten en high-end vs low-end discussies (zoals hieronder (al dan niet terecht), ik zag hem al aankomen :D), het is maar voor het idee :+.

[ Voor 7% gewijzigd door Paprika op 15-05-2016 10:46 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 24-03 01:55
Eindelijk zijn we van 28nm af :9~

Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfrel_3840_2160.png
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfrel_2560_1440.png

  • Astennu
  • Registratie: September 2001
  • Laatst online: 25-03 11:58
Dit was wel wat ik er van verwacht had. Techpowerup heeft ook even een OC gedaan. 2060 mhz met 2114 boost memory 1450 MHz. Totaal 12,8% sneller wel in de TDP limits (wat ik ook al verwacht had)

Mja 700 dollar..... hij is wel sneller maar ook wel erg duur. Pas als de normale versie uit komt wordt het een beetje interessant en dan nog is hij duur. Het wordt vooral interessant om te zien hoe de 1070 presteert ik gok rond het niveau van een 980 Ti. Alleen dan voor +- 400 dollar (in het begin richting de 500 dollar dus ook minder interessant)

Hopelijk komt AMD snel met Polaris en kunnen die zich meten met de 1070 zodat de prijzen wat schappelijker worden:

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfdollar_2560_1440.png

Prijs prestatie verhouding van de founder edition is niet best. Als de uiteindelijke kaarten onder die 600 dollar zitten wordt het wel acceptabel. De early adopter betaald deze keer een dubbele premium prijs. En het mooie is waarschijnlijk dat al die kaarten zo uitverkocht zijn omdat mensen het toch wel willen hebben dus nVidia weet dat ze dat bedrag kunnen vragen.

In ieder geval leuke prestatie winst tov de GTX980 met een verbruik wat niet veel hoger is.

[ Voor 29% gewijzigd door Astennu op 17-05-2016 15:39 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

NVIDIA GeForce GTX 1070 Specifications Revealed

NVIDIA's second graphics card based on its GP104 "Pascal" silicon, the more affordable GeForce GTX 1070, hits the shelves on June 10, 2016. At the May 7th event, the company was surprisingly quiet about its specifications, until now. It turns out that slower memory isn't the only thing setting the GTX 1070 apart from the GTX 1080. The company will also cut down the CUDA core count, a proportionate number of TMU count, and lower the GPU clock speeds.

NVIDIA set the MSRP for the GeForce GTX 1070 at US $379, $50 higher than the launch-price of the GTX 970, the most popular SKU based on the GM204 silicon. The company also plans to sell a premium reference-design card, dubbed the GeForce GTX 1070 Founders Edition, at $449, at a $70 premium. NVIDIA hopes to make the GTX 1070 the go-to card for Summer 2016 PC upgrades.

Afbeeldingslocatie: http://www.techpowerup.com/img/16-05-17/87a.jpg

The specifications follow.

GeForce GTX 1070
  • 16 nm "GP104" silicon, 7.2 billion transistors, "GP104-200-A1" ASIC
  • 1,920 CUDA cores, 15 out of 20 streaming multiprocessors enabled on the GP104 silicon
  • 120 TMUs, 64 ROPs
  • 256-bit GDDR5 memory, 8 GB standard memory amount
  • Max GPU Boost frequency 1600 MHz
  • 6.75 TFLOP/s single-precision floating point performance
  • 150W TDP, single 8-pin PCIe power connector
  • 3x DisplayPort 1.4, 1x HDMI 2.0b
  • 2-way SLI with SLI HB bridge support
http://www.techpowerup.co...0-specifications-revealed

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:25
Verwijderd schreef op dinsdag 17 mei 2016 @ 16:02:
US $379, $50 higher than the launch-price of the GTX 970
Dat is in ieder geval al beter. :)

Wat mij trouwens wel opvalt bij alle PCB plaatjes is dit:
Afbeeldingslocatie: http://i.imgur.com/yWuJVC6.png

Lijkt mij dat ze toch al lang wisten dat die 2e connector niet nodig zou gaan zijn gezien de specs?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 31-03 21:58
Niet bijster veel sneller dus, tussen de 3-10%, waar een GTX980Ti vaak nog met een eigen OC 9% hoger kan scoren. Mensen die nu een GTX980Ti met OC hebben zitten nog prima.

Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/arkhamknight_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/arkhamknight_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/gtav_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/gtav_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/bf4_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/bf4_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/crysis3_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/crysis3_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/acs_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/acsyndicate_3840_2160.png

Korte opmerking, ik heb spellen gepakt waar de GTX980Ti in beide resultaten +/- gelijk presteerd, dit omdat er spellen zijn die geen standaard benchmark hebben en de resultaten te veel afwijken tussen de reviews.

Verwijderd

Jeroenneman schreef op dinsdag 17 mei 2016 @ 16:11:
[...]


Niet zo gek toch? Developers klooien met DX12 ook maar wat aan, en eigenlijk zijn er maar een paar games waarin DX12 de moeite is:
Maar dat heeft helemaal niks met DX12 of Async Compute nodig, maar zegt alles over de bedrijven welke de games maken. Games met DX12 zijn meestal nu niet meer dan even DX12 erbij drukken, want dan kunnen we het verkopen als een DX12 game!!!11 Dat het dan vervolgens voor geen meter loopt vinden ze schijnbaar geen probleem.
Als Nvidia je dan aanbiedt om je te helpen met optimaliseren en zorgt dat je wel iets hebt wat enigzins werkt: graag denk ik.
En welke games met nVidia's Gameworks werken dan goed?

Nee doe mij maar gewoon een fatsoenlijke DX12 game welke van begin af aan met DX12 in het hoofd is gemaakt en waar ook werkelijk de game pas wordt gelanceerd op het moment dat die af is. In plaats van die halve gare ports die worden gelanceerd terwijl ze nog in alpha of bèta stadium zijn.
lightdestroyer schreef op dinsdag 17 mei 2016 @ 16:22:
[...]

Het zou niet de eerste keer zijn dat Tweakers geen nieuwe review sample krijgt van nVidia ...
Dat ligt dan echt 100% aan hun zelf.
TomasH schreef op dinsdag 17 mei 2016 @ 16:22:
[...]

Onze 1080 klokte simpelweg hoger dan bij TPU. In-game heb ik 'n niet onder de 1.800 MHz gezien. Wellicht was het op de testlocatie van TPU wat koeler dan in NL de afgelopen dagen :)
Je bedoeld warmer? W1zzard, de reviewer/eigenaar van TPU is iig een Duitser.

Dit doet die van TPU:
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_analysis.jpg
Jeroenneman schreef op dinsdag 17 mei 2016 @ 16:26:
[...]


Niet gek, aangezien de reviewkwaliteit steeds verder achteruitging.
Ja idd te triest voor woorden.
Zeara schreef op dinsdag 17 mei 2016 @ 16:27:
Om eerlijk te zijn is Tweakers ook wel de laatste plaats waar ik kijk voor GPU reviews...
Tegenwoordig wel, 5 of 6 jaar geleden, met Marc Rademakers als review was er weinig mis mee. Niet de beste reviews, maar zeker niet slecht en beter als HWI.
lightdestroyer schreef op dinsdag 17 mei 2016 @ 16:35:
[...]

Je kan dit dan nog eens combineren met sommige nda leaks op dit forum en je hebt een mogelijke verklaring inderdaad ..
Welke NDA leaks? De enige die ik mij kan herinneren was van lltech4 en dat is toch al jaren geleden en was ook nog ATi/AMD spul.
Fermi gaat er sowieso uit, Kepler ben ik aan het twijfelen, denk niet dat je nog veel Kepler kaarten kan kopen atm. Feedback is altijd welkom voor de nieuwe TS..
Gewoon alleen de nieuwste kaarten, voor oudere kaarten is een link naar een vorig topic prima.
/me Lightdestroyer is nog steeds geen grafisch wonderkind .. paint all the way
Wat is er mis met paint, ik doe ook alles in paint. :p
GTX1080 zal sowieso vallen onder (high) mid-end btw, sorry nVidia maar enkel al de grote van de chip laat duidelijk zien dat dit geen high end chip is.
Ding heet ook niet voor niks GP104
Btw ik heb het nog niemand zien opmerken, maar blijkbaar zijn de yields deze keer enorm hoog, de GTX1080 heeft gewoon alle shaders die er fysiek zijn geactiveerd. Ik heb al andere launches geweten van high-end kaarten :+
Welke Gx104 chip had dan niet alles ingeschakeld?

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfrel_2560_1440.png
Dus ik zat er niet ver naast met Pascal. Eerst de prijs
sdk1985 schreef op vrijdag 22 april 2016 @ 14:33:
De GTX 980 zat nog op een MSRP van $549, daarvoor zaten we een tijd op $499. Gezien de inflatie lijkt me dat niet bepaald geloofwaardig. Een prijs van $599 is wel een beetje de max voor een nieuw 8 model. Als er al een prijs van $870 dollar rond zweeft dan betreft dat eerder een Ti model zoals de 980 Ti (nu $649),
Nu de performance:
sdk1985 schreef op zondag 01 mei 2016 @ 16:48:
[...]

Op basis van historie is +32% de meest waarschijnlijke uitkomst. Eventuele performance overschotten worden dan omgetoverd in marge.
nieuws: Nvidia GeForce GTX 1080 is ongeveer 30 procent sneller dan 'stock' 98...

Wie gaat zich melden, ik ben er behoorlijk op afgekraakt ;) ?

Overigens had ik zelf ook liever +100% gezien maar ja, het zijn niet de techneuten die de bedrijfsvoering doen. In ieder geval niet bij Nvidia en Intel.

[ Voor 193% gewijzigd door sdk1985 op 17-05-2016 23:41 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:15
Nog even gezocht naar die fast sync. Het is triple buffering. 8)7

Op zich leuk dat die triple buffering setting werkt, maar serieus, noem het gewoon triple buffering.


edit: blijkbaar heeft fast sync een kleine twist, de gpu kan frames ook overslaan als de cpu al een recentere frame heeft voorbereid.

kwam deze ook tegen.
Afbeeldingslocatie: http://abload.de/img/ashes_10800eu40.png

[ Voor 42% gewijzigd door haarbal op 17-05-2016 23:58 ]

Mechwarrior Online: Flapdrol


  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Nvidia publiceert specificaties van GTX 1070 met 1920 cudacores

Volgens de slide van nvidia zelf is de 1070 zo'n 1,6x beter dan een 970 in The Witcher 3. Volgens TPU haalt een 970 21,7 fps @ 4k:

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/witcher3_3840_2160.png

21,7 maal 1,6 is 34,7 fps, wat dus zou betekenen dat een GTX1070 sneller is dan een 980ti :Y)

[ Voor 47% gewijzigd door Tyranium op 18-05-2016 16:25 ]


  • The Source
  • Registratie: April 2000
  • Laatst online: 09:45
Sp3ci3s8472 schreef op donderdag 19 mei 2016 @ 01:01:
Geen idee of dit al gepost was.
GeForce GTX 1080: Most Bizarre Secret Paper Launch Ever

Komt volgens mij niet vaak voor dat Kyle Bennett van HarcOCP niet direct positief is over een launch van Nvidia. In ieder geval, interessant om even door te lezen :+ .
Toen ik onze OC results op volume GPUs zag wist ik dat het niet juist zat met die live demo. Anyway de yields kunnen en zullen ongetwijfeld nog verbeteren.
hubhib schreef op woensdag 18 mei 2016 @ 17:41:
[...]

issch
Waar ik wel benieuwd naar ben is wat het nou kost om zo'n kaart te maken voor MSI, wat zijn de marges erop?
Ik ga je onze marges niet vertellen. Kan je wel vertellen dat de GPU en memory (beiden als kit verkocht door NV) het grootste gedeelte van de product (dus niet marketing, logistiek) kost prijs voor zijn rekening nemen. Het grootste gedeelte van de kost die wij toevoegen is de koeler, en aangezien deze per product verschilt (gaming, reference, lightning) verschilt de kost hier dus ook van. Zodra wij onze producten lanceren kun je bij onze gaming versie wel zien dat elk onderdeel van de koeler geld kost. Hoe groter de PCB hoe hoger de kost, hiervbij moet je denken aan ongeveer een paar dollar, echter is het aantal layers ook van belang. Dan heb je nog het PWM / VRM. Hoe hoger de kwaliteit componenten en hoe meer phases des te hoger de prijs. En connectors en R&D cost Dit alles bepaalt zowat de kostprijs van de kaart.

Dan komt daar nog de packing bom (bill of materials) bij, dus de verpakking, wat kabeltjes, stickers, een manual, een driver cd, soms nog een (digitale) gamecode. Voor een entry level product wordt er simpel karton gebruikt en voor een high-end product zoals Lightning krijg je een erg mooie gift packing.

De eerste shipment gaat meestal via air, aangezien je daarmee snel de voorraad in de markt krijgt maar de transport kosten zijn natuurlijk wel hoger. Tegelijjkertijd worden er ook sea shipments geplanned, die kosten ongeveer 1/5 van air shipments maar duren ook 4 tot 5 keer zo lang.

Dan zijn er uiteraard nog vaste verkoop en marketing kosten (personeel, creditlines) en dan heb je nog de marketing en service (RMA), deze laatste zijn meestal op % basis. Dus er wordt x% voor marketing uitgetrokken en er wordt x% voor RMA kosten (deze zijn niet direct naar de kost prijs toe te rekenen aangezien RMA meestal jaren laten plaats gaat vinden).

Dan pakken wij onze marge en wordt het aan onze distributeur verkocht in USD. Die neemt het exchange rate voor zijn rekening (wat hij dus weer op zijn aankoop prijs zet) en die pakt ook marge (waar dus ook verkoop/service kosten in zitten) voordat hij het aan resellers doorverkoopt in euros. Bij d e reseller hetzelfde verhaal, die heeft zijn kosten + marge maar hij voegt er ook de BTW (21% in NL) aan toe. En dat is het eindelijke bedrag dat jij betaald. :)

Nu starten wij uiteraard niet zo maar in het wild om een product te maken, alles wordt vooraf naar de MSRP toegeplanned. Als wij een product van 200 euro end-user prijs (incl. BTW) willen maken dan zijn de product en marketing (%) daaraan gerelateerd. Als wij een product van 600 euro maken dito. Maar meestal maken we meerdere producten in een bepaald prijs range. Reference, Exhaust fan, Armor, Gaming, Lighning, etc. Elk heeft zijn eigen premium en de daaraan gerelateerde kostprijs.

Geen antwoord op je vraag maar ik hoop dat dit wel een beetje duidelijk is

BTW;

Afbeeldingslocatie: http://cdn.videocardz.com/1/2016/05/NVIDIA-GEForce-GTX-1070-Performance.png

Verwijderd

Inno3D Unveils the iChill X4 Ultra Cooling Solution for Next-gen Graphics Cards

InnoVISION Multimedia Limited, a leading manufacturer of high-end hardware components and computer utilities, introduces its new iChiLL air cooling solution built for the high end graphics cards to be launched this year. Built around 3 large 92mm super silent fans and optionally complemented by a 4th 50mm fan, the A.P.C.S. design optimizes the heat dissipation via its integrated heat-pipes and 123 aluminum cooling fins.

As a result of years of technological progress and expertise have brought the iChiLL brand to a point that we can make a difference for the high-end gamer and design creation professional achieving high performance, outstanding temperature control and at super silent noise levels.

Afbeeldingslocatie: http://static.tweakers.net/ext/f/zTlSVRqhX72vyDlDlxyD7Dan/medium.jpg Afbeeldingslocatie: http://static.tweakers.net/ext/f/bBXJ4OaG73a2fJlYV2v5GvKF/medium.jpg Afbeeldingslocatie: http://static.tweakers.net/ext/f/jSdrctARmhMYNoSIWLTw3zLQ/medium.jpg

"Heat production has been the major drawback for high end graphics cards and we have found ways to further optimize and improve our overall top solution under our iChiLL label and built to bring out the best of NVIDIA's consumer products." says Ken Wong, Product Manager at Inno3D. "And the beauty of it is that the new release of our iChiLL products does not increase cost nor will it increase our MSRP for the end customer."

The iChiLL line-up will come in two models; the X3 model (3 fans) is built with Scythe fan blades for silent operation and the X4 model (4 fans) is built with 15 turbine blades for extra cooling performance operation. Both models will become available on the Inno3D next gen custom built graphics card solutions, coming out in the near future.

Bron: http://www.techpowerup.co...r-next-gen-graphics-cards

Voor de duidelijkheid, een GTX 1080 koeler dus, zonder dat woord te noemen want dat zal nog wel niet mogen.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:15
bluebear schreef op zaterdag 21 mei 2016 @ 10:24:
ksnap het niet... de 1080 is niet geweldig. De reference kaart is zeer onderwelmend. Hij is niet zoveel sneller dan de titan of de 980ti, ondanks de hardware matige veranderingen. Het enige nieuwe lijken de VR implementaties.. Waar komt deze hype vandaan?
Volgens techpowerup 37% sneller dan de 980Ti op 2560x1440, dat is best wel flink hoor.

Maar misschien vooral het proces, deze chip is nog maar 314 vierkante mm. Je kan nog wat ruimte en power sparen met hbm2 en een nog 2x zo snelle gpu maken.

En over niet al te lange tijd zullen alle gpu's die nu verkocht worden vervangen zijn en kan je 970/290 performance verwachten voor ~250 euro, met veel lager verbruik.

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfwatt_2560_1440.png

Mechwarrior Online: Flapdrol


  • Cyclonic
  • Registratie: Januari 2006
  • Laatst online: 31-03 21:16
Afbeeldingslocatie: http://www.overclock.net/content/type/61/id/2785863/width/500/height/1000/flags/LL

GTX 1080Ti Founders Edition: $849
GTX 1080Ti Reference: $799
GTX Titan: $999 (Only comes as Founders Edition)

:o

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

Ik was net bij de gamma:

Afbeeldingslocatie: http://www.overclock.net/content/type/61/id/2787756/flags/LL

Niet op voorraad.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:15
Geen doom hier. Als je die niet op ultra zet valt het wel mee trouwens.
Afbeeldingslocatie: http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/new/d_1920.png
Maar goed, blijft gewoon verwaarlozing van nvidia, op ultra is een 960 sneller dan een 780, dat zou niet mogen gebeuren.

Mechwarrior Online: Flapdrol


  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 28-03 09:03
Vandaag bij de Praxis geweest :o
Afbeeldingslocatie: http://static.tweakers.net/ext/f/2SGOpIQAdAZrYPoKr9VaRWpY/full.jpg

|2600k|Asus 290|


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:25
YouTube: Does the GTX1080 have Thermal Throttling Issues?

en

Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_analysis.jpg

en

Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_analysis2.jpg

Dit wetende maakt dit HardwareCanucks filmpje wel extra interessant...
@ ~2:30 it was @ 76c
@ ~3:00 it was @ 77c
@ ~3:30 78c...
...
@ ~6:30 - 81c
@ ~7:00 - 82c
@ ~8:00 he stops playing
83c clock-drops incoming? Ach, als FE koper kun je toch bijna 10 minuten gamen (@ boost speeds)... :+

[ Voor 10% gewijzigd door Paprika op 26-05-2016 18:55 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Werelds schreef op donderdag 26 mei 2016 @ 19:45:
[...]

De ophef is dat Nvidia de gemiddelde consument nu misleid.

Fout #1: een demo doen waarbij het ding zogenaamd 2,1 GHz draait "op lucht". Niet met hun koeler in elk geval..of überhaupt met een gemiddelde setup ;)

Fout #2: reviews van een groot aantal sites klopt geen donder van. Er zijn genoeg tech sites die voor hun reviews alleen een benchmark draaien op stock settings. Die benchmarks duren maar een paar minuten, dus de resultaten die je daar uit krijgt zijn met kloksnelheden tegen de 1,9 GHz, een fan speed van 50% en een temperatuur zo net onder de 80 graden. Toegegeven, dat zijn over het algemeen ook de sites waar een beetje kenner geen donder om geeft, maar tegelijkertijd zijn dat ook sites waar de gemiddelde Nvidia koper naar kijkt. Met de gemiddelde Nvidia koper bedoel ik diegenen die blindelings Nvidia kopen "omdat dat beter is" - en dat is gewoon de helft van hun kopers. Dan lijkt de 1080 FE een stuk beter dan hij eigenlijk is, want als puntje bij paaltje komt is de koeler net als de meeste reference koelers een waardeloos ding. Het is weer een slimme marketing truc van Nvidia, want zo lijkt het in de reviews alsof hij super koel en stil is, terwijl dat eigenlijk helemaal niet zo is.

Fout #3: zelfs met power limit +20%, thermal target 92 en fan speed op 80% haalt het ding niet de kloksnelheden die hij in de eerste paar minuten haalt. Zie JayZ's filmpje; zelfs met die settings draait de GPU maar net op de 100% power en onder de 80 graden, en toch blijft hij net onder de 1,8 GHz steken.

Fout #4: "premium design and components"... _O- _O-
Tja we hebben niet gezien hoe die kaart gekoelt werd. Ik had eigenlijk niet anders verwacht dan dat er een super koeler op zat en een soort belachelijke koelbox. Net als dat de XBOX/ Playstation demo's tegenwoordig ook stiekem op PC's werden gedraaid ipv op de consoles zelf.

Mbt de andere punten vindt ik het nog te vroeg om de drietand op te pakken mbt consistentie. Meneer Jay liet al zien dat het wel te stabilieren is. Voor hetzelfde geld zijn over een paar dagen die custom PCB's met custom koelers er en halen die wel 2.1 GHz op 67 graden. Mijn 660 Ti PE doet stock ook 1200+ Mhz met alleen een verhoogde power limit, dat is toch ook niet normaal? Net als die MSI Hawk die op 960 ipv 675 Mhz draaide... Beetje vertrouwen in de AIB partners is wel op zijn plaats, toch?

Dit was ook de slide die erbij hoorde:
Afbeeldingslocatie: http://cdn.wccftech.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080_Boost-Clocks.jpg. Iedereen die 2100 Mhz op een reference kaart verwacht met 67 graden en fan speeds op 66% kun je gerust als naïef bestempelen :9 .

Punt 4 Tja marketing.
Afbeeldingslocatie: http://techreport.com/r.x/geforce-gtx-680/gtx680-from-rear.jpg
Als dat je basis is dan heb je het al snel over een premium uplossing met premium materials. Kwestie van minder lelijk plastic gebruiken :+. Ik kan me er niet over opwinden, zo werkt marketing.

[ Voor 10% gewijzigd door sdk1985 op 26-05-2016 20:12 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Paprika schreef op donderdag 26 mei 2016 @ 20:03:
[...]

Same (sinds 2009 al...), maar voordat er games zijn die het supporten is de GTX 1080 niets meer waard, want dan is er al iets beter. Daar hoef je het sowieso niet voor te doen.
Nee precies, die 1080 hoef ik zelf ook echt niet, laat staan een founders edition. Maar ik vond het echt een toffe ontwikkeling. Veel toffer dan die GTX 1080 zelf. Zag er echt bizar uit die doorlopende ruimte :).

Afbeeldingslocatie: http://cdn.mos.cms.futurecdn.net/rHuzmLonkzwKAdvsefFptM-650-80.jpg

[ Voor 8% gewijzigd door sdk1985 op 26-05-2016 20:11 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Werelds schreef op donderdag 26 mei 2016 @ 20:25:
[...]

Dat is het punt niet. Ik heb ook meer vertrouwen in bijvoorbeeld MSI dan in Nvidia zelf en de custom kaarten zullen vast wel beter draaien. Laten we wel wezen, de reference koelers in beide kampen zijn gewoon ruk. De PCB's zijn ook niets bijzonders.

Het punt is dat Nvidia's eigen extra dure kaart gewoon misleidende resultaten geeft totdat je er daadwerkelijk iets mee doet. Voldoet bij lange na niet aan de verwachtingen die ze scheppen of waar ze mee adverteren.


[...]

Jouw 32% was gebaseerd op verkeerde logica, dat is waarom in elk geval ik het er niet mee eens was en nog steeds niet ben ;)


[...]

YouTube: Introducing the GeForce GTX 1080. Gaming Perfected. -> http://cl.ly/0I2j16271w1C

Dat gaat over de FE. Over 2 GHz overclocking? [H] haalde dat maar net in de open lucht en dat was met de koeler op 100% :P


[...]

Ze mogen wat mij betreft eerst eens leren fatsoenlijk met meerdere monitors en DP om te gaan. Sterker nog, monitors en TV's in hun algemeen.

Ik draai al (geen idee hoe lang..in elk geval al met met 6800 GT, volgens mij al met m'n 9700) op meerdere monitors en nog steeds bakt Nvidia er geen donder van. Willekeurige crashes, non-primaire monitors die spontaan op zwart springen. DisplayPort vergeten ze af en toe wakker te schudden tijdens booten, dus dan moet ik de kabel even uit trekken en weer insteken (met meerdere monitors gehad, ligt niet aan de monitor). En dan springt hij standaard op een "HDTV" setting (met alle gevolgen van dien; hallo kleurbereik?), in plaats van 1080p120 8)7

Maar wellicht hebben ze dat nu eindelijk onder de knie met die hernieuwde focus. AMD heeft in sommige driver versies wat problemen met underscan/overscan gehad (in de zin dat de opties niet zichtbaar zijn :D), maar met m'n AMD kaarten hebben meerdere monitors altijd lekkerder gewerkt.

Neemt niet weg dat ik die hoek correctie ook heel interessant vond, ik weet daar wel raad mee.
Tja je kan het er mee oneens zijn wat je wil maar het was een patroon dat nog steeds stand houdt binnen wetenschappelijk verantwoorde marges. Dat valt niet te ontkennen. Als jij er een statistische toetst op loslaat dan is er gewoon een significant verband.

Mijn verklarende hypothese, daar kun je wel over discussiëren. Ik ben er van overtuigd dat gewoon een design doelstelling is; hoe krijgen we zo goedkoop mogelijk circa 30%. Ze matchen gewoon de chip grootte met het gewenste resultaat. Iets waarvan ze recentelijk zelf aangeven dat minstens 12 maanden te testen in een virtuele setup (die video van Nvidia labs). Dus het is niet toevallig dat het weer circa 30% was, daar hebben ze een jaar aan gesleuteld. Het gaat helemaal niet om het best mogelijke resultaat binnen x euro kosten. Het gaat ook om een stukje continuïteit en marge verbetering. Hoe beter het nieuwe product des te goedkoper ze aan die 30% komen.

Een openlucht setup koelt in mijn ervaring slechter dan een blower (of 4) op je kaart gericht. Dat is helemaal niet een best case scenario zoals meneer Jay beweert (wat een noob is dat af en toe :+ ). Ik had vroeger deze kast:
Afbeeldingslocatie: http://images9.tcdn.com.br/img/img_prod/108704/1192_1.jpg

Mijn monitoren zijn HDMI en DVI :P . Zelfs mijn 4K tv heeft geen display port. Alleen mijn Surface Pro 2 heeft zo'n ding. Waar ik vervolgens dus een ellendige adapter voor nodig heb.

[ Voor 3% gewijzigd door sdk1985 op 26-05-2016 21:29 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:06
Verwijderd schreef op donderdag 26 mei 2016 @ 22:21:
Serieus als je dit niet eens snapt dan zou ik echt snel terug gaan naar de basisschool....

Je had het over 30/33% sneller als een GTX 980 en daar klopt helemaal niks van, het is toch echt 70%. Dit is één van de eerste dingen die je leert bij rekenen met procenten.
Sorry zo heb ik het geleerd op de universiteit ;). Als jij jou geforceerde logica nu eens op mijn originele uitleg gaat toepassen dan zie je meteen dat het daar ook niet klopt. Nog maals ik praat over indexwaardes. Dit alles vond immers ook plaats binnen de index waardes van TPU.

Als product A 60% presteert op een index waarde en product B presteert 100% op de index waarde dan is het heel normaal om dat verschil te benoemen als 40%. Juist dit vervolgens gaan berekenen als 100/60*100=66% haalt het hele nut van een index waarde onderuit. Met die 40% weten we meteen wat we kunnen verwachten (zie rekensom hierboven). Ga je dat verschil als 67% (wiskunde) noemen dan moet je extra stappen maken, immers het absolute verschil wordt daarmee niet direct duidelijk.

Exhibit a:
De 980 was 33% sneller dan de 780
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perfrel_2560.gif
100-77=33.

Dus even de knop omzetten en je even verplaatsen in mijn redenatie. Vervolgens zie je dat ik er heel dichtbij zat... Want binnen mijn redenatie is het verschil dus geen 70% maar 40%. Of ik er dan 7% naast zat (statistiek) of 17.5% (wiskunde) laat ik helemaal aan jou over. Maar absoluut geen geheim geweest hoe ik aan mijn voorspelling kwam en welke waardes (67%) ik in welke review (tpu perf summary) verwachtte.

[ Voor 21% gewijzigd door sdk1985 op 26-05-2016 22:33 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Die nieuwe look van EVGA zegt me toch maar weinig. Ik zag veel liever die strakke 900 series.
(Nu ja, zolang die maar efficiënt is qua temp/geluid..)
Afbeeldingslocatie: http://www.overclock.net/content/type/61/id/2789749/width/500/height/1000/flags/LL

Afbeeldingslocatie: http://www.overclock.net/content/type/61/id/2789750/width/500/height/1000/flags/LL

Afbeeldingslocatie: http://www.overclock.net/content/type/61/id/2789751/width/500/height/1000/flags/LL

[ Voor 6% gewijzigd door SmokingCrop op 27-05-2016 00:40 ]

Pagina: 1 2 ... 8

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.