Toon posts:

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 49 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 25.287 views

  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 18-08 06:59
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44
http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

G 210 en GT 220 (eindelijk directX10.1)

http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce 210/310
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1


GTS 240 en GT 240 (Eindelijk GDDR5 :+)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_240_med_3qtr125.PNG
GeForce GT 240
  • GPU: GT215 (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 727 million
  • Unified shaders: 96
  • Shader clock: 1340 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
  • Memory Bandwidth: 28.8 32 54.4 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512/1024 MB
  • OpenGL: 3.2
  • Consumption: idle 9 - max 69 (40 gemeten) watt
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_240_med_3qtr125.png
GeForce GTS 240
  • GPU: ?? (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ?? million
  • Unified shaders: 112
  • Shader clock: 1620 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • OpenGL: 3.2
  • Consumption: 120 watt (max)
  • Power Connectors: 9-pin pci-e
  • Enkel OEM
  • Sli: 2-way
  • DirectX: "compute"

GT 200 (oldies :p)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_260_med_3qtr75.png
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_280_med_3qtr75.png
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_260_med_3qtr75.png
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_275_3qtr_low75.png
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_285_low_3qtr75.png
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

http://lightdestroyer.dommel.be/picture_library/tweakers/Quadro_FX5800_low_3qtr75.png
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100

http://lightdestroyer.dommel.be/picture_library/tweakers/Fermi3.PNG

Instap level


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT???
  • GPU: GF108
  • Release Date: Q2? 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 32
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:OEM/Dell only(indien 32)?


http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_420_oem_low_3qtr75.png

GT420 OEM
  • GPU: GF108
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:48
  • Shader clock: 1400 MHz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: 900 MHz
  • Memory Bandwidth: 28.8 GB/sec
  • Memory Interface: 128 bit
  • Memory: 2048 MB DDR3
  • Consumption: max 50 Watt
    • Enkel OEM

Low End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gt_430_3qtr_low75.png

GT 430
  • GPU: GF108
  • Release Date: 11/10/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • Unified shaders:96
  • Shader clock: 1400 MHz
  • ROP's: 4
  • Core Clock: 700 Mhz
  • Memory Clock: 800 - 900Mhz (GDDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Consumption: Officieel max 49 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gt_440_3qtr_low75.png

GTS 440
  • GPU: GF106
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:144
  • Shader clock: 1189 MHz
  • ROP's: ??
  • Core Clock: 594 Mhz
  • Memory Clock: 800-900 Mhz (GDDR3)
  • Memory Bandwidth: 38.4-43.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 1.5 - 3.0 GB
  • Texture Units: ??
  • Beperkte 2-sli (zelfde fabrikant vereist)
  • Enkel OEM
  • Consumption: max 56 Watt



Mid-End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce-gts450-pcb75.jpg

GTS 450
  • GPU: GF106 (40nm)
  • Release Date: Q2 2010 Uitgesteld naar 13 september
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders:192
  • Shader clock: 1566 MHz
  • ROP's: 16
  • Core Clock: 789 983 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 60,16/90,24 57,6 GB/s
  • Memory Interface: 128 /192 bit
  • Memory: 512?/768?/ 1024/2048? MB
  • L2 Cache Size: 256KB
  • Texture Units: 32
  • Consumption: max 106 watt
  • Performatie: mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 SE
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 288 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 650 Mhz
  • Memory Clock: 850 Mhz (GDDR5)
  • Memory Bandwidth: 108,8 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • L2 Cache Size: 384KB
  • Texture Units: 48
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:Mid-end


High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 768 MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 86,4 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 768MB (mogelijkheid voor 1536MB)
  • L2 Cache Size: 384KB
  • Texture Units: 56
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103243.jpg

GTX 460 1024MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 32
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 115,2 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • Texture Units: 56
  • L2 Cache Size: 512KB
  • Consumption: 160 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


Tesla


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

Tesla C2050
  • GPU: Tesla T20
  • Release Date: "early" Q2 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 600-1200 MHz
  • Memory Clock:900 MHz (GDDR5)
  • Memory Bandwidth: 172.8 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 3GB GDDR5
  • Consumption: 190W(typical)
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG

Tesla C2070
  • GPU: Tesla T20
  • Release Date: Q3 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 480??
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 700-1400 MHz
  • Memory Clock:1000Mhz (GDDR5)
  • Memory Bandwidth: 192 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 6 GB (GDDR5)
  • Consumption:maximaal 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


Low Hight End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gtx_470_3qtr_low75.png

GTX 465
  • GPU: GF100
  • Release Date: eind mei 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 352
  • Shader clock:1215 MHz
  • Core Clock: 607 MHz
  • ROP's: 32
  • Pixel Fill Rate: 26.7 GP/s
  • Memory Clock: 802 Mhz (GDDR5)
  • Memory Bandwidth: 102.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Consumption: max 200W


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX470.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt


High End


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX480.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX580_75.png

GTX 580
  • GPU: GF110
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3? miljard
  • Unified shaders: 512
  • Shader clock: 1544 Mhz
  • ROP's: 64
  • Pixel Fill Rate: ?
  • Core Clock: 772 MHz
  • Memory Clock: 1002 (GDDR5)
  • Memory Bandwidth: 192,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1512 MB
  • Texture Units: 64
  • Consumption:??


Geruchten


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX490_75.jpg

GTX 490(volgens de geruchten)
  • GPU: 2*GF104
  • Release Date: Zomer 2010 ;(
  • Interface: PCI-E x16 2.0
  • Transistors: ?? miljard
  • Unified shaders: 336*2 ofwel 240*2
  • Shader clock:?? mhz
  • Core Clock:?? (hot clock) Mhz
  • ROP's: ??
  • Pixel Fill Rate: GP/s
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: ?? GB/s
  • Memory Interface: 2* 192? bit
  • Memory: ??? MB
  • Texture Units: ??
  • Consumption: "Extreme" Vermoedelijk 300Watt officiele TDP


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX580_75.png

GTX 570
  • GPU: GF110
  • Release Date: begin 2011
  • Interface: PCI-E x16 2.0
  • Transistors: ?? miljard
  • Unified shaders: 480
  • Shader clock: ?? Mhz
  • ROP's: 48
  • Pixel Fill Rate: ?
  • Core Clock: 700+ MHz
  • Memory Clock: 900+? (GDDR5)
  • Memory Bandwidth: ?? GB/s
  • Memory Interface: 384 bit
  • Memory: ?? MB
  • Texture Units: ??
  • Consumption:??

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Het vroegtijdig overlijden van ons forumlid CJ:
The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
Nieuws: Ook MSI en EVGA komen met GTX 460 SE-kaarten
Nieuws: Zotac introduceert GTX 460 SE met 288 Cuda-cores
Nieuws: Nvidia brengt nieuwe high-end kaart GTX 580 uit
Nieuws: Nvidia demonstreert GTX 580: koeler en stiller dan GTX 480
Nieuws: 'Nvidia komt half november met langzamere GTX 460'
Nieuws: Vermoedelijke foto's van GeForce GTX 580 opgedoken
Nieuws: Zotac werkt aan videokaart met twee GTX 460-gpu's
Nieuws: Nvidia brengt low-end GT 430-videokaart uit
Nieuws: Nvidia verkoopt videokaarten onder eigen naam
Nieuws: Nvidia GTS 450: DirectX 11 voor de massa
Nieuws: Arctic Cooling levert koeler voor nieuwe Sparkle GTX 480
Nieuws: Nvidia verliest hoger beroep over patenten van Rambus
Nieuws: Nvidia: 'gpu-problemen zijn achter de rug' (En nVidia bevestigd afwezigheid op de chipsetmarkt)
Nieuws: Benchmarks van GTX 480 met 512 Cuda-cores duiken op

Externe nieuwsberichten:
Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details :P)
China claims supercomputer crown

Anandtech: Intel Settles With the FTC

HotHardware: NVIDIA Unleashes Quadro 6000 and 5000 Series GPUs

http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

GTX 580
De gerucht doen de ronde dat nVidia "binnenkort"(pas volgend jaar) de nieuwe serie zal lanceren beginnende met de high-end kaart de GTX 580.
Echter zijn er 2 mogelijkheden:
• Een B1 versie van de huidige GTX480 fermi kaart waarbij het leakage probleem eindelijk onder controle gebracht is waardoor de clocks naar de oorspronkelijk beoogde snelheden gebracht kunnen worden.
Dit in samenwerking met het activeren van alle shaders (of CUDA cores genoemd).
• Een minder aanneembare optie, namelijk een nieuw "monsterchip" met het dubbel aantal Tmu's een 512bit brede databus (hoewel het vooral de memorycontroller was dat fermi1 parten speelde niet de bus zelf ..).
Ook deze zou hogere clocksnelheden moeten kunnen bereiken + over 512 shaders beschikken.

In beide gevallen zou de snelheidswinst een 20% zijn tegenover de huidige GTX 480 wat niet min is rekening houdende dat men blijft gebruik maken van dezelfde productieprocédé.

*update*: Het is de eerste optie geworden ;)

GTX570
De volgende high-end kaart die nVidia zal lanceren in de in de GTX500 reeks zal de GTX570 worden, vermoedelijk met evenveel cuda cores dan de huidige GTX480 (welke EOL is verklaard) én hoger geklokt.
Dit zou moeten bereikt worden door dezelfde optimalisaties die eerder zijn toegepast om de GTX580 te produceren (Mogelijk dezelfde chip maar met een cluster aan CUDA cores disabled?)

Waarheidsfactor: 85%

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?

The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:

* Quadro Plex 7000, Quadro 6000, Quadro 5000, Quadro 5000M, Quadro 4000
* GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460
De allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce GT 430
Anandtech: Asus ENGT430
Guru3D: (Point of View)
[H]ard|OCP: Galaxy
HOT Hardware: (Asus)
TECHPowerup: ZOTAC

Reviews GeForce GTS 450
Guru3D (ASUS, eVGA, ECS, MSI, NVIDIA, Palit, Sparkle, KFA2 (Galaxy), Inno3D en Gigabyte
[H]ard|OCP: (MSI Cyclone)
HOT HardWare:(EVGA en Asus)
PC Perspective: (Galaxy)
the TECH Report (Referentie kaart)
TweakTown: (Galaxy)

Reviews van de GeForce GX460
Deze kan u vinden in Deel 47 van dit topic

Reviews van de GeForce GTX 465
Deze kan u vinden in Deel 47 van dit topic

Reviews van de GeForce GTX 470 en de GeForce GTX 480
Deze kan u vinden in Deel 46 van dit topic

Vorige Topics:Gebruikerservaring:
Het Nvidia GTX4xx series ervaringen topic
nVidia GTX470/GTX480 Levertijden Topique

[Ervaringen] Bakken grafische kaart
Het doodgaan van GeForce 8000 serie kaarten

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce Qaudro in de Pricewatch
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum




Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
  • PV engine 4 bijvoegen
  • CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

[Voor 9% gewijzigd door lightdestroyer op 17-11-2010 13:33. Reden: toevoegen correcte info GTX580 + GTX460 SE]

Specs


  • bwerg
  • Registratie: januari 2009
  • Niet online

bwerg

Internettrol

Als je de OEM-kaart GT440 noemt in de TS, misschien is de OEM-variant van de GTS450 dan ook wel het vermelden waard. ;)

Heeft geen speciale krachten en is daar erg boos over.


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
"Zal nVidia op 20 september Fermi2 voorstellen?

Waarheidsfactor: 0.35%"


De kans lijkt mij groter dan 0,35% als het 20 september 2011 is ?

  • anathema
  • Registratie: augustus 2006
  • Laatst online: 19:13
Ik zie niets staan over 3D vision in de TS, wellicht interessant om iets over toe te voegen? Dit begint toch wel interessanter te worden met steeds meer positieve reviews. Hier een recente (hoewel op zich een monitor review):
http://benchmarkreviews.c...d=68&limit=1&limitstart=5

anathema


  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 18-08 06:59
bwerg schreef op woensdag 27 oktober 2010 @ 18:54:
Als je de OEM-kaart GT440 noemt in de TS, misschien is de OEM-variant van de GTS450 dan ook wel het vermelden waard. ;)
Uh zeker indien deze apart vermeld staat op de nvidia site zou deze in de TS moeten gestaan hebben... echter ben ik zelf door de naamgeving beetgenomen :s

Vanaf dat ik nog eens wat tijd heb zal ik proberen de GTS450 OEM en de GT 420 toe te voegen (blijkbaar is de GT 430 OEM dan toch nog gelijk met diegene voor particulieren...)
madmaxnl schreef op woensdag 27 oktober 2010 @ 22:45:
"Zal nVidia op 20 september Fermi2 voorstellen?

Waarheidsfactor: 0.35%"


De kans lijkt mij groter dan 0,35% als het 20 september 2011 is ?
Uh dat zijn oude geruchten inderdaad, ik moet nog de geruchten en nieuwstopic updaten. Wat ook weer iets zal zijn voor het weekend. Bekijk het azo, de 0.35% zat dicht bij de 0% :D
anathema schreef op woensdag 27 oktober 2010 @ 22:58:
Ik zie niets staan over 3D vision in de TS, wellicht interessant om iets over toe te voegen? Dit begint toch wel interessanter te worden met steeds meer positieve reviews. Hier een recente (hoewel op zich een monitor review):
http://benchmarkreviews.c...d=68&limit=1&limitstart=5
Het spijt me maar de vroegere technologie uitbreidingen werden na een tijdje aanzien als de TS overladen vandaar dat ik er mij nog niet aan gewaagd heb. Indien het gewild is wil ik er wel eens een korte samenvatting in elkaar boxen.

[Voor 46% gewijzigd door lightdestroyer op 28-10-2010 00:50]

Specs


  • Pakjee
  • Registratie: februari 2009
  • Laatst online: 18-02-2012
miss volgende week :P

  • neliz
  • Registratie: oktober 1999
  • Laatst online: 20-08 16:08

neliz

GIGABYTE Man

Goed nieuws van het prijsfront; de GTX580 is niet duurder dan de HD6970!

NV hoopt dat de GTX580 sneller wordt dan de HD6950 en stellen hiervoor de echte beschikbaarheid uit tot na de launch van Cayman.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Stefanovic45
  • Registratie: juni 2008
  • Laatst online: 18:33
Dus ook niet duurder dan de GTX 480?

Hyundai Ioniq Electric 28 kWh / 5.4 kWp PV installatie


  • Helixes
  • Registratie: juni 2010
  • Laatst online: 17:30
neliz schreef op donderdag 28 oktober 2010 @ 08:44:
Goed nieuws van het prijsfront; de GTX580 is niet duurder dan de HD6970!

NV hoopt dat de GTX580 sneller wordt dan de HD6950 en stellen hiervoor de echte beschikbaarheid uit to na de launch van Cayman.
Je impliceert dat de GTX580 rond het prijspunt van de HD 6970 komt te liggen, met prestaties vergelijkbaar met de HD 6950. Het had natuurlijk een stuk slechter gekund, maar dat lijkt me eerlijk gezegd niet direct reden om de vlag uit te hangen...

De geruchten zijn ook dat Cayman in November komt. Mag ik begrijpen dat de Groenen dan ook in November komen met hun nieuwe kampioen?

  • neliz
  • Registratie: oktober 1999
  • Laatst online: 20-08 16:08

neliz

GIGABYTE Man

Helixes schreef op donderdag 28 oktober 2010 @ 10:28:
[...]
Je impliceert dat de GTX580 rond het prijspunt van de HD 6970 komt te liggen, met prestaties vergelijkbaar met de HD 6950. Het had natuurlijk een stuk slechter gekund, maar dat lijkt me eerlijk gezegd niet direct reden om de vlag uit te hangen...

De geruchten zijn ook dat Cayman in November komt. Mag ik begrijpen dat de Groenen dan ook in November komen met hun nieuwe kampioen?
het heet "Steal the Thunder"
Herrinert iedereen zich de spontane release van de 7800 GTX 512 op het moment dat de concurrent met misschien een betere kaart kwam?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 18:18
neliz schreef op donderdag 28 oktober 2010 @ 10:34:
[...]


het heet "Steal the Thunder"
Herrinert iedereen zich de spontane release van de 7800 GTX 512 op het moment dat de concurrent met misschien een betere kaart kwam?
Ja... Dus nu ook weer een paperlaunch? Impliceer je dat?

  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 15-12-2015
Dat is inderdaad nvidia eigen, dan denk ik aan de 8800gt, 9800gx2, en 9800gtx+ :P

  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 18:18
Frietjemet schreef op donderdag 28 oktober 2010 @ 11:34:
Dat is inderdaad nvidia eigen, dan denk ik aan de 8800gt, 9800gx2, en 9800gtx+ :P
Zover ik weet was de 8800GT zeker GEEN paperlaunch, daar zijn er zelfs behoorlijk veel van verkocht.

De 7800GTX 512MB, die Neliz noemt, was zkr wel een paperlaunch.

edit: even voor de duidelijkheid, met paperlaunch bedoel ik eigenlijk een launch met maar enkele duizenden kaarten OOIT verkrijgbaar, zoals de 7800GTX 512MB dus.
Paperlaunch is eigenlijk natuurlijk een launch waarbij de beschikbaarheid nog moet volgen, maar wel ooit komt.

[Voor 27% gewijzigd door Gurneyhck op 28-10-2010 12:06]


  • Antilles
  • Registratie: oktober 2010
  • Laatst online: 31-10-2010
It's coming closer :*)

http://img822.imageshack.us/img822/3136/possiblegtx580.th.jpg
Zo he die lijkt echt! Vooral de naam possible GTX580 doet het hem.

[Voor 51% gewijzigd door -The_Mask- op 28-10-2010 12:27]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
Ja, en ik heb Kepler ook al gespot;

http://www.plaatjesupload.../10/28/1288252425-420.jpg

;)

  • windwarrior
  • Registratie: januari 2009
  • Laatst online: 16-09 20:50

windwarrior

ʍıupʍɐɹɹıoɹ

Die koeler zit zo ongeveer op elke kaart van nVidia. En behalve dat, er is nu in paint een tekstje opgezet :D, ik denk dat deze nep is, ook omdat de GTX480 twee heatpipes uit het plastic had steken, en een metalen roostertje had, en deze kaart nou niet schrikbarend minder gaat gebruiken.

@hierboven, super!

edit: die kaart is met 99,998 procent zekerheid nep :D


edti: waarom staat in te TS bij zowel de GTX470 als GTX480 een plaatje van de XFX variant, die nooit is uitgekomen?

[Voor 25% gewijzigd door windwarrior op 28-10-2010 13:32]


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 22-09 22:09
Die gaatjes in de koeler spreken me wel aan, dat hebben schuurmachines ook :9~

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

neliz schreef op donderdag 28 oktober 2010 @ 08:44:
Goed nieuws van het prijsfront; de GTX580 is niet duurder dan de HD6970!

NV hoopt dat de GTX580 sneller wordt dan de HD6950 en stellen hiervoor de echte beschikbaarheid uit tot na de launch van Cayman.
Is dit cynisch bedoeld :D

Niet op voorraad.







GTX580 twee keer DVI en HDMI en stroom aansluitingen zijn 6+8 pins PCI-e.

Performance is zo'n 20% hoger als een GTX480 zonder dat het stroomverbruik dat ook is.

[Voor 12% gewijzigd door -The_Mask- op 28-10-2010 14:58]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
Als ze de temps nou ook nog eens >10 graden lager weten te houden onder load begint het ergens op te lijken!
Temperatuur maakt toch niks uit? Van mij mag mijn videokaart ook wel 150 graden zijn als die daar tegen kan is het voor mij niet echt een probleem. Zou die ook nog eens stiller zijn koeler hoeft immers minder hard te draaien. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
MW1F schreef op donderdag 28 oktober 2010 @ 15:15:
Als ze de temps nou ook nog eens >10 graden lager weten te houden onder load begint het ergens op te lijken!
Inderdaad temperatuur maakt niks uit, mits de warmte uit de kast wordt geblazen, de kaart er tegen kan en er weinig geluid productie is. Bij de HD4870 waren er een hoop mensen die vond dat deze een te hogen idle temperatuur had (60a70 graden Celsius). Daar in tegen was hij wel "heel erg stil" maar dat was blijkbaar niet relevant ook begreep men toen niet dat de warmte van de GPU geen ruk uit maakt zolang de GPU er maar tegen kan. Maar goed dat ter zeiden.

  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 28-07 11:38

Xenomorphh

Soep met Ballen

-The_Mask- schreef op donderdag 28 oktober 2010 @ 14:56:
[afbeelding]

[afbeelding]

[afbeelding]

GTX580 twee keer DVI en HDMI en stroom aansluitingen zijn 6+8 pins PCI-e.

Performance is zo'n 20% hoger als een GTX480 zonder dat het stroomverbruik dat ook is.
Hmm als ik de achterkant van de kaart bekijk zeg maar het PCB lijkt de kaart mij wel ontzettend lang. Maar goed 20% meer prestaties tegen hetzelfde stroom verbruik, ik vind het knap. :) En ook knap dat ze dat beest uiteindelijk toch nog geproduceerd krijgen op 40nm :) Mits de yields goed zijn natuurlijk..

Grappig trouwens dat de post van Antilles wel klopt, koeler etc dan :P

[Voor 4% gewijzigd door Xenomorphh op 28-10-2010 15:42]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 15-12-2015
madmaxnl schreef op donderdag 28 oktober 2010 @ 15:34:
[...]


Inderdaad temperatuur maakt niks uit, mits de warmte uit de kast wordt geblazen, de kaart er tegen kan en er weinig geluid productie is. Bij de HD4870 waren er een hoop mensen die vond dat deze een te hogen idle temperatuur had (60a70 graden Celsius). Daar in tegen was hij wel "heel erg stil" maar dat was blijkbaar niet relevant ook begreep men toen niet dat de warmte van de GPU geen ruk uit maakt zolang de GPU er maar tegen kan. Maar goed dat ter zeiden.
Ik kan je met 100% zekerheid zeggen dat de hd4870 niet stil was, integendeel, dat ding maakte hetzelfde geluid als een 2200 watt stofzuiger. Na het booten kon je de kaart ook niet meer aanraken zonder een blaar er aan over te houden, gelukkig zat er wel een waarschuwings sticker op :P

En ik kan het weten, heb zelf een 1gb versie gehad, verder goede performance en hij heeft heel even op 900mhz gedraaid. (toen lieten de drivers dat nog toe) Heb hem eigenlijk alleen maar onder waterkoeling gedraaid, net voor de verkoop met de stock koeler nog bij een vriend gedraaid om zijn server te testen. Kan je wel zeggen dat die 60 a 70 graden idle meer regel dan uitzondering was, damn wat werd dat ding heet, daar kon je toch zeker een ei op bakken :9 (vreemd dat niemand dat met een hd4870 heeft geprobeerd trouwens)

Ben wel benieuwd hoever nvidia de lekstroom in die giga-chip heeft weten te beperken, die eerste plaatjes geven enige hoop, een ECHTE max tdp van 250watt is wel wenselijk, al voorspellen die 6+8 pins dan weer minder goed...

  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 15-12-2015
Gurneyhck schreef op donderdag 28 oktober 2010 @ 12:03:
[...]

Zover ik weet was de 8800GT zeker GEEN paperlaunch, daar zijn er zelfs behoorlijk veel van verkocht.

De 7800GTX 512MB, die Neliz noemt, was zkr wel een paperlaunch.

edit: even voor de duidelijkheid, met paperlaunch bedoel ik eigenlijk een launch met maar enkele duizenden kaarten OOIT verkrijgbaar, zoals de 7800GTX 512MB dus.
Paperlaunch is eigenlijk natuurlijk een launch waarbij de beschikbaarheid nog moet volgen, maar wel ooit komt.
Och sorry, ik doelde meer op 'counter' launches om klanten bij de concurrentie weg te kapen, my bad ;)

Die 7800gtx 512mb heb ik jaren terug tweedehands gekocht, wist niet dat dat ding zo relatief zeldzaam was...

  • denheer
  • Registratie: oktober 2004
  • Laatst online: 23-09 22:16
-The_Mask- schreef op donderdag 28 oktober 2010 @ 14:56:

Performance is zo'n 20% hoger als een GTX480 zonder dat het stroomverbruik dat ook is.
Dus de extra cores zijn nu wel ingeschakeld en de frequentie is waarschijnlijk opgehoogd? Of zijn er misschien nog meer optimalisaties doorgevoerd om die 20% snelheidswinst te behalen t.o.v. de GTX480?

Of is die 20% alleen in speciale benchmarks? (Ja ik wordt cynisch van NVidia + marketing)

  • gekke-gerrit
  • Registratie: maart 2010
  • Laatst online: 12:07

gekke-gerrit

Happy Swift programmer

wat ik een beetje raar vind is dat de onderste foto geen datum bevat, lijkt mij door de zelfde persoon geschoten,
en de datum op foto 2 verschild ook vergeleken de eerste..

...


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
Volgens mij is de datum 't zelfde (leuk dat chiphell een watermark plaatst over een image die niet eens door hun geleaked is)


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
-The_Mask- schreef op donderdag 28 oktober 2010 @ 15:26:
Temperatuur maakt toch niks uit? Van mij mag mijn videokaart ook wel 150 graden zijn als die daar tegen kan is het voor mij niet echt een probleem. Zou die ook nog eens stiller zijn koeler hoeft immers minder hard te draaien. ;)
Maar dat is juist het hele probleem met de huidige GTX480... Wordt zo warm dat de fan erg hard moet werken. Wat ik dus bedoelde is dat zodra de temps lager uitvallen de fan ook minder werk hoeft te verzetten -> minder herrie...
Frietjemet schreef op donderdag 28 oktober 2010 @ 16:14:
[...]Ben wel benieuwd hoever nvidia de lekstroom in die giga-chip heeft weten te beperken, die eerste plaatjes geven enige hoop, een ECHTE max tdp van 250watt is wel wenselijk, al voorspellen die 6+8 pins dan weer minder goed...
Nouja, alle kaarten met een TDP van boven de 225watt krijgen sowieso een 6+8 pins, dus dat is niet zo'n probleem. Probleem is idd dat heel veel stroom weg 'lekt' en overbodige warmte op levert die afgevoerd moet worden. Neem de GTX280, die heeft een TDP van ~236watt en stond niet bekend als 'belachelijk' heet en luid.
Dus als de TDP van de GTX580 ECHT 250watt is, zijn we al een heel eind! :)

[Voor 39% gewijzigd door MW1F op 28-10-2010 17:51]


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
dubbel

[Voor 98% gewijzigd door MW1F op 28-10-2010 17:51]


  • bwerg
  • Registratie: januari 2009
  • Niet online

bwerg

Internettrol

MW1F schreef op donderdag 28 oktober 2010 @ 17:45:
Maar dat is juist het hele probleem met de huidige GTX480... Wordt zo warm dat de fan erg hard moet werken. Wat ik dus bedoelde is dat zodra de temps lager uitvallen de fan ook minder werk hoeft te verzetten -> minder herrie...
Je bedoelt waarschijnlijk: minder warmteproductie -> lagere fanspeeds. De temperatuur is juist afhankelijk van de fanspeed (en ook warmteproductie), niet andersom...

Heeft geen speciale krachten en is daar erg boos over.


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
Frietjemet schreef op donderdag 28 oktober 2010 @ 16:14:
[...]


Ik kan je met 100% zekerheid zeggen dat de hd4870 niet stil was, integendeel, dat ding maakte hetzelfde geluid als een 2200 watt stofzuiger. Na het booten kon je de kaart ook niet meer aanraken zonder een blaar er aan over te houden, gelukkig zat er wel een waarschuwings sticker op :P

En ik kan het weten, heb zelf een 1gb versie gehad, verder goede performance en hij heeft heel even op 900mhz gedraaid. (toen lieten de drivers dat nog toe) Heb hem eigenlijk alleen maar onder waterkoeling gedraaid, net voor de verkoop met de stock koeler nog bij een vriend gedraaid om zijn server te testen. Kan je wel zeggen dat die 60 a 70 graden idle meer regel dan uitzondering was, damn wat werd dat ding heet, daar kon je toch zeker een ei op bakken :9 (vreemd dat niemand dat met een hd4870 heeft geprobeerd trouwens)

Ben wel benieuwd hoever nvidia de lekstroom in die giga-chip heeft weten te beperken, die eerste plaatjes geven enige hoop, een ECHTE max tdp van 250watt is wel wenselijk, al voorspellen die 6+8 pins dan weer minder goed...
Kan ik je met 100% zekerheid zeggen dat die idle wel stil is.
Zelfs load is die stil.

Dit is eerder regel dan uitzondering daar ik bewijs heb en jij slechts je eigen ervaring hebt met een wellicht slecht exemplaar.

http://www.computerbase.d.../25/#abschnitt_temperatur
http://www.computerbase.d...24/#abschnitt_lautstaerke
http://www.xbitlabs.com/a...d4800-games_12.html#sect2
http://www.tomshardware.c...deon-hd-4870,1964-16.html
http://www.hardwarecanuck...phics-card-review-20.html

Het is dus niet zo vreemd dat niemand er een ei op heeft proberen te bakken ;w

  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 18:18
madmaxnl schreef op donderdag 28 oktober 2010 @ 18:49:
[...]

http://www.computerbase.d.../25/#abschnitt_temperatur
Het is dus niet zo vreemd dat niemand er een ei op heeft proberen te bakken ;w
Kun je wel heel stoer zo'n smiley erbij zetten, maar dat maakt je pleidooi niet sterker. Eerste link die ik aanklik (die ik dus ook gequote heb), temperatuur idle: 75graden C, onder load: 87graden C
Dus frietjemet heeft wel zkr een punt! :F

edit: qua geluid ziet je bewijs er beter uit ;) Maar dat is natuurlijk ook wel een beetje een subjectief iets. Voor de één is geluid harder dan voor de ander...

[Voor 12% gewijzigd door Gurneyhck op 28-10-2010 19:12]

Gurneyhck schreef op donderdag 28 oktober 2010 @ 19:11:
[...]


Kun je wel heel stoer zo'n smiley erbij zetten, maar dat maakt je pleidooi niet sterker. Eerste link die ik aanklik (die ik dus ook gequote heb), temperatuur idle: 75graden C, onder load: 87graden C
Dus frietjemet heeft wel zkr een punt! :F
Wat heeft hoge temp te maken met lawaaiige videokaart?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 18:18
-The_Mask- schreef op donderdag 28 oktober 2010 @ 19:17:
[...]

Wat heeft hoge temp te maken met lawaaiige videokaart?
Omdat het nogal logisch is dat je op een lawaaiige videokaart geen ei kan bakken...
Frietjemet schreef op donderdag 28 oktober 2010 @ 16:14:
[...]

Kan je wel zeggen dat die 60 a 70 graden idle meer regel dan uitzondering was, damn wat werd dat ding heet, daar kon je toch zeker een ei op bakken :9 (vreemd dat niemand dat met een hd4870 heeft geprobeerd trouwens)
madmaxnl schreef op donderdag 28 oktober 2010 @ 18:49:
[...]
Het is dus niet zo vreemd dat niemand er een ei op heeft proberen te bakken ;w

[Voor 51% gewijzigd door Gurneyhck op 28-10-2010 19:32]


  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 15-12-2015
Tja ik weet dan niet wat jij als bewijs aanhaalt, als jouw 'bewijs' op een aantal subjectieve reviews is gebaseerd zegt dat nog steeds erg weinig. Als ze op computerbase zeggen dat jij van een dak moet springen doe je dat dus zomaar?

Dan is mijn ervaring natuurlijk ook niet zoveel zeggend, als ik de kaart nog had had ik graag het geluid voor je opgenomen van een afstand van 2 meter, ik had dan zelfs mijn vinger 5 seconden lang op de kaart gelegd, en 5 minuten later de blaar getoond (filmpje uiteraard met datum/tijd).

Vervolgens had ik dan een vergelijking kunnen trekken met mijn gtx295, vergeleken met die hd4870 is dat een zwiffer wat geluid aangaat, en ik kan mijn vinger er langer ophouden dan 5 seconden (zit dan wel een backplate op is niet geheel eerlijk :P )

Nogmaals, geen slechte kaart, maar die stock koeler van ati uit was gewoon niet berekend op zijn taak.

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
GTX 295 load:

4870 idle:

4870 load:

De GTX 275 werd overigens ook behoorlijk warm...


(oh en linkje voor heel wat kaarten: http://www.behardware.com...rmal-characteristics.html)

[Voor 9% gewijzigd door Vipeax op 28-10-2010 19:53]


  • spNk
  • Registratie: mei 2007
  • Laatst online: 09-09 10:25
Een 3450 113 graden? Hebben ze de koeler eraf gesloopt?

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
Gurneyhck schreef op donderdag 28 oktober 2010 @ 19:11:
[...]


Kun je wel heel stoer zo'n smiley erbij zetten, maar dat maakt je pleidooi niet sterker. Eerste link die ik aanklik (die ik dus ook gequote heb), temperatuur idle: 75graden C, onder load: 87graden C
Dus frietjemet heeft wel zkr een punt! :F

edit: qua geluid ziet je bewijs er beter uit ;) Maar dat is natuurlijk ook wel een beetje een subjectief iets. Voor de één is geluid harder dan voor de ander...
De kaart wordt in idle abnormaal warm maar dat is geen enkel probleem, de warme lucht wordt toch buiten de kast geblazen en de kaart heeft er niet onder te lijden. Het geluid idle is heel erg weinig omdat de fan niet hard draait en omdat de fan niet hard draait wordt de kaart warm. Ik heb liever een stille kaart dan een lawaaierige kaart, alle anderen punten beschouwing gelaten omdat deze hiervoor niet relevant zijn.

Load wordt de kaart niet warmer dan andere kaarten en het geluid dat hij produceert is meestal lager. Dat Frietjemet een kaart heeft gehad waar dit blijkbaar allemaal niet het geval was is raar. Maar ik zou eerder conclusies verbinden aan de reviews dan aan een individuele gebruiker. Daar de reviewers met keiharde cijfers c.q. feiten komen. Dit betekend trouwens niet dat ik Frietjemet niet geloof of vertrouw.

Ik denk trouwens dat we beter ontopic kunnen gaan, nVidia nieuws met discussie over nVidia spul.

PS alle kaarten die warmer worden dan 75 graden Celsius zouden in theorie een ei op gebakken kunnen worden.

[Voor 3% gewijzigd door madmaxnl op 28-10-2010 22:41]


  • Springstof
  • Registratie: juli 2010
  • Niet online
Hopelijk overtreft de GTX 580 de 6900 serie wat betreft prijs/ performance. :)

  • Indodeze
  • Registratie: februari 2010
  • Laatst online: 19-12-2018
Ik heb zelf een Gigabyte GTX480 maar heb totaal geen last van kabaal van de koeler.
Ik geloof best wel dat als de fan boven de 70% komt , dat de buren gaan klagen over geluidsoverlast ;)
Maar ja , dat zal met vele andere kaarten niet anders zijn (had een HD4890 , maar maakte meer kabaal dan mijn GTX480 nu).
Ik ben blijkbaar 1 van de weinige tevreden met de GTX480 :o

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
Springstof schreef op vrijdag 29 oktober 2010 @ 00:44:
Hopelijk overtreft de GTX 580 de 6900 serie wat betreft prijs/ performance. :)
Hopelijk overtreft de GTX 580 de GTX 480 kaart wat betreft performance/watt & performance/warmte.... zou ik persoonlijk belangrijker vinden.

Surround met 2 GTX 480s (kan immers niet met 1 kaart zoals ik het nu heb met Eyefinity) & 3 schermen is gewoon meer dan 700 watt voor het grafische deel alleen, dat is meer dan mijn totale PC op het moment, vandaar.

--
:F, thanks.

[Voor 27% gewijzigd door Vipeax op 29-10-2010 01:58]


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
@vipeax; dat wordt een lastig verhaal, lees je post nog eens.... ;)
Indodeze schreef op vrijdag 29 oktober 2010 @ 00:54:
Ik ben blijkbaar 1 van de weinige tevreden met de GTX480 :o
Nouja, ik heb wel meerdere keren in forum's gehoord dat het geluidsnivea in de praktijk best meevalt, simpelweg omdat je thuis niet voor de grap constant Furmark aan het draaien bent... Met een beetje gamen zal de fanspeed niet gelijk veel harder draaien dan 60-70% en dan is het nog wel redelijk te doen volgens mij. Stroomverbruik blijft voor sommigen natuurlijk nog wel een issue.
Zag het ook met de GTX280 (OC) die ik zelf heb, idle rond de 40-44 graden en op load (tijdens gamen) komt ie niet echt boven de 75 graden met ~65% fanspeed. Bij een minder intensieve game als MW2 blijven de temps zelf onder de 70 graden met ~60% fanspeed. Daar is trouwens wel enige airflow voor nodig...

[Voor 19% gewijzigd door MW1F op 29-10-2010 01:49]


  • neliz
  • Registratie: oktober 1999
  • Laatst online: 20-08 16:08

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • superwashandje
  • Registratie: februari 2007
  • Laatst online: 11:47

superwashandje

grofheid alom

dus afgezien van de gaten in het PCB dezelfde kaart? ik zie er met mijn leken ogen weinig verschil in. Ook al lijkt de 580 dan wel koeler door de afwezigheid van de gaten en de 4 dikke heatpipes. ziet er dus al wel beter uit! (misschien word het wel een concurrent voor de 5870 :P)

edit: dit is natuurlijk ook een uitnodiging voor de professionals onder ons om ff uit te leggen wat jullie er precies aan zien/uit opmaken :)

[Voor 19% gewijzigd door superwashandje op 29-10-2010 11:28]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 22-09 22:09
Ziet er naar uit dat de GTX580 pin compitable is met de GTX480, of in ieder geval bijna, wat er voor zorgt dat fabrikanten snel met de nieuwe kaart op de markt kunnen komen.
Veder lijkt het erop dat (geziende het aantal geheugen chips) het een 384-bit gehuegen bus betreft, met wederom 1,5GB ram.

Concluisie, dit word de GTX480-512, maar dan met een met hetzelfde stroom verbruik als een GTX480-480, waarschijnlijk ook een beetje hogere clocks en sneller geheugen.

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
superwashandje schreef op vrijdag 29 oktober 2010 @ 09:53:
dus afgezien van de gaten in het PCB dezelfde kaart? ik zie er met mijn leken ogen weinig verschil in. Ook al lijkt de 580 dan wel koeler door de afwezigheid van de gaten en de 4 dikke heatpipes. ziet er dus al wel beter uit! (misschien word het wel een concurrent voor de 5870 :P
Kan net als de eerste Fermis een lager geklokt model zijn.

  • superwashandje
  • Registratie: februari 2007
  • Laatst online: 11:47

superwashandje

grofheid alom

zou kunnen maar lijkt me toch niet want dan gaan de prestaties hard achteruit en ze willen juist boven de 480 uitkomen. Misschien dat de chip wel in zoverre geoptimaliseerd is dat ze nu dus alles kunnen unlocken en dezelfde of hogere snelheden aan kunnen houden met een lager voltage. en door het lagere voltage minder warmteontwikkeling en dus een "mindere" koeling nodig?

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • Helixes
  • Registratie: juni 2010
  • Laatst online: 17:30
Toettoetdaan schreef op vrijdag 29 oktober 2010 @ 10:36:
[...]
Concluisie, dit word de GTX480-512, maar dan met een met hetzelfde stroom verbruik als een GTX480-480, waarschijnlijk ook een beetje hogere clocks en sneller geheugen.
It does not compute.

Aangenomen dat het het zelfde silicium is, dan zullen meer transistors meer stroom gebruiken, net als hogere kloksnelheden, tenzij het voltage naar beneden wordt gehaald (of, theoretisch, de chip koeler draait). Om het zelfde verbruikprofiel aan te houden is er dus naar alle waarschijnlijkheid een nieuwe iteratie van het silicium nodig. En of dat dan toch de GF100 B0 of B1 is (ik weet niet hoe nVidia telt) - of toch een gemodificeerde lay-out is het grote raadsel :)
Full respin en ze beginnen bij één dus GF100 B1.

[Voor 46% gewijzigd door -The_Mask- op 29-10-2010 13:42]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
Blijf wel nieuwschierig wat ze met het aantal texture unit's gaan doen, want met alleen een verhoging van de coreclock/memoryclock en 512 shaders ipv 480 gaan ze geen 20% performance winnen...

Bij de buren trouwens foto's van het koelblok;
- http://nl.hardware.info/n...x-580-koelblok-op-de-foto


[Voor 32% gewijzigd door MW1F op 29-10-2010 14:00]


  • mdcobra
  • Registratie: juli 2002
  • Laatst online: 20-09 16:43
De 580 lijkt dus niet veel sneller dan een 480 te worden, hopelijk wel wat zuiniger.

[Voor 42% gewijzigd door mdcobra op 29-10-2010 14:03]


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
Er is toch nog helemaal geen sluitende info over de wijzigingen in de architectuur? (ROP's/Texture Unit's/enz.)
Nu al concluderen dat de kaart niet veel sneller wordt dan een 480 lijkt me wat te snel... Als blijkt dat hier geen verbeteringen in zitten zal het idd wel flink tegenvallen.
MW1F schreef op vrijdag 29 oktober 2010 @ 14:33:
Er is toch nog helemaal geen sluitende info over de wijzigingen in de architectuur? (ROP's/Texture Unit's/enz.)
Nou dat is toch best wel bekend hoor, zou het topic nog maar even doorlopen en onzin berichten eruit filteren natuurlijk, zoals een 512bit bus...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • mdcobra
  • Registratie: juli 2002
  • Laatst online: 20-09 16:43
Nee dat is waar, maar in grote lijnen wel, zelfde geheugen bandbreedte: zelfde aantal CUDA cores, 1 cluster meer. Wat meer MHz, NVidia kennende zal dat het wel wezen. Even een nieuw "ontwerpje" er doorheen drukken is er niet bij met deze complexe ontwerpen........ even afgaande op Mask zijn overzichtje dan.

  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 22-09 22:09
mdcobra schreef op vrijdag 29 oktober 2010 @ 14:02:
De 580 lijkt dus niet veel sneller dan een 480 te worden, hopelijk wel wat zuiniger.
Hij word niet zuiniger, wel sneller ;)
Nvidia had met de GF100 enorm veel last van stroom lekkage in het silicium, hierdoor steeg het verbruik enorm als ze het voltage iets verhoogde voor meer stabiliteit.

Ze beweren dat ze dit probleem nu opgelost hebben, wat inhoud dat de vernieuwde chip zal worden opgeclockt tot het verbruik van de GTX480, dit i.c.m meer shader, sneller geheugen en misschien nog wat architectuur optimalisaties kan makkelijk in 20% winst resulteren. Kijk ook eens naar het verschil van de HD4870 en HD4890, de HD4890 is een geoptimaliseerde verzie van de HD4870, en dat terwijl de HD4870 al goed was.

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

MW1F schreef op vrijdag 29 oktober 2010 @ 13:59:
Blijf wel nieuwschierig wat ze met het aantal texture unit's gaan doen, want met alleen een verhoging van de coreclock/memoryclock en 512 shaders ipv 480 gaan ze geen 20% performance winnen...
Nee, 17,3333% om precies te zijn. :D

Jammer genoeg zit een beast in de vorm van 768 streamprocessors, 128 TMU's als (supersamplingmonster) en 512 bits mem niet in.

[Voor 15% gewijzigd door edward2 op 29-10-2010 16:36]

Niet op voorraad.


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 19:13
-The_Mask- schreef op vrijdag 29 oktober 2010 @ 14:37:
[...]

Nou dat is toch best wel bekend hoor, zou het topic nog maar even doorlopen en onzin berichten eruit filteren natuurlijk, zoals een 512bit bus...
Volgens mij is daar juist nogal wat onduidelijkheid over. Ik heb mensen zien suggereren dat Nvidia nu alsnog de chip met 120 TMU's uitbrengen die ze in eerste instantie hadden willen maken (GF110). De laatste posts suggereren weer meer enkel een shader cluster unlock en hogere clocks (GF100b). En er zijn idd nog minder waarschijnlijk opties met 512 bits bus. Maar wat het nou wordt.., of heb ik een zeer betrouwbare bron met de te verwachten specs gemist?

anathema


  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 18-08 06:59
windwarrior schreef op donderdag 28 oktober 2010 @ 13:29:
edti: waarom staat in te TS bij zowel de GTX470 als GTX480 een plaatje van de XFX variant, die nooit is uitgekomen?
Omdat die plaatjes de eerste plaatjes waren waarover ik toendertijd beschikking had toen ik de TS in elkaar aan het flansen was ;)
Altijd laten staan wegens eens "een andere look" dan de standaard koelers als het hinderd verander ik ze wel eens ..

Enkel de GTS 450 OEM moet nog bijgevoegd worden in de TS, maar das voor de volgende update (ergens in het weekend ofzo)

PS de mankerende GT 420 (die nog allemaal met vraagtekens ingevuld was) heeft een whopping 2 gig aan DDR3 geheugen met een 128 bit databus :D.

Als zware, niet gamende, photoshopper kan je momenteel niet klagen over een keuzegebrek 8)

Specs


  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
-The_Mask- schreef op vrijdag 29 oktober 2010 @ 14:37:
[...]

Nou dat is toch best wel bekend hoor, zou het topic nog maar even doorlopen en onzin berichten eruit filteren natuurlijk, zoals een 512bit bus...
Nee, dat is het niet, want ook al filter je de 512bit bus eruit (wat ik al gedaan had), dan is het nog niet duidelijk of er iets verandert is in het aantal TU's (los van 4 stuks door het inschakelen van de laatste cluster). Ook heb ik elders gelezen dat er een wijziging zou zitten in de werkwijze van de shaders, dus iets verder geoptimaliseerd. Er zijn gewoon nog teveel onduidelijkheden om hier een sluitend oordeel over te kunnen geven.
Of je mag een link geven naar een betrouwbare bron waar de uiteindelijke specs zijn gegeven en hoeveel sneller deze kaart wordt t.o.v. de GTX480.

EDIT: Laat ik het anders ook zo stellen, als het alleen een toevoeging is van 32 shaders en ~75Hhz hogere coreclock en wat hogere memory, dan ben ik teleurgesteld! :/

[Voor 11% gewijzigd door MW1F op 29-10-2010 19:14]


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 22-09 22:09
MW1F schreef op vrijdag 29 oktober 2010 @ 18:49:
[...]

Nee, dat is het niet, want ook al filter je de 512bit bus eruit (wat ik al gedaan had), dan is het nog niet duidelijk of er iets verandert is in het aantal TU's (los van 4 stuks door het inschakelen van de laatste cluster). Ook heb ik elders gelezen dat er een wijziging zou zitten in de werkwijze van de shaders, dus iets verder geoptimaliseerd. Er zijn gewoon nog teveel onduidelijkheden om hier een sluitend oordeel over te kunnen geven.
Of je mag een link geven naar een betrouwbare bron waar de uiteindelijke specs zijn gegeven en hoeveel sneller deze kaart wordt t.o.v. de GTX480.

EDIT: Laat ik het anders ook zo stellen, als het alleen een toevoeging is van 32 shaders en ~75Hhz hogere coreclock en wat hogere memory, dan ben ik teleurgesteld! :/
Als je die 75 in 200Mhz verandert zit je aardig in de buurt denk ik.

  • anathema
  • Registratie: augustus 2006
  • Laatst online: 19:13
Toettoetdaan schreef op zaterdag 30 oktober 2010 @ 10:28:
[...]

Als je die 75 in 200Mhz verandert zit je aardig in de buurt denk ik.
Ik mag toch niet hopen dat de performance verbeteringen tov de GTX480 voornamelijk gaan komen doordat ze de maximale clockspeed eruit gaan persen. Dat beloof weinig voor de overclockbaarheid die ik wel zwaar vind wegen. De GTX480 gaat simpel van 700 naar 800 Mhz wat al een 14% verbetering is en met nog een beetje meer voltage zit er nog meer in.

Bij een 900 mhz GTX580 zie ik zulke verbeteringen niet gebeuren. Nu lijkt zo'n clockspeed verbetering me ook nogal onwaarschijnlijk, 775 mhz klinkt me wel logisch in de oren, overige architectuur optimalisaties gaan bepalen of dit een succes wordt of teleurstelling..

anathema


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 22-09 22:09
anathema schreef op zaterdag 30 oktober 2010 @ 10:40:
[...]

Ik mag toch niet hopen dat de performance verbeteringen tov de GTX480 voornamelijk gaan komen doordat ze de maximale clockspeed eruit gaan persen. Dat beloof weinig voor de overclockbaarheid die ik wel zwaar vind wegen. De GTX480 gaat simpel van 700 naar 800 Mhz wat al een 14% verbetering is en met nog een beetje meer voltage zit er nog meer in.

Bij een 900 mhz GTX580 zie ik zulke verbeteringen niet gebeuren. Nu lijkt zo'n clockspeed verbetering me ook nogal onwaarschijnlijk, 775 mhz klinkt me wel logisch in de oren, overige architectuur optimalisaties gaan bepalen of dit een succes wordt of teleurstelling..
Tja, de originele GF100 moest 850mHz gaan lopen, maar dat lukte niet binnen het gestelde stroomverbruik.

  • Zeus
  • Registratie: juni 2003
  • Laatst online: 21:36
Hadden jullie deze al gezien? GTX580 scored X13257


Vind het toch wel een indrukwekkende score, zo'n 40% sneller dan een stock GTX480.

Een GTX 480 @ 925/1850/1950 MHz en 260.99 WHQL zit op X12905:


Ook valt er uit de testen, natuurlijk op voorwaarde dat ze genuine zijn, op te merken dat er géén extra standaard TMU's te vinden zijn in de GTX580.

[Voor 24% gewijzigd door Zeus op 30-10-2010 12:41]

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 19:13
Heer Hertog schreef op zaterdag 30 oktober 2010 @ 12:36:
Hadden jullie deze al gezien? GTX580 scored X13257
[afbeelding]

Vind het toch wel een indrukwekkende score, zo'n 40% sneller dan een stock GTX480.
Hm, een GTX480 met 512 shaders op 900 Mhz zou 37% sneller dan een standaard GTX480 zijn als ik het goed bereken. Misschien toch die 900 Mhz core die net genoemd werd voor de GTX580?...

anathema


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

anathema schreef op zaterdag 30 oktober 2010 @ 16:01:
[...]

Hm, een GTX480 met 512 shaders op 900 Mhz zou 37% sneller dan een standaard GTX480 zijn als ik het goed bereken. Misschien toch die 900 Mhz core die net genoemd werd voor de GTX580?...
Ja of de GTX580 is in deze bench flink OC'ed.

Niet op voorraad.


  • Springstof
  • Registratie: juli 2010
  • Niet online
Wat een absurd hoge score. Zou de naamsverandering naar 580 geheel rechtvaardigen en hopelijk wordt het een 6900 serie killer :*)

  • Stefanovic45
  • Registratie: juni 2008
  • Laatst online: 18:33
Een nieuwe naam is volgens mij alleen verantwoord als de architectuur veranderd of als het productieproces veranderd. Volgens mij is van beide geen sprake dus een naamsverandering is niet te rechtvaardigen.

Hyundai Ioniq Electric 28 kWh / 5.4 kWp PV installatie


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
Denk dat dat al niet meer een geldig argument is sinds de 8800GT -> 9800GTX/9800GT :p.

En nee, hopelijk wordt het geen 6900 killer (overigens ook niet andersom), maar eerder erg close en wordt het uitgevochten op prijs.... Vind ik belangrijker, vooral gezien nVidia surround nodig heeft voor 3 schermen en dan hebben we het dus over 800 euro of meer aan gpu kracht & 750 watt of meer aan stroom aan het grafische deel alleen (2x 300 watt + 3x 50 watt voor de monitoren).

  • neliz
  • Registratie: oktober 1999
  • Laatst online: 20-08 16:08

neliz

GIGABYTE Man

StefanvanGelder schreef op zaterdag 30 oktober 2010 @ 17:53:
Een nieuwe naam is volgens mij alleen verantwoord als de architectuur veranderd of als het productieproces veranderd. Volgens mij is van beide geen sprake dus een naamsverandering is niet te rechtvaardigen.
NVIDIA gaat binnen één jaar van 200 naar 500 en de fanboys smullen ervan ;)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
GTX580 heeft geen schijn van kans tegen de HD6900 serie. Als je weet dat de HD6950 z'n +/- 30% sneller is dan de HD5870 dan weet je genoeg. De HD6970 zal z'n +/- 50% sneller zijn dan de HD5870.

  • Springstof
  • Registratie: juli 2010
  • Niet online
madmaxnl schreef op zaterdag 30 oktober 2010 @ 18:35:
De HD6970 zal z'n +/- 50% sneller zijn dan de HD5870.
De 580 wellicht ook. :) Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation. Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te prefereren.

[Voor 4% gewijzigd door Springstof op 30-10-2010 19:13]


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 19:13
neliz schreef op zaterdag 30 oktober 2010 @ 18:34:
[...]


NVIDIA gaat binnen één jaar van 200 naar 500 en de fanboys smullen ervan ;)
Hoezo, wie zou dat nou leuk vinden? Mocht je Nvidia fan zijn dan zie je toch ook wel dat dat nergens over gaat. Veel ATI fans waren ook niet bepaald blij met de HD68xx benaming van Barts.
madmaxnl schreef op zaterdag 30 oktober 2010 @ 18:35:
GTX580 heeft geen schijn van kans tegen de HD6900 serie. Als je weet dat de HD6950 z'n +/- 30% sneller is dan de HD5870 dan weet je genoeg. De HD6970 zal z'n +/- 50% sneller zijn dan de HD5870.
Dat weet je nog niet. Een paar posts boven werd nog 40% sneller dan de GTX480 gesuggereerd. Dat is dus zeker 50% sneller dan de HD5870... Ik kan me zelf ook niet voorstellen dan de GTX580 met enkel een extra shader cluster sneller gaat zijn dan Cayman (900+ mhz wat daar waarschijnlijk noor nodig is, is nogal wat), maar wellicht hebben zog wel een architectuur-optimalisatie om tot die 40% te komen.

anathema


  • SneakyNL
  • Registratie: februari 2008
  • Laatst online: 23-09 16:47
Springstof schreef op zaterdag 30 oktober 2010 @ 19:00:
Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation.
Physx wordt zelfs helemaal niet ondersteund, dus "veel moeite" is een understatement en wat tesselation betreft, ze doen het schijnbaar beter dan met de 5xxx serie, maar met nVidia's methode offer je geen/minder ruimte op de chip op om tesselation te ondersteunen, bovendien heb je in zware tesselation situaties veel meer power beschikbaar.

Dat gezegd hebbende, hardware Physx in (goede) spellen is extreem zeldzaam en zal er niet beter op worden als OpenCl van de grond komt en betere beeldkwaliteit met tesselation heb ik nog niet gezien in die mate dat ik de performance hit zou overwegen en het aan zou zetten.

Al met al gaat het mij gewoon om de snelste kaart in de wat oudere, huidige en toekomstige topgames en dat betekent gewoon rauwe power tegen een leuke prijs. Ondersteuning voor leuke technieken is een verre tweede, tenzij het bruikbaar is in veel oudere en nieuwe spellen zonder al te veel poespas, zoals Eyefinity.

  • Hyperz
  • Registratie: augustus 2009
  • Laatst online: 15-08 09:03
Springstof schreef op zaterdag 30 oktober 2010 @ 19:00:
[...]

De 580 wellicht ook. :) Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation. Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te preferenen.
Hoezo AMD heeft moeite met PhysX? AMD heeft geen PhysX dus ik zie niet in hoe ze er moeite mee zouden hebben. Verder zijn er bitter weinig games die GPU PhysX gebruiken. En het eerste spel waar PhysX ook werkelijk iets nuttigs toevoegt moet nog gemaakt worden (if ever). Nee, het is IMHO nu wel duidelijk dat het een marketing gimmick is die nergens heen gaat en waarschijnlijk gedoemd is in the long run.

Ook heeft AMD niet echt moeite met tesselation in games. In ieder geval niet met HD 68xx. Als de GTX 580 straks even snel is als de HD 69xx dan staan ze er nog slechter voor dan nu want nu hebben ze nog de snelste single GPU kaart. Vergeet niet dat het zéér waarschijnlijk is dat de 69xx goedkoper en zuiniger zal zijn dan de 580. Dus als ze even snel zijn zijn er maar weinig redenen om als consument voor de 580 gaan denk ik :X .

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
Springstof schreef op zaterdag 30 oktober 2010 @ 19:00:
[...]

De 580 wellicht ook. :) Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation. Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te prefereren.
PhysX is niet relevant, lees je eens in op hoe het werkt en hoe het ook zou kunnen. Denk aan Havok en de physics in Crysis. Allemaal door de CPU en je komt niks te kort t.o.v. PhysX.

Tesselation is ook niet alles, want op een gegeven moment heeft meer tesselation geen toegevoegde waarden meer. Want tesselation maakt gewoon meer driehoeken aan aan de hand van de gegeven driehoeken. Hierdoor krijg je mooiere en gelijklopende rondingen etc. Maar op een gegeven moment zijn er al zoveel driehoeken gerenderd dat meer driehoeken geen nut meer hebben. Want je kunt het niet meer onderscheiden. De enige benchmark waarin je duidelijk ziet dat nVidia beter is met zijn tesselation is Heavens. Er is nog geen game die een dergelijke verhouding tussen ATI en nVidia laat zien.

Daarbij komt ook nog eens dat Cayman wellicht eens een verbeterde tesselator krijgt en of een andere methode van tesselation berekenen.




Tel daar bij op dat Cayman ook nog eens een kleinere die size heeft en dus waarschijnlijk goedkoper, zuiniger en stiller is. We zullen het zien he, nog maar een paar weken en dan is het zover.

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
Springstof schreef op zaterdag 30 oktober 2010 @ 19:00:
Daarnaast heeft AMD buitengewoon veel moeite met PhysX.
Als programmeur houd ik van open standaarden en zal dus nooit PhysX promoten, verder heb ik nog geen enkel spel gezien met PhysX waar ik het miste toen ik het niet meer had, dus niet echt.
Springstof schreef op zaterdag 30 oktober 2010 @ 19:00:
Daar naast heeft AMD buitengewoon veel moeite met tesselation.
Als je even in het rode topic kijkt laten de geruchten daar nog betere Tessalation performance zien dan die van de GTX 580, dus dat weten we nog niet.
Springstof schreef op zaterdag 30 oktober 2010 @ 19:00:
Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te prefereren.
Of dus niet, zie boven.

[Voor 6% gewijzigd door Vipeax op 30-10-2010 19:34]


  • Springstof
  • Registratie: juli 2010
  • Niet online
Alles maar draaien, zodat het maar in je/jullie straatje past. Ik had niet anders verwacht, maar dat jij vindt dat PhysX en tesselation niet genoeg meerwaarde hebben is uiteraard een subjectief oordeel en dus is het niet vreemd dat iemand anders daar simpelgezegd anders over denkt :)

[Voor 3% gewijzigd door Springstof op 30-10-2010 19:36]


  • Hyperz
  • Registratie: augustus 2009
  • Laatst online: 15-08 09:03
Je kan natuurlijk ook alles draaien en keren zodat nVidia de beste keuze lijk ;). Maar goed, iedereen heeft zijn eigen mening en voorkeuren, niets mis mee :). Maar als we kijken naar het DirectX 11 marktaandeel van beiden kan ik toch niet anders dan vaststellen dat de verreweg de meeste mensen er zo over denken.

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


  • Springstof
  • Registratie: juli 2010
  • Niet online
Dat kan ook door andere factoren komen, zoals bijvoorbeeld het eerder paraat hebben van directx 11 kaarten en/of lager stroomverbruik.

[Voor 13% gewijzigd door Springstof op 30-10-2010 19:53]


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
Natuurlijk draaien wij alles zodat het in ons straatje past...

Crysis Physics

YouTube: Crysis - Mass Physics

Havok Physics

YouTube: Half-Life 2: Physics Like No Other
YouTube: half life 2 episode 2 bridge collapse scene max settings

Wat is hier nu zo verkeerd aan, alles wat met huidige normalen Physics engines die vooral gebruik maken van CPU kunnen net zoveel als PhysX. Alleen is bij PhysX alles dus danig dat de berekening gewoon onnodig zwaar worden gemaakt. Zoals ik al zei, lees je eens in.

  • Springstof
  • Registratie: juli 2010
  • Niet online
Dat je phisics door je CPU kunt laten berekenen is leuk en aardig, maar in games als Maffia II werkt dat dus niet vloeiend.

  • Hyperz
  • Registratie: augustus 2009
  • Laatst online: 15-08 09:03
Springstof schreef op zaterdag 30 oktober 2010 @ 19:51:
Dat kan ook door andere factoren komen, zoals bijvoorbeeld het eerder paraat hebben van directx 11 kaarten en/of lager stroomverbruik.
Klopt. Maar het feit is dat na de release van de GTX 4xx AMD kaarten over het algemeen een stuk beter verkopen door de hierboven genoemde redenen, ondanks het feit dat op puur performance vlak de nVidia kaarten het iets beter doen dan AMD's 5800 serie.

Dus als ze straks zelf die performance voorsprong ook nog eens kwijtraken (of wie weet, achterstand krijgen) dan denk ik dat de GTX 5xx nog slechter zal verkopen vrees ik. Nuja, de tijd zal het uitwijzen. Ik ben alvast benieuwd naar het resultaat van beiden. :9
Springstof schreef op zaterdag 30 oktober 2010 @ 19:59:
Dat je phisics door je CPU kunt laten berekenen is leuk en aardig, maar in games als Maffia II werkt dat dus niet vloeiend.
Ik denk dat dat precies is wat nVidia wil ;). Als ze Bullet of Havok hadden gebruikt dan was het wél mogelijk. In het geval van Bullet Physics kunnen de GPU (zowel AMD als nV) én CPU zelf tegelijk gebruikt worden.

[Voor 42% gewijzigd door Hyperz op 30-10-2010 20:12]

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:59
Springstof schreef op zaterdag 30 oktober 2010 @ 19:59:
Dat je phisics door je CPU kunt laten berekenen is leuk en aardig, maar in games als Maffia II werkt dat dus niet vloeiend.
Daarom werkt het sinds maart 2009 ook op de GPU en is 't open source....
Version 1.0 of the Havok SDK was unveiled at the Game Developers Conference (GDC) in 2000. The current release, Havok Version 7.1, released in December 2009, is known to work on Microsoft Windows, Xbox and Xbox 360; Nintendo's GameCube and Wii; Sony's PlayStation 2, PlayStation 3, and PlayStation Portable; Linux; and on Mac OS X. Licensees are given access to most of the C/C++ source-code, giving them the freedom to customize the engine's features, or port it to different platforms although some libraries are only provided in binary format.
Is meteen compatible met Consoles en dus vele malen beter.

[Voor 50% gewijzigd door Vipeax op 30-10-2010 20:08]

Springstof schreef op zaterdag 30 oktober 2010 @ 19:59:
Dat je phisics door je CPU kunt laten berekenen is leuk en aardig, maar in games als Maffia II werkt dat dus niet vloeiend.
Omdat nVidia de makers van het spel daarvoor een zak geld gaf. ;) Er zijn best wel benchmarks geweest welke lieten zien dat een normale quadcore CPU beter was in Physics dan een een high-end nVidia videokaart.

[Voor 36% gewijzigd door -The_Mask- op 30-10-2010 20:13]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 19:13
madmaxnl schreef op zaterdag 30 oktober 2010 @ 19:56:

Wat is hier nu zo verkeerd aan, alles wat met huidige normalen Physics engines die vooral gebruik maken van CPU kunnen net zoveel als PhysX. Alleen is bij PhysX alles dus danig dat de berekening gewoon onnodig zwaar worden gemaakt. Zoals ik al zei, lees je eens in.
Ik weet of je hier GPU physics in het algemeen bedoeld, maar het idee daarvan is natuurlijk wel dat de GPU complexere berekeningen uit kan voeren. En dan bedoel ik wel wat anders dan het in 4 stukken uiteen vallen van een watermeloen ;)
De Physx implementatie is niet echt optimaal uiteraard, ook logisch als je bedenkt dat er geen games om PC technieken meer heen gebouwd worden. Ik denk dat OpenCL daar weinig aan zou veranderen. Pas als consoles GPU physics aan kunnen..over 2 jaar misschien :X

anathema


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
anathema schreef op zaterdag 30 oktober 2010 @ 20:13:
[...]

Ik weet of je hier GPU physics in het algemeen bedoeld, maar het idee daarvan is natuurlijk wel dat de GPU complexere berekeningen uit kan voeren. En dan bedoel ik wel wat anders dan het in 4 stukken uiteen vallen van een watermeloen ;)
De Physx implementatie is niet echt optimaal uiteraard, ook logisch als je bedenkt dat er geen games om PC technieken meer heen gebouwd worden. Ik denk dat OpenCL daar weinig aan zou veranderen. Pas als consoles GPU physics aan kunnen..over 2 jaar misschien :X
Inderdaad daar heb je gelijk in, GPU PhysX laten ramen in miljarden stukjes vallen zoals in Mirrors Edge maar dat ziet er echt retarded uit. Maar als het een realistischer aantal stukjes was zou een CPU het dus ook kunnen berekenen en dat is precies wat nVidia niet wil dus die maken de berekeningen te pas en te onpas dusdanig dat het niet kan.

Er is helemaal geen noodzaak voor GPU physics want ze kunnen ook op de CPU dus maakt nVidia de physics zo dat ze alleen nog maar op een GPU kunnen. Met anderen woorden ze komen met een oplossing voor een probleem dat er helemaal niet is, zo zie ik het.

PhysX van nVidia werkt ook op consoles volgens mij maar daar gebruikt (bijna)niemand het want een PS3 heeft een sterke CPU en een Xbox 360 en Wii hebben beiden een ATI GPU. Dat kan dus nog wel eens voor problemen zorgen als ATI alle GPU console designs wint waar het er op dit moment wel naar uit ziet. Aan de anderen kant kan het ook weer vies tegenvallen als nVidia ze wint. Iets dat zei zelf met verlies zullen doen al is het maar om PhysX op die manier indirect populair te maken op de PC.

  • Springstof
  • Registratie: juli 2010
  • Niet online
-The_Mask- schreef op zaterdag 30 oktober 2010 @ 20:12:
[...]

Omdat nVidia de makers van het spel daarvoor een zak geld gaf. ;)
TWIMTBP :P

  • dahakon
  • Registratie: april 2002
  • Laatst online: 06-06 11:58
Laat dat nu exact de reden zijn waarom de Maffia II physics niet goed op een CPU kan draaien. Niet omdat het technisch niet mogelijk is, maar omdat het TWIMTBP totaal zinloos zou maken.

  • Antilles
  • Registratie: oktober 2010
  • Laatst online: 31-10-2010
edit: Laat maar, was niet belangrijk :*)

[Voor 83% gewijzigd door Antilles op 30-10-2010 21:06]


  • Biff
  • Registratie: december 2000
  • Laatst online: 26-02-2018

Biff

waar zijn de visjes

neliz schreef op zaterdag 30 oktober 2010 @ 18:34:
[...]


NVIDIA gaat binnen één jaar van 200 naar 500 en de fanboys smullen ervan ;)
Moet dit nou? :{

En verder heeft de topicstart ook nog wijze woorden over het PhysX verhaal:
Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!

Yeah well. The Dude abides.


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 14-05 21:51
Biff schreef op zaterdag 30 oktober 2010 @ 23:30:
[...]


Moet dit nou? :{

En verder heeft de topicstart ook nog wijze woorden over het PhysX verhaal:

[...]
Springstof kwam er mee dat PhysX een "positief" argument voor de GTX580 is t.o.v. Cayman...

  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 28-07 11:38

Xenomorphh

Soep met Ballen

madmaxnl schreef op zaterdag 30 oktober 2010 @ 20:26:
[...]


Inderdaad daar heb je gelijk in, GPU PhysX laten ramen in miljarden stukjes vallen zoals in Mirrors Edge maar dat ziet er echt retarded uit.
Wat is jou probleem tegen PhysX zelf als ik vragen mag?:) Zag namelijk ook al in een post eerder van je dat PhysX niet relevant IS, maar daar bedoel je denk ik ook vind?;) Ik vind het namelijk iets heel moois, maar de manier waarop stoot mij tegen het been.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • dahakon
  • Registratie: april 2002
  • Laatst online: 06-06 11:58
Xenomorphh schreef op zondag 31 oktober 2010 @ 08:18:
Wat is jou probleem tegen PhysX zelf als ik vragen mag?:) Zag namelijk ook al in een post eerder van je dat PhysX niet relevant IS, maar daar bedoel je denk ik ook vind?;) Ik vind het namelijk iets heel moois, maar de manier waarop stoot mij tegen het been.
Ik denk dat je het verschil moet zien tussen physics and PhysX. Aangezien PhysX voor cpu-gebruik (wanneer er gebruik gemaakt wordt van de GPU-PhysX in een game) met opzet kreupel gemaakt is, kun je stellen dat het niet zo relevant is als bijvoorbeeld physics van Bullet of Havok, die prima draaien op CPU en in sommige gevallen ook al op GPU.

Maar goed, even een 'nieuwtje' om het toch wat meer ontopic te houden.

Nvidia to paper launch GTX580 in a week

"A fully working GF100, a first for Nvidia's desktop Fermi/GF1x0 line, would have 512 shaders and get about a 7% speed increase over GTX480. Another 6% comes from the clock speed, a generous assessment would say bug fixes add a little more. All told, 20% net speed increase over GTX480 isn't out of the question, nor is a pretty decent lowering of power."

Feitenlijk claimt Charlie dat het dus inderdaad gewoon een base layer respin zou zijn, een B1 revisie dus van de GF100, met een nieuwe naam voor investeerders en consumenten.

  • Antilles
  • Registratie: oktober 2010
  • Laatst online: 31-10-2010
Die Charlie toch hé ... wat eigenlijk positief nieuws is laat ie uitschijnen als iets negatiefs. Hun site staat overigens vol met ATI banners ... u begrijpt :*) Paper launch tot daar toe, dat hadden we allemaal wel verwacht denk ik maar de GTX580 is dus wel degelijk een serieuze stap voorwaarts in vergelijking met de 480, naamsverandering is gerechtvaardigd, soon we'll see :*)

Overigens, spijtig dat niemand screenshot heeft genomen van mijn vorige post :*)

[Voor 12% gewijzigd door Antilles op 31-10-2010 10:30]


  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 18:42

Ed_L

Crew Council
Je vergeet dat ik gewoon je post terug kan zien? Onderbouw die stelling maar eens. Wat was je bron?

edit:
anders gezegd: Met een post history van wel 3 stuks heb je nog niet voldoende reputatie opgebouwd om dat soort beweringen van jou zomaar voor waar aan te nemen. Schijnbaar ben je nogal zeker van je zaak. Waar haal jij je info vandaan?

[Voor 55% gewijzigd door Ed_L op 31-10-2010 11:02]


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Wat was 't dan? Ik wil wel mee kunnen discussiëren, blijkbaar was het interessant genoeg voor Ed om erop in te gaan :S

  • Springstof
  • Registratie: juli 2010
  • Niet online
Volgens mij was het iets in de trant van.. Dat de prestaties van de 580 nog beter zouden zijn dan de 40% sneller dan de 480 in 3dmark vantage, die eerder in dit topic is geplaatst en dat de 580 dat voorelkaar gaat krijgen met ongeveer 80% van het stroomverbruik van de 480.

Wat ik overigens wel erg mooi zou vinden, maar wat mij wel vrij stug lijkt en ik ben dus ook wel benieuwd waar het vandaan komt.

[Voor 27% gewijzigd door Springstof op 31-10-2010 11:11]

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee