[Algemeen] nVidia Nieuws Topic - Deel 45 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1
Acties:
  • 3.717 views

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Afbeeldingslocatie: http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/Modbreak.PNG
Veel lees- en discussieerplezier toegewenst! :)
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.

Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft

Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.


GT100 serie

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_G100_3qtr_low75.png
G100
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ?? million
  • Unified shaders: 8
  • Shader Clock: 1400 MHZ
  • ROP's: 4
  • Core Clock: 567 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/s
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • Texture Fill Rate: 4.3 billion/s
  • Comsumption: 35 Watt (max)
  • Power Connectors: none
  • GeForce Boost
  • Enkel OEM

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_120_3qtr_low75.png
GT120
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ??million
  • Unified shaders: 32
  • Shader clock: 1400
  • ROP's: 8
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 16.0 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512 MB
  • Texture Fill Rate: 8.8 billion/s
  • OpenGL: 3.0
  • Sli: Dual-SLI
  • Comsumption: 50 Watt (max)
  • Power Connectors: none
  • Enkel OEM


9400 en 9500

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9400_GT_3qtr_med125.png
9400 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 08/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 16
  • Shader clock: 1350 MHz
  • Texture units:8
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 400/800 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 12.8 GB/sec
  • Memory Interface: 128 bit
  • Memory:256/512/1024 MB
  • Consumption: 50 watt

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9500_GT_3qtr_med125.png
9500 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 32
  • Shader clock: 1400 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 500/800 MHz (GDDR2/GDDR3)
  • Memory Bandwidth: 14.4/28.8 GB/sec (GDDR2/GDDR3)
  • Memory Interface: 128 bit
  • Memory: 256 MB/512MB/1024 MB (GDDR2/GDDR3/GDDR3)
  • Consumption: 50 watt
  • 2way SLI support


GS varianten

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_130_3qtr_low75.png
GT130
  • GPU: G94b (55nm)
  • Release Date: 10/04/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 48
  • Shader clock: 1250
  • ROP's: 16
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 24 GB/sec
  • Memory Interface: 192 bit
  • Memory: 768 MB
  • Texture Fill Rate: 12.0 billion/s
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 75 Watt (max)
  • Power Connectors: none
  • Enkel OEM

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9600_GSO_3qtr_med125.png
8800 GS / 9600GSO
  • GPU: G92
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 96
  • Shader Clock: 1375 MHZ
  • ROP's: 12
  • Core Clock: 550 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 38.4 GB/s
  • Memory Interface: 192 bit
  • Memory: 384/768 MB
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 105 Watt (max)
  • Power Connectors: 1x 6-pin


8800GT en 9800 GT

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9600_GSO_3qtr_med125.png
9600GSO 512 MB
  • GPU: G94
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 505 million
  • Unified shaders: 48
  • Shader Clock: 1625 MHZ
  • ROP's: ??
  • Core Clock: 650 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 45.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 105 Watt (max)
  • Power Connectors: 1x 6-pin

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/020369.jpg
9600 GT
  • GPU: G94
  • Release Date: 02/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 64
  • shader clock: 1500/1625 MHz
  • Texture units: 32
  • ROP's: 16
  • Core Clock: 600/650 MHz
  • Memory Clock: 900 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 57.6 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 (256/1024 )MB
  • Voltage: 1.0/1.1 Vcore
  • geen extra stroomconnector nodig


8800GT en 9800 GT

Afbeeldingslocatie: http://www.hardware.info/images/articles/teasers/001243.jpg
8800 GT
  • GPU: G92
  • Release Date: 10/2007
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader Clock: 1500 MHz
  • ROP's: 16
  • Core Clock: 600 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 44.8/57.6 GB/sec (256MB/512,1024MB)
  • Memory Interface: 256 bit
  • Memory: 256,512,1024 MB

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GT_3qtr_low75.png
9800 GT
  • GPU: Sommige 55nm(G95b), velen oude 8800's(G92a)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112(a)/128(b)
  • Shader clock: 1375/1500 MHz
  • Texture units: 56(a)/64(b)
  • ROP's: 16
  • Core Clock: 550/600 MHz
  • Memory Clock: 900 (GDDR3)
  • Memory Bandwidth: 57.6 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024 MB (GDDR3)
  • Consumption: 105(a) 125 (b)watt
  • 2way SLI support (ASUSTek tri)
  • Geen aparte stroomconnector nodig


GeForce 8800GTS 512MB en 9800GTX

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/002559.jpg
8800 GTS 512MB
  • GPU: G92
  • Release Date: 12/2007
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1625
  • ROP's: 16
  • Core Clock: 650 MHz
  • Memory Clock: 970 MHz (GDDR3)
  • Memory Bandwidth: 64 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB

Afbeeldingslocatie: http://www.hardware.info/images/news/teasers/011155.jpg
9800 GTX
  • GPU: G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Texture Fill Rate:43.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 140 Watt (max)
  • Power Connectors: 2x 6-pin


9800 serie

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GTX_3qtr_low75.png
9800 GTX+
  • GPU: G92 (55nm)
  • Release Date: 07/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Shader Clock: 1836 MHz
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Consumption: 145 watt
  • 2-3 way SLI support

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS150
  • GPU: G92b (55nm)
  • aka GTS250 Slow, 9800GTX+
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 740 MHz
  • Memory Clock: 1000 (GDDR3)
  • Memory Bandwidth: 64 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB (GDDR3)
  • Texture Fill Rate: 47.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 141 Watt (max)
  • Power Connectors: 2x 6-pin
  • Enkel OEM


9800 serie

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS 250
  • GPU: G92a/b (65/55nm)
  • Release Date: 03/03/2009
  • Interface: PCI-E x16 2.0
  • Transistors: +/- 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1100MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024/2018 MB (GDDR3)
  • Texture units: 64
  • Texture Fill Rate: 47.2 (billion/sec)
  • OpenGL: 3.0
  • SLI: 2-way/3-way SLI
  • Consumption: 112 watt (max) officieel 150
  • Power Connectors: 1x 6-pin
Waarom?
  • Kleinere PCB, past dus handiger in de Case
  • Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
  • Veel lagere prijs ;)

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/020360.jpg
9800 Gx2
  • GPU: 2x G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 2X 754 million
  • Unified shaders: 2x 128
  • Shader clock: 1500 MHz
  • ROP's: 2x 16
  • Core Clock: 600 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Memory Bandwidth: 128 GB/sec
  • Memory Interface: 512 bit (2x 256 bit)
  • Memory: 1024 MB (2x 512MB)
  • Texture units: 2x 64
  • Texture Fill Rate: 79.8 (billion/sec)
  • OpenGL: 2.1
  • SLI: Quad SLI
  • Consumption: 197 watt (max)
  • Power Connectors: 1x 6-pin,1x 8-pin

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

G 210 en GT 220 (eindelijk directX10.1)

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce 210/310
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1


GTS 240 en GT 240 (Eindelijk GDDR5 :+)

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_240_med_3qtr125.PNG
GeForce GT 240
  • GPU: GT215 (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 727 million
  • Unified shaders: 96
  • Shader clock: 1340 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
  • Memory Bandwidth: 28.8 32 54.4 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512/1024 MB
  • OpenGL: 3.2
  • Consumption: idle 9 - max 69 (40 gemeten) watt
  • Power Connectors: geen
  • DirectX: 10.1

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_240_med_3qtr125.png
GeForce GTS 240
  • GPU: ?? (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ?? million
  • Unified shaders: 112
  • Shader clock: 1620 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • OpenGL: 3.2
  • Consumption: 120 watt (max)
  • Power Connectors: 9-pin pci-e
  • Enkel OEM
  • Sli: 2-way
  • DirectX: "compute"

GT 200 (oldies :p)

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

Afbeeldingslocatie: http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

Afbeeldingslocatie: http://images.hardware.info/products/mini_thumbs/051448.jpg
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/Fermi3.PNG

Low End


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT???
  • GPU: GF108
  • Release Date: Q2? 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 32
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:OEM/Dell only(indien 32)?


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT????
  • GPU: GF106
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 128
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:low end

Toekomstige kaarten


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTS 430
  • GPU: GF104
  • Release Date: Q2 2010 Uitgesteld naar Q3?
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:192
  • Shader clock: 1200 MHz
  • ROP's: 24
  • Core Clock: 580 tot 1160(hot clock) Mhz
  • Memory Clock: 720Mhz (GDDR5)
  • Memory Bandwidth: 69,120 GB/s
  • Memory Interface: 192 bit
  • Memory: 384?/768?/1536? MB
  • Texture Units: 48
  • Consumption: ??
  • Prijs: 130-150 euro


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTS 440
  • GPU: GF104
  • Release Date: Q2 2010 Uitgesteld naar Q3?
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:256
  • Shader clock: 1200 MHz
  • ROP's: 32
  • Core Clock: 580 tot 1160(hot clock) Mhz
  • Memory Clock: 720Mhz (GDDR5)
  • Memory Bandwidth: 92,160 GB/s
  • Memory Interface: 256 bit
  • Memory: 256?/512?/1024? MB
  • Texture Units: 64
  • Consumption: ??
  • Prijs: 160-180 euro

Toekomstige kaarten


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTS 450
  • GPU: GF104
  • Release Date: Q2 2010 Uitgesteld naar Q3?
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:256
  • Shader clock: 1500 MHz
  • ROP's: 32
  • Core Clock: 725 tot 1450(hot clock) Mhz
  • Memory Clock: 900Mhz (GDDR5)
  • Memory Bandwidth: 115,200 GB/s
  • Memory Interface: 256 bit
  • Memory: 512?/1024?/2048? MB
  • Texture Units: 64
  • Consumption: ??
  • Prijs: 200-230 euro


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT???
  • GPU: GF102
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 384
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:High Mid-end


Tesla


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG

Tesla G
  • GPU: GT212
  • Release Date: Q2 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 496
  • MIMD Architectuur
  • Shader clock: 1600 Mhz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: weten we (GDDR5)
  • Memory Bandwidth: 4.4 TB/sec (GDDR5)
  • Memory Interface: 396 bit
  • Memory: 4096 MB (GDDR5)
  • Consumption:maximaal 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


GTX4xx


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GTX470.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt
  • Prijs: 349$


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GTX480.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt
  • Prijs: 499$

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Interview met Nvidia’s Senior PR Manager of Consumer Products, Bryan Del Rizzo
Tech Reaction: PAX East: Interview with Nvidia’s Bryan Del Rizzo on the GTX400 series (Updated)

Minder goed, maar te verwachten, nieuws van de chipset afdeling van nVidia:
nVidia en Intel komen niet echt goed meer overeen

Echter heeft nVidia een bondgenoot gevonden in het FTC die dezelfde aanklachten heeft overgenomen. Waardoor nVidia als het ware het FTC de juridische strijd kan laten voeren.Het enige nadeel dat er is, zelf al wint het FTC/nVidia op al hun punten is de datum van het proces: Deze komt eigenlijk veel te laat. En voor een schadevergoeding zal nVidia wellicht een apart proces moeten beginnen (zoals AMD ook geen geld heeft ontvangen van Intel daar de boete integraal naar de EU-kas ging)

Vorige nieuwsberichten kan je natuurlijk altijd vinden in het vorige topic ;)
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

Zal nVidia eindelijk zijn mid-end dx11 kaarten releasen deze zomer?
Tech Report:Cheaper DX11 GeForces could be out this summer
Uitstel van de GF 104 van Q2 naar Q3?
Meer informatie over deze goedkopere kaarten(alle GF104 varianten):
Nieuws: Specificaties van Nvidia's GF104-chip duiken op
Tech Report: Details about first GF100 derivatives leak out

Zal nVidia op 20 september Fermi2 voorstellen?
Tech Report: Nvidia sets date for next GPU Technology Conference

Waarheidsfactor: 35%

nVidia stapt uit de pc-gaming sector
De ontwikkeling van high-end GPU's wordt duurder en duurder en aan de andere kant minder lucratief daar goedkope varianten (de igps's) dus niet meer mogelijk zijn. Daar nVidia de enige grote speler is zonder x-86 licentie waar de andere twee speler Intel en het ([sarcasm]ooh zo open [/sarcasm]) AMD geen licenties meer verlenen voor nieuwe chipsets voor hun cpu's. Hierdoor wordt het gerucht sterker en sterker dat nVidia zich nog enkel zal richten op professionele hardware (dit krijgt nu al officieel de voorrang) en multimedia hardware zoals de Tegra. (zie het andere topic)
Link naar een nl website, van een mede-tweaker die nog aan het TS hier heeft meegeholpen, die het verhaal stukken beter kan uitleggen dan ik:
Notebookspot.nl: Nvidia verlegt focus van GPU naar CPU
Voor Tegra worden de laatste tijd meer en meer potentiele markten aangeboord:
De relatie tussen nVidia en Intel nog eens mooi voorgesteld door nVidia

Waarheidsfactor:45%
Afbeeldingslocatie: http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews van de GeForce GTX 470
Tweaktown
Tweaktown: GTX 470 Overklokken
Guru 3D
FiringSquad
Tom's Hardware
Hard OCP
Anandtech
HardwareCanucks
PC Perspective
Hexus.net

Reviews van de GeForce GTX 480
Tweakers zelf!
Hot HardWare
HardwareHeaven formerly driverHeaven
Legit Reviews: Met Folding Performance!
Hardware.info
Tom's Hardware
Hard OCP: Met GTX 480 SLI
Anandtech
PC Perspective
Legion Hardware
HardwareCanucks
Techspot
ExtremeTech
Hexus.net
Hexus.net GTX 480 SLI

Vorige Topics:Pricewatch
GeForce 9 serie in de Pricewatch
GeForce 200 serie in de Pricewatch
GeForce Qaudro in de Pricewatch


Startpost: Jejking & biobak & RappieRappie
Afbeeldingslocatie: http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

Specs


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Afbeeldingslocatie: http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(14oktober 2009) zijn er nieuwe beta drivers uit die recenter zijn dan de WHQL's maar die enkel bug fixes voor hardware Flash support en nieuwe SLI profielen bevatten.
Windows OS:Alternatieve OS:(momenteel is deze gelijk aan de WHQL)De allerlaatste Beta client kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties)

nVidia BETA drivers voor Mobile GPU's
Windows OS:
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.


De belangrijkste features van de G80 zijn:
  • Unified shaders
  • DirectX 10 ondersteuning
  • OpenGL 2.0 ondersteuning
  • Nieuwe AA modes CSAA, 8Q, 16Q
  • 128 bit HDR ondersteuning in combinatie met AA
  • 16x hoekonafhankelijke AF
  • Ondersteuning voor GPU Physics
  • Shader Model 4
  • Purevideo (HD)
  • SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:

8 serie

8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
  • GPU: G86M
  • Announce Date: 09/05/2007
  • Interface: PCI-E x16
  • Consumption: 11(GS)-14(GT) Watt
  • Transistors: 210 million


Geforce 8400M G GeForce 8400M GS GeForce 8400M GT
Stream-Processors 8 16 16
Core Clock (MHz) 400 400 450
Shader Clock (MHz) 800 800 900
Memory Clock (MHz) 600 600 600
Maximum Memory 256MB 256MB 512MB
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 9.6 9.6 19.2
Texture Fill Rate (billion/sec) 3.2 3.2 3.6




8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
  • GPU: G84M
  • Announce Date: 09/06/2007
  • Interface: PCI-E x16
  • Consumption: 20 Watt
  • Transistors: 289 million


GeForce 8600M GS GeForce8 600M GT
Stream-Processors 16 32
Core Clock (MHz) 600 475
Shader Clock (MHz) 1200 950
Memory Clock (MHz) 700 700
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 12.8/22.4 (DDR2/GDDR3) 12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec) 4.8 7.6



8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont :'))
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
  • GPU: G84M/G84GLM(quadro fx 1600M)
  • Announce Date: 12/06/2007
  • Interface: PCI-E x16
  • Consumption: 29 /50Qqaudro) Watt
  • Transistors: 289 million


GeForce 8700M GT Qaudro fx 1600M
Stream-Processors 32 32
Core Clock (MHz) 625 625
Shader Clock (MHz) 1250 1250
Memory Clock (MHz) 800 800
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 25.6 (GDDR3) 25.6 (GDDR3)
Texture Fill Rate (billion/sec) 10 10



8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
  • GPU: G92M (65 nm)
  • Announce Date: 19/11/2007
  • Interface: PCI-E x16
  • Consumption: 35 /37 Watt
  • Transistors: 754 million


GeForce 8800M GTS Qaudro FX 3600M GeForce 8800M GTX
Stream-Processors 64 (64 of) 96 96
Core Clock (MHz) 500 500 500
Shader Clock (MHz) 1250 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 512MB 512MB 512MB
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 (GDDR3) 51.2 (GDDR3) 51.2 (GDDR3)
Texture Fill Rate (billion/sec) 16 16 24



Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)

Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
  • Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
  • Volledige DirectX 10.0 en OpenGL 2 compatibileit,
  • Mogelijkheid tot 16X antialiasing
  • Full HD DVD / Blu-ray hardware decodering.

9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M



9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 03/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Core Speed: 550 MHz
  • Shader Speed: 1300 MHz
  • Memory Speed: 700 MHz
  • Memory Bus Width 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB



9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 04/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 400 MHz
  • Shader Clock: 800 MHz
  • Memory Clock: 600MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB


9500M Serie

9500M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
  • GPU: NB9P
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 500 MHz
  • Shader Clock: 1250 MHz
  • Memory Clock: 800 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 1024 MB

9500M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
  • GPU: G84-50
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 32
  • Core Speed: 475 MHz
  • Shader Clock: 950 MHz
  • Memory Clock: 700 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 512 MB



9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)

Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet ;)
  • GPU: NB9P (65nm)
  • Announce Date: 3/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ???/29 Watt (9650M GS)
  • Transistors: ??? million


GeForce 9600M GS GeForce 9600M GT GeForce 9650M GS
Stream-Processors 32 32 32
Core Clock (MHz) 430 500 625
Shader Clock (MHz) 1075 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024MB (GDDR2/GDDR3) 1024MB (GDDR2/GDDR3) 512MB (GDDR2?/GDDR3)
Memory Interface 128-bit 128-bit 128-bit
Memory Bandwidth (GB/sec) (GDDR3) 25.6 25.6
Texture Fill Rate (billion/sec) 10



9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
  • De nieuwe PureVideo HD video processor (VP3)
  • HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
  • ondersteunt CUDA enabled programma's
  • NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.


9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant

Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.



GeForce 9700M GT GeForce 9700M GTS
Core G96(NB9P) G94(NB9E-GTS)
Consumptie (Watt) 45 60
Stream-Processors 32 48
Core Clock (MHz) 625 530
Shader Clock (MHz) 1550 1325
Memory Clock (MHz) 800 800
Maximum Memory 512 (GDDR2/GDDR3) 512 (GDDR3)
Memory Interface 128-bit 256-bit
Memory Bandwidth (GB/sec) 25.6 51.2
Texture Fill Rate (billion/sec) 10.0 12.7



9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.

Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid


GeForce 9800M GS GeForce 9800M GT GeForce 9850M GS
Core G94(NB9E-GT) G94(NB9E-GTS) G92(NB9E-GTX)
Consumptie (Watt) 75 65 75
Stream-Processors 64 96 112
Core Clock (MHz) 600 500 500
Shader Clock (MHz) 1500 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024(GDDR3) 512MB (GDDR3) 512MB (GDDR3)
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2 51.2
Texture Fill Rate (billion/sec) 19.2 24.0 28.0



GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? :() zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).

GeForce GTX260M GeForce GTX280M
Core G92(??) G92(??)
Consumptie (Watt) ?? ??
Stream-Processors 112 128
Core Clock (MHz) 550 585
Shader Clock (MHz) 1375 1463
Memory Clock (MHz) 950 950
Maximum Memory 1024MB(GDDR3) 1024MB (GDDR3)
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 60.8 60.8
Texture Fill Rate (billion/sec) 31 38
MxM MXM 3.0 Type-B MXM 3.0 Type-B
DirectX 10.0 10.0


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/G100IconC2.PNG

Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze reeks startte met de low bugdet kaarten GeForce G105M totaan de GeForce GT120M en de GeForce GT130M.
Enkel de GeForce GT 130M werd zeker geproduceerd op het 55nm proces. De andere Budgetkaartjes werden nog steeds geproduceerd op het vertrouwde 65nm fabricatie proces. Sowieso verbruiken die eigenlijk zo weinig dat een conversie naar 55 nm niet echt heel veel zou opgeleverd hebben toen.
Alle toen (begin 2009) geïntroduceerde kaarten ondersteunden DDR2 en GDDR3.
Let op deze kaarten zijn in essentie "rebrands" daar deze 3 kaarten gewoon gebruik maken van de G92core of een doorontwikkeling hiervan. Pas bij GT200 reeks hebben we (eindelijk) een echte nieuwe reeks. Deze kaarten heb ik na veel twijfelen (6 keer van gedachte veranderd) toch apart geplaats omdat ze toch als een nieuwe reeks gepromoot en genamed werden.
Mainstream: GeForce G102M, GeForce G105M en de GeForce G110M
Deze kaarten zijn de directe opvolgers van de Geforce 9200M totaan de 9400M kaarten en werden in januarie 2009 geïntroduceerd. Technisch gezien hebben beide kaarten vermoedelijk dezelfde unieke core namelijk de N10M-GE1 welke op het toen nieuwe 65nm proces werd gefabriceerd.
Hier staat spijtig genoeg nadrukkelijk "mogelijk" daar de GeForce G 102M niet eens vermeld wordt op wikipedia en vermoedelijk OEM only is (Officiele drivers ondersteunen deze kaart niet waardoor laptopgebruikers terug moeten grijpen naar gemodde .inf betanden vanop laptopvideo2go) Vermoedelijk echter is dit gewoon een nog tragere variant van dezelfde core.
  • PhysX
  • Ondersteunen 2-way SLI
  • PureVideo HD
  • Hybrid SLI ondersteuning
  • nView Multi-Display Technology
  • Powermize Intelligent Power Management (8.0)

Geforce G102M GeForce G110M GeForce GT130M
Core ??
Consumptie (Watt) ?? 14 14
Stream-Processors1 16:?:? 8:4:4 16:8:4
Core Clock (MHz) ??? ?? ??
Shader Clock (MHz) 1000 1600 1500
Memory Clock (MHz) 400(DDR2) 500(DDR2)/700(GDDR3) 500 (DDR2)/800 (GDDR3)
Maximum Memory tot 512MB tot 1024MB (GDDR3) 512MB (GDDR3)
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 6.4(DDR2) 8(DDR2)/11(GDDR3) 16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec) ?? ?? ??
Bus Support PCI-E 1.0 PCI-E 2.0 PCI-E 2.0
DirectX 10.0 10.010.0

1Unified Shaders (Vertex shader / Geometry shader / Pixel shader) : Texture mapping units : Render Output units

High Performance: GeForce GTS 150M en GeForce GTS 160M
Deze kaarten zijn de directe opvolgers van de Geforce 9700M totaan de Geforce 9800M GTS kaarten en werden op 3 maart 2009 geïntroduceerd. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT94b welke op het toen nieuwe 55nm proces werd gefabriceerd. Dit is dus hetzelfde fabrieks proces als de die shrink van de Geforce GTX 2xx desktopserie.
Eigenlijk is de G94b core niets anders dan een doorontwikkeling van de ons goed bekende G92 core.
Ze ondersteunen dezelfde eigenschappen als de G210M buiten de volgende eigenschappen:
  • PhysX
  • Ondersteunen 2-way SLI
  • PureVideo HD
  • Hybrid SLI ondersteuning
  • nView Multi-Display Technology
  • Powermize Intelligent Power Management (8.0)

GeForce GTS 150M GeForce GTS 160M
Core G94b G94b
Consumptie (Watt) 40 (volgens Pc Perspective 60
Shaders1 64:32:16 64:32:16
Core Clock (MHz) ?? 600
Shader Clock (MHz) 1000 1500
Memory Clock (MHz) GDDR3800 800
Maximum Memory 1024MB 1024MB
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2
Texture Fill Rate (billion/sec) 13.0 19.0
DirectX 10.0 10.0
MxM MXM 3.0 Type-B MXM 3.0 Type-B


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

Deze reeks van mobiele kaarten werd gelanceerd op 3 maart 2009 met 2 gpu's die eigenlijk gebaseerd waren op de al reeds overbekende G92b cor. De "echte" G2xxM Mobiele GPU's werden echter pas op 15 Juni Geïntroduceerd dit zijn kaarten die zijn gebaseerd op de GT215 tot GT218 cores. Echter enkel de GTS kaarten (GT215 core) supporten GDDR5 (yeah nVidia kaarten met GDDR5 support bestonden al degelijk vanaf zomer 2009).
Deze reeks van kaarten wordt voornamelijk gepromoot dat ze tot 50% zuiniger zijn da vorige generatie en volledig geoptimaliseerd zijn voor Windows 7 (DirectX 10.1 support).

Mainstream: GeForce G210M
Deze kaarten zijn de directe opvolgers van de G102M tot G110M, 9200M totaan 9400M en 8400M Geforce kaarten. Technisch gezien is het een unieke core de GT218 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen de volgende eigenschappen:
  • DPureVideo HD 1080P technologie
  • HybridPower support (schakelt de tweede GPU aan indien je de laptop aan het electriciteitsnet hangt en af indien je hem er weer van af haalt, niet langer manueel of afhankelijk van gpu gebruik/energy profile van MS zoals bij de desktop varianten van Hybrid sli)
  • GeForceBoost technologie (totaan 80% meer aan performantie door gebruik te maken van 2 GPU's)
  • ondersteunt CUDA enabled programma's << CoreAVC playback!
  • Powermize Intelligent Power Management
De technische specifcaties zijn als volgende:
  • Core: GT218
  • Announce Date: 15/06/2009
  • Interface: PCI-E2.0 x16
  • Consumption: 14 Watt
  • Transistors: ?? million
  • Unified shaders: 16/8/4
  • Core Speed: 625 MHz
  • Shader Clock: 1500 MHz
  • Memory Clock: 500(DDR2)/800 ((G)DDR3) MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Memory Bandwidth (GB/sec): 8 (DDR2)/12.8((G)DDR3)
  • Max. Amount of Memory: 1024 MB
  • DirectX: 10.1

Performance: GeForce GT 230M en GeForce GT 240M
Deze kaarten zijn de directe opvolgers van de G130M, en hierdoor opvolgers van de 9500M totaan 9650M en de 8600M Geforce kaarten. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT216 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen dezelfde eigenschappen als de G210M buiten de volgende eigenschappen:
  • GeForceBoost technologie lijkt niet aanwezig te zijn
  • Powermize Intelligent Power Management wordt ook niet vermeld als feature

GeForce GT 230M GeForce GT 240M
Core GT216 GT216
Consumptie (Watt) 23 23
Shaders1 48:16:8 48:16:8
Core Clock (MHz) 500 550
Shader Clock (MHz) 1100 1210
Memory Clock (MHz) DDR2 600 600
Memory Clock (MHz) DDR3 800 800
Memory Clock (MHz) GDDR31066 1066
Maximum Memory 1024MB 1024MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 16/25.6/34.1 16/25.6/34.1
DirectX 10.1 10.1

1Unified Shaders (Vertex shader / Geometry shader / Pixel shader) : Texture mapping units : Render Output units

High Performance: GeForce G250M en GeForce G260M
Deze kaarten zijn de directe opvolgers van de GTS150M, GTS160M en hierdoor opvolgers van de 9800M totaan 9700M Geforce kaarten. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT215 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen dezelfde eigenschappen als de G210M:
Deze kaarten ondersteunen expliciet GeForceBoost technologie (waar het bij de G230M en de G240M niet als een feature vermeld staat) en ondersteunen ook PhysX (de vorige mobiele kaartjes worden hiervoor tegenwoordig door nVidia behandeld als te zwak)
  • GeForceBoost technologie is officieel aanwezig
  • Gericht op performantie en kan PhysX aan.

GeForce GTS 250M GeForce GTS 260M
Core GT216 GT216
Consumptie (Watt) 23 23
Shaders1 96:32:16 96:32:16
Core Clock (MHz) 500 550
Shader Clock (MHz) 1250 1350
Memory Clock (MHz) 1600(wiki) tot 2000 (officieel) 1800(wiki) totaan 2000 (officieel)
Maximum Memory 1024MB 1024MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 51.2(tot 64?) 57.6 (tot64?)
SLi 2-way support Ja Ja
DirectX 10.1 10.1
MxM MXM 3.0 Type-B MXM 3.0 Type-B

Enthusiast: GeForce GTX 260M en GeForce GTX 280M
Deze kaarten zijn al in maart 2009 gelanceerd en hebben nog de "oude" G92b core in zich waardoor ze gewoon in het G92 onderdeel (helemaal vanonder) staan in mijn qualificatie, logischerwijze horen ze dus nog "gewoon" bij de oude series qua technologie/features hoewel ze nog steeds dé high end zijn van mobiele grafische kaarten.

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG


Afbeeldingslocatie: http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

Specs


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Afbeeldingslocatie: http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG
quote: nVidia website
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.

Meer uitleg kan je vinden op de volgende links:Enkele programma's waar CUDA al wordt in gebruikt:
  • Folding @Home
  • Grafische pakketten zoals photoshop
  • CoreAVC: Decoderen van x264 bestanden
  • MotionDSP's vReveal: Tech Report, [url=CUDA: http://www.anandtech.com/video/showdoc.aspx?i=3539&p=14]AnandTech[/url]
  • ...
Ambient Oclusion:
Meer uitleg hierover kan je vinden op:
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG

Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen.
Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm.
let op:
  • Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
  • 2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
    2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
    Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)

3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard :p
Hoe werkt het?

Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/SettingHybridPower.PNG

En dan in het bios kruipen om een paar settings aan te passen.

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/BiosSettingsHybridPower.PNG

Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/IconHybridPower.PNG

Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten ;)

Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/ModesHybridPower.PNG

Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.

CPU FabrikantGeForce Boost Technology HybridPower Technology
AMD
GeForce 8300 X X
GeForce 8200 X X
GeForce 8100 X X
nForce 780a SLI X X
nForce 750a SLI X X
nForce 730a X X
nForce 720a X X
Intel
GeForce 9400 X
GeForce 9300 X
nForce 730i X


GeForce Boost Technology HybridPower Technology
GeForce GTX 280 X
GeForce 9800 GX2 X
GeForce GTX 260 X
GeForce 9800 GTX+ X
GeForce 9800 GTX X
GeForce 9800 GT Sommigen
GeForce 8500 GT X
GeForce 8400 GS X


Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG

nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )
Afbeeldingslocatie: http://www.techarp.com/editorials/img/0823_PhysX_03.png
of de volgende FP: nieuws: Meerdere Nvidia-kaarten ontlasten cpu aanzienlijk bij Physx-benchmarks

Zie ook voor meer uitleg
Guru3D Review (augustus-2008)
Tweaktown
Firingsquad
Hot Hardware
AMD's Antwoord op PhysX

Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
Anandtech
Games:
Sacred 2:
Tom's Hardware
AnandTech
Warmonger:
AnandTech
UT3 PhysX Mod Pack:
AnandTech
Mirror's Edge:
AnandTech
Batman Arkham:(finally a good game ? :p)
Onze eigen Tweakers FP

How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.
Afbeeldingslocatie: http://www.pcper.com/images/reviews/630/rel180-5.jpg

Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.

Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden).
Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
*update 7 oktober 2009*
Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf!

Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang ;)
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
Afbeeldingslocatie: http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG

Afbeeldingslocatie: http://www.nvidia.com/docs/CP/11033/purevideo_header.jpg

Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum


Afbeeldingslocatie: http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

TODO:
Mobiele laptop::Ik ben er eindelijk aan begonnen
nieuwe VP4 engine

Specs


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024

GTX 470 en 480 release:

Korte Samenvatting
• (TE) DUUR
• (TE) HEET
• (TE) LUID

ATI is beter in termen van Bang for Bucks
(Hoe men dit kan weten voordat zelf de eerste nVidia kaarten verkocht zijn en de prijzen gestabiliseerd? Mijn kristallen bol is blijkbaar van slechte (nVidia :p) kwaliteit en is oververhit geraakt, wanneer dit blijkbaar bij de rest niet is gebeurd.
Maar bon het te duur statement is vooral gebaseerd op de huidige prijzen van de ATI/AMD kaarten (die dus nog kunnen zakken éénmaal er meer kaarten op de markt komen, al zijn het enkel bijkomende nVidia kaarten..) en de richtprijzen van de nVidia partners (die zowel kunnen stijgen als dalen) Vooral de europese prijzen lijken momenteel in verhouding duurder dan de amerikaanse.. is dit een teken dat men hier minder kaarten gaat leveren?

Mensen die hiernaast (durven? of willen) kijken zien wel een paar positieve zaken.
• Namelijk GPGPU applicaties hebben een enorme performantie gain gekregen
Zelf ondanks de grote power drain van de GTX 480 is hij stukken efficiënter op vlak van energie consumptie/verwerkingskracht. Een goed voorbeeld hiervan is Folding@Home
(dit kan voor sommige mensen zoals ik ook intressant wezen, momenteel werkt voor een filter geschreven voor de geForce FX kaarten lopend op een 8200(10-tal Watt0 even snel of sneller dan een overclocked Quadcore(PhenomII geen i7 :P)(140 Watt)
Beeld je in dat deze filters eindelijk gaan herschreven worden naar de huidige architectuur toe, of nog beter in CUDA zelf..
• Sli doet het blijbaar qua schaling en op een beperkte test nog steeds beter dan Crossfire Linkje naar Hard OCP of Hexus.net
• Redelijk veel overklok ruimte: Eénmaal het 40nm procédé eindelijk goed onder de knie zal zijn kunnen we ons verwachten aan stukken beter kaarten.
• hdmi audio is nu wel geïntigreerd zoals bij de GT210 kaarten (een punt minder om op te bashen want hoeveel mensen gaan daadwerkelijk een GTX470 gebruiken in een htpc?)
• DX11 performantie is goed, zowel syntethisch (wat hier als oneerlijk wordt weggeflamed) als in de huidige games
Hoe het in de toekomst zal verlopen moeten we nog afwachten, maar het is duidelijk dat de nVidia oplossing zeker niet gigantisch moet onderdoen.
Start Persoonlijke Rant
Moest ik deze feiten zelf aankaarten of in de TS zetten? Neen elke tweaker wordt namelijk geacht zelf effen een review of twee te lezen en ik heb nog geen enkele review gezien waar de eerste 3 rode opmerkingen niet worden gemaakt in de conclusie.

Echter zeggen dat deze kaart rommel is/af te raden is, geld enkel als je er niets anders mee doet als gamen en je niet van plan bent PhysX of andere nVidia games constant te spelen. Plan je een GPU aan te schaffen voor meer dan enkel te gamen is hij mss toch nog wel de juiste keuze.

Al bij al volg ik dezelfde denkwijze die vaak als conclusies staan opgestomt bij de vele reviews bv:
Of course all this power is then translated into massive heat output. As a result the GeForce GTX 480 is one of the hottest, if not the hottest, graphics card available in terms of operating temperatures. Amazingly the GeForce GTX 480 is able to make the latest and greatest dual-GPU graphics cards look rather tame.

The good news for Nvidia and their new GeForce GTX 480 graphics card is that it is still a very fast product, and as the drivers have time to mature it is likely to become even faster. For now I am going to reserve my opinion on whether or not the GeForce GTX 480 is a good buy, and wait for it to hit shelves to review the pricing. It will also be very interesting to see what upgrades Nvidia’s board partners can throw at the GeForce GTX 480 to help keep temperatures under control.
Buiten het feit, extra dingen als CUDA intresseren mij dan weer wel (hun nieuwe Hardware coderende engine ook, maar deze is niet veel beter dan de voorgaande, en die hdmi audio gebruik ik toch niet XD)
En de drivers, dunno wat ik er van moet denken, ze hebben 6 maanden gehad, aan de andere kant is er iets grondigs mis met het idlen van deze kaart (zou het kunnen dat men origineel plande om deze fermi's te bundelen met een hybrid power SLI setup?.. of wou gebruik maken van deze technologie intern in de kaart??)
Enige wat ik zie bij de patches is dat de rek er nog niet uit is, maar mogelijkerwijze is die er bij ATI er ook nog niet uit.

Zou ik zelf die kaarten aankopen, Hell No! Enkel al doordat ik nooit high end GPU's aankoop :)

Een discussie over value/money is leuk af en toe, en kan voor mijn part voor 20 blz lang doorgaan in een aankoop topic of een BBG (waar die discussies juist wel heel kort en krachtdadig worden beëindigd (het kan dus well..)
De andere kant, eens laten weten dat je de nieuwe kaarten super vind is leuk, nog leuker dat je die stelling ondersteunt maar opnieuw dat is meer iets voor een ervaringstopic dan hier..
Ik denk trouwens dat de topic start voor zoiets al jaren hiervoor héél duidelijk is..
Om het vertrouwde autovoorbeeld (een traditie op de Tweakers Front Page) te nemen:
Je kan het altijd azo bekijken, waarom blijft men porche wagens verkopen ook al is een gewone volkswagen veel zuiniger/confortabeler en kan je met alle twee toch maar even snel rijden (verkeerswetten) De porshe heeft wel grotere mogelijkheden (GPGPU) maar die kun je in normale
gevallen toch niet aanspreken...
Moet je die mensen dan afbreken omdat ze toch die Porshe gekocht hebben enkel voor de naam/standing? Ik denk persoonlijk van niet iedereen doet met zijn geld wat hij wil.

Laat je niet mee trekken in een discussie.. die zal je hier op tweakers toch niet winnen en het enige dat je bereikt is een vervuild topic, en een mod berichtje in je inbox.
Reacties daarop zijn ook niet echt nodig, ik heb (hopelijk) alle engelstalige reviews die ik kon vinden in de TS gezet, iedereen kan deze lezen en interpreteren, er staan zelf 2 goede nederlandstalige revieuws tussen, dus geen engels kunnen is geen excuus!
Wat natuurlijk wel kan is effen kritiek geven op deze reviews:
bijvoorbeeld mij steekt het tegen ik heb 20 reviews gezien en is er ene die eens niet de gebruikelijke shooters gebruikt? Nog een beetje en ik ken de fps per game per resolutie een beetje uit mijn hoofd :*)
Nu ik heb een paar met World of Warcraft gezien en in mijn ogen zijn die voor een groot doelpubliek even belangrijk dan fps #11..

Wat wil ik met deze post bekomen???
Dat ik geen 50 keer dezelfde inhoud moet herlezen in hetzelfde topic, ja de kaart is te duur en ja de power consumptie is véél te hoog.
Verwijs gewoon éénmalig naar deze posts waar deze 3 belangrijke feiten mooi in het rood staan opgesomt.
Of nog beter, verwijs naar de reviews die elke tweaker voor hij over deze kaarten gaat posten toch wel gelezen zou moeten hebben ;)

Indien men het hiermee niet eens is met mijn standpunten hierover en je liever dus een andere topic starter zou willen hebben zie ik al minstens twee opties:
  • Iemand neemt dit topic over (zie ik wel zitten daar ik tegenwoordig veel te laat reageer voor nieuwe delen aan te maken, eventueel wil ik zelf helpen met het onderhouden van de TS)
    Kandidaten mogen altijd een PM sturen of een post in dit topic plaatsen, en je mag mij later altijd aanspreken indien je eventueel advies/hulp nodig blijkt te hebben, dus zelf zonder kennis van TS maken lukt het wel hoor (Dit topic is ook het enige topic dat ik onderhoud .. en ik ben ook vanaf 0 begonnen.. je ziet het resultaat XD)
  • De mensen die willen blijven discussieren hoe slecht die kaarten wel niet zijn vanwege die drie rode discussie punten kunnen steeds een "[Algemeen] nVidia Suckt ATI Rulez op Bang for Bucks vlak" topic aanmaken
    offtopic:
    ik zou wel persoonlijk gaan voor een andere titel al is het maar voor een vroegtijdig slotje te voorkomen
Let op dit is totaal mijn persoonlijke mening (vandaar dus geen groene achtergrond bv)
Ik hoop dat ik hier niet teveel mensen op hun tenen trap, zeker daar dit niet "mijn" topic is maar een algemeen topic is waar ik eerder toevallig de TS heb kunnen overnemen heb (waarvoor dank voor het vertrouwen)
maar ik zie dit afzakken naar een probleen topic en dit is heus niet de eerste keer meer. Het zou spijtig zijn dat er enkel een ATI topic overblijft, maar als het azo verder gaat is dat misschien op lange termijn de enige levensvatbare oplossing.
Er zijn veel mensen die hun best doen en héél intressante discussies voeren en leuke nieuzsfeitjes en het zou jammer zijn dat dit verdwijnt.

[ Voor 98% gewijzigd door lightdestroyer op 30-03-2010 20:30 ]

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 171689

Over de TS, ik vind het wel geinig dat er nog die hypothetische XFX GTX470 en 480 in staan, net nu bekend werd dat zij ze waarschijnlijk niet (of nog een lange tijd niet) gaan leveren.

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 08-05 18:10

epo

Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID

ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adaptor prijzen zijn.
* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???

Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat. Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.

Verder zijn die ATI kaarten al sinds de launch bijna niet te krijgen, en ik zie sommige mensen wanhopig elke keer roepen dat dit de volgende maand aantrekt. BS, tot nu toe kan je zo'n 58xx amper krijgen in NL.

Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
En nee, ik ben geen nVidia fan, ik gebruik al jaren ATI kaarten. Ik erger me alleen aan de communicatie betreffende deze merken. Het is alsof levens ervan afhangen, soort van Feyenoord - Ajax. JAMMER.

[ Voor 16% gewijzigd door epo op 30-03-2010 18:26 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15:17

Darkasantion

Just keep swimming!

epo schreef op dinsdag 30 maart 2010 @ 17:56:
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID

ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adapter prijzen zijn.
* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???

Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat. Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.

Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
Dat is de mening van Lightdestroyer, niet het officiele statement van de TS......

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
De richtprijzen zijn wel bekend en die komen exact overeen met wat er hier al eerder is genoemd... en ga er maar van uit dat de prijzen wellicht nog iets hoger kunnen uitvallen, wanneer de eerste kaarten vanaf 12 april echt verkrijgbaar zijn. Want dat is de dag dat ze mondjesmaat binnen komen... dus wees er snel bij als je er eentje wil...

Verder zijn het allemaal feiten die er vermeldt worden, waar je niet onder uit kan. De feiten van te heet en te luid zijn feiten waar AMD enorm op werd afgeschoten door veel NVIDIA fans ten tijde van de R600/HD2900XT. Nu ziet NV zichzelf in hetzelfde schuitje, dus gelijke monnikken gelijke kappen....

De kaart is geen k*tkaart, maar een beetje 'too little, too late', behalve dan voor de diehard NV fans die liever geen rood in hun PC willen hebben.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
We moeten eens een bokswedstrijd organiseren tussen ATI en nV aanhangers. Dan kunnen ze die opgekropte emoties en agressie der uit eens uitslaan.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 21:57

superwashandje

grofheid alom

Mooie uitgebreide TS lightdestroyer! (sowieso horen beide topic starts van beide grafische nieuwsdiscussietopics tot de top) ik vind het ook goed dat je je nog steeds zo neutraal mogelijk opsteld en ook de minpunten van de kaarten accepteerd.
pluimpje voor lightdestroyer

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Unagi
  • Registratie: Februari 2001
  • Laatst online: 21-04 14:23

Unagi

Always aware...

lightdestroyer schreef op dinsdag 30 maart 2010 @ 16:33:

GTX 470 en 480 release:

Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID

ATI is beter in termen van Bang for Bucks
Ongeacht of je mening wel of niet klopt, je loopt hier wel heel hard te trollen in je eigen topic. Zonde, de rest van je post is prima genuanceerd.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Unagi schreef op dinsdag 30 maart 2010 @ 18:38:
[...]


Ongeacht of je mening wel of niet klopt, je loopt hier wel heel hard te trollen in je eigen topic. Zonde, de rest van je post is prima genuanceerd.
Het is hier dan ook geen "prijs Nvidia" topic. Hij noemt daar gewoon de feiten. T klink heel negatief dat is zo. Maar zeker niet onwaar.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Unagi
  • Registratie: Februari 2001
  • Laatst online: 21-04 14:23

Unagi

Always aware...

Xenomorphh schreef op dinsdag 30 maart 2010 @ 18:41:
[...]


Het is hier dan ook geen "prijs Nvidia" topic. Hij noemt daar gewoon de feiten. T klink heel negatief dat is zo. Maar zeker niet onwaar.
Ik zeg ook niet dat ze niet waar zijn, maar om als TS je eerste post met die meningen in het rood te beginnen... Nee dat is toch echt een troll.

Acties:
  • 0 Henk 'm!

  • kalizec
  • Registratie: September 2000
  • Laatst online: 16-04 23:54
Er staat een fout in de TS over de Tesla variant van Fermi.

Waarschijnlijk kloppen er nog wel meer punten niet, maar de onderstaande drie kloppen zeker te weten niet.

Unified shaders: 496

Dat kunnen er 448, 480 of 512 zijn. 496 is geen optie want ze zijn uit te schakelen per blok van 32, niet per blok van 16.

ROP's: ??

ROP's op een Tesla is nonsens, ja ze zitten er op, nee ze worden niet gebruikt.

Memory Interface: 396 bit

Onmogelijk, GDDR5 geheugen gaat per 64 bits en het is dus 384 bit of 320 bit, 396 bit is geen optie.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 27-02-2024
Unagi schreef op dinsdag 30 maart 2010 @ 18:38:
[...]


Ongeacht of je mening wel of niet klopt, je loopt hier wel heel hard te trollen in je eigen topic. Zonde, de rest van je post is prima genuanceerd.
Waarom trollen :? Als de nieuwe nV kaartjes een paar negatieve punten hebben mogen deze toch eerlijk vermeld worden? Niet iedereen die een kijkje komt nemen in dit draadje is op de hoogte van de voor- en nadelen van deze nieuwe kaarten. Dan is het wel leuk als eventuele minpunten vermeld worden. We zitten toch niet in China O-) ? Ik zie echt niet in waarom sommige mensen zich hieraan storen...

Even ontopic dan:
Nu beide partijen hun DX11 kaarten hebben ben ik benieuwd hoe tessellation gebruikt zal worden in nieuwe games. Ik vind de manier waarop het gebruikt word in Stalker en Dirt 2 een beetje teleurstellend eigenlijk. Models extra smooth maken, beetje rimpels op een plasje water, mooier vlagje die hangt te wapperen... Daar merk je toch allemaal vrij weinig van tijdens het spelen? Je moet al afzonderlijke screenshots nemen en achterna vergelijken met elkaar om het een beetje te kunnen zien.

Persoonlijk vind ik dat ze tessellation beter zouden inzetten in bijvoorbeeld plaatsen waar men nu bump mapping/relief mapping (of hoe het ook mag heten) gebruikt. Zo dat stenen in een muur er ook echt uitzien als stenen etc. Models zien er over het algemeen al goed genoeg uit vind ik persoonlijk. :/

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 08-05 18:10

epo

Xenomorphh schreef op dinsdag 30 maart 2010 @ 18:41:
[...]


Het is hier dan ook geen "prijs Nvidia" topic. Hij noemt daar gewoon de feiten. T klink heel negatief dat is zo. Maar zeker niet onwaar.
Nogmaals dat zijn geen feiten, persoonlijke mening meer niet. Zie mijn post hierboven.

Acties:
  • 0 Henk 'm!

  • Unagi
  • Registratie: Februari 2001
  • Laatst online: 21-04 14:23

Unagi

Always aware...

Hyperz schreef op dinsdag 30 maart 2010 @ 19:15:
[...]


Waarom trollen :? Als de nieuwe nV kaartjes een paar negatieve punten hebben mogen deze toch eerlijk vermeld worden? Niet iedereen die een kijkje komt nemen in dit draadje is op de hoogte van de voor- en nadelen van deze nieuwe kaarten. Dan is het wel leuk als eventuele minpunten vermeld worden. We zitten toch niet in China O-) ? Ik zie echt niet in waarom sommige mensen zich hieraan storen...
Trollen is uitlokken. Niet iedereen is ingelezen inderdaad en niet iedereen leest alles, niet echt handig om er dan met die 3 punten als TS tussenuit te springen. Niet dat ik dat perse erg vind, maar volgens mij moet dat juist wat minder in dit topic?
Even ontopic dan:
Nu beide partijen hun DX11 kaarten hebben ben ik benieuwd hoe tessellation gebruikt zal worden in nieuwe games. Ik vind de manier waarop het gebruikt word in Stalker en Dirt 2 een beetje teleurstellend eigenlijk. Models extra smooth maken, beetje rimpels op een plasje water, mooier vlagje die hangt te wapperen... Daar merk je toch allemaal vrij weinig van tijdens het spelen? Je moet al afzonderlijke screenshots nemen en achterna vergelijken met elkaar om het een beetje te kunnen zien.

Persoonlijk vind ik dat ze tessellation beter zouden inzetten in bijvoorbeeld plaatsen waar men nu bump mapping/relief mapping (of hoe het ook mag heten) gebruikt. Zo dat stenen in een muur er ook echt uitzien als stenen etc. Models zien er over het algemeen al goed genoeg uit vind ik persoonlijk. :/
Ik denk dat tesselation redelijk snel overal komt, er is met tesselation namelijk geen reden meer om low-poly content in het spel te stoppen (op financieel gewin ivm kosten na). En volgens mij worden de meeste spellen al tijden met veel hogere poly counts gemodelt.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

madmaxnl schreef op dinsdag 30 maart 2010 @ 18:03:
We moeten eens een bokswedstrijd organiseren tussen ATI en nV aanhangers. Dan kunnen ze die opgekropte emoties en agressie der uit eens uitslaan.
Oh.. I know who's going to win that!

tevens

lightdestroyer 1
blinde fanboys 0

Ook moet er nog gekeken worden of de GTX480 wel op 48 ROPS draait. mensen die de kaart wat langer in hun bezit hebben krijgen hele rare waardes uit hun tests, wat eerder duid op 32 ROPS dan op 48, of 48 ROPS op een lagere frequentie dan de huidige clock.

Reviewers schijnen hun kaarten al vrij snel weer ingeleverd te moeten hebben zodat echt diepteonderzoek naar deze gegevens (of andere NDA info) nog niet boven water (mag) komt

[ Voor 42% gewijzigd door neliz op 30-03-2010 19:43 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

epo schreef op dinsdag 30 maart 2010 @ 17:56:
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID

ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adaptor prijzen zijn.
Ja, leuk, dan zijn de prijzen van 500,- voor een HD5970 ook te hoog, want dat was ook de early adaptor prijs. Hee, blijkt dus niet altijd te gelden. Voor producten die schaars zijn, d.w.z. slecht leverbaar, gaan de prijzen omhoog. Je wilt beweren dat je zeker weet dat fermi zeer spoedig goed leverbaar is? Zo nee, geef eens een andere (onderbouwde) reden waarom je zo zeker bent dat de prijzen zakken. Met de prijzen zoals ze er nu voor staan kan ik niet anders zeggen dat voor de meeste gamers minder bang-for-buck hebben dan ATI inderdaad.
* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???
Te heet: dat je een stuk meer verbruikt en dat je dus geen garantie hebt of de kaart wel net zo lang meegaat als je zou verwachten (NVidia heeft de garantie voor deze kaarten ingekort! Iets wat ik weinig tegenkom maar wat mij betreft zeer zwaar weegt, of blijkt dit toch niet te kloppen?). Te luid, dat je per se een aftermarketcooler nodig hebt om een stil systeem te hebben.
Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat.
Oh, ja daar mag je wel op rekenen. ATI heeft ook mooie mislukkingen voortgebracht en dat is duidelijk vermeld in de nieuwsdiscussie-topics ja.
Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.
Hmm, zoals de prijzen nu staan staat fermi er gemiddeld significant slechter voor dan de radeons qua prijs/prestatie en qua verbruik/prestatie. Dat mag toch wel gezegd worden of niet. Ik wordt ook moe van elke vorm van ongefundeerde meningen. Dat je fermi verdedigd heb ik helemaal geen moeite mee, voor sommige specifieke taken is de kaart natuurlijk ook beter en voor CUDA o.i.d. heb je toch echt een fermi nodig, maar voor de meeste gamers (waar geforce duidelijk op gericht is, heeft NVidia laatst nog duidelijk bevestigd) presteert de kaart gewoon minder.
Verder zijn die ATI kaarten al sinds de launch bijna niet te krijgen, en ik zie sommige mensen wanhopig elke keer roepen dat dit de volgende maand aantrekt. BS, tot nu toe kan je zo'n 58xx amper krijgen in NL.
Vandaar dat hij gewoon op voorraad is bij veel webshops, en ik zie fermi wel overal op voorraad zijn ja.
Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
Je wilt zeggen dat er in een Nvidia-topic geen kritiek op NVidia mag zijn als het even wat minder gaat? Dan kan ik je doorverwijzen naar guru3D of fudzilla. Ja, ik geef je wel gelijk dat GoT redelijk ATI-minded is op dit moment, zolang ik op GoT zit doet ATI het echter ook prima dus of het gewoon andersom is geweest in de HD2xxx-tijd kan ik niet zeggen. Maar ook nu worden onderbouwde reacties echt niet aan de kant geblazen met gebash. Dus ik zou zeggen: kom met een goede onderbouwde reactie, waar ga jij fermi voor gebruiken? :)
En nee, ik ben geen nVidia fan, ik gebruik al jaren ATI kaarten. Ik erger me alleen aan de communicatie betreffende deze merken. Het is alsof levens ervan afhangen, soort van Feyenoord - Ajax. JAMMER.
Je hoeft toch geen Ajax-fan te zijn om te zeggen dat Ajax het op dit moment prima doet? En dat een andere club het dramatisch doet? Ik kan mijn mening gewoon duidelijk onderbouwen hoor, dan is het al geen bashen.

[ Voor 4% gewijzigd door bwerg op 30-03-2010 19:55 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 07-05 14:27
lightdestroyer schreef op dinsdag 30 maart 2010 @ 16:33:

GTX 470 en 480 release:

• TE DUUR
• TE HEET
• TE LUID
Als je er nu van zou maken "duur", "heet", "luid", zonder de "TE" woordjes erbij, dan ben je objectief. GTX470/480 zijn relatief duur, relatief luidruchtig en ook vrij heet. De afweging of dat dan teveel van het goede is, kan je dan aan de lezers overlaten. "TE" is namelijk subjectief.

Acties:
  • 0 Henk 'm!

  • canth
  • Registratie: Augustus 2002
  • Laatst online: 05-05 15:01
epo schreef op dinsdag 30 maart 2010 @ 17:56:
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID

ATI is beter in termen van Bang for Bucks
======================
Heb je de rest van de post wel gelezen? Ik vind het juist een dapper statement om zo de rode brigade het gras voor de voeten weg te maaien.
Ik (tegenwoordig bezitter van 5870 en 4870) ben het eigenlijk helemaal eens met de rest van de post. NVidia biedt wat mij betreft nu echt een alternatief voor de 5800 series. De kaart is - soms beduidend - sneller dan de 5800. Niet genoeg reden voor mij om naar de winkel te gaan rennen om een 480 te halen, maar ook zeker geen reden om Nvidia helemaal de grond in te boren.
Keep up the good work!

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Darkasantion schreef op dinsdag 30 maart 2010 @ 17:58:
[...]

Dat is de mening van Lightdestroyer, niet het officiele statement van de TS......
Idd. Bovendien is hij bij de feiten gebleven en heeft de nodige terechte nuanceringen aangebracht.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 20:21

Cheezus

Luiaard

Juist, het topic gaat zo'n beetje alleen over wat er goed of fout is aan de mening van lightdestroyer, dat is vast zijn bedoeling van dit topic!

Anyway, nu de Fermi storm redelijk voorbij is beginnen in het Ati topic weer berichten te komen over echt wat nieuws.
Weet iemand hoe het zit met de opvolger van Fermi? Heeft deze ontwikkeling ook veel vertraging opgelopen of heeft de ontwikkeling gewoon parallel doorgelopen en komt deze wel op tijd?

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 08-05 18:10

epo

bwerg schreef op dinsdag 30 maart 2010 @ 19:53:
[...]

Ja, leuk, dan zijn de prijzen van 500,- voor een HD5970 ook te hoog, want dat was ook de early adaptor prijs. Hee, blijkt dus niet altijd te gelden. Voor producten die schaars zijn, d.w.z. slecht leverbaar, gaan de prijzen omhoog. Je wilt beweren dat je zeker weet dat fermi zeer spoedig goed leverbaar is? Zo nee, geef eens een andere (onderbouwde) reden waarom je zo zeker bent dat de prijzen zakken. Met de prijzen zoals ze er nu voor staan kan ik niet anders zeggen dat voor de meeste gamers minder bang-for-buck hebben dan ATI inderdaad.

[...]

Te heet: dat je een stuk meer verbruikt en dat je dus geen garantie hebt of de kaart wel net zo lang meegaat als je zou verwachten (NVidia heeft de garantie voor deze kaarten ingekort! Iets wat ik weinig tegenkom maar wat mij betreft zeer zwaar weegt, of blijkt dit toch niet te kloppen?). Te luid, dat je per se een aftermarketcooler nodig hebt om een stil systeem te hebben.

[...]

Oh, ja daar mag je wel op rekenen. ATI heeft ook mooie mislukkingen voortgebracht en dat is duidelijk vermeld in de nieuwsdiscussie-topics ja.

[...]

Hmm, zoals de prijzen nu staan staat fermi er gemiddeld significant slechter voor dan de radeons qua prijs/prestatie en qua verbruik/prestatie. Dat mag toch wel gezegd worden of niet. Ik wordt ook moe van elke vorm van ongefundeerde meningen. Dat je fermi verdedigd heb ik helemaal geen moeite mee, voor sommige specifieke taken is de kaart natuurlijk ook beter en voor CUDA o.i.d. heb je toch echt een fermi nodig, maar voor de meeste gamers (waar geforce duidelijk op gericht is, heeft NVidia laatst nog duidelijk bevestigd) presteert de kaart gewoon minder.

[...]

Vandaar dat hij gewoon op voorraad is bij veel webshops, en ik zie fermi wel overal op voorraad zijn ja.

[...]

Je wilt zeggen dat er in een Nvidia-topic geen kritiek op NVidia mag zijn als het even wat minder gaat? Dan kan ik je doorverwijzen naar guru3D of fudzilla. Ja, ik geef je wel gelijk dat GoT redelijk ATI-minded is op dit moment, zolang ik op GoT zit doet ATI het echter ook prima dus of het gewoon andersom is geweest in de HD2xxx-tijd kan ik niet zeggen. Maar ook nu worden onderbouwde reacties echt niet aan de kant geblazen met gebash. Dus ik zou zeggen: kom met een goede onderbouwde reactie, waar ga jij fermi voor gebruiken? :)

[...]

Je hoeft toch geen Ajax-fan te zijn om te zeggen dat Ajax het op dit moment prima doet? En dat een andere club het dramatisch doet? Ik kan mijn mening gewoon duidelijk onderbouwen hoor, dan is het al geen bashen.
Op welke review staat jij je eigenlijk dood? Er zijn genoeg spellen waar een enorm performance verschil zit tussen Fermi en de niet leverbare ATI kaart.
Het begrip "Te duur" Ja dat is BS, wie bepaalt dat, jij? ATI idiots?
Het begrip "Te heet" Alsof de kaarten jaren moet meegaan, get real. De kaart gaat zeker wat jaartjes mee, degene die hem nu kopen kopen hem omdat het verreweg de snelste single GPU is te krijgen. En verkopen hem vervolgens als de volgende uitkomt.
Ik ga geen Fermi kopen, ik probeer een 5850 te krijgen, maar ja niet leverbaar he.
Mijn reacties zijn eigenlijk ook bs, waarom reageer ik uberhaupt op reacties van een stomme videokaart LOL 8)7 Maar nee, het zijn vooral reacties zoals die van Neliz, die vragen om een reactie, irritant kereltje.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Bon,

Blijkbaar lezen verschillende mensen niet héél mijn topic, ik denk dat héél die post nogal férm pro-nVidia was.. maar bon kheb nu een beetje met de kleuren gespeeld in de hoop het duidelijker wordt en bij elke TE haakjes rond geplaats.

Waarom TE? Niet omdat ik ze té duur vind maar omdat die kaarten té duur zijn in vergelijking met hun concurrenten en dit volgens alle reviews waarvan ik de conclusies gelezen heb. En geloof me dat zijn er veel ;(
Een kaart kan duur zijn maar toch een goede koop zijn. Bijv 500 euro kosten maar wel 2 keer zo snel zijn als een 5870 ... dan is hij duur maar zeker niet té duur.
Omgekeerd, nu is de kaart eigenlijk niet duur als je vergelijkt met vroegere high end kaarten, De HD5970 is zelfs duurder, maar is hij volgens reviewers en de meeste posters té duur in vergelijking met wat hij levert.
Ik zou je tevens aanraden volledig mijn post te lezen, dan zal je zien dat ik persoonlijk die kaarten helemaal niet te duur vind. (Te warm mss wel, maar das omdat ikzelf niet goed tegen warmte kan XD)
Sowieso hoop ik toch dat er binnenkort een enorme big bang driver uitkomt die ervoor zorgt dat die TE's allemaal verleden tijd zijn (ik zal dan ook de eerste zijn die TE's te doorstrepen >:) )

-> Btw ik dacht dat mijn kristallen bol stukje erronder duidelijk liet uitschijnen wat ik dacht van die drie bovenstaande puntjes, niet dus :|
Nu communicatie is nooit mijn sterkste kant geweest vrees ik :'(

-> De anti-ATI sfeer hier in dit forum merk ik op en juist daarom heb ik die post geschreven om al die negatieve dingen éénmaal op te sommen en daarna verder te doen met het topic... ik vrees echter dat het het omgekeerde effect gehad heeft :s

-> Ben ik een ATI fanboy, neen ... ik denk dat da wel redelijk duidelijk is dat ik nogal redelijk veel nVidia minded ben. Echter niet op vlak van gaming maar eerder op vlak van (anime)video decodatie :p
(Eén van mijn dromen is dat ik bij mijn anime encoderen weer ga gebruik kunnen maken van GeForce geoptimaliseerde filters .. maar momenteel blijft dat nog bij dromen ;) )
Ik heb van beide partijen de GPU's onder handen gehad maar momenteel werk ik nu met een Quadro, een 8600M Mobile GPU(ja jaa hij is nog steeds werkend!, hoewel ik even graag een Mobile radeo wou, maar die waren er niet met een digitale uitgang in dezelfde prijsklasse.. en achteraf gezien ben ik daar ferm gelukkig mee) en Hybrid SLI opstelling van een 8200 + 9800GT (lopende op 9800GTX+ speeds indien ik game, en anders ligt die kaart toch volledig stil..)

Anyway ik stel voor dat iedereen die nog een mening heeft op mijn post dat persoonlijk doorstuurt naar mijzelf( liefst wel na hem volledig gelezen te hebben...) zodat we dit nu kun afronden en weer on topic kunnen gaan. Kijk weer een nieuw deel en we zitten weer 20 posts verder nochtans heb ik toch nadrukkelijk het "Discussie" gedeelte voorlopig uit de titel gehaalt.
Ik zou hier graag (positief als het kan) nieuws van nVidia zien passeren, niet het eeuwige discussier van het vorige gedeelte ... welke ik blijkbaar aangewakkerd heb ipv geblust :(

Specs


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
primusz schreef op dinsdag 30 maart 2010 @ 20:24:
Juist, het topic gaat zo'n beetje alleen over wat er goed of fout is aan de mening van lightdestroyer, dat is vast zijn bedoeling van dit topic!

Anyway, nu de Fermi storm redelijk voorbij is beginnen in het Ati topic weer berichten te komen over echt wat nieuws.
Weet iemand hoe het zit met de opvolger van Fermi? Heeft deze ontwikkeling ook veel vertraging opgelopen of heeft de ontwikkeling gewoon parallel doorgelopen en komt deze wel op tijd?
On topic (Eindelijk)

CJ heeft al één en ander laten vallen hierover. Het is duidelijk dat nVidia zo snel als mogelijk naar Fermi2 wil gaan. Dit liefst nog tegen het einde van dit jaar, zo ongeveer dezelfde periode als de release van de HD6xxx
Dit is zeker doenbaar daar ontwikkeling van Series van GPU's parallel gebeurd, maw door een andere groep van ontwikkelaars. Dit heeft als grote voordeel dat de vertraging die Fermi opliep totaal geen effect heeft op zijn opvolgers. En daar Fermi er 6 maanden later is dan gehoopt zal de opvolger er veel sneller komen dan dat de meeste verwachten.
Maken ze hier veel ruchtbaarheid aan, neen éérst je huidige GPU's verkopen.
Tot nu toe ziet het er blijkbaar goed uit voor Fermi2, maar dat haal ik enkel uit de positieve berichten van CJ.

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Ik denk zelf dat deze slag al lang voorbij is, het zal pas met de refreshes echt interessant worden. De architectuur werkt duidelijk wel; zelfs met de uitgeschakelde ROPs en lage clocks houdt ie de huidige ATI tegenhangers bij. Als de refresh de huidige problemen dus opgelost krijgt zal deze denk ik ineens beter presteren dan de meesten verwachten na het zien van het huidige product.

Aan de andere kant denk ik dat ATI ook al weer flink wat tijd heeft gehad om te sleutelen, en ik denk dat we het er allemaal wel over eens zijn dat ze de spijker de laatste tijd netjes op de kop slaan. Ik heb enkele jaren geen ATI gehad (lees 4.5, laatste was 9700 NP), en ben erg aangenaam verrast over hoe ATI het nu doet. Geen enkel probleem gehad met m'n 5870 *klopt af*.

Met een beetje geluk krijgen we rond het eind van het jaar voor het eerst sinds lange tijd een echte nek-aan-nek race! Ik hoop van wel in ieder geval :D
Bring on the refreshes!

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

epo schreef op dinsdag 30 maart 2010 @ 20:40:
[...]


Op welke review staat jij je eigenlijk dood? Er zijn genoeg spellen waar een enorm performance verschil zit tussen Fermi en de niet leverbare ATI kaart.
Op welke review staat jij je eigenlijk dood want ik zie een HD5970 nergens verliezen van de ook nog niet leverbare fermi.
Het begrip "Te duur" Ja dat is BS, wie bepaalt dat, jij? ATI idiots?
En meneer epo klaagt over flamen. Chapeau. Ik zeg dat fermi in verreweg de meeste games een veel mindere bang-for-buck heeft dan de radeons, dat je negatieve reacties op fermi nuanceert vind ik prima maar ga dat alsjeblieft niet ontkennen.
Het begrip "Te heet" Alsof de kaarten jaren moet meegaan, get real.
Mja, meer dan één jaar mag wel ja.
De kaart gaat zeker wat jaartjes mee
En dat weet je uit ervaring of zo? :+ Je bent early adopter van een pre-A0-fermi?
degene die hem nu kopen kopen hem omdat het verreweg de snelste single GPU is te krijgen. En verkopen hem vervolgens als de volgende uitkomt.
Ik ga geen Fermi kopen, ik probeer een 5850 te krijgen, maar ja niet leverbaar he.
Ah, en fermi heb je wel morgen in huis... Je zou eens moeten proberen niet de goedkoopste te nemen want een HD5850 is prima leverbaar als je even zoekt.

[ Voor 9% gewijzigd door bwerg op 30-03-2010 21:51 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Humma Kavula
  • Registratie: Juni 2008
  • Niet online

Humma Kavula

Don't vote for stupid

bwerg schreef op dinsdag 30 maart 2010 @ 21:39:
[...]

Op welke review staat jij je eigenlijk dood want ik zie een HD5970 nergens verliezen van de ook nog niet leverbare fermi.

[...]

En jij klaagt over flamen. Chapeau. Ik zeg dat fermi in verreweg de meeste games een veel mindere bang-for-buck heeft dan de radeons, dat je negatieve reacties op fermi nuanceert vind ik prima maar ga dat alsjeblieft niet ontkennen.

[...]

Mja, meer dan één jaar mag wel ja.

[...]

En dat weet je uit ervaring of zo? :+ Je bent early adopter van een pre-A0-fermi?

[...]

Ah, en fermi heb je wel morgen in huis... Je zou eens moeten proberen niet de goedkoopste te nemen want een HD5850 is prima leverbaar als je even zoekt.
En nu graag iets on topic aub...

Ik als neutrale lezer wordt hier een beetje moe van..... :'(

Wear Sunscreen!


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Humma Kavula schreef op dinsdag 30 maart 2010 @ 21:47:
Ik als neutrale lezer wordt ik hier een beetje moe van..... :'(
Ik ook maar als iemand me uit gaat maken voor idioot en onzin gaat beweren dan volgt een discussie.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Humma Kavula
  • Registratie: Juni 2008
  • Niet online

Humma Kavula

Don't vote for stupid

bwerg schreef op dinsdag 30 maart 2010 @ 21:52:
[...]

Ik ook maar als iemand me uit gaat maken voor idioot en onzin gaat beweren dan volgt een discussie.
Dat snap ik heel goed maar dit is een nieuws topic, DM hem maar als je in discussie wil gaan!

Wear Sunscreen!


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:26
Werelds schreef op dinsdag 30 maart 2010 @ 21:28:
Met een beetje geluk krijgen we rond het eind van het jaar voor het eerst sinds lange tijd een echte nek-aan-nek race! Ik hoop van wel in ieder geval :D
Bring on the refreshes!
Liever niet :p. Ik heb liever dat 1 van de 2 een kaart heeft die toch wel beter presteert dan de andere, maar voor de rest ook niet met veel nadelen zit (een beetje meer verbruik, duurder, sneller, stiller & warmer (een mix van negatief+positief dus). Dat resulteert namelijk vaak in het feit dat de concurrent hun kaarten goedkoper maakt om zo een andere groep customers aan te trekken (die wat net wat minder willen betalen en eventuele nadelen wel voor lief nemen).

Dan kun je een hele dure kaart kopen welke in principe het beste is, maar ook voor een leukere prijs een kaart die het nog altijd heel aardig doet.
Even een heel recent voorbeeld:
Kijk maar eens naar de GTX280 + 4890. De 4890 was niet al te ver van een GTX280 in performance en prijs/performance(!, puur FPS) iets beter positioneert, maar je had dan wel weer het nadeel van een hoger idle verbruik (tevens lager load verbruik) en had er geen problemen mee om (met de reference koeler) meer geluid & hitte te produceren.
Zo had iederen genoeg keuze (je betaalde wat meer voor wat meer performance/minder geluid/minder hitte/lager idle verbruik/hoger load verbruik en kocht een GTX280 of je betaalde minder voor iets minder performance, meer geluid, hoger idle verbruik/meer warmte/lager load verbruik en nam een 4890 in huis).

Als beide gelijk zijn dan zullen de prijzen alleen maar hoger worden :p.

[ Voor 5% gewijzigd door Paprika op 30-03-2010 22:02 ]


Acties:
  • 0 Henk 'm!

Anoniem: 346499

Ik stel voor dat er een nvidia/amd discussie topic ofzo komt want wat is dit hier allemaal :/ ? De reviews zijn uit en iedereen heeft zijn eigen mening over de nieuwe GTX'en, mogelijk kan een discussie topic beter zijn.

--

Een leuk filmpje dat wat sfeerbeelden geeft van het PAX east event afgelopen weekend. (Morgen zou een uitgebreider filmpje komen)
* NVIDIA @ PAX East 2010 (montage)

[ Voor 10% gewijzigd door Anoniem: 346499 op 30-03-2010 22:38 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Dicht voor onderhoud

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Voor de geinteresseerden:

Gezien de mate van ontsporing is besloten dit deel van de NV topicreeks permanent gesloten. In overleg met lightdestroyer hebben we een aantal aanpassingen aan de TS geformuleerd. Lightdestroyer zal deze zaken implementeren en ergens dit weekend (hopelijk) een nieuw deel van de NV topicreeks kunnen openen. Het zal niemand verbazen dat we daar de komende periode een zero-tolerance beleid zullen voeren t.a.v. flames, trolls en andere ongein die de sfeer verziekt.
Pagina: 1

Dit topic is gesloten.