Toon posts:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 40 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 24.742 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.

Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft

Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.


GT100 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_G100_3qtr_low75.png
G100
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ?? million
  • Unified shaders: 8
  • Shader Clock: 1400 MHZ
  • ROP's: 4
  • Core Clock: 567 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/s
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • Texture Fill Rate: 4.3 billion/s
  • Comsumption: 35 Watt (max)
  • Power Connectors: none
  • GeForce Boost
  • Enkel OEM

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_120_3qtr_low75.png
GT120
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ??million
  • Unified shaders: 32
  • Shader clock: 1400
  • ROP's: 8
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 16.0 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512 MB
  • Texture Fill Rate: 8.8 billion/s
  • OpenGL: 3.0
  • Sli: Dual-SLI
  • Comsumption: 50 Watt (max)
  • Power Connectors: none
  • Enkel OEM


9400 en 9500

http://lightdestroyer.dommel.be/picture_library/tweakers/1219832268(2).PNG
9400 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 08/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 16
  • Shader clock: 1350 MHz
  • Texture units:8
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 400/800 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 12.8 GB/sec
  • Memory Interface: 128 bit
  • Memory:256/512/1024 MB
  • Consumption: 50 watt

http://images.hardware.info/productgroups/bigicons/5.png
9500 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 32
  • Shader clock: 1400 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 500/800 MHz (GDDR2/GDDR3)
  • Memory Bandwidth: 14.4/28.8 GB/sec (GDDR2/GDDR3)
  • Memory Interface: 128 bit
  • Memory: 256 MB/512MB/1024 MB (GDDR2/GDDR3/GDDR3)
  • Consumption: 50 watt
  • 2way SLI support


GS varianten

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_130_3qtr_low75.png
GT130
  • GPU: G94b (55nm)
  • Release Date: 10/04/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 48
  • Shader clock: 1250
  • ROP's: 16
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 24 GB/sec
  • Memory Interface: 192 bit
  • Memory: 768 MB
  • Texture Fill Rate: 12.0 billion/s
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 75 Watt (max)
  • Power Connectors: none
  • Enkel OEM


8800 GS / 9600GSO
  • GPU: G92
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 96
  • Shader Clock: 1375/1625 MHZ
  • ROP's: 12
  • Core Clock: 550/650 MHz
  • Memory Clock: 800/900 MHz (GDDR3)
  • Memory Bandwidth: 38.4/45.6 GB/s
  • Memory Interface: 192 bit
  • Memory: 384/768 MB
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 105 Watt (max)
  • Power Connectors: 1x 6-pin


8800GT en 9800 GT

http://www.hardware.info/images/products/mini_thumbs/020369.jpg
9600 GT
  • GPU: G94
  • Release Date: 02/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 64
  • shader clock: 1500/1625 MHz
  • Texture units: 32
  • ROP's: 16
  • Core Clock: 600/650 MHz
  • Memory Clock: 900 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 57.6 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 (256/1024 )MB
  • Voltage: 1.0/1.1 Vcore
  • geen extra stroomconnector nodig

http://www.hardware.info/images/articles/teasers/001243.jpg
8800 GT
  • GPU: G92
  • Release Date: 10/2007
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader Clock: 1500 MHz
  • ROP's: 16
  • Core Clock: 600 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 44.8/57.6 GB/sec (256MB/512,1024MB)
  • Memory Interface: 256 bit
  • Memory: 256,512,1024 MB


8800GT en 9800 GT

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GT_3qtr_low75.png
9800 GT
  • GPU: Sommige 55nm(G95b), velen oude 8800's(G92a)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112(a)/128(b)
  • Shader clock: 1375/1500 MHz
  • Texture units: 56(a)/64(b)
  • ROP's: 16
  • Core Clock: 550/600 MHz
  • Memory Clock: 900 (GDDR3)
  • Memory Bandwidth: 57.6 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024 MB (GDDR3)
  • Consumption: 105(a) 125 (b)watt
  • 2way SLI support (ASUSTek tri)
  • Geen aparte stroomconnector nodig

http://www.hardware.info/images/products/mini_thumbs/002559.jpg
8800 GTS 512MB
  • GPU: G92
  • Release Date: 12/2007
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1625
  • ROP's: 16
  • Core Clock: 650 MHz
  • Memory Clock: 970 MHz (GDDR3)
  • Memory Bandwidth: 64 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB


GPU's at 9800GTX speeds

http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG
GT240
  • GPU: G92b (55nm)
  • Release Date: Nooit
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512MB (GDDR3)
  • Een 9800GT op kloksnelheden van een 9800GTX
  • Trager dan een GT150!!
  • Rebranding heeft nooit voorgedaan/bestaat dus niet!

http://www.hardware.info/images/news/teasers/011155.jpg
9800 GTX
  • GPU: G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Texture Fill Rate:43.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 140 Watt (max)
  • Power Connectors: 2x 6-pin


9800 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GTX_3qtr_low75.png
9800 GTX+
  • GPU: G92 (55nm)
  • Release Date: 07/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Shader Clock: 1836 MHz
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Consumption: 145 watt
  • 2-3 way SLI support

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS150
  • GPU: G92b (55nm)
  • aka GTS250 Slow, 9800GTX+
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 740 MHz
  • Memory Clock: 1000 (GDDR3)
  • Memory Bandwidth: 64 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB (GDDR3)
  • Texture Fill Rate: 47.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 141 Watt (max)
  • Power Connectors: 2x 6-pin
  • Enkel OEM


9800 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS 250
  • GPU: G92a/b (65/55nm)
  • Release Date: 03/03/2009
  • Interface: PCI-E x16 2.0
  • Transistors: +/- 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1100MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024/2018 MB (GDDR3)
  • Texture units: 64
  • Texture Fill Rate: 47.2 (billion/sec)
  • OpenGL: 3.0
  • SLI: 2-way/3-way SLI
  • Consumption: 112 watt (max) officieel 150
  • Power Connectors: 1x 6-pin
Waarom?
  • Kleinere PCB, past dus handiger in de Case
  • Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
  • Veel lagere prijs ;)

http://www.hardware.info/images/products/mini_thumbs/020360.jpg
9800 Gx2
  • GPU: 2x G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 2X 754 million
  • Unified shaders: 2x 128
  • Shader clock: 1500 MHz
  • ROP's: 2x 16
  • Core Clock: 600 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Memory Bandwidth: 128 GB/sec
  • Memory Interface: 512 bit (2x 256 bit)
  • Memory: 1024 MB (2x 512MB)
  • Texture units: 2x 64
  • Texture Fill Rate: 79.8 (billion/sec)
  • OpenGL: 2.1
  • SLI: Quad SLI
  • Consumption: 197 watt (max)
  • Power Connectors: 1x 6-pin,1x 8-pin

http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.
  • De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
  • De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
  • Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
  • De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
  • Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
  • De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.

G 210 en GT 220 (eindelijk directX10.1)

http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce G 210
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1




GT 200 (oldies :p)

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

http://images.hardware.info/products/mini_thumbs/051448.jpg
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100


Toekomstige kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG
GT215
  • GPU: GT215 (40nm)
  • Release Date: Q2 2009 <<gecanceld?
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 96
  • TMU's: 32
  • Shader clock: ????
  • ROP's: 16
  • Core Clock: ??? MHz
  • Memory Clock: GDDR5?
  • Memory Bandwidth: ??? GB/sec
  • Memory Interface: 128-bit indien gddr5?
  • Memory: mogelijk GDDR5
  • Waarschijnlijk DX10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG
GT3xx geruchten midden oktober
  • GPU: GT212
  • Release Date: Q4/2009(some say Q1 2010)
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 512
  • MIMD Architectuur
  • Shader clock: 1600 Mhz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: ??? (GDDR5)
  • Memory Bandwidth: 4.4 TB/sec (GDDR5)
  • Memory Interface: ??? bit
  • Memory: 4096 MB (GDDR5)
  • Consumption: tot ???/??/189Wwatt
  • Update (9/06/09): consumption met als doel 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Recentelijke ontkenningen op de geruchten over de toekomst van nVidia:Enige actuele succes van de chipset afdeling van nVidia: Lancering van van nVidia's Ion platform
Tot nu toe zijn alle reviews lovend; Een stukken minder verbruikende chipset die ervoor zorgt dat full HD wel afgespeeld kan worden(desnoods via coreAVC + CUDA indien je codec niet hardwarematig wordt ondersteunt) op je netbook eventueel om aan te sluiten op je HD-TV.
Helaas minder positief nieuws? (Hoewel licentie technisch kostend besparend en wie wil er nu een dx10 game spelen op een Windows xp netbook die dit dus toch niet ondersteunt...)Minder goed, maar te verwachten, nieuws van de chipset afdeling van nVidia:


nVidia's kondigd eindelijk officieel de GT300 architectuur aan:Echter zal de massaproductie pas starten in het eerste kwartaal van volgende jaar(2010) Waardoor we in het beste geval Fermi maar pas op het einde van Q1 tot begin/midden van Q2 zullen in de schappen zien:
Tot dan toe zal AMD/ATI vrij spel hebben met hun DirectX 11 kaarten wanneer ze over hun productieproblemen heen komen tenminste.Hieruit kunnen we wel afleiden dat de tweede respin van Fermi(A2) dus niet de definitieve zal zijn en men zoals gebruikelijk rekent op de derde respin (A3). Wat men eigenlijk wel kon verwachten nadat de eerste respin (A1) amper 7 werkende gpu's afleverde.

Patch maakt physX weer mopelijk met ati-nVidia gpu combinatie:
Nadat deze functionaliteit sinds de 186 drivers geblokkeerd werd is deze weer terug te brengen aan de hand van een patch die op alle recente drivers zou moeten werken:De vorige nieuwsberichten kan je logischerwijze steeds vinden in het vorige topic ;)
http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

nVidia stapt uit de pc-gaming sector
Dit gerucht blijkt meer en meer geopperd te worden. Dit komt voornamelijk daar nVidia dit zelf ook aanzwengelt. Ze zitten momenteel in de hoek waar de klappen vallen op vlak van PC-hardware, als enige grote speler zonder x-86 licentie waar de andere twee speler Intel en het ([sarcasm]ooh zo open [/sarcasm]) AMD geen licenties meer verlenen voor nieuwe chipsets voor hun cpu's (en hierdoor ook geen nieuwe igp's van nVidia meer mogelijk zijn).
De ontwikkeling van high-end GPU's wordt duurder en duurder en aan de andere kant minder lucratief daar goedkope varianten (de igps's) dus niet meer mogelijk zijn. Hierdoor wordt het gerucht sterker en sterker dat nVidia zich nog enkel zal richten op professionele hardware (dit krijgt nu al officieel de voorrang) en multimedia hardware zoals de Tegra. (zie het andere topic)
Link naar een nl website, van een mede-tweaker die nog aan het TS hier heeft meegeholpen, die het verhaal stukken beter kan uitleggen dan ik:
Notebookspot.nl: Nvidia verlegt focus van GPU naar CPU


Waarheidsfactor:45%

nVidia houdt introductie van Lucid Hydra moederborden tegen:
Daar nVidia de enige is die winst maakt door sli licenties te verkopen is het de enige kandidaat om Lucid-Hyrda tegen te houden (zoals het PhysX tegenhield in combi met ATI kaarten of Hybrid SLI niet meer support onder druk van MS)Echter is de officiele uitleg dat MSI nog wacht op volledig geteste werkende drivers voor alle mogelijke combinaties en is de bron een niet super geïnformeerde Charlie.

Waarheidsfactor:55%

Notebook nVidia GPU's met dx10.1 support?
Dit gerucht is redelijk zeker daar er vele bevestigingen zijn gekomen dat er idd zo'n mobiele GPU's er zitten aan te komen zelfs gefabriceerd met het 40nm proces! Men suggereert echter dat men deze functionaliteit mogelijk bij de launch niet ter beschikking kan stellen maar eventueel achteraf met een driverupdate zal doen als het blijkt dat het marketing technisch intressant/nodig blijkt te zullen zijn.
Het feit dat er nu al desktop modellen met dx10.1 zijn geleverd bevestigd alleen nog meer dit gerucht:Waarheidsfactor:95%

Waar blijft nVidia met hun dx11 kaart nadat ATI zijn gpu werkende en in productie heeft?
De geruchten oa op onze eigen FP:gaan dat nVidia's grafische kaart hooguit einde Q4 2009 (indien dit nog lukt wss een paperlaunch) begin 2010 pas in massa geproduceerd zullen worden. Men gaat ervan uit dat de nVidia serieuse problemen heeft met zijn dx11 serie kaarten, oa doordat men vernomen heeft dat het geproduceerde test exemplaar gewoonweg dood is terug gekeerd en er dus nog serieus veel werk voor de boeg is voordat deze massa produceerbaar zal worden.
*update 5 oktober 2009*
Deze geruchten worden behouden ook al wijst men meer en meer naar eind Q1 2010 tegen dat nVidia zijn massa productie helemaal in orde zou kunnen krijgen, deze geruchten worden gevoed door het eventueel showen van een valse gt300 kaart en de enorm lage bekomen yield-rates:
Semiaccurate: nVidia fakes fermi boards

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

officiele (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(5oktober 2009) zijn er nieuwe whql drivers uit die recenter zijn dan de beta's die te vinden zijn op de nvidia site

De allerlaatste Beta client kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Officiële nVidia drivers voor Mobile GPU'sEen goede site voor drivers voor Mobile GPU's is(kun je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nvidia www.laptopvideo2go.com

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210 en 220:
TweakTown (Palit Sonic Edition)
TweakTown (Galaxy 1GB)
Guru3D (BFGTech)
FiringSquad (EVGA)
Legit Reviews normal and (quad)SLI (EVGA)
HardOCP (BFGTech)
AnandTech
Tom's Hardware

Vorige Topics:Pricewatch
GeForce 8 serie in de Pricewatch
GeForce 9 serie in de Pricewatch
GeForce 200 serie in de Pricewatch


Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

[Voor 7% gewijzigd door lightdestroyer op 09-11-2009 15:56. Reden: Update nieuws en geruchten onderdeel: Correctie cartoons en gerucht]

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
.
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

Ik heb ervoor gekozen ook mobiele kaarten in de Openingpost(s) op te nemen, dit onder andere doordat laptops steeds een groter deel van de pc verkoop gaan innemen ten kosten van het (procentuele ) verkoop van desktops.
Dat ook de mobiele kaarten voor nieuwswaarde kunnen zorgen toont de volgende nieuwstopics op de tweakers FP mooi aan:
Nvidia ontkent geruchten over grootschalige gpu problemen
Dell brengt bios update uit voor nvidia bug
HP nvidia bug speelt al sinds november 2007

of wa positief nieuws voor de verandering ;):
Details GPU's GeForce 9700M en 9800M bekendgemaakt

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.


De belangrijkste features van de G80 zijn:
  • Unified shaders
  • DirectX 10 ondersteuning
  • OpenGL 2.0 ondersteuning
  • Nieuwe AA modes CSAA, 8Q, 16Q
  • 128 bit HDR ondersteuning in combinatie met AA
  • 16x hoekonafhankelijke AF
  • Ondersteuning voor GPU Physics
  • Shader Model 4
  • Purevideo (HD)
  • SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:

8 serie

8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
  • GPU: G86M
  • Announce Date: 09/05/2007
  • Interface: PCI-E x16
  • Consumption: 11(GS)-14(GT) Watt
  • Transistors: 210 million


Geforce 8400M G GeForce 8400M GS GeForce 8400M GT
Stream-Processors 8 16 16
Core Clock (MHz) 400 400 450
Shader Clock (MHz) 800 800 900
Memory Clock (MHz) 600 600 600
Maximum Memory 256MB 256MB 512MB
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 9.6 9.6 19.2
Texture Fill Rate (billion/sec) 3.2 3.2 3.6




8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
  • GPU: G84M
  • Announce Date: 09/06/2007
  • Interface: PCI-E x16
  • Consumption: 20 Watt
  • Transistors: 289 million


GeForce 8600M GS GeForce8 600M GT
Stream-Processors 16 32
Core Clock (MHz) 600 475
Shader Clock (MHz) 1200 950
Memory Clock (MHz) 700 700
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 12.8/22.4 (DDR2/GDDR3) 12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec) 4.8 7.6



8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont :'))
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
  • GPU: G84M/G84GLM(quadro fx 1600M)
  • Announce Date: 12/06/2007
  • Interface: PCI-E x16
  • Consumption: 29 /50Qqaudro) Watt
  • Transistors: 289 million


GeForce 8700M GT Qaudro fx 1600M
Stream-Processors 32 32
Core Clock (MHz) 625 625
Shader Clock (MHz) 1250 1250
Memory Clock (MHz) 800 800
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 25.6 (GDDR3) 25.6 (GDDR3)
Texture Fill Rate (billion/sec) 10 10



8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
  • GPU: G92M (65 nm)
  • Announce Date: 19/11/2007
  • Interface: PCI-E x16
  • Consumption: 35 /37 Watt
  • Transistors: 754 million


GeForce 8800M GTS Qaudro FX 3600M GeForce 8800M GTX
Stream-Processors 64 (64 of) 96 96
Core Clock (MHz) 500 500 500
Shader Clock (MHz) 1250 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 512MB 512MB 512MB
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 (GDDR3) 51.2 (GDDR3) 51.2 (GDDR3)
Texture Fill Rate (billion/sec) 16 16 24



http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)

Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
  • Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
  • Volledige DirectX 10.0 en OpenGL 2 compatibileit,
  • Mogelijkheid tot 16X antialiasing
  • Full HD DVD / Blu-ray hardware decodering.

9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M



9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 03/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Core Speed: 550 MHz
  • Shader Speed: 1300 MHz
  • Memory Speed: 700 MHz
  • Memory Bus Width 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB



9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 04/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 400 MHz
  • Shader Clock: 800 MHz
  • Memory Clock: 600MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB


9500M Serie

9500M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
  • GPU: NB9P
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 500 MHz
  • Shader Clock: 1250 MHz
  • Memory Clock: 800 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 1024 MB

9500M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
  • GPU: G84-50
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 32
  • Core Speed: 475 MHz
  • Shader Clock: 950 MHz
  • Memory Clock: 700 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 512 MB



9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)

Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet ;)
  • GPU: NB9P (65nm)
  • Announce Date: 3/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ???/29 Watt (9650M GS)
  • Transistors: ??? million


GeForce 9600M GS GeForce 9600M GT GeForce 9650M GS
Stream-Processors 32 32 32
Core Clock (MHz) 430 500 625
Shader Clock (MHz) 1075 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024MB (GDDR2/GDDR3) 1024MB (GDDR2/GDDR3) 512MB (GDDR2?/GDDR3)
Memory Interface 128-bit 128-bit 128-bit
Memory Bandwidth (GB/sec) (GDDR3) 25.6 25.6
Texture Fill Rate (billion/sec) 10



9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
  • De nieuwe PureVideo HD video processor (VP3)
  • HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
  • ondersteunt CUDA enabled programma's
  • NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.


9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant

Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.



GeForce 9700M GT GeForce 9700M GTS
Core G96(NB9P) G94(NB9E-GTS)
Consumptie (Watt) 45 60
Stream-Processors 32 48
Core Clock (MHz) 625 530
Shader Clock (MHz) 1550 1325
Memory Clock (MHz) 800 800
Maximum Memory 512 (GDDR2/GDDR3) 512 (GDDR3)
Memory Interface 128-bit 256-bit
Memory Bandwidth (GB/sec) 25.6 51.2
Texture Fill Rate (billion/sec) 10.0 12.7



GTX 1x0M Serie
Deze reeks werd samen met de GTX2xxM reeks bekend gemaakt. Deze chips hebben veel kans om populair worden doordat ze een stuk goedkoper zijn dan de GTX280M die weliswaar 2 keer zoveel performantie biedt maar stukken warmer loopt en meer kost.
Deze chips supporten SLI, HYBRID Power, Cuda en PhysX maar zijn desondanks nog steeds gebaseerd op de (oude) G92b chip
Deze reeks zal vooral gebruikt worden als higer mid-end en als vervanger dienen voor de 9600M en de 9700M reeks(de GTX 160M zou ongeveer 30 tot 40% beter performantie bieden dan de 9700M GT). Meest waarschijnlijk zal deze kaart dus een heel populaire kaartje worden in laptops.


GeForce GTS150M GeForce GTS160M
Core G94(??) G92b(55nm)
Consumptie (Watt) ?? ??
Stream-Processors 64 64
Core Clock (MHz) 600 600
Shader Clock (MHz) 1000 1500
Memory Clock (MHz) 800 800
Maximum Memory 1024(GDDR3) 1024MB (GDDR3)
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2
Texture Fill Rate (billion/sec) 13.0 19.0



9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.

Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid


GeForce 9800M GS GeForce 9800M GT GeForce 9850M GS
Core G94(NB9E-GT) G94(NB9E-GTS) G92(NB9E-GTX)
Consumptie (Watt) 75 65 75
Stream-Processors 64 96 112
Core Clock (MHz) 600 500 500
Shader Clock (MHz) 1500 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024(GDDR3) 512MB (GDDR3) 512MB (GDDR3)
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2 51.2
Texture Fill Rate (billion/sec) 19.2 24.0 28.0



GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? :() zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).

GeForce GTX260M GeForce GTX280M
Core G92(??) G92(??)
Consumptie (Watt) ?? ??
Stream-Processors 112 128
Core Clock (MHz) 550 585
Shader Clock (MHz) 1375 1463
Memory Clock (MHz) 950 950
Maximum Memory 1024MB(GDDR3) 1024MB (GDDR3)
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 60.8 60.8
Texture Fill Rate (billion/sec) 31 38


http://lightdestroyer.dommel.be/picture_library/tweakers/G100IconC2.PNG

Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze bestaat uit sneller, feature-uitgebreide kaarten geproduceerd met het 55nm-productieproces.

Momenteel zijn gegevens beschikbaar over 3 van deze nieuwe kaarten:

Geforce G105M GeForce G110M GeForce GT130M
Core G105M G110MG92(NB9E-GTX)
Consumptie (Watt) ?? ?? ??
Stream-Processors 8 16 32
Core Clock (MHz) ?? ?? ??
Shader Clock (MHz) 1600 1000 1500
Memory Clock (MHz) 500(DDR2)/700(GDDR3) 500(DDR2)/700(GDDR3) 500 (DDR2)/800 (GDDR3)
Maximum Memory tot 512MB tot 1024MB (GDDR3) 512MB (GDDR3)
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 8(DDR2)/11(GDDR3) 8(DDR2)/11(GDDR3) 16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec) ?? ?? ??
  • De GeForce G105M en de G110M zullen de Mainstream markt bedienen en vormen hierdoor de opvolger van de 9200M tot aan de 9400M kaarten.
  • De GeForce GT 130M zal de Performance markt bedienen en vormt hierdoor de opvolger voor de 9500M en de 9600M grafische kaarten (hoewel dat nVidia vermoedelijk de GTS 160M zal pushen als opvolger voor populaire de 9600M GT kaart).
    Hoeveel dit gerucht waard is, is onbekend daar volgens nVidia zelf de performantie van de GT 130m en de 9600M GT 100% hetzelfde is (en dit dus ruikt naar een zoveelste rebranding :()
http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

Deze reeks van mobiele kaarten werd gelanceerd op 3 maart 2009 met 2 gpu's die eigenlijk gebaseerd waren op de al reeds overbekende G92b cor. De "echte" G2xxM Mobiele GPU's werden echter pas op 15 Juni Geïntroduceerd dit zijn kaarten die zijn gebaseerd op de GT215 tot GT218 cores. Echter enkel de GTS kaarten (GT215 core) supporten GDDR5 (yeah nVidia kaarten met GDDR5 support bestonden al degelijk vanaf zomer 2009).
Deze reeks van kaarten wordt voornamelijk gepromoot dat ze tot 50% zuiniger zijn da vorige generatie en volledig geoptimaliseerd zijn voor Windows 7 (DirectX 10.1 support).

Mainstream: GeForce G210M
Deze kaarten zijn de directe opvolgers van de G102M tot G110M, 9200M totaan 9400M en 8400M Geforce kaarten. Technisch gezien is het een unieke core de GT218 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen de volgende eigenschappen:
  • DPureVideo HD 1080P technologie
  • HybridPower support (schakelt de tweede GPU aan indien je de laptop aan het electriciteitsnet hangt en af indien je hem er weer van af haalt, niet langer manueel of afhankelijk van gpu gebruik/energy profile van MS zoals bij de desktop varianten van Hybrid sli)
  • GeForceBoost technologie (totaan 80% meer aan performantie door gebruik te maken van 2 GPU's)
  • ondersteunt CUDA enabled programma's << CoreAVC playback!
  • Powermize Intelligent Power Management
De technische specifcaties zijn als volgende:
  • Core: GT218
  • Announce Date: 15/06/2009
  • Interface: PCI-E2.0 x16
  • Consumption: 14 Watt
  • Transistors: ?? million
  • Unified shaders: 16/8/4
  • Core Speed: 625 MHz
  • Shader Clock: 1500 MHz
  • Memory Clock: 500(DDR2)/800 ((G)DDR3) MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Memory Bandwidth (GB/sec): 8 (DDR2)/12.8((G)DDR3)
  • Max. Amount of Memory: 1024 MB
  • DirectX: 10.1

Performance: GeForce G230M en GeForce G240M
Deze kaarten zijn de directe opvolgers van de G130M, 9500M totaan 9650M en de 8600M Geforce kaarten. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT216 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen dezelfde eigenschappen als de G210M buiten de volgende eigenschappen:
  • GeForceBoost technologie lijkt niet aanwezig te zijn
  • Powermize Intelligent Power Management wordt ook niet vermeld als feature

GeForce GT 230M GeForce GT 240M
Core GT216 GT216
Consumptie (Watt) 23 23
Shaders 48/16/8 48/16/8
Core Clock (MHz) 500 550
Shader Clock (MHz) 1100 1210
Memory Clock (MHz) DDR2 600 600
Memory Clock (MHz) DDR3 800 800
Memory Clock (MHz) GDDR31066 1066
Maximum Memory 1024MB 1024MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 16/25.6/34.1 16/25.6/34.1


http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (Beta maar er zijn geen WHQL's beschikbaar) nVidia drivers voor Mobile GPU's Geforce Go 7, 8M en 9M reeksen.
Beste is nog steeds zelf te gaan kijken op www.laptopvideo2go.com en daar jouw laptopbouwer te zoeken.
179.48 Win XP 32-bit
179.48 Win XP 64-bit
179.48 Vista 32-bit
179.48 Vista 64-bit
180.29 Linux 32-bit
180.29 Linux 64-bit
180.29 Solaris 32/64-bit
180.29 FreeBSD 32-bit


Officiële Beta drivers voor Mobile GPU's Qaudro
176.04 Vista 32-bit
176.04 Vista 64-bit
176.04 Win XP 32-bit
176.04 Win XP 64-bit


Voor allernieuwste drivers of gemodde inf bestanden voor Mobile GPU's is www.laptopvideo2go.com the place to be.


Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

[Voor 5% gewijzigd door lightdestroyer op 11-11-2009 19:52. Reden: Typo's]

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG
quote: nVidia website
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.

Meer uitleg kan je vinden op de volgende links:Enkele programma's waar CUDA al wordt in gebruikt:
  • Folding @Home
  • Grafische pakketten zoals photoshop
  • CoreAVC: Decoderen van x264 bestanden
  • MotionDSP's vReveal: Tech Report, [url=CUDA: http://www.anandtech.com/video/showdoc.aspx?i=3539&p=14]AnandTech[/url]
  • ...
Ambient Oclusion:
Meer uitleg hierover kan je vinden op:
http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG

Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen.
Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm.
let op:
  • Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
  • 2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
    2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
    Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)

3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard :p
Hoe werkt het?

Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)



En dan in het bios kruipen om een paar settings aan te passen.



Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.

http://lightdestroyer.dommel.be/picture_library/tweakers/IconHybridPower.PNG

Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten ;)



Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.

CPU FabrikantGeForce Boost Technology HybridPower Technology
AMD
GeForce 8300 X X
GeForce 8200 X X
GeForce 8100 X X
nForce 780a SLI X X
nForce 750a SLI X X
nForce 730a X X
nForce 720a X X
Intel
GeForce 9400 X
GeForce 9300 X
nForce 730i X


GeForce Boost Technology HybridPower Technology
GeForce GTX 280 X
GeForce 9800 GX2 X
GeForce GTX 260 X
GeForce 9800 GTX+ X
GeForce 9800 GTX X
GeForce 9800 GT Sommigen
GeForce 8500 GT X
GeForce 8400 GS X


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG

nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )

of de volgende FP: nieuws: Meerdere Nvidia-kaarten ontlasten cpu aanzienlijk bij Physx-benchmarks

Zie ook voor meer uitleg
Guru3D Review (augustus-2008)
Tweaktown
Firingsquad
Hot Hardware
AMD's Antwoord op PhysX

Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
Anandtech
Games:
Sacred 2:
Tom's Hardware
AnandTech
Warmonger:
AnandTech
UT3 PhysX Mod Pack:
AnandTech
Mirror's Edge:
AnandTech
Batman Arkham:(finally a good game ? :p)
Onze eigen Tweakers FP

How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.


Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.

Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden).
Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
*update 7 oktober 2009*
Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf!

Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang ;)
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum


http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

**Edit 15~16/10
Afsplitsen PureVideo gedeelte naar het Mediaspelers en HTPC subfora (tegelijkertijd dit onderdeel eens een beetje upgedate/afgewerkt en Tegra toegevoegd in dit nieuwe TS)
**Edit 14/10
Update van de twee nieuwe 40nm kaarten.
TODO:
Mobiele laptop:: dringend wijzigingen nodig :s
Vermelding van ION
Geruchten rond de GT300 <<exacte specificaties??
Informatie van de GT200 dringend updaten ;p

[Voor 31% gewijzigd door lightdestroyer op 16-10-2009 01:34]

Specs


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
Reactie op de quote van FUD:

Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast. Hij zal vast wel sneller zijn. Maar met weg blazen hebben we het over 40+% hogere performance. Daar naast verwacht ik dat die kaart 450+ euro moet gaan kosten als je ziet dat een HD5870 die veel goedkoper te maken is nu al +-330 kost.

Dus ik wil eerst wel eens wat dingen van die kaart zien voordat ik dit soort conclusies ga trekken. Mja het is en blijft FUD he.....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Astennu schreef op woensdag 14 oktober 2009 @ 15:14:
Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast.
Zal vast wel een dual kaart van komen, van de GTX365 dan, waarschijnlijk niet van de GTX385. Of Asus moet het weer nodig vinden om een te dure en te slechte kaart te maken (hitte uitval) ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 30-05 21:47
Astennu schreef op woensdag 14 oktober 2009 @ 15:14:
Reactie op de quote van FUD:

Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast. Hij zal vast wel sneller zijn. Maar met weg blazen hebben we het over 40+% hogere performance. Daar naast verwacht ik dat die kaart 450+ euro moet gaan kosten als je ziet dat een HD5870 die veel goedkoper te maken is nu al +-330 kost.
Ik deel deze mening :)

Tesla Model Y RWD / 5.4 kWp PV installatie


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16-05 17:46
-The_Mask- schreef op woensdag 14 oktober 2009 @ 15:21:
[...]

Zal vast wel een dual kaart van komen, van de GTX365 dan, waarschijnlijk niet van de GTX385. Of Asus moet het weer nodig vinden om een te dure en te slechte kaart te maken (hitte uitval) ;)
Tja ik wil het nog niet eens over een dual versie hebben aangezien de single versie nog nergens te bekennen is. Ik verwacht dat die nog wel even kan gaan duren.

AMD zal wel over een of twee maanden met hun Hemlock dual HD5870 komen. Die zal een GT300 Single kaart wel kunnen verslaan. Afhankelijk van de warmte productie van de single GT300 kunnen we een inschatting maken wat een dual zou gaan doen. Maar ik vermoed wel dat die de HD5870 X2 zal gaan verslaan. Maar dan is de vraag wat gaan beide kaarten kosten ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 30-05 21:47
Lol.. Ik heb net de review op Hardware.info gelezen over de GT220. Wat een flutkaart, hij wordt op alle vlakken verslagen door de 4670. Ik kan me echt niet voorstellen dat je als systeembouwer zoiets in je systeem wilt verkopen.

Voor de luie mensen hier de link.

Tesla Model Y RWD / 5.4 kWp PV installatie


  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

AMD zal wel over een of twee maanden met hun Hemlock dual HD5870 komen. Die zal een GT300 Single kaart wel kunnen verslaan. Afhankelijk van de warmte productie van de single GT300 kunnen we een inschatting maken wat een dual zou gaan doen. Maar ik vermoed wel dat die de HD5870 X2 zal gaan verslaan. Maar dan is de vraag wat gaan beide kaarten kosten ?
Tsja.. wat kost destijds de 4870x2 bij release, de prijzen zullen wel richting de € 600,- gaan ben ik bang.
Verder ben ik het ook eens met de opmerking dat Nvidia het zwaar krijgt om de prijs/kwaliteit van de huidige ati's te beconcureren...

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 02-06 12:05

superwashandje

grofheid alom

hemlock zou toch minder dan 500 dollar gaan kosten? (daar hoop ik in ieder geval wel op :P)

edit: nvidia gedeelte: fermi zou waarschijnlijk niet over de hemlock heen gaan dus ze moeten denk ik daarmee ook wel onder de 500 gaan zitten.

[Voor 44% gewijzigd door superwashandje op 14-10-2009 16:46]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Ik vraag me af wie er eigenlijk vertrouwen in heeft dat Fermi makkelijk als twee GPU's in één Slot gaat passen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Astennu schreef op woensdag 14 oktober 2009 @ 15:14:
Reactie op de quote van FUD:

Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast. Hij zal vast wel sneller zijn. Maar met weg blazen hebben we het over 40+% hogere performance. Daar naast verwacht ik dat die kaart 450+ euro moet gaan kosten als je ziet dat een HD5870 die veel goedkoper te maken is nu al +-330 kost.

Dus ik wil eerst wel eens wat dingen van die kaart zien voordat ik dit soort conclusies ga trekken. Mja het is en blijft FUD he.....
Persoonlijk denk ik ook dat FUD aan het overdrijven is. Waarschijnlijk wordt het (imho) gewoon weer dezelfde situatie als met de HD4xxx en GT2xx, namelijk de Nvidia kaarten iets sneller, maar daarom ook iets duurder.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Nvidia and its partners believe that Fermi should destroy Radeon HD 5870 and HD 5850 sales, but this is only after it starts shipping.

Het is vooral die zin in het Fudzilla artikel waar het chauvinisme, de marketing en de partijdigheid van Fudzilla vanaf druipen.

Ten eerste moeten er nog steeds benchmarks getoond worden van Fermi. Tot die tijd is het heel erg moeilijk te stellen hoe deze kaart zich verhoudt ten opzichte van de HD5870. Evenmin onbelangrijk zou nVidia er goed aan doen om een werkelijk exemplaar van de GT300 te tonen, als fabrieks-klaar verkoopbaar product. Evenmin onbelangrijk is dat ze eerst maar eens kaarten het retailkanaal in moeten krijgen in fatsoenlijke aantallen. Of sterker, eerst moet de kaart in zijn geheel beschikbaar komen.

Daarnaast, superlatieven als 'destroy' zijn sowieso komisch. Als een HD5870 straks 250 euro kost en een GTX380 kost 450+ euro voor ~20-30% extra performance, dan weet ik wel zeker dat er genoeg mensen zijn die wel een HD5870 willen kopen.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
  1. Er staat duidelijk nVidia en zijn partners geloven dat ....
  2. Ten tweede is het hier niet de bedoeling om bepaalde sites af te breken/op te hemelen maar nVidia nieuws te bespreken, om eerlijk te zijn ben ik het kotsbeu om 20 topic pagina's vol te lezen met mensen die kritiek hebben tegen bepaalde websites.
    In het Ati topic wordt toch ook niet constant om per 5 post gezaagd hoe bevoordeeld Charly wel niet is in zijn woordkeuze wanneer hij nieuws schrijft?
  3. Het bespreken van nieuws over Ati kaarten en hoe goed ze zijn tegenover nog een onbekende, nog te lanceren kaart doe je maar in het Ati topic, daarvoor dient het ook. (Waar men je naar alle wss zal doorverwijzen naar het ervaringstopic omdat het daar ook niet gewenst is)
Neem dit niet al te persoonlijk op, dit geld zeker niet voor jouw alleen, .. maar er zijn genoeg waarschuwingen/modbreaks geweest...
Er is meer dan genoeg nieuws over nVidia te vinden tegenwoordig dat men niet constant totaal off-topic moet bezig zijn.

Als voorbeeld heb ik amper nieuws zien passeren over de twee nieuwe kaarten die gelanceerd zijn door nVidia behalve een hoop posts die als doelstelling hadden gelijk aan te tonen hoe zwak deze wel niet zijn ...(yeah low end kaarten hebben de neiging die eigenschap te hebben ...)

Indien men toch zo graag deze posts wil maken, stel ik voor een "[Algemeen] nVidia Bashing" of [Algemeen] Hoe ervaar ik de evilness van nVidia" topic aan te maken waar iedereen zich naar hartelust kan uitleven en het hier weer rustiger wordt.
(Indien iemand dit serieus wil overwegen wil ik zelf helpen met de topic layout .. hoewel mijn TS niet echt een goed voorbeeld is :+ )

Specs


  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Dat de mods niets doen tegen al dat fanboy geneuzel? Hoe kan je in hemelsnaam volhouden dat FUD een nvidia propaganda site is als ze al sinds de launch van de DX11 kaarten van ATI hallelujah roepen over die dingen? :')

Vandaag zijn ze weer lyrisch over geteste 5750 en 5770 kaarten zelfs. Iets té lyrisch misschien zelfs.

Specs


  • Naluh!
  • Registratie: Juni 2003
  • Niet online
BoRRel82 schreef op woensdag 14 oktober 2009 @ 16:35:
[...]

Tsja.. wat kost destijds de 4870x2 bij release, de prijzen zullen wel richting de € 600,- gaan ben ik bang.
Verder ben ik het ook eens met de opmerking dat Nvidia het zwaar krijgt om de prijs/kwaliteit van de huidige ati's te beconcureren...
Als je maar de absolute performance kroon hebt kom je een heel eind, de meeste mensen zal het worst wezen of ze een honderdje meer betalen als ze dan het beste van het beste hebben.

Specs


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Meeste mensen gaan echt niet zoveel uitgeven voor nieuwe computer onderdelen.

  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03-2022
tomcatha schreef op woensdag 14 oktober 2009 @ 20:34:
Meeste mensen gaan echt niet zoveel uitgeven voor nieuwe computer onderdelen.
Je hebt altijd mensen die daar echt een zak geld voor willen uitgeven, net als de mensen die bij de launch een 8800 GTX hebben gekocht...

  • ownage maxim
  • Registratie: Augustus 2007
  • Laatst online: 17-03 11:04


Flame on :9

http://www.youtube.com/watch?v=10xKBSEEvwQ

[Voor 19% gewijzigd door ownage maxim op 14-10-2009 20:55]


  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03-2022
:') overduidelijk fake, waarom noemt hij het GT300.. Waarom niet meteen GTX 380 dan?

  • Paprika
  • Registratie: September 2007
  • Laatst online: 02-06 17:52
Labels:
nvidia tesla crystal skull classified 4way fastest porn
Zoek de label van dat filmpje die dus echt nergens op slaat.... -O-

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

Uberhaupt als het echt zou zijn zou nvidia nooit zon waardeloze kwaliteit plaatje gebruiken en ook zeker geen ATI kaart erbij zetten.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 30-05 14:33

RuddyMysterious

a smorgasbord of waywardness

Ik zet hierbij even een bedenking neer: van ATI wordt gezegd dat ze met veel minder transistoren dezelfde prestaties weten neer te zetten, als het gaat om de vergelijking tussen de gt200 en de rv770. Het is waar dat nVidia massa's meer transistoren in z'n chips heeft gebouwd dan ATI, en dat ze desondanks toch ongeveer gelijk zitten qua prestaties.

Daartegenover staat echter dat nVidia, ondanks zijn veel hogere aantal transistoren, qua verbruik eveneens rond het niveau van dat van ATI zit. Dat wil dus zeggen dat de performance/watt ratio ongeveer gelijk is, en dat de performance per transistor ratio veel lager is dan bij ATI, maar dat de transistor/watt ratio veel hoger is dan bij ATI. Waarbij ik eigenlijk uitkom op mijn bedenking: volgens mij wordt een groot deel van de nVidia chip niet gebruikt bij het normale gamen. Is dat mogelijk? Dat ze zoveel extra transistoren hebben ingebouwd, voor bijvoorbeeld CUDA functionaliteit? Want dat is ook een van de punten die wordt aangehaald nu, bij het speculeren over het ontwerp van de fermi-chip.

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

Klopt bij de gt200 chip wordt maar een heel klein deel van de chip daad werkelijk gebruikt voor gaming ;) halve chip of meer zit gewoon uit zn neus te vreten..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

GT200 is gemaakt voor CUDA, da's een allang bekend feit en een piétsje onhandig geweest. Wat betreft performance/watt vind ik ATi toch iets de overhand hebben. In de ruststand komt nV prima mee omdat het de NVIO-chip heeft die 2D-zaken afhandelt en waardoor de meest stroomverbruikende chipdelen uitgaan. Onder load moet alles echter aan en schiet het verbruik omhoog. Ga maar na, onder load is nV een stukje minder zuinig dan ATi, afhankelijk van het model. Niet dat ATi-kaarten zo ongelofelijk zuinig zijn trouwens ;)

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jejking schreef op woensdag 14 oktober 2009 @ 21:38:
Wat betreft performance/watt vind ik ATi toch iets de overhand hebben.
Dat ligt er maar net aan welke kaarten je gaat vergelijken.

GTX260 is zuiniger dan de HD4870, maar de HD4890 is zuiniger dan de GTX275.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • mindcrash
  • Registratie: April 2002
  • Laatst online: 22-11-2019

mindcrash

Rebellious Monkey

Weer een interessant gerucht (voor zover dat niet bekend was hier): er gaan geruchten dat Nintendo ergens in 2010 met een gloednieuwe Nintendo DS (opvolger?) komt die voorzien zal worden van Nvidia's Tegra SOC.

engadget: NVIDIA Tegra to power next-gen Nintendo DS?

"The people who are crazy enough to think they could change the world, are the ones who do." -- Steve Jobs (1955-2011) , Aaron Swartz (1986-2013)


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
mindcrash schreef op woensdag 14 oktober 2009 @ 21:45:
Weer een interessant gerucht (voor zover dat niet bekend was hier): er gaan geruchten dat Nintendo ergens in 2010 met een gloednieuwe Nintendo DS (opvolger?) komt die voorzien zal worden van Nvidia's Tegra SOC.

engadget: NVIDIA Tegra to power next-gen Nintendo DS?
Zou heel goed kunnen.

nVidia zet zwaar in op hun tegra platform. nVidia zelf (of beter de pr afdeling) verklaart dat ze enkel producten fabriceren die een extra meerwaarde kunnen bieden. Maw nVidia ziet weinig toekomst meer in igp chipsets (oa omdat ze bij Intel in een juridisch dispuut zijn en ook de onderhandelingen met AMD verlopen als de geruchten juist zijn alles behalve vlot, ook biedt de nVidia chipsets totaal geen meerwaare tegenover de standaard intel/AMD chipsets dus waarom zou men deze willen kopen als eindgebruiker? )
maar zet voluit in op platforms zoals ion en tegra. Nudat Ion in de toekomst beperkt zal worden tot via chips-only gokt nVidia dus voluit op de Tegra die oa al zal gebruikt worden in de Zune.
Nvidia: Tegra Puts 8 Processors Inside Zune HD
Let ook op het feit dat in deze press release van nVidia vermeld wordt dat ze toen 50 lopende projecten hadden waarin Tegra zou worden gebruikt.

Verschillende sources claimen dat indien deze zet succesvol is, dit voor nVidia zelf meer winst kan opleveren dan hun chipset afdeling ooit gedaan heeft. Natuurlijk indien het tegra platform door vele fabrikanten wordt in gebruik genomen ( daarin verwees men steeds naar smart phones, maar een hand held console op het Tegra platform past imo perfect in het nVidia verkoop plaatje..)
In ieder geval is de potentiele markt voor de Tegra in theorie enorm groot en heeft ze tot nu toe geen enkele concurrentie ( het Tegra platform gebruikt ARM cpu's, dus het is een extra meerwaarde tegenover ARM's en zeker geen concurrent)

**Edit**
Ik ben blijkbaar vergeten de volgende berichten in mijn TS op te nemen (was het wel van plan).
Waarschijnlijk zijn deze berichten al gepasseerd in dit topic...
NVIDIA's Road Ahead: Ion, Tegra and The Future of The Company
Nvidia demos Tegra running Android
Nvidia Working on Chrome OS Tegra Devices
Ik had nog ergens anders een artikel gevonden over de toekomst plannen van nVidia met het Tegra platform maar ik vind deze niet direct ..
Vooral de laatste 2 artikels zijn intressant, indien nVidia android/Chrome OS succesvol kan porten naar het Tegra platform is er geen enkele beperking meer om dit platform heel gemakkelijk voor smartphones te introduceren.
En op lange termijn heeft nVidia dan geen x86 licentie meer nodig indien er genoeg pc's/laptops verkocht geraken met Chrome OS als primair besturingssysteem en een tegra chip als cpu+gpu combinatie.
Het zou direct ook ARM zijn probleem oplossen dat windows tot nu toe weigerde hun cpu's te ondersteunen.
Dit allemaal in het geval dat android/Chrome OS een succes worden natuurlijk.

[Voor 30% gewijzigd door lightdestroyer op 14-10-2009 22:28]

Specs


Anoniem: 317606

DevilsProphet schreef op woensdag 14 oktober 2009 @ 21:33:

Daartegenover staat echter dat nVidia, ondanks zijn veel hogere aantal transistoren, qua verbruik eveneens rond het niveau van dat van ATI zit. Dat wil dus zeggen dat de performance/watt ratio ongeveer gelijk is, en dat de performance per transistor ratio veel lager is dan bij ATI, maar dat de transistor/watt ratio veel hoger is dan bij ATI. Waarbij ik eigenlijk uitkom op mijn bedenking: volgens mij wordt een groot deel van de nVidia chip niet gebruikt bij het normale gamen. Is dat mogelijk? Dat ze zoveel extra transistoren hebben ingebouwd, voor bijvoorbeeld CUDA functionaliteit? Want dat is ook een van de punten die wordt aangehaald nu, bij het speculeren over het ontwerp van de fermi-chip.
Het verbaast me dat jij dit niet weet. Het is al sinds de introductie van de GT200 bekend dat de chip gericht is op GPGPU en CUDA etc.
Maw nVidia ziet weinig toekomst meer in igp chipsets (oa omdat ze bij Intel in een juridisch dispuut zijn en ook de onderhandelingen met AMD verlopen als de geruchten juist zijn alles behalve vlot, ook biedt de nVidia chipsets totaal geen meerwaare tegenover de standaard intel/AMD chipsets dus waarom zou men deze willen kopen als eindgebruiker? )
IGP gaat volledig verdwijnen, Intel en AMD gaan de graphics naar de CPU verhuizen. Intel met Clarkdale, AMD met Fusion. Lynnfield heeft zelf de PCIe controller in de CPU zitten. Zo is P55 geen chipset meer maar slechts één chip.

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik denk dat het goed is voor nvidia om success te hebben met de tegra gezien hun huidige videokaart situatie.

Als de performance van de gt300(dus wat de gtx380 zou worden) dat is nvidia qwa gpu misschien wel gered. Niet dat ze falliet zouden gaan maar dan is hun komende generatie geen verloren hoop maar ik geloof die plaatje niet.

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Naluh! schreef op woensdag 14 oktober 2009 @ 18:41:
Dat de mods niets doen tegen al dat fanboy geneuzel? Hoe kan je in hemelsnaam volhouden dat FUD een nvidia propaganda site is als ze al sinds de launch van de DX11 kaarten van ATI hallelujah roepen over die dingen? :')
Als je iets tegenkomt dat je niet aanstaat, maak gewoon een TR aan. Snellopende grote topics als deze zijn voor ons erg lastig om continu bij te houden. We hebben al wat meer modforce rondlopen, maar in de regel gaan we eerder af op topicreports dan dat we alle grote topics door kunnen gaan spitten.

Dus TR's zijn altijd welkom.

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Modbreak:Discussie afgesplitst: [nieuws] Nvidia en de toekomst

De discussie over nVidia en hun toekomstplannen is afgesplitst om niet alles op 1 grote hoop te gooien. Graag daar verder discussieren over dat onderwerp.

Anoniem: 104593

mindcrash schreef op woensdag 14 oktober 2009 @ 21:45:
Weer een interessant gerucht (voor zover dat niet bekend was hier): er gaan geruchten dat Nintendo ergens in 2010 met een gloednieuwe Nintendo DS (opvolger?) komt die voorzien zal worden van Nvidia's Tegra SOC.

engadget: NVIDIA Tegra to power next-gen Nintendo DS?
Ik heb eens hier en daar rondgevraagd:

Nu gaat dit verhaaltje:

Beyond 3D admin(vandaag)
There really isn't anything new with Theo's leak; you'll find more info on this forum when me and/or Ailuros hint about it, really... And his speculation doesn't make any sense anyway.

As I said before, it's nearly certainly a 40nm *custom* SoC based on Tegra2 IP (DX9-level like Tegra1) and a single Cortex-A9 with FPU. Tegra1 has 2 TMUs, Tegra2 probably has 4 TMUs. It'd be a relatively safe bet to assume they're going to stick to that, but who knows. I also have no clue about what kind of multimedia system Nintendo might have asked for.
en Yahoo Games(september 2009):
http://uk.videogames.game...ew-ds-sighted-b742f7.html

Nintendo T(egra :P ) S
- Nvidia Tegra2 (Custom design, DirectX9, 40nm, 4 TMU's)
- ARM Cortex-A9 600mhz
- Build-in Camera
- Touch Screen
- Backwards compatible met DS/DSi

Software getoond achter gesloten deuren op GamesCom: Pikmin, Metroid, Nintendogs, Brain Training, Mario Kart(naar verluid net zo mooi als Mario Kart Wii/Double Dash)

Nintendo heeft daarnaast honderden miljoenen meer aan R&D gespendeerd dan normaal en er staan haast geen DS games meer op het programma na Q2 2010. Een launch aan het einde van volgend jaar sluit ik dus zeker niet uit.

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 01-06 22:27
nVidia and EVGA launching a graphics card on October 30th

[Voor 4% gewijzigd door Blastpe op 21-10-2009 13:54]


  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

lol, wie gaat er mee :9 :9 :9

  • Paprika
  • Registratie: September 2007
  • Laatst online: 02-06 17:52
Bij de titel verwacht men Fermi, maar nee het mocht niet baten.

Er zit wel een leuke post op dat forum....
Kostuum voor het feestje:

  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03-2022
Maar even afwachten wat dat wordt, maar ik verwacht niks groots...

quote]NinteX schreef op donderdag 15 oktober 2009 @ 11:58:
[...]

Ik heb eens hier en daar rondgevraagd:

Nu gaat dit verhaaltje:

Beyond 3D admin(vandaag)

[...]

en Yahoo Games(september 2009):
http://uk.videogames.game...ew-ds-sighted-b742f7.html

Nintendo T(egra :P ) S
- Nvidia Tegra2 (Custom design, DirectX9, 40nm, 4 TMU's)
- ARM Cortex-A9 600mhz
- Build-in Camera
- Touch Screen
- Backwards compatible met DS/DSi

Software getoond achter gesloten deuren op GamesCom: Pikmin, Metroid, Nintendogs, Brain Training, Mario Kart(naar verluid net zo mooi als Mario Kart Wii/Double Dash)

Nintendo heeft daarnaast honderden miljoenen meer aan R&D gespendeerd dan normaal en er staan haast geen DS games meer op het programma na Q2 2010. Een launch aan het einde van volgend jaar sluit ik dus zeker niet uit.
[/quote]

DS met Dx 9 :O..

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Spooky videokaart:
http://www.evga.com/articles/00512/

[Voor 40% gewijzigd door neliz op 21-10-2009 21:11]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
Ik ben wel heel benieuwd wat voor kaart dit gaat zijn. Met zo'n aankondiging lijkt het me niet zomaar een low-end kaartje. Iemand een idee?

edit: Het zou natuurlijk een GT200 op 40nm met 256 bit, GDDR5 en DX10.1. Deze technieken heeft nVidia ondertussen allemaal al eens toegepast op low-end kaartjes, dus zeker niet onmogelijk. Dat zou helemaal geen verkeerd kaartje zijn en ook verklaren waarom de GTX285, GTX275 en GTX260 langzamerhand van de markt verdwijnen. Mooie overbrugging tot Fermi en na die release leuk voor mid-end.

[Voor 58% gewijzigd door Depep op 21-10-2009 22:23]

specs


  • KiLLaHeRTz
  • Registratie: November 2006
  • Laatst online: 10:56
Het kan natuurlijk ook een paper release van de GT300 zijn :P Bij Halloween zijn er dan 10 kaarten beschikbaar over de hele wereld en dan zou hij beter beschikbaar moeten zijn in Q1 ;(

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Depep schreef op woensdag 21 oktober 2009 @ 22:17:
Ik ben wel heel benieuwd wat voor kaart dit gaat zijn. Met zo'n aankondiging lijkt het me niet zomaar een low-end kaartje. Iemand een idee?

edit: Het zou natuurlijk een GT200 op 40nm met 256 bit, GDDR5 en DX10.1. Deze technieken heeft nVidia ondertussen allemaal al eens toegepast op low-end kaartjes, dus zeker niet onmogelijk. Dat zou helemaal geen verkeerd kaartje zijn en ook verklaren waarom de GTX285, GTX275 en GTX260 langzamerhand van de markt verdwijnen. Mooie overbrugging tot Fermi en na die release leuk voor mid-end.
Wat je hier omschrijft zou dus feitenlijk de GT212 zijn. DX10.1, 40nm, GDDR5 en een 256-bit geheugenbus waren allemaal onderdeel van die chip. Uitgaande van een uitlating van Neliz een topic of wat terug en het gebrek aan nieuws over Fermi, zou het haast nog zo kunnen zijn ook. Ik zou me alleen afvragen of nVidia nu nog wel een GT212 zou willen uitbrengen, maar ze zullen sowieso met een kaart moeten komen voor de feestdagen.
KiLLaHeRTz schreef op woensdag 21 oktober 2009 @ 22:41:
Het kan natuurlijk ook een paper release van de GT300 zijn :P Bij Halloween zijn er dan 10 kaarten beschikbaar over de hele wereld en dan zou hij beter beschikbaar moeten zijn in Q1 ;(
In de aankondiging werd al gemeld dat het niet om een kaart ging gebasseerd op de Fermi-chip, dus die launch zal het nog niet zijn.

[Voor 17% gewijzigd door dahakon op 21-10-2009 22:45]


  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 02-06 14:49

TGEN

Hmmmx_

Heatsink profiel lijkt iig op die van een single-PCB GTX295:

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Depep schreef op woensdag 21 oktober 2009 @ 22:17:
Ik ben wel heel benieuwd wat voor kaart dit gaat zijn. Met zo'n aankondiging lijkt het me niet zomaar een low-end kaartje. Iemand een idee?

Iets anders kan ik mij niet bedenken eigenlijk.
KiLLaHeRTz schreef op woensdag 21 oktober 2009 @ 22:41:
Het kan natuurlijk ook een paper release van de GT300 zijn :P
Te vroeg anders hadden ze de vorige keer niet zo'n stuk plastic (Fermi) laten zien. ;)

[Voor 3% gewijzigd door -The_Mask- op 21-10-2009 22:48]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

dahakon schreef op woensdag 21 oktober 2009 @ 22:44:
Uitgaande van een uitlating van Neliz een topic of wat terug en het gebrek aan nieuws over Fermi, zou het haast nog zo kunnen zijn ook. Ik zou me alleen afvragen of nVidia nu nog wel een GT212 zou willen uitbrengen, maar ze zullen sowieso met een kaart moeten komen voor de feestdagen.
Dat zou een kwartaal geleden al gebeurd moeten zijn.. en gaat niet meer gebeuren ook.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

TGEN schreef op woensdag 21 oktober 2009 @ 22:46:
[...]

Heatsink profiel lijkt iig op die van een single-PCB GTX295:
[afbeelding]
Idd ook helemaal qua inkeping..

Maargoed ben benieuwd :)

hopelijk een beetje performance ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
misschien een gtx290

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 27-03 15:50

SECURITEH

Man of legend.

KiLLaHeRTz schreef op woensdag 21 oktober 2009 @ 22:41:
Het kan natuurlijk ook een paper release van de GT300 zijn :P
Er staat specifiek op de pagine dat het geen Fermi is.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op woensdag 21 oktober 2009 @ 23:13:
[...]

en gaat niet meer gebeuren ook.
Waarom zijn er dan al enkele preview/reviews geweest?

Wie heeft er bedacht dat de 2 en de 5 zo veel op elkaar moet lijken? :p

[Voor 15% gewijzigd door -The_Mask- op 22-10-2009 00:24]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

-The_Mask- schreef op donderdag 22 oktober 2009 @ 00:11:
Waarom zijn er dan al enkele preview/reviews geweest?
Van GT212 (zie wie ik quote?) Jij hebt het over GT215?!

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 01:00

SG

SG surft naar info hardewaren

Anoniem: 317606 schreef op woensdag 14 oktober 2009 @ 23:27:
Het verbaast me dat jij dit niet weet. Het is al sinds de introductie van de GT200 bekend dat de chip gericht is op GPGPU en CUDA etc.
Op achitektuurgebied lijkt mij dit de grooste onzin. Dit zou je dan moeten zien in Shader spects. This SM4.0.
De shaders lijken mij vanaf G80 tot G200b hetzelfde. Tenzij mij iemand de spects verschillen kan aantonen.
Tenzij je bedoeld dat de shader vs RopTMU verhouding vergroot is in voordeel van shaders. Maar 3D renderen wordt ook meer shader heavy.
Of dat nV hun G80 afgeleide meer als GPGPU ding marketeerd. g80 tech in G200 bombaderen als iets cuda GPGPU specifiek.

Voor de nieuwe DX10.1 GPU moeten ze aan de shader architektuur sleutelen om SM4.1 er in te pleuren.
en daarmee kansen om de architektuur GPGPU gericht te maken. Dus van die nieuwe DX10.1 van nV zou jed at kunnen verwachten.
Fermi met SM5.0 maar ook c++ support lijkt mij duidelijk veel meer op GPGPU gericht.
Cuda is een C taalt dat door nV ownership en exclusiviteit alleen Binaries mag genereren voor nV shaders.
We gaan de Watcom en MS en intel C(++) plugin compilers ook niet verafgoden. Dus zo bijzonder is dit ook weer niet.
Cuda is dus een C taaltje compiler dat samenwerkt met de driver en wat libs en tools waar nV aardig wat werk in gestopd heeft. Plus een leger uitleen Cuda code kloppers om het nog veel harder de markt in te pushen.
Om tegen de vraag naar standaarden keihard in te gaan, wat geen kleine opgave is. En daar dus ook zwaar in te investeren.
Ik zie Fermi als een GPU die kwa architektuur die daadwerkelijk meer gericht is op GPGPU.
Door extra GPGPU features en eigenlijk CPU features zoals caches en C++ support.
Maar ook extra veel van die shader dingen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Anoniem: 263719

Leuk, maar wie zit daar nu op te wachten... de echte Nvidia fan heeft al lang een GTX275 gecombineerd met een GTS250 op een SLI moederbord, of zit te wachten op Fermi, en ik denk dat dit nog maar eens aantoont dat die laatste nog lang niet klaar is...

[Voor 3% gewijzigd door Anoniem: 263719 op 22-10-2009 09:48]


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik vraag me toch af of een GTX285 niet sneller is dan die GTX275+GTS250. In games zonder physx natuurlijk al helemaal, maar ik in games mèt physx is dat vaak niet heel zwaar en vandaar dat de extra rekenkracht van de GTX285 (t.o.v. de GTX275) die extra physx misschien al kan opvangen. Maar ik ben benieuwd naar de benchmarks.

(of kan een physx-kaart nog voor meer dingen gebruikt worden dan alleen physx? Een soort hybrid-Sli-achtig iets zou voor deze kaart leuker zijn)

Heeft geen speciale krachten en is daar erg boos over.


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

bwerg schreef op donderdag 22 oktober 2009 @ 09:56:
Ik vraag me toch af of een GTX285 niet sneller is dan die GTX275+GTS250. In games zonder physx natuurlijk al helemaal, maar ik in games mèt physx is dat vaak niet heel zwaar en vandaar dat de extra rekenkracht van de GTX285 (t.o.v. de GTX275) die extra physx misschien al kan opvangen. Maar ik ben benieuwd naar de benchmarks.

(of kan een physx-kaart nog voor meer dingen gebruikt worden dan alleen physx? Een soort hybrid-Sli-achtig iets zou voor deze kaart leuker zijn)
Als je met een GTX285 "echte" PhysX games speelt op 19x12 of 25x26 met AF en AA zie je al snel een framerate verlies van 40 tot 50 procent, dit was al zo in Mirror's Edge en ook in Batman, de huidige implementatie van GPU PhysX vreet kracht van je GPU.
Deze "dedicated" opstelling (SLI PhysX) zal stukken sneller zijn.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 30-05 21:47
-The_Mask- schreef op woensdag 21 oktober 2009 @ 22:47:
[...]

[afbeelding]
Iets anders kan ik mij niet bedenken eigenlijk.

[...]

Te vroeg anders hadden ze de vorige keer niet zo'n stuk plastic (Fermi) laten zien. ;)
128 bits bus? Dan kan hij toch nooit concurreren met de 58xx serie? Ook al hebben ze GDDR5 in gebruik genomen, dat draait ook nog 'maar' op 3600 Mhz, klikt eerder als een concurrent voor de 57xx serie.

Tesla Model Y RWD / 5.4 kWp PV installatie


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
Wie zegt dat hij zou moeten concurreren met de HD58xx serie? ;)

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

spNk schreef op donderdag 22 oktober 2009 @ 10:52:
Wie zegt dat hij zou moeten concurreren met de HD58xx serie? ;)
nvidia? met "Our $129 card competes with AMD's top of the line model in the latest games such as Batman: Arkham Asylum."

Dat heet "in je eigen mes lopen"

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • fikkie_84
  • Registratie: Januari 2004
  • Laatst online: 13:35
Nog een leuk stukje voor de linux gebruikers onder ons, een nvidia linux developer over de staat/support voor linux drivers .

Op anandtech ook een blog over het feit dat nvidia de eerste is die opencl enabled drivers aan iedereen aanbied + een kleine recap over de staat van opencl.

Denk niet dat het al eerder vermeld was.

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

neliz schreef op donderdag 22 oktober 2009 @ 10:54:
[...]


nvidia? met "Our $129 card competes with AMD's top of the line model in the latest games such as Batman: Arkham Asylum."

Dat heet "in je eigen mes lopen"
Ik gok erop dat er binnenkort wat ATi slides verschijnen met een boodschap over "PhysX" en "cheating" en wat slides over de laatste games zonder een bepaalde implementatie van PhysX. Dit is natuurlijk vragen om problemen.

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Damn wat een boel anti nv boy's hier weer om dood ziek van te worden. Jammer hoor dat het nog steeds zo is op tweakers ik had het wel wat pro verwacht ipv bashen en bashen en zeuren als een oud wijf alsof je er zelf last van hebt.
Of ga anders trug na het ati hok want het zijn voornamelijk pro ati volk.
Hier word iedereen telkens helemaal flauw van.
Modbreak:Discussies win je met argumenten en onderbouwing, niet met ongefundeerde beschuldigingen richting anderen. Dat heet gewoon flamen :/

Sowieso pot-ketel verhaal - jouw verhaal hier is van geen kanten "pro" te noemen, sterker nog, het is waarschijnlijk de minst beargumenteerde post in deze discussie :o


Ontopic
ATI HD 5870 + NV GT 220 PhysX Benchmarks
http://physxinfo.com/news...v-gt220-physx-benchmarks/

[Voor 41% gewijzigd door dion_b op 22-10-2009 20:35]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Niet meteen zo hakken Lup, prettig wakker worden is anders.

Dit is een realistisch beeld over een logische reactie die ATi zou kunnen geven. Met dit soort quotes vraag je erom om de marketingmachines weer op te starten. Hierbij laat ik even in het midden of nVidia of ATi nu gelijk heeft over de bescherming van PhysX / CUDA (zie Rutger Mulder in "[nieuws] Nvidia en de toekomst" ) maar het gaat gedonder in de PR-glazen geven, dat is een ding wat zeker is.




Informatief linkje trouwens, bevestigt het beeld wat velen hebben. Jammer alleen dat ze niet vermelden welke drivers er gebruikt zijn (van ATi én nVidia vanwege de combinatieblokkade), de oude of nieuwe met hack?

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Klopt ik vraag mij nu ok erg af welke drivers hier voor werden gebruikt en of ze ook nog een gemod zijn of zo iets. lijkt mij namelijk van wel dat laatste

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Oud nieuws, het zijn gewoon aangepast 186 drivers volgens mij die securom de check van B:AA voor de gek houden.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

neliz schreef op donderdag 22 oktober 2009 @ 11:54:
[...]


Oud nieuws, het zijn gewoon aangepast 186 drivers volgens mij die securom de check van B:AA voor de gek houden.
was dan ook een reactie op die 2 boven mij die zich afvroegen welke drivers want het staat er gewoon bij. :P

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Is nieuw nieuws hoor teminste ik kan niets trug vinden in dit topic

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
Wel vaag dat de ATi kaart soms nog minder minimale fps haalt dan de GT220... volgens mij was dat systeem meer aan het doen dan alleen benchmarken. :)

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

spNk schreef op donderdag 22 oktober 2009 @ 12:09:
Wel vaag dat de ATi kaart soms nog minder minimale fps haalt dan de GT220... volgens mij was dat systeem meer aan het doen dan alleen benchmarken. :)
Of misschien had Nvidia wel gelijk dat hun low budget kaart de top line van ATI kon bijhouden met Physx.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Of misschien moet er gekeken worden naar de CPU usage wanneer PhysX op de CPU gedaan wordt in vergelijking tot wanneer PhysX op de GPU gedaan wordt. Dat kan ook best interessante resultaten geven...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 02-06 17:52
Tja als de cpu zich dood werkt aan physics dan zal je inderdaad een extreme CPU bottleneck hebben. Als je ze naast elkaar zet, gaan de framerates wel behoorlijk netjes omhoog en kan de 5870 ook wat doen behalve alleen maar te zitten wachten op de professor.

Een aparte manier om dit bij de gamer te brengen (Onze budget kaart is sneller i.p.v. Bij physics over de CPU is de bottleneck zo hard dat ons kaartje de games nog beter kan draaien dan de top ATi kaart), maar als de rest van het systeem je bottleneck is, dan zullen de frames niet hoog gaan.
Xenomorphh schreef op donderdag 22 oktober 2009 @ 12:19:
Of misschien had Nvidia wel gelijk dat hun low budget kaart de top line van ATI kon bijhouden met Physx.
Die kaart houdt de top ATi kaarten dus niet bij, de processor is gewoon te langzaam... (voor die kleine set games die echt niet iedereen zal missen).

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
Dit valt me wel heel erg tegen, ik had op z'n minst een nieuwe GPU verwacht. Deze kaart is net zoiets als die kaart met 3 GPUs die ASUS ooit uitbracht, leuk dat het kan, maar niet echt interessant om daadwerkelijk te gebruiken.
Paprika schreef op donderdag 22 oktober 2009 @ 12:28:
Tja als de cpu zich dood werkt aan physics dan zal je inderdaad een extreme CPU bottleneck hebben. Als je ze naast elkaar zet, gaan de framerates wel behoorlijk netjes omhoog en kan de 5870 ook wat doen behalve alleen maar te zitten wachten op de profcessor.
Ik denk dat CJ er meer op doelt dat Physics maar op 1 CPU core uitgevoerd wordt, terwijl het zich juist zo goed leent om parallel uit te voeren. Zo moet de videokaart inderdaad wel heel erg wachten op de CPU, terwijl dit eigenlijk niet nodig zou zijn.

specs


  • Paprika
  • Registratie: September 2007
  • Laatst online: 02-06 17:52
Ik begon met het typen van mijn reactie vóór hij gepost had en mijn post had dan ook niets met de zijne te maken :P.

Verder zou een taskmanager scherm wel leuk zijn tijdens de benchmark ja.

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 26-12-2022
Paprika schreef op donderdag 22 oktober 2009 @ 12:28:
Tja als de cpu zich dood werkt aan physics dan zal je inderdaad een extreme CPU bottleneck hebben.
offtopic:
Die CPU doet geen kont tijdens "CPU Physx".

Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager. Dit met drops naar ~10fps ofzo, op de meest onzinnige plekken (lege kamers en gangen enzo), terwijl op drukke scenes waar menig wc-rol gesneuveld is, met overal dampige fog effecten, heb ik 40fps. 8)7

Als ze nou eens die CPU Physx thread paralleliseren, dan had ik constant boven de 30fps gezeten.
Degenen die zullen zeggen "maar je kan niet zomaar iets paralleliseren", GPU physx gebruikt >50 threads, of denk je dat alles word afgehandeld door 1 enkele shadercore?

Pentaxiaan


  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03-2022
neliz schreef op donderdag 22 oktober 2009 @ 10:54:
[...]


nvidia? met "Our $129 card competes with AMD's top of the line model in the latest games such as Batman: Arkham Asylum."

Dat heet "in je eigen mes lopen"
_O- _O- _O-
SirNobax schreef op donderdag 22 oktober 2009 @ 13:11:
[...]

offtopic:
Die CPU doet geen kont tijdens "CPU Physx".

Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager. Dit met drops naar ~10fps ofzo, op de meest onzinnige plekken (lege kamers en gangen enzo), terwijl op drukke scenes waar menig wc-rol gesneuveld is, met overal dampige fog effecten, heb ik 40fps. 8)7

Als ze nou eens die CPU Physx thread paralleliseren, dan had ik constant boven de 30fps gezeten.
Degenen die zullen zeggen "maar je kan niet zomaar iets paralleliseren", GPU physx gebruikt >50 threads, of denk je dat alles word afgehandeld door 1 enkele shadercore?
Misschien hebben ze het expres niet voor multi cores gemaakt, zodat het altijd beter zal zijn op een GPU van nVidia? :(

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
SirNobax schreef op donderdag 22 oktober 2009 @ 13:11:
Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager.
Dat is dus één core die vol staat te brullen en 5% voor overige Windows dingen. :/

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen

Paprika schreef op donderdag 22 oktober 2009 @ 12:28:
[...]

Die kaart houdt de top ATi kaarten dus niet bij, de processor is gewoon te langzaam... (voor die kleine set games die echt niet iedereen zal missen).
Daarom zeg ik ook bij physx.. en dat zegt Nvidia dus ook..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
-The_Mask- schreef op donderdag 22 oktober 2009 @ 13:26:
[...]

Dat is dus één core die vol staat te brullen en 5% voor overige Windows dingen. :/
Dat hoeft ook niet, misschien is het 30% op een core

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 02-06 17:10
tomcatha schreef op vrijdag 23 oktober 2009 @ 00:07:
[...]


Dat hoeft ook niet, misschien is het 30% op een core
Dat kan toch niet? Als hij op 30% draait op een quadcore betekent dat dat er 25% per core is, dan kan het niet dat 1 core 30% van alles voor zijn rekening neemt :?
Of begrijp ik je nu verkeerd?
Dat je bedoelt dat er 30% van 1core wordt gebruikt en niet 30% van de hele cpu?

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

tomcatha schreef op vrijdag 23 oktober 2009 @ 00:07:
Dat hoeft ook niet, misschien is het 30% op een core
Volgens techreport (dacht ik) had één core 14% utilization tijdens B:AA.. go figure.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 26-12-2022
offtopic:
1 Thread word 'gesplit' over m'n 4 Cores, dus alle cores lopen constant op 30% (25% van die ene thread, en 5% voor ander spul zoals audio of AI thread) te "crunchen".
Overigens, was dat (zoals neliz al een beetje zegt) het maximum cpu usage wat ik waarnam, vaak genoeg zat die CPU met 10% cpu usage uit zijn neus te eten terwijl ik naar een 10fps diashow zat te kijken.

Pentaxiaan


  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 30-05 14:33

RuddyMysterious

a smorgasbord of waywardness

neliz schreef op donderdag 22 oktober 2009 @ 10:21:
Als je met een GTX285 "echte" PhysX games speelt op 19x12 of 25x26 met AF en AA zie je al snel een framerate verlies van 40 tot 50 procent, dit was al zo in Mirror's Edge en ook in Batman, de huidige implementatie van GPU PhysX vreet kracht van je GPU.
Deze "dedicated" opstelling (SLI PhysX) zal stukken sneller zijn.
Als je die lijn doortrekt, dan zou je stellen dat een GTS250 minstens 40 à 50% van de kracht van een GTX285 heeft, en dat een multicore cpu, toch in het geval van batman, zo "sterk" is als de GTS250, als het gaat om het weergeven van de PhysX in batman via die hack. Klopt dat allemaal? Of is de implementatie van PhysX via GPU nog niet zo optimaal waardoor er meer kracht verloren gaat dan nodig is?

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 30-05 14:33

RuddyMysterious

a smorgasbord of waywardness

SirNobax schreef op vrijdag 23 oktober 2009 @ 05:38:
offtopic:
1 Thread word 'gesplit' over m'n 4 Cores, dus alle cores lopen constant op 30% (25% van die ene thread, en 5% voor ander spul zoals audio of AI thread) te "crunchen".
Overigens, was dat (zoals neliz al een beetje zegt) het maximum cpu usage wat ik waarnam, vaak genoeg zat die CPU met 10% cpu usage uit zijn neus te eten terwijl ik naar een 10fps diashow zat te kijken.
Gesplit? Een thread kan je niet splitten over meerdere cores. Wél kan die door de threadscheduler van het OS van de ene core naar de andere worden gebracht tussen het uitvoeren door, maar een enkele thread kan nooit op meerdere cores simultaan draaien.

Dus misschien is het interessanter als eens alle vier de cores apart in de gaten worden gehouden, dan is er geen ruimte voor speculatie zoals met die "is die 30% mooi verdeeld over alle cores, of is dat 1 core maxed out en de rest een beetje prielen?", imho toch.

En om het nu over die mogelijke cpu-bottleneck voor cpu-PhysX te hebben, als geen enkele cpu core op 100% draait tijdens zo'n slideshow moment, dan lijkt het mij dat niet de cpu de bottleneck is op zo'n moment, en dat er dus iets anders aan de hand zou moeten zijn.

[Voor 11% gewijzigd door RuddyMysterious op 23-10-2009 08:45]


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

DevilsProphet schreef op vrijdag 23 oktober 2009 @ 08:36:
Als je die lijn doortrekt, dan zou je stellen dat een GTS250 minstens 40 à 50% van de kracht van een GTX285 heeft
Mirror''s Edge:
Een 9800GTX+ levert op 1920x1200 4xAA ~85% van de framerate van een GTX260-216 met GPU PhysX aan.
Een 9800GTX+ levert op diezelfde resolutie ~80% van de framerate van een GTX260-216 met PPU PhsyX.
Een 9800GTX+ levert op diezelfde resolutie ~80% van de framerate van een GTX260-216 als beiden een 9600GT als dedicated PhysX processor gebruiken.
en dat een multicore cpu, toch in het geval van batman, zo "sterk" is als de GTS250, als het gaat om het weergeven van de PhysX in batman via die hack. Klopt dat allemaal? Of is de implementatie van PhysX via GPU nog niet zo optimaal waardoor er meer kracht verloren gaat dan nodig is?
PhysX via de CPU is niet optimaal, daar praat je echt over hooguit PROCENTEN van je CPU die geütiliseerd worden, een vergelijking daartussen is nutteloos.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 26-12-2022
DevilsProphet schreef op vrijdag 23 oktober 2009 @ 08:43:
Dus misschien is het interessanter als eens alle vier de cores apart in de gaten worden gehouden, dan is er geen ruimte voor speculatie zoals met die "is die 30% mooi verdeeld over alle cores, of is dat 1 core maxed out en de rest een beetje prielen?", imho toch.
Nog beter in de gaten houden ?


(linker cijfertjes en de horizontale balkjes zijn cpu usage)



Overigens, waarom zou 'gesplit' tussen (gefaalde) aanhalingstekens staan, juist, omdat ik om 5:30 AM niet meer zo wakker ben en niet op de juiste term kwam.

[Voor 7% gewijzigd door SirNobax op 23-10-2009 12:24]

Pentaxiaan


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 31-05 19:35

Xenomorphh

Soep met Ballen



Dit is die nieuwe kaart teminste dat willen ze mij laten geloven vind het er nogal als een goedkope soep uitzien.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • ToWi1989
  • Registratie: December 2006
  • Laatst online: 29-05 13:30
dat ziet er wel heel erg gefotoshopt uit

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 26-12-2022
Buiten dat er een chip, een elco, de 12V aansluiting en een mount hole doormidden zijn gezaagd, ziet hij er toch prima uit :+ .

Pentaxiaan


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Xenomorphh schreef op vrijdag 23 oktober 2009 @ 12:24:
[afbeelding]

Dit is die nieuwe kaart teminste dat willen ze mij laten geloven vind het er nogal als een goedkope soep uitzien.
Het is een mockup... dat staat zelfs in de bron:
As you can see in the crude mockup picture we created above [created with two images from colleagues at TechPowerUp!, image doesn't feature correct amount of memory chips],

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Galaxy GeForce 210 and GT220: 40nm and DirectX 10.1 Under $80



AMD launched the first 40nm desktop graphics card - Radeon HD 4770 back in April, but the low yield of TSMC’s 40nm chips made the product hardly available on the market.

On contrary to AMD’s “quick” strategy, NVIDIA decided to wait until last week to debut its 40nm GeForce 210 and GT220, though the company had started to bring them to OEM market in July.



GeForce 210/GT220 is NVIDIA’s first try to extend its GT200 series down to entry-level market. According to the company’s roadmap, GeForce 210 is designed to take the place of GeForce 9400GT (64bit), targeting AMD Radeon HD 4550/4350, while GT220 is expected to deliver performance between GeForce 9500GT and 9600GT, fighting against AMD Radeon HD 4670.



Based on GT218 GPU, GeForce 210 is powered by 16 stream processors, while GT220 is built with GT216 and features 48 stream processors. Both of them have included support for DirectX 10.1 and SM4.1.

GT220 can be equipped with DDR2 or DDR3 or GDDR3 memory, with frequency ranging between 790MHz and 1012MHz, along with a 128-bit memory interface. The 210 will be available in DDR2 and DDR3 variants, paired up with a 64-bit memory interface.

Thanks to the advanced 40nm manufacturing process, the die area of aforementioned graphics cards become much smaller while packing more transistors. GT220 has a die area of 100mm2 which contains 486 million transistors, whereas the 65nm 9500GT has a die area of 144mm2 which includes 314 million transistors only. Of course, the new processing also brings down the power consumption. According to NVIDIA, the TDP of GeForce 210/GT220 is only 30.5W and 58W respectively. 

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 26-12-2022
Lekker onzinnige kaart die GT220. Enkel als je een low-profile kaartje wil hebben die niet te veel energie verbruikt zijn ze interessant.

Vooral de shader performance is teleurstellend IMO.
Pak bijvoorbeeld de 9600GSO 512 (de G94 versie, de g92 versie is nog sneller), die rond de 50E kost (dus over het algemeen goedkoper dan de GT220), dan heb je 48 shader cores die op ~1600Mhz lopen.
Bij de GT220 lopen er 48 shaders op ~1350Mhz.
De overige specificaties, buiten DX10.1 dan, dat is wel weer mooi, zijn ook niet snel genoeg om zo'n GSO eruit te rennen, zeker gezien de budget GT220's met DDR2 worden gekoppeld :| .

Lijkt dus meer op een testpaard dan iets om serieus mee te concureren. Zelfs vergeleken met nvidia's eigen 9600 GSO krijg je minder, voor meer. :/
(en ja, ik snap dat de g94 veel duurder, en dus minder interessant voor nvidia, is om in een budget kaart te douwen)

@hieronder
_O-

Pentaxiaan


  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03-2022
Xenomorphh schreef op vrijdag 23 oktober 2009 @ 12:24:
[afbeelding]

Dit is die nieuwe kaart teminste dat willen ze mij laten geloven vind het er nogal als een goedkope soep uitzien.
Lijkt me fake, het heeft maar 1 SLi verbinding, dat lijkt mij nogal ongeloofwaardig...

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
M4gick schreef op vrijdag 23 oktober 2009 @ 18:39:
[...]


Lijkt me fake, het heeft maar 1 SLi verbinding, dat lijkt mij nogal ongeloofwaardig...
:')
Modbreak:Post vriendelijk, on-topic en behulpzaam.

Deze post is dat allemaal niet. Laat dit achterwege aub

[Voor 22% gewijzigd door dion_b op 23-10-2009 19:33]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 01-06 17:21
M4gick schreef op vrijdag 23 oktober 2009 @ 18:39:
[...]


Lijkt me fake, het heeft maar 1 SLi verbinding, dat lijkt mij nogal ongeloofwaardig...
In het bronartikel staat dan ook dat de website het zélf gephotoshopped heeft. Dus dat kan kloppen ;)

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Maar die kaart word wel gemaakt binnenkort hoe hij gaat heten weet ik niet maar het word wel een gtx275 en gtx250 op een kaat. En de gtx250 chip word gebruikt voor physx. Maar 9 van de 10 games zit de
gtx250 chip uit zijn neus te eten. Het is dat er zo weining physx games zijn anders was ik mischien nog wel ff bij nv
gebleven. Maar om eerlijk te zijn vind ik zo'n kaart niet aantrekkelijk meer.

Het is idd fake foto maar hij word binnenkort wel bekent gemaakt

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 304087 schreef op zaterdag 24 oktober 2009 @ 11:43:
Het is idd fake foto maar hij word binnenkort wel bekent gemaakt
Plaatje is een echte mockup zoals er ook staat.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Nvidia moet echt met een dx11 kaart komen om mee te kunnen gaan met de rest.
Ik vind dx11 echt eeen hele verbetering tegenover dx10. Ik heb dit nu zelf met eigen
ogen kunnen zien.

Anoniem: 263719

Anoniem: 304087 schreef op zaterdag 24 oktober 2009 @ 11:43:
Maar die kaart word wel gemaakt binnenkort hoe hij gaat heten weet ik niet maar het word wel een gtx275 en gx250 op een kaat. En de gx250 chip word gebruikt voor physx. Maar 9 van de 10 games zit de
gx250 chip uit zijn neus te eten. Het is dat er zo weining physx games zijn anders was ik mischien nog wel ff bij nv
gebleven. Maar om eerlijk te zijn vind ik zo'n kaart niet aantrekkelijk meer.

Het is idd fake foto maar hij word binnenkort wel bekent gemaakt
GTSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS ;)

Anoniem: 126513

Aangezien ,

ik weet niet of hier al iets over gepost is, maar het ziet er toch wel indrukkend uit, 3 miljard (goed) biljoen (fout) transistors,
"Nvidia last night introduced the new GPU design that will feed into its next-generation GeForce graphics chips and Tesla GPGPU offerings but which the company also hopes will drive it ever deeper into general number crunching."!
http://www.reghardware.co.uk/2009/10/01/nvidia_intros_fermi/
Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Houd de discussie open en eerlijk. Overtuigen doen we met argumenten. Voor ATi vs. NVidia flamewars is hier geen plaats. Voor het gebruik van termen als 'fanboy' en aanverwante zaken is er geen tolerantie!

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee