Toon posts:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 8 Laatste
Acties:
  • 43.913 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.

Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft

Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.


GT100 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_G100_3qtr_low75.png
G100
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ?? million
  • Unified shaders: 8
  • Shader Clock: 1400 MHZ
  • ROP's: 4
  • Core Clock: 567 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/s
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • Texture Fill Rate: 4.3 billion/s
  • Comsumption: 35 Watt (max)
  • Power Connectors: none
  • GeForce Boost
  • Enkel OEM

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_120_3qtr_low75.png
GT120
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ??million
  • Unified shaders: 32
  • Shader clock: 1400
  • ROP's: 8
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 16.0 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512 MB
  • Texture Fill Rate: 8.8 billion/s
  • OpenGL: 3.0
  • Sli: Dual-SLI
  • Comsumption: 50 Watt (max)
  • Power Connectors: none
  • Enkel OEM


9400 en 9500

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9400_GT_3qtr_med125.png
9400 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 08/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 16
  • Shader clock: 1350 MHz
  • Texture units:8
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 400/800 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 12.8 GB/sec
  • Memory Interface: 128 bit
  • Memory:256/512/1024 MB
  • Consumption: 50 watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9500_GT_3qtr_med125.png
9500 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 32
  • Shader clock: 1400 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 500/800 MHz (GDDR2/GDDR3)
  • Memory Bandwidth: 14.4/28.8 GB/sec (GDDR2/GDDR3)
  • Memory Interface: 128 bit
  • Memory: 256 MB/512MB/1024 MB (GDDR2/GDDR3/GDDR3)
  • Consumption: 50 watt
  • 2way SLI support


GS varianten

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_130_3qtr_low75.png
GT130
  • GPU: G94b (55nm)
  • Release Date: 10/04/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 48
  • Shader clock: 1250
  • ROP's: 16
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 24 GB/sec
  • Memory Interface: 192 bit
  • Memory: 768 MB
  • Texture Fill Rate: 12.0 billion/s
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 75 Watt (max)
  • Power Connectors: none
  • Enkel OEM

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9600_GSO_3qtr_med125.png
8800 GS / 9600GSO
  • GPU: G92
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 96
  • Shader Clock: 1375 MHZ
  • ROP's: 12
  • Core Clock: 550 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 38.4 GB/s
  • Memory Interface: 192 bit
  • Memory: 384/768 MB
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 105 Watt (max)
  • Power Connectors: 1x 6-pin


8800GT en 9800 GT

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9600_GSO_3qtr_med125.png
9600GSO 512 MB
  • GPU: G94
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 505 million
  • Unified shaders: 48
  • Shader Clock: 1625 MHZ
  • ROP's: ??
  • Core Clock: 650 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 45.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 105 Watt (max)
  • Power Connectors: 1x 6-pin

http://www.hardware.info/images/products/mini_thumbs/020369.jpg
9600 GT
  • GPU: G94
  • Release Date: 02/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 64
  • shader clock: 1500/1625 MHz
  • Texture units: 32
  • ROP's: 16
  • Core Clock: 600/650 MHz
  • Memory Clock: 900 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 57.6 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 (256/1024 )MB
  • Voltage: 1.0/1.1 Vcore
  • geen extra stroomconnector nodig


8800GT en 9800 GT

http://www.hardware.info/images/articles/teasers/001243.jpg
8800 GT
  • GPU: G92
  • Release Date: 10/2007
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader Clock: 1500 MHz
  • ROP's: 16
  • Core Clock: 600 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 44.8/57.6 GB/sec (256MB/512,1024MB)
  • Memory Interface: 256 bit
  • Memory: 256,512,1024 MB

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GT_3qtr_low75.png
9800 GT
  • GPU: Sommige 55nm(G95b), velen oude 8800's(G92a)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112(a)/128(b)
  • Shader clock: 1375/1500 MHz
  • Texture units: 56(a)/64(b)
  • ROP's: 16
  • Core Clock: 550/600 MHz
  • Memory Clock: 900 (GDDR3)
  • Memory Bandwidth: 57.6 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024 MB (GDDR3)
  • Consumption: 105(a) 125 (b)watt
  • 2way SLI support (ASUSTek tri)
  • Geen aparte stroomconnector nodig


GeForce 8800GTS 512MB en 9800GTX

http://www.hardware.info/images/products/mini_thumbs/002559.jpg
8800 GTS 512MB
  • GPU: G92
  • Release Date: 12/2007
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1625
  • ROP's: 16
  • Core Clock: 650 MHz
  • Memory Clock: 970 MHz (GDDR3)
  • Memory Bandwidth: 64 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB

http://www.hardware.info/images/news/teasers/011155.jpg
9800 GTX
  • GPU: G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Texture Fill Rate:43.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 140 Watt (max)
  • Power Connectors: 2x 6-pin


9800 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GTX_3qtr_low75.png
9800 GTX+
  • GPU: G92 (55nm)
  • Release Date: 07/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Shader Clock: 1836 MHz
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Consumption: 145 watt
  • 2-3 way SLI support

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS150
  • GPU: G92b (55nm)
  • aka GTS250 Slow, 9800GTX+
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 740 MHz
  • Memory Clock: 1000 (GDDR3)
  • Memory Bandwidth: 64 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB (GDDR3)
  • Texture Fill Rate: 47.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 141 Watt (max)
  • Power Connectors: 2x 6-pin
  • Enkel OEM


9800 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS 250
  • GPU: G92a/b (65/55nm)
  • Release Date: 03/03/2009
  • Interface: PCI-E x16 2.0
  • Transistors: +/- 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1100MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024/2018 MB (GDDR3)
  • Texture units: 64
  • Texture Fill Rate: 47.2 (billion/sec)
  • OpenGL: 3.0
  • SLI: 2-way/3-way SLI
  • Consumption: 112 watt (max) officieel 150
  • Power Connectors: 1x 6-pin
Waarom?
  • Kleinere PCB, past dus handiger in de Case
  • Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
  • Veel lagere prijs ;)

http://www.hardware.info/images/products/mini_thumbs/020360.jpg
9800 Gx2
  • GPU: 2x G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 2X 754 million
  • Unified shaders: 2x 128
  • Shader clock: 1500 MHz
  • ROP's: 2x 16
  • Core Clock: 600 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Memory Bandwidth: 128 GB/sec
  • Memory Interface: 512 bit (2x 256 bit)
  • Memory: 1024 MB (2x 512MB)
  • Texture units: 2x 64
  • Texture Fill Rate: 79.8 (billion/sec)
  • OpenGL: 2.1
  • SLI: Quad SLI
  • Consumption: 197 watt (max)
  • Power Connectors: 1x 6-pin,1x 8-pin

http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.
  • De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
  • De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
  • Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
  • De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
  • Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
  • De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.

G 210 en GT 220 (eindelijk directX10.1)

http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce G 210
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1


GTS 240 en GT 240 (Eindelijk GDDR5 :+)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_240_med_3qtr125.PNG
GeForce GT 240
  • GPU: GT215 (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 727 million
  • Unified shaders: 96
  • Shader clock: 1340 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
  • Memory Bandwidth: 28.8 32 54.4 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512/1024 MB
  • OpenGL: 3.2
  • Consumption: idle 9 - max 69 (40 gemeten) watt
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_240_med_3qtr125.png
GeForce GTS 240
  • GPU: ?? (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ?? million
  • Unified shaders: 112
  • Shader clock: 1620 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • OpenGL: 3.2
  • Consumption: 120 watt (max)
  • Power Connectors: 9-pin pci-e
  • Enkel OEM
  • Sli: 2-way
  • DirectX: "compute"


GT 200 (oldies :p)

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

http://images.hardware.info/products/mini_thumbs/051448.jpg
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100


Toekomstige kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG
GT215
  • GPU: GT215 (40nm)
  • Release Date: Q2 2009 <<gecanceld?
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 96
  • TMU's: 32
  • Shader clock: ????
  • ROP's: 16
  • Core Clock: ??? MHz
  • Memory Clock: GDDR5?
  • Memory Bandwidth: ??? GB/sec
  • Memory Interface: 128-bit indien gddr5?
  • Memory: mogelijk GDDR5
  • Waarschijnlijk DX10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG
GT3xx geruchten midden oktober
  • GPU: GT212
  • Release Date: Q4/2009(some say Q1 2010)
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 512
  • MIMD Architectuur
  • Shader clock: 1600 Mhz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: ??? (GDDR5)
  • Memory Bandwidth: 4.4 TB/sec (GDDR5)
  • Memory Interface: ??? bit
  • Memory: 4096 MB (GDDR5)
  • Consumption: tot ???/??/189Wwatt
  • Update (9/06/09): consumption met als doel 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Nvidia brengt eindelijk een (ietsje) krachtiger 40nm gebaseerde kaart op de markt:Recentelijke ontkenningen op de geruchten over de toekomst van nVidia:Minder goed, maar te verwachten, nieuws van de chipset afdeling van nVidia:

Echter heeft nVidia een bondgenoot gevonden in het FTC die dezelfde aanklachten heeft overgenomen. Waardoor nVidia als het ware het FTC de juridische strijd kan laten voeren.Het enige nadeel dat er is, zelf al wint het FTC/nVidia op al hun punten is de datum van het proces: Deze komt eigenlijk veel te laat. En voor een schadevergoeding zal nVidia wellicht een apart proces moeten beginnen (zoals AMD ook geen geld heeft ontvangen van Intel daar de boete integraal naar de EU-kas ging)

nVidia's kondigd eindelijk officieel de GT300 architectuur aan:nVidia heeft nu echter ook de eerste (werkende) Tesla kaarten voorgestelt gebaseerd op de Fermi-architectuur:Echter zal de massaproductie pas starten in het eerste kwartaal van volgende jaar(2010) Waardoor we in het beste geval Fermi maar pas op het einde van Q1 tot begin/midden van Q2 zullen in de schappen zien:
Tot dan toe zal AMD/ATI vrij spel hebben met hun DirectX 11 kaarten wanneer ze over hun productieproblemen heen komen tenminste.Hieruit kunnen we wel afleiden dat de tweede respin van Fermi(A2) dus niet de definitieve zal zijn en men zoals gebruikelijk rekent op de derde respin (A3). Wat men eigenlijk wel kon verwachten nadat de eerste respin (A1) amper 7 werkende gpu's afleverde.

Patch maakt physX weer mopelijk met ati-nVidia gpu combinatie:
Nadat deze functionaliteit sinds de 186 drivers geblokkeerd werd is deze weer terug te brengen aan de hand van een patch die op alle recente drivers zou moeten werken:De vorige nieuwsberichten kan je logischerwijze steeds vinden in het vorige topic ;)
http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

nVidia stapt uit de pc-gaming sector
Dit gerucht blijkt meer en meer geopperd te worden. Dit komt voornamelijk daar nVidia dit zelf ook aanzwengelt. Ze zitten momenteel in de hoek waar de klappen vallen op vlak van PC-hardware, als enige grote speler zonder x-86 licentie waar de andere twee speler Intel en het ([sarcasm]ooh zo open [/sarcasm]) AMD geen licenties meer verlenen voor nieuwe chipsets voor hun cpu's (en hierdoor ook geen nieuwe igp's van nVidia meer mogelijk zijn).
De ontwikkeling van high-end GPU's wordt duurder en duurder en aan de andere kant minder lucratief daar goedkope varianten (de igps's) dus niet meer mogelijk zijn. Hierdoor wordt het gerucht sterker en sterker dat nVidia zich nog enkel zal richten op professionele hardware (dit krijgt nu al officieel de voorrang) en multimedia hardware zoals de Tegra. (zie het andere topic)
Link naar een nl website, van een mede-tweaker die nog aan het TS hier heeft meegeholpen, die het verhaal stukken beter kan uitleggen dan ik:
Notebookspot.nl: Nvidia verlegt focus van GPU naar CPU


Waarheidsfactor:45%

nVidia houdt introductie van Lucid Hydra moederborden tegen:
Daar nVidia de enige is die winst maakt door sli licenties te verkopen is het de enige kandidaat om Lucid-Hyrda tegen te houden (zoals het PhysX tegenhield in combi met ATI kaarten of Hybrid SLI niet meer support onder druk van MS)Echter is de officiele uitleg dat MSI nog wacht op volledig geteste werkende drivers voor alle mogelijke combinaties en is de bron een niet super geïnformeerde Charlie.

Waarheidsfactor:55%

Waar blijft nVidia met hun dx11 kaart nadat ATI zijn gpu werkende en in productie heeft?
De geruchten oa op onze eigen FP:gaan dat nVidia's grafische kaart hooguit einde Q4 2009 (indien dit nog lukt wss een paperlaunch) begin 2010 pas in massa geproduceerd zullen worden. Men gaat ervan uit dat de nVidia serieuse problemen heeft met zijn dx11 serie kaarten, oa doordat men vernomen heeft dat het geproduceerde test exemplaar gewoonweg dood is terug gekeerd en er dus nog serieus veel werk voor de boeg is voordat deze massa produceerbaar zal worden.
*update 5 oktober 2009*
Deze geruchten worden behouden ook al wijst men meer en meer naar eind Q1 2010 tegen dat nVidia zijn massa productie helemaal in orde zou kunnen krijgen, deze geruchten worden gevoed door het eventueel showen van een valse gt300 kaart en de enorm lage bekomen yield-rates:
Semiaccurate: nVidia fakes fermi boards

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

officiele (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(5oktober 2009) zijn er nieuwe whql drivers uit die recenter zijn dan de beta's die te vinden zijn op de nvidia site

De allerlaatste Beta client kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Officiële nVidia drivers voor Mobile GPU'sEen goede site voor drivers voor Mobile GPU's is(kun je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nvidia www.laptopvideo2go.com

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210 en 220:
TweakTown (Palit Sonic Edition)
TweakTown (Galaxy 1GB)
Guru3D (BFGTech)
HardOCP (BFGTech)
AnandTech
Tom's Hardware

Reviews GeForce GT 240
Guru3d (MSI 512MB GDDR5 OC)
HotHardware (Zotac Amp!)
techPowerUp (MSI)
Tweaktown (MSI 512MB GDDR5 OC)
Tom's Hardware (Zotac/Palit)
PC Perspective (Galaxy/Palit)
Hardware.Info (NL!) (Point of View)


Vorige Topics:Pricewatch
GeForce 8 serie in de Pricewatch
GeForce 9 serie in de Pricewatch
GeForce 200 serie in de Pricewatch
GeForce Qaudro in de Pricewatch


Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

[Voor 109% gewijzigd door lightdestroyer op 04-01-2010 10:56. Reden: Correctie, verkeerde locatie van een verwijzing]

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
.
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

Ik heb ervoor gekozen ook mobiele kaarten in de Openingpost(s) op te nemen, dit onder andere doordat laptops steeds een groter deel van de pc verkoop gaan innemen ten kosten van het (procentuele ) verkoop van desktops.
Dat ook de mobiele kaarten voor nieuwswaarde kunnen zorgen toont de volgende nieuwstopics op de tweakers FP mooi aan:
Nvidia ontkent geruchten over grootschalige gpu problemen
Dell brengt bios update uit voor nvidia bug
HP nvidia bug speelt al sinds november 2007

of wa positief nieuws voor de verandering ;):
Details GPU's GeForce 9700M en 9800M bekendgemaakt

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.


De belangrijkste features van de G80 zijn:
  • Unified shaders
  • DirectX 10 ondersteuning
  • OpenGL 2.0 ondersteuning
  • Nieuwe AA modes CSAA, 8Q, 16Q
  • 128 bit HDR ondersteuning in combinatie met AA
  • 16x hoekonafhankelijke AF
  • Ondersteuning voor GPU Physics
  • Shader Model 4
  • Purevideo (HD)
  • SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:

8 serie

8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
  • GPU: G86M
  • Announce Date: 09/05/2007
  • Interface: PCI-E x16
  • Consumption: 11(GS)-14(GT) Watt
  • Transistors: 210 million


Geforce 8400M G GeForce 8400M GS GeForce 8400M GT
Stream-Processors 8 16 16
Core Clock (MHz) 400 400 450
Shader Clock (MHz) 800 800 900
Memory Clock (MHz) 600 600 600
Maximum Memory 256MB 256MB 512MB
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 9.6 9.6 19.2
Texture Fill Rate (billion/sec) 3.2 3.2 3.6




8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
  • GPU: G84M
  • Announce Date: 09/06/2007
  • Interface: PCI-E x16
  • Consumption: 20 Watt
  • Transistors: 289 million


GeForce 8600M GS GeForce8 600M GT
Stream-Processors 16 32
Core Clock (MHz) 600 475
Shader Clock (MHz) 1200 950
Memory Clock (MHz) 700 700
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 12.8/22.4 (DDR2/GDDR3) 12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec) 4.8 7.6



8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont :'))
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
  • GPU: G84M/G84GLM(quadro fx 1600M)
  • Announce Date: 12/06/2007
  • Interface: PCI-E x16
  • Consumption: 29 /50Qqaudro) Watt
  • Transistors: 289 million


GeForce 8700M GT Qaudro fx 1600M
Stream-Processors 32 32
Core Clock (MHz) 625 625
Shader Clock (MHz) 1250 1250
Memory Clock (MHz) 800 800
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 25.6 (GDDR3) 25.6 (GDDR3)
Texture Fill Rate (billion/sec) 10 10



8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
  • GPU: G92M (65 nm)
  • Announce Date: 19/11/2007
  • Interface: PCI-E x16
  • Consumption: 35 /37 Watt
  • Transistors: 754 million


GeForce 8800M GTS Qaudro FX 3600M GeForce 8800M GTX
Stream-Processors 64 (64 of) 96 96
Core Clock (MHz) 500 500 500
Shader Clock (MHz) 1250 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 512MB 512MB 512MB
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 (GDDR3) 51.2 (GDDR3) 51.2 (GDDR3)
Texture Fill Rate (billion/sec) 16 16 24



http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)

Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
  • Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
  • Volledige DirectX 10.0 en OpenGL 2 compatibileit,
  • Mogelijkheid tot 16X antialiasing
  • Full HD DVD / Blu-ray hardware decodering.

9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M



9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 03/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Core Speed: 550 MHz
  • Shader Speed: 1300 MHz
  • Memory Speed: 700 MHz
  • Memory Bus Width 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB



9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 04/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 400 MHz
  • Shader Clock: 800 MHz
  • Memory Clock: 600MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB


9500M Serie

9500M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
  • GPU: NB9P
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 500 MHz
  • Shader Clock: 1250 MHz
  • Memory Clock: 800 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 1024 MB

9500M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
  • GPU: G84-50
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 32
  • Core Speed: 475 MHz
  • Shader Clock: 950 MHz
  • Memory Clock: 700 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 512 MB



9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)

Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet ;)
  • GPU: NB9P (65nm)
  • Announce Date: 3/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ???/29 Watt (9650M GS)
  • Transistors: ??? million


GeForce 9600M GS GeForce 9600M GT GeForce 9650M GS
Stream-Processors 32 32 32
Core Clock (MHz) 430 500 625
Shader Clock (MHz) 1075 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024MB (GDDR2/GDDR3) 1024MB (GDDR2/GDDR3) 512MB (GDDR2?/GDDR3)
Memory Interface 128-bit 128-bit 128-bit
Memory Bandwidth (GB/sec) (GDDR3) 25.6 25.6
Texture Fill Rate (billion/sec) 10



9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
  • De nieuwe PureVideo HD video processor (VP3)
  • HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
  • ondersteunt CUDA enabled programma's
  • NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.


9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant

Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.



GeForce 9700M GT GeForce 9700M GTS
Core G96(NB9P) G94(NB9E-GTS)
Consumptie (Watt) 45 60
Stream-Processors 32 48
Core Clock (MHz) 625 530
Shader Clock (MHz) 1550 1325
Memory Clock (MHz) 800 800
Maximum Memory 512 (GDDR2/GDDR3) 512 (GDDR3)
Memory Interface 128-bit 256-bit
Memory Bandwidth (GB/sec) 25.6 51.2
Texture Fill Rate (billion/sec) 10.0 12.7



9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.

Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid


GeForce 9800M GS GeForce 9800M GT GeForce 9850M GS
Core G94(NB9E-GT) G94(NB9E-GTS) G92(NB9E-GTX)
Consumptie (Watt) 75 65 75
Stream-Processors 64 96 112
Core Clock (MHz) 600 500 500
Shader Clock (MHz) 1500 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024(GDDR3) 512MB (GDDR3) 512MB (GDDR3)
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2 51.2
Texture Fill Rate (billion/sec) 19.2 24.0 28.0



GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? :() zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).

GeForce GTX260M GeForce GTX280M
Core G92(??) G92(??)
Consumptie (Watt) ?? ??
Stream-Processors 112 128
Core Clock (MHz) 550 585
Shader Clock (MHz) 1375 1463
Memory Clock (MHz) 950 950
Maximum Memory 1024MB(GDDR3) 1024MB (GDDR3)
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 60.8 60.8
Texture Fill Rate (billion/sec) 31 38
MxM MXM 3.0 Type-B MXM 3.0 Type-B
DirectX 10.0 10.0


http://lightdestroyer.dommel.be/picture_library/tweakers/G100IconC2.PNG

Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze reeks startte met de low bugdet kaarten GeForce G105M totaan de GeForce GT120M en de GeForce GT130M.
Enkel de GeForce GT 130M werd zeker geproduceerd op het 55nm proces. De andere Budgetkaartjes werden nog steeds geproduceerd op het vertrouwde 65nm fabricatie proces. Sowieso verbruiken die eigenlijk zo weinig dat een conversie naar 55 nm niet echt heel veel zou opgeleverd hebben toen.
Alle toen (begin 2009) geïntroduceerde kaarten ondersteunden DDR2 en GDDR3.
Let op deze kaarten zijn in essentie "rebrands" daar deze 3 kaarten gewoon gebruik maken van de G92core of een doorontwikkeling hiervan. Pas bij GT200 reeks hebben we (eindelijk) een echte nieuwe reeks. Deze kaarten heb ik na veel twijfelen (6 keer van gedachte veranderd) toch apart geplaats omdat ze toch als een nieuwe reeks gepromoot en genamed werden.
Mainstream: GeForce G102M, GeForce G105M en de GeForce G110M
Deze kaarten zijn de directe opvolgers van de Geforce 9200M totaan de 9400M kaarten en werden in januarie 2009 geïntroduceerd. Technisch gezien hebben beide kaarten vermoedelijk dezelfde unieke core namelijk de N10M-GE1 welke op het toen nieuwe 65nm proces werd gefabriceerd.
Hier staat spijtig genoeg nadrukkelijk "mogelijk" daar de GeForce G 102M niet eens vermeld wordt op wikipedia en vermoedelijk OEM only is (Officiele drivers ondersteunen deze kaart niet waardoor laptopgebruikers terug moeten grijpen naar gemodde .inf betanden vanop laptopvideo2go) Vermoedelijk echter is dit gewoon een nog tragere variant van dezelfde core.
  • PhysX
  • Ondersteunen 2-way SLI
  • PureVideo HD
  • Hybrid SLI ondersteuning
  • nView Multi-Display Technology
  • Powermize Intelligent Power Management (8.0)

Geforce G102M GeForce G110M GeForce GT130M
Core ??
Consumptie (Watt) ?? 14 14
Stream-Processors1 16:?:? 8:4:4 16:8:4
Core Clock (MHz) ??? ?? ??
Shader Clock (MHz) 1000 1600 1500
Memory Clock (MHz) 400(DDR2) 500(DDR2)/700(GDDR3) 500 (DDR2)/800 (GDDR3)
Maximum Memory tot 512MB tot 1024MB (GDDR3) 512MB (GDDR3)
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 6.4(DDR2) 8(DDR2)/11(GDDR3) 16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec) ?? ?? ??
Bus Support PCI-E 1.0 PCI-E 2.0 PCI-E 2.0
DirectX 10.0 10.010.0

1Unified Shaders (Vertex shader / Geometry shader / Pixel shader) : Texture mapping units : Render Output units

High Performance: GeForce GTS 150M en GeForce GTS 160M
Deze kaarten zijn de directe opvolgers van de Geforce 9700M totaan de Geforce 9800M GTS kaarten en werden op 3 maart 2009 geïntroduceerd. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT94b welke op het toen nieuwe 55nm proces werd gefabriceerd. Dit is dus hetzelfde fabrieks proces als de die shrink van de Geforce GTX 2xx desktopserie.
Eigenlijk is de G94b core niets anders dan een doorontwikkeling van de ons goed bekende G92 core.
Ze ondersteunen dezelfde eigenschappen als de G210M buiten de volgende eigenschappen:
  • PhysX
  • Ondersteunen 2-way SLI
  • PureVideo HD
  • Hybrid SLI ondersteuning
  • nView Multi-Display Technology
  • Powermize Intelligent Power Management (8.0)

GeForce GTS 150M GeForce GTS 160M
Core G94b G94b
Consumptie (Watt) 40 (volgens Pc Perspective 60
Shaders1 64:32:16 64:32:16
Core Clock (MHz) ?? 600
Shader Clock (MHz) 1000 1500
Memory Clock (MHz) GDDR3800 800
Maximum Memory 1024MB 1024MB
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2
Texture Fill Rate (billion/sec) 13.0 19.0
DirectX 10.0 10.0
MxM MXM 3.0 Type-B MXM 3.0 Type-B


http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

Deze reeks van mobiele kaarten werd gelanceerd op 3 maart 2009 met 2 gpu's die eigenlijk gebaseerd waren op de al reeds overbekende G92b cor. De "echte" G2xxM Mobiele GPU's werden echter pas op 15 Juni Geïntroduceerd dit zijn kaarten die zijn gebaseerd op de GT215 tot GT218 cores. Echter enkel de GTS kaarten (GT215 core) supporten GDDR5 (yeah nVidia kaarten met GDDR5 support bestonden al degelijk vanaf zomer 2009).
Deze reeks van kaarten wordt voornamelijk gepromoot dat ze tot 50% zuiniger zijn da vorige generatie en volledig geoptimaliseerd zijn voor Windows 7 (DirectX 10.1 support).

Mainstream: GeForce G210M
Deze kaarten zijn de directe opvolgers van de G102M tot G110M, 9200M totaan 9400M en 8400M Geforce kaarten. Technisch gezien is het een unieke core de GT218 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen de volgende eigenschappen:
  • DPureVideo HD 1080P technologie
  • HybridPower support (schakelt de tweede GPU aan indien je de laptop aan het electriciteitsnet hangt en af indien je hem er weer van af haalt, niet langer manueel of afhankelijk van gpu gebruik/energy profile van MS zoals bij de desktop varianten van Hybrid sli)
  • GeForceBoost technologie (totaan 80% meer aan performantie door gebruik te maken van 2 GPU's)
  • ondersteunt CUDA enabled programma's << CoreAVC playback!
  • Powermize Intelligent Power Management
De technische specifcaties zijn als volgende:
  • Core: GT218
  • Announce Date: 15/06/2009
  • Interface: PCI-E2.0 x16
  • Consumption: 14 Watt
  • Transistors: ?? million
  • Unified shaders: 16/8/4
  • Core Speed: 625 MHz
  • Shader Clock: 1500 MHz
  • Memory Clock: 500(DDR2)/800 ((G)DDR3) MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Memory Bandwidth (GB/sec): 8 (DDR2)/12.8((G)DDR3)
  • Max. Amount of Memory: 1024 MB
  • DirectX: 10.1

Performance: GeForce GT 230M en GeForce GT 240M
Deze kaarten zijn de directe opvolgers van de G130M, en hierdoor opvolgers van de 9500M totaan 9650M en de 8600M Geforce kaarten. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT216 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen dezelfde eigenschappen als de G210M buiten de volgende eigenschappen:
  • GeForceBoost technologie lijkt niet aanwezig te zijn
  • Powermize Intelligent Power Management wordt ook niet vermeld als feature

GeForce GT 230M GeForce GT 240M
Core GT216 GT216
Consumptie (Watt) 23 23
Shaders1 48:16:8 48:16:8
Core Clock (MHz) 500 550
Shader Clock (MHz) 1100 1210
Memory Clock (MHz) DDR2 600 600
Memory Clock (MHz) DDR3 800 800
Memory Clock (MHz) GDDR31066 1066
Maximum Memory 1024MB 1024MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 16/25.6/34.1 16/25.6/34.1
DirectX 10.1 10.1

1Unified Shaders (Vertex shader / Geometry shader / Pixel shader) : Texture mapping units : Render Output units

High Performance: GeForce G250M en GeForce G260M
Deze kaarten zijn de directe opvolgers van de GTS150M, GTS160M en hierdoor opvolgers van de 9800M totaan 9700M Geforce kaarten. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT215 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen dezelfde eigenschappen als de G210M:
Deze kaarten ondersteunen expliciet GeForceBoost technologie (waar het bij de G230M en de G240M niet als een feature vermeld staat) en ondersteunen ook PhysX (de vorige mobiele kaartjes worden hiervoor tegenwoordig door nVidia behandeld als te zwak)
  • GeForceBoost technologie is officieel aanwezig
  • Gericht op performantie en kan PhysX aan.

GeForce GTS 250M GeForce GTS 260M
Core GT216 GT216
Consumptie (Watt) 23 23
Shaders1 96:32:16 96:32:16
Core Clock (MHz) 500 550
Shader Clock (MHz) 1250 1350
Memory Clock (MHz) 1600(wiki) tot 2000 (officieel) 1800(wiki) totaan 2000 (officieel)
Maximum Memory 1024MB 1024MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 51.2(tot 64?) 57.6 (tot64?)
SLi 2-way support Ja Ja
DirectX 10.1 10.1
MxM MXM 3.0 Type-B MXM 3.0 Type-B

Enthusiast: GeForce GTX 260M en GeForce GTX 280M
Deze kaarten zijn al in maart 2009 gelanceerd en hebben nog de "oude" G92b core in zich waardoor ze gewoon in het G92 onderdeel (helemaal vanonder) staan in mijn qualificatie, logischerwijze horen ze dus nog "gewoon" bij de oude series qua technologie/features hoewel ze nog steeds dé high end zijn van mobiele grafische kaarten.

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (Beta maar er zijn geen WHQL's beschikbaar) nVidia drivers voor Mobile GPU's Geforce Go 7, 8M, 9M, G1xx en de Gx2xx reeksen.
Beste is nog steeds zelf te gaan kijken op www.laptopvideo2go.com en daar jouw laptopbouwer te zoeken.
195.39 Win XP 32-bit
195.39 Win XP 64-bit
195.39 Win7/Vista 32-bit
195.39 Win7/Vista 64-bit
Deze drivers hebben als belangrijkste features:
  • Ondersteuning voor OpenGL 3.2.
  • Ondersteuning voor OpenCL 1.0 (Open Computing Language).
  • Ondersteuning voor CUDA Toolkit 3.0 features en performantie verbeteringen (zie cuda zone gedeelte)
  • nieuwe SLI profielen
  • Meer dan 200 bugfixes ...
Geen Beta, maar natuurlijk ook geen WHQL drivers:
190.42 Linux 32-bit
190.42 Linux 64-bit
190.42 Solaris 32/64-bit
190.42 FreeBSD 32-bit


Voor allernieuwste drivers of gemodde inf bestanden voor Mobile GPU's is www.laptopvideo2go.com the place to be.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

[Voor 11% gewijzigd door lightdestroyer op 17-11-2009 16:59. Reden: Aanvulling en apart plaatsen van de GT100M kaarten ook al zijn het niets anders dan G92 core kaartjes]

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG
quote: nVidia website
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.

Meer uitleg kan je vinden op de volgende links:Enkele programma's waar CUDA al wordt in gebruikt:
  • Folding @Home
  • Grafische pakketten zoals photoshop
  • CoreAVC: Decoderen van x264 bestanden
  • MotionDSP's vReveal: Tech Report, [url=CUDA: http://www.anandtech.com/video/showdoc.aspx?i=3539&p=14]AnandTech[/url]
  • ...
Ambient Oclusion:
Meer uitleg hierover kan je vinden op:
http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG

Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen.
Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm.
let op:
  • Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
  • 2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
    2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
    Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)

3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard :p
Hoe werkt het?

Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)



En dan in het bios kruipen om een paar settings aan te passen.



Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.

http://lightdestroyer.dommel.be/picture_library/tweakers/IconHybridPower.PNG

Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten ;)



Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.

CPU FabrikantGeForce Boost Technology HybridPower Technology
AMD
GeForce 8300 X X
GeForce 8200 X X
GeForce 8100 X X
nForce 780a SLI X X
nForce 750a SLI X X
nForce 730a X X
nForce 720a X X
Intel
GeForce 9400 X
GeForce 9300 X
nForce 730i X


GeForce Boost Technology HybridPower Technology
GeForce GTX 280 X
GeForce 9800 GX2 X
GeForce GTX 260 X
GeForce 9800 GTX+ X
GeForce 9800 GTX X
GeForce 9800 GT Sommigen
GeForce 8500 GT X
GeForce 8400 GS X


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG

nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )

of de volgende FP: nieuws: Meerdere Nvidia-kaarten ontlasten cpu aanzienlijk bij Physx-benchmarks

Zie ook voor meer uitleg
Guru3D Review (augustus-2008)
Tweaktown
Firingsquad
Hot Hardware
AMD's Antwoord op PhysX

Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
Anandtech
Games:
Sacred 2:
Tom's Hardware
AnandTech
Warmonger:
AnandTech
UT3 PhysX Mod Pack:
AnandTech
Mirror's Edge:
AnandTech
Batman Arkham:(finally a good game ? :p)
Onze eigen Tweakers FP

How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.


Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.

Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden).
Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
*update 7 oktober 2009*
Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf!

Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang ;)
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum


http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

**Edit 15~16/10
Afsplitsen PureVideo gedeelte naar het Mediaspelers en HTPC subfora (tegelijkertijd dit onderdeel eens een beetje upgedate/afgewerkt en Tegra toegevoegd in dit nieuwe TS)
**Edit 14/10
Update van de twee nieuwe 40nm kaarten.
TODO:
Mobiele laptop::Ik ben er eindelijk aan begonnen
Vermelding van ION
Geruchten rond de GT300 <<exacte specificaties??
Informatie van de GT200 dringend updaten ;p

Specs


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 11-09 09:59

Xenomorphh

Soep met Ballen

Klein typ foutje: bij de 9500m serie staat 95000 2 maal :)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
Xenomorphh schreef op woensdag 11 november 2009 @ 19:40:
Klein typ foutje: bij de 9500m serie staat 95000 2 maal :)
Dankje

Die fout moet er al een tijdje ingestaan hebben :D
In ieder geval is hij nu gecorrigeerd.

Specs


  • DaMarcus
  • Registratie: Juli 2005
  • Laatst online: 23-09 14:07

DaMarcus

Admin Harde Waren / Consumentenelektronica

Powered by

Even ter info :)
  • GT230M » 48 shaders
  • GT240M » 48 shaders
  • GTS250M » 96 shaders
  • GTS260M » 96 shaders

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
DaMarcus schreef op woensdag 11 november 2009 @ 20:14:
Even ter info :)
  • GT230M » 48 shaders
  • GT240M » 48 shaders
  • GTS250M » 96 shaders
  • GTS260M » 96 shaders
Met GT230 48/16/8 bedoelde ik eigenlijk:Unified Shaders (Vertex shader / Geometry shader / Pixel shader) / Texture mapping unit / Render Output unit
Die info haal ik van wikipedia, maar wat mij opviel dat de verhouding tussen deze onderling niet altijd gelijk was .. vandaar dat alle 3 vermelde mij meer zinvol leek dan enkel de shaders.
Nu moet ik wel toegeven dat de verhoudingen bijna allemaal hetzelfde zijn (enkel de GeForce GTS 250 en de GeForce GTX 260 zie je verschil .. maar zou goed kunnen dat dit een foutje op wikipedia ..)
Wat ik wel zie is dat ik bij GTS260M een typfout heb gemaakt, welke ik direct ga verbeteren zie :+ .
En ondertussen eens kijken hoe ik duidelijk kan maken dat ik de wikipedia notatie heb overgenomen ..

Specs


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 23-09 16:33
Wat een onzin en ontzettend kinderachtig, sluit precies aan met hun gedrag van de laatste tijd, dat dan weer wel.

En het ergste nog is dat het dom is, TSMC heeft gewoon de capiciteit (nog) niet...

[Voor 8% gewijzigd door spNk op 12-11-2009 08:54]


  • PowerUp
  • Registratie: Februari 2006
  • Laatst online: 22-09 22:16
Het plaatje van de 9500GT klopt niet, daar staat nu iets van een HD5870.
spNk schreef op donderdag 12 november 2009 @ 08:53:
[...]

Wat een onzin en ontzettend kinderachtig, sluit precies aan met hun gedrag van de laatste tijd, dat dan weer wel.

En het ergste nog is dat het dom is, TSMC heeft gewoon de capiciteit (nog) niet...
Het lijkt me inderdaad niet handig om dit soort dingen te roepen als er zoveel problemen met de productie zijn.

Sony A6500 || Sigma 8-16 f/4.5-5.6 || Sony 16-70 f/4 OSS || CZ 24 f/1.8 || CZ 55 f/1.8 || Sony 55-210 f/4.5-6.3 OSS


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Idd ik zou zeggen doe het zelf eens beter.

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 28-07 14:22
Anoniem: 304087 schreef op donderdag 12 november 2009 @ 11:30:
Idd ik zou zeggen doe het zelf eens beter.
Oké: "Our strategy is TSMC, but if they cannot offer the capacity we need, we will seriously consider Globalfoundries as a partner."

Beter? ;)

specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
quote: whiteguy
Bij de toekomstige kaarten: gt300 'midden oktober' gaan ze niet meer halen vrees ik
Yeah de geruchten enzo ga ik eens in heel korte termijn moeten opkuisen (een hele boel dingen buiten gooien, maakt direct plaats voor nieuwe stukken tekst :p)
quote: whiteguy
En voor je mobiele chips, misschien is het wel aardig om ook hier een linkje naartoe te geven zodat je duidelijk kan zien welke chip nou hoe snel ongeveer is:
http://www.notebookcheck....-Graphic-Cards.130.0.html
Persoonlijk maak ik ook gebruik van de notebookcheck site, Er is al getracht een stukje performantie aanduiding te doen door volgorde + klassificatie + te linken naar de oudere versies.
Natuurlijk steken daar geen AMD/ATI kaartjes tussen :+
Ik zal uw link echter ergens wel proberen op te nemen in de TS. Bedankt voor op deze mogelijkheid te wijzen.
PowerUp schreef op donderdag 12 november 2009 @ 11:28:
Het plaatje van de 9500GT klopt niet, daar staat nu iets van een HD5870.


[...]

Het lijkt me inderdaad niet handig om dit soort dingen te roepen als er zoveel problemen met de productie zijn.
->
Ok da blijkt inderdaad te kloppen, ik heb indertijd nog rechstreeks gelinkt naar hardware.info .. en nu blijkt deze inderdaad niet "uniek" gelinkt te zijn met de 9500GT -___- zo zie je maar dat ik beter zelf elk prentje host...(Het is niet de eerste keer dat er plots een hele boel pics verdwijnen omdat die niet langer mee gehost blijken te zijn)
Ik zal vanavond eens zoeken naar gepaste prent, dunno wat da is met de 9500 series .. maar mijn TS heeft er precies iets tegen ;)

On topic: Ook al kijkt men naar alternatieven, zolang men onderhandeld gaat men dat zo lang mogelijk ontkennen naar de buitenwereld toe + als je nu al toegeeft dat je ook bij GF wil gaan produceren sta je in een slechtere onderhandelingspositie hé.

Persoonlijk moet ik wel toegeven dat ik nVidia hun communicatie, en zeker die van hun CEO die toch wel veel in de pers komt de laatste tijd, zeker niet brilliant is naar mijn insziens en dat voor een bedrijf dat grotendeels steunt op hun PR :/
En indien men toch ooit bij GF gaat produceren wil dat eigenlijk kortweg zeggen dat je zelfs de CEO niet meer mag of kan geloven. Een goede indruk maakt dat toch niet naar mijn inziens.

[Voor 27% gewijzigd door lightdestroyer op 12-11-2009 14:06. Reden: niet geziene post van WhiteGuy]

Specs


  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 20:13
Must See Demos
Tuesday, November 17 – Thursday November 19 | NVIDIA Booth # 2365

* See “Fermi” in Action
Come see a live demonstration of the next generation CUDA™ GPU computing architecture, codenamed “Fermi”. The Fermi-based Tesla™ GPUs are mass market parallel processors and fuel the HPC industry’s transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
Nog eens wat nieuws op video decoding vlak:

Sinds dat CoreAVC bugged is in combinatie met de laatste x264 release
(vooral de anime wereld heeft hier gelijk serieuze problemen mee sinds een paar dagen)
Geen echte tech-site maar bon

Komt er dit weekend waarschijnlijk versie 2.0 uit. Deze zal buiten CUDA support ook ARM gaan ondersteunen (nvidia Tegra platform ??). Maar nog steeds geen DXVA. Tbegint er meer en meer op te lijken dat ze ook serieus gesponserd worden door nVidia. Niet dat ik daar iets op tegen heb daar al mijn video spelers een nVidia kaart hebben maar mensen met een ATI kaart in hun HTPC (ook geen vdpau dus) zijn hier niet echt gebaat mee.
"No.... we have no plans to support DXVA anytime soon. CUDA and ARM NEON Cortex support are now in CoreAVC v2.0 (CUDA and Cortex are in CorePlayer 2.0 as well, for our OEM customers only atm) and OMAP support is on tap next for a v2.1.x release.

Specs


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • KiLLaHeRTz
  • Registratie: November 2006
  • Laatst online: 01-08 19:27
Was al bekend :) *EDIT: De link niet, maar de uitslag wel!*

Niet zo best voor nVidia, de rollen zullen ooit wel weer omgedraaid worden :>

[Voor 6% gewijzigd door KiLLaHeRTz op 12-11-2009 23:43]


  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 08-09 17:45
lightdestroyer schreef op donderdag 12 november 2009 @ 13:55:
En indien men toch ooit bij GF gaat produceren wil dat eigenlijk kortweg zeggen dat je zelfs de CEO niet meer mag of kan geloven. Een goede indruk maakt dat toch niet naar mijn inziens.
Hoezo, mag hij niet van mening veranderen dan? Ik heb liever eeb CEO die durft toe te geven dat hij in het verleden een verkeerde beslissing heeft genomen dan dat hij vast houdt aan een standpunt dat nadelig is voor het bedrijf. Een goede manager durft keuzes te maken, ook al zal hij soms fouten maken.

"Wie nooit van mening veranderd, heeft zelden iets geleerd"

Kan best dat ze achter de schermen ook gewoon praten met GF. Verder hebben ze natuurlijk al een heleboel R&D werk voor toekomstige kaarten gericht op TMSC. Het is dus ook maar de vraag of je dit wel makkelijk kan omzetten naar GF, ook al zou je willen. Ook is het strategisch/tactisch niet zo slim voor hem om hier al te veel over uit te wijden. Mag hij waarschijnlijk ook niet omdat het beursgevoelige informatie is.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Flirten met de competitie is over het algemeen erg goed voor je onderhandelingspositie. Dus openlijk uiterst stellig zeggen dat je niet met een bepaald bedrijf wil werken 'omdat het van de concurrent is', maakt wel dat je inderdaad aan betrouwbaarheid indient als later dat feit opeens niet meer meetelt.

  • Noel
  • Registratie: September 2001
  • Laatst online: 01:43
Een goede CEO/Manager maakt alleen juiste keuzes. Omdat die keuzes steunen op onderzoek, feiten, analyse, simulaties, berekeningen, etc. Alles wat je kan gebruiken om de juiste keuze te maken helpt daar in.

Feit 1 : ze kunnen geen werkende Fermi chip bakken bij TSMC ((bij wijze van spreken en lichte overdrijving, maar toch).
Feit 2 : TSMC heeft te lage capaciteit.
Feit 3 : GF kan ze ook bakken.
Berekening 1 : wij hebben geen product + ati heeft iets goed = slechte situatie

Keuze: we gaan niet naar GF.

Slechte keuze. Slechte CEO.

Ze zullen vast wel een goede deal met TSMC hebben waardoor voor hen de kosten niet extreem oplopen en er zal nog wel ander denkwerk aan te pas gekomen zijn dan ik nu illustreer, maar toch. Je moet de opties openhouden, niet op voorhand afdoen als onzin oid. Achteraf met je staart tussen de poten terugkomen op je eerdere overtuiging komt echt niet goed over in CEO land.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 23-09 15:24

Darkasantion

Just keep swimming!

Noel schreef op vrijdag 13 november 2009 @ 09:30:
Een goede CEO/Manager maakt alleen juiste keuzes. Omdat die keuzes steunen op onderzoek, feiten, analyse, simulaties, berekeningen, etc. Alles wat je kan gebruiken om de juiste keuze te maken helpt daar in.

Feit 1 : ze kunnen geen werkende Fermi chip bakken bij TSMC ((bij wijze van spreken en lichte overdrijving, maar toch).
Feit 2 : TSMC heeft te lage capaciteit.
Feit 3 : GF kan ze ook bakken.
Berekening 1 : wij hebben geen product + ati heeft iets goed = slechte situatie

Keuze: we gaan niet naar GF.

Slechte keuze. Slechte CEO.

Ze zullen vast wel een goede deal met TSMC hebben waardoor voor hen de kosten niet extreem oplopen en er zal nog wel ander denkwerk aan te pas gekomen zijn dan ik nu illustreer, maar toch. Je moet de opties openhouden, niet op voorhand afdoen als onzin oid. Achteraf met je staart tussen de poten terugkomen op je eerdere overtuiging komt echt niet goed over in CEO land.
1. Klopt, maar Fermi is al sinds 3 jaar in ontwikkeling en de GF is maar ~1 jaar oud, Nvidia kond dus het ontwerp nog niet aan de productie-prodecure en procede van de GF aanpassen, en dus is hun (huidige) strategie inderdaad TSMC.
2. Te lage capaciteit of te lage yields? Zelfde zou ook de GF kunnen treffen. Je kunt er wel 100.000 op 1 dag maken, maar als er maar 10.000 van werken(10% yield) dan heb niks aan de capaciteit omdat de yields bagger zijn.
3. Bron graag, GF komt van de AMD-fabs en heeft dus de focus op de CPU en de bijbehorende procedes en bewerkingen. GPU bakken =/ CPU bakken, hier zit een heel groot verschil in, dus GF kan zo maar niet even wat GPU's voor wie dan ook gaan bakken. In de toekomst zal het zeker wel gebeuren(ATi kaarten bijvoorbeeld) maar op dit moment is het GPU-procede van GF, als het er uberhaupt al is, nog te jong en te onzeker om daar massa-productie GPU's me te maken.

Dus geen slechte keus, en dus ook geen slechte CEO :+

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 15:48
Noel schreef op vrijdag 13 november 2009 @ 09:30:
Een goede CEO/Manager maakt alleen juiste keuzes. Omdat die keuzes steunen op onderzoek, feiten, analyse, simulaties, berekeningen, etc. Alles wat je kan gebruiken om de juiste keuze te maken helpt daar in.

Feit 1 : ze kunnen geen werkende Fermi chip bakken bij TSMC ((bij wijze van spreken en lichte overdrijving, maar toch).
Feit 2 : TSMC heeft te lage capaciteit.
Feit 3 : GF kan ze ook bakken.
Berekening 1 : wij hebben geen product + ati heeft iets goed = slechte situatie

Keuze: we gaan niet naar GF.

Slechte keuze. Slechte CEO.

Ze zullen vast wel een goede deal met TSMC hebben waardoor voor hen de kosten niet extreem oplopen en er zal nog wel ander denkwerk aan te pas gekomen zijn dan ik nu illustreer, maar toch. Je moet de opties openhouden, niet op voorhand afdoen als onzin oid. Achteraf met je staart tussen de poten terugkomen op je eerdere overtuiging komt echt niet goed over in CEO land.
Punt (feit?) 1: TSMC is hierin natuurlijk slechts ten dele de schuldige. Als NVidia met een te complex (of gewoon te slecht) ontwerp aan komt zetten, zal het voor elke chipbakker gewoon lastig zijn om fatsoenlijke yields te halen. Dan is het wel leuk om je keuzes open te houden, maar heb je een dikke kans dat je het nergens aan de gang gaat krijgen.

Anoniem: 317606

Noel schreef op vrijdag 13 november 2009 @ 09:30:
Een goede CEO/Manager maakt alleen juiste keuzes. Omdat die keuzes steunen op onderzoek, feiten, analyse, simulaties, berekeningen, etc. Alles wat je kan gebruiken om de juiste keuze te maken helpt daar in.

Feit 1 : ze kunnen geen werkende Fermi chip bakken bij TSMC ((bij wijze van spreken en lichte overdrijving, maar toch).
Feit 2 : TSMC heeft te lage capaciteit.
Feit 3 : GF kan ze ook bakken.
Berekening 1 : wij hebben geen product + ati heeft iets goed = slechte situatie

Keuze: we gaan niet naar GF.

Slechte keuze. Slechte CEO.

Ze zullen vast wel een goede deal met TSMC hebben waardoor voor hen de kosten niet extreem oplopen en er zal nog wel ander denkwerk aan te pas gekomen zijn dan ik nu illustreer, maar toch. Je moet de opties openhouden, niet op voorhand afdoen als onzin oid. Achteraf met je staart tussen de poten terugkomen op je eerdere overtuiging komt echt niet goed over in CEO land.
Geen onzin verkopen aub.
GlobalFoundries kan momentel geen GPU's bakken. Ze hebben wel werkende GPU wafers laten zien, maar om de GPU's van ATI en nVidia te kunnen bakken moet nog veel omgebouwd worden. Dat zal nog even duren.

Dat wetende is er nog niemand die kan vertellen hoe het GPU proces uiteindelijk zal zijn. Het zou dus dom zijn als nVidia nu "ja" zegt en uiteindelijk blijkt dat GlobalFoundries een slecht GPU proces heeft. Daarnaast hebben en nVidia en TSMC al jarenlang een goede relatie met elkaar, en dat gooi je ook niet zomaar overboord.

Anoniem: 292676

Anoniem: 317606 schreef op vrijdag 13 november 2009 @ 17:35:
[...]


Geen onzin verkopen aub.
GlobalFoundries kan momentel geen GPU's bakken. Ze hebben wel werkende GPU wafers laten zien, maar om de GPU's van ATI en nVidia te kunnen bakken moet nog veel omgebouwd worden. Dat zal nog even duren.

Dat wetende is er nog niemand die kan vertellen hoe het GPU proces uiteindelijk zal zijn. Het zou dus dom zijn als nVidia nu "ja" zegt en uiteindelijk blijkt dat GlobalFoundries een slecht GPU proces heeft. Daarnaast hebben en nVidia en TSMC al jarenlang een goede relatie met elkaar, en dat gooi je ook niet zomaar overboord.
ik denk eerder dat hij zegt dat nVidia nooit GF zal gebruiken, of ze nu een goede of slechte procede hebben

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 08-09 17:45
Noel schreef op vrijdag 13 november 2009 @ 09:30:
Een goede CEO/Manager maakt alleen juiste keuzes. Omdat die keuzes steunen op onderzoek, feiten, analyse, simulaties, berekeningen, etc. Alles wat je kan gebruiken om de juiste keuze te maken helpt daar in.

Feit 1 : ze kunnen geen werkende Fermi chip bakken bij TSMC ((bij wijze van spreken en lichte overdrijving, maar toch).
Feit 2 : TSMC heeft te lage capaciteit.
Feit 3 : GF kan ze ook bakken.
Berekening 1 : wij hebben geen product + ati heeft iets goed = slechte situatie

Keuze: we gaan niet naar GF.

Slechte keuze. Slechte CEO.

Ze zullen vast wel een goede deal met TSMC hebben waardoor voor hen de kosten niet extreem oplopen en er zal nog wel ander denkwerk aan te pas gekomen zijn dan ik nu illustreer, maar toch. Je moet de opties openhouden, niet op voorhand afdoen als onzin oid. Achteraf met je staart tussen de poten terugkomen op je eerdere overtuiging komt echt niet goed over in CEO land.
Het is voor een manager onmogelijk om alleen maar goede keuzes te maken. Dit komt door het feit dat de mens een beperkte rationaliteit heeft en onmogelijk alle onzekerheden uit de omgeving van de organisatie weet en/of kan voorspellen. Elk mens maakt fouten, dus ook CEO's. Als je je standpunt maar degelijk kan onderbouwen hoef je echt niet gezichtsverlies te leiden wanneer je later besluit de strategie te wijzigen. Het is juist de taak van de CEO om constant kijken of de huidige strategie nog voldoet en of hij niet wijzigingen moet aanbrengen op eerder genomen keuzes. Op dit moment is het TMSC, maar dat betekent niet dat hij nooit GF (opnieuw) zal overwegen.

"De meeste mensen verlaten niet graag een eerder ingenomen standpunt en zeker niet publiekelijk. Waarom eigenlijk? Mag de wereld verbeterd worden, maar onze meningen niet? Waarom kiezen we voor het debat en niet voor de dialoog? Misschien kunnen we een voorbeeld nemen aan sommige wetenschappers. De Poolse sterrenkundige Copernicus is beroemd geworden, omdat hij na zijn studie in Italië anders tegen het zonnestelsel aankeek dan in zijn jongelingsjaren. Hij ontdekte dat de aarde rond de zon draaide en niet andersom. Ook de bioloog Charles Darwin kwam met andere inzichten thuis, nadat hij met de Beagle de wereld­zeeën had bevaren. Als wetenschappers de laatste twee­duizend jaar nooit van mening waren veranderd, hadden we nog steeds gedacht dat de aarde plat was. De wetenschapsfilosoof Karl Popper stelde zelfs dat wetenschappers alles moeten doen om hun eigen stellingen te weerleggen. Wie beweert dat alle zwanen wit zijn, doet er goed aan op zoek te gaan naar een zwarte zwaan.
Nieuwe meningen of denkbeelden groeien uitsluitend op een bodem van diversiteit. Als we niets nieuws meer zien, horen, voelen of ruiken dan staan we stil. En zoals we weten worden lastige problemen, nooit opgelost op het niveau waarop ze ontstaan. We zullen onze grenzen dus moeten blijven verkennen en verleggen."

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

NVIDIA to Showcase Fermi-based Tesla GPUs Next week





NVIDIA has just announced that they’re showcasing the Fermi GPUs at SC09, which is much earlier than we expected.
NVIDIA will demonstrate the Fermi-300 for the second time at SC09 event, which takes place on November 17th - November 19th in Portland, Oregon. What we saw at GTC event was just a prototype card using pre-production Fermi chip.
“Come see a live demonstration of the next generation CUDA GPU computing architecture, codenamed ‘Fermi’. The Fermi-based Tesla GPUs are mass market parallel processors and fuel the HPC industry’s transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost,” a statement at NVIDIA’s official website.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03 15:55
-The_Mask- schreef op zaterdag 14 november 2009 @ 10:38:

NVIDIA to Showcase Fermi-based Tesla GPUs Next week



[afbeelding]

NVIDIA has just announced that they’re showcasing the Fermi GPUs at SC09, which is much earlier than we expected.
NVIDIA will demonstrate the Fermi-300 for the second time at SC09 event, which takes place on November 17th - November 19th in Portland, Oregon. What we saw at GTC event was just a prototype card using pre-production Fermi chip.
“Come see a live demonstration of the next generation CUDA GPU computing architecture, codenamed ‘Fermi’. The Fermi-based Tesla GPUs are mass market parallel processors and fuel the HPC industry’s transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost,” a statement at NVIDIA’s official website.
Laten we hopen dat het deze keer geen mock up is 8)7

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
M4gick schreef op zaterdag 14 november 2009 @ 11:19:
[...]
Laten we hopen dat het deze keer geen mock up is 8)7
Als ze nu een werkende kaart hebben denk ik dat die gebaseerd is op de A2 stepping of misschien zelfs A1?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 263719

Allemaal wel leuk die Tesla, maar ik heb Nvidia nog steeds niet het woord 'Geforce' horen uitspreken, dat is toch waar de tweakers/gamers op zitten te wachten...?

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 11-09 09:59

Xenomorphh

Soep met Ballen

Ja maar als ze een Tesla werkend hebben is een Geforce niet zo ver weg ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Xenomorphh schreef op zaterdag 14 november 2009 @ 12:29:
Ja maar als ze een Tesla werkend hebben is een Geforce niet zo ver weg ;)
Nee Q2 2010 dat ligt idd vlakbij. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Ze maken 3 varianten telsa, geforece en ?
Ben beniewud ofze ook gelijk testjes laten zien. Dat vind ik intessanter dan wat info en een boel tekst

  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03 15:55
Anoniem: 304087 schreef op zaterdag 14 november 2009 @ 12:59:
Ze maken 3 varianten telsa, geforece en ?
Ben beniewud ofze ook gelijk testjes laten zien. Dat vind ik intessanter dan wat info en een boel tekst
Quadro, denk ik..

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 11-09 09:59

Xenomorphh

Soep met Ballen

-The_Mask- schreef op zaterdag 14 november 2009 @ 12:45:
[...]

Nee Q2 2010 dat ligt idd vlakbij. :P
Ja want tesla ligt ook in de winkel na de demonstratie -_-!

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
NVIDIA tablet mystery solved: an ODM Tegra prototype



http://www.engadget.com/2...d-an-odm-tegra-prototype/

[Voor 25% gewijzigd door Anoniem: 304087 op 15-11-2009 13:13]


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

nVidia vindt dat intel teveel korting geeft

In het stukje wordt netjes uit de boeken gedaan hoe Jen-Hsun woorden en prijzen verdraaid om het zieligst uit de hoek te komen voordat zowel John Peddie als een intel werknemer hem er weer inslaan.
"Intel's tactics with Ion have been the most aggressive we've seen from a competitor. They have offered the Atom [a total of three chips] for $25, but when the one-chip Atom is used with Ion, it sells for $45," Nvidia CEO Jen Hsun Huang said in a statement provided to CNET. "A customer can't even choose to resell the chipset and use Ion instead. What's the point of Nvidia getting an Intel bus license if it's impossible to overcome Intel's pricing bundles?" he asked, referring the licensing fee that Nvidia pays Intel.

"We'll keep growing as a company, but further action needs to be taken to protect consumers," Huang said.

Intel disputes this. "He's playing a trick of numbers, said Intel spokesman Chuck Mulloy. "He's giving you a $45 list price--that nobody pays--for a part and then a negotiated price (which is more realistic). He's mixing apples and oranges. We have scrubbed and continue to scrub our pricing practices as it relates to chipsets and processors. It's all above cost. And that meets the legal standard worldwide."

[Voor 0% gewijzigd door Ed_L op 16-11-2009 21:00. Reden: minder schreeuwerige titel]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:13
neliz schreef op maandag 16 november 2009 @ 02:03:

nVidia huilt dat intel teveel korting geeft

In het stukje wordt netjes uit de boeken gedaan hoe Jen-Hsun woorden en prijzen verdraaid om het zieligst uit de hoek te komen voordat zowel John Peddie als een intel werknemer hem er weer inslaan.


[...]
Als dit waar is is het triest van Intel. Maar zo kennen we ze wel. Ze hebben dit in het verleden ook gedaan bij de system builders. Die gaven ze kortingen als die geen AMD systemen zouden verkopen. En we weten allemaal hoe dat verhaal afgelopen is..... Erg negatief voor AMD.

Het slaat natuurlijk nergens op dat je 3 chips voor 25$ krijgt en alleen de cpu voor 45$ 8)7

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16:16

superwashandje

grofheid alom

wat ik een beetje raar vind overkomen is het volgende gedeelte:
"We'll keep growing as a company, but further action needs to be taken to protect consumers," Huang said.
alsof hij het beste voor heeft met de consumers. Ik denk dat we dan wel een andere strategie hadden gezien van Nvidia de afgelopen jaren.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Fermi is uit!

Nou .. uit.. ehr.. het eerste Fermi gebaseerde apparaat is aangekondigd..

Ga maar rustig slapen want hij komt pas medio mei!
The Tesla C2050 and C2070 products will retail for $2,499 and $3,999 and the Tesla S2050 and S2070 will retail for $12,995 and $18,995. Products will be available in Q2 2010
Spekkies

520 tot 640 DP GFlops (8 keer sneller dan GT200, zie mijn eerdere post in het vorige nieuwstopic)
1260 SP GFlops met 512 "Cuda Cores" op 1230Mhz.
Verbruik 190W (2x6 Pin PCI-e), idle: niet bekend gemaakt




[Voor 164% gewijzigd door neliz op 16-11-2009 17:10]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Astennu schreef op maandag 16 november 2009 @ 08:00:
Als dit waar is is het triest van Intel. Maar zo kennen we ze wel. Ze hebben dit in het verleden ook gedaan bij de system builders. Die gaven ze kortingen als die geen AMD systemen zouden verkopen. En we weten allemaal hoe dat verhaal afgelopen is..... Erg negatief voor AMD.

Het slaat natuurlijk nergens op dat je 3 chips voor 25$ krijgt en alleen de cpu voor 45$ 8)7
Ja.. want zo werkt niemand in deze industrie?

Hoe denk je dat nvidia zijn chips aanbied?

Jen-Hsun noemt de listprijs op (de prijs voor de klant) en die is altijd hoger dan wat een fabrikant er voor betaald. *knip* Ontspan

[Voor 5% gewijzigd door Ed_L op 16-11-2009 21:04]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 23-09 15:24

Darkasantion

Just keep swimming!

neliz schreef op maandag 16 november 2009 @ 16:58:

Fermi is uit!

Nou .. uit.. ehr.. het eerste Fermi gebaseerde apparaat is aangekondigd..

Ga maar rustig slapen want hij komt pas medio mei!


[...]


Spekkies

520 tot 640 DP GFlops (8 keer sneller dan GT200, zie mijn eerdere post in het vorige nieuwstopic)
1260 SP GFlops met 512 "Cuda Cores" op 1230Mhz.
Verbruik 190W (2x6 Pin PCI-e), idle: niet bekend gemaakt


[afbeelding]
[afbeelding]
[afbeelding]
Hmm, als dit de topkaart wordt, heeft Nvidia een probleem :P

De HD5870 doet namelijk 2720 SP Gflop en rond de 540 DP Gflops en verbruikt 188 Watt :+

Dus dit is hopelijk niet hun topkaart, want deze zou namelijk 30% sneller zijn dan de HD5870.....

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Darkasantion schreef op maandag 16 november 2009 @ 17:23:
[...]

Hmm, als dit de topkaart wordt, heeft Nvidia een probleem :P
Het is Tesla zoals je kunt zien, geen game kaart (geforce) dus. ;)
Daarnaast hebben ATi kaarten altijd al meer flops dan hun nVidia tegenhangers.

[Voor 13% gewijzigd door -The_Mask- op 16-11-2009 17:31]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 23-09 15:24

Darkasantion

Just keep swimming!

-The_Mask- schreef op maandag 16 november 2009 @ 17:29:
[...]

Het is Tesla zoals je kunt zien, geen game kaart (geforce) dus. ;)
Daarnaast hebben ATi kaarten altijd al meer flops dan hun nVidia tegenhangers.
Dat wist ik wel, maar omdat ze aan elkaar verbonden zijn, want het zijn beide GT300's kun je wel wat dingen ermee voorspellen :+

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Darkasantion schreef op maandag 16 november 2009 @ 17:34:
Dat wist ik wel, maar omdat ze aan elkaar verbonden zijn, want het zijn beide GT300's kun je wel wat dingen ermee voorspellen :+
gooi er 10 to 20% bovenop (zie vorige tesla tegenover de geforce) en je weet wat je straks in huis haalt.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Darkasantion schreef op maandag 16 november 2009 @ 17:23:
[...]

Hmm, als dit de topkaart wordt, heeft Nvidia een probleem :P

De HD5870 doet namelijk 2720 SP Gflop en rond de 540 DP Gflops en verbruikt 188 Watt :+

Dus dit is hopelijk niet hun topkaart, want deze zou namelijk 30% sneller zijn dan de HD5870.....
Tesla is in het verleden altijd hoger geklokt geweest dan GeForce.

[Voor 8% gewijzigd door CJ op 16-11-2009 17:39]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 15:48
neliz schreef op maandag 16 november 2009 @ 16:58:

Fermi is uit!

Nou .. uit.. ehr.. het eerste Fermi gebaseerde apparaat is aangekondigd..

Ga maar rustig slapen want hij komt pas medio mei!


[...]


Spekkies

520 tot 640 DP GFlops (8 keer sneller dan GT200, zie mijn eerdere post in het vorige nieuwstopic)
1260 SP GFlops met 512 "Cuda Cores" op 1230Mhz.
Verbruik 190W (2x6 Pin PCI-e), idle: niet bekend gemaakt


[afbeelding]
[afbeelding]
[afbeelding]
Die drie dikke schroeven waar zo om gelachen werd bij het mock-up board hebben ze er maar in laten zitten blijkbaar. Apart.

  • epo
  • Registratie: November 2000
  • Laatst online: 18:06
*knip* Doe dan ook niet mee

[Voor 92% gewijzigd door Ed_L op 16-11-2009 21:04]


  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 13:31
CJ schreef op maandag 16 november 2009 @ 17:39:
[...]
Tesla is in het verleden altijd hoger geklokt geweest dan GeForce.
Nee hoor, Tesla is juist altijd iets lager geklokt. Een C1060 heeft "Processor Clock" van 1.3Ghz, een GTX285 heeft 1475MHz. De memory speed van de C1060 ligt ook een stuk lager. Zie C1060 en GTX285. De Tesla reeks is conservatiever geklokt in het algemeen (dat scheelt ook in de power usage voor clusters).

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 08-09 17:45
whiteguy schreef op maandag 16 november 2009 @ 18:49:
[...]

Die drie dikke schroeven waar zo om gelachen werd bij het mock-up board hebben ze er maar in laten zitten blijkbaar. Apart.
[afbeelding]
Ik vind de oplossing van nvidia met die drie schroeven toch echt veel mooier en netter dan hoe ati de schroeven op de 5850/5870 heeft. Bij nvidia zijn ze mooi verzonken, mooi symetrisch verdeeld en het ziet er veel steviger uit (niet dat dat zo nodig is, maar toch).



Verder zijn er amper verschillen met de "mock-up" waar nvidia eerst zoveel commentaar op kreeg. Wat was dat toen toch een gezeik om niks door charlie en kornuiten. Logisch dat het er nog niet perfect uitzag. Maar nvidia toonde dus gewoon oprecht hun fermi kaart zoals hij ongeveer zou worden. Zoek de verschillen...


  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Zegt genoeg hoop ik...
Verder zijn er amper verschillen met de "mock-up" waar nvidia eerst zoveel commentaar op kreeg. Wat was dat toen toch een gezeik om niks door charlie en kornuiten. Logisch dat het er nog niet perfect uitzag. Maar nvidia toonde dus gewoon oprecht hun fermi kaart zoals hij ongeveer zou worden.
De vorige kaart was helemaal Fermi niet, dat was een PCB van een andere kaart die ze wat bij hebben gezaagd, koeler gepakt wat zilver gespoten paar schroeven er door. En kom laten we het Fermi noemen, zo kan ik ook wel een videokaart maken.

Nu alleen nog de vraag hoe echt deze kaart is, misschien zit er wel een gapend gat op de plaats waar de GPU hoort te zitten. :+

[Voor 78% gewijzigd door -The_Mask- op 16-11-2009 21:36]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Persoonlijk ben ik meer gecharmeerd van de achterkant van deze kaart:



nog verkrijgbaar dit decennium ook!

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30

Fermi massively misses clock targets

Dan zul je deze van Charlie ook wel niet echt op prijs stellen rutger.

Een paar korte zinnen:

OFFICIAL WORD FROM NVIDIA is that gaming is now a footnote for the formerly leading graphics company, its latest and greatest Fermi chip won't see the light of day until at least Q1 of 2010, and Fermi's clock speeds so far are massively off what the firm had hoped for. Yup, it is a mess, just like we told you.


...the G200, only missed its clock targets by about 10%, and was only seven months late. Fermi is looking like it is about as late, but 20% down on speed. Talk about starting out on the wrong foot. Even a puppy can take a wobbly step or two soon after it's born, but Nvidia doesn't seem to be able to do even that.

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 08-09 17:45
Had ik al gelezen. Tja bij charlie moet je alles met een korreltje zout nemen.
Op technische details na lijkt die mock-up verder behoorlijk op het eind product. Zelfs de gaten in het pcb achter de fan. Opzich ook bijzonder, nog niet eerder gezien bij een videokaart. Vraag me af hoeveel dat zal helpen bij de koeling.

Verder staat die fermi tesla ook gewoon al vermeld op de nvidia site. En hier een versie voor in data centers.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
De ophef van de mockup was dan ook niet zozeer over hoe de kaart er uiteindelijk uit zou komen te zien, maar om het feit dat Jensen een kaart in de lucht hield en er als een blij kind mee liep te pochen alszijnde Fermi, terwijl het niets anders was dan een wel heel erg goedkope samenraapsel. Ze hadden haast nog beter gewoon een digitale tekening uit kunnen printen en die in elkaar plakken, dat was haast nog geloofwaardiger geweest.

  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03 15:55
Rutger Mulder schreef op maandag 16 november 2009 @ 21:53:
Had ik al gelezen. Tja bij charlie moet je alles met een korreltje zout nemen.
Op technische details na lijkt die mock-up verder behoorlijk op het eind product. Zelfs de gaten in het pcb achter de fan. Opzich ook bijzonder, nog niet eerder gezien bij een videokaart. Vraag me af hoeveel dat zal helpen bij de koeling.

Verder staat die fermi tesla ook gewoon al vermeld op de nvidia site. En hier een versie voor in data centers.
Naja hij heeft wel heel vaak gelijk gehad, de laatste tijd..

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 17:16
neliz schreef op maandag 16 november 2009 @ 21:38:
Persoonlijk ben ik meer gecharmeerd van de achterkant van deze kaart:

[afbeelding]

nog verkrijgbaar dit decennium ook!
Waarom post je de achterkant van een ATI kaart in een nvidia nieuws topic? :?

anathema


  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 08-09 17:45
dahakon schreef op maandag 16 november 2009 @ 22:00:
De ophef van de mockup was dan ook niet zozeer over hoe de kaart er uiteindelijk uit zou komen te zien, maar om het feit dat Jensen een kaart in de lucht hield en er als een blij kind mee liep te pochen alszijnde Fermi, terwijl het niets anders was dan een wel heel erg goedkope samenraapsel. Ze hadden haast nog beter gewoon een digitale tekening uit kunnen printen en die in elkaar plakken, dat was haast nog geloofwaardiger geweest.
Er wordt in zoveel industrieën gebruik gemaakt van mock-ups, ik zag het probleem niet zo. Ze hebben voor zover ik weet/herinner tijdens de presentatie wel degelijk een werkende fermi laten zien dmv video beelden/tests, alleen was deze engineering sample niet zichtbaar voor het publiek.

Verder heeft charlie het ook vaak genoeg fout, zoals laatst met dat lucid hydra moederbord van msi. Hij is ook zo overdreven en anti nvidia dat niemand hem vertrouwd ook al heeft ie wel een keer gelijk.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:47
Rutger Mulder schreef op maandag 16 november 2009 @ 23:00:
Verder heeft charlie het ook vaak genoeg fout, zoals laatst met dat lucid hydra moederbord van msi. Hij is ook zo overdreven en anti nvidia dat niemand hem vertrouwd ook al heeft ie wel een keer gelijk.
De laaste, zeg 8 maanden kun je toch wel stellen dat het meer in de richting is van:
Hij is ook zo overdreven en anti nvidia dat je de teksten niet altijd 100% letterlijk, maar zeker wel mag meenemen als je iets belangrijks te weten wilt komen, ook al heeft ie wel eens een keer ongelijk....

[Voor 4% gewijzigd door Paprika op 16-11-2009 23:07]


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Rutger Mulder schreef op maandag 16 november 2009 @ 23:00:
Ze hebben voor zover ik weet/herinner tijdens de presentatie wel degelijk een werkende fermi laten zien dmv video beelden/tests, alleen was deze engineering sample niet zichtbaar voor het publiek.
Nee, de demos op de GTC draaiden allemaal op Tesla (GT200b) bakken. Één van de demo's draaide zelfs op 12 kaarten om de performance van Fermi te "simuleren."

In de context van "this little puppy is Fermi" zou je moeten zien hoe beleggers hier mee omgaan. Hun is een wortel voor de neus gehouden van karton. Volgens mij heet zoiets liegen, dat doe je als fatsoenlijk mens niet.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Rutger Mulder schreef op maandag 16 november 2009 @ 23:00:
Er wordt in zoveel industrieën gebruik gemaakt van mock-ups, ik zag het probleem niet zo. Ze hebben voor zover ik weet/herinner tijdens de presentatie wel degelijk een werkende fermi laten zien dmv video beelden/tests, alleen was deze engineering sample niet zichtbaar voor het publiek.
Er was bij die presentatie dus niets van Fermi aanwezig, met uitzondering van een whitepaper en een beroerde mockup waarvan geclaimd werd dat het de echte Fermi was. De presentaties waren niet veel meer dan laten zien wat Fermi straks kan. Het was verder vooral een heel verhaal hoe GPGPU de toekomst is.

Het enige wat ik me afvraag, is dat ondanks dat nVidia GPGPU zo veel zit te pushen, waarom het een HD4870 setup is die als eerste GPGPU-supercomputer de top-5 binnen komt. Het leek me juist iets voor nVidia om als extra prestige mee te nemen in de marketing. Nu worden ze echter verslagen door een 'ordinaire gamerskaart'.

Anoniem: 59888

Rutger Mulder schreef op maandag 16 november 2009 @ 21:20:
[...] Verder zijn er amper verschillen met de "mock-up" waar nvidia eerst zoveel commentaar op kreeg. Wat was dat toen toch een gezeik om niks door charlie en kornuiten. Logisch dat het er nog niet perfect uitzag. Maar nvidia toonde dus gewoon oprecht hun fermi kaart zoals hij ongeveer zou worden. Zoek de verschillen...
[afbeelding]
[afbeelding]
Leuk dat de beschildering van de koeler er op leek, maar zullen we het maar hebben over iets wat er wel toe doet? Namelijk wat er onder die koeler zit?
Rutger Mulder schreef op maandag 16 november 2009 @ 21:53:
[...] Op technische details na lijkt die mock-up verder behoorlijk op het eind product. [...]
Jij noemt het feit dat ze een stuk van een PCB van een totaal andere kaart afgezaagd hebben, er wat onderdelen op gelijmd hebben er een koeler en een slotplaatje bij geflanst hebben, kortom: iets wat niets maar dan ook niets te maken heeft met een kaart, welke dan ook, die überhaupt kan werken, een technisch detail? Dat lijkt me toch ietwat een understatement als ik zo vrij mag zijn.
Rutger Mulder schreef op maandag 16 november 2009 @ 23:00:
[...] Er wordt in zoveel industrieën gebruik gemaakt van mock-ups, ik zag het probleem niet zo. [...]
Het gebruik van mockups is inderdaad heel normaal. Maar doen alsof een niet-functioneel mockup een werkend prototype is, dat is zeker niet normaal, dat is liegen.
Rutger Mulder schreef op maandag 16 november 2009 @ 23:00:[...] Ze hebben voor zover ik weet/herinner tijdens de presentatie wel degelijk een werkende fermi laten zien dmv video beelden/tests, alleen was deze engineering sample niet zichtbaar voor het publiek. [...]
In plaats van de aangekondigde demonstratie kregen we dus een knutselwerkje en een video waarvan we maar moeten geloven dat het daadwerkelijk door een Fermi is gerendered, zonder enige vorm van bewijs. Tja, erg overtuigend is dat toch allemaal niet. Maar ik neem aan dat dat bij de demonstratie binnenkort allemaal anders zal zijn, ik kan me niet voorstellen dat nVidia zo stom is om die fout nog een keer te maken.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Geforce GT 240 launch price is $99

Nvidia compares GT 240 cards with Radeon HD 4670 and beats it in top 11 games, at least in the GDDR5 version.

* -The_Mask- Kijkt eens naar de prijs van een HD4770 en HD4850, heeft het gevoel dat nVidia zeg zelf iets te hoog in schat eigenlijk.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

-The_Mask- schreef op dinsdag 17 november 2009 @ 00:02:
* -The_Mask- Kijkt eens naar de prijs van een HD4770 en HD4850, heeft het gevoel dat nVidia zeg zelf iets te hoog in schat eigenlijk.
Vraag meteen even of de GDDR5 versie ook €99 is ;)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 15:56
neliz schreef op dinsdag 17 november 2009 @ 08:37:
[...]


Vraag meteen even of de GDDR5 versie ook €99 is ;)
Haha inderdaad, VANAF $99;)
anathema schreef op maandag 16 november 2009 @ 22:15:
[...]

Waarom post je de achterkant van een ATI kaart in een nvidia nieuws topic? :?
Omdat er een zinloze discussie bezig was over het wegwerken van de schroeven op die Fermi, hij vindt dus de schroeven zoals die bij ATI zitten mooier ;)

[Voor 46% gewijzigd door Stefanovic45 op 17-11-2009 10:13]

Hyundai Ioniq Electric 28 kWh / 5.4 kWp PV installatie


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 22-09 16:57

Format-C

PSN (GT7) Vale46_NL

Lekker belangrijk.... Schroeven. :O

Add me @ PS id: Vale46_NL


  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

Hahaha, stel je voor dat hij uit elkaar valt :9
Maar wat is de performance ipv looks, das toch veel belangrijker? Wie kijkt er op de achterkant van je kast.. :+

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Heb vandaag nog weinig persberichten gezien over de GT240, dus link ik gelijk maar even naar de eerste op VR-Zone.

http://vr-zone.com/articl...c-tool/8060.html?doc=8060

offtopic:
1x raden wie 'm geschreven heeft. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:13
neliz schreef op maandag 16 november 2009 @ 23:13:
[...]


Nee, de demos op de GTC draaiden allemaal op Tesla (GT200b) bakken. Één van de demo's draaide zelfs op 12 kaarten om de performance van Fermi te "simuleren."

In de context van "this little puppy is Fermi" zou je moeten zien hoe beleggers hier mee omgaan. Hun is een wortel voor de neus gehouden van karton. Volgens mij heet zoiets liegen, dat doe je als fatsoenlijk mens niet.
Je zou eens moeten weten hoeveel mensen en bedrijven liegen om te proberen er zelf beter van te worden. Gelukkig backfired dat regelmatig en worden mensen en bedrijven op hun vingers getikt. Denk bv ook aan vreemd gaan. Totaal ander onderwerp maar ook weel leugens en niet eerlijk zijn. Bedrijven doen ook niet anders. Ik zeg niet dat alle bedrijven zo zijn. Maar er zijn er zat die voor de cijfertjes dingen gaan roepen om de aandeelhouders tevreden te houden.

Volgens mij heeft iedereen ooit wel een keer gelogen. Ik betrap mezelf er ook wel eens op. (zijn dan vaak kleine dingen bv iemand vraagt of je iets speciaals gedaan hebt in het weekend en dan nee zeggen terwijl dat wel zo was. ik noem maar wat)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

GT 240 Review

een $100/€90 kostende 9600GT \o/

8)7 *O* :w _O- :Y 7(8)7
Obwohl die Geforce GT 240 die meisten der getesteten Spiele deutlich flüssiger darstellen kann als die noch vor kurzem getestete Geforce GT 220, enttäuscht die Karte mit Blick auf die reine Spieleleistung für eine Neuvorstellung zum jetzigen Zeitpunkt. Selbst die schnellste GT-240-Version mit einem Gigabyte GDDR5-RAM sortiert sich im gewichteten Leistungsindex der PC Games Hardware zwischen Geforce 9600 GT und Geforce 9800 GT ein (s. PCGH-Print 01/2010). Für Fps-bewusste Spieler mit begrenztem Budget sind in diesem Preisbereich die günstigen HD 4770 bis HD-4850-Modelle empfehlenswerter. Deutlich flotter sind Sie jedoch mit einer Karte wie der HD4870/1G oder Geforce GTX 260-216 für um die 110 respektive 130 Euro unterwegs - für denselben Preis bekommen Sie auch schon eine DirectX-11-fähige HD 5770, für knapp über 100 Euro eine HD 5750.
jawohl!

[Voor 66% gewijzigd door neliz op 17-11-2009 15:34]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • frankknopers
  • Registratie: December 2003
  • Laatst online: 19-09 11:04

frankknopers

Goud is geen geld

neliz schreef op dinsdag 17 november 2009 @ 15:33:

GT 240 Review

een $100/€90 kostende 9600GT \o/

8)7 *O* :w _O- :Y 7(8)7

[...]

jawohl!
Bij Guru3D zijn ze nog opvallend mild van toon. Alles wat de GT240 kan kunnen de alternatieven in hetzelfde prijssegment beter, dus er is gewoon geen reden te bedenken waarom iemand deze kaart zou willen. Als je beste prijs/performance wilt ben je beter af met een HD4770 of HD4850 en als je per se nVidia wilt kun je beter een 8800GT of 9800GT oppakken, kun je zelf kiezen welk nummer je het mooist vind voor diezelfde G92 kaart met 112 shaderunits..

Goud is geen geld


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hier ook nog een review van de GT240 op Tweaktown

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 12:51
triestig van nvidia hoor.

Zijn ge gaten in de 200 reeks aan het vullen, of nog extra rebrands met aanpassingen aan het doen ( DDR5)?
om zo ergens Q2 de 300 reeks in de winkel te hebben liggen?

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
BitchCrew schreef op dinsdag 17 november 2009 @ 17:09:
triestig van nvidia hoor.

Zijn ge gaten in de 200 reeks aan het vullen, of nog extra rebrands met aanpassingen aan het doen ( DDR5)?
om zo ergens Q2 de 300 reeks in de winkel te hebben liggen?
Nee deze kaarten zijn (eindelijk) geen totale rebrands meer.

Het nut: simpelweg deze kaarten zijn stukken kosten-efficienter dan een GT9600/GT9800 en verbruiken minder (geen pci-express voedingsconnector meer nodig oa!)
Maw ik voorzie dat er nog een prijsdaling van komt (richtprijzen zijn vaak duurder dan de effectieve prijzen in de webshops indien het nieuwe er een beetje af is .., alle buiten ATI kaarten dan atm )
nVidia plaatst deze kaarten dan ook goed, opvolgers van een GT9600 en een amd 4670. Enkel hun richtprijzen zijn totaal verkeerd.. (behalve als iemand wil geloven dat een low end-segment klant 20-30 dollar/euro bij wilt betalen voor CUDA/PhysX/nVision 3d ?? << daarvoor is de kaart gewoonweg te licht voor btw ;) )

Persoonlijk zou ik aanraden Tom's Hardware hun conclusie te lezen .. ik kan het niet beter verwoorden en ik volg hun redenatie volledig.

Specs


  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 13:31
BitchCrew schreef op dinsdag 17 november 2009 @ 17:09:
triestig van nvidia hoor.

Zijn ge gaten in de 200 reeks aan het vullen, of nog extra rebrands met aanpassingen aan het doen ( DDR5)?
om zo ergens Q2 de 300 reeks in de winkel te hebben liggen?
Het is een compleet andere GPU met DirectX 10.1, een andere memory controller (GDDR5 ondersteuning erbij), en ook nog op een nieuw procede (40nm). Dus nee, dit is geen rebranding. O-)

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Mr.Chinchilla schreef op dinsdag 17 november 2009 @ 18:15:
[...]

Het is een compleet andere GPU met DirectX 10.1, een andere memory controller (GDDR5 ondersteuning erbij), en ook nog op een nieuw procede (40nm). Dus nee, dit is geen rebranding. O-)
Vergeet niet te vermelden dat SLI-support ook is weggesloopt uit de nieuwe chip.

  • hosee
  • Registratie: November 2003
  • Laatst online: 01-08 19:14
dahakon schreef op dinsdag 17 november 2009 @ 18:52:
[...]

Vergeet niet te vermelden dat SLI-support ook is weggesloopt uit de nieuwe chip.
Geen sli...? Zooo, dat is mooi meegenomen.... :O... }:O

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 22-09 12:28
Leuk dat nVidia de prestatie van de GT240 dan vergelijkt met een HD4670... Beetje nep dat ze de prijzen dan niet mee vergelijken--> $100 tegen 70$
Dat terwijl de HD4770 al voor $90 te krijgen is.. Maar hier durven ze weer niet mee te vergelijken.
Heel goed gedaan nVidia.. kunnen ze net zo goed hun GT240 met een HD4350 vergelijken.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:47
4770 is toch wel meer richting de 110 lijkt me? De 4670 is inderdaad maar 3/4e van de prijs, dat is natuurlijk wel lekker scheef. 8)7
Ed_L schreef op woensdag 18 november 2009 @ 00:47:
Volgens de conclusie van Tom's kost een 4670 120 dollar en dan zou het mooi kloppen.
http://www.newegg.com/Pro...&Description=4670&x=0&y=0

Als je de mail-in rebate nog mee telt zijn er zelfs te koop voor minder dan $60.

Sapphire 1GB is standaard 69,99, 512MB is standaard 64,99.

[Voor 115% gewijzigd door Paprika op 18-11-2009 00:50]


  • Ed_L
  • Registratie: Januari 2006
  • Laatst online: 16:29

Ed_L

Crew Council
Volgens de conclusie van Tom's kost een 4670 120 dollar en dan zou het mooi kloppen. Helaas voor NV liggen de prijzen meer rond de 4770.
pricewatch: Gigabyte GV-N240D5-512I
pricewatch: MSI R4670-MD512/D3
pricewatch: Powercolor HD4770 512M GDDR5

Ik weet niet hoe Tom's aan die conclusie komt, maar daar verdient iemand een schop onder het achterste.

[Voor 78% gewijzigd door Ed_L op 18-11-2009 08:38]


  • superchanbe
  • Registratie: Juni 2009
  • Laatst online: 03-05 18:50
bladerash schreef op woensdag 18 november 2009 @ 00:35:
Leuk dat nVidia de prestatie van de GT240 dan vergelijkt met een HD4670... Beetje nep dat ze de prijzen dan niet mee vergelijken--> $100 tegen 70$
Dat terwijl de HD4770 al voor $90 te krijgen is.. Maar hier durven ze weer niet mee te vergelijken.
Heel goed gedaan nVidia.. kunnen ze net zo goed hun GT240 met een HD4350 vergelijken.
lol ik wou net een ASUS EAH4350 SILENT voor een familie lid bestellen voor 26 EUR kan ik dit toch niet laten liggen.

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 20:13
lightdestroyer schreef op dinsdag 17 november 2009 @ 17:25:
[...]
Persoonlijk zou ik aanraden Tom's Hardware hun conclusie te lezen .. ik kan het niet beter verwoorden en ik volg hun redenatie volledig.
Footnote van de editor:
Before we get into the game results, something we want to stress is that all of the GeForce cards we used for benchmarking ended up being factory overclocked models, but that our Diamond Radeon HD 4670 sample is clocked at reference speeds.


The memory on the Diamond Radeon HD 4670 is clocked 200Mhz below reference speeds. 8)7

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
Yeah die cijfers (reference speed + kostprijzen) kloppen imo aan geen kanten ... maar ik doelde meer naar de conclusie itself. De reden waarom nVidia toch deze kaart lanceerd.

Het prijskaartje eraan is immo wel veel te hoog daar het idd de perfecte 4670 tegenhanger is maar in verhouding dus veel te veel kost.
Nu we zullen wel zien wat de prijzen doen in een paar weken maar blijven die zo hoog, wel .. ik weet dat een 9800GT int begin van het jaar niet veel duurder stonden.. stukken meer performantie en toen was de concurrentie er nog niet met hun hd5xxx serie.
*edit* En in combinatie met hybrid SLI (wordt natuurlijk niet meer support voor desktop gpu's) zullen die "oude" kaartjes zelf nog minder verbruiken ook ;)

Het is wel duidelijk dat de GT240 veel goedkoper (in theorie dan toch) kan gemaakt worden dan een 9800/8800 GT of een 9600. Alle de vraag is natuurlijk hoe goed de 40nm yields zijn natuurlijk ..
Dus eigenlijk is dit eindelijk een kaart waar nVidia op prijs zou kunnen concurreren.
Waarom dat ze het gelijk niet plannen te doen heb ik eigenlijk het raden naar :?

[Voor 7% gewijzigd door lightdestroyer op 18-11-2009 09:23]

Specs


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
NV heeft vandaag op de lanceerdag van de HD5970 een foto gelekt op hun Facebook van een GF100 (de consumer variant van Fermi) die de DX11 Unigine benchmark draait:

http://vr-zone.com/articl...tured-/8063.html?doc=8063

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16:16

superwashandje

grofheid alom

of is de monitor stiekem aangesloten op een systeem met ATI kaart :P

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

CJ schreef op woensdag 18 november 2009 @ 10:18:
NV heeft vandaag op de lanceerdag van de HD5970 een foto gelekt op hun Facebook van een GF100 (de consumer variant van Fermi) die de DX11 Unigine benchmark draait:

http://vr-zone.com/articl...tured-/8063.html?doc=8063
Jammer, een plaatje. Dat kan je met elke DX11-videokaart bereiken. Goed, betekent wel dat ze DX11 'af' hebben maar de vraag was juist of de kloksnelheden e.d. nou eindelijk goed waren en dat is met een plaatje niet te beantwoorden. Ik denk dat als alles goed liep, ze wel een filmpje hadden gemaakt i.p.v. een plaatje (m.a.w. dat het nog steeds niet 100% klaar is).

En wat is heaven toch f*ing mooi :P ik hoop dat de spellen er ook zo uit gaan zien, nog in het DX11-tijdperk.

[Voor 8% gewijzigd door bwerg op 18-11-2009 11:36]

Heeft geen speciale krachten en is daar erg boos over.


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 23-09 16:33
superwashandje schreef op woensdag 18 november 2009 @ 11:32:
of is de monitor stiekem aangesloten op een systeem met ATI kaart :P
Bovenin het plaatje zie je ook een draaiend systeem, of iig een draaiende fan, wie weet? :P

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 15:48
CJ schreef op woensdag 18 november 2009 @ 10:18:
NV heeft vandaag op de lanceerdag van de HD5970 een foto gelekt op hun Facebook van een GF100 (de consumer variant van Fermi) die de DX11 Unigine benchmark draait:

http://vr-zone.com/articl...tured-/8063.html?doc=8063
Ah, de voedingspluggen gewoon naast elkaar :)

Ik vond het al zo raar, op die tesla kaart leek het net of de 6 pins en 8 pins connectoren haaks op elkaar stonden: eentje op de korte zijde van de kaart en een op de lange zijde.
*klik*

Er was alleen geen foto beschikbaar van de pluggen zelf, alleen van de onderkant...

[Voor 4% gewijzigd door whiteguy op 18-11-2009 14:37]


  • Klunssmurf
  • Registratie: November 2006
  • Niet online
De launch prijzen van de GT240 zijn nu wel bekend, tussen de 79 en de 93 euro.
Ik vind het nog steeds iets te veel vergeleken met de HD4670.

http://tweakers.net/price...NMlaLmgLVX7mu6Zv0wGCyttRM

http://www.alternate.nl/h...&criteriasCount=6&bfbox=1

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Klunssmurf schreef op woensdag 18 november 2009 @ 14:56:
Ik vind het nog steeds iets te veel vergeleken met de HD4670.
Iets is wel ligt uitgedrukt voor die prijs van een GT240 haal je een HD4770. :p
En dan te bedenken dat Redwood ook al in de start blokken staat.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Klunssmurf
  • Registratie: November 2006
  • Niet online
-The_Mask- schreef op woensdag 18 november 2009 @ 15:11:
[...]

Iets is wel ligt uitgedrukt voor die prijs van een GT240 haal je een HD4770. :p
En dan te bedenken dat Redwood ook al in de start blokken staat.
Lol...ben ik eens keer diplomatiek.

Eigenlijk is het gewoon een K*T ding...

Meestal ben ik geneigd om voor Nvidia te kiezen i.v.m de spellen die daarvoor geoptimaliseerd zijn maar nu maken ze er bij nVidia echt een potje van.

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-08 20:57
superwashandje schreef op woensdag 18 november 2009 @ 11:32:
of is de monitor stiekem aangesloten op een systeem met ATI kaart :P
Of een fullscreen screenshot van een ander systeem.

Beetje jammer om hiermee in het nieuws te willen komen. Want zo'n foto zegt he-le-maal niets. Wie weet is het wel een GT210 OC edition met 2 stroomaansluitingen en een huge koeler. 8)7

Pentaxiaan


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 11-09 09:59

Xenomorphh

Soep met Ballen

SirNobax schreef op woensdag 18 november 2009 @ 15:30:
[...]

Of een fullscreen screenshot van een ander systeem.

Beetje jammer om hiermee in het nieuws te willen komen. Want zo'n foto zegt he-le-maal niets. Wie weet is het wel een GT210 OC edition met 2 stroomaansluitingen en een huge koeler. 8)7
Reageerde je ook zo als er een foto gelekt was van een ATI kaart? Nee dan is het allemaal spannend.. Mensen alsjeblieft jullie willen allemaal zien dat het een neppe kaart is..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03 15:55
Fermi A2 silicon is alive and kicking Print E-mail
Written by Fuad Abazovic
Wednesday, 18 November 2009 09:26

Image

A3 should be the one to ship


For evaluation purposes, testing, playing and toying, Nvidia has been using A2 silicon in its pre-production Fermi-based Geforce cards. The company has quite a few of them inside its fortress and still has not shipped many samples outside of its offices, as it is afraid of leaks.


We have been informed that the A3 version of the chip should be the final one to ship in retail and that the current situation seems feasible for a January launch. However, this launch is likely to take place after CES.

The performance of A2 silicon is good but for some reason, Nvidia has decided to go for A3 silicon on its retail products. This inevitably caused a delay and forced Nvidia to push the product from November to January, and we hope for Nvidia's sake that this will be the last delay.

Multiple internal sources are claiming that January should be the time that the company might start selling Fermi-based Geforce desktop cards.

Bron: Fudzilla, http://www.fudzilla.com/content/view/16471/1/

Uhm mensen, hoe lang duurde het vanaf het moment dat Amd een werkende kaart liet zien, tot het moment dat je ze kon kopen?

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ongeveer 4 maanden duurde het bij AMD. AMD liet echter wel eerst een Juniper zien en niet een Cypress ondanks dat Juniper later klaar was dan Cypress.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Ed_L
  • Registratie: Januari 2006
  • Laatst online: 16:29

Ed_L

Crew Council
Overigens betekent A3 silicon dat de pruductie pas in januari gaat lopen, niet de levering. Precies zoals ik eerder al postte.

  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03 15:55
Ed_L schreef op woensdag 18 november 2009 @ 17:18:
Overigens betekent A3 silicon dat de pruductie pas in januari gaat lopen, niet de levering. Precies zoals ik eerder al postte.
Ow, dus dat duurt nog wel een tijdje, en waarschijnlijk krijgen de Review sites als eerste de kaarten... Maart eerste kaarten?

  • Ed_L
  • Registratie: Januari 2006
  • Laatst online: 16:29

Ed_L

Crew Council

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 16:17
CJ schreef op woensdag 18 november 2009 @ 10:18:
NV heeft vandaag op de lanceerdag van de HD5970 een foto gelekt op hun Facebook van een GF100 (de consumer variant van Fermi) die de DX11 Unigine benchmark draait:

http://vr-zone.com/articl...tured-/8063.html?doc=8063
The GF100 sample is powered by 8+6 pin PCIe power connectors, indicating a TDP between 225 and 300W
Waarschijnlijk geen dual gpu van de GF100?

[Voor 52% gewijzigd door Bullus op 18-11-2009 17:33]

|2600k|Asus 290|


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Bullus schreef op woensdag 18 november 2009 @ 17:33:

Waarschijnlijk geen dual gpu van de GF100?
Op zijn best eentje die is als de GTX295. De vraag is alleen hoe ver ze zo'n kaart terug moeten klokken en hoeveel Cuda-cores ze uit moeten schakelen om het geheel binnen een aanvaardbare TDP te brengen.

Verder lijkt Charlie toch gelijk te krijgen en is Fermi echt niet eerder echt beschikbaar dan maart-mei.

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-08 20:57
Xenomorphh schreef op woensdag 18 november 2009 @ 15:53:
[...]
Reageerde je ook zo als er een foto gelekt was van een ATI kaart?
offtopic:
Nee, maar die laten dan ook geen halve videokaarten zien, waarna de CEO blijft volhouden dat het een volledig functionele kaart is en hij perfect werkt.

Bovendien vind ik het ook ironisch dat je alleen de koeler kan zien, en niet het pcb. Blijkbaar hebben ze geleerd van de vorige keer. 8)7

Pentaxiaan

Pagina: 1 2 3 ... 8 Laatste

Dit topic is gesloten.



Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee