Toon posts:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 39 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 4 5 Laatste
Acties:
  • 20.329 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.

Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft

Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.


GT100 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_G100_3qtr_low75.png
G100
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ?? million
  • Unified shaders: 8
  • Shader Clock: 1400 MHZ
  • ROP's: 4
  • Core Clock: 567 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/s
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • Texture Fill Rate: 4.3 billion/s
  • Comsumption: 35 Watt (max)
  • Power Connectors: none
  • GeForce Boost
  • Enkel OEM

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_120_3qtr_low75.png
GT120
  • GPU: ??
  • Release Date: 10/04/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ??million
  • Unified shaders: 32
  • Shader clock: 1400
  • ROP's: 8
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 16.0 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512 MB
  • Texture Fill Rate: 8.8 billion/s
  • OpenGL: 3.0
  • Sli: Dual-SLI
  • Comsumption: 50 Watt (max)
  • Power Connectors: none
  • Enkel OEM


9400 en 9500

http://lightdestroyer.dommel.be/picture_library/tweakers/1219832268(2).PNG
9400 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 08/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 16
  • Shader clock: 1350 MHz
  • Texture units:8
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 400/800 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 12.8 GB/sec
  • Memory Interface: 128 bit
  • Memory:256/512/1024 MB
  • Consumption: 50 watt

http://images.hardware.info/productgroups/bigicons/5.png
9500 GT
  • GPU: G96/D9M (55nm)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 32
  • Shader clock: 1400 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 500/800 MHz (GDDR2/GDDR3)
  • Memory Bandwidth: 14.4/28.8 GB/sec (GDDR2/GDDR3)
  • Memory Interface: 128 bit
  • Memory: 256 MB/512MB/1024 MB (GDDR2/GDDR3/GDDR3)
  • Consumption: 50 watt
  • 2way SLI support


GS varianten

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_130_3qtr_low75.png
GT130
  • GPU: G94b (55nm)
  • Release Date: 10/04/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 48
  • Shader clock: 1250
  • ROP's: 16
  • Core Clock: 500 MHz
  • Memory Clock: 500 MHz (DDR2)
  • Memory Bandwidth: 24 GB/sec
  • Memory Interface: 192 bit
  • Memory: 768 MB
  • Texture Fill Rate: 12.0 billion/s
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 75 Watt (max)
  • Power Connectors: none
  • Enkel OEM


8800 GS / 9600GSO
  • GPU: G92
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 96
  • Shader Clock: 1375/1625 MHZ
  • ROP's: 12
  • Core Clock: 550/650 MHz
  • Memory Clock: 800/900 MHz (GDDR3)
  • Memory Bandwidth: 38.4/45.6 GB/s
  • Memory Interface: 192 bit
  • Memory: 384/768 MB
  • OpenGL: 2.1
  • Sli: Dual-SLI
  • Comsumption: 105 Watt (max)
  • Power Connectors: 1x 6-pin


8800GT en 9800 GT

http://www.hardware.info/images/products/mini_thumbs/020369.jpg
9600 GT
  • GPU: G94
  • Release Date: 02/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 505 million
  • Unified shaders: 64
  • shader clock: 1500/1625 MHz
  • Texture units: 32
  • ROP's: 16
  • Core Clock: 600/650 MHz
  • Memory Clock: 900 MHz (DDR2/GDDR3)
  • Memory Bandwidth: 57.6 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 (256/1024 )MB
  • Voltage: 1.0/1.1 Vcore
  • geen extra stroomconnector nodig

http://www.hardware.info/images/articles/teasers/001243.jpg
8800 GT
  • GPU: G92
  • Release Date: 10/2007
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader Clock: 1500 MHz
  • ROP's: 16
  • Core Clock: 600 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 44.8/57.6 GB/sec (256MB/512,1024MB)
  • Memory Interface: 256 bit
  • Memory: 256,512,1024 MB


8800GT en 9800 GT

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GT_3qtr_low75.png
9800 GT
  • GPU: Sommige 55nm(G95b), velen oude 8800's(G92a)
  • Release Date: 29/07/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112(a)/128(b)
  • Shader clock: 1375/1500 MHz
  • Texture units: 56(a)/64(b)
  • ROP's: 16
  • Core Clock: 550/600 MHz
  • Memory Clock: 900 (GDDR3)
  • Memory Bandwidth: 57.6 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024 MB (GDDR3)
  • Consumption: 105(a) 125 (b)watt
  • 2way SLI support (ASUSTek tri)
  • Geen aparte stroomconnector nodig

http://www.hardware.info/images/products/mini_thumbs/002559.jpg
8800 GTS 512MB
  • GPU: G92
  • Release Date: 12/2007
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1625
  • ROP's: 16
  • Core Clock: 650 MHz
  • Memory Clock: 970 MHz (GDDR3)
  • Memory Bandwidth: 64 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB


GPU's at 9800GTX speeds

http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG
GT240
  • GPU: G92b (55nm)
  • Release Date: Nooit
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512MB (GDDR3)
  • Een 9800GT op kloksnelheden van een 9800GTX
  • Trager dan een GT150!!
  • Rebranding heeft nooit voorgedaan/bestaat dus niet!

http://www.hardware.info/images/news/teasers/011155.jpg
9800 GTX
  • GPU: G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Texture Fill Rate:43.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 140 Watt (max)
  • Power Connectors: 2x 6-pin


9800 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_9800_GTX_3qtr_low75.png
9800 GTX+
  • GPU: G92 (55nm)
  • Release Date: 07/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Shader Clock: 1836 MHz
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB
  • Consumption: 145 watt
  • 2-3 way SLI support

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS150
  • GPU: G92b (55nm)
  • aka GTS250 Slow, 9800GTX+
  • Release Date: 10/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 740 MHz
  • Memory Clock: 1000 (GDDR3)
  • Memory Bandwidth: 64 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB (GDDR3)
  • Texture Fill Rate: 47.2 billion/s
  • OpenGL: 2.1
  • Sli: Dual/Tri-SLI
  • Comsumption: 141 Watt (max)
  • Power Connectors: 2x 6-pin
  • Enkel OEM


9800 serie

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_250_low_3qtr75.png
GTS 250
  • GPU: G92a/b (65/55nm)
  • Release Date: 03/03/2009
  • Interface: PCI-E x16 2.0
  • Transistors: +/- 754 million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1100MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 512/1024/2018 MB (GDDR3)
  • Texture units: 64
  • Texture Fill Rate: 47.2 (billion/sec)
  • OpenGL: 3.0
  • SLI: 2-way/3-way SLI
  • Consumption: 112 watt (max) officieel 150
  • Power Connectors: 1x 6-pin
Waarom?
  • Kleinere PCB, past dus handiger in de Case
  • Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
  • Veel lagere prijs ;)

http://www.hardware.info/images/products/mini_thumbs/020360.jpg
9800 Gx2
  • GPU: 2x G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 2X 754 million
  • Unified shaders: 2x 128
  • Shader clock: 1500 MHz
  • ROP's: 2x 16
  • Core Clock: 600 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Memory Bandwidth: 128 GB/sec
  • Memory Interface: 512 bit (2x 256 bit)
  • Memory: 1024 MB (2x 512MB)
  • Texture units: 2x 64
  • Texture Fill Rate: 79.8 (billion/sec)
  • OpenGL: 2.1
  • SLI: Quad SLI
  • Consumption: 197 watt (max)
  • Power Connectors: 1x 6-pin,1x 8-pin

http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.
  • De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
  • De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
  • Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
  • De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
  • Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
  • De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.

G 210 en GT 220 (eindelijk directX10.1)

http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce G 210
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1




GT 200 (oldies :p)

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

http://images.hardware.info/products/mini_thumbs/051448.jpg
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100


Toekomstige kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG
GT215
  • GPU: GT215 (40nm)
  • Release Date: Q2 2009 <<gecanceld?
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 96
  • TMU's: 32
  • Shader clock: ????
  • ROP's: 16
  • Core Clock: ??? MHz
  • Memory Clock: GDDR5?
  • Memory Bandwidth: ??? GB/sec
  • Memory Interface: 128-bit indien gddr5?
  • Memory: mogelijk GDDR5
  • Waarschijnlijk DX10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG
GT3xx geruchten midden oktober
  • GPU: GT212
  • Release Date: Q4/2009(some say Q1 2010)
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 512
  • MIMD Architectuur
  • Shader clock: 1600 Mhz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: ??? (GDDR5)
  • Memory Bandwidth: 4.4 TB/sec (GDDR5)
  • Memory Interface: ??? bit
  • Memory: 4096 MB (GDDR5)
  • Consumption: tot ???/??/189Wwatt
  • Update (9/06/09): consumption met als doel 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Enige actuele succes van de chipset afdeling van nVidia: Lancering van van nVidia's Ion platform
Tot nu toe zijn alle reviews lovend; Een stukken minder verbruikende chipset die ervoor zorgt dat full HD wel afgespeeld kan worden(desnoods via coreAVC + CUDA indien je codec niet hardwarematig wordt ondersteunt) op je netbook eventueel om aan te sluiten op je HD-TV.
Helaas minder positief nieuws? (Hoewel licentie technisch kostend besparend en wie wil er nu een dx10 game spelen op een Windows xp netbook die dit dus toch niet ondersteunt...)Minder goed, maar te verwachten, nieuws van de chipset afdeling van nVidia:nVidia's kondigd eindelijk officieel de GT300 architectuur aan:Patch maakt physX weer mopelijk met ati-nVidia gpu combinatie:
Nadat deze functionaliteit sinds de 186 drivers geblokkeerd werd is deze weer terug te brengen aan de hand van een patch die op alle recente drivers zou moeten werken:De vorige nieuwsberichten kan je logischerwijze steeds vinden in het vorige topic ;)
http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

Notebook nVidia GPU's met dx10.1 support?
Dit gerucht is redelijk zeker daar er vele bevestigingen zijn gekomen dat er idd zo'n mobiele GPU's er zitten aan te komen zelfs gefabriceerd met het 40nm proces! Men suggereert echter dat men deze functionaliteit mogelijk bij de launch niet ter beschikking kan stellen maar eventueel achteraf met een driverupdate zal doen als het blijkt dat het marketing technisch intressant/nodig blijkt te zullen zijn.
Het feit dat er nu al desktop modellen met dx10.1 zijn geleverd bevestigd alleen nog meer dit gerucht:Waarheidsfactor:95%

Waar blijft nVidia met hun dx11 kaart nadat ATI zijn gpu werkende en in productie heeft?
De geruchten oa op onze eigen FP:gaan dat nVidia's grafische kaart hooguit einde Q4 2009 (indien dit nog lukt wss een paperlaunch) begin 2010 pas in massa geproduceerd zullen worden. Men gaat ervan uit dat de nVidia serieuse problemen heeft met zijn dx11 serie kaarten, oa doordat men vernomen heeft dat het geproduceerde test exemplaar gewoonweg dood is terug gekeerd en er dus nog serieus veel werk voor de boeg is voordat deze massa produceerbaar zal worden.
*update 5 oktober 2009*
Deze geruchten worden behouden ook al wijst men meer en meer naar eind Q1 2010 tegen dat nVidia zijn massa productie helemaal in orde zou kunnen krijgen, deze geruchten worden gevoed door het eventueel showen van een valse gt300 kaart en de enorm lage bekomen yield-rates:
Semiaccurate: nVidia fakes fermi boards

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

officiele (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(5oktober 2009) zijn er nieuwe whql drivers uit die recenter zijn dan de beta's die te vinden zijn op de nvidia site

De allerlaatste Beta client kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Officiële nVidia drivers voor Mobile GPU'sEen goede site voor drivers voor Mobile GPU's is(kun je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nvidia www.laptopvideo2go.com

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210 en 220:
TweakTown (Palit Sonic Edition)
TweakTown (Galaxy 1GB)
Guru3D (BFGTech)
FiringSquad (EVGA)
Legit Reviews normal and (quad)SLI (EVGA)
HardOCP (BFGTech)
AnandTech
Tom's Hardware

Vorige Topics:Pricewatch
GeForce 8 serie in de Pricewatch
GeForce 9 serie in de Pricewatch
GeForce 200 serie in de Pricewatch


Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

[Voor 10% gewijzigd door lightdestroyer op 13-10-2009 17:37]

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
.
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

Ik heb ervoor gekozen ook mobiele kaarten in de Openingpost(s) op te nemen, dit onder andere doordat laptops steeds een groter deel van de pc verkoop gaan innemen ten kosten van het (procentuele ) verkoop van desktops.
Dat ook de mobiele kaarten voor nieuwswaarde kunnen zorgen toont de volgende nieuwstopics op de tweakers FP mooi aan:
Nvidia ontkent geruchten over grootschalige gpu problemen
Dell brengt bios update uit voor nvidia bug
HP nvidia bug speelt al sinds november 2007

of wa positief nieuws voor de verandering ;):
Details GPU's GeForce 9700M en 9800M bekendgemaakt

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.


De belangrijkste features van de G80 zijn:
  • Unified shaders
  • DirectX 10 ondersteuning
  • OpenGL 2.0 ondersteuning
  • Nieuwe AA modes CSAA, 8Q, 16Q
  • 128 bit HDR ondersteuning in combinatie met AA
  • 16x hoekonafhankelijke AF
  • Ondersteuning voor GPU Physics
  • Shader Model 4
  • Purevideo (HD)
  • SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:

8 serie

8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
  • GPU: G86M
  • Announce Date: 09/05/2007
  • Interface: PCI-E x16
  • Consumption: 11(GS)-14(GT) Watt
  • Transistors: 210 million


Geforce 8400M G GeForce 8400M GS GeForce 8400M GT
Stream-Processors 8 16 16
Core Clock (MHz) 400 400 450
Shader Clock (MHz) 800 800 900
Memory Clock (MHz) 600 600 600
Maximum Memory 256MB 256MB 512MB
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 9.6 9.6 19.2
Texture Fill Rate (billion/sec) 3.2 3.2 3.6




8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
  • GPU: G84M
  • Announce Date: 09/06/2007
  • Interface: PCI-E x16
  • Consumption: 20 Watt
  • Transistors: 289 million


GeForce 8600M GS GeForce8 600M GT
Stream-Processors 16 32
Core Clock (MHz) 600 475
Shader Clock (MHz) 1200 950
Memory Clock (MHz) 700 700
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 12.8/22.4 (DDR2/GDDR3) 12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec) 4.8 7.6



8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont :'))
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
  • GPU: G84M/G84GLM(quadro fx 1600M)
  • Announce Date: 12/06/2007
  • Interface: PCI-E x16
  • Consumption: 29 /50Qqaudro) Watt
  • Transistors: 289 million


GeForce 8700M GT Qaudro fx 1600M
Stream-Processors 32 32
Core Clock (MHz) 625 625
Shader Clock (MHz) 1250 1250
Memory Clock (MHz) 800 800
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 25.6 (GDDR3) 25.6 (GDDR3)
Texture Fill Rate (billion/sec) 10 10



8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
  • GPU: G92M (65 nm)
  • Announce Date: 19/11/2007
  • Interface: PCI-E x16
  • Consumption: 35 /37 Watt
  • Transistors: 754 million


GeForce 8800M GTS Qaudro FX 3600M GeForce 8800M GTX
Stream-Processors 64 (64 of) 96 96
Core Clock (MHz) 500 500 500
Shader Clock (MHz) 1250 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 512MB 512MB 512MB
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 (GDDR3) 51.2 (GDDR3) 51.2 (GDDR3)
Texture Fill Rate (billion/sec) 16 16 24



http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)

Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
  • Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
  • Volledige DirectX 10.0 en OpenGL 2 compatibileit,
  • Mogelijkheid tot 16X antialiasing
  • Full HD DVD / Blu-ray hardware decodering.

9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M



9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 03/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Core Speed: 550 MHz
  • Shader Speed: 1300 MHz
  • Memory Speed: 700 MHz
  • Memory Bus Width 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB



9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 04/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 400 MHz
  • Shader Clock: 800 MHz
  • Memory Clock: 600MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB


9500M Serie

95000M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
  • GPU: NB9P
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 500 MHz
  • Shader Clock: 1250 MHz
  • Memory Clock: 800 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 1024 MB

95000M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
  • GPU: G84-50
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 32
  • Core Speed: 475 MHz
  • Shader Clock: 950 MHz
  • Memory Clock: 700 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 512 MB



9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)

Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet ;)
  • GPU: NB9P (65nm)
  • Announce Date: 3/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ???/29 Watt (9650M GS)
  • Transistors: ??? million


GeForce 9600M GS GeForce 9600M GT GeForce 9650M GS
Stream-Processors 32 32 32
Core Clock (MHz) 430 500 625
Shader Clock (MHz) 1075 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024MB (GDDR2/GDDR3) 1024MB (GDDR2/GDDR3) 512MB (GDDR2?/GDDR3)
Memory Interface 128-bit 128-bit 128-bit
Memory Bandwidth (GB/sec) (GDDR3) 25.6 25.6
Texture Fill Rate (billion/sec) 10



9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
  • De nieuwe PureVideo HD video processor (VP3)
  • HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
  • ondersteunt CUDA enabled programma's
  • NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.


9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant

Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.



GeForce 9700M GT GeForce 9700M GTS
Core G96(NB9P) G94(NB9E-GTS)
Consumptie (Watt) 45 60
Stream-Processors 32 48
Core Clock (MHz) 625 530
Shader Clock (MHz) 1550 1325
Memory Clock (MHz) 800 800
Maximum Memory 512 (GDDR2/GDDR3) 512 (GDDR3)
Memory Interface 128-bit 256-bit
Memory Bandwidth (GB/sec) 25.6 51.2
Texture Fill Rate (billion/sec) 10.0 12.7



GTX 1x0M Serie
Deze reeks werd samen met de GTX2xxM reeks bekend gemaakt. Deze chips hebben veel kans om populair worden doordat ze een stuk goedkoper zijn dan de GTX280M die weliswaar 2 keer zoveel performantie biedt maar stukken warmer loopt en meer kost.
Deze chips supporten SLI, HYBRID Power, Cuda en PhysX maar zijn desondanks nog steeds gebaseerd op de (oude) G92b chip
Deze reeks zal vooral gebruikt worden als higer mid-end en als vervanger dienen voor de 9600M en de 9700M reeks(de GTX 160M zou ongeveer 30 tot 40% beter performantie bieden dan de 9700M GT). Meest waarschijnlijk zal deze kaart dus een heel populaire kaartje worden in laptops.


GeForce GTS150M GeForce GTS160M
Core G94(??) G92b(55nm)
Consumptie (Watt) ?? ??
Stream-Processors 64 64
Core Clock (MHz) 600 600
Shader Clock (MHz) 1000 1500
Memory Clock (MHz) 800 800
Maximum Memory 1024(GDDR3) 1024MB (GDDR3)
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2
Texture Fill Rate (billion/sec) 13.0 19.0



9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.

Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid


GeForce 9800M GS GeForce 9800M GT GeForce 9850M GS
Core G94(NB9E-GT) G94(NB9E-GTS) G92(NB9E-GTX)
Consumptie (Watt) 75 65 75
Stream-Processors 64 96 112
Core Clock (MHz) 600 500 500
Shader Clock (MHz) 1500 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024(GDDR3) 512MB (GDDR3) 512MB (GDDR3)
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 51.2 51.2
Texture Fill Rate (billion/sec) 19.2 24.0 28.0



GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? :() zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).

GeForce GTX260M GeForce GTX280M
Core G92(??) G92(??)
Consumptie (Watt) ?? ??
Stream-Processors 112 128
Core Clock (MHz) 550 585
Shader Clock (MHz) 1375 1463
Memory Clock (MHz) 950 950
Maximum Memory 1024MB(GDDR3) 1024MB (GDDR3)
Memory Interface 256-bit 256-bit
Memory Bandwidth (GB/sec) 60.8 60.8
Texture Fill Rate (billion/sec) 31 38


http://lightdestroyer.dommel.be/picture_library/tweakers/G100IconC2.PNG

Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze bestaat uit sneller, feature-uitgebreide kaarten geproduceerd met het 55nm-productieproces.

Momenteel zijn gegevens beschikbaar over 3 van deze nieuwe kaarten:

Geforce G105M GeForce G110M GeForce GT130M
Core G105M G110MG92(NB9E-GTX)
Consumptie (Watt) ?? ?? ??
Stream-Processors 8 16 32
Core Clock (MHz) ?? ?? ??
Shader Clock (MHz) 1600 1000 1500
Memory Clock (MHz) 500(DDR2)/700(GDDR3) 500(DDR2)/700(GDDR3) 500 (DDR2)/800 (GDDR3)
Maximum Memory tot 512MB tot 1024MB (GDDR3) 512MB (GDDR3)
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 8(DDR2)/11(GDDR3) 8(DDR2)/11(GDDR3) 16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec) ?? ?? ??
  • De GeForce G105M en de G110M zullen de Mainstream markt bedienen en vormen hierdoor de opvolger van de 9200M tot aan de 9400M kaarten.
  • De GeForce GT 130M zal de Performance markt bedienen en vormt hierdoor de opvolger voor de 9500M en de 9600M grafische kaarten (hoewel dat nVidia vermoedelijk de GTS 160M zal pushen als opvolger voor populaire de 9600M GT kaart).
    Hoeveel dit gerucht waard is, is onbekend daar volgens nVidia zelf de performantie van de GT 130m en de 9600M GT 100% hetzelfde is (en dit dus ruikt naar een zoveelste rebranding :()
http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

nieuws: Nvidia komt dit jaar met mobiele 55nm- en 40nm-gpu's
Dit houdt dus in dit dat er dit jaar een hele reeks nieuwe mobiele grafische kaarten gereleased worden :)
Het eerste helft van het jaar zullen alle G9X gebaseerde mobiele kaarten een 55nm versie krijgen met de respectievelijke marketing namen:
• GeForce G105M - G105M
• GeForce GT 120M - GT 130M
• GeForce GTS 160M
• GeForce GTX 170M - GTX 180M

In het tweede deel van het jaar zullen dan de nieuwe 40 nm op de GT21x architectuur gebaseerde kaarten verschijnen:
• GeForce GS en GE low-end (gebaseerd op de nieuwe GT218 GPU core)
• GeForce GS, NS, GE, GLM mid-end (gebaseerd op de nieuwe GT216 GPU core)
• GeForce GT, GS, GE Performance (gebaseerd op de nieuwe GT215 GPU core)
• GeForce GTX high-end (gebaseerd op de nieuwe GT212 GPU core)

Hierbij valt dus vooral op dat deze kaarten dezelfde naam-schema structuur krijgen als hun desktop tegenhanders (alle GeForce9 kaarten zullen ook daar rebranded worden naar GT1xx kaarten)
Hierbij is wel het verschil dat de mobiele varianten een veel kleiner productie proces zullen hebben (respectievelijk 55 en 40 nm)

*update*
nieuws: Nvidia kondigt mobiele 55nm-gpu's aan
Deze mobiele kaarten zullen worden voorzien van features zoals Purevideo HD en Physx- en Cuda-ondersteuning!

Oude naamgevingNieuwe naamgeving3D Mark Vantage Performance
Geforce 9200M GEGeforce G105M+56%
Geforce 9300MGeforce G110M+35%
Geforce 9600M GTGeforce GT130M+17%


http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (Beta maar er zijn geen WHQL's beschikbaar) nVidia drivers voor Mobile GPU's Geforce Go 7, 8M en 9M reeksen.
Beste is nog steeds zelf te gaan kijken op www.laptopvideo2go.com en daar jouw laptopbouwer te zoeken.
179.48 Win XP 32-bit
179.48 Win XP 64-bit
179.48 Vista 32-bit
179.48 Vista 64-bit
180.29 Linux 32-bit
180.29 Linux 64-bit
180.29 Solaris 32/64-bit
180.29 FreeBSD 32-bit


Officiële Beta drivers voor Mobile GPU's Qaudro
176.04 Vista 32-bit
176.04 Vista 64-bit
176.04 Win XP 32-bit
176.04 Win XP 64-bit


Voor allernieuwste drivers of gemodde inf bestanden voor Mobile GPU's is www.laptopvideo2go.com the place to be.


Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

[Voor 198% gewijzigd door lightdestroyer op 06-10-2009 01:56. Reden: layoutprobleem proberen oplossen ..]

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG
quote: nVidia website
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.

Meer uitleg kan je vinden op de volgende links:Enkele programma's waar CUDA al wordt in gebruikt:
  • Folding @Home
  • Grafische pakketten zoals photoshop
  • CoreAVC: Decoderen van x264 bestanden
  • MotionDSP's vReveal: Tech Report, [url=CUDA: http://www.anandtech.com/video/showdoc.aspx?i=3539&p=14]AnandTech[/url]
  • ...
Ambient Oclusion:
Meer uitleg hierover kan je vinden op:
http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG

Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen.
Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm.
let op:
  • Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
  • 2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
    2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
    Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)

3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard :p
Hoe werkt het?

Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)



En dan in het bios kruipen om een paar settings aan te passen.



Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.

http://lightdestroyer.dommel.be/picture_library/tweakers/IconHybridPower.PNG

Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten ;)



Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.

CPU FabrikantGeForce Boost Technology HybridPower Technology
AMD
GeForce 8300 X X
GeForce 8200 X X
GeForce 8100 X X
nForce 780a SLI X X
nForce 750a SLI X X
nForce 730a X X
nForce 720a X X
Intel
GeForce 9400 X
GeForce 9300 X
nForce 730i X


GeForce Boost Technology HybridPower Technology
GeForce GTX 280 X
GeForce 9800 GX2 X
GeForce GTX 260 X
GeForce 9800 GTX+ X
GeForce 9800 GTX X
GeForce 9800 GT Sommigen
GeForce 8500 GT X
GeForce 8400 GS X


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG

nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )

of de volgende FP: nieuws: Meerdere Nvidia-kaarten ontlasten cpu aanzienlijk bij Physx-benchmarks

Zie ook voor meer uitleg
Guru3D Review (augustus-2008)
Tweaktown
Firingsquad
Hot Hardware
AMD's Antwoord op PhysX

Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
Anandtech
Games:
Sacred 2:
Tom's Hardware
AnandTech
Warmonger:
AnandTech
UT3 PhysX Mod Pack:
AnandTech
Mirror's Edge:
AnandTech
Batman Arkham:(finally a good game ? :p)
Onze eigen Tweakers FP

How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.


Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.

Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden).
Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
*update 7 oktober 2009*
Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf!

Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang ;)
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Wat is PureVideo?
NVIDIA PureVideo™ technology is the combination of high-definition video processors and software that delivers unprecedented picture clarity, smooth video, accurate color, and precise image scaling for all video content. It turns your PC into a high-end home-theater.
NVIDIA PureVideo technology:
* Accelerates WMV HD and MPEG video,
* Features spatial-temporal de-interlacing for HD and SD content, and
* Performs inverse telecine, bad edit correction, and other post-processing functions to eliminate jaggies and blurriness, resulting in a sharp picture..
Dit document geeft een aardig overzicht : PureVideo Technology Overview (pdf)

Wat heb ik nodig?
• Een GeForce 6, 7,8,9,8M, 9M, Quadro of GT2xx GPU
• Microsoft Windows XP mét Service Pack 2 (voor VMR9 support)
• NVidia's ForceWare driver
• NVidia's PureVideo Decoder
Windows Media Player 10 build 3923 of nieuwer (met DRM update & DXVA hotfix)

Hoe kom ik aan PureVideo?
Je kunt op de site van NVidia een 30-dagen trial downloaden, die met deze key 60 dagen werkt :)
First and Last Name: Trial-60
Email Address: dvdtrial@nVidia.com
Last 4 Digits of Credit Card: 2005
Activation Key: 84CA-4A56-9BF7-2D53-5BA3-5FD6-FA56
Na deze proefperiode kan je de PureVideo Decoder hier kopen.

Hoe configureer ik PureVideo?
Naast de NVIDIA PureVideo Decoder User's Guide is er ook een Reviewers Guide met tips (enigszins gedateerd). Voor beste kwaliteit en prestaties is het noodzakelijk Video Mixing Renderer (VMR) te activeren in Windows Media Player :
To set up the VMR follow these steps

1. Launch Windows Media Player
2. Click on Tools > Options on the menu bar
3. Click on the Performance tab
4. Click on the Advanced button

File Playback Video mixing renderer mode: check “Use video mixing renderer” and “use high quality mode”

DVD-Video playback Video mixing renderer mode: check “Use video mixing renderer” and uncheck “Use overlays”
Als "use high quality mode" is aangevinkt onder "File Playback", dan is het mogelijk dat MPEG-4 ASP videobestanden (XviD, DivX5 etc.) in zwart/wit met een groenige waas worden afgespeeld. Selecteer dan "Use overlays" onder "File Playback".

Als FFDShow op je systeem staat of stond, dan werkt PureVideo waarschijnlijk niet. Wees terughoudend met het installeren van codecpacks. Controleer met Windows XP Video Decoder Checkup Utility of PureVideo als MPEG-2 preferred codec actief is.(Om dit op te lossen kan je bij de FFDShow video settings de nodige formaten in plaats van libavlib none te kiezen.)

Er zijn momenteel al 3 PureVideo versies verschenen:
PureVideo 1
De eerste en simpelste versie van PureVideo. Geïntroduceerd samen met de GeForce 6 serie. De video-enige werd verbeterd door
• Het bijvoegen van deinterlacing algoritmes
• verfijnde video-resizing wannneer men gebruik maakt van overlays
• Verbetering van compatibiliteit met DirectX9 in combinatie met VMR9 (ipv overlay)
• Het overerfen van de decoderings pipeline die ook oudere grafische kaarten al hadden (VPE)
In de latere modellen van de Geforce 6 werd er ook hardware accelaratie voor VC-1 en H.264 bijgevoegd
De accelaratie van bv mpeg-2 was bij testen nog niet verschrikkelijk veel maar de run length, variabele length en inverse quantisatie werden volledig overgenomen door PureVideo.

PureVideo 2
Focussed op Acceleratie van 1080p HD materiaal. (wat afspeelbaar is op vele pc's (oa met behulp van betere software decoders zie onderaan dit topicje)maar toch zwaar genoeg is om een pc op zijn knieën te krijgen)
• Er werd een bitstream processor (BPS) bijgevoegd
• Een verbeterde video processor (VP2)
Hierdoor kon de AACS-decryptie en de H.264/AVC high profile CABAC volledig hardwarematig gedecodeerd worden (blu-ray)
Bij VC-1 zorgt PureVideo2 voor de inverse discrete cosine transformatie (iDCT) en de motion compensation stages, voor de verwerking van de bitstream en entrophy fase wordt er nog steeds op CPU gerekend.

PureVideo 3
Deze meest recente PureVideo versie werd geïntroduceerd samen met de Geforce 9600GT.
Vooral de hardware ondersteuning voor VC-1 af te spelen is verbeterd (zoals je kon lezen bij Purevideo2 was deze niet echt groot en werd er nog zwaar gesteund op de cpu).

Alternatieve Oplossingen
Om betere video performatie te krijgen zonder hardware matige acceleratie op een nvidea kaart (we spreken dus bijvoorbeeld op Geforce 5 serie grafische kaarten) of betere performatie op h.264 geëncodeerde video bestanden met een ander profile zoals bv veel gebruikte x.264 geëncodeerde bestanden is vooral een goed codec pack noodzakelijk.
LET OP!. Deze codec packs (kunnen) interferen dus met PureVideo!
Aanrader is het CCCP codec pack gecombineerd met CoreAVC voor h.264 HD video bestanden (720p/1080p).
CoreAVC is idd betalend maar zeker de moeite waard daar het op een ietswat oudere pc's het verschil kan maken tussen niet speelbare videobestanden en vlekkeloos afspelen. Je kan een trial downloaden en kijken of het de moeite waard is.
Voor integratie in CCCP gewoon settings runnen en h264 uitvinken. Er zal automatisch gebruik worden gemaakt van ander geinstalleerde h.264 codecs in dit geval dus CoreAVC.


Sinds CoreAVC versie 1.9.0.0 is er nu ook cuda support ingebouwd!
Dit houdt in deze goede software encoder eigenlijk ook hardwarematig het decoderen zal uitvoeren op een GeForce 8,9 en GT200 kaart hiervoor heeft uw wel een 182.xx of recentere driver nodig die dit gebruik van cuda ondersteunt.

De MPC standaard player bij installatie van CCCP staat ingesteld op overlay (indien u dit wilt kan je dit steeds veranderen naar VMR9 of VMR7)

Voor mensen die geen zin hebben op aparte of bijkomende codecs op hun pc. Of zich er liever niets willen van aantrekken (cpu power toch teveel bv ;p) is er steeds VLC. CPU intensief, subs worden niet altijd goed voorgesteld maar het videobestand zal altijd wel goed afspelen zonder dat er configuratie van de gebruiker noodzakelijk is!
Dit komt doordat VLC gebruik maakt van zijn eigen interne decoders zonder deze op 1 of andere manier te installeren of registreren op uw systeem.

Meer informatie :
ATI VideoShaders - NVIDIA PureVideo
ATI's Avivo vs. NVIDIA's PureVideo: De-Interlacing Quality Compared
NVIDIA PureVideo Presentation
Principled Technologies PureVideo test report (PDF-bestand)
Scott Vouri Interview #1
Scott Vouri Interview #2
• En natuurlijk NVIDIA.com zelf.

Met dank aan FFWD

http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

**Edit 4/09
Kleine update van de drivers en het nieuws topic, op desktop gpu vlak nog steeds geen grote wijzigingen (buiten gt300 def settings?)
TODO:
Mobiele laptop:: dringend wijzigingen nodig :s
Vermelding van ION
Geruchten rond de GT300 <<exacte specificaties??
Informatie van de GT200 dringend updaten ;p

Specs


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Ik hoorde vandaag een enorme insider wel een leuke opmerking maken.

Jensen tegen Jezus "Je bent helemaal niet gestorven in December! Je gaat dit jaar pas dood na de Launch van Fermi, in Maart"

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Biff
  • Registratie: December 2000
  • Laatst online: 26-02-2018

Biff

waar zijn de visjes

Yeah well. The Dude abides.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
neliz schreef op dinsdag 06 oktober 2009 @ 01:57:
Ik hoorde vandaag een enorme insider wel een leuke opmerking maken.

Jensen tegen Jezus "Je bent helemaal niet gestorven geboren in December! Je gaat dit jaar pas dood na de Launch van Fermi, in Maart"
fixed O-)

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Het is niet mijn quote, rare atheisten daar bij nvidia.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

offtopic:
Mijn hele lay-out is vernaggeld ... alles staat rechts en uit het algemene kader :/ .

De meeste mensen deugen!


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
Cassius schreef op dinsdag 06 oktober 2009 @ 10:57:
offtopic:
Mijn hele lay-out is vernaggeld ... alles staat rechts en uit het algemene kader :/ .
offtopic:
Mijne ook :/

Tesla Model Y RWD / 5.4 kWp PV installatie


  • Bartzegmaar
  • Registratie: April 2009
  • Laatst online: 31-03 22:26
Jah idd ik kan de helft niet eens lezen ? wat is dit voor shit,...

  • TrekDude101
  • Registratie: September 2008
  • Laatst online: 19-04 12:18
offtopic:
haha, geweldige lay-out zo :P

  • Envy007
  • Registratie: Juni 2003
  • Laatst online: 31-03 09:50
Nvidia Can Disable Certain Fermi Features on Gaming Graphics Cards.

http://www.xbitlabs.com/n...aming_Graphics_Cards.html
Nvidia Corp. has confirmed in a brief media interview that it will be able to cut-down the Fermi-G300 graphics processors in order to address certain specific markets and price-points. The move is natural for all graphics chips designers, but this time Nvidia openly admits that many of implemented capabilities will hardly offer benefits for the consumer right away.

“We are paying a bit of a compute tax in that we launched a part where a lot of the consumer compute applications haven’t really taken hold yet. But over time as more consumer computer applications are developed that take advantage of our compute (consumer) features, I think it's going to give us a big leg up,” William Dally, chief scientist at Nvidia, told Cnet News.com.

The flagship Fermi graphics processor (NV60, G300, GT300) will feature 512 stream processing engines (which are organized as 16 streaming multi-processors with 32 cores in each) that support a type of multi-threading technology to maximize utilization of cores. Each stream processor has a fully pipelined integer arithmetic logic unit (ALU) and floating point unit (FPU). The top-of-the-range chip contains 3 billion of transistors, features 384-bit memory GDDR5 memory controller with ECC and features rather unprecedented 768KB unified level-two cache as well as rather complex cache hierarchy in general. Naturally, the Fermi family is compatible with DirectX 11, OpenGL 3.x and OpenCL 1.x application programming interfaces (APIs). The new chips will be made using 40nm process technology at TSMC.

At its GPU Technology Conference (GTC) last week Nvidia specifically noted that it paid a lot of attention on boosting double-precision floating point computational performance on its Fermi-G300 chip (about 750GFLOPs) and thus will be able to address new several new markets, e.g., high-performance computing. However, DP performance is rarely needed by average consumers on the desktop or laptop markets. Obviously, in order to create power efficient version of Fermi for notebooks or low-cost desktops, Nvidia will have to sacrifice some of its capabilities.

“We're not talking about other (chips) at this point in time but you can imagine that we can scale this part by having fewer than the 512 cores and by having these cores have fewer of the features, for example less double-precision,” said Mr. Dally, who did not explain how it is possible to reduce double-precision floating point performance without decreasing single-precision point speed, something which is needed by video games. In fact, Mr. Dally’s comment may imply that non-flagship Fermi derivatives will have not only be slower in terms of performance, but will be seriously different in terms of implementation.

Still, it is an open question when Nvidia releases its new family of graphics processing units for consumers. At the GTC, Nvidia demonstrated the A1 revision of the Fermi-G300 graphics chip made in late August, whereas usually the company uses only A2 or even A3 revisions on commercial products. It usually takes months to create a new revision of a chip. Besides, Fermi the graphics card that the company demonstrated at its GTC turned out to be a mock up, not a working sample. Officially Nvidia promises to start sales of Fermi products in 2009.

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 28-05 14:28
Hehe aparte lay-out:)

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 06:10
TWIMTBP pays game developers with free development
Written by Fuad Abazovic
Tuesday, 06 October 2009 12:44

Many programming hours

One catch of The way its meant to be played marketing and development program is that Nvidia actually does end up spending money where publishers and developers benefit.

Most of the money never exchanges hands, but Nvidia offers thousands of programmer hours as the company codes advanced effects, tries to makes thing faster, get PhysX inside of game and does this mostly for free. Since labour is also something you need to pay, Nvidia ends up paying millions in salaries and other costs that come out of TWIMTBP program.

Senior Vice President, Content and Technology Tony Tamasi has confirmed this to Fudzilla and he also said that for some marketing purposes “money does exchange some hands”. This is mainly for in game and external advertising. Mr. Tamasi said that his software division of approximately 220 people cost Nvidia tens of millions and Jensen joked that these guys do not make any money, they just cost Nvidia money.

Let’s not forget Nvidia Russia labs where Nvidia tests dozens of game releases for performance improvement and compatibility that saves millions to PC gaming industry but if Nvidia didn’t do it, we would be stuck with console-looking games and a potential dramatic shrinkage of the PC gaming market.

If you are ATI/AMD this doesn’t suit you, as you don’t have the money or manpower to catch up with Nvidia and therefore they are very vocal opponents of the program, but Intel does have the money and it will probably challenge Nvidia with s similar scheme.
;(
Fud begint wel erg aan geloofwaardigheid in te leveren de laatste tijd zeg.

Tuuuurlijk is nvidia de grote redder van pc gaming :O

Gaan we wel even voorbij aan het feit dat de bestverkopende pc games (ook op moment van release) grafisch doorgaans niet cutting-edge waren. (the sims, rollercoaster tycoon, WOW, diablo2 enz).

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 01:07

Ultraman

Moderator Harde Waren

Boefje

offtopic:
Hier geen layout problemen in zowel Firefox3 als in IE7. Ie8 is niet aanwezig hier, daarvoor moet ik vanuit thuis even een keer loeren. Maar uh.. so far so good. Anders check uwen compatibility modus?

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ultraman schreef op dinsdag 06 oktober 2009 @ 14:15:
offtopic:
Hier geen layout problemen in zowel Firefox3 als in IE7. Ie8 is niet aanwezig hier, daarvoor moet ik vanuit thuis even een keer loeren. Maar uh.. so far so good. Anders check uwen compatibility modus?
offtopic:
hier ook niet meer, vanochtend wel in IE7 en chrome, nu opgelost kennelijk.:)

Heeft geen speciale krachten en is daar erg boos over.


  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 06:10
offtopic:

Ik had er net ook last van (google chrome) maar is spontaan opgelost. Nu geen last meer van.
edit: echo :(

[Voor 6% gewijzigd door whiteguy op 06-10-2009 14:22]


  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 28-05 14:28
Ik heb er ook geen last meer van, opgelost dus! toppie :)

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

Hoop trouwens dat de release van de nieuwe kaartjes van Nvidia niet zo'n ramp word als nu bij ATI het geval is!! Hoe is dat bij Nvidia in het verleden gegaan, altijd voldoende voorraden etc?? :+

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38

Nvidia doesn’t want to sell GT200 under cost

As we reported a few days ago, Nvidia is facing a huge shortage of GT200-based products. Partners are complaining as they cannot get any serious demand and that Nvidia’s excuse is that they don’t want to lose money on cards.

Since Radeon 5870, 5850 and upcoming 5700 cards really look, good it looks like Nvidia wants to leave the market in hands of ATI, at least until Fermi GT300 comes out. The premature technology announcement about Fermi is definitely done in order to hurt ATI sales, but ATI definitely has at least two months head start.

Judging from all this, we expect quite bad Q3 and Q4 financial scores for Nvidia. Fermi can save Q4 2009 but only if Nvidia comes up with enough chips, which is again unlikely as this is the biggest technology improvement since G80 back in 2006.

http://www.fudzilla.com/content/view/15831/34/

nVidia kapt er mee tot aan de launch van de GT300, ze spelen echt alles op die GT300, die moet wel echt goed gaan worden...

[Voor 71% gewijzigd door Stefanovic45 op 06-10-2009 14:55]

Tesla Model Y RWD / 5.4 kWp PV installatie


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
BoRRel82 schreef op dinsdag 06 oktober 2009 @ 14:52:
Hoop trouwens dat de release van de nieuwe kaartjes van Nvidia niet zo'n ramp word als nu bij ATI het geval is!! Hoe is dat bij Nvidia in het verleden gegaan, altijd voldoende voorraden etc?? :+
Verwacht maar niks voor Q1 2010 dan voorkom je waarschijnlijk de grootste teleurstelling. Bij NV is het in het verleden net zo grillig gegaan als bij AMD (misschien zelfs wel grilliger). G80 had goede beschikbaarheid vanaf de launch. De opvolger G92 die voor het eerst gebruikt werd in 8800GT had echter erg slechte beschikbaarheid in het begin. Ook de GTX295 begon pas na een maand redelijk leverbaar te worden en werd gelanceerd omdat de HD4870X2 nu wel erg lang eenzaam aan de top stond (een half jaar). En sommige kaarten waren pure marketingkaarten zoals de 7800GTX 512MB die slechts gelaunched werd om AMD af te troefen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

nVidia kapt er mee tot aan de launch van de GT300, ze spelen echt alles op die GT300, die moet wel echt goed gaan worden...
Stel je voor als dat niet zo is.. Dan maken ze een blunder die ze vele miljoenen gaat kosten.
Echter heb ik het volste vertrouwen in de 300 serie, alleen word hitte steeds vaker een geduchte tegenstander.. Zelf nu 3 ATI kaarten achter elkaar gehad, en op 1 na een aftermarket koeler op moeten zetten om het beestje koel te houden! I

Zelf geen ervaring met de 200 serie, maar ik heb begrepen dat ie ook richting 80 gr Load gaat?
Ik heb nu even een tussenstap gekocht, een 4890 maar ga in 2010 kijken of een 300 NV of 5870x2 mijn nieuwe bezit word. :P

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

BoRRel82 schreef op dinsdag 06 oktober 2009 @ 15:44:
Zelf geen ervaring met de 200 serie, maar ik heb begrepen dat ie ook richting 80 gr Load gaat?
Ik heb nu even een tussenstap gekocht, een 4890 maar ga in 2010 kijken of een 300 NV of 5870x2 mijn nieuwe bezit word. :P
i5 750 @ 3,6 - P7P55D - Club3D HD5870 - 6GB OCZ 1866Mhz
Maar je signature zegt anders, dus wie houd je nu voor de gek?

[Voor 10% gewijzigd door neliz op 06-10-2009 15:49]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 03-05 22:33
Many programming hours

One catch of The way its meant to be played marketing and development program is that Nvidia actually does end up spending money where publishers and developers benefit.

Most of the money never exchanges hands, but Nvidia offers thousands of programmer hours as the company codes advanced effects, tries to makes thing faster, get PhysX inside of game and does this mostly for free. Since labour is also something you need to pay, Nvidia ends up paying millions in salaries and other costs that come out of TWIMTBP program.

Senior Vice President, Content and Technology Tony Tamasi has confirmed this to Fudzilla and he also said that for some marketing purposes “money does exchange some hands”. This is mainly for in game and external advertising. Mr. Tamasi said that his software division of approximately 220 people cost Nvidia tens of millions and Jensen joked that these guys do not make any money, they just cost Nvidia money.

Let’s not forget Nvidia Russia labs where Nvidia tests dozens of game releases for performance improvement and compatibility that saves millions to PC gaming industry but if Nvidia didn’t do it, we would be stuck with console-looking games and a potential dramatic shrinkage of the PC gaming market.

If you are ATI/AMD this doesn’t suit you, as you don’t have the money or manpower to catch up with Nvidia and therefore they are very vocal opponents of the program, but Intel does have the money and it will probably challenge Nvidia with s similar scheme.


Edit:
ow sorry, dit was al gepost

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 03-05 22:33
Maar dit nog niet volgens mij, wel erg interessant:

CUDA can speed up virus scan

Nvidia’s General Manager of Cuda Sanford Russell told Fudzilla that Nvidia has been working on ways to speed up virus scanning on GPU.

Since this is highly parallel job, this would be a perfect task for Nvidia GPUs and since this market is huge, Nvidia definitely plans to put a lot of effort behind this project. Every Windows PC has a virus scanner, and in case it doesn’t, it wont last that long and this is definitely a great opportunity for the success of GPU computing and CUDA.

If Nvidia makes virus scanning drastically faster, they might have a chance of selling more GPUs than any time before. The opportunity is great and we hope that they might come up with something as currently CUDA applications for mainstream market are usually video encoding and image and video enhancement based.

This is a good start, but we simply need more. Its not that everyone needs oil and gas industry applications on their desktop, something that runs great on CUDA-based GPUs. Nvidia and Standord’s group certainly work around the clock to bring about a CUDA parallel GPU computing revolution.

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • Snorro
  • Registratie: December 2007
  • Laatst online: 15-05 15:00
Niet zo heel verbazingwekkend, gewoon een logisch gevolg van de ingeslagen weg mbt. GPGPU.

Wat interessanter is, hoe goed kan de PR-afdeling van Nv dit aan de man (de 'doorsnee consument') brengen? Met dit soort huis-tuin-keuken applicaties van CUDA zie ik ze er nog voor aan om er een consumentensucces van te maken.

  • Twanjo
  • Registratie: April 2006
  • Laatst online: 04-11-2019
Kan iemand mij een bepaalde type-reeks aanbevelen van een nVidia kaart voor het gebruik van Premiere Elements? Het is voor mijn vader die een absolute non-gamer is maar wel aan videobewerking doet. Dat is opzich niet zo spannend en heeft niet veel met een videokaart van doen. Maargoed er moet toch een kaartje in , het liefst passief gekoeld , met een s-video aansluiting. Budget <60 euro.

ps Kan iemand mij ook vertellen of ik in xp pro dan tegelijk videosignaal via dvi(of vga) en s-video kan versturen in apparte resoluties? Zodat we het materiaal ooki meteen op een tv kunnen bekijken?

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 06:10
Illidan schreef op dinsdag 06 oktober 2009 @ 18:22:
Maar dit nog niet volgens mij, wel erg interessant:

CUDA can speed up virus scan

Nvidia’s General Manager of Cuda Sanford Russell told Fudzilla that Nvidia has been working on ways to speed up virus scanning on GPU.

Since this is highly parallel job, this would be a perfect task for Nvidia GPUs and since this market is huge, Nvidia definitely plans to put a lot of effort behind this project. Every Windows PC has a virus scanner, and in case it doesn’t, it wont last that long and this is definitely a great opportunity for the success of GPU computing and CUDA.

If Nvidia makes virus scanning drastically faster, they might have a chance of selling more GPUs than any time before. The opportunity is great and we hope that they might come up with something as currently CUDA applications for mainstream market are usually video encoding and image and video enhancement based.

This is a good start, but we simply need more. Its not that everyone needs oil and gas industry applications on their desktop, something that runs great on CUDA-based GPUs. Nvidia and Standord’s group certainly work around the clock to bring about a CUDA parallel GPU computing revolution.
Die had ik ook gelezen maar niet gepost, aangezien het mij vrij onwaarschijnlijk lijkt dat dat enig nut heeft.
Virusscanners belasten de processor tegenwoordig maar voor een paar procent (de laptop met celeron 550 waar ik nu achter zit met 93 draaiende processen, komt tijden een full hdd scan van mcafee niet boven de 40 procent) - de cpu is daarin dus niet de beperkende factor, maar vooral de snelheid van de hardeschijf.

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
BoRRel82 schreef op dinsdag 06 oktober 2009 @ 15:44:
[...]

Zelf geen ervaring met de 200 serie, maar ik heb begrepen dat ie ook richting 80 gr Load gaat?
Ja maar dat is nog dood normaal, het is geen CPU :/

Tesla Model Y RWD / 5.4 kWp PV installatie


  • Apoca
  • Registratie: November 2001
  • Laatst online: 21:18

Apoca

Array Technology Industry

Dude.. Das toch gewoon niet goedkoop op de markt te brengen :/

Als je dan niet 100% goede chips hebt ben je de sjaak gewoon.

Hoe staat de size van de RV870 hier tegenover?

[Voor 20% gewijzigd door Apoca op 06-10-2009 20:48]

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022

Nvidia will crater GTX260 and GTX275 prices soon

Wederom een niet al te positief verhaal van de welbekende Charlie.

Ondanks zijn bias, heeft hij weldegelijk een punt. Natuurlijk zullen er altijd wel mensen zijn die nVidia blijven kopen, maar nVidia lijkt daar niet veel mee op te schieten op het moment.

edit: De RV870 is ongeveer 18x18 (~330mm2) in omvang
edit 2: Je kunt je afvragen waarvan nVidia zijn developersteams blijft betalen, als ze geen winst meer kunnen maken. Al had ik ook al begrepen dat het hele TWIMTBP al aardig was gedownsized. De tijd zal het leren.

[Voor 25% gewijzigd door dahakon op 06-10-2009 21:18]


  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 03-05 22:33
whiteguy schreef op dinsdag 06 oktober 2009 @ 19:02:
[...]

Die had ik ook gelezen maar niet gepost, aangezien het mij vrij onwaarschijnlijk lijkt dat dat enig nut heeft.
Virusscanners belasten de processor tegenwoordig maar voor een paar procent (de laptop met celeron 550 waar ik nu achter zit met 93 draaiende processen, komt tijden een full hdd scan van mcafee niet boven de 40 procent) - de cpu is daarin dus niet de beperkende factor, maar vooral de snelheid van de hardeschijf.
Uhh? Als de gpu een simpele taak kan overnemen van de cpu (omdattie op dat moment toch niets te doen heeft) komt dat de efficiëntie van het systeem als geheel alleen ten goede. Voor de gein maar m'n AVG scan even aangezet en via taakbeheer in de gaten gehouden: CPU-load fluctueert nogal, ik zie zo een beetje alle percentages voorbijkomen, van 00 tot 100%. Dus IMO wel degelijk een zeer nuttige ontwikkeling, laat maar komen (ow crap, heb straks een ATi kaart die dat niet kan ;( ) :P

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Illidan schreef op dinsdag 06 oktober 2009 @ 21:26:
Dus IMO wel degelijk een zeer nuttige ontwikkeling, laat maar komen (ow crap, heb straks een ATi kaart die dat niet kan ;( ) :P
Ach, dergelijke dingen kunnen ook via OpenCL gedaan worden, als iemand het wil schrijven. Is het gelijk merk-onafhankelijk en kun het ook op je nieuwe ATI-kaartje doen.

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Wij zien hier prijzen van de GTX260/275/285/295 allemaal dalen. Tot wel 80 euro inkoop over de laatste anderhalve maand. Maar dat ze nu echt "instorten", nee. De GTX285 is in principe nog steeds niet competatief geprijsd als je naar de 5850 kijkt - maar zoveel marktaandeel lijken ze in de cijfers niet te verliezen. Als ze toch wel verkopen hebben ze bijvoorbeeld twee opties (en nog veel meer varianten):

- We snijden €50 van de prijzen af en verkopen 33% meer
- We snijden niets van de prijzen af en blijven op "100%" huidige verkoop met kracht Geforce en nVidia brand

1000 kaarten is standaard ... stel dat ze €80 verdienen om zo'n kaart (volgens mij ben ik dan nog zeer genereus). Dan draai je qua winst "standaard" 80k winst. Nu verlagen ze de prijs €50 en verkopen 33% meer (ook hierin ben ik -zeer- genereus). 1333 x 30 = 40k winst :/ . Nu is dit te kort door de bocht en productieprijzen worden ook immer lager en de totale omzet telt ook mee - maar het punt is er; nVidia heeft als bedrijf de kans om dit soort shitstormen door te zitten met de kracht van het merk en de brands die zij voeren. Tuurlijk doet het schade aan het merk en zal de marketing machine alles op alles zetten deze te beperken. Maar als je nog fatsoenlijk blijft verkopen en geen grote procenten marktaandeel moet inleveren, wat zou jij doen?

De meeste mensen deugen!


  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 27-03 15:50

SECURITEH

Man of legend.

Illidan schreef op dinsdag 06 oktober 2009 @ 21:26:
Voor de gein maar m'n AVG scan even aangezet en via taakbeheer in de gaten gehouden: CPU-load fluctueert nogal, ik zie zo een beetje alle percentages voorbijkomen, van 00 tot 100%. Dus IMO wel degelijk een zeer nuttige ontwikkeling,
Daar noem je mij ook even een voorbeeld, AVG laat het hele systeem sowieso haperen tijdens de scan (ik vermoed dat het veel de HDD aanspreekt) en daarbij idd. geen echt stabiel verbruik heeft, er zijn zat andere (betere) anti-virus programma's die al deze nadelen niet hebben.

Anoniem: 317606

Mja, je vergelijkt nu een budget GPU met een high-end GPU.

Anyway, GeForce GT 220 komt deze maand naar het retail kanaal. Ze moeten nog van de band komen maar dat zal soon gebeuren. Prijsvermeldingen van Asus zijn al op het internet te vinden, Gigabyte heeft zijn GT 220 al getoond en Leadtek is review samples aan het klaarstomen.

GeForce G210 komt wat later (naar het retail kanaal dan, in OEM is deze al verkrijgbaar).

  • warp
  • Registratie: Januari 2000
  • Niet online
SECURITEH schreef op dinsdag 06 oktober 2009 @ 22:26:
Daar noem je mij ook even een voorbeeld, AVG laat het hele systeem sowieso haperen tijdens de scan (ik vermoed dat het veel de HDD aanspreekt) en daarbij idd. geen echt stabiel verbruik heeft, er zijn zat andere (betere) anti-virus programma's die al deze nadelen niet hebben.
whiteguy schreef op dinsdag 06 oktober 2009 @ 19:02:
Die had ik ook gelezen maar niet gepost, aangezien het mij vrij onwaarschijnlijk lijkt dat dat enig nut heeft.
Virusscanners belasten de processor tegenwoordig maar voor een paar procent (de laptop met celeron 550 waar ik nu achter zit met 93 draaiende processen, komt tijden een full hdd scan van mcafee niet boven de 40 procent) - de cpu is daarin dus niet de beperkende factor, maar vooral de snelheid van de hardeschijf.
^^ Met de heren hierboven. Virusscanners hebben het meeste baat bij I/O (brakke virusscanners daargelaten).
Maar ja, je moet toch wat om je afzetmarkt te vergroten. :+

Anoniem: 292676

Nvidia kills GTX285, GTX275, GTX260, abandons the mid and high end market

NVIDIA IS KILLING the GTX260, GTX275, and GTX285 with the GTX295 almost assured to follow as Nvidia (Nvidia: NVDA) abandons the high and mid range graphics card market. Due to a massive series of engineering failures, nearly all of the company's product line is financially under water, and mismanagement seems to be killing the company.
blijkt dat je niet eeuwig kaarten kan verkopen met verlies

Anoniem: 287880

http://www.semiaccurate.c...-mid-and-high-end-market/

en

http://www.semiaccurate.c...0-and-gtx275-prices-soon/

Andersom is de goede volgorde.

En Fermi wordt ook rond de 450 vierkante millimeter, In ieder geval geen 512 bit bus meer maar toch. En waar is de DX11 kaart in het performacne segment?

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Anoniem: 287880 schreef op dinsdag 06 oktober 2009 @ 22:36:
En Fermi wordt ook rond de 450 vierkante millimeter, In ieder geval geen 512 bit bus meer maar toch. En waar is de DX11 kaart in het performacne segment?
Maak daar waarschijnlijk maar 530+ vierkantemillimeter van.

Verder heeft nVidia geen DX11 kaart in het performance-segment. De enige DX11 chip die binnenkort het levenslicht kan zien als videokaart is de GT300, Fermi, GF100 of hoe die ook mag heten. Daaruit kunnen ze 3, of heel misschien 4 segmenten halen. Waarschijnlijk zoiets als de GTX360, GTX380 en GTX395. Verder is er alleen DX10.1 (GT220 die binnenkort eindelijk eens op de markt schijnt te komen) of DX10 (G92/GT200) die wellicht nog rebranding naar een G300 naam krijgen.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 317606 schreef op dinsdag 06 oktober 2009 @ 22:34:
[...]


Mja, je vergelijkt nu een budget GPU met een high-end GPU.
You're kidding me, right?
Niks beters te melden? :+

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 317606

-The_Mask- schreef op dinsdag 06 oktober 2009 @ 22:52:
[...]

You're kidding me, right?
Niks beters te melden? :+
Het is stiekem een high-end GPU 8)7
Verder is er alleen DX10.1 (GT220 die binnenkort eindelijk eens op de markt schijnt te komen) of DX10 (G92/GT200) die wellicht nog rebranding naar een G300 naam krijgen.
De GeForce GT 220 zit niet eens in het performance segment, met zijn 48 shaders zal zelf een 9600 GT sneller zijn.

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 27-03 15:50

SECURITEH

Man of legend.

Anoniem: 287880 schreef op dinsdag 06 oktober 2009 @ 22:36:
http://www.semiaccurate.c...-mid-and-high-end-market/

en

http://www.semiaccurate.c...0-and-gtx275-prices-soon/

Andersom is de goede volgorde.

En Fermi wordt ook rond de 450 vierkante millimeter, In ieder geval geen 512 bit bus meer maar toch. En waar is de DX11 kaart in het performacne segment?
Wow, het ziet er de komende maanden echt slecht uit voor nVidia als dit echt waar is.

Anoniem: 292676

weet iemand hoeverre de gt300 directx 11 zal ondersteunen?
ik heb gehoord dat ze alvast de tesselator software matig gaan doen

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 27-03 15:50

SECURITEH

Man of legend.

De GT300 zal DX11 volledig ondersteunen maar een aantal aspecten (zoals tesselation zoals jij al zij) zullen software matig gedaan worden... dit zal dan ook wel een aardige performance hit veroorzaken.

Anoniem: 292676

je zit jezelf wel tegen te spreken, tesselation zit in de directx 11 sdk.

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 27-03 15:50

SECURITEH

Man of legend.

Je kan de functionaliteit wel hebben, dat je dit door middel van hardware of software doet maakt geen verschil in de daadwerkelijke ondersteuning (het werkt in beide gevallen).

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Ik hoop het voor al ons tweakers toch niet. Wat een zonde voor de competitie op de high-end en mainstream markt. De topkaart zou dan een GTS250 worden (die het overigens prima doet als bang for the buck kaart) ... maar dan zal ATi zich in een dermate luxe positie worstelen dat de prijzen lang hoog blijven en de vraag maar een kant op kan ... "ik wil een high-end kaart" = "get in line with ATi".

Dit is niet zoals het had moeten uitlopen, als dit waar is, is het een damn shame.

De meeste mensen deugen!


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:08
Tja, het zal wel weer zwaar overdreven zijn net zoals vele andere berichten van Charlie in het verleden...

anathema


  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 26-05 14:28
Als je even een roze(groene) bril opzet zou alles wat nVidia tot nu toe heeft gedaan, alles waar Charlie zo hard op heeft gehamerd, misschien wel gewoon een ongelofelijk goede campagne zijn geweest om de (hard) release van Fermi over twee weken geheim te houden.

Stel je voor dat NV over twee weken een volledige lineup van gtx360, gtx380 en dan een maand later gtx395 presenteerd. Met allemaal voldoende voorraad.

[Voor 4% gewijzigd door SneakyNL op 07-10-2009 08:38]


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

Oei, dit is een erg slechte zaak voor de consument....

Dat ATi "terug is", is leuk, maar dit is minder...

Edit; dit betekent dus hoge(re) prijzen voor de nieuwe ATi kaarten voor consumenten, omdat er simpelweg niets anders is...

[Voor 36% gewijzigd door Format-C op 07-10-2009 08:56]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • luckyjan
  • Registratie: Augustus 2000
  • Laatst online: 21-05 10:12
Op de artikelen op semiaccurate is weinig aan te merken. Het ziet er niet goed uit voor Nvidia. Als we een beetje pech hebben wordt ATI voor GPU's wat intel nu voor CPU's is en dat is slecht voor de consumenten prijzen en de technische vooruitgang.

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

luckyjan schreef op woensdag 07 oktober 2009 @ 09:09:
Op de artikelen op semiaccurate is weinig aan te merken. Het ziet er niet goed uit voor Nvidia. Als we een beetje pech hebben wordt ATI voor GPU's wat intel nu voor CPU's is en dat is slecht voor de consumenten prijzen en de technische vooruitgang.
Hoeft niet persee slecht te zijn...? Wellicht dat men zich dan ook kan concentreren software en games te maken zonder dat er elk half jaar een nieuwe kaart ligt die net weer 5 - 15% sneller is..

ATI geeft ook miljoenen uit aan research, nw technieken en ontwikkeling.. dat gaat heus niet op aan zaken diners :9

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

SneakyNL schreef op woensdag 07 oktober 2009 @ 08:37:
Als je even een roze(groene) bril opzet zou alles wat nVidia tot nu toe heeft gedaan, alles waar Charlie zo hard op heeft gehamerd, misschien wel gewoon een ongelofelijk goede campagne zijn geweest om de (hard) release van Fermi over twee weken geheim te houden.
Idee is leuk, jammer dat je voor de launch van een videokaart iets meer nodig hebt dan één bedrijfje dat alleen de chips ontwerpt!

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cassius schreef op woensdag 07 oktober 2009 @ 00:45:
[...]


Ik hoop het voor al ons tweakers toch niet. Wat een zonde voor de competitie op de high-end en mainstream markt. De topkaart zou dan een GTS250 worden (die het overigens prima doet als bang for the buck kaart) ... maar dan zal ATi zich in een dermate luxe positie worstelen dat de prijzen lang hoog blijven en de vraag maar een kant op kan ... "ik wil een high-end kaart" = "get in line with ATi".

Dit is niet zoals het had moeten uitlopen, als dit waar is, is het een damn shame.
Op de korte termijn ziet het er idd slecht uit voor nvidia maar uiteindelijk zullen ze hopelijk wel weer overleven en competetief worden.

Ik hoop net als jij dat nvidia zich weer hersteld maar als er een bedrijf bovenop moet liggen dan heb ik liever dat het AMD is.
Op basis van het verleden heb ik een veel beter gevoel bij dat bedrijf en schat ik de kans dat ze "misbruik' van de situatie maken erg klein in. Iig veel kleiner dan als nvidia bovenop ligt.

Laat ATI maar een tijdje de dienst uitmaken met hun open standaarden en hun wil om de nieuwe DX standaarden zsm te ondersteunen. Ik denk dat dat heel goed zou zijn voor de PC als gameplatform.

Wel moeten ze meer investeren in drivers en beter samenwerken met de ontwikkelaars. :Y

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • HaseMike
  • Registratie: Augustus 2003
  • Niet online
Dat artikel over de dood van nvidia is wel erg hijgerig, ik hecht er dan ook niet al te veel waarde aan. De huidige gtx260-275 leverd prima prestaties voor een keurige prijs in verhouding tot de 5850 van ati.

Net als een aantal jaren ati in een bijzonder slechte positie verkeerde, is deze keer misschien nvidia aan de beurt. Wel hopen dat ze beiden blijven overleven, want een monopolie positie in de grafische kaarten sector leidt tot stilstand en hoge prijzen, iets wat we beslist niet willen.

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
HaseMike schreef op woensdag 07 oktober 2009 @ 10:09:
Dat artikel over de dood van nvidia is wel erg hijgerig, ik hecht er dan ook niet al te veel waarde aan. De huidige gtx260-275 leverd prima prestaties voor een keurige prijs in verhouding tot de 5850 van ati.
Misschien nu nog wel, maar als de 57xx kaarten er zijn (en die zouden al snel moeten komen) worden deze kaarten ook overtroffen door AMD
RappieRappie schreef op woensdag 07 oktober 2009 @ 08:41:
Oei, dit is een erg slechte zaak voor de consument....

Dat ATi "terug is", is leuk, maar dit is minder...

Edit; dit betekent dus hoge(re) prijzen voor de nieuwe ATi kaarten voor consumenten, omdat er simpelweg niets anders is...
Dit is inderdaad wel teveel van het goede. Ook al gun ik het AMD meer dan nVidia. Het is voor iedereen beter als de kaarten die op de markt zijn goed concureren. Maar ik moet zeggen dat €350 (5870) voor een topmodel minder is dan de GTX280 koste tijdens de introductie. Die van meen ik €500+?

Op basis hiervan maakt AMD toch minder 'misbruik' van hun positie.

[Voor 43% gewijzigd door Stefanovic45 op 07-10-2009 10:20]

Tesla Model Y RWD / 5.4 kWp PV installatie


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:08
luckyjan schreef op woensdag 07 oktober 2009 @ 09:09:
Op de artikelen op semiaccurate is weinig aan te merken.
Op basis waarvan dan? Hij doet voornamelijk langetermijn voorspellingen waarvan in het verleden vaak genoeg is gebleken dat het volstrekte onzin is. De GTX275 zou van papier zijn en nooit verkrijgaar worden, zelfde verhaal voor de 8800GT. Allebei onzin zoals is gebleken.
In mei voorspelde hij dat de GT300 langzamer zou worden dan de RV870, dat is nog niet zeker maar de voorlopige specificaties wijzen daar niet op... en zo zijn er vast meer voorbeelden.
Hecht er niet zoveel waarde aan vooralsnog.

anathema


  • EvaluationCopy
  • Registratie: Juli 2009
  • Laatst online: 24-05 15:22
StefanvanGelder schreef op woensdag 07 oktober 2009 @ 10:16:
[...]


Misschien nu nog wel, maar als de 57xx kaarten er zijn (en die zouden al snel moeten komen) worden deze kaarten ook overtroffen door AMD


[...]


Dit is inderdaad wel teveel van het goede. Ook al gun ik het AMD meer dan nVidia. Het is voor iedereen beter als de kaarten die op de markt zijn goed concureren. Maar ik moet zeggen dat €350 (5870) voor een topmodel minder is dan de GTX280 koste tijdens de introductie. Die van meen ik €500+?

Op basis hiervan maakt AMD toch minder 'misbruik' van hun positie.
Mjaaaa, 'misbruik' zou ik het niet willen noemen. AMD wil ook gewoon centjes verdienen. Ze hebben heus wel berekend dat ze met deze prijsstelling gewoon het meest verdienen. Die prijzen zijn echt niet zo beschaafd omdat ze jou zo aardig vinden hoor ;)

What difference is it to me if a decision is forced upon me by a dictator or by half of my neighbors? Either way my right to free, peaceful action has been nullified. – Stephen H. Foerster


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
+1 idd

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

prijs van de 5850 gaat nog wel naar beneden de komende week(en) er zit anders een te groot gat tussen Juniper XT en Cypress Pro

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • silentsnake
  • Registratie: September 2003
  • Laatst online: 24-05 08:12
EvaluationCopy schreef op woensdag 07 oktober 2009 @ 11:20:
[...]


Mjaaaa, 'misbruik' zou ik het niet willen noemen. AMD wil ook gewoon centjes verdienen. Ze hebben heus wel berekend dat ze met deze prijsstelling gewoon het meest verdienen. Die prijzen zijn echt niet zo beschaafd omdat ze jou zo aardig vinden hoor ;)
Jap, zeker aangezien de CPU divisie van AMD lijdt onder het Intel geweld kunnen ze wellicht nog wat compenseren met een goed draaiende GPU divisie die overpriced spul verkoopt. Ik gun het AMD opzich wel maar geen concurrentie is goed voor niemand op lange termijn.

Maar het lijkt me ook wel weer wat overdreven, Nvidia heeft meer dan alleen maar GPUs voor de game markt. Volgens mij doen hun chipset en mobile GPUs het nogsteeds redelijk tot goed.

Anoniem: 317606

Charlie zijn artikel lijkt te kloppen:
...

UPDATE (11:37): Inmiddels hebben we reactie van één van nVidia's partners. Off-the-record konden zij ons melden dat nVidia hen had verteld dat de GeForce GTX 285 niet end-of-life is, maar tegelijkertijd kregen ze het nieuws te horen dat deze kaart niet langer ingekocht kan worden. Wie hier het verschil tussen snapt, maar het ons uitleggen. Dezelfde partner wist ons te melden dat de levering van de GTX 275 op dit moment zeer moeizaam is, maar dat de GTX 260 wel nog is goede aantallen wordt aangeleverd. Dit alles is redelijk in lijn met verhaal op SemiAccurate.com.

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
EvaluationCopy schreef op woensdag 07 oktober 2009 @ 11:20:
[...]


Mjaaaa, 'misbruik' zou ik het niet willen noemen. AMD wil ook gewoon centjes verdienen. Ze hebben heus wel berekend dat ze met deze prijsstelling gewoon het meest verdienen. Die prijzen zijn echt niet zo beschaafd omdat ze jou zo aardig vinden hoor ;)
Oke, +1 ;)

Tesla Model Y RWD / 5.4 kWp PV installatie


  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 21:05
Pfew, ben benieuwd wat de stocks doen als het waar is.
Gaat al niet zo best daarmee.

http://finance.yahoo.com/...scale=on;source=undefined

[Voor 7% gewijzigd door dirkjesdirk op 07-10-2009 12:01]

Grootgebruiker van MS Word. Maar het wordt nooit perfect...


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

dirkjesdirk schreef op woensdag 07 oktober 2009 @ 12:00:
Pfew, ben benieuwd wat de stocks doen als het waar is.
Gaat al niet zo best daarmee.

http://finance.yahoo.com/...scale=on;source=undefined
Maken de verkopen van Jensen de afgelopen maand nu een beetje "sense" ?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • hjs
  • Registratie: Juni 1999
  • Niet online
Na 2 jaar en 5 dagen is mijn MSI laptop overleden.
De 8600M GT is overleden, ondertussen wordt hij gerepareerd door MSI, maar ja buiten garantie en dat kost me iets van 250 euro.

Nu is het algemeen bekend dat nVidia een slecht produkt heeft geleverd met oa de 86 serie.
(zie bv dit blog voor veel links)

Nu vraag ik me af hoe ik de rekening voor de reperatie kan laten betalen door nVidia, iemand enig idee?
(nVidia heeft tenslotte zo'n slechte kaart gemaakt)

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 28-05 22:23
hjs schreef op woensdag 07 oktober 2009 @ 12:54:
Na 2 jaar en 5 dagen is mijn MSI laptop overleden.
De 8600M GT is overleden, ondertussen wordt hij gerepareerd door MSI, maar ja buiten garantie en dat kost me iets van 250 euro.

Nu is het algemeen bekend dat nVidia een slecht produkt heeft geleverd met oa de 86 serie.
(zie bv dit blog voor veel links)

Nu vraag ik me af hoe ik de rekening voor de reperatie kan laten betalen door nVidia, iemand enig idee?
(nVidia heeft tenslotte zo'n slechte kaart gemaakt)
De garantietermijn van 2 jaar is, voor zover ik het begrijp, niet sluitend.
Als MSI een garantie van 2 jaar geeft, dan wil dat nog niet zeggen dat je als koper na 2 jaar geen rechten meer hebt.
De garantie hangt af van wat je redelijkerwijs aan gebruikstermijn van een product mag verwachten.
Volgens mij is dat bij een laptop langer dan 2 jaar.
Dat betekent niet dat je nu een gratis reparatie kan verwachten, maar MSI mag je wel tegemoet komen in de kosten.

Van Nvidia hoef je niets te verwachten, net zoals je niet bij een leverancier van Whirlpool kan klagen als je wasmachine kapot gaat.

Misschien kan je hier beter een apart topic over aanmaken.

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 00:00

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

hjs schreef op woensdag 07 oktober 2009 @ 12:54:
Na 2 jaar en 5 dagen is mijn MSI laptop overleden.
De 8600M GT is overleden, ondertussen wordt hij gerepareerd door MSI, maar ja buiten garantie en dat kost me iets van 250 euro.

Nu is het algemeen bekend dat nVidia een slecht produkt heeft geleverd met oa de 86 serie.
(zie bv dit blog voor veel links)

Nu vraag ik me af hoe ik de rekening voor de reperatie kan laten betalen door nVidia, iemand enig idee?
(nVidia heeft tenslotte zo'n slechte kaart gemaakt)
De G84, G86 en G92 hebben allen inderdaad een produktie fout welke na anderhalf tot twee jaar problemen gaat opleveren. Aangezien het hier om een produktie fout gaat welke (eindelijk) in Juni/Juli 2008 is toegegeven door Nvidia, dient reparatie of vervanging van het produkt uitgevoerd te worden zonder extra kosten voor de consument. De leverancier van het produkt is hier verantwoordelijk voor. Dit ongeacht of de garantie periode reeds verstreken is.

Zoals al werd opgemerkt, bij Nvidia hoef je niet aan te kloppen die gaan jou niet helpen. Het is aan jouw leverancier of oem fabrikant om een schadeclaim in te dienen bij Nvidia. Helaas ben ik wel bang dat je wel rechtsbijstand nodig bent om je gelijk te halen, als de leverancier niet welwillend is.

Overigens vergoed Nvidia de GPU's wel naar oem fabrikanten die een claim indienen, alleen vergoeden ze de GPU niet het gehele moederbord dat vervangen dient te worden. Het verbaasd mij dan ook niet erg wat er de laatste tijd over Nvidia te lezen valt de afgelopen paar jaar zijn ze heel vreemd bezig. De problemen van deze mobile GPU's was namelijk in 2006 al bekend. HP heeft dit in November van dat jaar al bij Nvidia te kennen gegeven.

[Voor 17% gewijzigd door _Dune_ op 07-10-2009 13:51]

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


  • hjs
  • Registratie: Juni 1999
  • Niet online
_Dune_ schreef op woensdag 07 oktober 2009 @ 13:39:
[...]


De G84, G86 en G92 hebben allen inderdaad een produktie fout welke na anderhalf tot twee jaar problemen gaat opleveren. Aangezien het hier om een produktie fout gaat welke (eindelijk) in Juni/Juli 2008 is toegegeven door Nvidia, dient reparatie of vervanging van het produkt uitgevoerd te worden zonder extra kosten voor de consument. De leverancier van het produkt is hier verantwoordelijk voor. Dit ongeacht of de garantie periode reeds verstreken is.

Zoals al werd opgemerkt, bij Nvidia hoef je niet aan te kloppen die gaan jou niet helpen. Het is aan jouw leverancier of oem fabrikant om een schadeclaim in te dienen bij Nvidia. Helaas ben ik wel bang dat je wel rechtsbijstand nodig bent om je gelijk te halen, als de leverancier niet welwillend is.
Heb je een link dat nVidia toegeeft dat er een probleem is, ik kan die niet vinden :D

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Hierin staat in ieder geval dat ze het probleem (deels) erkennen. (maar niet erg recent, ik weet niet of ze daarna nog meer hebben ondernomen om het probleem op te lossen. De 8800-kaartjes zijn op dit moment ook massaal aan het uitvallen, ik weet niet of ze daar al op gereageerd hebben)

[Voor 40% gewijzigd door bwerg op 07-10-2009 13:56]

Heeft geen speciale krachten en is daar erg boos over.


  • _Dune_
  • Registratie: September 2003
  • Laatst online: 00:00

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

bwerg schreef op woensdag 07 oktober 2009 @ 13:54:
Hierin staat in ieder geval dat ze het probleem (deels) erkennen. (maar niet erg recent, ik weet niet of ze daarna nog meer hebben ondernomen om het probleem op te lossen. De 8800-kaartjes zijn op dit moment ook massaal aan het uitvallen, ik weet niet of ze daar al op gereageerd hebben)
Er ging vorig jaar inderdaad ook reeds al de geruchten dat de 8800 desktop serie dezelfde problemen kennen, dit kwam volgens mij wederom uit de hoek van HP.

Overigens hier is in de Dell fora heelveel over geschreven en daar zijn ook links te vinden van de statments van Nvidia zelf. Ik zal vanavond even kijken of ik deze terug kan vinden.

Overigens bied Dell een extra jaar garantie boven op de reeds aangekocht garantie vanwege dit probleem tot een maximum van 5 jaar, dat is eigenlijk nog niet helemaal zoals het hoort, maar tenminste toch iets. HP daar in tegen heeft gewoon nieuwe moederborden gemaakt voor bepaalde serie laptops met ATi alternatieven, dat is eigenlijk wat Dell ook had moeten doen.

Van dat betreft is Nvidia (helaas) niet goed bezig.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

hjs schreef op woensdag 07 oktober 2009 @ 13:51:
[...]


Heb je een link dat nVidia toegeeft dat er een probleem is, ik kan die niet vinden :D
Stop maar met zoeken. Nvidia heeft er 1 grote cover-up-actie van gemaakt om zolang mogelijk vol te houden dat er wat hun betreft nooit een fout is gemaakt.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

StefanvanGelder schreef op woensdag 07 oktober 2009 @ 10:16:

Maar ik moet zeggen dat €350 (5870) voor een topmodel minder is dan de GTX280 koste tijdens de introductie. Die van meen ik €500+?
Het was zelfs 650 euro... :o

[Voor 22% gewijzigd door Format-C op 07-10-2009 14:57]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Anoniem: 317606 schreef op woensdag 07 oktober 2009 @ 11:45:
Charlie zijn artikel lijkt te kloppen:


[...]
Damn, dit is niet goed nee. :( . Ze moeten echt opschieten met Fermi, of een goeie G92 derivate op 40nm. Op een nog hogere clock. Dan pak je toch een stuk mid end lijkt mij.

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Het lijkt me logischer als ze echt met een gt200 op 40nm zonder cuda etc zouden komen, en alleen dan nog dx11 erbij.

  • M4gick
  • Registratie: September 2009
  • Laatst online: 19-03-2022
Ja dat lijkt mij ook een goede strategie voor Nvidia, ik denk dat 90% van de mensen die een Nvidia kaart kopen geen zak hebben aan CUDA.. Speciale game kaarten, die dus waarschijnlijk kleiner en goedkoper worden, zijn veel beter.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
tomcatha schreef op woensdag 07 oktober 2009 @ 17:26:
Het lijkt me logischer als ze echt met een gt200 op 40nm zonder cuda etc zouden komen, en alleen dan nog dx11 erbij.
Dat was GT212 (alleen dan niet DX11, maar DX10.1, aangezien DX11 nog ver weg was vorig jaar). Helaas voor nVidia, hebben ze dat project dus in de ijskast gegooid, om de GT300 sneller te kunnen ontwikkelen.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

Ik heb medelijden met EVGA, een nV only partner... Of bijvoorbeeld Zotac, PNY, Sparkle, Point of View?

Wat moeten die nu?

Jongens, als dit allemaal zo is is dit niet best! :/

Hopen dat die GT300 echt héél snel komt!

[Voor 56% gewijzigd door Format-C op 07-10-2009 18:37]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
RappieRappie schreef op woensdag 07 oktober 2009 @ 18:33:
Ik heb medelijden met EVGA, een nV only partner... Of bijvoorbeeld Zotac.

Wat moeten die nu?
De rest van de schapen volgen die al over de dam waren, zoals XFX. Ik denk dat een bedrijf als XFX sowieso al erg blij is dat ze die overstap al een poosje terug hebben gemaakt. Als je nu halsoverkop ook een AMD-lijn wil implementeren, ben je een beetje aan de late kant.

Anoniem: 317606

RappieRappie schreef op woensdag 07 oktober 2009 @ 18:33:
Ik heb medelijden met EVGA, een nV only partner... Of bijvoorbeeld Zotac.

Wat moeten die nu?
Die gaan een heel slecht kwartaal tegemoet. Partners als Point of View doen inmiddels notebooks en andere spullen, die hadden dit al eerder zien aankomen.
tomcatha schreef op woensdag 07 oktober 2009 @ 17:26:
Het lijkt me logischer als ze echt met een gt200 op 40nm zonder cuda etc zouden komen, en alleen dan nog dx11 erbij.
Misschien wil nVidia zich niet meer op de gamers markt richten en enkel nog op GPCPU. Wat op zich niet slecht zou zijn voor het bedrijf, de marges zijn daar veel hoger (en nog veel andere voordelen).

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

RappieRappie schreef op woensdag 07 oktober 2009 @ 18:33:
Ik heb medelijden met EVGA, een nV only partner... Of bijvoorbeeld Zotac, PNY, Sparkle, Point of View?

Wat moeten die nu?

Jongens, als dit allemaal zo is is dit niet best! :/

Hopen dat die GT300 echt héél snel komt!
Ja uhhh gewoon ook met AMD gaan werken. Je eieren in één mandje liggen is sowieso zelden verstandig bovendien moeten ze dit allang hebben zien aankomen....
Anoniem: 317606 schreef op woensdag 07 oktober 2009 @ 18:41:
[...]..]


Misschien wil nVidia zich niet meer op de gamers markt richten en enkel nog op GPCPU. Wat op zich niet slecht zou zijn voor het bedrijf, de marges zijn daar veel hoger (en nog veel andere voordelen).
Zou zeker kunnen maar het is gewoon onverstandig om zo vroeg al al je kaarten op GPCPU te zetten. Het is ook nog maar afwachten in hoeverre nVidia haar oplossing dermate beter is dan die van AMD.
Denk eerder dat nVidia gewoon geplaagd wordt door pech, onverstandige beslissingen en hun eigen arrogantie die eindelijk eens backfired.... :P

[Voor 40% gewijzigd door Help!!!! op 07-10-2009 18:49]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

Dat is idd hun enige redding/optie.

Edit; maar goed, die zullen ook wel contracten hebben.

[Voor 45% gewijzigd door Format-C op 07-10-2009 18:48]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


Anoniem: 317606

dahakon schreef op woensdag 07 oktober 2009 @ 18:37:
[...]

De rest van de schapen volgen die al over de dam waren, zoals XFX. Ik denk dat een bedrijf als XFX sowieso al erg blij is dat ze die overstap al een poosje terug hebben gemaakt. Als je nu halsoverkop ook een AMD-lijn wil implementeren, ben je een beetje aan de late kant.
Help!!!! schreef op woensdag 07 oktober 2009 @ 18:46:
[...]

Ja uhhh gewoon ook met AMD gaan werken. Je eieren in één mandje liggen is sowieso zelden verstandig bovendien moeten ze dit allang hebben zien aankomen....
Dat dacht je maar ;) Zotac gaat echt geen ATI lijn doen ... Zotac hoort namelijk bij Sapphire (zelfde moederbedrijf). En andere partners zoals point of View gaan ook geen ATI doen ... dan moet je concurreren met Sapphire, AMD's grootste partner. Daar wordt je ook niet blij van. XFX is nog wat groot zeg maar, die konden het doen maar verwacht niet dat de winst marges enorm gestegen zijn oid.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

Kortom, een hoop andere bedrijven kunnen ook nog eens in de problemen komen door deze wending.

Edit; en het is gewoon een volledig verkeerde keuze geweest om grote en dure chips te blijven bouwen, en om dit ook in de toekomst te willen blijven doen, zoals ze een tijdje terug aangaven.

En ATi's strategie heeft gewerkt. En hoe!!! :o :o

Dit is echt een uppercut.

[Voor 64% gewijzigd door Format-C op 07-10-2009 18:53]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Anoniem: 317606 schreef op woensdag 07 oktober 2009 @ 18:48:
XFX is nog wat groot zeg maar, die konden het doen maar verwacht niet dat de winst marges enorm gestegen zijn oid.
Het gaat er natuurlijk niet alleen om of je winstmarges stijgen of stabiel blijven. Uiteindelijk gaat het er natuurlijk ook om of je uberhaupt iets kunt verkopen. Wanneer je niets te verkopen hebt, zul je sowieso verlies draaien. Daar schiet je als bedrijf natuurlijk helemaal niets mee op.

Anoniem: 9449

Hoewel ik het mooi zou vinden als AMD eens wat meer de boventoon zou gaan voeren kan ik me nauwelijks voorstellen dat er wat serieus met nVidia aan de hand is. Anders had het aandeel toch allang gereageerd?

NVDA heeft het het afgelopen 1/2 jaar prima gedaan, de laatste paar weken misschien weer 10% eraf. Het bedrijf is bijna 2x zoveel waard als het gehele AMD. Denk niet dat dit soort berichten via dit soort kanalen bekend worden als het aandeel niet al gehalveerd is.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

Of er komt op zééér korte termijn ineens een monster kaart van nV.

En hebben ze iedereen voor de gek gehouden. :D

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 06:10
Help!!!! schreef op woensdag 07 oktober 2009 @ 18:46:
[...]

Ja uhhh gewoon ook met AMD gaan werken. Je eieren in één mandje liggen is sowieso zelden verstandig bovendien moeten ze dit allang hebben zien aankomen....
Ik denk niet dat dat zo makkelijk gaat. De huidige partners van Ati zullen bijvoorbeeld al (prijs)afspraken hebben, die gunstiger zullen zijn dan willekeurige nieuwkomers. En die zitten ook niet op nog meer concurrentie te wachten.

Ati heeft al genoeg partners om wereldwijd een breed assortiment te kunnen leveren. (lees: fabrikanten die custom coolers er op zetten of andere afwijkende kaarten maken, naast de standaard kaarten)

Wat voor voordelen zitten er voor Ati aan om nog meer partners te hebben behalve onder andere:
asus, gigabyte, msi, sapphire, xfx, his, powercolor, vtx, club3d, gainward enz enz ?

Anoniem: 317606

RappieRappie schreef op woensdag 07 oktober 2009 @ 18:50:
Edit; en het is gewoon een volledig verkeerde keuze geweest om groten en dure chips te blijven bouwen, en ATi's strategie heeft gewerkt. En hoe!!! :o :o
En dat is een ontwerpkeuze. Bij die grote bedrijven wordt ver in de toekomst gekeken en wordt nu een ontwerp vastgelegd. Er komen verschillende ontwerpen langs maar op het einde van de rit is er één stropdas die de knoop doorhakt. 3-4 jaar later zie je dan wel of dit een goede ontwerpkeuze was.

Hetzelfde met CPU's: AMD heeft met de originele Phenom een verkeerde keuze gemaakt. Voor hetzelfde geld zat er een andere stropdas aan de tekentafel die voor een ander CPU ontwerp gekozen had en had het er nu allemaal anders uitgezien. Gokwerk, je weet niet wat je concurrentie aan het doen is, en je weet nooit 100% zeker of je ontwerp wel goed is. Dat zie je pas zodra het in de markt staat.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

RappieRappie schreef op woensdag 07 oktober 2009 @ 18:56:
Of er komt op zééér korte termijn ineens een monster kaart van nV.

En hebben ze iedereen voor de gek gehouden. :D
Tja dat zou wel een stunt zijn. Kans lijkt me echter vrij klein. De negatieve geruchten zijn zo wijd verspreid en dwingend dat ik denk dat het echt ff kut met nvidia gaat. :o

[Voor 12% gewijzigd door Help!!!! op 07-10-2009 19:02]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Anoniem: 9449 schreef op woensdag 07 oktober 2009 @ 18:53:
Hoewel ik het mooi zou vinden als AMD eens wat meer de boventoon zou gaan voeren kan ik me nauwelijks voorstellen dat er wat serieus met nVidia aan de hand is. Anders had het aandeel toch allang gereageerd?

NVDA heeft het het afgelopen 1/2 jaar prima gedaan, de laatste paar weken misschien weer 10% eraf. Het bedrijf is bijna 2x zoveel waard als het gehele AMD. Denk niet dat dit soort berichten via dit soort kanalen bekend worden als het aandeel niet al gehalveerd is.
Tot zeg maar afgelopen week, was er (aandeelhoudertechnisch) ook weinig aan de hand. Er waren misschien wat roddels, maar nVidia zou zijn Fermi tonen en alles draait gewoon door. Pas sinds duidelijk werd dat ze een stukje schroot toonden alszijnde Fermi werd er iets meer echt duidelijk. Als nVidia inderdaad stop met het leveren van de GT200 en Fermi niet snel komt, dan zal de echte daling van de aandelen niet lang op zich laten wachten.
Dat zal overigens ook inhouden dat het bestuur van nVidia in de problemen kan komen, aangezien deze al die tijd mooi weer heeft lopen spelen, terwijl duidelijk wordt dat het weer toch niet zo mooi was.

Maar dat blijft natuurlijk nog een beetje koffiedik kijken totdat er echt meer duidelijk wordt van Fermi.

Anoniem: 317606

dahakon schreef op woensdag 07 oktober 2009 @ 18:52:
[...]

Het gaat er natuurlijk niet alleen om of je winstmarges stijgen of stabiel blijven. Uiteindelijk gaat het er natuurlijk ook om of je uberhaupt iets kunt verkopen. Wanneer je niets te verkopen hebt, zul je sowieso verlies draaien. Daar schiet je als bedrijf natuurlijk helemaal niets mee op.
Mijn punt is dat het niet zo makkelijk is om er nog een GPU lijn te voeren. Distributeurs staan ook niet te springen om er naast Asus/MSI/Sapphire nog een serie videokaarten bij te doen (ook al zijn deze van hetzelfde merk). Een distributeur vinden is al moeilijk: de grote zeggen nee want die doen al ~4 merken; bij de kleinere maak je wel kans maar die doen niet genoeg volume.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ps: Ik denk nu dat: Iltech4=cloon=TheSource 8)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 06:10
Anoniem: 9449 schreef op woensdag 07 oktober 2009 @ 18:53:
Hoewel ik het mooi zou vinden als AMD eens wat meer de boventoon zou gaan voeren kan ik me nauwelijks voorstellen dat er wat serieus met nVidia aan de hand is. Anders had het aandeel toch allang gereageerd?

NVDA heeft het het afgelopen 1/2 jaar prima gedaan, de laatste paar weken misschien weer 10% eraf. Het bedrijf is bijna 2x zoveel waard als het gehele AMD. Denk niet dat dit soort berichten via dit soort kanalen bekend worden als het aandeel niet al gehalveerd is.
Wat is dat nou voor lulkoek?

Dat het aandeel AMD 1/2 de waarde heeft van het aandeel NVDA, wil nog niet zeggen dat het hele bedrijf de helft waard is!

Anoniem: 9449

dahakon schreef op woensdag 07 oktober 2009 @ 19:00:
Dat zal overigens ook inhouden dat het bestuur van nVidia in de problemen kan komen, aangezien deze al die tijd mooi weer heeft lopen spelen, terwijl duidelijk wordt dat het weer toch niet zo mooi was.
Ze hebben inmiddels nog maar $1 salaris las ik net...

Anoniem: 9449

whiteguy schreef op woensdag 07 oktober 2009 @ 19:04:
[...]

Wat is dat nou voor lulkoek?

Dat het aandeel AMD 1/2 de waarde heeft van het aandeel NVDA, wil nog niet zeggen dat het hele bedrijf de helft waard is!
Jij weet dus echt niet waar je het over hebt...

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 06:10
Anoniem: 9449 schreef op woensdag 07 oktober 2009 @ 19:06:
[...]

Ze hebben inmiddels nog maar $1 salaris las ik net...
Alsof dat wat boeit.

Ik zou graag met die gasten ruilen. (mits ik ook de optiepakketten er bij krijg).

Steve Jobs doet het geloof ik ook al jaren voor $1 per jaar. En toch is ie niet bepaald straatarm. Rara hoe kan dat.

Salaris omlaag, bonus omhoog. Per saldo om het even. Maar qua marketing wel een interessante move.
Pagina: 1 2 3 4 5 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee