Toon posts:

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 48 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 33.734 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44
http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

G 210 en GT 220 (eindelijk directX10.1)

http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce 210/310
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1


GTS 240 en GT 240 (Eindelijk GDDR5 :+)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_240_med_3qtr125.PNG
GeForce GT 240
  • GPU: GT215 (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 727 million
  • Unified shaders: 96
  • Shader clock: 1340 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
  • Memory Bandwidth: 28.8 32 54.4 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512/1024 MB
  • OpenGL: 3.2
  • Consumption: idle 9 - max 69 (40 gemeten) watt
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_240_med_3qtr125.png
GeForce GTS 240
  • GPU: ?? (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ?? million
  • Unified shaders: 112
  • Shader clock: 1620 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • OpenGL: 3.2
  • Consumption: 120 watt (max)
  • Power Connectors: 9-pin pci-e
  • Enkel OEM
  • Sli: 2-way
  • DirectX: "compute"

GT 200 (oldies :p)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_260_med_3qtr75.png
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_280_med_3qtr75.png
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_260_med_3qtr75.png
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_275_3qtr_low75.png
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_285_low_3qtr75.png
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

http://lightdestroyer.dommel.be/picture_library/tweakers/Quadro_FX5800_low_3qtr75.png
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100

http://lightdestroyer.dommel.be/picture_library/tweakers/Fermi3.PNG

Low End


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT???
  • GPU: GF108
  • Release Date: Q2? 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 32
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:OEM/Dell only(indien 32)?


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT????
  • GPU: GF106
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 128
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:low end

Toekomstige kaarten


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT 430
  • GPU: GF108
  • Release Date: 11/10/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • Unified shaders:96
  • Shader clock: 1400 MHz
  • ROP's: 4
  • Core Clock: 700 Mhz
  • Memory Clock: 800 - 900Mhz (GDDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Consumption: Officieel max 49 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTS 440
  • GPU: GF106
  • Release Date: Q2 2010 Uitgesteld naar Q3?
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:256
  • Shader clock: 1200 MHz
  • ROP's: 32
  • Core Clock: 580 tot 1160(hot clock) Mhz
  • Memory Clock: 720Mhz (GDDR5)
  • Memory Bandwidth: 92,160 GB/s
  • Memory Interface: 256 bit
  • Memory: 256?/512?/1024? MB
  • Texture Units: 64
  • Consumption: ??
  • Prijs: 160-180 euro



Mid-End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce-gts450-pcb75.jpg

GTS 450
  • GPU: GF106 (40nm)
  • Release Date: Q2 2010 Uitgesteld naar 13 september
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders:192
  • Shader clock: 1566 MHz
  • ROP's: 16
  • Core Clock: 789 983 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 60,16/90,24 57,6 GB/s
  • Memory Interface: 128 /192 bit
  • Memory: 512?/768?/ 1024/2048? MB
  • L2 Cache Size: 256KB
  • Texture Units: 32
  • Consumption: max 106 watt
  • Performatie: mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 768 MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 86,4 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 768MB (mogelijkheid voor 1536MB)
  • L2 Cache Size: 384KB
  • Texture Units: 56
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103243.jpg

GTX 460 1024MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 32
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 115,2 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • Texture Units: 56
  • L2 Cache Size: 512KB
  • Consumption: 160 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gtx_470_3qtr_low75.png

GTX 465
  • GPU: GF100
  • Release Date: eind mei 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 352
  • Shader clock:1215 MHz
  • Core Clock: 607 MHz
  • ROP's: 32
  • Pixel Fill Rate: 26.7 GP/s
  • Memory Clock: 802 Mhz (GDDR5)
  • Memory Bandwidth: 102.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Consumption: max 200W


Tesla


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

Tesla C2050
  • GPU: Tesla T20
  • Release Date: "early" Q2 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 600-1200 MHz
  • Memory Clock:900 MHz (GDDR5)
  • Memory Bandwidth: 172.8 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 3GB GDDR5
  • Consumption: 190W(typical)
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG

Tesla C2070
  • GPU: Tesla T20
  • Release Date: Q3 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 480??
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 700-1400 MHz
  • Memory Clock:1000Mhz (GDDR5)
  • Memory Bandwidth: 192 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 6 GB (GDDR5)
  • Consumption:maximaal 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


Hight End


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX470.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt
  • Prijs: 349$


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX480.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt
  • Prijs: 499$


GTX490


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTX 490(volgens de geruchten)
  • GPU: 2*GF104
  • Release Date: Zomer 2010 ;(
  • Interface: PCI-E x16 2.0
  • Transistors: ?? miljard
  • Unified shaders: 336*2 ofwel 240*2
  • Shader clock:?? mhz
  • Core Clock:?? (hot clock) Mhz
  • ROP's: ??
  • Pixel Fill Rate: GP/s
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: ?? GB/s
  • Memory Interface: 2* 192? bit
  • Memory: ??? MB
  • Texture Units: ??
  • Consumption: "Extreme" Vermoedelijk 300Watt officiele TDP

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Het vroegtijdig overlijden van ons forumlid CJ:
The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
Nieuws: Nvidia brengt low-end GT 430-videokaart uit
Nieuws: Nvidia verkoopt videokaarten onder eigen naam
Nieuws: Nvidia GTS 450: DirectX 11 voor de massa
Nieuws: Arctic Cooling levert koeler voor nieuwe Sparkle GTX 480
Nieuws: Nvidia verliest hoger beroep over patenten van Rambus
Nieuws: Nvidia: 'gpu-problemen zijn achter de rug' (En nVidia bevestigd afwezigheid op de chipsetmarkt)
Nieuws: Benchmarks van GTX 480 met 512 Cuda-cores duiken op
Nieuws: Vermoedelijke specificaties GeForce GTX 460 duiken op
Nieuws: Zotac maakt 2GB-variant GTX460 met speciale koeler
Nieuws: Marktonderzoek: AMD heeft Nvidia ingehaald met gpu-verkopen

Externe nieuwsberichten:
Anandtech: Intel Settles With the FTC
http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

Zal nVidia op 20 september Fermi2 voorstellen?
Tech Report: Nvidia sets date for next GPU Technology Conference

Waarheidsfactor: 0.35%

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?

The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:

* Quadro Plex 7000, Quadro 6000, Quadro 5000, Quadro 5000M, Quadro 4000
* GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460
De allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce GT 430
Anandtech: Asus ENGT430
Guru3D: (Point of View)
[H]ard|OCP: Galaxy
HOT Hardware: (Asus)
TECHPowerup: ZOTAC

Reviews GeForce GTS 450
Guru3D (ASUS, eVGA, ECS, MSI, NVIDIA, Palit, Sparkle, KFA2 (Galaxy), Inno3D en Gigabyte
[H]ard|OCP: (MSI Cyclone)
HOT HardWare:(EVGA en Asus)
PC Perspective: (Galaxy)
the TECH Report (Referentie kaart)
TweakTown: (Galaxy)

Reviews van de GeForce GX460
Deze kan u vinden in Deel 47 van dit topic

Reviews van de GeForce GTX 465
Deze kan u vinden in Deel 47 van dit topic

Reviews van de GeForce GTX 470 en de GeForce GTX 480
Deze kan u vinden in Deel 46 van dit topic

Vorige Topics:Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce Qaudro in de Pricewatch
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum




Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
  • PV engine 4 bijvoegen
  • CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

[Voor 4% gewijzigd door lightdestroyer op 12-10-2010 17:09. Reden: Toevoeging GT 430]

Specs


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 22:39

epic_gram

undercover moderator

Mooie TS. Wat ik me afvraag, is er al iets bekend over de volgende generatie nVidia kaarten? Aangezien ATI dit jaar alweer met de 6xxx serie komt kan nVidia toch niet lang wachten?

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Waarom niet? Met fermi hebben ze ook erg lang gewacht (al dan niet onvrijwillig). Ik moet zeggen dat de GTX480 me niets tegenvalt, als ze daar nu een GTX495 mee maken of zo dan fietsen ze de HD5970 wel voorbij.

Heeft geen speciale krachten en is daar erg boos over.


  • Tjona100
  • Registratie: December 2006
  • Laatst online: 01:03
bwerg schreef op vrijdag 20 augustus 2010 @ 20:33:
Waarom niet? Met fermi hebben ze ook erg lang gewacht (al dan niet onvrijwillig). Ik moet zeggen dat de GTX480 me niets tegenvalt, als ze daar nu een GTX495 mee maken of zo dan fietsen ze de HD5970 wel voorbij.
Met een enorm stroomverbruik gepaart. een GTX 480 verbruikt al bijna net zo veel als een 5970 zoniet zelfs iets meer. ik wil wel een GTX 480 aanschaffen maar het stroomverbruik weerhoud me er wel van. Helaas dat een 5970 niet in mijn case gaat passen waar ik wel wat meer peformance mee heb.

[Voor 21% gewijzigd door Tjona100 op 20-08-2010 21:21]

FC: SW 1520-1563-8819


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik zie dat ik een typo heb gemaakt, ik doelde op de GTX460, de 768MB-variant heeft een stroomverbruik van 150W en is dus op volle kloksnelheid als dual-GPU-kaart in te zetten om binnen de 300W te blijven.

Heeft geen speciale krachten en is daar erg boos over.


  • Noel
  • Registratie: September 2001
  • Laatst online: 00:41
De enige realistische kaarten die er nu aan zitten te komen zijn:
- GF104 met alle cuda cores actief (-> GTX475?)
- GF104 dual gpu kaart (-> GTX490?)
- GF104 met alle cuda cores actief, dual gpu kaart (-> GTX495?)

Niet echt hoopvol als je concurrent met een nieuwe reeks komt eigenlijk...

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Dat geeft volgens mij aan dat er een snelle release van een dual GF104 aankomt. :9

Of evt. een GF100 refresh a la GF100b :+ (512 shader, koeler, zuiniger en sneller door verbeterd 40nm proces)
Een kleiner productieproces zit nu nog niet in de pijplijn, dus maybe gewoon een 512 Shader GTX48x refresh.

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 21TB HDD - 5.5TB SSD

De prijzen waren sowieso altijd al iets te hoog en met de GTX460 die vrij goedkoop is, moeten de andere producten natuurlijk ook in prijs zakken willen ze nog goed verkopen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Noel schreef op vrijdag 20 augustus 2010 @ 21:28:
Niet echt hoopvol als je concurrent met een nieuwe reeks komt eigenlijk...
De HD6000-kaarten die binnenkort komen zullen nou ook weer niet 75% sneller zijn dan de vorige serie (zoals van HD3000 naar HD4000 en van HD4000 naar HD5000 wél het geval was). Dan is een eventuele HD6000-kaart misschien wel sneller dan een GTX495 maar zo veel zal het nou ook weer niet schelen. Een dual GF104 lijkt me namelijk al een stuk sneller dan een HD5970. Dus dat zal wel goed komen. Misschien dat ATI dan wel iets in het voordeel is maar het zal zeker geen GF200 vs. HD5000 worden.

[Voor 7% gewijzigd door bwerg op 20-08-2010 23:33]

Heeft geen speciale krachten en is daar erg boos over.


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

*O* DUBBELPOST *O*

kom maar met die karma!

[Voor 141% gewijzigd door bwerg op 20-08-2010 23:34]

Heeft geen speciale krachten en is daar erg boos over.


  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

-The_Mask- schreef op vrijdag 20 augustus 2010 @ 23:16:
De prijzen waren sowieso altijd al iets te hoog en met de GTX460 die vrij goedkoop is, moeten de andere producten natuurlijk ook in prijs zakken willen ze nog goed verkopen.
Maar het verschil is nu nihil tussen een GTX460 1GB & GTX470 (E200,- - E230,-), dus er gaat toch echt wat veranderen in de line-up.
De prijsdaling van de GTX480 is iig om ruimte te maken voor het juiste prijskaartje van een dual-GF104 topmodel. ;)

Wat ook doorgeschemerd wordt is dat dit najaar (en dat is heel dichtbij nu) de huidige GTX480 vervangen zal worden door een GTX485 refresh, met 512 shaders, 20MHz hogere GPU-snelheid & 40MHz hogere Shader-snelheid. Ook zal deze refresh een aangepaste PCB & componenten krijgen om binnen de PCI-e specs te blijven qua stroomverbruik (max 300W). Al zijn dit geruchten die absoluut niet officieel zijn. :>

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 21TB HDD - 5.5TB SSD

bitshape schreef op vrijdag 20 augustus 2010 @ 23:36:
[...]

De prijsdaling van de GTX480 is iig om ruimte te maken voor het juiste prijskaartje van een dual-GF104 topmodel. ;)
Meestal doen ze dat toch zo laat mogelijk, verkoop stimuleren lijkt mij een betere reden.
Al zijn dit geruchten die absoluut niet officieel zijn. :>
Vraag mij de zin van zo'n kaart af als game kaart. Prestatieverschil is immers maar klein maar het aantal werkende chips die je krijgt ligt veel lager. Daarnaast dual GF104 gaat het veel beter doel met ongeveer hetzelfde verbruik.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

-The_Mask- schreef op zaterdag 21 augustus 2010 @ 00:04:
[...]
Meestal doen ze dat toch zo laat mogelijk, verkoop stimuleren lijkt mij een betere reden.
De huidige geproduceerde voorraad verkopen is bij een aankomende refresh dan ook erg gewenst.
[...]

Vraag mij de zin van zo'n kaart af als game kaart. Prestatieverschil is immers maar klein maar het aantal werkende chips die je krijgt ligt veel lager. Daarnaast dual GF104 gaat het veel beter doel met ongeveer hetzelfde verbruik.
Er zijn genoeg gebruikers die naast gamen ook gebruik maken van de CUDA/GPGPU functionaliteit, deze zijn altijd nog beter af met een single GF100 chip qua performance. In bvb Adobe CS5 kan er maar van 1 GPU gebruik gemaakt worden, dus dan zijn de extra shaders die een dual-GF104 (of GTX295) biedt gewoonweg waardeloos. ;)

Persoonlijk zou ik dus best interesse hebben in een GTX485, maar ik wacht met vervangen van mijn GTX295 op de High-End opvolger van de huidige GF100 GPU. SLI is erg leuk met gamen, maar heeft ook nadelen.

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 21TB HDD - 5.5TB SSD


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik weet niet hoe een dual gf104 sneller moet zijn dan de hd5970 gezien dat eigenlijk een dual hd5850 is.

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

tomcatha schreef op zaterdag 21 augustus 2010 @ 04:59:
ik weet niet hoe een dual gf104 sneller moet zijn dan de hd5970 gezien dat eigenlijk een dual hd5850 is.
SLI schaalt beter tov. Crossfire. ;)
Maar verwacht geen Enorme verschillen, maw. het is ook erg Game-afhankelijk.

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 21TB HDD - 5.5TB SSD

bitshape schreef op zaterdag 21 augustus 2010 @ 00:33:
[...]

De huidige geproduceerde voorraad verkopen is bij een aankomende refresh dan ook erg gewenst.
Er komt geen refresh.
Er zijn genoeg gebruikers die naast gamen ook gebruik maken van de CUDA/GPGPU functionaliteit, deze zijn altijd nog beter af met een single GF100 chip qua performance. In bvb Adobe CS5 kan er maar van 1 GPU gebruik gemaakt worden, dus dan zijn de extra shaders die een dual-GF104 (of GTX295) biedt gewoonweg waardeloos. ;)
Ik zei ook gamekaart, maar dan nog prestatiewinst is erg klein, maar het aantal werkende chips uit een waffer ligt dan veel lager.
bitshape schreef op zaterdag 21 augustus 2010 @ 05:19:
[...]

SLI schaalt beter tov. Crossfire. ;)
Maar verwacht geen Enorme verschillen, maw. het is ook erg Game-afhankelijk.
Leuk, maar twee GTX460's in SLi zijn ook langzamer dan een HD5970 en het verbruik ligt hoger.
reviews: Test: twee GTX 460-videokaarten in sli
Dus een dual GF104 maken die sneller is als een HD5970 en ook nog binnen de 300 Watt blijft zal wel niet erg gemakkelijk gaan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

-The_Mask- schreef op zaterdag 21 augustus 2010 @ 10:49:
Leuk, maar twee GTX460's in SLi zijn ook langzamer dan een HD5970
Mja, en voor het geld van een HD5970 koop je bijna 3 GTX460's. Dus dat is niet zo verwonderlijk.
-The_Mask- schreef op zaterdag 21 augustus 2010 @ 10:49:

Dus een dual GF104 maken die sneller is als een HD5970 en ook nog binnen de 300 Watt blijft zal wel niet erg gemakkelijk gaan.
En wie zegt dat die dual GF104 sneller dan een HD5970 moet worden? Ik vraag me af of dat het doel van nV is, en of het idd haalbaar is.

[Voor 5% gewijzigd door Format-C op 24-08-2010 10:15]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 29-05 15:08

superwashandje

grofheid alom

tuurlijk is dat het doel van nvidia. ze willen toch altijd de snelste zijn...tot nu toe konden ze dat niet dus was het altijd belangrijk om de snelste single gpu kaart te hebben maar als ze toch dual gpu gaan moet ie echt wel sneller worden dan de 5970.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

superwashandje schreef op dinsdag 24 augustus 2010 @ 10:24:
tuurlijk is dat het doel van nvidia. ze willen toch altijd de snelste zijn...tot nu toe konden ze dat niet dus was het altijd belangrijk om de snelste single gpu kaart te hebben maar als ze toch dual gpu gaan moet ie echt wel sneller worden dan de 5970.
Tsja, best kans dat dat ding het helemaal niet op moet nemen tegen de HD5970.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 27-05 17:16
superwashandje schreef op dinsdag 24 augustus 2010 @ 10:24:
tuurlijk is dat het doel van nvidia. ze willen toch altijd de snelste zijn...tot nu toe konden ze dat niet dus was het altijd belangrijk om de snelste single gpu kaart te hebben maar als ze toch dual gpu gaan moet ie echt wel sneller worden dan de 5970.
ik denk dat de HD5870 wel sneller kan krijgen dan een GTX480 als je er 100 watt extra gaat gebruiken. Maar inderdaad ik verwacht ook niet dat ze een snellere dual gpu kaart kunnen maken. als je kijkt naar het huidige verbruik.

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 29-05 15:08

superwashandje

grofheid alom

neliz schreef op dinsdag 24 augustus 2010 @ 12:09:
[...]


Tsja, best kans dat dat ding het helemaal niet op moet nemen tegen de HD5970.
je bedoelt de HD6 serie... Ja zou kunnen maar zoals ik al zei: als ze toch voor dual gpu gaan zullen ze echt wel zorgen dat de prestaties over die van de 5970 heen gaan. of ie het tegen die tijd daartegen op moet nemen is een 2e

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Format-C schreef op dinsdag 24 augustus 2010 @ 10:12:
[...]
Mja, en voor het geld van een HD5970 koop je bijna 3 GTX460's. Dus dat is niet zo verwonderlijk.
Daarentegen heb je voor die drie GTX460 kaarten wel een duur moederbord nodig waar je 3 van die kaarten op kunt plaatsen, terwijl je HD5970 op elk el-cheapo bordje past wat je nu in de winkel tegen komt. Het verschil is al gauw de prijs van zo'n GTX460.

Overigens zou nVidia normaalgesproken maar wat graag de prestatiekroon weer overnemen, maar heeft het simpelweg geen chips die dat (al dan niet in X2-configuratie) binnen de PCI-E 2.0 specs kunnen doen. Daarnaast zal er ook het besef zijn dat AMD zijn SI dit jaar nog uit wil brengen, waardoor kleine overwinningen opeens weer totaal waardeloos kunnen zijn.

GF104 is zeker geen slechte chip voor de consument, wegens de prijs die nVidia voor de kaarten waarop ze zitten vraagt. Het is echter niet de redding die ze momenteel hard nodig hebben om de prestatiekroon te kunnen grijpen.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 00:32

Format-C

Rays aan het Tracen

dahakon schreef op dinsdag 24 augustus 2010 @ 15:42:
[...]


Daarentegen heb je voor die drie GTX460 kaarten wel een duur moederbord nodig waar je 3 van die kaarten op kunt plaatsen, terwijl je HD5970 op elk el-cheapo bordje past wat je nu in de winkel tegen komt. Het verschil is al gauw de prijs van zo'n GTX460.
Ik bedoel eigenlijk gewoon te zeggen dat de HD5970 ook weer een dikke klap duurder is dan 2 GTX460's... En dat het op zich begrijpelijk is dat die dan een stuk sneller is.

-Ik hoop dat er het einde van het jaar nog een hoop vuurwerk komt iig. Misschien koop ik me dan wel een keer weer een nieuwe PC, na een half jaar geen fatsoenlijke PC te hebben gehad. (Momenteel laptop)

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
dahakon schreef op dinsdag 24 augustus 2010 @ 15:42:
[...]
Daarentegen heb je voor die drie GTX460 kaarten wel een duur moederbord nodig waar je 3 van die kaarten op kunt plaatsen, terwijl je HD5970 op elk el-cheapo bordje past wat je nu in de winkel tegen komt. Het verschil is al gauw de prijs van zo'n GTX460.
Je vergeet voor het gemak ook even dat je slechts maximaal 2 GTX460s aan elkaar kunt koppelen in SLI. 3 kaarten kan, maar dan eentje voor PhysX (wat leuk is voor bepaalde benchmarks natuurlijk). :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ze gaan wel all-the-way by HardOCP: 8) :p

GTX 480 SLI PCIe Bandwidth Perf. - x16/x16 vs. x4/x4

Uiteindelijke conclusie is dus dat die hele x16vs x16/x8/x4 geen bal uitmaakt voor je prestaties.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Anoniem: 367985

380,- voor een GTX480 is een erg mooie prijs. 2 maandjes geleden betaalde ik nog 480,-

Denk dat ik er 1tje bij ga halen nu ze weinig meer kosten, WC blokje erop en tussen de loop hangen! :)

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 13-05 23:50

Xenomorphh

Soep met Ballen

http://www.semiaccurate.c...ge-about-nvidias-x86-cpu/

Interessant stukje van Charlie dat nVidia blijkbaar een x86 CPU aan het maken is. Maar hij denkt ook dat het nooit op de markt verschijnt.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 29-05 15:08

superwashandje

grofheid alom

volgens mij zou hij charlie niet zijn als hij niet zou vermelden dat het nooit gaat lukken

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.

Maar zo het nu staat kan nVidia hem natuurlijk ook helemaal niet op de markt brengen. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 22:39

epic_gram

undercover moderator

nVidia heeft geen eens een licentie voor X86 toch? AMD en intel willen nVidia uit die markt houden. VIA mag tot 2018 nog x86 cpu's maken, daarna zal nVidia het niet meer doen want dan hebben ze toch geen vermogen meer. Samsung zie ik als nieuwe speler. Die hebben geld, kennis, en fabrieken.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • Biff
  • Registratie: December 2000
  • Laatst online: 26-02-2018

Biff

waar zijn de visjes

Ach wat betreft vermogen.. ze hebben alleen al zo'n 2 miljard dollar in cash en geen schulden.

En hey in deze industrie is alles mogelijk, zelfs 6 miljard dollar schuld en 3 jaar op een rij bakken met geld verliezen hoeft geen probleem te zijn met wat hulp van ome Ali uit Abi Dhabi. :*)

Yeah well. The Dude abides.


  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 26-05 17:14

TGEN

Hmmmx_

Het hele verhaal komt me ook absurd over: een Transmeta-achtige truc uithalen met een ARM core om x86 code te draaien. Dat je een RISC core in een processor gebruikt met een CISC ISA is redelijk logisch, dat doen AMD en Intel immers ook, maar je gaat toch niet een licentie nemen op een vaststaande IP core omdat als werkpaard te gebruiken?

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • millman
  • Registratie: November 2005
  • Laatst online: 26-05 08:45

millman

6708Mhz @ -185c

epic_fail schreef op donderdag 26 augustus 2010 @ 20:52:
nVidia heeft geen eens een licentie voor X86 toch? AMD en intel willen nVidia uit die markt houden. VIA mag tot 2018 nog x86 cpu's maken, daarna zal nVidia het niet meer doen want dan hebben ze toch geen vermogen meer. Samsung zie ik als nieuwe speler. Die hebben geld, kennis, en fabrieken.
Je kan toch niet zeggen dat het heel slecht gaat met nVidia? Amd heeft een keer een slag gewonnen sinds lange tijd. De comeback met de gtx460 vind ik ook geen slechte en zal de komende kwartaalcijfers ook een kleine boost geven. Onvoorstelbaar dat je nVidia nu al wegstreept. En speculaties met samsung? Waar haal je dat nu weer vandaan? Die kunnen ineens wel een x86 cpu op de markt zetten zonder licenties? Het feit dat nVidia een poging doet is geen slechte keuze, al is het alleen maar om wat kennis op te doen. En het bewijst ook dat ze geld over hebben voor dit soort projecten. Net zoals Intel met het mislukte Larrabee project. Uit die ontwikkeling namen ze in ieder geval een hoop kennis mee!
TGEN schreef op vrijdag 27 augustus 2010 @ 02:50:
Het hele verhaal komt me ook absurd over: een Transmeta-achtige truc uithalen met een ARM core om x86 code te draaien. Dat je een RISC core in een processor gebruikt met een CISC ISA is redelijk logisch, dat doen AMD en Intel immers ook, maar je gaat toch niet een licentie nemen op een vaststaande IP core omdat als werkpaard te gebruiken?
uuhh, wow, hoop techiekbonen gegeten gister? ;)

[Voor 18% gewijzigd door millman op 27-08-2010 07:58. Reden: typo]

'Heb ik eindelijk mn kamer opgeruimd, is de wereld een puinhoop'


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 22:39

epic_gram

undercover moderator

millman schreef op vrijdag 27 augustus 2010 @ 07:55:
[...]

Je kan toch niet zeggen dat het heel slecht gaat met nVidia?
Nee maar ik verwacht niet dat het in 2018 net zo goed gaat met ze, aangezien intel en AMD allebei grafische kaarten bij/in hun processors verkopen. Dat gaat denk ik alleen maar meer worden en dan word nVidia alleen maar kleiner.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • millman
  • Registratie: November 2005
  • Laatst online: 26-05 08:45

millman

6708Mhz @ -185c

epic_fail schreef op vrijdag 27 augustus 2010 @ 08:03:
[...]

Nee maar ik verwacht niet dat het in 2018 net zo goed gaat met ze, aangezien intel en AMD allebei grafische kaarten bij/in hun processors verkopen. Dat gaat denk ik alleen maar meer worden en dan word nVidia alleen maar kleiner.
Hmm, daar zeg je me wat.. De oem markt zal dan zeker kleiner worden voor Nvidia en dat is volgens mij de grootste afzetmarkt? Tegen die tijd hebben ze daar vast al wat op gevonden. Only time can tell, maar logisch is het wel, goede redenering :)

'Heb ik eindelijk mn kamer opgeruimd, is de wereld een puinhoop'


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 13-05 23:50

Xenomorphh

Soep met Ballen

So as a quick recap of the tech specs of the GeForce GTS 450, it's based on the new 40 nm GF106 silicon, the die area is roughly 240 mm². The GPU has 192 CUDA cores, and a 128-bit wide GDDR5 memory interface holding 1 GB of memory. The core is clocked at 789 MHz, and memory at 902 MHz (3608 MHz effective), translating into 57.8 GB/s of memory bandwidth, CUDA cores at 1566 MHz. It supports 2-way SLI, and gives you access to the latest PC graphics technologies, including support for DirectX 11 and OpenGL 4.x, along with support for a wide range of NVIDIA-exclusive technologies. NVIDIA's GeForce GTS 450 will be released by mid-September.
http://www.techpowerup.co...Clock_Speed_Surfaces.html

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 26-05 17:14

TGEN

Hmmmx_

millman schreef op vrijdag 27 augustus 2010 @ 07:55:
[...]


uuhh, wow, hoop techiekbonen gegeten gister? ;)
Zo onduidelijk was ik toch niet? :/

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik vind de gtx460 helemaal niet zo'n comeback, het was eigenlijk het minste wat het zou moeten zijn. Het is echter alleen de eerste niet slechte 4xx serie kaart. Tuurlijk het is beter/sneller dan een hd5830 maar dat is dan ook meteen de slechtste van alle hd5xxx kaarten.

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 22:39

epic_gram

undercover moderator

tomcatha schreef op vrijdag 27 augustus 2010 @ 15:31:
Ik vind de gtx460 helemaal niet zo'n comeback, het was eigenlijk het minste wat het zou moeten zijn. Het is echter alleen de eerste niet slechte 4xx serie kaart. Tuurlijk het is beter/sneller dan een hd5830 maar dat is dan ook meteen de slechtste van alle hd5xxx kaarten.
Ik ook niet, het was een jaar later, hij verbruikt meer stroom dan een HD5850, presteerd toch wel minder dan een HD 5850 en er zijn geruchten dat er wederom brak soldeer is gebruikt. Gelukkig schaalt SLI wel goed, en is de prijs/kwaliteitsverhouding prima. Ze hadden hem alleen iets eerder moeten introduceren.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
millman schreef op vrijdag 27 augustus 2010 @ 07:55:
Amd heeft een keer een slag gewonnen sinds lange tijd.
Denk dat je een paar slagjes gemist hebt ;)

specs


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:08
tomcatha schreef op vrijdag 27 augustus 2010 @ 15:31:
Ik vind de gtx460 helemaal niet zo'n comeback, het was eigenlijk het minste wat het zou moeten zijn. Het is echter alleen de eerste niet slechte 4xx serie kaart. Tuurlijk het is beter/sneller dan een hd5830 maar dat is dan ook meteen de slechtste van alle hd5xxx kaarten.
Ik vind het absoluut stellen dat de 4xx serie slecht is tamelijk overdreven trouwens. Als de prijs juist is het toch een prima game-kaart, ben erg tevreden met mn GTX480 omdat ik er 350 euro voor betaald heb en de 379 die ze er nu voor vragen is ook helemaal niet slecht ivg met de HD5870. GTX470 idem dito ivg met de HD5850.
Bij launch vond ik het allemaal een stuk teleurstellender dan nu. Nu vind ik het wel een goed concurrerende serie.

anathema


  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 27-05 10:06
Toch denk ik dat we kunnen stellen dat de GF100 producten "mislukt" zijn.

De markt waarbinnen deze producten (met uitzondering van de GTX465) gepositioneerd worden vertegenwoordigd maar een heel klein segment van de totale GPU markt. Het is dus heel erg lastig om een chip producent drijvende te houden op alleen het topproduct. Toch denk ik dat de top GPU's een zeer belangrijk onderdeel zijn van de line-up, namelijk als die van vlaggenschip. Goede vlaggenschepen stralen hun dominantie af op de rest van de vloot. Laat GTX480 dan wel de single GPU prestatie kroon in handen hebben, de reviews waren niet onverdeeld positief; too little, too late, too hot - we kunnen het ons allemaal nog wel herinneren. Het is simpelweg niet het vlaggenschip dat hoort bij een briljante line-up. In dat opzicht is het product gefaald.

Wat heel erg opvallend is, is dat de GTX460 nu de rol van vlaggenschip een beetje over moet nemen; "The best GPU we ever produced". De marketing strategie die nVidia introduceerde door het topmodel niet alle cores actief te hebben kan heel interessant zijn - en ik wacht dan ook met smart op de cijfers van Q3, waarin duidelijk wordt of een stukje silicium ter grootte van een Evergreen chip de omzet- en winstcijfers genereert die nVidia hoopt. En dus de 4xx serie redt.

We gaan het zien.

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 28-05 10:55

Tomas Hochstenbach

Redacteur componenten
In de Bulgaarse webshop JAR Computers (http://jarcomputers.com/p_VCA1GASENGTS450DCUDI) is de GeForce GTS 450 opgedoken. Hoewel de prijs heel hoog is, en waarschijnlijk niet klopt, zijn de uitgelekte specificaties nu bevestigd.

Het gaat om de ASUS ENGTS450 Direct CU/DI/1GD5, een GTS 450 met 1 GB GDDR5-geheugen op 900MHz (3600MHz effectief) en een 128-bit geheugenbus. De klokfrequentie van de GPU is 783MHz, maar over de shaders wordt niet gerept. Dit zouden er echter 192 zijn, volgens de geruchten. De videokaart is 21,6 centimeter lang.

De productcode van de ENGTS450 Direct CU/DI/1GD5 van ASUS is VCA1GASENGTS450DCUDI.

Eerst werd nog gedacht dat de klokfrequentie voor de GPU op 789MHz zou liggen. Dat blijkt dus 6MHz lager, een verschil dat normaal is. De geheugenfrequentie is bijgesteld van 3608 naar 3600MHz en daardoor is de uitgelekte shaderfrequentie van 1566MHz niet meer betrouwbaar. Rond dat cijfer zal de frequentie overigens wel liggen.

SLI met maximaal 2 videokaarten is mogelijk. Er is 2x DVI en 1x mini-HDMI aanwezig. Stroom gaat via een zespins connector. De launch zou plaatsvinden op 12 september.
(via www.cvea.nl)

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
Waarom altijd van die achterlijke kloksnelheden? :P
Doe dan gewoon 780 of 790mhz...

  • millman
  • Registratie: November 2005
  • Laatst online: 26-05 08:45

millman

6708Mhz @ -185c

TGEN schreef op vrijdag 27 augustus 2010 @ 13:22:
[...]

Zo onduidelijk was ik toch niet? :/
Ik snap veel maar dat stukje ging in 4 regels dieper dan mijn vriendin zou willen. ;) Lag niet aan je uitleg, maar waarschijnlijk meer aan mijn gebrek aan diepgaande kennis.

'Heb ik eindelijk mn kamer opgeruimd, is de wereld een puinhoop'


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik denk dat de grootste reden waarom de gt4xx serie mislukt is, is vanwege de hoge productie kosten. Zelfs de gtx460 heeft nog een grotere chip dan een hd5870.

  • millman
  • Registratie: November 2005
  • Laatst online: 26-05 08:45

millman

6708Mhz @ -185c

tomcatha schreef op zondag 29 augustus 2010 @ 05:58:
Ik denk dat de grootste reden waarom de gt4xx serie mislukt is, is vanwege de hoge productie kosten. Zelfs de gtx460 heeft nog een grotere chip dan een hd5870.
Voor wie is dat een probleem dan? Ik ben heel tevreden met mn gtx480 en al die verhalen vind ik allemaal wel meevallen. Ok, ik heb m iets ondervolt en wat shin-etsu pasta op gedaan en de temps komen ingame niet hoger dan 80c met een max fanspeed van 70%. Scheelt zo'n graad of 3. En dat de die-size van een GTX460 groter is dan een 5870 boeit voor de consument dus geen drol. Slecht argument dus. Dat dat voor Nvidia een dure chip is maakt niet uit, de 460 kan prima voor concurrerende prijzen verkocht worden en is toch aardig bang 4 buck dacht ik zo. Al dat elkaar napraten is nergens goed voor, eerst maar eens zelf ervaren.

'Heb ik eindelijk mn kamer opgeruimd, is de wereld een puinhoop'


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:08
Ja, waarschijnlijk moet Nvidia hem nu iets te goedkoop verkopen en is het daarom niet de meest winstgevende chip voor Nvidia. (en dit alleen op basis van die size, wat natuurlijk veel te kort door de bocht is. Er spelen wel meer factoren mee in productiekosten).

Maar op basis hiervan wordt dan vaak, vooral voor de GTX470/480, de conclusie getrokken dat het dus een slechte chip is en het af te raden is om deze te kopen. Dat vind ik onzin, het is een prima chip en zolang de prijs goed is is er niets mis mee. Prijs/kwaliteit doet nu absoluut niet onder voor ATI, integendeel.(ook al omdat extra stroomkosten vaak zwaar overdreven worden en het geluid in mijn ervaring reuze meevalt).

anathema


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessant, de low end discrete van AMD en nVidia komt weer meer onder druk:

Sandy Bridge Integrated Graphics Performance

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja maar de SB moet het min of meer opnemen tegen Llano toch ?

Anoniem: 292676

ja ik denk dat ze voor dezelfde markt gaan

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 27-05 10:06
Neliz! _/-\o_

I'm not an expert, but it looks like 2-1 for ATi...

Enig idee wat die ASUS meer moet kosten dan het referentiemodel?? Ik denk dat de crux daar toch een beetje in gaat zitten...

EDIT: Tenzij je FarCry 2 wil spelen...

Dat is wel vreemd...

[Voor 14% gewijzigd door Helixes op 31-08-2010 14:24. Reden: Far Cry....]


Anoniem: 263922

Daar had meer in moeten zitten voor nvidia, al is de hd57xx reeks wel sterk

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
dammit Neliz ik had ze ook net gespot :p

Dit vind ik nog een interessantere



Gemiddeld dus iets langzamer dan de 5770, terwijl die wel duurder is!

40W is trouwens behoorlijk veel op een TDP van 108 (5770) :o Maar waar staat dat verbruik dan in die review...?

[Voor 18% gewijzigd door Stefanovic45 op 31-08-2010 21:00]

Tesla Model Y RWD / 5.4 kWp PV installatie


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Helixes schreef op dinsdag 31 augustus 2010 @ 14:21:
Neliz! _/-\o_

I'm not an expert, but it looks like 2-1 for ATi...

Enig idee wat die ASUS meer moet kosten dan het referentiemodel?? Ik denk dat de crux daar toch een beetje in gaat zitten...

EDIT: Tenzij je FarCry 2 wil spelen...

Dat is wel vreemd...
Buiten het feit dat de review echt binnen 10 minuten van het web is getrokken (NDA date de 13de volgens Fudzilla, de 12e volgens enkele andere sites) denk ik niet dat kaarten met een andere koeler veel duurder zullen zijn.

die 450DirectCU stond bij die bulgaarse e-tailer voor $130 ofzo, zal wel rechtstreeks naar euri's vertalen m.a.w. direct tegenover de 5770.
http://www.fudzilla.com/g.../gts-450-listed-in-europe

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
In NL is de Asus variant al een tijdje opgedoken bij OBCS en MAX ICT, daar zijn ze € 150+. Dat zou niet veel goeds betekenen voor de GTS 450.

Tesla Model Y RWD / 5.4 kWp PV installatie


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

StefanvanGelder schreef op dinsdag 31 augustus 2010 @ 21:21:
In NL is de Asus variant al een tijdje opgedoken bij OBCS en MAX ICT, daar zijn ze € 150+. Dat zou niet veel goeds betekenen voor de GTS 450.
Als ik toch €150+ uit moest geven aan een videokaaart in die categorie op dit moment dan wist ik het wel:

pricewatch: MSI R5770 Hawk

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Anoniem: 263922

Of dat nu zo'n goede keus is, die koelers schijnen nu niet echt degelijk in elkaar gezet te zijn (scheve base etc.) miss dan toch een gts450 als je in die klasse gaat shoppen? Of je hebt een half jaar terug al een 5770 gekocht natuurlijk :P

Anoniem: 245699

De MSI 5770 Hawk is een mooie kaart, maar als je de MSI GTX460 Cyclone kan krijgen voor nog geen €20,- meer, dan weet ik het wel...

Als die benches van de GTS450 kloppen valt het me zeer tegen en lijkt het me ook echt dom van Nvidia! Prijs 'm dan twee tientjes goedkoper, want om nu een kaart 3/4 jaar later uit te brengen tegen de HD5770 en dan 5-8% langzamer te zijn, duurder en meer verbruik is niet anders als slecht.

  • PatrickH89
  • Registratie: November 2009
  • Laatst online: 28-05 20:09
3/4 jaar geleden was iedereen met z'n 8800GT aan het spelen...

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 263922 schreef op woensdag 01 september 2010 @ 00:33:
Of je hebt een half jaar terug al een 5770 gekocht natuurlijk :P
Zoals ik, 140 euro voor een OC versie van de 5770 1Gb :)
Anoniem: 245699 schreef op woensdag 01 september 2010 @ 01:28:
Als die benches van de GTS450 kloppen valt het me zeer tegen en lijkt het me ook echt dom van Nvidia! Prijs 'm dan twee tientjes goedkoper, want om nu een kaart 3/4 jaar later uit te brengen tegen de HD5770 en dan 5-8% langzamer te zijn, duurder en meer verbruik is niet anders als slecht.
Waarschijnlijk dat ze het graag goedkoper zouden willen maken maar dat ze gewoon niet anders kunnen i.v.m. de kosten. GF106 heeft een die size van 240mm2 terwijl de RV840 een die size van maar 170mm2 is. Dat is een relatief verschil van 1.4. De GF106 wat productiekosten betreft dus 40% duurder dan een RV840 chip. Waarschijnlijk dat de PCB ook goedkoper is 128bits t.o.v. 192bits ? Ook zal het geheugen bij ATI goedkoper zijn omdat ze meer kaarten met GDDR5 hebben en dus grotere orders plaatsen wat resulteert in relatief goedkopere GDDR5 chips ;) ATI is "lekker" aan het cashen een HD4870 ging aan het eind nog net voor dat de HD5xxx serie er kwam voor z'n 150 euro over de toonbank en qua productiekosten was die veel duurder dan een HD5770. 256bits t.o.v. 128bits en de 256mm2 t.o.v. de 170mm2.

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Meer pics etc.

http://www.xtremesystems....hp?p=4532422&postcount=39


Asus kaart draait dus op 925 MHz versus de base 783 MHz.

[Voor 15% gewijzigd door neliz op 01-09-2010 11:21]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 21:20
Dus de HD 5770 is sneller, goedkoper en zuiniger? Ik kijk met vrees uit naar mijn eigen testresultaten :p

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Marc Rademaker schreef op woensdag 01 september 2010 @ 11:56:
Dus de HD 5770 is sneller, goedkoper en zuiniger? Ik kijk met vrees uit naar mijn eigen testresultaten :p
Misschien als je een sampletje clocked op 1 GHz ben je in ieder geval sneller? 8)7

[Voor 5% gewijzigd door neliz op 01-09-2010 11:57]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Anoniem: 245699

PatrickH89 schreef op woensdag 01 september 2010 @ 02:04:
3/4 jaar geleden was iedereen met z'n 8800GT aan het spelen...
Uhhh, 3/4 = drie kwart, anders had ik wel 3-4 jaar getyped...

Voor de GTS450 ziet het er dan niet zo goed uit, maar ik denk dat Nvidia hoopt op veel OC kaarten van de fabrikanten zodat het gat tussen de 'standaard' HD5770 kleiner wordt. En met genoeg OC kaarten zal de concurrentie er wellicht voor zorgen dat die kaarten niet eens veel duurder worden als de standaard geclockte modellen, dat zie je ook een beetje bij de GTX460.

[Voor 43% gewijzigd door Anoniem: 245699 op 01-09-2010 13:04]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 245699 schreef op woensdag 01 september 2010 @ 12:59:
[...]
Nvidia hoopt op veel OC kaarten van de fabrikanten zodat het gat tussen de 'standaard' HD5770 kleiner wordt.
nVidia heeft waarschijnlijk geen limieten gesteld aan zijn fabrikanten wat betreft OC's voor zijn kaarten om meer weerstand te kunnen bieden aan ATI. Kijk maar naar de GTX460 OC kaarten, die zijn niet misselijk wat betreft overclock. De vraag is wie straks de kosten gaat dragen als blijkt dat de kaarten de hoge OC's helemaal niet goed kunnen verdragen(op de langen termijn) want dat risico is er altijd zelfs als kaarten niet overgeclocked worden door fabrikanten en de producent(standaard clocks) kan blijken dat kaarten het massaal begeven omdat er iets niet helemaal klopt. Het lijkt me dat de fabrikanten zelf verantwoordelijk zijn voor de chips die ze als OC versie verkopen en dus niks kunnen verhalen bij nVidia. De enige reden waarom ATI niet het zelfde doet is waarschijnlijk dat ze hun AIB's willen beschermen. Als de fabrikant toch zijn kapotte OC versies bij de producenten kunnen verhalen dan is het heel logisch waarom ATI geen hoge OC's toestaat. En dan lijkt me dat deze hoge OC's van nVidia ze nog wel eens duur komen te staan...

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
Kwam dit tegen @ fudzilla. Een GT240 met een pci-e x1 aansluiting.

Is het mogelijk om een GT240 als Physx kaart in te zetten? Anders lijkt dit wel de ideale kaart.
Tuurlijk kan dat, maar PCI-e slot aan de achterkant een stukje uit veilen en er past een PCI-e x16 kaart in. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
Dit is toch een nettere oplossing :*.

Anoniem: 263922

Ik overclock al sinds mijn 7800gtx elke kaart die ik in mijn pc heb (huidige gtx295 uitgesloten), De 8800gts 640 die ik in bezit heb gehad heeft zeker een jaar op 675mhz core gelopen, memory weet ik niet zo gauw meer :P. Kaartje werkt tot op de dag van vandaag nog perfect bij diegene die hem overgekocht heeft, met diezelfde oc.

Beetje jammer dat het probleem met 8800 kaarten zo opgeblazen wordt, in real-life is het zo dat nvidia kaarten betrouwbaar zijn, op LAN-parties hoor je toch al gauw dat iemand met een defecte hd4870x2 zit (opvallend veel btw), en hier op tweakers lees je ook aardig veel over defecte hd58xx kaarten. 4870 karten kampen dan weer met hitte, heb er zelf een in bezit gehad (1gb versie) en daar kon je met de stock koeler makkelijk een eitje op bakken. Heb dat ding een keer aangeraakt, meteen blaren op twee vingers ;( , daarnaast ook vreemde issues zoals die keer dat ik opeens niet meer kon overclocken, ding heeft 900mhz gelopen maar opeens wou die nog geen mhz omhoog.

Ati-kaarten presteren dan wel prima, verbruik is voorbeeldig en het geluid blijkt bij deze generatie een stuk lager te liggen dan bij de hd4 serie, maar die aparte bugs weerhouden mij atm toch ervan om zo'n kaart te halen. het is te vergelijken met auto's: een amerikaan met een grote v8 of een japanner met een opgepepte 2,0liter motor, de v8 verbruikt meer maar leidt stukken minder slijtage, en gaat dan ook veel langer mee. Een goed voorbeeld is te vinden bij klassiekers, als ik in de bus naar school zit zie ik al gauw 5 amerikaanse auto's uit de jaren 60-70 staan, japanse klassiekers zijn dun gezaaid. Nu is nvidia een amerikaans bedrijf en dat is imo ook te zien aan de kaarten, enorm degelijk gebouwd en bij mij persoonlijk in ruim 7 jaar tijd 0,0 problemen tegengekomen. ATI is zover ik weet een canadees bedrijf, weet zover geen vergelijking te trekken maar dat is wat mij betreft de japanner in dit verhaal, de 4870 die ik had had geweldige performance, maar dat ging ten koste van geluid, hitte en onnodige problemen.

Nu ligt bij een ieder de voorkeur anders, ik persoonlijk hou er niet van als er problemen zijn, en als het achteraf aan een onderdeel blijkt te liggen baal ik daar van. Ik ben dan wel niet zo'n hardcore gamer, maar als ik een spel wil spelen oid, dan hoort de pc gewoon te werken zonder problemen, en dat weet nvidia mij al jaren te bieden. Ben wel van plan om in de toekomst nog eens ati te proberen, maar nvidia heeft er denk ik geen boodschap aan hoe goed een serie van ATI wel niet is. Ze weten klanten te bieden omdat het product voldoet aan de wens van de consument.

Concluderend stel ik dan ook dat die overclock op die kaarten weinig kwaad kan, iedere chip reageert natuurlijk anders, anders binnde men bv. iedere gtx460 wel op 900mhz. Waar ik persoonlijk dan wel blindelings op vertrouw is het pcb van een nvidia kaart, en een custom pcb met overdadige koeling zoals die colorful kaart op 900mhz zal dan ook zeker een behoorlijke bedrijfstijd hebben.

  • penetreerbeer
  • Registratie: Februari 2005
  • Laatst online: 24-05 10:18
Iedereen heeft natuurlijk zijn eigen ervaringen en zijn eigen voorkeuren. De ene zweert bij een bepaald merk en de ander heeft een voorkeur voor een bepaald merk, en nog een ander koopt wat er het beste is op het moment van aankoop.
Zat genoeg mensen die nog nooit problemen gehad hebben met een HD5xxx of HD4xxx. En zat genoeg mensen die massas problemen gehad hebben met een GT8xxx of een GTX2xx. Meestal is dit gewoon pech dat je een kaart ontvangt die niet helemaal lekker loopt of juist volgens zijn spec loopt en niet meer over te clocken is.

En Ati mag dan wel van oorsprong een Canadees bedrijf zijn. Zowel Nvidia als Ati laten hun chips maken bij TSMC en dat is in Taiwan. En wanneer Ati naar GlobalFoundries gaat zullen de chips in Duitsland gemaakt worden (en misschien later zelfs in Amerika, zelfde voor AMD)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Beetje jammer dat het probleem met 8800 kaarten zo opgeblazen wordt, in real-life is het zo dat nvidia kaarten betrouwbaar zijn, op LAN-parties hoor je toch al gauw dat iemand met een defecte hd4870x2 zit (opvallend veel btw), en hier op tweakers lees je ook aardig veel over defecte hd58xx kaarten.
- Januari 2007: 8800 GTS-640 aangeschaft
- Juli 2008: RMA op bovenstaande kaart, hartstikke dood zonder dat ik deze had overgeklokt. 9800 GTX als vervanging gekregen (zonder bijbetalen, geweldig van Paradigit).
- Augustus 2009: Bovenstaande ook weer terug, ditmaal had ik wel overgeklokt, maar lang niet zo ver als de meeste mensen met deze kaart (800/1200/2000 op core/mem/shaders; 850/1250/2200 haalden de meesten makkelijk)

Overdreven? Niet echt lijkt mij, want de manier waarop mijn G80 is overleden is waarschijnlijk de meest voorkomende manier bij die chip - gewoon vanuit het niets. Achteraf gezien had ik hem waarschijnlijk gewoon even moeten bakken, hoewel ik dat eigenlijk een belachelijke oplossing vind. Met die eerste 9800 GTX heb ik gewoon pech gehad, aangezien dat al G92 is. Alles is ook altijd goed gekoeld geweest, dus het is niet zo dat ik de handel heb gekookt.

Vorig jaar had ik wel genoeg van het gezeik en ben ik weer eens naar ATI (laatste ATI daarvoor was de 9700) gegaan. Je leest inderdaad veel over 'problemen' met de kaart (die achteraf in 50% van de gevallen aan een gebruikersfout ligt met software), maar je leest niet hoe veel mensen er geen problemen mee hebben, die melden zich uiteraard niet. Ik heb geen grijze strepen probleem gehad, geen rare fan geluiden, geen BSODs, helemaal niks. Deze kaart draait als een zonnetje, en ik draai hem al vanaf het begin met 975/1220 als 3D clocks; kan makkelijk nog hoger, maar deze clocks doet hij zonder voltage verhoging, dus dat is wel prettig (en hij is al rap zat zo).

Je kunt niet zeggen dat één van beide merken alles goed of fout doet. Beide hebben goede en slechte kaarten gehad. Als ik jou de keuze geef tussen een 9700 (pro of non-pro, doet er niet toe) of NVIDIA's tegenhangers van die tijd (TI 4600, en later de stofzuiger 5800), welke kies je dan? Andersom geldt hetzelfde, met de eerste Radeon of een GF2. Beide hebben ook problemen met dingen zoals hun fans gehad, waar bij sommige modellen deze begon te tikken na een half jaar.

Ikzelf heb dan ook geen voorkeur voor één van beide, je kunt altijd pech hebben. Binnenkort stap ik weer over naar NVIDIA omdat ik de 460 SLI opstelling heel interessant vind uitzien.
Overigens is mijn oude 9700 nog steeds in gebruik, heb deze in een PC gestopt voor m'n broertje en schoonzus. Oorspronkelijk een non-pro kaart die inmiddels 7 jaar op de BIOS van een Pro draait :D


Ik ben overigens niet zo onder de indruk van de GTS 450, zelfs met OC versies zit hij er met alles nét naast als je het mij vraagt.

[Voor 7% gewijzigd door Werelds op 02-09-2010 10:19]

Werelds schreef op donderdag 02 september 2010 @ 10:14:
Met die eerste 9800 GTX heb ik gewoon pech gehad, aangezien dat al G92 is.
Die heeft er net zoveel last van hoor, GeForce 7 serie had het ook al, misschien zelfs alle huidige nieuwe kaarten ook wel. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Beetje jammer dat het probleem met 8800 kaarten zo opgeblazen wordt, in real-life is het zo dat nvidia kaarten betrouwbaar zijn, op LAN-parties hoor je toch al gauw dat iemand met een defecte hd4870x2 zit (opvallend veel btw), en hier op tweakers lees je ook aardig veel over defecte hd58xx kaarten.
- December 2006: XFX 8800GTX 768MB aangeschaft. (1e batch)
- September 2010: kaart werkt nog steeds met 0,0 problemen; er wordt nog steeds actief mee gegamed.

Er zijn dus ook prima ervaringen, problemen hoor je gewoon sneller, vooral bij populaire modellen.

Mijn ervaringen met Nvidia zijn juist ook zeer goed, probleemloze kaarten en drivers.
Mijn ervaringen met Ati zijn juist niet zo goed, rare problemen met kaarten (hardware) en defecte kaarten, drivers zijn een klasse minder met vooral nieuwe games.

Intel/AMD hetzelfde verhaal, daarom heb ik uit ervaring een voorkeur voor een Intel/Nvidia combo.
Mijn ervaringen zijn over 12 jaar verspreidt.

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 21TB HDD - 5.5TB SSD


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 21:20
Em, jullie kunnen ontkennen wat jullie willen, maar nvidia heeft gewoon geld opzij gezet voor kaarten die dood gaan. Vooral voor laptops, maar desktopkaarten hebben last van hetzelfde euvel, alleen treed het minder op de voorgrond omdat de koeling van desktopkaarten stukker beter is dan in laptops. G80/G92 hebben gewoon een hogere failure-rate dan voorgaande series van Nvidia en dan van ATI-kaarten.

Je zou echter denken dat Nvidia niet graag nog een keer honderden miljoenen opzij zet voor defecte gpu's, en voorlopig lijkt het me verstanding om ze wat betreft de 400-serie gewoon het voordeel van de twijfel te geven.

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Marc Rademaker schreef op donderdag 02 september 2010 @ 10:46:
Em, jullie kunnen ontkennen wat jullie willen, maar nvidia heeft gewoon geld opzij gezet voor kaarten die dood gaan. Vooral voor laptops, maar desktopkaarten hebben last van hetzelfde euvel, alleen treed het minder op de voorgrond omdat de koeling van desktopkaarten stukker beter is dan in laptops. G80/G92 hebben gewoon een hogere failure-rate dan voorgaande series van Nvidia en dan van ATI-kaarten.

Je zou echter denken dat Nvidia niet graag nog een keer honderden miljoenen opzij zet voor defecte gpu's, en voorlopig lijkt het me verstanding om ze wat betreft de 400-serie gewoon het voordeel van de twijfel te geven.
Ondank de mogelijk hogere failure-rate (G80-G92) zou ik nog steeds een Nvidia-based kaart kopen. :>
Met Ati heb ik echt gewoon teveel problemen gehad, en dat wil ik absoluut niet weer herhalen. ;)

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 21TB HDD - 5.5TB SSD


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 16-05 14:38
[b][message=34623310,noline]Werelds schreef op donderdag 02 september 2010 @
Ikzelf heb dan ook geen voorkeur voor één van beide, je kunt altijd pech hebben. Binnenkort stap ik weer over naar NVIDIA omdat ik de 460 SLI opstelling heel interessant vind uitzien.
Overigens is mijn oude 9700 nog steeds in gebruik, heb deze in een PC gestopt voor m'n broertje en schoonzus. Oorspronkelijk een non-pro kaart die inmiddels 7 jaar op de BIOS van een Pro draait :D
Als je te lang komt dan is ATi er alweer met de 6770 die over een dikke maand komt en de GTX 460 aan de kant zal blazen qua prijs/prestaties :P

Tesla Model Y RWD / 5.4 kWp PV installatie


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

bitshape schreef op donderdag 02 september 2010 @ 10:55:
[...]

Ondank de mogelijk hogere failure-rate (G80-G92) zou ik nog steeds een Nvidia-based kaart kopen.
Het is niet "mogelijk" het IS.
Het grootste voordel dat nvidia heeft is dat kaarten pas na twee of drie jaar kapot gaan en de meeste mensen al zijn geupgrade of toch wilden gaan upgraden.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
bitshape schreef op donderdag 02 september 2010 @ 10:55:
[...]

Ondank de mogelijk hogere failure-rate (G80-G92) zou ik nog steeds een Nvidia-based kaart kopen. :>
Met Ati heb ik echt gewoon teveel problemen gehad, en dat wil ik absoluut niet weer herhalen. ;)
Je lijkt m'n ma wel, die weigert in Nissan's te rijden omdat ze slechte ervaringen heeft met Datsun; een merknaam die Nissan al bijna 25 jaar niet meer voert, en ik kan een Skyline toch niet bepaald een slechte auto noemen ;)

Werkt met GPU's precies hetzelfde, het is niet alsof ATI still heeft gezeten. Ja, de drivers zijn in het verleden behoorlijk bagger geweest, en CCC kan nog steeds wel iets leren van NVCP, maar qua performance en stabiliteit heb ik er geen problemen mee :p

Dat is ook de reden waarom ik niet bang ben terug naar NVIDIA te gaan, die G80/G92 problemen zijn al lang voorbij, en gezien het feit dat de 480 ondanks de hoge temperaturen (nog) geen hoge failure rates vertoont zal het echt wel in orde zijn.

@ StefanvanGelder: Zien we dan wel weer, huidige systeem gaat begin komende week weg, wacht momenteel op de levering van m'n NZXT Phantom :p
Ben heel erg benieuwd naar de Crossfire scaling van de 6770, als die net zo goed is als de SLI scaling van de 460 is dat inderdaad erg interessant! Kan de 460's altijd weer verkopen, blijven toch mooie kaartjes.
Werelds schreef op donderdag 02 september 2010 @ 12:04:
Dat is ook de reden waarom ik niet bang ben terug naar NVIDIA te gaan, die G80/G92 problemen zijn al lang voorbij, en gezien het feit dat de 480 ondanks de hoge temperaturen (nog) geen hoge failure rates vertoont zal het echt wel in orde zijn.
De G92 problemen zijn nog niet zo heel lang bezig hoor en van de zelf de GTX2xx serie is nog niets te zeggen die zijn gewoon te nieuw laat staan de GTX4xx serie.




http://www.fudzilla.com/g...dying-oced-gts-450-boards

[Voor 9% gewijzigd door -The_Mask- op 02-09-2010 12:39]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Biff
  • Registratie: December 2000
  • Laatst online: 26-02-2018

Biff

waar zijn de visjes

Tja, wat heeft deze discussie eigenlijk met Nvidia-nieuws te maken?

Maar goed, ik weet het ondertussen wel, liever twee tot drie jaar het plezier van het complete Nvidia-plaatje, zoals application profiles, drivers die nog eens regression-tested worden, 3D-support, Physx en gewoon werkende AA-fixes voor nieuwe games. Als eigenaar van zowel Fermi als Cypress kan ik slecht zeggen.. reviewers die doen alsof videokaarten tegenwoordig commodities waar je zomaar even van platform gaat wisselen omdat de ene minder warm wordt doen hun werk niet grondig genoeg. :/

Yeah well. The Dude abides.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Biff schreef op donderdag 02 september 2010 @ 12:43:
Tja, wat heeft deze discussie eigenlijk met Nvidia-nieuws te maken?
Als eigenaar van zowel Fermi als Cypress kan ik slecht zeggen.. reviewers die doen alsof videokaarten tegenwoordig commodities waar je zomaar even van platform gaat wisselen omdat de ene minder warm wordt doen hun werk niet grondig genoeg. :/
Volgensmij doen reviewers dit niet. Ze beoordelen de kaarten toch gewoon op alle facetten die van belang zijn voor potentiele kopers :? Beetje vreemd als warmte (en daaraan gekoppeld meestal verbruik) geen belangrijk onderdeel zou kunnen zijn in deze afweging.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Dura Ace
  • Registratie: Februari 2010
  • Laatst online: 20-10-2020
-The_Mask- schreef op donderdag 02 september 2010 @ 12:35:
[...]

De G92 problemen zijn nog niet zo heel lang bezig hoor en van de zelf de GTX2xx serie is nog niets te zeggen die zijn gewoon te nieuw laat staan de GTX4xx serie.
Ik wil de nieuwsdiscussie niet vervuilen maar volgens mij heeft ons aller anti-nVidia journalist Charlie al gezegd dat de GTX480 het zelfde euvel zou gaan vertonen door slechte underfill o.i.d. Voor wat het waard is: http://www.semiaccurate.c...ls-gf100gtx480-underfill/

Ik heb gelukkig nog geen enkel probleem met m'n 8800GTS 512 :)

[Voor 5% gewijzigd door Dura Ace op 03-09-2010 10:41]

Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711

Nvidia said to be planning chipset that combines GPU and southbridge



Nvidia has recently been developing a chipset that combines the functions of a southbridge and a GPU, with the goal of the product to reduce cost for PC makers as well as create more potential for smaller and lighter devices, according to sources from motherboard makers.

The makers stated that legal considerations, in terms of permission from Intel for Nvidia to participate in the chipset business, should be made smoother by the recent lawsuit the US Fair Trade Commission (FTC) took up with Intel. However, Intel is not expected to start any such negotiations with Nvidia in the near future, the sources speculated.

Therefore, Nvidia is developing the new chipset to bypass Intel's new Sandy Bridge architecture, which combines CPU and northbridge chipsets. Nvidia's expected business model would be for motherboard makers to purchase Intel's Sandy Bridge solution without the southbridge solution (Cougar Point). This would save the makers US$10-15, and that money could be applied to purchasing Nvidia's combo solution, though the sources did not comment on any Nvidia pricing

Ik vind het een leuk idee, als de uitvoering (SB heeft immers al een IGP) nu dat ook nog is, kan het ook nog wel wat worden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Leuk idee van nVidia maar de crux is dat Intel ze gewoon de pas kan afsnijden.

Ze kunnen immers de chipset verkopen tegen de kostprijs zodat Intel dus gewoon geen winst maakt op zijn chipsets. Dit is geen probleem voor Intel want ze kunnen nu de prijs op CPU's verhogen om de winst die ze mislopen met de chipsets te "compenseren". Het totaal pakket, CPU en mobo blijft de zelfde prijs behouden. Nvidia zijn chipsets zij onverkoopbaar geworden mits ze niet goedkoper te produceren zijn als die van Intel.
Aangezien Intel ze "in da house" in grotere getale produceert dan nVidia zullen hoe dan ook goedkoper zijn.

Behalve dat het hele plan hierdoor aan een zijden draadje hangt blijft de noodzaak en voordelen van het plan onbekend immers krijgt SB al een redelijke GPU mee.

Ik denk dat Intel hoe dan ook roet in het eten gaat gooien ze hebben ze niet voor niks geen licentie verkocht/gegeven.

We zullen zien, maar voorlopig blijf ik heel erg sceptisch.

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 20-08-2021

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 28-05 10:55

Tomas Hochstenbach

Redacteur componenten
Nieuwe mobiele videokaarten in de 400-reeks (GTX 470M t/m GT 415M).
Link: http://cvea.nl/viewtopic.php?f=15&t=903

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Biff schreef op donderdag 02 september 2010 @ 12:43:

Maar goed, ik weet het ondertussen wel, liever twee tot drie jaar het plezier van het complete Nvidia-plaatje, zoals application profiles, drivers die nog eens regression-tested worden, 3D-support, Physx en gewoon werkende AA-fixes voor nieuwe games. Als eigenaar van zowel Fermi als Cypress kan ik slecht zeggen.. reviewers die doen alsof videokaarten tegenwoordig commodities waar je zomaar even van platform gaat wisselen omdat de ene minder warm wordt doen hun werk niet grondig genoeg. :/
(8x)TSSAA in dx10+ games is voor mij zo'n geweldige plus, dat komt maar in weinig of geen reviews naar voren, terwijl dit zo'n enorme impact op je IQ heeft :9~
Adaptive AA bij ATI doet vaak geen ruk, terwijl ze met de grote(re) fillrate van de de HD58xx serie makkelijk wat mee kunnen doen.(de full SPSSAA is wel goed!)
Ik speel nu een tijdje met GTX480SLI en en ben erg te spreken over drivers, perf en IQ en ja, die paar watt, we zetten een paar lampjes uit :D

Niet op voorraad.


  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 29-05 16:51
De range van de nvidia kaarten vind ik beter uitzien dan die van ATI.

Bij ATI heb je 3 groepen:
High: 5870, 5850, 5830 (800sp)
Mid: 5770; 5750, 5730, 5650 (400sp)
Low: 5430, 5450, 5470 (80sp)

De verscchillen tussen de mid en low vind ik zeer groot. Tussen de high en mid valt het mee, door verschillende core snelheden en geheugen (gddr3 of gddr5).
Mijn inziens kan ATI beter met een kaart komen met rond de 200 sp om die gat op te vullen.

ALs je naar de line up van nvidia kijkt zijn de verschillen veel minder.
High: 480, 470, 460 (cuda cores: 352, 288, 192)
Mid: 445, 435, 425 420 (cuda cores: 144, rest 96)
Low: 415 (cuda cores 48 )

Er is een geleidelijker opbouw tussen de verschillende videokaarten. Ik denk persoonlijk dat de gt 415m sneller zal zijn dan de 54xx reeks van ATI. Verder heb ik het gevoel dat de 420 t/m 435 in notebooks zal zitten die in de prijsklasse van notebooks met de 54xx klasse, aangezien nvidia maar 1 low end model heeft, de oude moddelen niet meegerekend. Als deze vermoeden klopt kan nvidia zijn slag slaan in de notebook markt.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het gat tussen de 320 shaders en 80 shaders is wel groot maar dat heeft met kosten te maken.
Nu maakt ATI vier chips, Cedar(PRO), Redwood(LE, PRO en XT), Juniper(PRO en XT) en Cypres(LE, PRO en XT) als ze het gat tussen de 80 en 320 shaders dus willen vullen zullen om efficiënt te blijven i.v.m. yields nog een chip moeten maken. Wat niet echt lonend zal zijn.


En over de line-up van nVidia begin ik niet eens omdat die simpel weg nog niet compleet is, en toch maar miauwen om de line-up van ATI.
Zoek mij maar eens laptops met de door jou genoemde nVidia chips.
1. Ze zijn op één hand te tellen.
2. De prijzen zijn niet misselijk.
Dat is bij de ATI line-up toch wel net iets anders voor zo ver de goed geregelde line-up van nVidia t.o.v. ATI.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
karakedi schreef op zaterdag 04 september 2010 @ 04:20:
De range van de nvidia kaarten vind ik beter uitzien dan die van ATI.

Bij ATI heb je 3 groepen:
High: 5870, 5850, 5830 (800sp)
Mid: 5770; 5750, 5730, 5650 (400sp)
Low: 5430, 5450, 5470 (80sp)
Je lijstje is helaas verre van correct. Het ziet er meer alsvolgt uit:

HD5970: 3200 SP (640 volle shaderunits)
HD5870: 1600 SP (320 volle shaderunits)
HD5850: 1440 SP (288 volle shaderunits)
HD5830: 1120 SP (224 volle shaderunits)
HD5770: 800 SP (160 volle shaderunits)
HD5750: 720 SP (144 volle shaderunits)
HD5670/5570: 400 SP (80 volle shaderunits)
HD5550: 320 SP (64 volle shaderunits)
HD5450: 80 SP (16 volle shaderunits)


Er is dus veel meer diversiteit dan jouw post ons moet doen laten geloven. Daarnaast zijn er genoeg andere zaken van wezenlijk belang voor de uiteindelijke prestaties van een kaart, waardoor het onmogelijk is om een kaart in een segment te plaatsen, puur en alleen op basis van de shadercount.

Voor de rest zal een kaart met 160/240 SP weinig toevoegen aan de markt. Je kunt er niet bepaald beter je HD content mee afspelen en je kunt er evenmin echt mee gamen als je iets modernere spellen wilt spelen.

  • Noel
  • Registratie: September 2001
  • Laatst online: 00:41
karakedi schreef op zaterdag 04 september 2010 @ 04:20:
De range van de nvidia kaarten vind ik beter uitzien dan die van ATI.
Als je zelf de specificaties van de chips uit je duim zuigt, kan je er van maken wat je wilt natuurlijk. Als je zo'n post maakt, doe dan aub op z'n minst de moeite om ff langs wikipedia te gaan voor de juiste specs.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Overigens, de nieuwe nVidia mobile GPU's krijgen een behoorlijk goede review van Anand:

http://www.anandtech.com/...a-400m-dx11-top-to-bottom

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 29-05 16:51
Ik had over de mobile line up. Die gegevens heb ik direct van de site van ati en nvidia.

Het klopt dat er nog geen laptops zijn met de nieuwe chips, maar vind dat de line up veel potentie heeft.

[Voor 38% gewijzigd door karakedi op 04-09-2010 13:01]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
karakedi schreef op zaterdag 04 september 2010 @ 13:00:
Ik had over de mobile line up. Die gegevens heb ik direct van de site van ati en nvidia.

Het klopt dat er nog geen laptops zijn met de nieuwe chips, maar vind dat de line up veel potentie heeft.
Je was niet bepaald duidelijk in je post dat je het over mobile opties had, temeer omdat je over kaarten sprak. Maar goed, dat terzijde, kun je een hele mooie lineup hebben, als deze niet verkoopt aan OEMs, dan zal de consument er ook niet van kunnen genieten. Daarnaast geld nog steeds het verhaal dat het aantal SP's niet alles zegt. Segmentatie dmv kloksnelheden werkt ook prima.

Anoniem: 245699

Weet niet of het al voorbij is gekomen, maar meer gelekte benches van de GTS450;
- http://forum.beyond3d.com...php?p=1468440#post1468440

Ben nog steeds niet overtuigd en al helemaal niet als je ziet dat in de grafieken alleen de 5750 wordt vergeleken en niet de 5770...
De GTS450 mag wat dat betreft niet meer kosten dan zo'n €120,- want als ie rond de €140,- komt (wat volgens mij wel de bedoeling is) zie ik geen enkele reden om die kaart te kopen!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 21:20
Help!!!! schreef op zaterdag 04 september 2010 @ 11:21:
Overigens, de nieuwe nVidia mobile GPU's krijgen een behoorlijk goede review van Anand:

http://www.anandtech.com/...a-400m-dx11-top-to-bottom
Ik zou de 'review' eens lezen -_-

"Overall, we've seen a dramatic boost in core counts across the entire mobile family. What we haven't seen is much in the way of bandwidth improvements. How this will affect actually gaming remains to be seen, but NVIDIA is claiming average performance increases of around 40% compared to the older 300M series. We heard 30% faster performance with 480M versus 285M when that part launched in May, and we didn't quite get that in all games, but newer titles did tend to benefit more than older games."

Zo hebben nog niets getest... Ze hebben goede hoop, maar het valt nog te bezien hoe het daadwerkelijk uitpakt...
Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee