Toon posts:

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 50 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 30.875 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44
http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

G 210 en GT 220 (eindelijk directX10.1)

http://lightdestroyer.dommel.be/picture_library/tweakers/G210.PNG
GeForce 210/310
  • GPU: GT218 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 260 million
  • Unified shaders: 16
  • Shader clock: 1450 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 400 MHz (DDR2)
  • Memory Bandwidth: 8.0 GB/sec (DDR2)
  • Memory Interface: 64 bit
  • Memory: 512 MB
  • OpenGL: 3.2
  • Consumption: 30 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GT220.PNG
GeForce GT 220
  • GPU: GT216 (40nm)
  • Release Date: 12/10/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 486 million
  • Unified shaders: 16
  • Shader clock: 1360 MHz
  • ROP's: 8
  • Core Clock: 625 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 25.0 GB/sec (DDR2)
  • Memory Interface: 128 bit
  • Memory: 1024 MB (max)
  • OpenGL: 3.2
  • Consumption: 58 watt (max)
  • Power Connectors: geen
  • DirectX: 10.1


GTS 240 en GT 240 (Eindelijk GDDR5 :+)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_240_med_3qtr125.PNG
GeForce GT 240
  • GPU: GT215 (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: 727 million
  • Unified shaders: 96
  • Shader clock: 1340 MHz
  • ROP's: 8
  • Core Clock: 550 MHz
  • Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
  • Memory Bandwidth: 28.8 32 54.4 GB/sec
  • Memory Interface: 128 bit
  • Memory: 512/1024 MB
  • OpenGL: 3.2
  • Consumption: idle 9 - max 69 (40 gemeten) watt
  • Power Connectors: geen
  • DirectX: 10.1

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTS_240_med_3qtr125.png
GeForce GTS 240
  • GPU: ?? (40nm)
  • Release Date: 17/12/2009
  • Interface: PCI-E 2.0 x16
  • Transistors: ?? million
  • Unified shaders: 112
  • Shader clock: 1620 MHz
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec (GDDR3)
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • OpenGL: 3.2
  • Consumption: 120 watt (max)
  • Power Connectors: 9-pin pci-e
  • Enkel OEM
  • Sli: 2-way
  • DirectX: "compute"

GT 200 (oldies :p)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_260_med_3qtr75.png
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 44.8/65.4/136. watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_280_med_3qtr75.png
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: tot 50.2/78.9/236watt


GT 200

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_260_med_3qtr75.png
GeForce GTX 260 Core 216
  • GPU: D10U-20 (56 nm)
  • Release Date: 16/09/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 216
  • Shader clock: 1242 MHz
  • Texture Fill Rate: 36.9 (billion/sec)
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB
  • Consumption: tot 182 watt
  • Power connectors: 6-pin x2

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_275_3qtr_low75.png
GTX 275
  • GPU: D10U-?? (55nm)
  • Release Date: 2/04/2009
  • Interface: PCI-E x16 2.0
  • Transistors: ???
  • Unified shaders: 240
  • Shader clock: 1404 MHz(GDDR3)
  • ROP's: 28
  • Texture Fill Rate: 50.6 (billion/sec)
  • Core Clock: 633 MHz
  • Memory Clock: 1134 MHz
  • Memory Bandwidth: 127 GB/s
  • Memory Interface: 448
  • Memory: 896 MB GDDR3
  • Consumption: tot 219 Watt
  • Power Connectors: 6-pin x2


GT 200 (55nm versie)

http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GTX_285_low_3qtr75.png
GeForce GTX 285
  • GPU: ??? (55 nm)(OC'ed GT280)
  • Release Date: ??/??/200?
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1476 MHz
  • ROP's: 32
  • Core Clock: 648 MHz
  • Memory Clock: 1242 MHz (GDDR3)
  • Memory Bandwidth: 158.976 GB/sec
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)
  • Consumption: 45/70/200?? watt

http://lightdestroyer.dommel.be/picture_library/tweakers/GTX295.PNG
GeForce GTX 295
  • GPU: D10U-?? (55nm)(2xGT260 240core)
  • Release Date: 08/01/2009
  • Interface: PCI-E x16 2.0
  • Transistors: 1400x2 million +extra's
  • Unified shaders: 240 x2
  • Shader clock: 1242
  • ROP's: 28 x2
  • Core Clock: 576 Mhz
  • Memory Clock: 999 Mhz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec x2
  • Memory Interface: 448-bit x2
  • Memory: 896 MB (GDDR3)
  • Consumption: 80/120/289 Watt


GT 200 gebaseerde Quadro kaarten

http://lightdestroyer.dommel.be/picture_library/tweakers/fx4800.jpg
FX 4800
  • GPU: GT200GL (GTX 260 chips)
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 594 MHz
  • Memory Clock: 800 MHz (GDDR3)
  • Memory Bandwidth: 76.8 GB/sec
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Consumption: 150 watt

http://lightdestroyer.dommel.be/picture_library/tweakers/Quadro_FX5800_low_3qtr75.png
FX 5800
  • GPU: GT200GL (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 650 MHz
  • Memory Clock: 1632 MHz (GDDR3)
  • Memory Bandwidth: 102 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 4096 MB (GDDR3)
  • Consumption: tot ???/??/189Wwatt
ModelSp'sGeheugenBandbreedteVerbruikPrijs
FX 38001921GB51,2GB/s108W$900
FX 180064768MB38,4GB/s59W$600
FX 58032512MB25,6GB/s40W$150
FX 38016256MB22,4GB/s34W$100
NVS 2958256MB11,2GB/s23W$100

http://lightdestroyer.dommel.be/picture_library/tweakers/Fermi3.PNG

Instap level


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT???
  • GPU: GF108
  • Release Date: Q2? 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 32
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:OEM/Dell only(indien 32)?


http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_420_oem_low_3qtr75.png

GT420 OEM
  • GPU: GF108
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:48
  • Shader clock: 1400 MHz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: 900 MHz
  • Memory Bandwidth: 28.8 GB/sec
  • Memory Interface: 128 bit
  • Memory: 2048 MB DDR3
  • Consumption: max 50 Watt
    • Enkel OEM

Low End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gt_430_3qtr_low75.png

GT 430
  • GPU: GF108
  • Release Date: 11/10/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • Unified shaders:96
  • Shader clock: 1400 MHz
  • ROP's: 4
  • Core Clock: 700 Mhz
  • Memory Clock: 800 - 900Mhz (GDDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Consumption: Officieel max 49 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gt_440_3qtr_low75.png

GTS 440
  • GPU: GF106
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:144
  • Shader clock: 1189 MHz
  • ROP's: ??
  • Core Clock: 594 Mhz
  • Memory Clock: 800-900 Mhz (GDDR3)
  • Memory Bandwidth: 38.4-43.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 1.5 - 3.0 GB
  • Texture Units: ??
  • Beperkte 2-sli (zelfde fabrikant vereist)
  • Enkel OEM
  • Consumption: max 56 Watt



Mid-End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce-gts450-pcb75.jpg

GTS 450
  • GPU: GF106 (40nm)
  • Release Date: Q2 2010 Uitgesteld naar 13 september
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders:192
  • Shader clock: 1566 MHz
  • ROP's: 16
  • Core Clock: 789 983 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 60,16/90,24 57,6 GB/s
  • Memory Interface: 128 /192 bit
  • Memory: 512?/768?/ 1024/2048? MB
  • L2 Cache Size: 256KB
  • Texture Units: 32
  • Consumption: max 106 watt
  • Performatie: mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 SE
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 288 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 650 Mhz
  • Memory Clock: 850 Mhz (GDDR5)
  • Memory Bandwidth: 108,8 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • L2 Cache Size: 384KB
  • Texture Units: 48
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:Mid-end


High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 768 MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 86,4 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 768MB (mogelijkheid voor 1536MB)
  • L2 Cache Size: 384KB
  • Texture Units: 56
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103243.jpg

GTX 460 1024MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 32
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 115,2 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • Texture Units: 56
  • L2 Cache Size: 512KB
  • Consumption: 160 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


Tesla


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

Tesla C2050
  • GPU: Tesla T20
  • Release Date: "early" Q2 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 600-1200 MHz
  • Memory Clock:900 MHz (GDDR5)
  • Memory Bandwidth: 172.8 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 3GB GDDR5
  • Consumption: 190W(typical)
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG

Tesla C2070
  • GPU: Tesla T20
  • Release Date: Q3 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 480??
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 700-1400 MHz
  • Memory Clock:1000Mhz (GDDR5)
  • Memory Bandwidth: 192 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 6 GB (GDDR5)
  • Consumption:maximaal 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


Low High End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gtx_470_3qtr_low75.png

GTX 465
  • GPU: GF100
  • Release Date: eind mei 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 352
  • Shader clock:1215 MHz
  • Core Clock: 607 MHz
  • ROP's: 32
  • Pixel Fill Rate: 26.7 GP/s
  • Memory Clock: 802 Mhz (GDDR5)
  • Memory Bandwidth: 102.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Consumption: max 200W


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX470.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt


High End


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX480.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX580_75.png

GTX 570
  • GPU: GF110
  • Release Date: 7/12/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 480
  • Shader clock: 1464 Mhz
  • ROP's: 40
  • Pixel Fill Rate: ?
  • Core Clock: 732 MHz
  • Memory Clock: 950MHz (GDDR5)
  • Memory Bandwidth: 152 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 60
  • Texture Fill Rate: 43.9 (miljard/sec)
  • Consumption:219 Watt


High End


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX580_75.png

GTX 580
  • GPU: GF110
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3? miljard
  • Unified shaders: 512
  • Shader clock: 1544 Mhz
  • ROP's: 64
  • Pixel Fill Rate: ?
  • Core Clock: 772 MHz
  • Memory Clock: 1002 (GDDR5)
  • Memory Bandwidth: 192,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1512 MB
  • Texture Units: 64
  • Texture Fill Rate: 49.4 (miljard/sec)
  • Consumption:??


Geruchten


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX490_75.jpg

GTX 490 of 590(volgens de geruchten)
  • GPU: 2*GF104
  • Release Date: Zomer 2010 ;(
  • Interface: PCI-E x16 2.0
  • Transistors: ?? miljard
  • Unified shaders: 336*2 ofwel 240*2
  • Shader clock:?? mhz
  • Core Clock:?? (hot clock) Mhz
  • ROP's: ??
  • Pixel Fill Rate: GP/s
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: ?? GB/s
  • Memory Interface: 2* 192? bit
  • Memory: ??? MB
  • Texture Units: ??
  • Consumption: "Extreme" Vermoedelijk 300Watt officiele TDP


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTX 560
  • GPU: GF114
  • Release Date: februari 2011
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 384
  • Shader clock: 1640 Mhz
  • ROP's: 40?
  • Pixel Fill Rate: ?
  • Core Clock: 820 MHz
  • Memory Clock: 1000MHz (GDDR5)
  • Memory Bandwidth: 128 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 56??
  • Texture Fill Rate: ?? (miljard/sec)
  • Consumption:184 Watt

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Het vroegtijdig overlijden van ons forumlid CJ:
The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
Nieuws: Ook MSI en EVGA komen met GTX 460 SE-kaarten
Nieuws: Zotac introduceert GTX 460 SE met 288 Cuda-cores
Nieuws: Nvidia brengt nieuwe high-end kaart GTX 580 uit
Nieuws: Nvidia demonstreert GTX 580: koeler en stiller dan GTX 480
Nieuws: 'Nvidia komt half november met langzamere GTX 460'
Nieuws: Vermoedelijke foto's van GeForce GTX 580 opgedoken
Nieuws: Zotac werkt aan videokaart met twee GTX 460-gpu's
Nieuws: Nvidia brengt low-end GT 430-videokaart uit
Nieuws: Nvidia verkoopt videokaarten onder eigen naam
Nieuws: Nvidia GTS 450: DirectX 11 voor de massa
Nieuws: Arctic Cooling levert koeler voor nieuwe Sparkle GTX 480
Nieuws: Nvidia verliest hoger beroep over patenten van Rambus
Nieuws: Nvidia: 'gpu-problemen zijn achter de rug' (En nVidia bevestigd afwezigheid op de chipsetmarkt)
Nieuws: Benchmarks van GTX 480 met 512 Cuda-cores duiken op

Externe nieuwsberichten:
Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details :P)
China claims supercomputer crown

Anandtech: Intel Settles With the FTC

HotHardware: NVIDIA Unleashes Quadro 6000 and 5000 Series GPUs

http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

GTX 580
De gerucht doen de ronde dat nVidia "binnenkort"(pas volgend jaar) de nieuwe serie zal lanceren beginnende met de high-end kaart de GTX 580.
Echter zijn er 2 mogelijkheden:
• Een B1 versie van de huidige GTX480 fermi kaart waarbij het leakage probleem eindelijk onder controle gebracht is waardoor de clocks naar de oorspronkelijk beoogde snelheden gebracht kunnen worden.
Dit in samenwerking met het activeren van alle shaders (of CUDA cores genoemd).
• Een minder aanneembare optie, namelijk een nieuw "monsterchip" met het dubbel aantal Tmu's een 512bit brede databus (hoewel het vooral de memorycontroller was dat fermi1 parten speelde niet de bus zelf ..).
Ook deze zou hogere clocksnelheden moeten kunnen bereiken + over 512 shaders beschikken.

In beide gevallen zou de snelheidswinst een 20% zijn tegenover de huidige GTX 480 wat niet min is rekening houdende dat men blijft gebruik maken van dezelfde productieprocédé.

*update*: Het is de eerste optie geworden ;)

GTX570
De volgende high-end kaart die nVidia zal lanceren in de in de GTX500 reeks zal de GTX570 worden, vermoedelijk met evenveel cuda cores dan de huidige GTX480 (welke EOL is verklaard) én hoger geklokt.
Dit zou moeten bereikt worden door dezelfde optimalisaties die eerder zijn toegepast om de GTX580 te produceren (Mogelijk dezelfde chip maar met een cluster aan CUDA cores disabled?)

Waarheidsfactor: 85%

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?

The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:

* Quadro Plex 7000, Quadro 6000, Quadro 5000, Quadro 5000M, Quadro 4000
* GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460
De allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews van de GeForce GTX 570:
Hardware.info
AnandTech
bit-tech
Guru3D
Guru3D (Palit)
HardwareCanucks
[H]ard|OCP
HardwareHaeven
Legit Reviews
techPowerUp
TechSpot
TechRadar
Tom's Hardware

Reviews van de GeForce GTX 580:
Hardware.info
AnandTech
bit-tech
Guru3D
HardwareCanucks
[H]ard|OCP
HardwareHeaven
HOTHardWare
Legit Reviews
Overclockers Club
PC Perpective
techPowerUp
TechRadar
The Tech Report
TechSpot
Tom's Hardware


Vorige Topics:Gebruikerservaring:
Het Nvidia GTX4xx series ervaringen topic
nVidia GTX470/GTX480 Levertijden Topique

[Ervaringen] Bakken grafische kaart
Het doodgaan van GeForce 8000 serie kaarten

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce Qaudro in de Pricewatch
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum




Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
  • PV engine 4 bijvoegen
  • CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

[Voor 4% gewijzigd door lightdestroyer op 12-01-2011 16:59. Reden: Spellings fout + toevoegen van de vorige 2 topics+ toevoegen reviews, updaten GTX560 en GTX570 specs]

Specs


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 22-09 15:27
Ik mis bij de categorie 'Vorige Topic's' nummer 48 en 49 ;)

Voor de rest natuurlijk zoals altijd een zeer nette TS.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
*vergeten* *O* Viering van het 50ste topic *O*

Anyway dit nieuws is al reeds een week oud maar ik het het bericht toch niet zien passeren in het topic zodoende bij deze:
(Het is sowieso een bevestiging van iets dat iedereen al wist/zag aankomen)

Nvidia: We Are Not Building Chipsets Anymore. Nvidia nForce, GeForce Chipsets Officially Become History

Zoals je in het artikel en het AMD cpu topic kan lezen verwacht men dus dat men nog een tijdje chipsets zal produceren en verkopen voor het apple platform maar dat het daarna er toch mee gedaan is (AMD fusion wordt een goed alternatief indien Apple blijft vragen voor krachtige IGP chipsets).
Alhoewel men gisteren op oa de frontpage kon lezen dat Intel eindelijk OpenCL opdrachten zal kunnen laten uitvoeren door Sandy Bridge cpu's .. mogelijk is dat ook voldoende voor Apple.

In ieder geval krijgt nVidia hierdoor een zware klap te verwerken, daar het tot voor kort een grote omzet had aan gpu's die het aan Apple verkocht dit lijkt nu verleden tijd te gaan worden in de volgende refreshes.

In het zelfde artikel kunnen we trouwens een paar financiële cijfers terugvinden namelijk
Nvidia reported revenue of $843.9 million for the third quarter of fiscal 2011 ended October 31, 2010, up 4% from the prior quarter and down 6.6% from $903.2 million from the same period a year earlier. Sales of consumer GPUs - which includes sales of discrete GeForce chips and chipsets with integrated GeForce graphics cores - accounted for 68.9% ($581.9) of the company's sales.

On a GAAP basis, the company recorded net income of $84.9 million, or $0.15 per diluted share, compared with a GAAP net loss of $141.0 million, or $0.25 per share, in the previous quarter and GAAP net income of $107.6 million, or $0.19 per diluted share, in the same period a year earlier. GAAP gross margin was 46.5% compared with 16.6% in the previous quarter and 43.4% in the same period a year earlier.
Dus weer winst voor nVidia maar deze is betrekkelijk klein (kleiner dan het verlies van het vorige kwartaal), maar ook kleiner dan vorig jaar .. Anyway het ziet er naar uit dat het nog lang zal duren voor nVidia geldproblemen zal krijgen.

*edit*
Toettoetdaan schreef op vrijdag 19 november 2010 @ 09:48:
Ik mis bij de categorie 'Vorige Topic's' nummer 48 en 49 ;)

Voor de rest natuurlijk zoals altijd een zeer nette TS.
Héél scherp opgemerkt en volledig correct ik ben dit dus 2 TS totaal vergeten :D, direct aanpassen zie

[Voor 6% gewijzigd door lightdestroyer op 19-11-2010 09:52]

Specs


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-09 19:44
Alvast in je agenda zetten :P SLI en TRI-SLI review komt zondag online :)

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 20:14

superwashandje

grofheid alom

inclusief de eyefinity variant (vision?surround? vision surround?) met 3 schermen? 7680x1600 :9~ (moet toch ook speelbaar zijn met 2/3 van die monsters)

[Voor 44% gewijzigd door superwashandje op 19-11-2010 11:40]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Anoniem: 245699

Nvidia's dual chip card waits for Antilles

Nvidia zou deze kaart al praktisch klaar hebben? Ben benieuwd hoe betrouwbaar die bron is, want dat zou wel erg snel zijn. Verder vraag ik me af hoe ze de GF110 chip voor de dual-kaart willen gebruiken, want die moet dan wel enorm kreupel gemaakt worden. Ik had eerder het idee dat ze hiervoor de toekomstige GF114 voor zouden gebruiken zodat je een soort dual GTX560 zou krijgen met wat aanpassingen.
Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...

EDIT; Wel typerend dat er weer even wordt verwezen naar de geschiedenis van AMD(ATI) met grote chips (R600) en dat dit toen niet geweldig uitpakte en het nu maar afwachten is of het wel goed gaat komen met Cayman. Ze gaan wat dat betreft eigenlijk off-topic in hun eigen nieuwsbericht...

[Voor 18% gewijzigd door Anoniem: 245699 op 19-11-2010 13:39]


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
-The_Mask- schreef op vrijdag 19 november 2010 @ 12:13:
[...]

Wat zou anders het nut zijn van twee of drie zulke kaarten? :P
Counterstrike spelen met 666fps ?? })

Het grote nut aan zo'n reviews vind ik persoonlijk vooral dat je hierdoor de schalingsmogelijkheden kan bekijken.
Indien een cpu bottleneck ook of bv je cpu overklokken lineaire gevolgen heeft voor je fps ofwel dat het bv amper iets uitmaakt =P.
Indien een snellere CPU daadwerkelijk je fps serieus kan opkrikken hebben alle gamers weer een excuus erbij om volgend jaar over te stappen naar de Sandy Bridge architectuur van intel. (of een snelle(re) AMD cpu .. )
In ieder geval hebben we weer iets om naar uit te kijken dit weekend ;)
Anoniem: 245699 schreef op vrijdag 19 november 2010 @ 13:34:

Nvidia's dual chip card waits for Antilles

Nvidia zou deze kaart al praktisch klaar hebben? Ben benieuwd hoe betrouwbaar die bron is, want dat zou wel erg snel zijn. Verder vraag ik me af hoe ze de GF110 chip voor de dual-kaart willen gebruiken, want die moet dan wel enorm kreupel gemaakt worden. Ik had eerder het idee dat ze hiervoor de toekomstige GF114 voor zouden gebruiken zodat je een soort dual GTX560 zou krijgen met wat aanpassingen.
Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...
Ofwel, men neme GF110 gpu's die niet voldeden voor als GTX580 verkocht te worden (te hoog voltage nodig, kapotte CUDA core(s) ..) Je disabled 1 of meerdere clusters, laat de kloksnelheden zakken waardoor je ook direct de benodigde voltage kan verlagen enzoverder. Herhaal de voorgaande trukjes zolang totdat je gpu's uitkomt die "maar 140 watt" verstoken en je kaart is "af". Zo gek veel verlies maakt nVidia niet eens aan zo'n oplossing omdat je in principe werkt met gpu's die ze anders als goedkopere GTX 570 moesten verkopen oftewel zelfs gewoon weg moeten gooien. (De yields voor de Gf110 chip schijnen niet al te hoog te liggen).
De vraag is natuurlijk of je als consument blij zal zijn met zo'n oplossing.

[Voor 48% gewijzigd door lightdestroyer op 19-11-2010 13:41]

Specs


Anoniem: 263922

Denk dat de kans groot is dat ze de gf114 nemen, qua performance gaat deze zowieso de gtx470 voorbij en hij verbruikt stukken minder. Qua performance zal hij zich zeker kunnen gaan meten met Antilles, denk dat nvidia nog even wacht om niet enorm de mist in te gaan door het risico dat Antilles sneller gaat zijn, die kans is aardig groot. Beide partijen lijken wat achter te houden en laten beiden maar mondjesmaat nieuwe kaarten los, amd de hd6850 en 6870, nvidia de gtx580 en waarschijnlijk binnenkort de gtx570 (8 december gf110).

Anoniem: 245699

lightdestroyer schreef op vrijdag 19 november 2010 @ 13:35:
[...]
Het grote nut aan zo'n reviews vind ik persoonlijk vooral dat je hierdoor de schalingsmogelijkheden kan bekijken.
Indien een cpu bottleneck ook of bv je cpu overklokken lineaire gevolgen heeft voor je fps ofwel dat het bv amper iets uitmaakt =P.
Indien een snellere CPU daadwerkelijk je fps serieus kan opkrikken hebben alle gamers weer een excuus erbij om volgend jaar over te stappen naar de Sandy Bridge architectuur van intel. (of een snelle(re) AMD cpu .. )
Wat dat betreft zou het ook wel interessant zijn als ze bijv. een i7 920/950 eerst stock zouden draaien en vervolgens naar ~3.6Ghz en als laatste naar ~4.2Ghz clocken en kijken of er echt merkbaar FPS verschillen zijn bij dergelijk SLI/triple SLI opstellingen.
Zo zou je dan beter kunnen bepalen in hoeverre overclocken nut heeft.

[Voor 47% gewijzigd door Anoniem: 245699 op 19-11-2010 13:46]


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 20:14

superwashandje

grofheid alom

-The_Mask- schreef op vrijdag 19 november 2010 @ 12:13:
[...]

Wat zou anders het nut zijn van twee of drie zulke kaarten? :P
100miljoenmiljard Frames Per Seconde op een 60Hz scherm :D

edit: de meeste reviews gaan namelijk "maar" tot een resolutie van 2560*1600. maar het lijkt me dan juist leuk om eens iets te lezen over die surround visionfinity dinges van nvidia. vooral als je twee of zelfs 3(!) keer een 580 hebt en je zelfs dan nog erg goede FPS moet kunnen halen.

[Voor 37% gewijzigd door superwashandje op 19-11-2010 14:02]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.

Anoniem: 245699 schreef op vrijdag 19 november 2010 @ 13:34:
[Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...
Het lijkt mij sterk dat ze een dual GF110 uitbrengen welke een stuk langzamer gaat zijn dan de HD6990 en ongeveer evensnel of sneller en binnen de 300 Watt is gewoon _niet_ mogelijk.
Anoniem: 263922 schreef op vrijdag 19 november 2010 @ 13:40:
Denk dat de kans groot is dat ze de gf114 nemen
De kans is imo echt niet groot, prestaties zullen misschien net iets sneller zijn dan een GTX470, maar het verbruik zal ook op zo'n 175 Watt liggen. En twee GF114's zijn natuurlijk lang niet snel genoeg om een HD6990 te verslaan. Zelf een HD5970 verslaan zal niet gemakkelijk gaan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Anoniem: 245699 schreef op vrijdag 19 november 2010 @ 13:34:

Nvidia's dual chip card waits for Antilles

Nvidia zou deze kaart al praktisch klaar hebben? Ben benieuwd hoe betrouwbaar die bron is, want dat zou wel erg snel zijn. Verder vraag ik me af hoe ze de GF110 chip voor de dual-kaart willen gebruiken, want die moet dan wel enorm kreupel gemaakt worden. Ik had eerder het idee dat ze hiervoor de toekomstige GF114 voor zouden gebruiken zodat je een soort dual GTX560 zou krijgen met wat aanpassingen.
Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...

EDIT; Wel typerend dat er weer even wordt verwezen naar de geschiedenis van AMD(ATI) met grote chips (R600) en dat dit toen niet geweldig uitpakte en het nu maar afwachten is of het wel goed gaat komen met Cayman. Ze gaan wat dat betreft eigenlijk off-topic in hun eigen nieuwsbericht...
Ze zijn al sinds de release van de HD5970 bezig met hun eigen dual GPU oplossing. De HD5970 is er al een jaar dus veel succes hebben ze niet geboekt om het zo maar even te zeggen want dan was die kaart er namelijk allang geweest. Dat ze nu dus wel een dual GPU kaart zouden hebben kan best maar waarom brengen ze hem niet uit ? Met de GTX580 hebben ze toch ook niet gewacht. M.a.w. BS bericht.

Anoniem: 245699

Nouja, als er potentie in zit om evt. de HD6990 af te troeven is het hen veel waard om zo de absolute prestatie kroon terug te pakken. Dus dat ze eerst willen weten hoe de Antilles gaat presteren kan ik nog wel inkomen. Daarbij komt het Nvdia prijstechnisch ook wel beter uit. De gemiddelde GTX580 op voorraad kost nu nog gewoon 500,-. Zouden ze nu een dual GPU kaart uitbrengen zullen ze die niet voor 600,- willen uitbrengen omdat ie dan te dicht op de GTX580 zit en dat de verkoop van die kaart enigsinds in de weg zit. Uitbrengen voor 700,- kan dan wel, maar denk dat ze dat gewoon in deze tijd te hoog vinden. Andere keuze is om de GTX580 nu al te verlagen naar ~400,-, maar hiermee willen ze natuurlijk zo lang mogelijk wachten om nu nog zo veel mogelijk te verdienen aan die kaart. Maandje uitstel van de Cayman zullen ze bij Nivida ook niet betreuren denk ik zo...

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:46

Apoca

Array Technology Industry



De source is offline gehaald :/

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i

TDP tussen de 300 en 375 Watt dus
Volgens mij niet, hier staat die gepost, zelf nog zonder watermerk. Dus ik vraag mij af of jij wel de source hebt. ;)

[Voor 100% gewijzigd door -The_Mask- op 19-11-2010 19:32]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02

GTX580 4way,3way, en 2way SLI review

Beetje een nutteloze review want hij is niet tegenover de HD5970 2GB CF, HD5970 4GB, HD5870 1GB CF, HD5870 2GB CF, HD5870 1GB Triple-CF, HD5870 2GB Triple-CF, HD5870 1GB Quad-CF en of een HD5870 2GB Quad-CF.

Maar ze hebben wel een primeur :X

[Voor 46% gewijzigd door madmaxnl op 19-11-2010 19:46]


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:40

Cheezus

Luiaard

Het doel van de review is toch ook niet om hem te vergelijken met Ati AMD alternatieven?
Ze hebben gewoon getest wat de schaling is met meerdere videokaarten, en de conclusie lijkt me vrij duidelijk en ongekleurd: 2-way SLI is leuk voor de performance freaks, 3/4-way is nutteloos tenzij je de hoogste benchmark score perse wil hebben.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
primusz schreef op vrijdag 19 november 2010 @ 20:24:
Het doel van de review is toch ook niet om hem te vergelijken met Ati AMD alternatieven?
Ze hebben gewoon getest wat de schaling is met meerdere videokaarten, en de conclusie lijkt me vrij duidelijk en ongekleurd: 2-way SLI is leuk voor de performance freaks, 3/4-way is nutteloos tenzij je de hoogste benchmark score perse wil hebben.
Waarom zouden de performance freaks niet voor een CF opstelling van twee HD5970 2GB gaan ?
Kost evenveel als een GTX580 SLI opstelling namelijk. NEE, zelfs minder want je hoeft geen SLI licentie mobo te kopen ;)

pricewatch: Sapphire HD5970 2GB GDDR5 PCI-E
pricewatch: MSI N580GTX-M2D15D5

Ik denk zelf dat het wel degelijk zin zou hebben gehad om alternatieve op een GTX580(SLI) mee te nemen in de test.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 01-10 03:30

edward2

Schieten op de beesten

madmaxnl schreef op vrijdag 19 november 2010 @ 21:22:
[...]


Waarom zouden de performance freaks niet voor een CF opstelling van twee HD5970 2GB gaan ?
Kost evenveel als een GTX580 SLI opstelling namelijk. NEE, zelfs minder want je hoeft geen SLI licentie mobo te kopen ;)

pricewatch: Sapphire HD5970 2GB GDDR5 PCI-E
pricewatch: MSI N580GTX-M2D15D5

Ik denk zelf dat het wel degelijk zin zou hebben gehad om alternatieve op een GTX580(SLI) mee te nemen in de test.
Omdat dat lang niet altijd zo geweldig schaalt?
Ik heb QCF gehad (met 2 HD5970's), en heb mijn ervaringen als eens eerder gedeeld. Het is trouwens wel een heel stuk beter geworden inmiddels!

Xbits heeft dit wel vergeleken, it's Russ though:

http://www.ixbt.com/video3/gf110-part3.shtml

[Voor 3% gewijzigd door edward2 op 19-11-2010 21:30]

Niet op voorraad.


  • frankknopers
  • Registratie: December 2003
  • Laatst online: 27-09 17:57

frankknopers

Goud is geen geld

madmaxnl schreef op vrijdag 19 november 2010 @ 19:39:

GTX580 4way,3way, en 2way SLI review

Beetje een nutteloze review want hij is niet tegenover de HD5970 2GB CF, HD5970 4GB, HD5870 1GB CF, HD5870 2GB CF, HD5870 1GB Triple-CF, HD5870 2GB Triple-CF, HD5870 1GB Quad-CF en of een HD5870 2GB Quad-CF.

Maar ze hebben wel een primeur :X
Pfffff...

Je wilt 8 exotische videokaart opstellingen benchmarken in acht games met in elke game ook weer op 3 verschillende presets... Stel dat elke benchmark run gemiddeld 3 minuten duurt dan ben je bezig:

8 x 8 x 3 x 3 = 576 minuten = 9,6 uur en met de extra tijd voor het rebooten en drivers installeren en dergelijke mag je dus wel een week uittrekken voor een dergelijke test en dan moet je ook nog maar eens even een paar duizend euro aan videokaarten hebben liggen, waarvan een aantal exemplaren limited edition zijn..

Go figure :X :P

Goud is geen geld


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:40

Cheezus

Luiaard

madmaxnl schreef op vrijdag 19 november 2010 @ 21:22:
[...]


Waarom zouden de performance freaks niet voor een CF opstelling van twee HD5970 2GB gaan ?
Kost evenveel als een GTX580 SLI opstelling namelijk. NEE, zelfs minder want je hoeft geen SLI licentie mobo te kopen ;)

Ik denk zelf dat het wel degelijk zin zou hebben gehad om alternatieve op een GTX580(SLI) mee te nemen in de test.
Dan zoek je toch lekker uit wat een 5970 CF tegenover een GTX580 presteerd in een andere review?
Als ik wil vergelijken hoe een single CPUx presteerd t.o.v. een dual/triple/quad CPUx presteerd hoef ik toch niet te weten wat CPUy doet?

Dat ze niet elke mogelijke videokaart/resolutie/game hebben getest betekend nog niet dat het een slechte review is..

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
frankknopers schreef op vrijdag 19 november 2010 @ 21:40:
[...]

Pfffff...

Je wilt 8 exotische videokaart opstellingen benchmarken in acht games met in elke game ook weer op 3 verschillende presets... Stel dat elke benchmark run gemiddeld 3 minuten duurt dan ben je bezig:

8 x 8 x 3 x 3 = 576 minuten = 9,6 uur en met de extra tijd voor het rebooten en drivers installeren en dergelijke mag je dus wel een week uittrekken voor een dergelijke test en dan moet je ook nog maar eens even een paar duizend euro aan videokaarten hebben liggen, waarvan een aantal exemplaren limited edition zijn..

Go figure :X :P
Nou ik kaarten eigenlijk gewoon setups aan waarvan ze er toch wel twee makkelijk hadden kunnen testen:
HD5970 2GB CF en HD5870 1GB in CF t/m QCF. Dergelijke tests hoeven ook niet lang te duren als je bijvoorbeeld meerderen setups hebt en of meerderen pre-installed OS SSD's hebt liggen. In dit geval zou je dus gewoon de huidige setup nodig hebben met twee SSDs waarop één met de drivers voor nVidia + OS etc en één met daarop de drivers voor ATI + OS etc. HWI test regelmatig(understatement!!) dingen dus dan mag ik toch wel aannemen dat ze ook wel goed, efficiënt en de juiste middelen hebben om te testen of niet soms ? Ik snap ook niet waarom HWI zijn reviews niet twee talig op de site zet->meer bezoeker->meer reclame->meer geld voor reviews etc.

Ik zal wel te naïef zijn.
primusz schreef op vrijdag 19 november 2010 @ 22:23:
[...]
Dat ze niet elke mogelijke videokaart/resolutie/game hebben getest betekend nog niet dat het een slechte review is..
Als je dit nou had gezegd als het een redelijk uitgebreide review was dan was dat nog tot daaraan toe. Maar ze hebben nu enkel gekeken naar hoe een GTX580 schaalt. Maar we weten niet hoe de concurrentie schaalt en dat is jammer en maakt de review in mijn ogen al een heel stuk minder waardevol.

Ja je kunt andere reviews erbij pakken om alsnog af te leiden hoe de genoemde setups zich zouden verhouden. Maar dan zit je met het probleem dat er heel andere benches zijn gedraaid. Wat ook nog eens op andere setups met andere (-niet de- nieuwste) drivers wat cruciaal is in het geval van dual GPU reviews.

[Voor 22% gewijzigd door madmaxnl op 19-11-2010 22:42]


Anoniem: 263922

-The_Mask- schreef op vrijdag 19 november 2010 @ 14:23:
[...]

Het lijkt mij sterk dat ze een dual GF110 uitbrengen welke een stuk langzamer gaat zijn dan de HD6990 en ongeveer evensnel of sneller en binnen de 300 Watt is gewoon _niet_ mogelijk.


[...]
De kans is imo echt niet groot, prestaties zullen misschien net iets sneller zijn dan een GTX470, maar het verbruik zal ook op zo'n 175 Watt liggen. En twee GF114's zijn natuurlijk lang niet snel genoeg om een HD6990 te verslaan. Zelf een HD5970 verslaan zal niet gemakkelijk gaan.
Bij nader inzien is een dual-gpu gtx590 op basis van gf114 inderdaad geen enkele partij voor een hd6990, een gtx460 presteert nog niet eens op hd5870 niveau |:(

Een enigzins teruggeclockte gf110, zeg eens de 480 shader variant, zou wel partij kunnen bieden. Aan het plaatje wat Apoca gepost heeft lijkt dat het meest aannemelijk. Of ze hem echt gaan uitbrengen is maar de vraag, een TDP van 350watt lijkt me wel te halen maar onder furmark vliegt hij daar natuurlijk dik overheen.

Dit kan wel eens het begin van een nieuw 'era' worden, 300W> voor grafische kaarten, of natuurlijk the last clash of the monstrosity gpu :P (ik stem voor de laatste)

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
De GF104 is nog niet in zijn volledige geünlockte staat gezien. Dus dat een GTX460 niet sneller is als een HD5850 is niet gek. Er werd gedacht dat deze volledige GF104 als GTX475 zou komen omdat deze sneller zou zijn als een GTX470 en ook nog eens zuiniger. Dus een GF114(GF104) die volledig geünlockt is en op hogere of gelijken clock frequentie werkt als een GTX460 1GB wel eens een geduchten concurrent vormen. Alhoewel de kans dat dit zal gebeuren zeer klein is.

[Voor 8% gewijzigd door madmaxnl op 20-11-2010 01:00]


  • frankknopers
  • Registratie: December 2003
  • Laatst online: 27-09 17:57

frankknopers

Goud is geen geld

madmaxnl schreef op vrijdag 19 november 2010 @ 22:36:
[...]

Nou ik kaarten eigenlijk gewoon setups aan waarvan ze er toch wel twee makkelijk hadden kunnen testen:
HD5970 2GB CF en HD5870 1GB in CF t/m QCF. Dergelijke tests hoeven ook niet lang te duren als je bijvoorbeeld meerderen setups hebt en of meerderen pre-installed OS SSD's hebt liggen. In dit geval zou je dus gewoon de huidige setup nodig hebben met twee SSDs waarop één met de drivers voor nVidia + OS etc en één met daarop de drivers voor ATI + OS etc. HWI test regelmatig(understatement!!) dingen dus dan mag ik toch wel aannemen dat ze ook wel goed, efficiënt en de juiste middelen hebben om te testen of niet soms ? Ik snap ook niet waarom HWI zijn reviews niet twee talig op de site zet->meer bezoeker->meer reclame->meer geld voor reviews etc.
Op kantoor bij HWI staat inderdaad een batterij aan testsystemen voor grote vergelijkingstests, echter heb je voor een 4-way SLI test een veel duurdere Core i7 980X processor, een speciaal 4-way SLI moederbord nodig en een 1000W+ voeding nodig. Die liggen daar echt niet op een stapeltje :P

Wel leuk dat je het hebt over HWI en tweetalige opzet. We hebben dat een tijdje gedaan, maar volgens mij leverde het niet veel meer views op. Daarnaast zal internationaal publiek vooral naar de grafiekjes kijken en die behoeven geen uitleg.

Goud is geen geld


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Van die view counter bij HWI klopt sowieso niks. Elke keer als ik op F5 druk is er weer een view bij, rara hoe kan dat. Is natuurlijk ook een manier om de view counter omhoog te krijgen. Hier op Tweakers wordt je IP geregistreerd en kun je op F5 blijven drukken tot je een ons weegt.

Maar het is dan ook niet de bedoeling elke review ook in het Engels uit te brengen. Alleen speciale reviews zoals de GTX480 en GTX580 SLI reviews.

Maar we gaan te ver offtopic dus ik laat het hierbij ;)

[Voor 6% gewijzigd door madmaxnl op 20-11-2010 16:56]


Anoniem: 245699

[b]madmaxnl schreef op vrijdag 19 november 2010 @ 19:39Beetje een nutteloze review want hij is niet tegenover de HD5970 2GB CF, HD5970 4GB, HD5870 1GB CF, HD5870 2GB CF, HD5870 1GB Triple-CF, HD5870 2GB Triple-CF, HD5870 1GB Quad-CF en of een HD5870 2GB Quad-CF.

Maar ze hebben wel een primeur :X
Waarom zouden ze zoveel moeite steken in het testen van kaarten die binnen afzienbare tijd EOL zijn of zelfs nu al zijn. De HD5870 testen in triple/quad CF is in mijn ogen nu echt niet relevant meer en hebben ze bij intro toen ook wel getest met nu welliswaar sterk verouderde drivers, maar dat ze dat met de HD69xx serie voor de deur niet nog eens gaan doen lijkt me vrij logisch... Straks zal men vast en zeker wel de Cayman gaan testen met meerdere kaarten en dan zal er wel een vergelijk gemaakt worden.
Eventueel hadden ze de HD5970 in CF bij kunnen halen om te kijken hoe die nu schaalt met de laatste drivers, maar zoals al aangegeven is, is de review meer gericht om de schaling in kaart te brengen, en dat hebben ze kuerig gedaan door alle percentages te geven.

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 13-09 16:46
Anoniem: 263922 schreef op zaterdag 20 november 2010 @ 00:51:
[...]


Bij nader inzien is een dual-gpu gtx590 op basis van gf114 inderdaad geen enkele partij voor een hd6990, een gtx460 presteert nog niet eens op hd5870 niveau |:(
Ehhm sorry hoor, maar twee keer een GTX460 1GB verslaat zowel de HD5870 als GTX480. Kan me herinneren dat zo'n setup zelfs een GTX580 verslaat. Bron: http://www.tomshardware.c...force-gtx-480,2694-4.html

Een volledig geunlockte dual GF104 + hogere kloksnelheden (GF114) zou zeker een geduchte concurrent voor een HD5970 zijn. Zal alleen niet echt zuinig zijn..

  • Paprika
  • Registratie: September 2007
  • Laatst online: 01-10 12:59
Frietjemet had het over de 6990 (dubbele Cayman). Dat zou voor een dubbele GTX460 een onmogelijke taak zijn.

[Voor 37% gewijzigd door Paprika op 20-11-2010 19:20]


Anoniem: 263922

Ik had het dan ook over de hd6990, en een dual-gf114 zou in vergelijking met amd's aanbod best meevallen kwa verbruik (maar niet concurrerend genoeg), de dual gf110 die iets naar boven gepost is, die gaat pas vermogen trekken :+ .
Paprika schreef op zaterdag 20 november 2010 @ 19:20:
Frietjemet had het over de 6990 (dubbele Cayman).
je was net iets eerder :P

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Anoniem: 245699 schreef op zaterdag 20 november 2010 @ 18:41:
[...]

Waarom zouden ze zoveel moeite steken in het testen van kaarten die binnen afzienbare tijd EOL zijn of zelfs nu al zijn. De HD5870 testen in triple/quad CF is in mijn ogen nu echt niet relevant meer en hebben ze bij intro toen ook wel getest met nu welliswaar sterk verouderde drivers, maar dat ze dat met de HD69xx serie voor de deur niet nog eens gaan doen lijkt me vrij logisch... Straks zal men vast en zeker wel de Cayman gaan testen met meerdere kaarten en dan zal er wel een vergelijk gemaakt worden.
Eventueel hadden ze de HD5970 in CF bij kunnen halen om te kijken hoe die nu schaalt met de laatste drivers, maar zoals al aangegeven is, is de review meer gericht om de schaling in kaart te brengen, en dat hebben ze kuerig gedaan door alle percentages te geven.
Ja precies. Maar er zijn genoeg mensen die niet begrijpen dat nieuwere drivers(zeker bij CF) veel prestatie kan schelen. Maar oke, de HD5xxx kaarten zijn min of meer al EOL. Maar het zou ook mooi zijn voor straks bij de Cayman zodat we goed kunnen zien wat een HD5870 CF opstelling doet.

Tevens zullen ze Cayman ook meerderen keren moeten gaan testen over een bepaalde tijd, nieuwe architectuur betekent dat er weel veel ruimten is voor performance verbeteringen d.m.v. van nieuwere drivers. Voor CF geld dat er sowieso altijd meer performance is met nieuwere drivers(generalisatie).

Nieuwe drivers brengen in het algemeen maar weinig performance verbeteringen voor een enkelen kaart.
Nieuwe drivers voor CF setups brengen in het algemeen wel performance verbeteringen.
Ook bij "nieuwe" architecturen laten drivers veel ruimte voor verbeteringen, hier en hier(tel maar op).
Maar bij "oude" architecturen is er voor singel GPU bijna geen ruimte meer voor verbeteringen maar wel voor CF zoals eerder getoond.

M.a.w. voor CF setups altijd nieuwe drivers. Voor nieuwe kaarten met "nieuwe architectuur" nieuwe drivers.
Voor nieuwe kaarten met oude architectuur zijn nieuwe drivers niet noodzakelijk.

Anoniem: 263922

Zowel bij sli als bij cf is er nog genoeg winst te halen, de software is er alleen nog niet klaar voor om die techniek volledig te benutten, maar zoals te zien is zit er steeds meer vooruitgang in.

Anoniem: 245699

Mmh, bij de test van Tweakers zelf is er ook geen HD5870CF/HD5970 CF (2gb)/etc. getest...
@Madmaxnl; Is deze review nu ook gelijk nutteloos? En zelfs niet eens een primeur... ;)

Ik zelf til daar niet zo zwaar aan, maar wat ik juist wel jammer vind is dat ze een systeem erbij hebben met een 980X om eventuele bottleneck's eerder toonbaar te maken, maar zoals ik het begrijp is die dus niet overclockt! Dus dan heb je een standaard 980X @3.33Ghz en een 920 @ 3.8Ghz.... Enige voordeel van de 980X is dus meerdere cores maar die dus wel langzamer lopen.
Persoonlijk had ik het beter gevonden als ze gewoon eerst zouden testen met een 920 @ stock en vervolgens op ~4Ghz. En pak dan nog een 980X @~4Ghz erbij om te kijken of twee extra cores wat toevoegen. Maargoed, dit zal weer erg veel tijd kosten, maar de 980X bij voorbaat overclocken was wel beter geweest. Had iig wel meer inzicht gegeven in eventuele bottlenecks.

[Voor 3% gewijzigd door Anoniem: 245699 op 22-11-2010 18:50]


  • occultux
  • Registratie: Januari 2004
  • Laatst online: 20-12-2017
Iemand enig idee wanneer de Sparkle Calibre X580 zou uitkomen en welke winkels eventueel leverancier zijn voor dit merk ? ;)

  • hosee
  • Registratie: November 2003
  • Laatst online: 01-08 19:14
Anoniem: 245699 schreef op zondag 21 november 2010 @ 20:32:
Mmh, bij de test van Tweakers zelf is er ook geen HD5870CF/HD5970 CF (2gb)/etc. getest...
@Madmaxnl; Is deze review nu ook gelijk nutteloos? En zelfs niet eens een primeur... ;)

Ik zelf til daar niet zo zwaar aan, maar wat ik juist wel jammer vind is dat ze een systeem erbij hebben met een 980X om eventuele bottleneck's eerder toonbaar te maken, maar zoals ik het begrijp is die dus niet overclockt! Dus dan heb je een standaard 980X @3.33Ghz en een 920 @ 3.8Ghz.... Enige voordeel van de 980X is dus meerdere cores maar die dus wel langzamer lopen.
Persoonlijk had ik het beter gevonden als ze gewoon eerst zouden testen met een 920 @ stock en vervolgens op ~4Ghz. En pak dan nog een 980X @~4Ghz erbij om te kijken of twee extra cores wat toevoegen. Maargoed, dit zal weer erg veel tijd kosten, maar de 980X bij voorbaat overclocken was wel beter geweest. Had iig wel meer inzicht gegeven in eventuele bottelnecks.
Inderdaad, goede opmerking.
Benches zijn daardoor voor mij persoonlijk ook niet bevredigend. Wel een indicatie maar onvolledig.

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
Eens wat driver nieuws posten (das al een tijdje geleden).
Namelijk vanaf de 260.x drivers is er een verandering doorgevoerd voor de *nix drivers:

Nvidia Linux Display Driver 260.19.21

quote: tweakers
Vanaf driverversie 260.x worden OpenGL, VDPAU, CUDA en OpenCL niet meer met de driver meegeleverd, maar zullen apart opgehaald moeten worden.
Persoonlijk vind ik dit niet echt een slimme zet daar de mensen die de nieuwste drivers downloaden meestel met alle technologie up to date willen zijn (en zeker onder linux VDPAU als je je distro als media player gebruikt ..) maar bon men klaagde in het verleden waarschijnlijk een beetje te veel dat de drivers te groot waren en veel gebruikers wilden soms oudere versies van een technologie gebruiken (ivm bugs die opdoken bij de recenste VDPAU bv..) in samenwerking met de recentste drivers.

Specs


  • Ed_L
  • Registratie: Januari 2006
  • Laatst online: 02-10 09:35

Ed_L

Crew Council
Die GF106 blijft verbazen! :O

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
De laatste tijd komen er dan toch nog een paar Tegra tablets in het nieuws:

Woow Digital's The One tablet cooks up Tegra 2 with Gingerbread just in time for Christmas

en onze eigen frontpage natuurlijk:
Negeer de titel en lees de laatste paregraaf ;P

Opvallend is dus de bundeling met android ipv bv windows7. Nu men kan nu al zien dat zowel intel als AMD concurrenten zijn geworden voor het Tegra platform en nVidia zijn voorsprong grotendeels verloren heeft..

Specs


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Ik zou juist zeggen, negeer de laatste paragraaf :P
Opvallend is dus de bundeling met android ipv bv windows7. Nu men kan nu al zien dat zowel intel als AMD concurrenten zijn geworden voor het Tegra platform en nVidia zijn voorsprong grotendeels verloren heeft..
Ik denk niet dat dit bepaald opvallend is. Windows 7 kan niet op ARM-based platformen draaien als ik mij niet extreem vergis. Als je Windows Phone 7 had gezegd, had ik je wellicht gelijk kunnen geven, maar ik heb het idee dat Windows Phone 7 meer beperkingen heeft voor het werken op een pad dan Android. Helemaal wanneer Android 2.3 (of hoger) gebruikt zal worden.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
dahakon schreef op donderdag 25 november 2010 @ 15:58:
[...]

Ik zou juist zeggen, negeer de laatste paragraaf :P
Het is het nVidia topic, voor AMD cpu (of apu) nieuws zijn er andere topics ;P
dahakon schreef op donderdag 25 november 2010 @ 15:58:

[...]


Ik denk niet dat dit bepaald opvallend is. Windows 7 kan niet op ARM-based platformen draaien als ik mij niet extreem vergis. Als je Windows Phone 7 had gezegd, had ik je wellicht gelijk kunnen geven, maar ik heb het idee dat Windows Phone 7 meer beperkingen heeft voor het werken op een pad dan Android. Helemaal wanneer Android 2.3 (of hoger) gebruikt zal worden.
Ah so true,hierin kan ik je enkel helemaal gelijk geven.
Ik dacht dat ze windows 7 eindelijk ARM support gingen geven daar ze ondersteuning voor tablets in het OS hadden gestoken maar ik vond het volgende in google cache:
quote: xbitlabs
Datum: 6/03/2009
While ARM, a developer of microprocessors with its own micro-architecture, wants to gain market share on the market of netbooks, Microsoft Corp., whose Windows operating system is installed onto the vast majority of PCs, said that the next-generation Windows 7 OS will not support ARM chips since Microsoft believes that they would not provide adequate performance.

“For people who want a PC, albeit a different chipset, we don't think those will work very well. We sort of learnt in the last year that if it looks like a PC and acts like a PC, people want the features and benefits of a PC,” said Steve Guggenheimer, Microsoft's corporate vice-president for original equipment manufacturers, reports Reuters news-agency.

ARM microprocessors are still supported by Windows Mobile operating system, but ARM expressed hopes a number of times that with its new microprocessors it would be able to compete for netbooks and even servers, the stronghold of Intel and Advanced Micro Devices. But without support from Windows 7 ARM will have to rely on operating systems like Google Android or Linux.

Microsoft also does not believe that manufacturers will be able to sell a lot of Google Android-based netbooks due to the lack of significant ecosystem.

“I’m somewhat sceptical that consumers will begin running to Android right now. You'll still want your printer to work, you'll still want your software to work. There's a lack of a complete ecosystem around Android,” Mr. Guggenheimer claimed.

The lack of ARM support by Windows 7 means that manufacturers will continue to use x86 microprocessors from AMD and Intel to make their low-cost mobile systems.
Ik denk dat MS Android toch wat onderschat heeft 1,5 jaar geleden.

Na wat opzoeken blijkt het wel mogelijk te zijn android te draaien op x86 hardwaren maar is dit niet gesupport door de officiele releases. Dus het kiezen voor het Tegra (en dus ARM) platform zal eerder een keuze zijn van de fabrikant om compatibel te blijven met de officiele android releases and updates dan een bewuste keuze voor Tegra of ARM.

In ieder geval mijn pointe was dat er blijkbaar een hoop Tegra tablets in de planning staan, of ze daadwerkelijk geproduceerd en verkocht gaan worden is weer wat anders natuurlijk..
En blijkbaar als je kiest als consument voor een tegra tablet zal je daarbij dus geen windows7 erbij kunnen kiezen. Of omgekeerd als je een windows7 tablet verkiest zal je hierdoor geen Tegra hardware kunnen kiezen. Dit is misschien spijtig maar zo is het momenteel..

Specs

GTX570



GeForce GTX 570
GF110 met 480 Cudacores
3000M transistors
48 ROPS
Core: 73xMHz *
Shaders: 146xMHz *
Mem: 19XX MHz *
320bit, 1280MB GDDR5
Prijs: in de 300 dollar
Prestaties zo rond die van de GTX480
Launch zou in week 49 moeten zijn

Samengevat, een GTX480 met iets kleinere bus en dus minder geheugen, maar iets hoger geklokt.

* Precieze frequentie houden we nog even in het midden, maar die 4MHz max verschil (core/shader) zal het hem ook niet echt doen denk ik. :p

[Voor 3% gewijzigd door -The_Mask- op 26-11-2010 11:57]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
-The_Mask- schreef op vrijdag 26 november 2010 @ 11:40:
* Precieze frequentie houden we nog even in het midden, maar die 4MHz max verschil (core/shader) zal het hem ook niet echt doen denk ik. :p
LOL die 4Mhz zal het hem idd niet doen. Die prijszetting daarentegen wel. De goedkoopste (meerverbruikende) GTX480 is nog altijd 370 euro. En laten we zeggen dat die GTX570 wss in europa 300 euro zal zijn. 70 euro minder voor ongeveer zelfde prestaties en minder verbruik.

Ongeveer zelfde prestaties omdat de nieuwe GPU een klein beetje efficienter was voor zover ik het weet. Hopelijk weegt dit dus op tegen de kleinere memory bus.

Specs


Anoniem: 263922

Hopelijk wordt hij ook wat zuiniger door de kleinere bus, dan kan hij zich op dat gebied bijna meten met de hd5870 :P

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Ik had zo'n actie allang verwacht, wie niet eigenlijk. Was toch wel duidelijk op het moment dat er een hoop gedoe was rond de HAWX 2 Benchmark. Achja het is nVidia met hun über stabiele drivers. Weten we ook weer hoe dat komt... Hoe minder toeters en bellen hoe minder er kapot kan gaan he ;)

Anoniem: 263922

Ik speel dat spel helemaal niet, maakt me ook geen donder uit eigenlijk. Zolang mijn nvidia kaart niet crasht vind ik het prima, laat de rest maar huilen :)

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Ik moet zeggen dat ik het verschil in kwaliteit wel erg klein vind en als er niet zo ver ingezoomd zou zijn zou ik het verschil dan ook niet zien. De uitleg vind ik verder ook vrij logisch, of het waar is zullen we denk ik nooit echt weten.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Tyranium schreef op zondag 28 november 2010 @ 17:37:
Ik moet zeggen dat ik het verschil in kwaliteit wel erg klein vind en als er niet zo ver ingezoomd zou zijn zou ik het verschil dan ook niet zien. De uitleg vind ik verder ook vrij logisch, of het waar is zullen we denk ik nooit echt weten.
Het is natuurlijk wel zo dat nVidia claimt altijd het beste beeld te leveren, iets waar ze onlangs juist AMD om beschuldigden een mindere beeldkwaliteit te leveren met standaardinstellingen. Het is dan echter zo dat bij AMD je de keuze hebt om optimalisaties uit te schakelen, voor het beste beeld, waar bij nVidia het voor de normale mens onmogelijk is de optimalisaties uit te schakelen, aangezien het hernoemen van bestanden niet iets is wat bij de meeste mensen op komt, als het om verbeteringen gaat.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 00:50
Het is ook niets nieuws, en het boeit me ook echt niet. ATI en Matrox hadden zo'n concurrentie al begin jaren 90 (voordat NVIDIA überhaupt bestond), er was ook een hoop gedoe 3DFX met hun Glide wrapper en uiteindelijk zie je er maar vrijwel niets van. Dit soort dingen zijn gewoon pogingen van de echte fanboys van een van de kampen om de ander slecht te laten lijken, ik let er niet eens meer op :P

Wat wel vervelend is, zijn dingen zoals bij Batman: AA. Dat is gewoon rechtuit benadelen van een partij zonder dat daar een goede technische reden voor is :)

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik vind het ook niet erg om meer FPS te krijgen als ik het verschil in IQ niet eens zie, eigenlijk. Het enige vervelende is nog dat AMD/NVidia elkaar van dit soort dingen beschuldigen en het zelf ook doen, beetje kinderachtig allemaal.

Ter illustratie een quote van NVidia toen een soortgelijke FPS-boost door AMD werd geimplementeerd:
NVIDIA's policy is never to introduce performance optimizations that alter the application's image quality. This is also the policy of FutureMark and various other benchmarks regarding legitimate driver optimizations.
Beschuldigingen tussen NVidia en AMD zijn dus niet echt serieus te nemen (voor wie dat nog niet wist).

[Voor 70% gewijzigd door bwerg op 28-11-2010 21:05]

Heeft geen speciale krachten en is daar erg boos over.


Anoniem: 263922

-The_Mask- schreef op zondag 28 november 2010 @ 16:12:
Volgens mij ging het nieuwsbericht dan ook niet over jouw. ;)
Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen. Ik voel me als nvidia kaart bezitter wel enigzins aangesproken, maarja nvidia is wel vaker de pispaal, als ze 32x AA toepassen is het ook niet goed.

Ik kan bijvoorbeeld erover beginnen dat jouw geen correcte spelling is in de context van jouw zin, maar dat het jou moet zijn, vind jij ook niet leuk. Het gevoel is hetzelfde als bij die flames.

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 01-10 18:00

TGEN

Hmmmx_

Anoniem: 263922 schreef op zondag 28 november 2010 @ 21:18:
[...]


Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen. Ik voel me als nvidia kaart bezitter wel enigzins aangesproken, maarja nvidia is wel vaker de pispaal, als ze 32x AA toepassen is het ook niet goed.

Ik kan bijvoorbeeld erover beginnen dat jouw geen correcte spelling is in de context van jouw zin, maar dat het jou moet zijn, vind jij ook niet leuk. Het gevoel is hetzelfde als bij die flames.
Als je het persoonlijk op gaat vatten moet je misschien even een tijdje bij de computer vandaan blijven :P. Zo is het niet bedoeld immers.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Anoniem: 59888

Anoniem: 263922 schreef op zondag 28 november 2010 @ 21:18:
[...]


Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen. Ik voel me als nvidia kaart bezitter wel enigzins aangesproken, maarja nvidia is wel vaker de pispaal, als ze 32x AA toepassen is het ook niet goed.

Ik kan bijvoorbeeld erover beginnen dat jouw geen correcte spelling is in de context van jouw zin, maar dat het jou moet zijn, vind jij ook niet leuk. Het gevoel is hetzelfde als bij die flames.
Je voelt je persoonlijk aangevallen als de fabrikant van je grafische kaart kritiek krijgt? Vind je dat zelf ook niet een beetje overdreven? Ik ben dan misschien niet Nvidia's grootste fan, maar m.i. is er hier, en moet er hier, ruimte zijn voor kritiek. Flames zijn ongewenst, maar we hoeven ook niet de kritiekloze fanboy uit te hangen.* Positief als ze het goed doen, negatief als ze het minder goed doen. Lijkt mij prima. :Y)

Ja inderdaad, dat betekent dat het sinds een jaar of wat meer kritiek dan lof regent hier, Nvidia zit in de hoek waar de klappen vallen, dus in een Nvidia topic zul je dat terugzien. Daar is wat mij betreft niks mis mee. Dat is in CJ's Radeon topic overigens niet anders, denk aan de kritiek over de naamgeving van de 6800 serie of de rebrands van de low-end series.

* Daar wil ik trouwens niet mee suggereren dat jij dat doet, ik bedoel het hier in algemene zin.

[Voor 4% gewijzigd door Anoniem: 59888 op 28-11-2010 21:41]


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 263922 schreef op zondag 28 november 2010 @ 21:18:
[...]


Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen.
Nou als je de quote van een NVidia-woordvoerder van een tijdje terug leest die ik net postte, is dat harstikke logisch natuurlijk. Als PR-afdelingen stoten onder de riem geven, dan kan je niet verwachten dat daar geen kritiek op komt van 'het publiek' natuurlijk. In dit topic gaat het er dikwijls gefundeerder aan toe dan bij PR-afdelingen.

Als ze dat nou lieten, en gewoon leuk die 10% performancewinst implementeerden voor die 0,1% IQ-verlies en de andere GPU-fabrikanten dat ook laten doen dan had niemand iets te klagen.

[Voor 19% gewijzigd door bwerg op 28-11-2010 21:47]

Heeft geen speciale krachten en is daar erg boos over.


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
bwerg schreef op zondag 28 november 2010 @ 21:41:
[...]
Als ze dat nou lieten, en gewoon leuk die 10% performancewinst implementeerden voor die 0,1% IQ-verlies en de andere GPU-fabrikanten dat ook laten doen dan had niemand iets te klagen.
10% performance winst is meetbaar. Die 0,1% IQ-verlies niet. Want de IQ zou van geen beeld tot het mooiste beeld op een schaal van 0 tot 100 moeten liggen net als performance. Het rotte aan de IQ is dat iedereen er een anderen waarden aanhecht(aan performance trouwens ook :S).

Zo zou je een game kunnen hebben met 50 FPS waarbij de IQ score 70 is.
Zet je de game op 8bits modus dan wordt de FPS 1337 en de IQ score 10.
Verhoudingsgewijs zit je op 8bits modus dus beter ;)

Maar je hebt niks aan de 1337 FPS want je kunt niet meer dan 42 FPS waarnemen.
Dus tja daar zit je al met het probleem want hoeveel IQ kun je waarnemen. Dit is dus iets dat je voor je zelf zult moeten afwegen. Ik zelf zet bijvoorbeeld in elke game schaduwen uit want dat valt me toch nooit op alleen aan mijn performance merk ik het.

[Voor 17% gewijzigd door madmaxnl op 28-11-2010 22:55]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 00:50
Het menselijke oog kent geen maximale framerate. Hangt af van het beeld dat je te zien krijgt - veel mensen zeggen dat je niet meer dan 24, 30 of hoeveel FPS dan ook kunt zien, maar dat klopt echt niet. En zelfs dan nog verschilt het per game wat vloeiend oogt en wat niet. Crysis speelt met zo'n 40 FPS al lekker vloeiend, maar CS speelde echt niet lekker met minder dan 100.

Ik ben het wel met je eens dat veel van zulke kleine stukjes IQ verlies niet zichtbaar zijn terwijl je aan het spelen bent - pas als je screenshots gaat vergelijken zie je het.

Anoniem: 263922

Anoniem: 59888 schreef op zondag 28 november 2010 @ 21:40:
[...]

Je voelt je persoonlijk aangevallen als de fabrikant van je grafische kaart kritiek krijgt? Vind je dat zelf ook niet een beetje overdreven?
Zo erg neem ik het helemaal niet op, maar als er meteen gesuggereerd wordt dat door het eerdergenoemde akkefietje bij nvidia de drivers dan wel goed moeten zijn omdat er weinig spectaculairs op het beeld getoverd wordt, dat vind ik overdreven.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Anoniem: 263922 schreef op zondag 28 november 2010 @ 23:14:
[...]


Zo erg neem ik het helemaal niet op, maar als er meteen gesuggereerd wordt dat door het eerdergenoemde akkefietje bij nvidia de drivers dan wel goed moeten zijn omdat er weinig spectaculairs op het beeld getoverd wordt, dat vind ik overdreven.
Het was cynisch bedoelt...

Met de generalisatie dat ATI drivers zuigen i.t.t. die van nVidia...

[Voor 12% gewijzigd door madmaxnl op 28-11-2010 23:53]


  • daan!
  • Registratie: Februari 2007
  • Laatst online: 25-09 16:34
'Quieter thermal solution'

Mogen we hieruit afleiden dat de GTX570 ook een vapor chamber heeft?
Dat zie ik in de specsheet nl. niet terug.

Anoniem: 245699

Die kans zit er wel dik in ja, volgens mij is de PCB lengte en koeler geheel hetzelfde!

Anoniem: 263922

madmaxnl schreef op zondag 28 november 2010 @ 23:45:
[...]


Het was cynisch bedoelt...

Met de generalisatie dat ATI drivers zuigen i.t.t. die van nVidia...
Ja dat snap ik, mijn reactie daarop was ook niet slecht bedoeld, dat er dan zo'n hele discussie volgt is dan ook veelal mijn schuld.

Vind het grappig dat men zo zwaar tilt aan zo'n klein probleem, het stelt niet zo veel voor imo, geval mug -> olifant. Slaat trouwens op dat bericht niet de discussie hier :)

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 20:00
First GeForce 570 pricing leaks, sub $400 price point confirmed
As for the US, the best price we've managed to find is for EVGA's most basic model which is listed at $367.43, which seems fairly reasonable all things considered. It's about $50-100 more than your average GTX 470 card these days, as it seems like the GTX 470 is currently in a price free fall with some cards retailing for $250 or less, not taking mail-in rebates into account. As for the GTX 480's, well, they're still retailing for well over $400, although we're fairly sure they won't be for long, as the GTX 570 should perform close enough to make the GTX 480 a poor purchase.

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 25-09 14:32
Ik vond hier wel een topic over voor de GTX 470 / 480 maar nog niet voor de 580.

Is er iets bekend over de beschikbaarheid van deze kaarten? Ik was van plan om 2 kaarten te kopen, ik dacht eerst aan 2 MSI kaarten omdat die "maar" voor 450 euro ps gingen. Toen ik echt wou gaan bestellen bleek dat zo ongeveer elke winkel niks op voorraad heeft.

De afgelopen dagen was er helemaal niks bekend over levertijd, nu kom ik bij sommige winkels al levertijden van ~10 dagen tegen. De enige winkel die ik tot nu toe ben tegen gekomen die claimed 580 kaarten op voorraad te hebben (ik heb niet gekeken bij de winkels die 50-100+ euro meer vragen) is MaxICT. Maar na een kijkje in de shopreview denk ik toch dat het verstandig is om hier niet mijn bestelling te plaatsen.

Ik heb bij Salland gevraagd of zij binnenkort nieuwe kaarten verwachten, maar volgens de reactie was er geen termijn bekend. Toch lijkt het alsof de beschikbaarheid wat toeneemt. Ik vraag me daarom af of ik zou moeten wachten, tot bijvoorbeeld een winkel kaarten op voorraad heeft voor 450 euro ps. of dat ik zodra ik iets zie het beste de kaarten zo snel mogelijk koop. Ik weet niet of deze schaarste nog een maand of langer aan blijft houden of dat er vanaf eind volgende week echt kaarten op voorraad liggen bij winkels.

Winkels die claimen 580 kaarten "snel" op voorraad te hebben zijn onder andere:
- 4-launch shop 6-10 werkdagen
- Dutch Computer Centre vanaf 10 december
- Azerty 10+ dagen

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 25-09 14:32
Ik heb al een tijd geleden besloten om voor een Nvidia te gaan en niet voor een AMD. Vooral de extra kosten voor de actieve miniDP -> DVI kabels (wat bij mij neerkomt op minimaal 100 euro) die ik nodig ga hebben, samen met een aantal andere redenen, hebben bij mij de doorslag gegeven om voor Nvidia te gaan.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

nvm

[Voor 92% gewijzigd door bwerg op 04-12-2010 12:37]

Heeft geen speciale krachten en is daar erg boos over.


  • daan!
  • Registratie: Februari 2007
  • Laatst online: 25-09 16:34
Maxily schreef op zaterdag 04 december 2010 @ 12:31:
Ik heb al een tijd geleden besloten om voor een Nvidia te gaan en niet voor een AMD. Vooral de extra kosten voor de actieve miniDP -> DVI kabels (wat bij mij neerkomt op minimaal 100 euro) die ik nodig ga hebben, samen met een aantal andere redenen, hebben bij mij de doorslag gegeven om voor Nvidia te gaan.
Waarom ga je die kabels nodig hebben dan?
Er zitten volgens mij gewoon DVI aansluitingen op Cayman kaarten.
Maxily schreef op zaterdag 04 december 2010 @ 12:31:
Ik heb al een tijd geleden besloten om voor een Nvidia te gaan en niet voor een AMD.
Wie zei dan dat je voor AMD moest gaan?
Vooral de extra kosten voor de actieve miniDP -> DVI kabels (wat bij mij neerkomt op minimaal 100 euro)
Waarvoor heb je een miniDP naar DVI verloopje nodig dan? Huidige kaarten hebben gewoon een normale DP aansluiting en een actief verloopje van DP naar DVI kost maar zo'n 20 euro.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 25-09 14:32
-The_Mask- schreef op zaterdag 04 december 2010 @ 12:43:
Wie zei dan dat je voor AMD moest gaan?
Dat was als reactie op "wacht even op Cayman".
Waarvoor heb je een miniDP naar DVI verloopje nodig dan? Huidige kaarten hebben gewoon een normale DP aansluiting en een actief verloopje van DP naar DVI kost maar zo'n 20 euro.
Ik heb 5 schermen, allemaal DVI. Van wat ik gelezen heb hebben de AMD kaarten miniDP poorten (dus per monitor ook miniDP -> DP) en is de goedkoopste actieve DP->DVI dacht ik toch wel iets duurder dan 20 euro.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 00:50
Ik begrijp ook even niet hoe dat NVIDIA een voordeel geeft, want in beide gevallen zitten er toch twee DVI aansluitingen op? En aangezien NVIDIA toch niet meer dan twee monitors per kaart aan kan sturen win je dan niks ten opzichte van AMD. Als het dan om een multi-GPU opstelling gaat voor Surround/Eyefinity wordt dat argument nog minder waard. Gevalletje aandacht? :/

Anyway, ik ben heel erg benieuwd naar de 570 t.o.v. 480, want ik verwacht eerlijk gezegd dat ze uitgewisseld worden in de lineup.

Edit @ Maxily vlak voor me: de AMD kaarten hebben *onder andere* DP ja, maar ook gewoon 2 DVI aansluitingen per kaart, zelfde als NVIDIA dus.

[Voor 12% gewijzigd door Werelds op 04-12-2010 13:13]

Maxily schreef op zaterdag 04 december 2010 @ 13:07:
[...]
Dat was als reactie op "wacht even op Cayman".
Omdat de prijzen dan waarschijnlijk weer gaan verschuiven. ;)
Ik heb 5 schermen, allemaal DVI.
Dan moet je sowieso geen nVidia nemen, maar AMD.
Van wat ik gelezen heb hebben de AMD kaarten miniDP poorten
Een HD5870 Eyefinity6 heeft dat alleen.
en is de goedkoopste actieve DP->DVI dacht ik toch wel iets duurder dan 20 euro.
Misschien 1/2 euro meer ja, is maar net waar je hem koopt natuurlijk. ;)
Werelds schreef op zaterdag 04 december 2010 @ 13:07:
Anyway, ik ben heel erg benieuwd naar de 570 t.o.v. 480, want ik verwacht eerlijk gezegd dat ze uitgewisseld worden in de lineup.
De GTX570 wordt goedkoper.

[Voor 18% gewijzigd door -The_Mask- op 04-12-2010 13:13]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 25-09 14:32
Mijn idee was:
2 580's in SLI met 3 schermen erop
1 passief gekoelde 8400gs (heb ik al) voor de overige 2 schermen.

Bij AMD kun je 6 schermen aansluiten op 1 kaart, maar dan moet je 2 schermen op 1 DP poort kunnen zetten, wat geloof ik neerkomt op 2-300 euro. (en je kan in Crossfire dacht ik niet alle aansluitingen op beide kaarten gebruiken)

Ik had me ook al redelijk verdiept in actieve adapters voor DP -> DVI. Regel 1 die ik altijd tegenkom is dat een actieve adapter stroom nodig heeft, wat wordt meestal via een USB poort geleverd. De enige adapters die ik kan vinden voor 20ish euro missen die USB kabel. Er is wel deze Sapphire adapter maar daar staat dan een plaatje bij van een passieve adapter. Andere actieve adapters kosten meteen 100+ euro.

Mijn redenering:
- Ik kan 2 AMD's kopen + adapters en hopen dat het goed gaat
- Ik kan 2 Nvidia's kopen en zeker weten dat het goed gaat

Bij dit soort bedragen ga ik voor de 100% zekerheid.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Vooral doen, maar val ons er niet mee lastig.

  • SupremeRick
  • Registratie: Mei 2010
  • Laatst online: 01-10 14:25

SupremeRick

Muse Fan

madmaxnl schreef op zaterdag 04 december 2010 @ 15:41:
Vooral doen, maar val ons er niet mee lastig.
ey man.. daar is dit topic voor.

PC: CPU: i9-10900KF @ 4.8GHZ | GFX: MSI Gaming X GTX1080Ti | RAM: GSKILL TridentZ 4x16GB @ 3600MHz | SSD: 2TB | HDD: 1TB | Mobo: Asus Strix Z470-e | Case: Corsair 500D SE | Cooler: Corsair H150i


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Maxily schreef op zaterdag 04 december 2010 @ 14:56:
- Ik kan 2 AMD's kopen + adapters en hopen dat het goed gaat
- Ik kan 2 Nvidia's kopen en zeker weten dat het goed gaat

Bij dit soort bedragen ga ik voor de 100% zekerheid.
Je kunt per AMD-kaart sowieso 2 schermen aansturen zonder DP te gebruiken (dus DVI, HDMI of VGA). Je kunt in Windows XP en Windows 7 rustig AMD en nVidia kaarten combineren, dus kun je er rustig een 8600 naast plaatsen. Crossfire hoeft niet aan te staan om 2 AMD kaarten te kunnen gebruiken, ze zullen alleen verschillende dingen doen.

Zou je een HD6k kaart kopen, dan zou je zelfs af kunnen met 1 kaart en het juiste kastje aan een DP 1.2 gekoppeld, waardoor je meer DVI-poorten beschikbaar krijgt. Dat kastje zal misschien niet goedkoop zijn, maar wanneer je naar GTX570/580's kijkt, of HD69xx's kijkt, dan zal het nog altijd voordeliger zijn.

Bij nVidia heb je de optie om 2 monitoren per kaart aan te sluiten wanneer je geen SLI gebruikt, of 3 in totaal bij SLI. Bij AMD kun je technisch al je 5 monitoren op 1 kaart aansluiten, met als bijkomend voordeel dat je er ook 1 grote desktop van kunt maken.

HD6k (DP 1.2) + DP MST-hub = max 6 SL DVI aansluitingen

Maar goed, deze hele discussie heeft eigenlijk weinig te maken met nVidia-nieuws.

Anoniem: 263922

SupremeRick schreef op zaterdag 04 december 2010 @ 15:46:
[...]

ey man.. daar is dit topic voor.
zoals dahakon en madmax al aangeven, dit soort vragen horen thuis in andere topics.

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 25-09 14:32
Ja een discussie tussen wat de beste optie is / welke mogelijkheden er zijn kan beter in een ander topic. Ik kwam hier in de eerste plaats omdat ik me afvroeg of er al wat bekend is over de beschikbaarheid van de GTX 580 kaarten.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Nee.
Anoniem: 263922 schreef op zaterdag 04 december 2010 @ 15:52:
zoals dahakon en madmax al aangeven, dit soort vragen horen thuis in andere topics.
Vragen kan ik het niet echt noemen want wat wij ook zeggen hij weet het blijkbaar toch al.
Dus laat Maxily maar met rust. Hij gaat zijn GTX580'jes halen en leeft nog lang en gelukkig...

@dahakon

Rationeel gezien heb jij wellicht gelijk maar ach laat Maxily het op zijn gevoel doen en hiermee de discussie sluiten ;)

  • windwarrior
  • Registratie: Januari 2009
  • Laatst online: 16-07 12:45

windwarrior

ʍıupʍɐɹɹıoɹ

Das best cool! leuk dat nVidia daar over nadenkt! (kerstmis enzo, en dat ze daarom een vette review doos sturen)

Veder is het gewoon een mooie kaart, maar ja, benchmarks zullen alles zeggen :p

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ziet er iig zeker netjes uit.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 28-09 10:43
"Reviewers Guide" staan zeker alle regels in om de volgende keer nog in aanmerking te komen voor een review sample? ;)

  • Resinman
  • Registratie: September 2001
  • Laatst online: 22:35
edit: topicregels niet goed doorgenomen.

[Voor 80% gewijzigd door Resinman op 06-12-2010 11:45]


Anoniem: 245699

GeForce GTX 570 seen in more detail
The GeForce GTX 570 is supposed to be up to 20% faster than the GTX 480 and will consume less power than the former single-GPU flagship.
Ja, dit zal wel een enkele uitzindering worden (Vantage ofzo), want anders kan de GTX580 inpakken! ;) :+
Resinman schreef op maandag 06 december 2010 @ 11:42:
edit: topicregels niet goed doorgenomen.
Je mag de eerste prijsvermelding van een nieuwe kaart wel melden, het is alleen niet de bedoeling om de prijzen van oude kaarten te noemen aangezien die gewoon in de pricewatch van T.net staan.

Overigens de Gigabyte GTX570

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Dat is behoorlijk goed moet ik zeggen, een tikkeltje sneller dan de GTX480, maar wel de stilste koeler van allemaal. Jammer alleen dat het verbruik en de temperatuur niet gemeten zijn.

  • Snobbieh
  • Registratie: Juli 2009
  • Laatst online: 28-09 17:46
Naast Gigabyte heeft ook EVGA nu zijn GTX570 officieel geïntroduceerd.
Linkje naar het artikel:
http://www.evga.com/articles/00596/

Naast de gewone ook de Superclocked editie, met 797MHz/1594MHz tov de gewone met 732MHz/1464MHz.

Vind ik toch al een redelijke overclock :)

I7 2600K - 8GB - M550 256GB - GTX 670


  • frankknopers
  • Registratie: December 2003
  • Laatst online: 27-09 17:57

frankknopers

Goud is geen geld

Review op HWI: http://nl.hardware.info/r...ia-geforce-gtx-570-review

Stukje uit de conclusie:
Op basis van de specificaties viel het natuurlijk wel al een beetje te verwachten: de GeForce GTX 570 is gemiddeld een fractie sneller dan de GeForce GTX 480. De prijs is bijzonder scherp: GTX 570 krijgt een adviesprijs van € 349 en we hebben ze al gespot voor € 325. Dat is aanzienlijk minder dan de GeForce GTX 480, die stiekem al lang en breed end-of-life is. Het zorgt er ook voor dat de prijs/prestatieverhouding van de GTX 570 een stuk beter is dan die van de GTX 580.
Verder een stroomverbruik dat heel iets lager is dan de GTX 580 en de geluidsproductie die iets hoger ligt dan van de GTX 580. Tegenover de Radeon HD 5870 van AMD verbruikt deze nieuwe GTX 570 videokaart toch bijna 100 watt meer tijdens het gamen....

Goud is geen geld


  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Ik vind dat de GTX570 maar goed wordt ontvangen bij de reviewers.

Recommended awardje bij Guru3D...
Dam good and dam good value award bij HwardwareCanucks...
Editor's choice award bij TechPowerUp...

Zelf vind ik het maar een kaartje van niets. Het is wat de GTX470 had moeten zijn dus een zelfde soort verhaal als met de GTX580.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 28-09 10:43
Laten we het dan houden op voor nV's doen best goed? ;)
Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee