Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 23-10 13:20
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://tweakers.net/ext/f/vk6NC61HWU4mCS3CpAwzGj3w/full.png
http://tweakers.net/ext/f/0gq9dzNqXrJxGjqIEmdBvWSY/full.png

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://tweakers.net/ext/f/OEMSKlTI4NplH15VysnATmhf/full.png

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://tweakers.net/ext/f/WsoUsscyv7c06BpDDUgZ9x8z/full.png

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://tweakers.net/ext/f/PRYg9ix02qPiwwghygHwnlPM/full.png

Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44
http://tweakers.net/ext/f/yC6eoTPfNIuVsPvpfEON2auk/full.png

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden ;)

http://tweakers.net/ext/f/oeO9UCeN5V2kbcSD7IoAA3VI/full.png

Instap level


http://tweakers.net/ext/f/kJllz2dJMbQgrbMiLged2P0G/full.png

GT420 OEM
  • GPU: GF108
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:48
  • Shader clock: 1400 MHz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: 900 MHz
  • Memory Bandwidth: 28.8 GB/sec
  • Memory Interface: 128 bit
  • Memory: 2048 MB DDR3
  • Consumption: max 50 Watt • Enkel OEM


http://tweakers.net/ext/f/YyFzuDu4nAyMRhr2Y67hGEnT/full.png

GT 520
  • GPU: GF108
  • Release Date: 12/4/2011
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:48
  • Shader clock: 1620 MHz
  • ROP's: ??
  • Core Clock: 810 MHz
  • Memory Clock: 900 MHz
  • Memory Bandwidth: 14,4 GB/sec
  • Memory Interface: 64 bit
  • Memory: 1024 MB DDR3
  • Consumption: max 29 Watt

Low End


http://tweakers.net/ext/f/DkPaXqmr9RRnW1s96Zac9uO5/full.png

GT 430
  • GPU: GF108
  • Release Date: 11/10/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • Unified shaders:96
  • Shader clock: 1400 MHz
  • ROP's: 4
  • Core Clock: 700 Mhz
  • Memory Clock: 800 - 900Mhz (GDDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Consumption: Officieel max 49 Watt


http://tweakers.net/ext/f/qhZzhfxW3FfojA2o955BFxvw/full.png

GTS 440
  • GPU: GF106
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:144
  • Shader clock: 1189 MHz
  • ROP's: ??
  • Core Clock: 594 Mhz
  • Memory Clock: 800-900 Mhz (GDDR3)
  • Memory Bandwidth: 38.4-43.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 1.5 - 3.0 GB
  • Texture Units: ??
  • Beperkte 2-sli (zelfde fabrikant vereist)
  • Enkel OEM
  • Consumption: max 56 Watt

http://tweakers.net/ext/f/zyNYTfoAPOCswmsJDk5AK6od/full.png

Mid-End


http://tweakers.net/ext/f/om6eLGdcDwOFdcd0fFIIf7SZ/full.jpg

GTS 450
  • GPU: GF106 (40nm)
  • Release Date: Q2 2010 Uitgesteld naar 13 september
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders:192
  • Shader clock: 1566 MHz
  • ROP's: 16
  • Core Clock: 789 983 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 60,16/90,24 57,6 GB/s
  • Memory Interface: 128 /192 bit
  • Memory: 512?/768?/ 1024/2048? MB
  • L2 Cache Size: 256KB
  • Texture Units: 32
  • Consumption: max 106 watt
  • Performatie: mid-end


http://tweakers.net/ext/f/p6pm6JDWTw9I48nwh5uBM457/full.png

GTX 550 Ti
  • GPU: GF116 (40nm)
  • Release Date: 15/03/2011
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders: 192
  • Shader clock: 1800 MHz
  • ROP's: 24
  • Pixel Fill Rate: 21.6 GP/s
  • Core Clock: 900 Mhz
  • Memory Clock: 1026 Mhz (GDDR5)
  • Memory Bandwidth: 98,5 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 1024MB
  • Texture Units: 32 (28.8 GT/s)
  • Consumption: 116 Watt (TDP)
  • Performantie: Mid-end


Mid-end


http://tweakers.net/ext/f/PAMMmwyFFiHe26Hme9uCQLyI/full.jpg

GTX 460 SE
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 288 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 650 Mhz
  • Memory Clock: 850 Mhz (GDDR5)
  • Memory Bandwidth: 108,8 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • L2 Cache Size: 384KB
  • Texture Units: 48
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:Mid-end


http://tweakers.net/ext/f/PAMMmwyFFiHe26Hme9uCQLyI/full.jpg

GTX 460 768 MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 86,4 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 768MB (mogelijkheid voor 1536MB)
  • L2 Cache Size: 384KB
  • Texture Units: 56
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end

http://www.pcper.com/images/reviews/997/slide1.jpg

High Mid-end


http://tweakers.net/ext/f/sTFtJ7WosxLY0YI13NCGRXbd/full.jpg

GTX 460 1024MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 32
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 115,2 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • Texture Units: 56
  • L2 Cache Size: 512KB
  • Consumption: 160 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


http://tweakers.net/ext/f/0q2TbwYTM5yB3Lhan3EXw3rY/full.png

GTX 560 Ti
  • GPU: GF114 (40nm)
  • Release Date: 25/01/2011
  • Interface: PCI-E x16 2.0
  • Transistors: 1,95 miljard
  • Unified shaders: 384
  • Shader clock: 1645 MHz
  • ROP's: 32
  • Core Clock: 822 Mhz
  • Memory Clock: 1002 Mhz (GDDR5)
  • Memory Bandwidth: 128,26 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB (mogelijkheid voor 2048MB)
  • Texture Units: 64 (52,6 GT/s)
  • Consumption: 170 Watt TDP
  • Performantie:High Mid-end


Tesla


http://tweakers.net/ext/f/7q38KjiiRxT2cpclLeMB5jIh/full.png

Tesla C2050
  • GPU: Tesla T20
  • Release Date: "early" Q2 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 600-1200 MHz
  • Memory Clock:900 MHz (GDDR5)
  • Memory Bandwidth: 172.8 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 3GB GDDR5
  • Consumption: 190W(typical)
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


http://tweakers.net/ext/f/MAzyGTk977FWgV6yNKD5CmIs/full.png

Tesla C2070
  • GPU: Tesla T20
  • Release Date: Q3 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 480??
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 700-1400 MHz
  • Memory Clock:1000Mhz (GDDR5)
  • Memory Bandwidth: 192 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 6 GB (GDDR5)
  • Consumption:maximaal 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


Low High End


http://tweakers.net/ext/f/5phKol5UPNmb8Iek180o4oMV/full.png

GTX 465
  • GPU: GF100
  • Release Date: eind mei 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 352
  • Shader clock:1215 MHz
  • Core Clock: 607 MHz
  • ROP's: 32
  • Pixel Fill Rate: 26.7 GP/s
  • Memory Clock: 802 Mhz (GDDR5)
  • Memory Bandwidth: 102.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Consumption: max 200W


http://tweakers.net/ext/f/zTqEgbHiSmqQDE9FFgV8xNI7/full.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt

http://tweakers.net/ext/f/REatBjguJ5slPw5Gt74HVMU6/full.png

High End


http://tweakers.net/ext/f/WBoGrLatcvx446T60MAjThFC/full.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt


http://tweakers.net/ext/f/UrIQeHx1VTLpB7KMI6O0weK4/full.png

GTX 570
  • GPU: GF110
  • Release Date: 7/12/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 480
  • Shader clock: 1464 Mhz
  • Core Clock: 732 MHz
  • ROP's: 40
  • Pixel Fill Rate: 43,92 GP/s
  • Memory Clock: 950MHz (GDDR5)
  • Memory Bandwidth: 152 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 60
  • Texture Fill Rate: 43.9 (miljard/sec)
  • Consumption:219 Watt


High End


http://tweakers.net/ext/f/UrIQeHx1VTLpB7KMI6O0weK4/full.png

GTX 580
  • GPU: GF110
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2? miljard
  • Unified shaders: 512
  • Shader clock: 1544 Mhz
  • Core Clock: 772 MHz
  • ROP's: 48
  • Pixel Fill Rate: 37.06 GP/s
  • Memory Clock: 1002 (GDDR5)
  • Memory Bandwidth: 192,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Texture Fill Rate: 49.4 (miljard/sec)
  • Consumption: 250 Watt


http://tweakers.net/ext/f/Wyvvp6svIARkHt8itVrHqbIX/full.jpg

GTX 590
  • GPU: 2*GF110
  • Release Date: Zomer 2010 --> 24 maart 2011
  • Interface: PCI-E x16 2.0
  • Transistors: 2*3,0 miljard
  • Unified shaders: 512*2
  • Shader clock:1215 mhz
  • Core Clock:607 Mhz
  • ROP's: 2*48
  • Pixel Fill Rate:58,75 GP/s
  • Memory Clock: 853,5 Mhz (GDDR5)
  • Memory Bandwidth: 2* 163,9GB/s
  • Memory Interface: 2* 384 bit
  • Memory: 2*768/1536 MB
  • Texture Units: 64*2
  • Texture Fill Rate: 77,7 (miljard per sec)
  • Consumption: "Extreme" 365Watt officiele TDP


ModelGPUShadersGPU
kloksnelheid
Geheugen
type
Geheugen
snelheid
Band
breedte
Bus
breedte
SLI
GT 410MGF11948575MHz(G)ddr31600MHz12,8GB/s64bitNee
GT 520MGF11948740MHzddr31600MHz12,8GB/s64bitNee
GT 520MXGF11948900MHzddr31800MHz14,4GB/s64bitNee
GT 415MGF10848500MHzddr31600MHz25,6GB/s128bitNee
GT 420MGF10896500MHzddr31600MHz25,6GB/s128bitNee
GT 425MGF10896560MHzddr31600MHz25,6GB/s128bitNee
GT 525MGF10896600MHzGddr5/ddr31800MHz28,8GB/s128bitNee
GT 435MGF10896650MHzddr31600MHz25.6GB/s128bitNee
GT 540MGF10896672MHzGddr5/ddr31800MHz28,8GB/s128bitNee
GT 550MGF10896740MHzGddr5/ddr31800MHz28,8GB/s128bitNee
GT 445MGF106144590MHzGddr5/ddr31600/2500MHz25.6/60GB/s128/192bitNee
GT 555MGF106/8144590MHzGddr5/ddr31800MHz43,2GB/s192bitNee
GT 560MGF116192775MHzGddr52500MHz60,0GB/s192bitNee
GT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee
GTX 485MGF104384575MHzGddr53000MHz76,8GB/s256bitJa
GT 570MGF114192575MHzGddr5300MHz72,0GB/s192bitNee

http://tweakers.net/ext/f/GPCgKFkN9s6Mb66dfTT92lPU/full.png

Het vroegtijdig overlijden van ons forumlid CJ:
The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
Nieuws: 'Nvidia introduceert GTX 590 op 22 maart samen met Crysis 2'
Nieuws: Eerste details GTX 590 lekken uit
Nieuws: Fabrikanten introduceren GTX 550 Ti
Nieuws: Nvidia introduceert nieuwe Quadro-gpu's voor laptops
Nieuws: GTX 560 krijgt Ti-aanduiding en komt op 25 januari

nieuws: Nvidia maakt gamingapplicatie voor Android
Nieuws: Intel en Nvidia begraven strijdbijl met verrassende deal
Nieuws: Nvidia komt met ARM-cpu's voor pc's en supercomputers
Nieuws: Nvidia: smartphones krijgen in nabije toekomst quadcore-cpu's
Nieuws: Nvidia wil Cuda ook naar mobieltjes brengen

Externe nieuwsberichten:
Project Denver
nVidia heeft op CES hun nieuwste project betreffende het Tegra/ARM platform voorgesteld. Blijkbaar wil nVidia verder gaan dan dat ze tot nu toe met Tegra hebben bereikt. Momenteel houdt Tegra in dat een nVidia video chip wordt gecombineerd met 1 of meerdere aangekocht ARM chips om samen een platform te vormen.
nVidia toont blijkbaar nu ook de aspiratie om de ARM cpu chips zelf te ontwikkelen en te laten produceren (nVidia is nog steeds fabless). Door de licentiedeal met Intel en de bekomen licenties op de toekomstige ARM structuur is er juridisch geen hinderpaal meer voor nVidia. Daar ook Windows 8 compatibel wal worden met ARM hoopt nVidia hierdoor een concurrentieel platform te kunnen opbouwen dat op lange termijn zelf tegen de huidige x86 platformen kan komen te staan.
Dit vooral voor tablets/smartphones en andere toepassingen. Dat er in deze markt een serieuze groei wordt verwacht is duidelijk, zelf Intel wil een deel van de koek met hun atom cpu's (en dus de x86 instructieset)
nVidia:
“Project Denver” Processor to Usher in New Era of Computing
CES:
Microsoft Announces Support of System on a Chip Architectures From Intel, AMD, and ARM for Next Version of Windows

FP:
Nieuws:Intel: Windows op ARM biedt ons kansen en bedreigingen
Nieuws: 'Notebookmakers tonen weinig interesse in Atoms voor tablets'
CES: Nvidia komt met ARM-cpu's voor pc's en supercomputers
CES: Nieuwe Windows-versie ondersteunt ARM-architectuur
Totdat hun nieuwe ARM cpu af is blijft men geloven in Tegra2 (vooral in tablets en in wagens zo blijkt)
CES: BMW en Tesla gebruiken Nvidia Tegra-soc voor displays
CES: Cartech
CES: Hands-on Kwartet opvallende tablets van Asus
CES: Hands-on met Dells Streak 7: degelijkheid troef
CES: Hands-on Acers 10"-tablet met Android
CES: Hands-on Motorola Atrix: smartphone of netbook?
Eerste smarthphone met een dualcore Tegra2 chipset
CES: Hands on LG Optimus Speed met dualcore cpu

Licentiedeal met Intel
Na een enorm lange juridische strijd met Intel heeft nVidia eindelijk een licentiedeal kunnen sluiten met Intel.
Als voordeel hiervan krijgt nVidia een royale vergoeding voor het verliezen van de rechten voor chipsets te produceren voor de nieuwe CPU's van Intel.
Echter krijgt nVidia ook geen rechten om x86 cpu's of het x86 platform te emuleren (bv op een ARM processor).
Gevolgen: • De hoogst winstgevende chipsetdivisie van nVidia is nu defenitief verleden tijd, IGP's van nVidia voor intel en eigenlijk ook AMD zullen niet meer gefabriceerd worden. (Dit werd al vroeger aangekondigd door nVidia zelf).
• Project Denver zal dus bestaan uit ARM processors en nVidia zal op die platform niet de x86 instructieset mogen gebruiken of emuleren.
Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
Anandtech: Intel Settles With NVIDIA: More Money, Fewer Problems, No x86
Intel Announces New Patent Cross License Agreement with NVIDIA

Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details :P)
China claims supercomputer crown

Anandtech: Intel Settles With the FTC

HotHardware: NVIDIA Unleashes Quadro 6000 and 5000 Series GPUs

http://tweakers.net/ext/f/4Dzob8a0cEi7sAZ61NttiNXb/full.png

GTX 590
Nvidia (en AMD) zit de laatste tijd niet stil qua release van nieuwe kaarten; na de release van de GTX550 en de GTX 540 gaat het gerucht dat men binnenkort, samen met de release datum van crysis2 de GTX590 zal releasen.
Zoals waarschijnlijk bijna iedereen wel weet gaat het hier om de eerste dual gpu-kaart van nVidia sinds de release van de GTX295.
De grote vraag zal voornamelijk bij deze kaart zijn hoeveel hij verbruikt en of hij AMD's nieuwste dual GPU kaart kan verslaan..
Zowel het verbruik als de prestaties als de overklokbaarheid van deze kaart hangen grotendeels af van hoe goed nVidia deze kaart gekoeld kan krijgen.
We zijn dus met z'n allen benieuwd welke variant van vapior chamber cooling nvidia zal gebruiken op hun nieuwste paradepaardje.

http://tweakers.net/ext/f/BQ9ODvXrshOojNIhlM76bP1Q/full.png

Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9, 200, 400 en 500 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Windows OS:De allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews van de GeForce GTX 550 Ti:
Hardware.info
Anandtech
bit-tech
Guru3D (Galaxy WHITE)
Guru3D (MSI CycloneII)
HardwareCanucks (Roundup)
HardwareHeaven
Legit Reviews
PC Perspective
• techPowerUp: Palit, MSI, ZOTAC, ASUS
TechRadar
Tom's Hardware

Reviews van de GeForce GTX 560 Ti:
Hardware.info
Anandtech
bit-tech
Guru3D (Palit, sli)
[H]ard|OCP
• HardwareHeaven: Gainward, Gigabyte
Legit Reviews (ASUS
PC Perspective (Roundup)
techPowerUp
TechRadar
Tom's Hardware

Reviews van de GeForce GTX 570:
Hardware.info
AnandTech
bit-tech
Guru3D
Guru3D (Palit)
HardwareCanucks
[H]ard|OCP
HardwareHeaven
Legit Reviews
techPowerUp
TechSpot
TechRadar
Tom's Hardware

Reviews van de GeForce GTX 580:
Hardware.info
AnandTech
bit-tech
Guru3D
HardwareCanucks
[H]ard|OCP
HardwareHeaven
HOTHardWare
Legit Reviews
Overclockers Club
PC Perpective
techPowerUp
TechRadar
The Tech Report
TechSpot
Tom's Hardware

Reviews van de GeForce GTX590:
Hardware.info (Quad Sli)
AnandTech
BenchmarkReviews
bit-tech
Guru3D
HardwareCanucks
[H]ard|OCP
HardwareHeaven (Quad Sli)
Hi Tech Legion
HOTHardware
InsideHW
Legit Reviews
NeoSeeker
PC Perspective
techPowerUp
TechRadar
The Tech Report
TechSpot
TweakTown
Tom's Hardware

Vorige Topics:Gebruikerservaring:
Het Nvidia GTX5xx series ervaringen topic
Het Nvidia GTX4xx series ervaringen topic
nVidia GTX470/GTX480 Levertijden Topique

[Ervaringen] Bakken grafische kaart
Het doodgaan van GeForce 8000 serie kaarten

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce Qaudro in de Pricewatch
http://tweakers.net/ext/f/d5xWaiLfzcNDVvHWQTCBig5F/full.png


http://tweakers.net/ext/f/0DdzFvC1WWOgOYiocjTLx9kB/full.png


http://tweakers.net/ext/f/v028mOQOmJNRaEnKZXfqtNtu/full.png


http://tweakers.net/ext/f/dZdZe4g3PhsXQETnXCVX44qB/full.png

http://www.nvidia.com/docs/CP/11033/purevideo_header.jpg

Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum




Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
  • PV engine 4 bijvoegen
  • CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

lightdestroyer wijzigde deze reactie 25-08-2011 10:56 (107%)
Reden: Toevoegen GT 520 en de GTX590 reviews, GTX5xx ervaringen topic, update GTX570+ specs

Specs


  • Deathchant
  • Registratie: september 2003
  • Laatst online: 22:20

Deathchant

Don't intend. Do!

De GTX590 staat nog onder geruchten. Lijkt me dat dat geupdated kan worden ;)

Canon: 40D | 10-22/3.5-4.5 | 17-55/2.8 IS | 70-200/2.8L IS II
Carl Zeiss : 2/50 Makro-Planar T* :)


  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 23-10 13:20
quote:
Deathchant schreef op dinsdag 05 april 2011 @ 11:48:
De GTX590 staat nog onder geruchten. Lijkt me dat dat geupdated kan worden ;)
Point taken :D

Direct mijzelf de vrijheid te geven de laatste 4 missende images in orde te maken..

TO DO; review linken aanvullen + nieuwsberichten updaten. (die fameuze 4 ontplofte kaarten waardoor je nu niet meer kan overvolten op de GTX590 ism de nieuwste beta drivers, de driver notificatie update, de aggressiever maar blijkbaar niet altijd werkende? thermische beveiliging, enzoverder ..
quote:
sjekneck schreef op dinsdag 05 april 2011 @ 12:09:
Kijken of dit deel ook zo rap vult :P
:'(
Doe me da aub niet aan, tis al 2 topics serieus uit de hand aan het lopen qua max aantal replies per topic deel.

lightdestroyer wijzigde deze reactie 05-04-2011 12:57 (18%)

Specs


  • Kid Jansen
  • Registratie: oktober 2005
  • Niet online
Modbreak:
Laten we nou maar niet meteen aanzetten tot het zo snel mogelijk vullen van dit topic. Houd het gewoon on-topic, we hebben veel meer aan kwaliteit dan aan kwantiteit.

  • daan!
  • Registratie: februari 2007
  • Laatst online: 06-08 19:09
Was deze al langs gekomen?
quote:
Nvidia has capped the voltage at the default 938 mV on GTX 590 cards starting in release 267.91. We've confirmed that the latest 270.51 betas will not allow us to raise our GTX 590's voltage at all using MSI's Afterburner utility.
en
quote:
Asus has released a new video BIOS for its GTX 590 cards that apparently limits its VoltageTweak overvolting feature to more manageable levels.
http://forums.guru3d.com/showthread.php?p=3944860

daan! wijzigde deze reactie 05-04-2011 17:15 (20%)


  • sjekneck
  • Registratie: juni 2003
  • Laatst online: 21-10 15:13
quote:
Dus lijkt het erop dat nvidia niet compleet aan het liegen was toen er vermeld was dat de aangepaste biossen (waaronder die van Asus) de toedracht waren van een aantal doorgefikte kaarten.

  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 21-10 00:12
Dan nog zou het toch mogelijk moeten zijn om die kaarten te overclocken zonder al te gek veel risico's, het zijn vooral enthiousiasts waar die kaarten heen gaan, en die hebben vaak genoeg een flinke wc setup, of een ln2 testbench etc.

Ik zeg dan niet dat ik het een slechte kaart vind, maar ze hebben eerder al AMD enigzins onderschat, bijvoorbeeld met de gtx2xx serie welke omlaag schoot in prijs omdat de hd4870 zo sterk was, en nu met de gtx590 welke op het laatste moment flink op zijn grenzen in het schap werd gelegd.
zolang ze het overclockgevaar enigzins weten in te perken is er weinig aan de hand, natuurlijk is de oc-marge wat kleiner dan bij bijvoorbeeld een gtx580, maar het was leuk geweest als je zonder veel risico stock gtx580 frequenties kon draaien.

Het probleem van een hoog verbruik neemt alleen maar toe, de 9800gx2 en hd3870x2 zaten ruim onder de 300W grens, zowel de hd6990 en gtx590 gaan er bruut overheen, straks zitten we weer op single-gpu topkaarten :P

  • daan!
  • Registratie: februari 2007
  • Laatst online: 06-08 19:09
quote:
sjekneck schreef op woensdag 06 april 2011 @ 00:08:
[...]

Dus lijkt het erop dat nvidia niet compleet aan het liegen was toen er vermeld was dat de aangepaste biossen (waaronder die van Asus) de toedracht waren van een aantal doorgefikte kaarten.
De originele Nvidia bios liet ook overvolten toe, dat hebben ze nu onmogelijk gemaakt.
Blijkbaar was zelfs die marginale overvolt schadelijk.
Ik trek dus juist de tegenovergestelde conclusie dat de GTX590 zelfs een minimale overvolt niet aankan.
Iets dat ik niet verwacht van een 'flagship' videokaart.

Al is een overvolt nog wel mogelijk bij de asus kaart, dus waarom Nvidia dan de overvolt op de default kaarten helemaal uitschakelt.. ??

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

De hitte is niet de oorzaak van het doorbranden, maar het feit dat het vebruik gewoon veel te hoog ligt.

Er zitten 10 MOSFET's op de kaart goed voor 30w elk, 300W dus. AMD heeft echter voor ruim 750W aan MOSFET's op de kaart gepropt.

http://geekswarm.nl/nieuw...gtx-590-geanalyseerd.html

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • Kid Jansen
  • Registratie: oktober 2005
  • Niet online
offtopic:
volgens mij bedoel je MOSFET's

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 18-10 00:25

Cheetah

Try to live without PC ;)

quote:
Darkstone schreef op woensdag 06 april 2011 @ 01:34:
Er zitten 10 MOSFET's op de kaart goed voor 30w elk, 300W dus. [...]

http://geekswarm.nl/nieuw...gtx-590-geanalyseerd.html
Dit klopt niet, iedere MOSFET kan op stock voltage 35A*0,94V=33W hebben, ofwel totaal 10*33=330W op standaard voltage, voor de GPU's alleen. Deze capaciteit neemt juist toe naarmate het voltage toeneemt, bijvoorbeeld: 35A*1,00V*10=350W.
Dit betreft overigens niet hun piek-capaciteit, maar hun continu-capaciteit, dus deze belasting zouden er geen problemen moeten optreden.

We hebben geen informatie over het maximale voltage dat de MOSFET's kunnen hebben, dus kunnen het maximale wattage dat ze kunnen hebben ook niet berekenen (niet zo min als hun piek), maar bovenstaand moet dus i.i.g. geen probleem zijn.

Het is misschien goed om ook in gedachten te houden dat dit beta's betreffen, uit de periode dat die paar kaarten uitvielen. Lijkt me beter om de WHQL's af te wachten alvorens oordelen te gaan vellen.

<edit> Origineel artikel komt (alweer) van TechReport.
Interessant leesvoer. Mijn respect aan hun; if only Tweakers would do this kind of stuff, nuff said.
quote:
Given the way our GTX 590 card tolerated a reasonable bump up in voltage, we think this zero-tolerance voltage cap is probably a PR-driven overreaction. Then again, our WICKED config admittedly drew quite a bit of power—enough to make us uncomfortable. Either way, unfortunately, this change means GTX 590 owners will be robbed of what little headroom their cards may have in store.

We'll call it the Way-Extreme Amperage Kap, or WEAK.
_O-

Cheetah wijzigde deze reactie 07-04-2011 11:44 (23%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, Asus GTX670 DC2 TOP
Samsung 830 256GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Philips 32" 9605H Ambi/LED
Full Specz


  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
quote:
Cheetah schreef op donderdag 07 april 2011 @ 11:29:
Dit klopt niet, iedere MOSFET kan op stock voltage 35A*0,94V=33W hebben, ofwel totaal 10*33=330W op standaard voltage, voor de GPU's alleen. Deze capaciteit neemt juist toe naarmate het voltage toeneemt, bijvoorbeeld: 35A*1,00V*10=350W.
Dit betreft overigens niet hun piek-capaciteit, maar hun continu-capaciteit, dus deze belasting zouden er geen problemen moeten optreden.
Alleen loopt de efficienty terug bij hogere belasting, dus mis je weer wat watts bij de 35 AMP, waardoor je toch weer terug komt bij die ~300 Watt totaal voor de 2 GPU's samen.
quote:
We hebben geen informatie over het maximale voltage dat de MOSFET's kunnen hebben, dus kunnen het maximale wattage dat ze kunnen hebben ook niet berekenen (niet zo min als hun piek), maar bovenstaand moet dus i.i.g. geen probleem zijn.
Als ik de specificaties zo bekijk, dan hebben we die dus wel. Er komt in terug dat ze een max hebben van 1.3V en een typisch gebruik op 1.1V en minimaal 0.7V nodig hebben. Daarmee zat Asus dus nog prima binnen de marge met hun 1.2V.

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 18-10 00:25

Cheetah

Try to live without PC ;)

quote:
dahakon schreef op donderdag 07 april 2011 @ 17:41:
Alleen loopt de efficienty terug bij hogere belasting, dus mis je weer wat watts bij de 35 AMP, waardoor je toch weer terug komt bij die ~300 Watt totaal voor de 2 GPU's samen.
Als de leverancier stelt dat ze 35A continuous kunnen hebben dan kunnen ze 35A continuous hebben...
Ik ga dat persoonlijk niet ter dicussie stellen.

Als ze trouwens een max hebben van 1.3V zoals je hieronder stelt lopen ze op 0,94V absoluut niet tegen hun max en is het maximum continuous wattage per MOSFET 1.3V*35A = 45,5W. Juist om die berekening te kunnen maken vroeg ik me af wat hun max voltage was. 33W p/s zit daar ruim onder uiteraard.
quote:
Als ik de specificaties zo bekijk, dan hebben we die dus wel. Er komt in terug dat ze een max hebben van 1.3V en een typisch gebruik op 1.1V en minimaal 0.7V nodig hebben. Daarmee zat Asus dus nog prima binnen de marge met hun 1.2V.
Ik heb dat persoonlijk niet teruggevonden, was daar juist naar op zoek. Waar staat het precies? :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, Asus GTX670 DC2 TOP
Samsung 830 256GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Philips 32" 9605H Ambi/LED
Full Specz


  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
quote:
Cheetah schreef op donderdag 07 april 2011 @ 19:40:
[...]
Als de leverancier stelt dat ze 35A continuous kunnen hebben dan kunnen ze 35A continuous hebben...
Ik ga dat persoonlijk niet ter dicussie stellen.
Dat stel ik ook nergens ter discussie. Wat ik zeg is, dat als ze continue 35A moeten leveren op 0.935V, ze een theoretisch vermogen leveren van ~33 Watt. Alleen is de efficientie niet 100%, dus moet je daar weer wat van af schaven.
quote:
Als ze trouwens een max hebben van 1.3V zoals je hieronder stelt lopen ze op 0,94V absoluut niet tegen hun max en is het maximum continuous wattage per MOSFET 1.3V*35A = 45,5W. Juist om die berekening te kunnen maken vroeg ik me af wat hun max voltage was. 33W p/s zit daar ruim onder uiteraard.
Ja, theoretisch zouden ze dan zo'n 45 Watt kunnen leveren, op die 1.3V. Met de efficientie in het achterhoofd zal dat praktisch ergens rond de 40 liggen. Punt is echter dat de GF110 geen 1.3V vraagt van de Mosfets en op de gevraagde 0.935V ligt het leverbare vermogen dus een stukje lager.

Maar goed, wat er nu precies aan de hand is, blijft onduidelijk. De 1.2V zou dus niet dodelijk moeten zijn voor de Mosfets en het leverbare vermogen zou een stuk omhoog gaan. Misschien gaat het niet genoeg omhoog om de vraag veilig te beantwoorden, misschien is het mogenlijk dat er her en der een slechtere Mosfet aanwezig is die het gemakkelijker begeeft. Misschien is de koeling voor de Mosfets toch niet afdoende. Het blijven vragen tot er werkelijke duur-tests gedaan worden.

Waar ik de cijfers zag? Check the technische specificaties van de Mosfets nog een keer?

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Is de geleverde stroomsterkte niet onafhankelijk van het voltage?

edit: Wacht, dat hebben jullie al door :F

Darkstone wijzigde deze reactie 07-04-2011 20:02 (25%)

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen

GeForce GT 520 uses GF119 GPU in the low-end

NVIDIA has multiple low-end graphics cards coming, beside the already revealed GeForce GT 530 we now see signs of life from little brother, GeForce GT 520. Te card uses a new GF119 GPU that has been pictured in Asia where we also find a whole lot of specifications, including 48 CUDA cores and 1GB DDR3 memory.

http://www.nordichardware.com/images/labswedish/nyhetsartiklar/Grafik/gt520/largethumbnails/gt5203.jpg

  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
quote:
-The_Mask- schreef op donderdag 07 april 2011 @ 22:45:

GeForce GT 520 uses GF119 GPU in the low-end

NVIDIA has multiple low-end graphics cards coming, beside the already revealed GeForce GT 530 we now see signs of life from little brother, GeForce GT 520. Te card uses a new GF119 GPU that has been pictured in Asia where we also find a whole lot of specifications, including 48 CUDA cores and 1GB DDR3 memory.
Mocht in dat segment wel eens komen! Zal het dus tegen de HD6450 opnemen...

  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 23-10 13:20
quote:
MW1F schreef op donderdag 07 april 2011 @ 22:57:
[...]

Mocht in dat segment wel eens komen! Zal het dus tegen de HD6450 opnemen...
Hopelijk komt hij dan wel met een 128-bit memory interface daar hij zal concurreren met een 64 bit gddr5 kaart ..

Specs


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen
Beetje laat zo voor de GTX 560.

O ja en NVIDIA Slips in GeForce GT 520 Entry-Level Graphics Card
Vanaf zo'n 45 euro.

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 09-10 11:14
quote:
Ach ja, de Sapphire HD5850 Extreme is ook wat laat zo na de volledige 6000 serie. :P

--> If it can't be fixed, break it! <--


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen
Ja, maar deze GTX460 gaat niet zo'n geweldige prijs/prestaties krijgen als die HD5850. ;)

  • Jasper 99
  • Registratie: augustus 2007
  • Laatst online: 21-10 20:03
Ja moet zeggen dat ik die 2 gig versie een beetje raar vindt, dat ze een dual gpu 460 wilde uitbrengen ok, maar een 2gig versie :P nouja mischien voor 100 euro net als de 5850 dan is het wel mooi :P

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33

nVidia helpt bij ontwikkeling 3D websites

Geweldig nieuws; websites die straks in 3D alleen maar bekeken kunnen worden als je een nVidia kaart hebt. Opensource zit er bij nVidia ook gewoon niet in. Consument heeft hier dus geen fluit aan want 3D integratie op het internet wordt er door geremd want er zal weer geen duidelijk standaard komen hierin.

"Helpen" bij nVidia betekent meestal: zak geld, promotie, stickertje erop plakken en closed standard houden. Waardoor anderen partijen, de partij die door nVidia "geholpen" wordt niet ook eens kunnen (mee) helpen. Winning...

madmaxnl wijzigde deze reactie 14-04-2011 21:34 (31%)


  • spNk
  • Registratie: mei 2007
  • Laatst online: 00:27
Net waar ik op zat te wachten!!!.. 8)7

  • anathema
  • Registratie: augustus 2006
  • Laatst online: 22-10 11:18
quote:
madmaxnl schreef op donderdag 14 april 2011 @ 21:22:

nVidia helpt bij ontwikkeling 3D websites

Geweldig nieuws; websites die straks in 3D alleen maar bekeken kunnen worden als je een nVidia kaart hebt. Opensource zit er bij nVidia ook gewoon niet in. Consument heeft hier dus geen fluit aan want 3D integratie op het internet wordt er door geremd want er zal weer geen duidelijk standaard komen hierin.

"Helpen" bij nVidia betekent meestal: zak geld, promotie, stickertje erop plakken en closed standard houden. Waardoor anderen partijen, de partij die door nVidia "geholpen" wordt niet ook eens kunnen (mee) helpen. Winning...
Wat is er nou mis mee of vreemd aan dat Nvidia zijn eigen product 3DVision op deze manier probeert te ondersteunen :? . Ik heb net zo'n monitor, mooi toch dat dit kan? Nvidia nieuws moet en zal ook altijd negatief gebracht worden hier.....
Wel bedankt voor het posten overigens, ik zal het es proberen.

anathema


  • sjekneck
  • Registratie: juni 2003
  • Laatst online: 21-10 15:13
quote:
anathema schreef op donderdag 14 april 2011 @ 22:26:
[...]

Wat is er nou mis mee of vreemd aan dat Nvidia zijn eigen product 3DVision op deze manier probeert te ondersteunen :? . Ik heb net zo'n monitor, mooi toch dat dit kan? Nvidia nieuws moet en zal ook altijd negatief gebracht worden hier.....
Wel bedankt voor het posten overigens, ik zal het es proberen.
MadMax komt hier alleen posten als er tegen nvidia mondeling te schoppen is, dat went snel genoeg voor de meeste mensen die hier vaker komen ;)

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33
Als ik het breng is het meestal negatief, niet zo zeer om dat ik graag negatief ben. Maar eerder omdat dit gewoon is wat ik denk. Bekijk het van de zonnige kant, het kun alleen nog maar meevallen(waarbij iedereen gebaat is). Wellicht dat het toch wat te zwartgallig is maar, dat zal wel komen omdat ik me mentaal aan het voorbereiden ben op mijn examens.

madmaxnl wijzigde deze reactie 14-04-2011 22:37 (28%)


  • sjekneck
  • Registratie: juni 2003
  • Laatst online: 21-10 15:13
quote:
madmaxnl schreef op donderdag 14 april 2011 @ 22:34:
Als ik het breng is het meestal negatief, niet zo zeer om dat ik graag negatief ben. Maar eerder omdat dit gewoon is wat ik denk.
Reflecteer die gedachte eens in het AMD topic, daar ben je immers nooit negatief. Denk anders eens wat langer na voordat je een scene komt maken om een discussie uit te lokken. De term ´troll´ comes to mind.

  • anathema
  • Registratie: augustus 2006
  • Laatst online: 22-10 11:18
quote:
sjekneck schreef op donderdag 14 april 2011 @ 22:34:
[...]

MadMax komt hier alleen posten als er tegen nvidia mondeling te schoppen is, dat went snel genoeg voor de meeste mensen die hier vaker komen ;)
Weet ik ook wel hoor ;) Ik post niet meer zo vaak omdat het in de videokaart topics meestal toch niet veel verder komt dan Nvidia versus AMD discussies, in plaats van het positief belichten van interessante features van beide fabrikanten (waar het om zou moeten gaan naar mijn mening). Maar ik lees het nog steeds geregeld.

Dit vind ik op zich wel interessant nieuws dat er iets dergelijks met 3D gedaan wordt. Ik heb net een week die Acer 27" monitor (die vandaag op de frontpage staat) en 3D kan echt iets toevoegen wanneer goed geimplementeerd heb ik gemerkt.

anathema


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

^
Het is wel een interessante feature maar ik vind dat het veel meer in het belang vd gebruiker is als het een open source toepassing/standaard is.

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 22-10 11:18
In een ideale wereld zou ik dit inderdaad met zowel AMD als Nvidia kaarten kunnen gebruiken. Maar ik heb niet het idee dat AMD zich met HD3D vooralsnog echt actief met 3D bezig houdt kwa ondersteuning. En ik kan Nvidia niet kwalijk nemen dat zij hun geld willen investeren in hun eigen product en dus liever niet hebben dat de concurrent daarop meelift.

anathema


  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Juist in een webtoepassing is het belangrijk dat het altijd werkt. Kijk maar hoeveel ophef er kwam toen alle browsers besloten een andere video codec te implementeren...

Oke, nvidia mag best geld investeren in iets waar hun hardware goed in is, zolang die technologie maar voor iedereen gratis te gebruiken is, en niet alleen met een bepaald nividia retail pakket. Ik zit niet te wachten op een 2e physx.
quote:
anathema schreef op donderdag 14 april 2011 @ 23:10:
En ik kan Nvidia niet kwalijk nemen dat zij hun geld willen investeren in hun eigen product en dus liever niet hebben dat de concurrent daarop meelift.
De concurrentie lift altijd mee ;)

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 22-10 11:18
quote:
Darkstone schreef op donderdag 14 april 2011 @ 23:18:

Oke, nvidia mag best geld investeren in iets waar hun hardware goed in is, zolang die technologie maar voor iedereen gratis te gebruiken is, en niet alleen met een bepaald nividia retail pakket. Ik zit niet te wachten op een 2e physx.
Dat heb ik uiteraard ook het liefst, maar welk bedrijf investeert nou in een techniek die iedereen vervolgens gratis kan gebruiken? Het idee van investeren in technieken is dat jij die alleen kan gebruiken of dat anderen jou betalen om die techniek te gebruiken.

anathema


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen
Hoe wil je anders er een succes van maken, zo is het iig in mijn ogen 10 keer niks. Ik zie het nut totaal niet en ik denk heel veel met mij. Er is niet eens vraag naar, 3D gaming is al een kleine markt, maar 3D website's? Kom op...

  • Allubz
  • Registratie: februari 2006
  • Laatst online: 10-10 04:21
quote:
-The_Mask- schreef op vrijdag 15 april 2011 @ 00:22:
[..] Ik zie het nut totaal niet en ik denk heel veel met mij. Er is niet eens vraag naar, 3D gaming is al een kleine markt, maar 3D website's? Kom op...
Iets met genoeg RAM etc. Ruwe prognose van me is dat tussen 2015 en 2020 3D-websites heel normaal kunnen zijn; niemand is nog op de hoogte van merkverschillen omdat het een algemene technologie is geworden.

De vraag of het wenselijk is dat NVIDIA probeert een pionierspositie te veroveren en zo mogelijk de technologie tenminste een X-tijd kan uitbaten met mogelijk gevolg dat iets moois een tragische virtuele dood sterft (Video2000, HD-DVD e.d.) is discutabel. Ik denk dat als de technologie echt iets zal toevoegen deze binnen de kortste keren algemeen geïmplementeerd zal zijn; zowel in gaming als andere IT-gerelateerde zaken.

  • anathema
  • Registratie: augustus 2006
  • Laatst online: 22-10 11:18
quote:
-The_Mask- schreef op vrijdag 15 april 2011 @ 00:22:
Hoe wil je anders er een succes van maken, zo is het iig in mijn ogen 10 keer niks. Ik zie het nut totaal niet en ik denk heel veel met mij. Er is niet eens vraag naar, 3D gaming is al een kleine markt, maar 3D website's? Kom op...
Als het voor een groter publiek een succes wil worden zullen dergelijke zaken ook op AMD kaarten moeten werken, maar dat is aan AMD om te regelen.

Verder is het gewoon een iets aardigs voor 3DVision bezitters wat best even besproken kan worden, ondanks dat jij en zovele anderen het 10X niks vinden.

anathema


  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
quote:
anathema schreef op vrijdag 15 april 2011 @ 00:40:
Als het voor een groter publiek een succes wil worden zullen dergelijke zaken ook op AMD kaarten moeten werken, maar dat is aan AMD om te regelen.

Verder is het gewoon een iets aardigs voor 3DVision bezitters wat best even besproken kan worden, ondanks dat jij en zovele anderen het 10X niks vinden.
In dit geval moet je toch net iets verder kijken dan alleen naar AMD. Deze techniek zal slechts bruikbaar zijn voor ~25% van de markt totaal. Iedereen met een Intel IGP zal net zoals mensen met AMD hardware gewoonweg buitengesloten worden.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

quote:
anathema schreef op vrijdag 15 april 2011 @ 00:40:
[...]

Als het voor een groter publiek een succes wil worden zullen dergelijke zaken ook op AMD kaarten moeten werken, maar dat is aan AMD om te regelen.

Verder is het gewoon een iets aardigs voor 3DVision bezitters wat best even besproken kan worden, ondanks dat jij en zovele anderen het 10X niks vinden.
We gunnen het je van harte hoor.

Alleen denk ik/we dat het gewoon niks kan worden zo'n proprietary solution. Net als Physx niet werkt gaat dit al helemaal niks worden zolang er geen open standaard is die door alle GPU fabrikanten gesteund wordt.

Het probleem is dat niemand er namelijk op zit te wachten dat AMD het vervolgens op haar manier gaat regelen en Intel op weer een andere manier etc.

Help!!!! wijzigde deze reactie 15-04-2011 10:01 (9%)

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • anathema
  • Registratie: augustus 2006
  • Laatst online: 22-10 11:18
quote:
Help!!!! schreef op vrijdag 15 april 2011 @ 10:00:
[...]

We gunnen het je van harte hoor.

Alleen denk ik/we dat het gewoon niks kan worden zo'n proprietary solution. Net als Physx niet werkt gaat dit al helemaal niks worden zolang er geen open standaard is die door alle GPU fabrikanten gesteund wordt.

Het probleem is dat niemand er namelijk op zit te wachten dat AMD het vervolgens op haar manier gaat regelen en Intel op weer een andere manier etc.
Maar zolang niemand werk maakt van die open standaard, is het alternatief vooralsnog dat een enkele fabrikant het zelf oppakt. Dat is minder ideaal omdat zoals met PhysX spellen er nooit om heen gebouwd zullen worden. Maar het is beter dan niets en in het geval van 3D is het zo gek nog niet, die websites is een aardigheidje maar in spellen werkt het vaak behoorlijk goed. Ik zit dan alleen hiervoor aan een Nvidia kaart vast vooralsnog, das wel jammer maar als ik nu fatsoenlijke 3D ondersteuning wil is het niet anders.

anathema


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33
quote:
anathema schreef op vrijdag 15 april 2011 @ 10:49:
[...]

Maar zolang niemand werk maakt van die open standaard, is het alternatief vooralsnog dat een enkele fabrikant het zelf oppakt. Dat is minder ideaal omdat zoals met PhysX spellen er nooit om heen gebouwd zullen worden. Maar het is beter dan niets en in het geval van 3D is het zo gek nog niet, die websites is een aardigheidje maar in spellen werkt het vaak behoorlijk goed. Ik zit dan alleen hiervoor aan een Nvidia kaart vast vooralsnog, das wel jammer maar als ik nu fatsoenlijke 3D ondersteuning wil is het niet anders.
nVidia zou zich helemaal niet bezig moeten houden met het promoten(helpen) bij het maken van 3D websites. Websites onderling concurreren ook dus laat websites dan maar zelf met x aantal features elkaar bestrijden en niet de GPU fabrikanten die er weer eens een strijd van maken.

Want als websites het onderling doen is het beter voor de consument omdat het er dan opgericht is voor zoveel mogelijk mensen te bereiken. Terwijl als het aan nVidia ligt alleen gaat werken bij consumenten die een nVidia GPU hebben waardoor nVidia een verkoop argument rijker is: "Wij kunnen 3D websites weergeven, koop ons product".

Zelfs als het zogenaamd "open en toegankelijk" wordt voor AMD zal dit toch nadelig zijn voor AMD. Want nVidia gaat er dan weer alles aan doen om te zorgen dat het bij hen zelf net iets beter loopt en de enige manier om zoiets te doen in dit geval is om te zorgen dat het bij AMD minder werkt(immers is 3D een relatief simpele techniek).

Ik heb er niks op tegen dat nVidia graag dingen voor zichzelf optimaliseert en ondersteunt. Maar het heeft er vaak de schijn van dat ze niet alleen zorgen dat het voor hen zelf beter werkt maar dat ze ook de andere kant uit werken. Ze proberen AMD en Intel expres te dwarsbomen.

Als nVidia bij een ontwikkelaar o.i.d. de deur binnengaat om te helpen bij het ontwikkelen en daarbij hun eigen hardware beter te optimaliseren(voor het geen er ontwikkeld wordt). Is het waarschijnlijk negen van de tien keer het geval dat nVidia de deur die ze zelf binnen zijn gegaan dicht gooien voor AMD. 'Nee, niet dicht gooien, maar dichthouden zodat AMD hem niet eens open krijgt'. 'He ? Wat ? Dichthouden... Die hele deur eruit slopen om het gat vervolgens vakkundig dicht te metselen zodat AMD nergens is en pas zijn drivers op de dag van de release in orde kan maken'.

Dit is allemaal niet wenselijk net zoals het niet wenselijk is dat autofabrikanten i.p.v. te concurreren op de auto zelf. Gaan concurreren met het asfalt zodat auto x beter rijdt op het asfalt waar x aan heeft "mee-ontwikkelde/geholpen". Zodat auto y minder rijd op asfalt waar x aan "mee-ontwikkelde/geholpen" heeft. Wat belet auto y dit ook te doen ? Nou niks dus. Maar bevorderlijk is het in ieder geval niet. Want waarschijnlijk is de enige manier om een asfalt beter geschikt te maken voor een bepaalde auto. Door het asfalt dusdanig te maken dat andere auto's er niet lekker op rijden.

'Zo! De prijs voor de slechtste hardware autovergelijking is binnen' :+

Dit gaat niet alleen zo bij AMD en nVidia maar ook tussen anderen bedrijven zoals Sony en Microsoft. Of Sony en Toshiba. "Vooral zorgen dat als je zelf iets extra's kunt zorgen dat de anderen dit niet of minder goed kan". Zorgen dat je zelf iets extra's kunt is prima maar om vervolgens ook nog eens de andere kant op te werken. Kapitalisme hè ?

madmaxnl wijzigde deze reactie 15-04-2011 14:52 (5%)


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
quote:
anathema schreef op vrijdag 15 april 2011 @ 00:40:
[...]

Als het voor een groter publiek een succes wil worden zullen dergelijke zaken ook op AMD kaarten moeten werken, maar dat is aan AMD om te regelen.

Verder is het gewoon een iets aardigs voor 3DVision bezitters wat best even besproken kan worden, ondanks dat jij en zovele anderen het 10X niks vinden.
Indd dat is waar. Maar dan is het wel zo eerlijk dat nvidia alleen doe 3d kitjes mag verkopen en werkende op alle merken videokaarten. Het is iets van nvidia zelf en dat mag ook zo blijven.

304087 wijzigde deze reactie 16-04-2011 10:55 (4%)


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 09-10 11:14
quote:
madmaxnl schreef op vrijdag 15 april 2011 @ 14:48:
[...]


nVidia zou zich helemaal niet bezig moeten houden met het promoten(helpen) bij het maken van 3D websites. Websites onderling concurreren ook dus laat websites dan maar zelf met x aantal features elkaar bestrijden en niet de GPU fabrikanten die er weer eens een strijd van maken.

Want als websites het onderling doen is het beter voor de consument omdat het er dan opgericht is voor zoveel mogelijk mensen te bereiken. Terwijl als het aan nVidia ligt alleen gaat werken bij consumenten die een nVidia GPU hebben waardoor nVidia een verkoop argument rijker is: "Wij kunnen 3D websites weergeven, koop ons product".

Zelfs als het zogenaamd "open en toegankelijk" wordt voor AMD zal dit toch nadelig zijn voor AMD. Want nVidia gaat er dan weer alles aan doen om te zorgen dat het bij hen zelf net iets beter loopt en de enige manier om zoiets te doen in dit geval is om te zorgen dat het bij AMD minder werkt(immers is 3D een relatief simpele techniek).

Ik heb er niks op tegen dat nVidia graag dingen voor zichzelf optimaliseert en ondersteunt. Maar het heeft er vaak de schijn van dat ze niet alleen zorgen dat het voor hen zelf beter werkt maar dat ze ook de andere kant uit werken. Ze proberen AMD en Intel expres te dwarsbomen.

Als nVidia bij een ontwikkelaar o.i.d. de deur binnengaat om te helpen bij het ontwikkelen en daarbij hun eigen hardware beter te optimaliseren(voor het geen er ontwikkeld wordt). Is het waarschijnlijk negen van de tien keer het geval dat nVidia de deur die ze zelf binnen zijn gegaan dicht gooien voor AMD. 'Nee, niet dicht gooien, maar dichthouden zodat AMD hem niet eens open krijgt'. 'He ? Wat ? Dichthouden... Die hele deur eruit slopen om het gat vervolgens vakkundig dicht te metselen zodat AMD nergens is en pas zijn drivers op de dag van de release in orde kan maken'.

Dit is allemaal niet wenselijk net zoals het niet wenselijk is dat autofabrikanten i.p.v. te concurreren op de auto zelf. Gaan concurreren met het asfalt zodat auto x beter rijdt op het asfalt waar x aan heeft "mee-ontwikkelde/geholpen". Zodat auto y minder rijd op asfalt waar x aan "mee-ontwikkelde/geholpen" heeft. Wat belet auto y dit ook te doen ? Nou niks dus. Maar bevorderlijk is het in ieder geval niet. Want waarschijnlijk is de enige manier om een asfalt beter geschikt te maken voor een bepaalde auto. Door het asfalt dusdanig te maken dat andere auto's er niet lekker op rijden.

'Zo! De prijs voor de slechtste hardware autovergelijking is binnen' :+

Dit gaat niet alleen zo bij AMD en nVidia maar ook tussen anderen bedrijven zoals Sony en Microsoft. Of Sony en Toshiba. "Vooral zorgen dat als je zelf iets extra's kunt zorgen dat de anderen dit niet of minder goed kan". Zorgen dat je zelf iets extra's kunt is prima maar om vervolgens ook nog eens de andere kant op te werken. Kapitalisme hè ?
Welkom in de wereld die alleen maar om geld en commercie draait...

Je kan ervan vinden wat je wilt, maar ik denk dat bedrijven daar schijt aan hebben. Ik zie ook echt niet in waarom het "niet wenselijk" is dat nV websites voor 3D wil helpen maken. :S Het is toch logisch dat bijvoorbeeld nV dingen wil ondersteunen die andere bedrijven niet doen? Er is geld mee te verdienen. En je kan hoog springen of laag springen. Dat is waar een bedrijf voor bestaat. ;) En omdat het op AMD hardware dan minder goed werkt is het ineens "fout"? het is gewoon een concurrentiestrijd. Ik vind het logisch dat een bedrijf alles doet om dingen te hebben die de ander niet heeft. Ik vind het dan ook onzin dat het een open standaard moet zijn of worden zodat een andere partij dan degene die er geld inpompt er van mee profiteert.


De wereld is geen liefdadigheidsinstelling waar bij bedrijven het geld vanzelf op de rekening komt. En de wereld is keihard. Geen geld? Geen bestaansrecht.

Format-C wijzigde deze reactie 16-04-2011 12:15 (4%)

--> If it can't be fixed, break it! <--


  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 18-10 20:19

Xenomorphh

just another addict..

Zie het als reclame, websites zijn een stuk toegankelijker dan games. nVidia krijgt op deze manier misschien wel meer publiciteit waardoor hun meer videokaartjes verkopen en tja dat is het enige wat nVidia wil. En geef ze is ongelijk. Ik vind het wel een origineel idee, of je er wat aan hebt laat ik in het midden maar ik vind het zeker geen slecht idee.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Domokoen
  • Registratie: januari 2003
  • Laatst online: 24-10 16:15

Domokoen

Tweakers abonnee Tweakers abonnementen
quote:
madmaxnl schreef op donderdag 14 april 2011 @ 21:22:

nVidia helpt bij ontwikkeling 3D websites

Geweldig nieuws; websites die straks in 3D alleen maar bekeken kunnen worden als je een nVidia kaart hebt. Opensource zit er bij nVidia ook gewoon niet in. Consument heeft hier dus geen fluit aan want 3D integratie op het internet wordt er door geremd want er zal weer geen duidelijk standaard komen hierin.
Is er dan helemaal niemand hier die het oorspronkelijke artikel heeft gelezen? 8)7
quote:
De 3D video plug-in voor het Microsoft Media Platform (MMP) Player Framework "Silverlight" gebruikt dezelfde technologie als de website 3DVision Live waarop ook al een aantal voorbeelden te vinden zijn. De open-source code wordt door nVidia gepubliceerd zodat andere ontwikkelaars snel hun eigen aanpassingen kunnen plegen aan de player.
Het is open-source, en werkt momenteel alleen op Nvidia kaarten (vind je het gek?). Maar iedereen mag aanpassingen maken aan de player.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

^
Haha mooi dit! Zo zie je maar als dan iemand echt een keer voor t echie "help een haai roept" gelooft niemand je...

:) :P

Help!!!! wijzigde deze reactie 18-04-2011 10:31 (5%)

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
Geforce/Ion driver V270.61 WHQL is uit.
http://www.nvidia.co.uk/Download/index.aspx?lang=en-uk
Vanaf de geforece 6 series zitten alle series er tussen.
De beta 270.51 is geloof ik niet veel anders?

  • ionicdog
  • Registratie: juli 2008
  • Laatst online: 06:06
heb de nieuwe er gelijk weer afgehaald, bfbc2 begon raar te doen, knipperen enzo
heb eerst de oude gedeinstalleerd toen driverdweeper en de nieuwe erop...460gtx

Asus P8Z68-v-Pro, i7 2600K@4,5(mugen 2revb), 16gb Corsair, Msi 570 GTX TwinFrozer, Enermax 650w, 840 Pro ssd, 2x Samsung F3, Hp24inchkijkbuis IPT, CM Stacker


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
Geen last van hier met bc2. GPU gebruik licht ook hoger dan met 258 drivers.
Ik kan nu met 32xAA rond de 80 fps blijven en dan heb ik sli uit staan (gtx580 hier)
Deze driver is een blijfertje voor mij vanwege de goede IQ en performance net als de beta hier voor.

Uninstal via bestanden opruimen opnieuw opstarten en erna installeren.

304087 wijzigde deze reactie 19-04-2011 11:24 (12%)


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen

Galaxy readying two GeForce cards with upgraded multi-monitor support

When it comes to multi-monitor capabilities, AMD's Eyefinity-enabled graphics cards have the upper hand over their Nvidia-powered counterparts, there's no denying that. This situation isn't to Galaxy's liking though so the Nvidia-exclusive board partner is taking action.

The results of Galaxy's endeavor include two graphics cards, a GeForce 210 and a GeForce GTX 560 Ti which support up to four and five monitors, respectively. The GeForce 210 utilizes a passive cooler and two VMM1402 chipsets which power two DMS59 connectors, each one allowing for connectivity to two DVI Full HD monitors (via the included adapters).

The GTX 560 Ti prepped by Galaxy features a custom PCB and cooler, and provides one DVI output, one DisplayPort connector and four mini HDMI ports. This setup supports a 5040 x 1050 @ 60Hz (1680x1050 on each monitor) combined resolution in 3 monitor mode, or 5760 x 900 @ 60Hz (1440x900 on each monitor) in 4 monitor mode. Still no Eyefinity-like offering but a nice effort from Galaxy which will bear fruit next month.

http://static2.fileconnect.net/sites/default/files/resize/remote/1110734673fbdc41280419d0d4c58260-575x579.jpg http://static2.fileconnect.net/sites/default/files/resize/remote/48bd62bf0bec8c1195d72736828f9c50-575x309.jpg

  • spNk
  • Registratie: mei 2007
  • Laatst online: 00:27
Maar gamen zal maar gaan op maximaal 2 monitoren lijkt me?

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Nee. Maximaal 3x 1680*1050 of 4x 1440*900 volgens dit artikel.

Wat een faal trouwens.. je kan hiermee nog steeds niet meer dan 2 grote schermen aansturen (= 1080p of hoger).

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • Max Hunt
  • Registratie: oktober 2004
  • Laatst online: 24-10 09:08

Max Hunt

Vantage: P47808

quote:
The GeForce 210 utilizes a passive cooler and two VMM1402 chipsets which power two DMS59 connectors, each one allowing for connectivity to two DVI Full HD monitors (via the included adapters).
Hieruit maak ik juist op dat je op de 210 4 monitoren kan aansluiten, allemaal met een resolutie van 1920x1080.

Bij de 560 hebben ze het over combined resolutions, dus dat geld lijkt me alleen voor NSurround. Daar is het wel limiterend dat je niet 3 of 4 1920x1080 kan combineren tot 1 giga groot scherm.

i7 950 @ 4.1GHz | 2x GTX 580 @ 820 / 4300 | Gaming @ 5980x1200


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
Ik vind het wel een goede ontwikkeling van Galaxy voor de gamers, 5040x1080 is ook meer dan zat voor zo'n gtx 560ti want ik denk dat veel games niet eens aan de 40-50 fps geraken of je moet alles op medium-low willen zetten met nog hogere resoluties. Beetje faal om gelijk faal te roepen voor veel gamers zou dit een goedkopere uitkomt kunnen zijn. Geen 2e kaart extra nodig, geen sli nodig en een speelbare resolutie voor de gtx560ti.

  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen

NVIDIA to Launch Optimus-like Technology for Desktops at Computex

While NVIDIA and AMD are just about done with their consumer GPU launches for the current generation, NVIDIA has something in store for Computex, 2011, one of the year's biggest technology tradeshows. The GPU giant will announce NVIDIA Optimus technology's desktop avatar, for now known as "Synergy". The technology allows on-the-fly switching between a computer's integrated graphics and discrete NVIDIA GeForce graphics processor, giving you access to the feature-set of both, and allowing a fair amount of power-saving in the process.

NVIDIA's new technology is designed specifically for Intel's Sandy Bridge desktop platform, particularly motherboards with Intel H61, H67, and Z68 chipsets (you can't access IGP with P6x). Unlike SLI, motherboard vendors needn't shell out a license fee or sign an agreement to implement the technology. A supportive motherboard will have authorization code implanted into SBIOS, much like SLI. In practice, the technology will allow users to switch to a GeForce GPU (or a pair of GPUs on Z68) when gaming or in 3D-heavy applications; while falling back to the power-efficient IGP or even making use of Intel's QuickSync technology, when not gaming.

http://tweakers.net/ext/f/rr2LDYxWvJQpRDUv5bDrOxfc/medium.png http://tweakers.net/ext/f/wpe5Xai0rhpW0XOM2cZWAPOY/medium.jpg

The display is connected to the IGP (motherboard), when the discrete GPUs are active, the IGP functionally turns into a display controller (like NVIO2) while the discrete GeForce GPUs render ultra-complex graphics and PhysX. When the discrete GPUs are inactive, the IGP is in-charge of all graphics rendering (including Windows Aero UI). The user can manually switch on-the-fly, or set up profiles to switch when a particular application/game is launched.

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Ik weet niet wat ze daarmee wille bereiken, optimus is heel leuk, maar de software erachter is heel smerig. Bovendien heb je met optimus altijd last van frame stutters omdat het framebuffer elke frame gekoperd moet worden naar de IGP...

Bovendien werkt deze techniek natuurlijk alleen met een intel CPU :F

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen
Ik vraag mij ook altijd af hoe goed nu zoiets werkt, al het beeldmateriaal van de videokaarten moet immers via het moederbord.

-The_Mask- wijzigde deze reactie 25-04-2011 14:44 (187%)


  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Er bestaan o.a. geen 3D laptops met optimus, vermoedelijk vanwege de stutter issues.

Wat dat betreft heeft AMD een betere techniek, crossfire met een IGP en dedicated kaart, maar dat zie ik dan weer nooit in de praktijk...

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • mdcobra
  • Registratie: juli 2002
  • Laatst online: 22:35
quote:
Deze techniek is alleen interessant als de GPU daadwerkelijk uitgeschakeld kan worden, kan dit?

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Dat kan. Bij laptops althans, maar ik zie niet waarom dat niet zou kunnen bij de desktop variant.

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • -The_Mask-
  • Registratie: november 2007
  • Nu online

-The_Mask-

Tweakers abonnee Tweakers abonnementen

May 17 Launch for NVIDIA GeForce GTX 560

NVIDIA is set to launch its next upper-mainstream GPU, the GeForce GTX 560 (not to be confused with GeForce GTX 560 Ti) on May 17. Designed to compete with AMD's Radeon HD 6790, the new GTX 560 is based on the same GPU as the GTX 560 Ti, the 40 nm GF114. It has 336 out of 384 CUDA cores enabled, while most other specifications of the GPU are untouched. The core clock speed is said to be not less than 800 MHz, making it faster than GeForce GTX 460, which otherwise has the same specifications while being based on the older GF104 silicon.

HD6790 klopt natuurlijk niet, verwachte prestaties liggen tussen de HD6850 en HD6870 in, HD5850 prestaties zeg maar.

  • epic_gram
  • Registratie: april 2010
  • Laatst online: 21:13

epic_gram

undercover moderator

quote:
-The_Mask- schreef op maandag 25 april 2011 @ 18:34:
HD6790 klopt natuurlijk niet, verwachte prestaties liggen tussen de HD6850 en HD6870 in, HD5850 prestaties zeg maar.
Oke, word dus een iets goedkopere maar snellere GTX 460 dus?

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • ColinZ
  • Registratie: februari 2010
  • Laatst online: 21:02

ColinZ

The Ass Clapper 130!

quote:
NVIDIA is set to launch its next upper-mainstream GPU, the GeForce GTX 560 (not to be confused with GeForce GTX 560 Ti)
Serieus, wie bedenkt er bij nVidia de benamingen voor de GPU's? |:( Als er ook nog een 768MB of SE-variant bijkomt is het voor de normale gebruiker totaal niet meer te overzien. Of hopen ze daar juist op? :o

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33
quote:
epic_gram schreef op maandag 25 april 2011 @ 19:37:
[...]

Oke, word dus een iets goedkopere maar snellere GTX 460 dus?
Duurder anders komt die qua prijs onder de GTX550Ti...
quote:
ColinZ schreef op maandag 25 april 2011 @ 19:49:
[...]


Serieus, wie bedenkt er bij nVidia de benamingen voor de GPU's? |:( Als er ook nog een 768MB of SE-variant bijkomt is het voor de normale gebruiker totaal niet meer te overzien. Of hopen ze daar juist op? :o
Bij nVidia vinden ze geld belangrijker dan duidelijkheid, openheid en tevredenheid. Nee, ze hoeven geen liefdadigheidsinstelling te worden maar ironisch is wel dat als ze dat wel zouden worden de consumenten er wel beter op worden.

madmaxnl wijzigde deze reactie 25-04-2011 20:05 (55%)


  • Phyxion
  • Registratie: april 2004
  • Laatst online: 24-10 13:46

Phyxion

Treexy.com | _/-\o_

quote:
ColinZ schreef op maandag 25 april 2011 @ 19:49:
[...]


Serieus, wie bedenkt er bij nVidia de benamingen voor de GPU's? |:( Als er ook nog een 768MB of SE-variant bijkomt is het voor de normale gebruiker totaal niet meer te overzien. Of hopen ze daar juist op? :o
Hoe meer verwarring over hetzelfde type hoe meer mensen de goedkoopste nemen en ze lezen bv 570 heeft goede performance terwijl de CE oid dat niet is en weer goedkoop is etc :)

Treexy.com | Driver Fusion. Zegt deze applicatie je niks? Neem dan eens een kijkje op de website! | 'You like a gay cowboy and you look like a gay terrorist.' - James May


  • Max Hunt
  • Registratie: oktober 2004
  • Laatst online: 24-10 09:08

Max Hunt

Vantage: P47808

Mis ik wat bij deze "onlogische" naamgeving? Er zijn toch maar 2 Ti kaarten en nog maar 1 kaart die zowel een Ti als een normale versie heeft? Verder kun je redelijk simpel kijken welke kaart sneller is in zijn eigen serie (5xx, 4xx) en het verschil tussen de nieuwe en oude serie (470 vs 570). Is het enige "onduidelijke" nu dat je een goedkopere Ti variant en een duurdere normale variant hebt van de 560?

i7 950 @ 4.1GHz | 2x GTX 580 @ 820 / 4300 | Gaming @ 5980x1200


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
quote:
ColinZ schreef op maandag 25 april 2011 @ 19:49:
[...]


Serieus, wie bedenkt er bij nVidia de benamingen voor de GPU's? |:( Als er ook nog een 768MB of SE-variant bijkomt is het voor de normale gebruiker totaal niet meer te overzien. Of hopen ze daar juist op? :o
Ik zie geen verschil met vroeger, Radeon 9800, 9800pro, 9800SE, je hoeft dus niet confused te zijn.

  • MW1F
  • Registratie: december 2007
  • Laatst online: 16-10-2013
quote:
Luppie schreef op dinsdag 26 april 2011 @ 11:17:
[...]


Ik zie geen verschil met vroeger, Radeon 9800, 9800pro, 9800SE, je hoeft dus niet confused te zijn.
Luppie, pas op dat je geen auteursrechten schendt... ;)

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33
Bandwagon ?

  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 21-10 00:12
Ik vind het alleen maar logisch dat ze de minder goede chips zo aan de man brengen, en met de naamgeving is niks mis imo, als je de toevoeging ti maar goed interpreteert.

  • Springstof
  • Registratie: juli 2010
  • Niet online
Die naamgeving is duidelijk en makkelijk. nVidia mag er weg vanuit gaan dat consumenten begrijpend kunnen lezen. Ik kan er echt niet bij waarom iemand überhaupt klaagt over de huidige naamgeving.

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33
Met de namen is alles mis.
GT520 die even snel is als een GT220.
GT520m die langzamer is als een GT420m.

Dat is wat ik zo snel even heb kunnen vinden. Maar als je naar het verleden kijkt zul je zien dat nVidia er altijd al een zooitje van heeft gemaakt: 8800GTX, 8800GTS(512), GTX9800,GTX9800+ en GTS250 en 8800GT/GT9800 liggen nagenoeg allemaal op één lijn qua performance(zie link hier boven maar). GT1xx serie, GT3xx serie en GT5xx rebrand series. Of de best grote performance verschillen in versies die alleen te onderscheiden zijn qua geheugen : 8800GTS 320/512/640mb ? GTX460 768mb/1gb maar er zit weer geen verschil tussen een GTS250 512mb en GTS250 1gb(op consumenten resoluties).

Begrijp me niet verkeerd AMD maakt er ook wel eens een potje van maar vergeleken bij nVidia is dat in het niets. Enfin nu trek ik de al zo vaak uit de sloot gehaalde koe, alweer uit de sloot... Maar ja, blijkbaar zijn er nog altijd mensen die de nVidia naamgeving bagatelliseren/verdedigen.

  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
Deze naamgeving zet de deur simpelweg wagenwijd open voor verkapte misleiding. Het is gewoon wachten op de eerste fabrikant die een 'normale' GTX560 verkoopt in een doos waarop staat GTX560 Titan. Iemand die heel erg goed is ingelezen zal wellicht de valkuil herkennen, maar legio mensen zullen domweg de kaart 'goedkoop' kopen in de veronderstelling dat het om de GTX560Ti gaat.

Tot zo ver (wederom) nVidia's claim om naamgeving duidelijker en transparanter te maken.

  • Springstof
  • Registratie: juli 2010
  • Niet online
quote:
madmaxnl schreef op woensdag 27 april 2011 @ 01:30:
Met de namen is alles mis.
GT520 die even snel is als een GT220.
GT520m die langzamer is als een GT420m.

Dat is wat ik zo snel even heb kunnen vinden. Maar als je naar het verleden kijkt zul je zien dat nVidia er altijd al een zooitje van heeft gemaakt: 8800GTX, 8800GTS(512), GTX9800,GTX9800+ en GTS250 en 8800GT/GT9800 liggen nagenoeg allemaal op één lijn qua performance(zie link hier boven maar). GT1xx serie, GT3xx serie en GT5xx rebrand series. Of de best grote performance verschillen in versies die alleen te onderscheiden zijn qua geheugen : 8800GTS 320/512/640mb ? GTX460 768mb/1gb maar er zit weer geen verschil tussen een GTS250 512mb en GTS250 1gb(op consumenten resoluties).

Begrijp me niet verkeerd AMD maakt er ook wel eens een potje van maar vergeleken bij nVidia is dat in het niets. Enfin nu trek ik de al zo vaak uit de sloot gehaalde koe, alweer uit de sloot... Maar ja, blijkbaar zijn er nog altijd mensen die de nVidia naamgeving bagatelliseren/verdedigen.
Weinig mis met de naamgeving dus. Gewoon reviews lezen voordat je een kaart koopt en als je dat niet doet: vraag je erom om een product te kopen dat eventueel niet aan je verwachtingen voldoet. Zo simpel is het.
quote:
dahakon schreef op woensdag 27 april 2011 @ 05:56:
legio mensen zullen domweg de kaart 'goedkoop' kopen in de veronderstelling dat het om de GTX560Ti gaat.
Dit is niet meer dan een aanname.

Springstof wijzigde deze reactie 27-04-2011 07:02 (8%)


  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

NVIDIA Synergy to Bring Optimus to Desktops

While it’s true that you can already get access to Quick Sync while using a discrete GPU using Lucid’s Virtu, there are a few differences worth noting. First and foremost, Synergy is software based, free, and requires no license agreement. Any recent NVIDIA GPU (400 or 500 series) should work on H67, H61 or Z68 chipset motherboards. (P67 does not support the SNB IGP and thus won’t work.) You’ll need the appropriate drivers and BIOS (and maybe VBIOS), but that should be it. No special hardware needs to be present on the GPU or motherboard and anyone with the appropriate GPU and motherboard chipset should have the option of using Synergy.

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
quote:
Springstof schreef op woensdag 27 april 2011 @ 06:56:
[...]

Weinig mis met de naamgeving dus. Gewoon reviews lezen voordat je een kaart koopt en als je dat niet doet: vraag je erom om een product te kopen dat eventueel niet aan je verwachtingen voldoet. Zo simpel is het.


[...]

Dit is niet meer dan een aanname.
Inderdaad als iemand een videokaart koopt vraagt diegene die er geen tot weining verstand van heeft of een bepaalde kaart aan zijn eisen voldoen, Er is dus helemaal niets mis met de numering van deze kaarten ze weten ook niet het verschil tussen een 6600 en een 460 behalve dat de 6600 een hoger getal is denken ze dat de 6600 een betere optie is. Maar mensen die er totaal niets van weten zijn natuurlijk niet zo dom om naar het verschil te vragen en of het bij hun systeem past. Dan nog zullen deze mensen met weinig verstand van zaken niet zo snel een losse videokaart kopen maar eerder een kant en klaar geval kopen en intresseerd het hun niet eens wat er in hun internet bakkie zit voor vga chip......Meest al is het toch onboard spul wat teteris, potje kaarten en pinbal wel aankan.

  • Max Hunt
  • Registratie: oktober 2004
  • Laatst online: 24-10 09:08

Max Hunt

Vantage: P47808

Met die link van MadMax hoeft een gemiddelde consument niet eens te vragen welke Nvidia kaart het beste bij hem past. Een overzicht zoals onderaan deze pagina lijkt me daar juist enorm handig voor. Heeft AMD iets soortgelijks? En om de grote naamgevings-fouten aan te kaarten moet je terug naar het 8800 tijdperk, dat zegt vind ik wel wat over hoe Nvidia tegenwoordig omgaat met naamgeving.

En dit allemaal om er nu 2 versies zijn van de 560. Als je je al zo "verdiept" hebt in GPU's dan is het lijkt mij een kleine moeite om even te googlen waar Ti voor staat.
quote:
Bij nVidia vinden ze geld belangrijker dan duidelijkheid, openheid en tevredenheid.
Is het niet andersom? Nvidia verdient geld omdat mensen tevreden zijn over hun producten? En geld deze zin anders ook niet voor AMD? Ik vraag me af of AMD uberhaupt wel zou bestaan als ze geld niet belangrijker vinden dan tevredenheid van de klant.

i7 950 @ 4.1GHz | 2x GTX 580 @ 820 / 4300 | Gaming @ 5980x1200


  • lightdestroyer
  • Registratie: oktober 2005
  • Laatst online: 23-10 13:20
quote:
Maxily schreef op woensdag 27 april 2011 @ 10:14:
Met die link van MadMax hoeft een gemiddelde consument niet eens te vragen welke Nvidia kaart het beste bij hem past. Een overzicht zoals onderaan deze pagina lijkt me daar juist enorm handig voor. Heeft AMD iets soortgelijks? En om de grote naamgevings-fouten aan te kaarten moet je terug naar het 8800 tijdperk, dat zegt vind ik wel wat over hoe Nvidia tegenwoordig omgaat met naamgeving.
Of je kan linken naar de TS waar dat prentje ook te vinden is sinds de introductie van de geForce 520 :*)
(Men zou wel meer zo'n charts mogen maken zodat mensen met een "oude" kaart direct kunnen zien of een low-end kaart van de nieuwe serie echt wel een serieuze snelheidsboost zal geven..)

Anyway Optimus naar de desktop; het zal wel goed werken zoals hybrid Sli (Deze werkt ook met een 512MB buffer in je ram om de images door te geven). Microstuttering ga je niet direct merken, wel een performantie drop van 10% dankzij bandbreedte beperkingen, dit kan zelfs oplopen als je snellere dGPU's gebruikt natuurlijk.

Het grootste nadeel is echter de blijvende support. nVidia heeft bv Hybrid Sli amper een driver of 2-3 gesupport en dat was het. Je maakt dus kans als je zo'n setup in elkaar steekt ook vast komen te zitten op een bepaalde driver ...

Specs


  • Frietjemet
  • Registratie: juni 2008
  • Laatst online: 21-10 00:12
Dat de driver het doet is voor mij persoonlijk belangrijker :)

  • Darkasantion
  • Registratie: maart 2006
  • Laatst online: 24-10 20:23

Darkasantion

HAS HD5870!

quote:
Springstof schreef op woensdag 27 april 2011 @ 06:56:
[...]

Weinig mis met de naamgeving dus. Gewoon reviews lezen voordat je een kaart koopt en als je dat niet doet: vraag je erom om een product te kopen dat eventueel niet aan je verwachtingen voldoet. Zo simpel is het.


[...]

Dit is niet meer dan een aanname.
Hmm, dus een kaart die een hoger nummer heeft dan zijn voorganger, een exact dezelfde prestaties levert als de kaart met een lager nummer is dus logische naamgeving 8)7 ?
Is niet logisch, tenminste niet in mijn ogen. Zeker als je gaat kijken naar hoe Nvidia de kaartnummering indeeld.
1e getal is het "serie"-nummer, dus uit welke serie de kaart komt. Meest recente serie is dus de 5-XX-serie. De 2 getallen erachter zijn een indicatie van de prestatie van deze kaart binnen een serie. Dus een X-80 is sneller dan een X-60. Eventuele letters erachter kunnen ook weer meer/minder prestatie aanduiden.
Het is dus raar dat een "nieuwe" X-20 kaart uit een nieuwere serie exact dezelfde prestaties geeft als een X-20 kaart uit een 3 jaar oude serie. Het is gewoon misleidend en fout.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
Probleem voor nVidia is natuurlijk dat de GTX5xx lijn eigenlijk geen nieuwe lijn is, maar een lichtelijk verbeterde versie van de bestaande chips, om yields omhoog te krijgen en de volledige functionaliteit van de chip te kunnen benutten. Door het benamingsschema wat ze gebruiken, is het echter lastig om namen in dezelfde serie te gebruiken. GTX461 staat nu eenmaal een beetje vreemd marketingtechnisch. Bovendien zal er vanuit het management ongetwijfeld ook het een en ander beslist zijn, want om in de GTX4xx serie te blijven hangen terwijl de grootste concurrent van HD5k naar HD6k gaat, staat natuurlijk ook niet erg goed. Temeer gezien de GTX470/480 een behoorlijke lading kritiek hebben ontvangen.

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

quote:
Darkasantion schreef op woensdag 27 april 2011 @ 18:38:
[...]

Hmm, dus een kaart die een hoger nummer heeft dan zijn voorganger, een exact dezelfde prestaties levert als de kaart met een lager nummer is dus logische naamgeving 8)7 ?
Extreem voorbeeld: 315M < 310M :')

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • Max Hunt
  • Registratie: oktober 2004
  • Laatst online: 24-10 09:08

Max Hunt

Vantage: P47808

quote:
- 1e getal is het "serie"-nummer
- De 2 getallen erachter zijn een indicatie van de prestatie van deze kaart binnen een serie
En vervolgens zeg je dan "ik vergelijk namen van 2 verschillende series en het klopt niet". Is dat logisch? Als ze een zelfde videokaart opeens een andere naam zouden geven, dat ik misleidend en fout noemen. Als ze een nieuwe serie maken en niet al die videokaarten sneller maken dan die van de vorige serie, wat is daar fout aan?

i7 950 @ 4.1GHz | 2x GTX 580 @ 820 / 4300 | Gaming @ 5980x1200


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 24-10 20:33
quote:
Springstof schreef op woensdag 27 april 2011 @ 06:56:
Gewoon reviews lezen voordat je een kaart koopt en als je dat niet doet: vraag je erom om een product te kopen dat eventueel niet aan je verwachtingen voldoet. Zo simpel is het.
Tja als je er zo tegen aankijkt dan maakt de naamgeving inderdaad niks uit...

  • spNk
  • Registratie: mei 2007
  • Laatst online: 00:27
Dan kan je net zo goed elke kaart een naam geven,
freek, willem-jan, jan-willem, jan en sjaak.

Moet je eerst een chart gaan bekijken voor je weet welke sneller is.
Nee, das echt handig.

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Dat moet nu ook al... Ik controleer elke generatie de specs van de mobiele grafische kaarten omdat die simpelweg elke generatie finaal worden omgegooid.

Bij AMD kan je er nog redelijk vanuit gaan, HD3670 = 4570 = 5470 = 6370. Maar bij Nvidia is dat echt hopeloos...

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • Jasper 99
  • Registratie: augustus 2007
  • Laatst online: 21-10 20:03
Jezus waar gaat het hier over boeiend materiaal mensen...

AMD kan je er ook niet vanuit gaan: Radeon 9800 iemand?! Boeie, inderdaad het wordt verwarend met Ti en zonder Ti maarja hoeven we geen topic over te vullen toch ?

  • Sanny_83
  • Registratie: november 2009
  • Laatst online: 23-10 19:24
Ik ben op zoek naar een laptop waar ik ook nog een beetje op kan gamen zo nu en dan. Ik zag de Dell Alienware M14x met een:

nVidia GT 555M

590MHz
Gddr5/ddr3
3600MHz
43,2GB/s
192bit

Is er iemand die ervaring heeft met deze GFX kaart?

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

Dat is geen nieuws.
quote:
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
Jij moet zijn hier: Het Nvidia GTX5xx series ervaringen topic. Of nog beter in een van de gerelateerde notebook topics.

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 00:59

Astennu

-= R9 290X =-

quote:
Sanny_83 schreef op woensdag 27 april 2011 @ 21:57:
Ik ben op zoek naar een laptop waar ik ook nog een beetje op kan gamen zo nu en dan. Ik zag de Dell Alienware M14x met een:

nVidia GT 555M

590MHz
Gddr5/ddr3
3600MHz
43,2GB/s
192bit

Is er iemand die ervaring heeft met deze GFX kaart?
Ik zou toch voor iets zwaarders gaan bv HD6870M of 570M/580M

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
3 way sli test van hardopc, die alleen zwaar anti nvidia is vanwege te zeggen datde nieuwere drivers niet beter zijn, wat wel zo is en daarom maar testen met drivers uit 2010 waarbij 3way sli helemaal niet eens goed schaald vergeleken met de drivers van nu. Er word wel getest met de laatste AMD drivers.
Deze test laat weer mooi zijn hoe bro mad deze site is en nvidia in een slechter daglicht willen laten zien om te zorgen dat meer mensen voor amd zullengaan kiezen bij een aankoop van zo'n setup. Echter weten wij wel beter en schaald 3 way sli met 3 gtx580's beter qua fps dan 3fire hd6970.
http://www.hardocp.com/ar...sli_radeon_trifire_review

Een test dus om weer met een korreltje zout te nemen...

  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

quote:
Luppie schreef op zondag 01 mei 2011 @ 12:20:
Echter weten wij wel beter en schaald 3 way sli met 3 gtx580's beter qua fps dan 3fire hd6970.
Telt http://www.anandtech.com/...-multigpu-scaling-part1/7 opeens niet meer mee? ;)

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
En 3dguru en hwi dan alshet gaat om fps dan ?
Ik blijf lekker bij mijn mening want de drivers van nu 270.61 schaald dus wel veel beter dan drivers uit begin 2010;)

Edit

site hierboven kun je ook met een flinke korrel zout nemen omdat er getest is met
NVIDIA ForceWare 266.58 en amd 10.14. Nog een aardige pro amd test dus.
Kommaar met goede tests ipv pro amd tests.....

304087 wijzigde deze reactie 01-05-2011 12:29 (101%)


  • Darkstone
  • Registratie: mei 2009
  • Laatst online: 26-04 01:01

Darkstone

Het kan altijd sneller.

quote:
Luppie schreef op zondag 01 mei 2011 @ 12:24:
site hierboven kun je ook met een flinke korrel zout nemen omdat er getest is met
NVIDIA ForceWare 266.58 en amd 10.14. Nog een aardige pro amd test dus.
11.4 preview ja, Dat is wat anders dan 11.4. Deze driver kwam begin maart uit. De ForceWare 266.58 is vrijgegeven op 18 januari. anderhalve maand verschil, wat een ramp...

Over welk artikel heb je het eigenlijk? Ik kan alleen het nvidia artikel vinden.
http://www.guru3d.com/art...tx-580-3-way-sli-review/1

'de sheet' -- Dell Latitude E6520, 1080p, i7-2820QM, X25-M 80GB, 16GB, 97Wh
Gezocht: Baan software development, C++, gave software, omgeving Delft.


  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
11.4 peview is qua performance het zelfde alleen is de whql een oficele er van.
Ik blijf dus bij mijn mening maar goed hiero zijn de mensen en zelfs site ook aardig pro amd dus discussie
is bijna niet mogelijk

Terwel de niewere drivers van nvidia dus wel veel beter schalen zie daar voor maar de release note en voral user praat op veel site's Nee ik blijf bij mijn mening zolang er niet met niewere drivers is getest. Ik zelf merk overgens ook vele betee prestaties met de nieuwere drivers en daar door ook kan ik niet van mijn mening afwijken want dan doe ik mezelf de das om door iets te geloven wat niet zo is, ik ben niet gek....
Ik laat het hier ook bij want ik blijf niet in herhaling vallen.

304087 wijzigde deze reactie 01-05-2011 12:52 (56%)


  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
quote:
Luppie schreef op zondag 01 mei 2011 @ 12:20:
3 way sli test van hardopc, die alleen zwaar anti nvidia is vanwege te zeggen datde nieuwere drivers niet beter zijn, wat wel zo is en daarom maar testen met drivers uit 2010 waarbij 3way sli helemaal niet eens goed schaald vergeleken met de drivers van nu.
Ze testen met de laatste Beta-drivers van nVidia, omdat ze geen verschil zien tussen die beta-drivers en de WHQL drivers die daaruit voort zijn gekomen. Hoezo drivers van 2010?
quote:
Er word wel getest met de laatste AMD drivers.
Er wordt getest met preview-drivers (dus beta-drivers, net als bij nVidia)
quote:
Deze test laat weer mooi zijn hoe bro mad deze site is en nvidia in een slechter daglicht willen laten zien om te zorgen dat meer mensen voor amd zullengaan kiezen bij een aankoop van zo'n setup. Echter weten wij wel beter en schaald 3 way sli met 3 gtx580's beter qua fps dan 3fire hd6970.
http://www.hardocp.com/ar...sli_radeon_trifire_review

Een test dus om weer met een korreltje zout te nemen...
Dat weten we niet. De test van HardOPC laat namelijk een heel ander beeld zien. Weten is meten en zonder te meten kun je niet stellen dat we weten.

Overigens zeg je in je laatste reactie dat de preview-drivers 11.4 van AMD dezelfde prestaties hebben als de officiele 11.4 drivers (wat niet meer dan logisch is), maar waarom blijf je er dan bij dat de preview-drivers 270.51 van nVidia zoveel slechter zijn dan de officiele versie ervan, zijnde 270.61?

  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
quote:
dahakon schreef op zondag 01 mei 2011 @ 12:55:
[...]


Releasenotes zijn mooi, maar niet meer dan dat. Bovendien, verwijzen die releasnotes naar de vorige WHQL drivers, of naar de laatste beta-drivers? Mijn gok zou zijn dat het naar de WHQL drivers verwijst, waardoor dezelfde prestatiewinsten ook al terug te vinden zijn in de beta-drivers als 270.51. Harde feiten krijg je alleen door testen in werkelijke omstandigheden. Dat je liever mensen op wat fora gelooft over prestatieverbeteringen in een benchmarkje hier of een testprogje daar is leuk, maar ik persoonlijk denk dat HardOPC's methodologie toch iets grondiger is en dat ze daar wel weten wat ze doen. Maar wellicht zal er een andere site opstaan om de 270.61 drivers te testen en te vergelijken met 270.51 om te zien of er werkelijk een wereld van verschil is.
This is the first WHQL-certified release from the Release 270 family of drivers (versions 270.xx to 274.xx). You can read more about this family of drivers on GeForce.com.

This driver package supports GeForce 6, 7, 8, 9, 100, 200, 300, 400, and 500-series desktop GPUs as well as ION desktop GPUs. This driver package also includes the 3D Vision Controller driver.

New in Release 270.61

GPU Support

Adds support for the newly released GeForce GTX 590, GeForce GTX 560 Ti and GeForce GTX 550 Ti GPUs.

Performance

Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. v266.58 WHQL drivers. The following are examples of some of the most significant improvements measured on Windows 7. Results will vary depending on your GPU and system configuration.

Ik bedoel ook v266.58 hé

  • dahakon
  • Registratie: april 2002
  • Laatst online: 06:13
quote:
Jij mag dan 266.58 bedoelen, maar HardOPC, waar je zo tegen tekeer gaat, gebruikte 270.51, wat dus een beta-versie is van 270.61. Dus de prestatieverbeteringen die jij denkt nog te kunnen zien bovenop de resultaten van HardOPC, zijn er niet.

  • 304087
  • Registratie: mei 2009
  • Laatst online: 03-04 11:21
Klopt ik las het ook verkeerd, ik las dat er getest was met 266,58 en lees het nu goed.
Ach jah shit hapens hé en een foutje is menselijk. Beetje laat achtergekomen ook want ben zelf niet helemaal fit ben wat ziek en zie dingen die er niet zijn. Mijn hersenen moeten nog even opgang komen.
Echter vind ik die site wel pro amd want nvidia doet het daar altijd slechter terwel er gevallen zijn waar nvidia het beter zou moeten doen.

Ik zie veel liever anere site's die driver tests doen en ook wat vaken nederlandse sites zoals tweakers en hwi.

http://www.guru3d.com/article/vga-charts-spring-2011/5

Nvidia staat toch wel meerendeels met de meeste kaarten wat hoger. Ik blijf dus fijn bij mijn eigen mening
als dat niet erg is?

304087 wijzigde deze reactie 01-05-2011 13:22 (52%)


  • Merlanni
  • Registratie: mei 2010
  • Laatst online: 22-10 19:05
Een tussendoor vraag over een Nvidia discussie, met name de Graka's.

Is er geen merk kaart dat in het echt deel is van Nvidia zelf. Ik meen EVGA.
Pagina: 1 2 3 ... 7 Laatste

Dit topic is gesloten.

Let op:
Voor de duidelijk nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.


Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013