Samsung Galaxy S4,Samsung Galaxy Tab2 10.1 / Intel Core i7-3770 @4.2GHz / MSI Z77A-GD55 / MSI GeForce GTX 970 Gaming / 4x2GB DDR3 Kingston HyperX / Samsung SSD 830 128GB / Seagate HDD 1x500GB
-Offtopic- Hulde! Eindelijk iets nieuwswaardig...
Er is inmiddels wel weer genoeg nVidia nieuws te posten, maar niemand heeft er blijkbaar trek in (jij incluis).Humma Kavula schreef op dinsdag 04 januari 2011 @ 21:52:
[...]
-Offtopic- Hulde! Eindelijk iets nieuwswaardig...
Van de frontpage zelf:
twee Tegra2 tablets van Asus
Lenovo komt met nieuwe laptops met oa een GT555m GPU van nVidia
BMW en Tesla gaan Tegra2 gebruiken voor het aansturen van de displays voor navigatie
Even een snelle greep...Ik denk dat dit behoorlijk essentieel is voor de toekomst van nVidia gezien de CPU+GPU integratie door AMD en Intel.
Ondanks dat ik het qua manieren een absoluut klotebedrijf vind, kunnen we vooralsnog niet zonder een sterk nVidia dus is dit een goede ontwikkeling.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Volgens Jen-Hsun Huang zijn er binnen 4 jaar meer ARM processoren in omloop dan X86, Hij zei ook dat alleen Microsoft zijn Windows nog geschikt moet maken voor ARM, Apple (iOS???) en Google (Android) zijn Microsoft al voor gegaan, maar het gerucht gaat dat Microsoft het deze CES gaat aankondigen
Verder heeft hij een aantal mogelijkheden van Tegra2 laten zien (hoe goed het opkan tegen console en PC games)
EDIT: nieuwsbericht op Engadget:<KLIK>
[ Voor 78% gewijzigd door tweeny op 05-01-2011 22:12 ]
Maar binnen 4 jaar? Vind ik wel snel al zou het natuurlijk moeten kunnen als het in al onze apparatuur (TV, telefoon, kleine/lichte PC's, auto's, enz) komt.
[ Voor 5% gewijzigd door -The_Mask- op 05-01-2011 22:27 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het lijkt me allemaal alleen wel een beetje erg positief. Intel en AMD zitten ook niet stil en met de launch van Brazos zal ook Intel waarschijnlijk wel wat meer moeite in het Atom platform gaan steken. Als je dan ook nog eens bedenkt dat binnen een jaar de 28nm opvolgers van Ontario moeten komen, dan zal het voor alles behalve het erg mobiele platform de competitie wel heel groot zijn.
Wat ook leuk is om te vermelden is, is dat Jen-Hsun Huang het had over mogelijk de grootste aankondiging in de geschiedenis van nVidia
Hier trouwens het officiele persbericht:
NVIDIA Announces "Project Denver" to Build Custom CPU Cores Based on ARM Architecture, Targeting Personal Computers to Supercomputers
NVIDIA Licenses ARM Architecture to Build Next-Generation Processors That Add a CPU to the GPU
LAS VEGAS, NV -- (Marketwire) -- 01/05/2011 -- CES 2011 -- NVIDIA announced today that it plans to build high-performance ARM® based CPU cores, designed to support future products ranging from personal computers and servers to workstations and supercomputers.
Known under the internal codename "Project Denver," this initiative features an NVIDIA® CPU running the ARM instruction set, which will be fully integrated on the same chip as the NVIDIA GPU.
This new processor stems from a strategic partnership, also announced today, in which NVIDIA has obtained rights to develop its own high performance CPU cores based on ARM's future processor architecture. In addition, NVIDIA licensed ARM's current Cortex™-A15 processor for its future-generation Tegra® mobile processors.
"ARM is the fastest-growing CPU architecture in history," said Jen-Hsun Huang, president and chief executive officer of NVIDIA. "This marks the beginning of the Internet Everywhere era, where every device provides instant access to the Internet, using advanced CPU cores and rich operating systems.
"ARM's pervasiveness and open business model make it the perfect architecture for this new era. With Project Denver, we are designing a high-performing ARM CPU core in combination with our massively parallel GPU cores to create a new class of processor," he said.
Warren East, ARM chief executive officer said, "NVIDIA is a key partner for ARM and this announcement shows the potential that partnership enables. With this architecture license, NVIDIA will be at the forefront of next generation SoC design, enabling the Internet Everywhere era to become a reality."
About NVIDIA
NVIDIA (NASDAQ: NVDA) awakened the world to the power of computer graphics when it invented the GPU in 1999. Since then, it has consistently set new standards in visual computing with breathtaking, interactive graphics available on devices ranging from tablets and portable media players to notebooks and workstations. NVIDIA's expertise in programmable GPUs has led to breakthroughs in parallel processing which make supercomputing inexpensive and widely accessible. The Company holds more than 1,600 patents worldwide, including ones covering designs and insights that are essential to modern computing. For more information, see www.nvidia.com.
http://www.anandtech.com/...high-performance-arm-core
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat is toch niet zo vreemd? Er worden vast ook meer hamburgers verkocht... Beetje vreemde vergelijking.tweeny schreef op woensdag 05 januari 2011 @ 22:32:
Het is idd snel, maar als je de tabel van nVidia ziet die ze ook tijdens de presentatie lieten zien (kan hem nu niet vinden) zie je dat er op dit moment al zo'n 5 keer meer ARM processoren worden verkocht dan x86
Anoniem: 303530
http://www.anandtech.com/...-500m-refreshing-the-400m
opmerkelijk: de nieuwe gpu, de 315m, is trager dan de voorganger 310m
Het is inderdaad possitief dat ze nu toch ergens in gebruikt gaan worden wat daadwerkelijk straks te koop gaat zijn. Maar ook is het weer een beetje negatief. Ht gaat hier om luxe auto's waar er maar een paar van verkopen. Daarbij komt ook nog eens dat e prijs van een dergelijk Tegra systeempje niet erg veel is. Deze factoren maken het moeilijk om een aanzienlijke omzet te kunnen generen. Over marge die er op gemaakt wordt kan minder snel iets gezegt worden maar aangezien er veel concurentie is kunnen we wel zeggen dat de marges niet al te hoog zullen zijn. M.a.w. als het hier voor Tegra 2 bij blijft krijgen ze de R&D kosten voor Tegra 1(heeft de markt namelijk nooit gehaald) laat staan de R&D kosten voor Tegra 2 niet terug verdiend.Help!!!! schreef op woensdag 05 januari 2011 @ 18:55:
Het is interessant en positief om te zien dat Tegra2 enigzins opgepikt wordt.
Dat kan wel kloppen maar x86 is momenteel wel veel breder inzetbaar en belangrijker. ARM apparaten moeten het namelijk vaak hebben van internet content(cloud) en die loopt mooi op x86 servers.tweeny schreef op woensdag 05 januari 2011 @ 22:32:
Het is idd snel, maar als je de tabel van nVidia ziet die ze ook tijdens de presentatie lieten zien (kan hem nu niet vinden) zie je dat er op dit moment al zo'n 5 keer meer ARM processoren worden verkocht dan x86
Daarbij komt ook nog eens dat de ARM markt veel meer concurentie kent dus die 5x meer t.o.v. x86 is leuk maar over ~10 fabrikanten is zuur. Ook is de omzet die gemaakt wordt met ARM lager omdat dat ASP veel lager ligt dan bij x86 producten. Lagere ASP betekend meestal ook lagere marges zowel in verhouding als in totaal.
Nou de één en drie serie van BMW gaan nogal als warme broodjes (+- 300K per jaar voor alleen al de 3 serie)madmaxnl schreef op donderdag 06 januari 2011 @ 11:54:
[...]
Het is inderdaad possitief dat ze nu toch ergens in gebruikt gaan worden wat daadwerkelijk straks te koop gaat zijn. Maar ook is het weer een beetje negatief. Ht gaat hier om luxe auto's waar er maar een paar van verkopen.
Grafische schoonheid in auto's gaat wel een vlucht nemen de komende tijd denk ik, op zich een interessante markt voor Nvidia
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Een telefoon die best veel mensen zou kunnen aanspreken.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 245699
Korte vergelijking met de HD6970(M) is interessant al zal die laatste wel wat zuiniger zijn denk ik.
Wat wel weer typisch Nvidia is, is dat ze hun topmodel nu nog wel onder de 4xx serie voegen en de low/mid chips al wel onder de 5xx serie schuiven, daar wordt je toch moe van!
Anoniem: 390608
Wat een geweldige prestaties.
Het gaat toch om de GPU score? Dan lijkt het me vrij eerlijk?spNk schreef op donderdag 06 januari 2011 @ 18:45:
Wat een kut vergelijkingen zeg, elke benchmark bevat weer andere systemen.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Zonder dat er een goed vergelijk met de HD6970M is lijkt me dat wat te voorbarig. Tevens moet je niet vergeten dat er ook nog zoiets is als SLI en CFX bestaat. Of twee GTX485M in SLI mogelijk zijn lijkt me namelijk niet, iets te veel warmte en stroomverbruik voor een laptop. Terwijl twee HD6970M in CFX wellicht wel kunnen(HD6990M?). Daarnaast weten we niet precies hoeveel beiden verbruiken dus het is nog even wachten op fatsoenlijke tests.Springstof schreef op donderdag 06 januari 2011 @ 18:38:
Zoooo, als ik op zoek zou zijn naar een gamelaptop zou ik voor een laptop met de 485M gaan.
Wat een geweldige prestaties.
Ik betwijfel of nVidia de snelste singel GPU gaat hebben in notebooks alhoewel het wel in de lijn der verwachting ligt. Maar de Barts chip heeft wel de beste performance/watt, prijs/prestatie en performance/die size.
Trouwens die Load temperatuur test met Furmark is niet goed. De temperatuur stijgt immers nog steeds en is nog niet afgevlakt dus over de temperatuur kunnen we niks zeggen behalve dat deze hoger ligt dan 72 graden Celsius en aan de groeifactor te zien veel hoger dan 72 graden Celsius.
[ Voor 83% gewijzigd door madmaxnl op 06-01-2011 22:04 ]
Ik had het over de rest van de benchmarks, niet over de 3d mark score.Xenomorphh schreef op donderdag 06 januari 2011 @ 19:22:
[...]
Het gaat toch om de GPU score? Dan lijkt het me vrij eerlijk?
Dude, hij zegt dat hij vindt dat die laptop GPU geweldige prestaties biedt, en jij begint direkt over wie de snelste GPU heeft, of ze in SLi kunnen, over verbruik, en over temperaturen... En over het wachten op andere tests... Merkwaardig.madmaxnl schreef op donderdag 06 januari 2011 @ 21:11:
[...]
Zonder dat er een goed vergelijk met de HD6970M is lijkt me dat wat te voorbarig. Tevens moet je niet vergeten dat er ook nog zoiets is als SLI en CFX bestaat. Of twee GTX485M in SLI mogelijk zijn lijkt me namelijk niet, iets te veel warmte en stroomverbruik voor een laptop. Terwijl twee HD6970M in CFX wellicht wel kunnen(HD6990M?). Daarnaast weten we niet precies hoeveel beiden verbruiken dus het is nog even wachten op fatsoenlijke tests.
Ik betwijfel of nVidia de snelste singel GPU gaat hebben in notebooks alhoewel het wel in de lijn der verwachting ligt. Maar de Barts chip heeft wel de beste performance/watt, prijs/prestatie en performance/die size.
Trouwens die Load temperatuur test met Furmark is niet goed. De temperatuur stijgt immers nog steeds en is nog niet afgevlakt dus over de temperatuur kunnen we niks zeggen behalve dat deze hoger ligt dan 72 graden Celsius en aan de groeifactor te zien veel hoger dan 72 graden Celsius.

Nofi btw.
[ Voor 3% gewijzigd door Format-C op 06-01-2011 23:06 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 245699

http://techreport.com/discussions.x/20206
Hoewel in het artikel van TR de naam GTX 595 niet wordt vermeld weet FUD dat wel voor mekaar te krijgen...

[ Voor 34% gewijzigd door Dura Ace op 07-01-2011 12:43 ]
Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711
Anoniem: 263922
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan
Ik gok ook op de gtx595 btw, er zit maar een enkele sli-stekker op, een gtx560 lijkt me aardig onmogelijk, zou wel wat zijn, new gpu-clockspeed record: gtx560 SR-classified oc'ed to 2133mhz core, 7ghz gddr5 qdr and 4266mhz on the shader units

Well, let's see what the future brings us
Stockkoeler? Je denkt dus dat nVidia hem uit gaat brengen?Anoniem: 263922 schreef op vrijdag 07 januari 2011 @ 20:58:
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan,vraag me trouwens af of dit de stock koeler wordt.
Tja octa-sli is er nog niet hè.er zit maar een enkele sli-stekker op,
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 245699
Soldeerpunten op de achterkant van de kaart bij de gpu's hebben een rechthoekige vorm, dus dit wijst idd op gebruik van de GF114 chip (GF104 lijkt nu nog wat onwaarschijnlijk).Anoniem: 263922 schreef op vrijdag 07 januari 2011 @ 20:58:
Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan,vraag me trouwens af of dit de stock koeler wordt.

Andere toekomstige kaart van EVGA;


Een custom GTX570 met verkorte pcb. Onderste plaatje laat zien hoeveel korter dan reference design.
[ Voor 5% gewijzigd door Anoniem: 245699 op 07-01-2011 21:14 ]
Anoniem: 263922
Ehh, op dat moment wel ja, maar heb op de frontpage gelezen dat het vrijwel zeker om een evga-only kaart gaat.-The_Mask- schreef op vrijdag 07 januari 2011 @ 21:07:
[...]
Stockkoeler? Je denkt dus dat nVidia hem uit gaat brengen?
[...]
Tja octa-sli is er nog niet hè.
En ik weet best dat er nog geen octa sli is, was meer omdat de 7900gx2, 7950gx2, 9800gx2 en gtx295 ook maar een enkele sli connector hebben, en met de dubbele pci-e 8pins stekkers gokte ik dan ook dat het om een dual-gpu kaart gaat, zonder eigenlijk nog maar de achterkant van het pcb gezien te hebben, al lag het wel voor de hand. Misschien dat ik een beetje te enthiousiast was maar het was toch leuk om een nieuwe dual-gpu nvidia kaart te zien, een echte gtx595 van nvidia zich er waarschijnlijk nog niet in atm
Weet trouwens niet waarom je me quote, je bevestigt eigenlijk enkel mijn reactie, of begreep je me niet?
Zoja, ben ik nu hopelijk wat duidelijker geweest
@MW1F
Die ingekorte gtx570 is een mooie ontwikkeling, zit leuk spul aan te komen van evga
@dahakon
Bij dual-gpu kaarten is het verbruik per videokaart netto een stuk lager, zo heeft de gtx260 55nm bijvoorbeeld een TDP van 171watt, waar de gtx295 een TDP van 289watt heeft. Dat is toch 342watt vs 289watt, waar de gtx295 ook nog eens meer shader cores heeft, het verschil met een gelijkwaardige teruggeclockte gtx275 sli opstelling zal dan iets rond de 65-70 watt zijn.
Er is dus nog aardig wat speling om de dual gf114 (als het al zo is) zo te tweaken dat ze weerstand kunnen bieden tegen de hd6990, al wordt dat ook aardig gelijkspel denk ik zo.
Het is maar de vraag hoe snel de hd6990 gaat worden, de hd6970 verbruikt meer dan een hd5870, het zal allemaal wat lastiger worden dan bij de hd5970.
Punt is echter dat een volle GF104 (ofwel GF114) meer stroom zal verbruiken dan de huidige top GF104 kaart, de GTX460 1GB, daar namelijk nog een cluster wordt ingeschakeld. TDP zal dus al gauw nog een zetje van zo'n 10Watt kunnen krijgen, over de 160Watt die het nu heeft. Ze zullen dus behoorlijk strak moeten gaan binnen, wat de hoeveelheden beschikbare kaarten ook niet ten goede zal komen. Onmogelijk zal het allemaal niet zijn misschien, maar het zou wel direct kunnen verklaren waarom het EVGA-only zou kunnen zijn. Bovendien blijft de vraag hangen of het werkelijke TDP niet, zoals bij HD4870X2 en GTX295 overschreden zal worden bij bepaalde belasting.
Anoniem: 390961
De gemiddelde consument die dit soort kaaten kopen kijken niet naar het TDP gebruik.Anoniem: 263922 schreef op vrijdag 07 januari 2011 @ 20:58:
Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan,vraag me trouwens af of dit de stock koeler wordt.
Ik gok ook op de gtx595 btw, er zit maar een enkele sli-stekker op, een gtx560 lijkt me aardig onmogelijk, zou wel wat zijn, new gpu-clockspeed record: gtx560 SR-classified oc'ed to 2133mhz core, 7ghz gddr5 qdr and 4266mhz on the shader units![]()
![]()
Well, let's see what the future brings us
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Ik hoop op 2 gf110 chips.
Ojah een nieuwtje nvidia heeft performance drivers uitgegeven voor de 500 series.
Er valt dus zeker ng wat extra uit de gf110 chip te halen. Maar daar ging ik ook al wel van uit gezien
het gpu gebruik in heel veel games.
Anoniem: 263922
In deze review is te zien dat een dual-gpu kaart op basis van de gtx460 heel goed te doen is: http://www.techpowerup.co...IS/Radeon_HD_6970/27.html
Je ziet bij de card power consumption-max tabel dat de hd5970 op 304 watt zit, een hd5870 doet 212 watt.
De hd6970 verbruikt 287watt, een gtx570 298.
Als amd op basis van de hd6970 een hd6990 maakt, zou die kaart flink over de 300 watt gaan, ik denk dan ook dat ze wat aan de kloksnelheden en shader count gaan doen, maar hij zal, zoals ik het me nu voorstel, niet zo snel zijn als een hd6950 in cfx.
Nvidia zelf zal vast (denk ik) proberen 2 gtx570 gpu's op een kaart te solderen, wat ook weer de nodige uitdagingen met zich meebrengt, ik denk dat zowel ati als nvidia gpu's binnen zodat de snelheidswinst tov een single kaart nog wel te verantwoorden is, binnen de 300watt TDP grens.
Als het maar iets van, zeg eens, 25% scheelt met de single-gpu high-end parts gaan ze natuurlijk niet veel dual-gpu kaarten verkopen.
Als je naar de gtx460 kijkt met zijn 155watt is een dual-gpu gtx560 kaart in zijn geheel geen onmogelijke opgave, zeker als je het verbruik van andere dual-gpu kaarten tegenover hun gelijkwaardige dual single-gpu kaarten opstellingen vergelijkt.
Zelfs als een enkele gtx560 een 175watt TDP zou krijgen valt die dual-gf114 evga kaart mooi binnen de 300watt gestelde norm.
Een dual gpu op basis van gf114 chips zou zelfs nog wat hogere clocks mee kunnen krijgen, de gtx460 blijft netjes binnen zijn TDP, situaties zoals bij de gtx480 zijn dan ook uit te sluiten.
Die evga kaart komt er wel, en hij voldoet aan het 300watt TDP, die dubbele 8pins pci-e stekkers zullen vast de nodige overclock headroom geven, er zal vast en zeker ook een nette vermogensverziening opzitten.
Het is wachten wanneer de hd6990 komt, het is niet uitgesloten dat amd de nodige gebinde stock op zit te bouwen voor die kaarten zodat bij de lancering genoeg kaarten beschikbaar zijn, van de gtx595 zijn al behoorlijk lang speculaties, maar of die kaart nog gaat verschijnen is maar de vraag.
Die evga kaart is een goede kandidaat voor de performance-crown over te nemen van de hd5970, al betekent dat niet zo veel voor nvidia daar het een non-reference kaart is, ook al is evga erg dik met nvidia
TDP is het maximale vermogen wat, in dit geval, een videokaart trekt, er wordt geen TDP verbruiktAnoniem: 390961 schreef op zaterdag 08 januari 2011 @ 20:10:
[...]
De gemiddelde consument die dit soort kaaten kopen kijken niet naar het TDP gebruik.
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Het maakt mij ook niet veel uit, maar er is niet voor niets een norm van 300watt gesteld, anders liep het de spuigaten uit met het verbruik van videokaarten.
De kaarten moeten ook voldoen aan die norm, anders mogen ze nog niet eens op de markt gebracht worden dacht ik, als het wel mocht was die dual gf100 kaart van asus ook al op de markt gebracht.
De asus Mars zat dan wel weer iets boven de 300watt, maar dat ding was nauwelijks bruikbaar met de stock koeler, een dual gf100 zou volgens geruchten rond de 500watt (of zefls meer!) verbruiken, dan zitten toch zeker 5 slots van je moederbord gevuld met koelblok.
Twee gf110 gpu's zullen niet veel lager uitkomen lijkt me, dat is nauwelijks levensvatbaar

[ Voor 26% gewijzigd door Anoniem: 263922 op 08-01-2011 20:43 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 390961
Verder gebruik ik de nieuwe performance BETA drivers
http://www.nvidia.com/obj...t-266.35-beta-driver.html
This is the first release from the Release 265 family of drivers (versions 265.xx to 269.xx). You can read more about this family of drivers on GeForce.com.
This driver package supports GeForce 6, 7, 8, 9, 100, 200, 300, 400, and 500-series desktop GPUs as well as ION desktop GPUs.
New in Release 266.35
GPU Support
Supports the newly released GeForce GTX 580 and GeForce GTX 570 GPUs.
Performance
Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. the latest Release 260 drivers. The following are examples of some of the most significant improvements measured on Windows 7. Results will vary depending on your GPU and system configuration:
GeForce GTX 580:
Up to 7% in Battlefield Bad Company 2 (1920x1200 4xAA/16xAF)
Up to 12% in Battleforge (SLI 1920x1200 4xAA/16xAF Very High)
Up to 11% in Call of Duty: Modern Warfare 2 (SLI 1920x1200 4xAA/16xAF)
Up to 7% in Dirt 2 (SLI 1920x1200 4xAA/16xAF)
Up to 7% in Far Cry 2 (1920x1200 4xAA/16xAF)
Up to 5% in Just Cause 2 (1920x1200 4xAA/16xAF Dark Tower)
Up to 5% in S.T.A.L.K.E.R.: Call of Pripyat (SLI – 1920x1200 4xAA/16xAF)
Up to 9% in Stone Giant (SLI 1920x1200, DOF on)
Up to 8% in Unigine Heaven v2.1 (SLI 1920x1200 4xAA/16xAF)
Improves performance in Final Fantasy XI on GeForce 400 Series and 500 Series GPUs.
Visual Quality
Adds ambient occlusion support for one of the most popular games of the year: Starcraft II: Wings of Liberty. Ambient occlusion improves the quality of lighting, shadows, and depth perception in many parts of the game. Learn more on GeForce.com.
NVIDIA 3D Vision
With Release 260 and 265 drivers, the installation process for 3D Vision has changed. Please view this knowledgebase article for more information on the changes.
Adds support for 3DVisionLive.com Beta 2:
Adds supports for 3D photo sharing and viewing
Adds new 3D video clips to the website
Includes several bug fixes
Adds 3D Vision Window Mode support for the following games and applications:
Games
Aion
Crazy Racing Kart Rider
Crossfire
Dragon Nest
EverQuest 2
Guild Wars 2
NED
PopKart
QQ Dance QQ
QQ Xian Xia
Tian Long Ba Bu
World of Warcraft – Burning Crusade
World of Warcraft – Wrath of the Lich King
Xun Xian
Zhu Xian 2
Google Earth
Improvements to 3DVisionLive
Adds support for new 3D Vision Desktop LCD monitors: Hannstar HS233, I-O Data 3D231XBR, Lenovo L2363dwA, Planar SA2311W
Adds support for new 3D Vision projectors: Acer X1261P, Sanyo PDG-DXL2000
Adds support for new DLP HDTVs: Mitsubishi WD-83838, WD-83738, WD-73838, WD-73837, WD-73738, WD-73638, WD-73C10, WD-65838, WD-65738, WD-65638, WD-65C10, WD-60738, WD-60638, WD-60C10, L75-A91.
Added the following 3D Vision game profiles:
Arcania: Gothic 4
Crazy Racing Kart Rider 크레이지레이싱 카트라이더
Crossfire 穿越火线
Darksiders
DC Universe Online
Dragon Nest
Front Mission Evolved
Guild Wars 2
Hank Haney's World Golf
Lineage 2
Medal of Honor (2010) Multiplayer
Medal of Honor (2010) Single Player
NED
Need for Speed Hot Pursuit
NVIDIA Demo: Aliens vs. Triangles
NVIDIA Demo Endless City
PopKart 跑跑卡丁车
QQ Dance QQ 炫舞
QQ Xian Xia Zhuan QQ 仙侠传
Tian Long Ba Bu 天龙八部
TRON: Evolution
Vizerra (fullscreen version)
World Rally Championship 2010
Xun Xian 寻仙
Update the following 3D Vision game profiles
Lost Planet 2 – rating is now changed to Fair
Tom Clancy’s H.A.W.X. 2- rating has been changed to 3D Vision Ready
NVIDIA Surround
Improved performance for 3-way and 4-way SLI configurations
Updated 3D Vision Surround and NVIDIA Surround game support list. Please visit the 3D Vision Surround web page for a full list of supported games.
NVIDIA SLI
Adds SLI profiles for the following PC games:
Alien vs. Triangles Demo
Endless City Demo
Lionheart: Kings Crusade
Moscow Racer: Legends of USSR
Rift: Planes of Telara
Shaun White Skateboarding
Enhances SLI profiles for the following PC games:
Age of Conan
Arcania: Gothic 4
Civilization V - DX11
Lost Planet 2
World Of Warcraft
Other
Installs HD Audio driver version 1.1.13.1
Installs PhysX System Software to version 9.10.0514
Supports playing back Blu-ray 3D discs when connecting your GPU to an HDMI 1.4 3D TV. Playback requires compatible software application from CyberLink, ArcSoft, Roxio, or Corel. For GPU and system requirements, visit the NVIDIA Blu-ray 3D website.
Supports lossless DTS-HD Master Audio and Dolby TrueHD audio bitstreaming support for compatible Blu-ray movies with GeForce GTX 460, GTS 450, and GT 430 GPUs.
Supports high definition 24-bit, 96 and 192 KHz multi-channel audio sampling rate support for compatible Blu-ray movies with GeForce 400 and 500 series, GT 240, GT 220 and 210 GPUs.
Supports the new GPU-accelerated features in Adobe CS5.
Supports GPU-acceleration for smoother online HD videos with Adobe Flash 10.1. Learn more here.
Supports the new version of MotionDSP's video enhancement software, vReveal, which adds support for HD output. NVIDIA customers can download a free version of vReveal that supports up to SD output here.
Supports DirectCompute with Windows 7 and GeForce 8-series and later GPUs.
Supports OpenCL 1.0 (Open Computing Language) for all GeForce 8-series and later GPUs.
Supports OpenGL 3.3 for GeForce 8-series and later GPUs.
Supports OpenGL 4.1 on GeForce 400 series and later GPUs.
Supports single GPU and NVIDIA SLI technology on DirectX 9, DirectX 10, DirectX 11, and OpenGL, including 3-way SLI, Quad SLI, and SLI support on SLI-certified Intel X58-based motherboards.
Supports GPU overclocking and temperature monitoring by installing NVIDIA System Tools software.
Users without US English operating systems can select their language and download the International driver here.
Release Notes (v266.35)
Control Panel User's Guide
GeForce 500 series:
GTX 580, GTX 570
GeForce 400 series:
GT 430, GTX 465, GTX 480, GTX 470, GTS 450, GTX 460, GTX 460 SE
GeForce 200 series:
205, GTX 285, GTX 260, GT 240, GTS 240, 210, GTX 295, GTX 275, GTS 250, GT 220, GT 230, GTX 280, G210
GeForce 100 series:
GT 120, G 100, GT 140, GT 130
GeForce 9 series:
9500 GS, 9200, 9100, 9300, 9600 GSO, 9800 GT, 9800 GX2, 9600 GT, 9500 GT, 9400, 9400 GT, 9600 GS, 9800 GTX/GTX+, 9300 GS, 9300 GE
GeForce 8 series:
8300, 8400 SE, 8100 / nForce 720a, 8500 GT, 8800 GTS 512, 8400 GS, 8400, 8300 GS, 8800 GS, 8800 GTS, 8800 GT, 8600 GTS, 8600 GT, 8800 Ultra, 8600 GS, 8200 / nForce 730a, 8800 GTX, 8200
GeForce 7 series:
7900 GTX, 7800 GTX, 7100 / NVIDIA nForce 620i, 7500 LE, 7650 GS, 7050 PV / NVIDIA nForce 630a, 7950 GX2, 7600 GS, 7550 LE, 7300 GS, 7300 GT, 7300 SE / 7200 GS, 7100 / NVIDIA nForce 630i, 7300 LE, 7900 GS, 7100 GS, 7350 LE, 7150 / NVIDIA nForce 630i, 7025 / NVIDIA nForce 630a, 7800 SLI, 7050 / NVIDIA nForce 630i, 7050 / NVIDIA nForce 610i, 7600 LE, 7600 GT, 7950 GT, 7800 GS, 7900 GT/GTO
GeForce 6 series:
6800 GS, 6100 nForce 405, 6100 nForce 400, 6100 nForce 420, 6250, 6600 GT, 6800 LE, 6800 XE, 6150SE nForce 430, 6800 GS/XT, 6200 A-LE, 6200 TurboCache, 6700 XL, 6150 LE, 6610 XL, 6800, 6600 VE, 6150LE / Quadro NVS 210S, 6150, 6600, 6800 Ultra, 6200 LE, 6800 GT, 6100, 6200, 6200SE TurboCache, 6500, 6800 XT, 6600 LE
ION series:
ION, ION LE
Anoniem: 263922
Je doet er goed aan dat bericht te cut-pasten naar het ervaringen topic, die hele lap tekst van de nieuwe driver mag je dan weglaten, driver nummer vermelden is genoeg dunkt me
Anoniem: 390961
ik kan geen dergelijk topic vinden die over de gtx500 series gaat.
CPU is een core i7 920 op 4200mhz
Dan haal je het maximale er wel uit.
Je hebt pas een bottleneck als iets niet speelbaar is.
/ontopic/
[ Voor 87% gewijzigd door Format-C op 08-01-2011 22:01 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat het dan ver buiten de PCI-e-specs valt en dat er dan 2 8-pins en een 6-pins stekker nodig zijn maakt EVGA wel uit. En 400W ga je echt niet gemakkelijk koelen, het maakt de gemiddelde consument wel uit als het een stofzuiger-koeling is of je per sé waterkoeling nodig hebt.Anoniem: 390961 schreef op zaterdag 08 januari 2011 @ 20:10:
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Die 300W-grens is er niet voor niets (al gaan kaarten daar wel een beetje overheen, maar niet heel ver eroverheen).
[ Voor 30% gewijzigd door bwerg op 08-01-2011 22:58 ]
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 245699
- http://ic.tweakimg.net/ext/i/imagelarge/1294432401.jpeg
Dan gaat Nvidia met zo'n 10% voorsprong aan de leiding, enig nadeel is dat het stroomverbruik zeer waarschijnlijk wel stukkie hoger ligt.
Anoniem: 390961
De gemiddelde consument koop geen kaart van 450 euro en maakt warmte en gebruik niets uit.bwerg schreef op zaterdag 08 januari 2011 @ 22:56:
[...]
Dat het dan ver buiten de PCI-e-specs valt en dat er dan 2 8-pins en een 6-pins stekker nodig zijn maakt EVGA wel uit. En 400W ga je echt niet gemakkelijk koelen, het maakt de gemiddelde consument wel uit als het een stofzuiger-koeling is of je per sé waterkoeling nodig hebt.
Die 300W-grens is er niet voor niets (al gaan kaarten daar wel een beetje overheen, maar niet heel ver eroverheen).
Als je het snelste wil hebben kijk je daar niet naar.
Ik snap dat gemiereneuk nooit om een 25-50 wat verschil. Bij de nieuwe pcie 3.0 gaan de wattage's zelfs een stuk omhoog als maximum lolzz
[ Voor 9% gewijzigd door Anoniem: 390961 op 09-01-2011 10:34 ]
Gemiereneuk over 25~50 Watt is geen gemiereneuk. 50 Watt meer vraagt veel meer van de koeling, dus maakt de kaart meer herrie. Verder voldoe je dan niet meer aan de PCI-Express standaard, dus mis je certificering en dus kunnen de OEM's(een hele grote klant op de grafische markt) niet meer jouw kaarten kopen en maak je dik verlies.Anoniem: 390961 schreef op zondag 09 januari 2011 @ 10:32:
[...]
De gemiddelde consument koop geen kaart van 450 euro en maakt warmte en gebruik niets uit.
Als je het snelste wil hebben kijk je daar niet naar.
Ik snap dat gemiereneuk nooit om een 25-50 wat verschil. Bij de nieuwe pcie 3.0 gaan de wattage's zelfs een stuk omhoog als maximum lolzz
En bij PCI-Express 3 gaan de Wattages niet omhoog, zijn nog steeds maximaal 300 Watt.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Het is in der daad nog een beetje grof:Anoniem: 245699 schreef op zondag 09 januari 2011 @ 01:40:
Om een positieve Nvidia noot toe tevoegen lijkt het er sterk op dat ze met de GTX485M iig ook de sterkste mobiele gpu in huis hebben. Het is wat grof vergelijken en zeker niet 1 op1, maar als uit deze review blijkt dat de GTX485M 57-69% sneller is dan de HD5870M en dit plaatje klopt;
- http://ic.tweakimg.net/ext/i/imagelarge/1294432401.jpeg
Dan gaat Nvidia met zo'n 10% voorsprong aan de leiding, enig nadeel is dat het stroomverbruik zeer waarschijnlijk wel stukkie hoger ligt.
In the 3D Mark 2006 comparison, our test system even achieves the new leading score: 20206 points weren't reached by any reviewed laptop so far. The GTX 480M is 23% slower, the HD5870 even 57%. Exiting: According to first benchmarks the new HD 6970M "Blackcomb", AMD's high-end graphics solution, gets 17300 to 20155 points (M17x Sandy Bridge) in the 3D Mark 2006. So, the Nvidia GTX 485M graphics would be 17% faster or possibly on the same level. The 485M also beats the 6970M in our score of the 3D Mark Vantage test (13524 versus 11771 points, Eurocom X8100 with Clarksfield CPU).
However, our test system is already equipped with Intel's Sandy Bridge, while the reference systems have to make do with Clarksfield or Bloomfield processors. Considering the huge performance gain we reported about in our comprehensive special article, the GTX 485M test platform could take advantage of the new CPU generation. So, the competition with the AMD HD 6970M stays interesting and we hope to get hold of a test system with this graphics card and Sandy Bridge hardware soon.
Ik kom niet veel OEM's tegen met bijvoorbeeld een 5970. Ik heb dus niet de indruk dat bij dergelijke high end producten OEM's een significant deel uitmaken, maar wellicht heb jij cijfers, die het tegenovergestelde aantonen.Darkasantion schreef op zondag 09 januari 2011 @ 12:12:
[...]
dus mis je certificering en dus kunnen de OEM's(een hele grote klant op de grafische markt) niet meer jouw kaarten kopen en maak je dik verlies.
Goed punt, er zijn zat kaarten die over de 300 watt gaan, maar op papier doen ze dat niet dus zitten ze nog aan de spec's.Springstof schreef op zondag 09 januari 2011 @ 13:14:
[...]
Ik kom niet veel OEM's tegen met bijvoorbeeld een 5970. Ik heb dus niet de indruk dat bij dergelijke high end producten OEM's een significant deel uitmaken, maar wellicht heb jij cijfers, die het tegenovergestelde aantonen.
En de markt van de echte kaarten boven de 300watt (Asus MARS kaarten of mischien de aankomende GTX590/HD6990) is echt zo klein dat OEM's daar niet eens aan beginnen.
[ Voor 29% gewijzigd door madmaxnl op 09-01-2011 13:33 ]
Gaan we nu zien dat ARM door nVidia wordt gedropt?
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Hoe kom je daarbij ? ARM is de toekomst voor nVidia in potentie veel meer waar dan 1,5 miljard dollar krijgen verspreid over zes jaar.bladerash schreef op maandag 10 januari 2011 @ 23:34:
[...]
Gaan we nu zien dat ARM door nVidia wordt gedropt?
Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
Duidelijker dus.[ Voor 92% gewijzigd door madmaxnl op 11-01-2011 00:00 ]
En tegelijkertijd een potentiële dreiging voor Intel wat meer schade dan 1,5 miljard kan richten in de winst.madmaxnl schreef op maandag 10 januari 2011 @ 23:40:
Hoe kom je daarbij ? ARM is de toekomst voor nVidia in potentie veel meer waar dan 1,5 miljard dollar krijgen verspreid over zes jaar.Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
Duidelijker dus.
Als Intel bereid is om retailers te betalen geen AMD te verkopen, zijn ze ook wel bereid nVidia te betalen geen ARM te gebruiken. 1,5 miljard is veel geld, misschien heeft een deel hiervan het doel om nVidia tevreden te houden. Maar dit zal wel weer onderhands gebeuren.
We zullen dit wel niet gepubliceerd zien maar merken het vanzelf wel als Tegra3 of hoe de opvolger ook mag heten niet verschijnt.
Is dit nou echt zo ver gezocht dat het niet kan kloppen dan?
Niet, nVidia is de enige die daar relatief een krachtige gpu in kan proppen zodat de APU vlot genoeg is een desktop te draaien. Een echte atom killer want die kan niet eens youtube filmpjes fatsoenlijk afspelen zonder ION. En die is weer van nVidia. Zonder een redelijke gpu is het binnen een korte tijdsbestek alleen nog maar tussen Tegra2 en Ontario.Edmin schreef op dinsdag 11 januari 2011 @ 00:39:
En hoe zie je Intel dan alle ARM producenten uitkopen?
De andere producenten van ARM? Die lopen nog lichtjaren achter met gpu performance. Met alleen een Cortex zijn ze er nog niet.
Ten tweede, ik denk niet dat NVIDIA een licentie wil. Waarom zouden ze, het is wel duidelijk uit resultaten uit het verleden dat een x86 chip weinig toekomst heeft behalve bij Intel (en een klein beetje bij AMD). x86 is gewoon een waardeloze ISA en de enige reden dat Intel er zoveel performance uit weet te halen is het feit dat Intel het geld heeft om bizar veel R&D te doen en belangrijker nog, dat Intel gewoon met afstand de beste chipbakker is. Dit is ook de enige reden dat Intel straks Atom in een stroombudget van een telefoon weet te krijgen, omdat gewoon op productiegebied een stap voorlopen op alle andere chipbakkers.
sorry, maar dat is gewoon onzin. Tegra 2 is maar een beetje beter dan wat andere ARM producenten op dit moment hebben en de enige reden dat ARM-SOC GPUs weinig performance hebben is het stroombudget waar ze in moeten passen. Met een ruimer budget kunnen de ARM-SOC GPUs makkelijk concurreren met Intel's eigen IGPs.bladerash schreef op dinsdag 11 januari 2011 @ 01:49:
[...]
Niet, nVidia is de enige die daar relatief een krachtige gpu in kan proppen zodat de APU vlot genoeg is een desktop te draaien. Een echte atom killer want die kan niet eens youtube filmpjes fatsoenlijk afspelen zonder ION. En die is weer van nVidia. Zonder een redelijke gpu is het binnen een korte tijdsbestek alleen nog maar tussen Tegra2 en Ontario.
De andere producenten van ARM? Die lopen nog lichtjaren achter met gpu performance. Met alleen een Cortex zijn ze er nog niet.
SorrySnoitkever schreef op dinsdag 11 januari 2011 @ 02:23:
sorry, maar dat is gewoon onzin. Tegra 2 is maar een beetje beter dan wat andere ARM producenten op dit moment hebben en de enige reden dat ARM-SOC GPUs weinig performance hebben is het stroombudget waar ze in moeten passen. Met een ruimer budget kunnen de ARM-SOC GPUs makkelijk concurreren met Intel's eigen IGPs.
Ik was ook te ver doorgegaan met me paranoïsme dat ik me gezond verstand ook niet meer bij had gebruikt bij het typen van dat stuk.
Anoniem: 303530
De status quo blijft gehanteerd. Er gaat niks nieuws gebeuren, behalve dan 1,5 miljard naar Nvidia en Nvidia is natuurlijk bezig met Project Denver. Intel gaat echter geen Nvidia-gpu's inbouwen in zijn chipsets of zo. Sandy Bridge maakt namelijk al gebruik van Nvidia-patenten.
Yeah well. The Dude abides.
Wel pijnlijk dat ze nu zelf een settlement hebben gesloten met Intel terwijl ze er in hun spotprent nog zo kritisch over waren toen Intel dat met AMD deed.
madmaxnl schreef op dinsdag 11 januari 2011 @ 17:42:
Waarschijnlijk het enige wat ik leuk en goed vind van nVidia: de spotprenten die ze maken van Intel.
Wel pijnlijk dat ze nu zelf een settlement hebben gesloten met Intel terwijl ze er in hun spotprent nog zo kritisch over waren toen Intel dat met AMD deed.
Ik denk niet dat de 1.5 miljard het belangrijkste onderdeel van de deal is. Natuurlijk zal NVIDIA daar blij mee zijn en alles, maar deze deal is veel interessanter dan alleen dat geldbedrag, en wel op het gebied van patenten. NVIDIA heeft een enorme lading GPU patenten, Intel heeft een enorme lading CPU patenten. Intel maakt IGPs die ongetwijfeld op een flink aantal patenten van NVIDIA inbreuk maken. Daar zou NVIDIA Intel flink mee dwars kunnen zitten. Omgekeerd hebben we nog geen week geleden (volgens mij geen toeval) gehoord dat NVIDIA druk bezig is met een eigen CPU gebaseerd op ARM. Ik durf te wedden dat ondanks de andere ISA Intel genoeg patenten heeft die betrekking hebben op technologieën in Denver.Marc Rademaker schreef op dinsdag 11 januari 2011 @ 10:43:
De status quo blijft gehanteerd. Er gaat niks nieuws gebeuren, behalve dan 1,5 miljard naar Nvidia en Nvidia is natuurlijk bezig met Project Denver. Intel gaat echter geen Nvidia-gpu's inbouwen in zijn chipsets of zo. Sandy Bridge maakt namelijk al gebruik van Nvidia-patenten.
Intel en NVIDIA hebben dus ingezien dat ze beiden waarschijnlijk eeuwig door kunnen vechten op dat gebied, maar dat geen van beiden er belang bij heeft. Nou heeft NVIDIA vanwege anti-competitief sentiment in de EU en VS een voordeel in deze situatie, en ze hebben ook geen interesse meer in de chipset business, met als gevolg de 1.5 miljard dollar. Maar ik zie de rest van de deal als veel interessanter dan dat bedrag.
Deze deal moet dat nu goed maken.
Voer voor het Radeon topic.
[ Voor 24% gewijzigd door Edmin op 11-01-2011 20:59 ]
Op wie, en waarop is dat een reaktie?
Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff...

1, 2, 3, 4, 5, 6, 7, 8, 9, 10...
[ Voor 72% gewijzigd door Format-C op 11-01-2011 20:24 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
11,12,13.............Format-C schreef op dinsdag 11 januari 2011 @ 20:18:
WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...
Op wie, en waarop is dat een reaktie?
Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff...![]()
1, 2, 3, 4, 5, 6, 7, 8, 9, 10...
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Ontopic:

Aandelen van nVidia zijn flink omhoog geschoten sinds januari
[ Voor 17% gewijzigd door Tyranium op 11-01-2011 20:45 ]
In 6 dagen van ~16 dollar naar ~21 dollar per aandeel is niet niks.
[ Voor 26% gewijzigd door madmaxnl op 11-01-2011 20:57 ]
Omdat je een smilie plaatst, kan het als provocerend worden gezien hier in het nVidia topic.madmaxnl schreef op dinsdag 11 januari 2011 @ 20:38:
Ik snap het niet, hoezo een trol ?
Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Verder vind ik het persoonlijk net zo goed nVidia nieuws als AMD nieuws, zoals zo vaak is het met elkaar verbonden.
Denk eigenlijk dat het wel met Denver en de Intel settlement te maken heeft en wellicht met relatief positief nieuws over Tegra2.madmaxnl schreef op dinsdag 11 januari 2011 @ 20:55:
Goede CES voor nVidia idem voor AMD(ook qua aandeel) maar die verkloten het vervolgens weer met hun CEO akkefietje. Ook is het goede nieuws over de deal met Intel voor nVidia goed voor de aandelen. Denver is nog te weinig over bekend om de aandelen z'n stoot te geven.
In 6 dagen van ~16 dollar naar ~21 dollar per aandeel is niet niks.
Als je de big picture bekijkt zie je een wereld waarin handheld devices zoals smartphones, tablets etc in sneltreinvaart een enorme invloed krijgen waarbij de bekende desktops in belang afnemen. Helemaal als je kijkt op een termijn van 5 a 10 jaar. Wellicht is binnen die periode zo'n device sterk genoeg voor 80% vd consumenten om 100% van de dingen te doen die ze willen. Thuis prik je je handheld dan in een dockingstation die gekoppeld is aan een groter scherm met toetsenbord. Uhh dit gaat natuurlijk wireless...

Dit is een groeimarkt, een markt waar je in wilt zitten. Een markt waar nog veel mogelijk is en ARM based Socs erg succesvol zijn en waar Intel nog geen heer en meester is.
Een markt die potentieel zelfs een partij als intel heel veel pijn kan gaan doen of zelfs een kopje kleiner maken als ze niet opletten.
Dit terwijl nVidia haar traditionele inkomstbronnen aan het opdrogen zijn (geen chipset business meer, kunnen de CPU+GPU trend niet volgen ivm ontbreken x86 licentie, instapgpu's worden irrelevant agv de CPU+GPU).
Ik kan me voorstellen dat beleggers in 1 keer weer meer vertrouwen hebben op een succesvolle toekomst omdat nVidia heeft aangegeven te willen gaan strijden in een markt die wat kan opleveren.
Dit betekend uiteraard niet dat nvidia gaat slagen maar ze strijden ergens voor.
Daarnaast is er nu niet alleen duidelijkheid inzake de toekomstrichting maar zijn ook dure, (management) intensieve en een duidelijke strategie verhinderende lawsuits beeindigd. Deze helderheid wordt ook altijd gewaardeerd.
Verder is 1.5mld in de kassa een toename vd bezittingen. Geld kan evt. ook aan aandeelhouders uitgekeerd worden.Laatste zal niet gebeuren maar kan zeker ook tot hogere waardering leiden.
[ Voor 16% gewijzigd door Help!!!! op 11-01-2011 21:26 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
In dit geval is de troll die jij hanteert de volgende:madmaxnl schreef op dinsdag 11 januari 2011 @ 20:38:
Ik snap het niet, hoezo een trol ?
Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Het zal dan waar zijn dat CF op de 6800 en 6900 serie beter schaalt, maar als je dat post zonder dat je op iemand reageert, of dit telkens aangeeft terwijl dit niet eens terzake doet of onderdeel van een discussie is, is het gewoon onnodig, overbodig, en frustrerend voor mij, en volgens mij ook voor anderen. Als jij zelf vindt dat je niemand frustreert, denk ik dat je het mis hebt. Ik ga ook niet lukraak posten in topics dat nVidia beter is dan AMD, of Intel beter is dan AMD, of whatever beter is dan whatever. Dat is geoon onnodig. Mensen kunnen zelf ook lezen en hun conclusies trekken. Jij start geen discussie, maar eerder een flamewar.Ook is een gevolgde methode het uitlokken van reacties of discussies over niet ter zake doende onderwerpen of schijnargumenten te geven, met als enkel doel om gebruikers binnen de gemeenschap opzettelijk en bewust te frustreren.
Ik zou het iig waarderen als je het achterwege laat, en ontopic post. En niet lukraak van zulke opmerkingen en/of posts plaatst die onnodig zijn.
Just my 2 cents, en verder vind ik je een beste kerel.
[ Voor 15% gewijzigd door Format-C op 11-01-2011 22:29 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Kthxbye!
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711
Anoniem: 245699
Daar staat in de conclusie het volgende tabelletje;

Hier valt duidelijk uit op te maken dat tot 1920 de GTX570 het prima bij kan benen en zelfs (zeer) lichtjes aan de leiding gaat. Bij 2560 neemt de HD6970 het stokje over en profiteert duidelijk van z'n grotere geheugen.
Anders gesteld; hier komt de GTX570 wat tekort...
Dat zie je zelfs bij 2560(8x) i.v.t. de GTX580 waar de voorsprong is geslonken tot 6%, terwijl het bij 1920 nog 16% was.
Dit is natuurlijk maar één review, maar bij Computerbase zie je onder deze pagina een beetje hetzelfde.
Maar dit is eigenlijk geen nieuws...
Sorry maar ik zie toch echt wat anders. Ik zie twee totaal verschillende kaarten welke toevallig ook niet evenveel videogeheugen hebben. Dan kun je er natuurlijk van maken dat het alleen aan het geheugen ligt (tuurlijk het is logisch) maar waarom kan het niet gewoon aan de architectuur liggen kaarten zijn immers totaal verschillend. Je kunt hier echt pas een uitspraak overdoen als je een één neemt met dubbel zoveel geheugen en een normale.Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 01:22:
Bij 2560 neemt de HD6970 het stokje over en profiteert duidelijk van z'n grotere geheugen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 321370
KitGuru heeft de adviesprijs van NVIDIA's GeForce GTX 560 bekendgemaakt. Die bedraagt 279 dollar. Ook blijkt de launch van de GTX 560 te zijn uitgesteld, een nieuwe verwachting is midden februari.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait. Het TDP is 180 watt, twintig watt meer dan dat van de GeForce GTX 460.
[ Voor 11% gewijzigd door Anoniem: 321370 op 12-01-2011 07:22 ]
Damn, dat is duurder dan ik verwacht had..:(Anoniem: 321370 schreef op woensdag 12 januari 2011 @ 07:17:
Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.
KitGuru heeft de adviesprijs van NVIDIA's GeForce GTX 560 bekendgemaakt. Die bedraagt 279 dollar. Ook blijkt de launch van de GTX 560 te zijn uitgesteld, een nieuwe verwachting is midden februari.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait. Het TDP is 180 watt, twintig watt meer dan dat van de GeForce GTX 460.
[ Voor 91% gewijzigd door vinom op 12-01-2011 08:00 ]
Anoniem: 308117
[ Voor 95% gewijzigd door Anoniem: 308117 op 12-01-2011 10:10 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 390961
Het leuke is dat het ook nog niet eens klopt wat die fanboy zegt.Format-C schreef op dinsdag 11 januari 2011 @ 20:18:
WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...
Op wie, en waarop is dat een reaktie?
Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff...![]()
1, 2, 3, 4, 5, 6, 7, 8, 9, 10...
Het werkt namelijk even goed op beide. Dit is indd wel trollen en fanboy gedrag erg jammer na het zien van wat posts.
Momenteel is er nog niet veel. Misschien de Palit met 2 fans, maar volgens mij hebben POV en eVGA nu de lead in hogere corespeeds op non-reference kaarten. Ik zou nog even wachten tot de fabrikanten met hun eigen designs uitkomen. Over het algemeen heb je dan wel wat robuustere kaarten.
EDIT: de post van silverwolf III is al weg
[ Voor 40% gewijzigd door Deathchant op 12-01-2011 10:19 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 245699
Dat mag, ik niet.-The_Mask- schreef op woensdag 12 januari 2011 @ 01:29:
[...]
Sorry maar ik zie toch echt wat anders.
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit. Van 1680 naar 1920 met of zonder AA zit er niet al te veel verschil in. Vanaf 2560 (ongeveer twee keer zoveel pixels) begint er opeens een groter verschil te onstaan, ik zie het verschil in geheugen grote daar als grootste reden van.Ik zie twee totaal verschillende kaarten welke toevallig ook niet evenveel videogeheugen hebben.
Maargoed, dit hoort eigenlijk ook in BGG Aanschaf videokaarten thuis...
[ Voor 5% gewijzigd door Anoniem: 245699 op 12-01-2011 10:41 ]
TDP klopt, maar die was ook al een tijd bekend. De prijs klopt ook, aangezien 279 dollar ook de prijs van de GTX470 is. De GTX560 krijgt dus ook ongeveer dezelfde prijs als de GTX470 nu.Anoniem: 321370 schreef op woensdag 12 januari 2011 @ 07:17:
Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.
Dat was al heeeel lang bekend.De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait.
Enige is dus dat die is uitgesteld, van 20 januari naar dus februari nu.
Dat zei ik, logisch is het wel maar dat zegt nog steeds niet veel.Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 10:40:
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik denk dat jullie beiden wel gelijk hebben. Natuurlijk profiteert de 6970 van zijn 2GB geheugen op hogere resoluties met AA, maar om te kunnen zeggen hoeveel deze winst nu precies (in %) is, zal het toch even wachten zijn op de 1GB versies van de 6970/6950. Dan is er pas echt een goede vergelijking mogelijk.Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 10:40:
[...]
Dat mag, ik niet.
[...]
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit. Van 1680 naar 1920 met of zonder AA zit er niet al te veel verschil in. Vanaf 2560 (ongeveer twee keer zoveel pixels) begint er opeens een groter verschil te onstaan, ik zie het verschil in geheugen grote daar als grootste reden van.
Maargoed, dit hoort eigenlijk ook in BGG Aanschaf videokaarten thuis...
Anoniem: 390961
[ Voor 7% gewijzigd door Anoniem: 390961 op 12-01-2011 11:54 ]
Hoog onzingehalte in je post...
[ Voor 99% gewijzigd door Noel op 12-01-2011 12:33 ]
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Anoniem: 308117
ja helaas kan ik niet echt lang wachten want ik heb nu een pc zonder graka aangezien mijn 5850 RMA is en het geld van de kaart binnen kort terug gestort word.Deathchant schreef op woensdag 12 januari 2011 @ 10:18:
@Zilvere wolf nummer3: Klopt. Ik weet niet hoeveel non-reference GTX580 kaarten er al zijn, maar deze worden meestal in een 2e launch geintroduceerd: andere koelers, clockspeeds e.d.
Momenteel is er nog niet veel. Misschien de Palit met 2 fans, maar volgens mij hebben POV en eVGA nu de lead in hogere corespeeds op non-reference kaarten. Ik zou nog even wachten tot de fabrikanten met hun eigen designs uitkomen. Over het algemeen heb je dan wel wat robuustere kaarten.
EDIT: de post van silverwolf III is al weg == heb hem naar BBG video kaarten geplaats))
Maar ik heb van diverse fora gelezen dat de kaart uitstekend presteert zonder dat er veel warmte word gecreëerd.
Anoniem: 245699
Omdat ik nieuwschierig was heb ik je posts maar eens doorgenomen (en dat waren er gelukkig niet zoveel) en dan kom ik op deze post van je uit;Anoniem: 390961 schreef op woensdag 12 januari 2011 @ 11:53:
Ik heb wel tests gezien. En ook een deze dagen wel gepost ergens. Het grote verschil is zo'n 5 fps gemiddeld genomen en vind daar voor die 1gb extra echt niet nodig.
- Anoniem: 390961 in 'nieuws: 'Goedkopere HD 6950 en 6970 met 1GB geheugen op komst''
Waar je refereert naar een artikel waar de HD5870 1gb wordt vergeleken met de 2gb... Denk niet dat je de conclusies hiervan rechtstreeks kan copy/pasten naar die van de HD6950/6970!
Enfin, volgens mij hoort dit ook niet thuis in dit Nvidia topic!
Deze GTX580 wel;

http://www.nordichardware...er-and-bigger-cooler.html
[ Voor 12% gewijzigd door Anoniem: 245699 op 12-01-2011 13:14 ]
Anoniem: 308117
OMG OMG OMGAnoniem: 245699 schreef op woensdag 12 januari 2011 @ 13:12:
[...]
Omdat ik nieuwschierig was heb ik je posts maar eens doorgenomen (en dat waren er gelukkig niet zoveel) en dan kom ik op deze post van je uit;
- Anoniem: 390961 in 'nieuws: 'Goedkopere HD 6950 en 6970 met 1GB geheugen op komst''
Waar je refereert naar een artikel waar de HD5870 1gb wordt vergeleken met de 2gb... Denk niet dat je de conclusies hiervan rechtstreeks kan copy/pasten naar die van de HD6950/6970!
Enfin, volgens mij hoort dit ook niet thuis in dit Nvidia topic!
Deze GTX580 wel;
[afbeelding]
http://www.nordichardware...er-and-bigger-cooler.html
Ok ik wacht wel dat ding ziet er egt super Geil uit en de specs Zijn ook nog eens stukken beter dan de standaard versie (enig idee wanneer de release is van dit monster)
Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangenAnoniem: 308117 schreef op woensdag 12 januari 2011 @ 13:28:
[...]
OMG OMG OMG
Ok ik wacht wel dat ding ziet er egt super Geil uit en de specs Zijn ook nog eens stukken beter dan de standaard versie (enig idee wanneer de release is van dit monster)
mhuu ha ha kan de 6970 niet tegen op tri slot koeler met twee maal DVI en een display poort en een HDMI OMG
Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop
Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen. Dan blijft er zelfs op high-end moederborden weinig plek over voor een tweede kaart, laat staan een geluids- of raid-kaart...
Anoniem: 390961
Zal ik die post voorjou nog maar WEER eens posten dan. Zie de Edit staks maar ff.Noel schreef op woensdag 12 januari 2011 @ 12:32:
Welke test? Waar gepost? Welke kaart? Een gemiddelde van fps waarden?
Hoog onzingehalte in je post...
http://www.tomshardware.c...5870-eyefinity6,2595.html
Als je een beetje door bladerd zie je het verschil tussen 1gb en 2 gb tests in games.
Onzinnig mischien want had het al vaker gepost, blijf namelijk niet aan de gang.
[ Voor 29% gewijzigd door Anoniem: 390961 op 12-01-2011 14:08 ]
Anoniem: 308117
Ha jij verpest mijn Glorie momentje weer hoor ha ha lolsMarc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:
[...]
Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangen
Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop
Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen. Dan blijft er zelfs op high-end moederborden weinig plek over voor een tweede kaart, laat staan een geluids- of raid-kaart...
en ja ik heb wat zitten puzzelen op mijn mobo(P6T6 Revolution) en het past (duhu) maar ik kan dan mijn raid kaart voor mijn hdds niet meer kwijt en mijn WIFI kaart dus het word toch maar de standaard versie zet die wel in SLI mhuhahah
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)
Ja, want NVIDIA heeft nooit problemen, en die problemen die jij noemt komen ook voor bij iedereen met welke chip van ATI dan ookAnoniem: 308117 schreef op woensdag 12 januari 2011 @ 14:08:
[...]
Ha jij verpest mijn Glorie momentje weer hoor ha ha lols
en ja ik heb wat zitten puzzelen op mijn mobo(P6T6 Revolution) en het past (duhu) maar ik kan dan mijn raid kaart voor mijn hdds niet meer kwijt en mijn WIFI kaart dus het word toch maar de standaard versie zet die wel in SLI mhuhahah(nieuw glorie moment)
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)

Gelukkig werp je even een objectieve blik op de zaken.
Een drie-slots koeler vind ik ook een beetje veel van het goede. Zulke high-end (en meestal overdreven dure) kaarten worden alleen door serieuze tweakers gekocht die er ook een beetje verstand van hebben. Laat het nu juist die mensen zijn die ook graag wel eens SLI of CFX draaien, met een bergje harde schijven en fatsoenlijke geluidskaart. Blijft knap weinig ruimte over op die manier, en is gewoon niet bepaald interessant behalve voor de pats factor
Ik ben veel nieuwsgieriger naar de GTX 560, en dan met name naar wat ze nog uit die verrassend goede chip kunnen persen met wat extra tweaks. Hij klokte in ieder geval al vrij aardig, deze zou het alleen maar beter moeten doen.
@ vPro: wel een compleet andere kaart en drivers, niet echt representatief of wel?
Kunnen we niet beter kijken naar het "doodgaan van 8800 kaarten" topic?Anoniem: 308117 schreef op woensdag 12 januari 2011 @ 14:08:
[...]
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)
Anoniem: 390961
Ik denk dat het verschil met enkele kaarten wel groter zal zijn dan het was bij de 460 - maar zelfs bij die kaart zie je al jouw 5 FPS verschil in sommige games, en dan gaat het om een veel langzamere kaart met 256 MB verschil, waarvan de 768 MB variant vaak niet eens op 2560x1600 wordt getest (dus zelfs bij 1080p is het al goed zichtbaar). Ik vind het dan ook jammer dat er nog geen aanwijzingen zijn dat er een 560 met 1.25 of zelfs 1.5 GB komt; het is de soort kaart die leuk is om in een SLI opstelling te zetten, en ik denk dat een grotere buffer dan echt wel tot z'n recht kan komen.
Anoniem: 263922
Inderdaad...en dan nog steeds 82 graden worden.....Marc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:
Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Want ik ben nu aan het regelen voor een GTX460, maar als de GTX560 de zelfde prijs krijgt en sneller.
dan ben ik gek om nu een gtx460 te kopen.
Angelo NL / Global Cargo VTC
Dit topic is gesloten.