[Algemeen] nVidia Nieuwdiscussie Topic - Deel 50 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 32.247 views

Acties:
  • 0 Henk 'm!

  • Coolrob
  • Registratie: December 2007
  • Laatst online: 15-02 10:10

Coolrob

Lekker hoor...

De nieuwe driver is uit 266.35

Samsung Galaxy S4,Samsung Galaxy Tab2 10.1 / Intel Core i7-3770 @4.2GHz / MSI Z77A-GD55 / MSI GeForce GTX 970 Gaming / 4x2GB DDR3 Kingston HyperX / Samsung SSD 830 128GB / Seagate HDD 1x500GB


Acties:
  • 0 Henk 'm!

  • Humma Kavula
  • Registratie: Juni 2008
  • Niet online

Humma Kavula

Don't vote for stupid

-Offtopic- Hulde! Eindelijk iets nieuwswaardig... ;)

Wear Sunscreen!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Humma Kavula schreef op dinsdag 04 januari 2011 @ 21:52:
[...]


-Offtopic- Hulde! Eindelijk iets nieuwswaardig... ;)
Er is inmiddels wel weer genoeg nVidia nieuws te posten, maar niemand heeft er blijkbaar trek in (jij incluis).

Van de frontpage zelf:

twee Tegra2 tablets van Asus

Lenovo komt met nieuwe laptops met oa een GT555m GPU van nVidia

BMW en Tesla gaan Tegra2 gebruiken voor het aansturen van de displays voor navigatie

Even een snelle greep...

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is interessant en positief om te zien dat Tegra2 enigzins opgepikt wordt.
Ik denk dat dit behoorlijk essentieel is voor de toekomst van nVidia gezien de CPU+GPU integratie door AMD en Intel.

Ondanks dat ik het qua manieren een absoluut klotebedrijf vind, kunnen we vooralsnog niet zonder een sterk nVidia dus is dit een goede ontwikkeling.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • tweeny
  • Registratie: Augustus 2008
  • Laatst online: 10-05-2024
nVidia heeft op de CES "Project Denver" aangekondigt, dat moeten ARM-based desktop processoren worden.

Volgens Jen-Hsun Huang zijn er binnen 4 jaar meer ARM processoren in omloop dan X86, Hij zei ook dat alleen Microsoft zijn Windows nog geschikt moet maken voor ARM, Apple (iOS???) en Google (Android) zijn Microsoft al voor gegaan, maar het gerucht gaat dat Microsoft het deze CES gaat aankondigen

Verder heeft hij een aantal mogelijkheden van Tegra2 laten zien (hoe goed het opkan tegen console en PC games)

EDIT: nieuwsbericht op Engadget:<KLIK>

[ Voor 78% gewijzigd door tweeny op 05-01-2011 22:12 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik had volgens mij al gelezen dat Windows7 ARM geschikt gaat worden.

Maar binnen 4 jaar? Vind ik wel snel al zou het natuurlijk moeten kunnen als het in al onze apparatuur (TV, telefoon, kleine/lichte PC's, auto's, enz) komt.

[ Voor 5% gewijzigd door -The_Mask- op 05-01-2011 22:27 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Als je alleen al kijkt naar de hoeveelheid mobieltjes, dan is het niet gek als ARM nu al evenredig is vertegenwoordigd. Maar ik denk dat er meer gericht werd op de producten die nu nog gedomineerd worden door X86.

Het lijkt me allemaal alleen wel een beetje erg positief. Intel en AMD zitten ook niet stil en met de launch van Brazos zal ook Intel waarschijnlijk wel wat meer moeite in het Atom platform gaan steken. Als je dan ook nog eens bedenkt dat binnen een jaar de 28nm opvolgers van Ontario moeten komen, dan zal het voor alles behalve het erg mobiele platform de competitie wel heel groot zijn.

Acties:
  • 0 Henk 'm!

  • tweeny
  • Registratie: Augustus 2008
  • Laatst online: 10-05-2024
Het is idd snel, maar als je de tabel van nVidia ziet die ze ook tijdens de presentatie lieten zien (kan hem nu niet vinden) zie je dat er op dit moment al zo'n 5 keer meer ARM processoren worden verkocht dan x86

Wat ook leuk is om te vermelden is, is dat Jen-Hsun Huang het had over mogelijk de grootste aankondiging in de geschiedenis van nVidia

Hier trouwens het officiele persbericht:
NVIDIA Announces "Project Denver" to Build Custom CPU Cores Based on ARM Architecture, Targeting Personal Computers to Supercomputers

NVIDIA Licenses ARM Architecture to Build Next-Generation Processors That Add a CPU to the GPU

LAS VEGAS, NV -- (Marketwire) -- 01/05/2011 -- CES 2011 -- NVIDIA announced today that it plans to build high-performance ARM® based CPU cores, designed to support future products ranging from personal computers and servers to workstations and supercomputers.

Known under the internal codename "Project Denver," this initiative features an NVIDIA® CPU running the ARM instruction set, which will be fully integrated on the same chip as the NVIDIA GPU.

This new processor stems from a strategic partnership, also announced today, in which NVIDIA has obtained rights to develop its own high performance CPU cores based on ARM's future processor architecture. In addition, NVIDIA licensed ARM's current Cortex™-A15 processor for its future-generation Tegra® mobile processors.

"ARM is the fastest-growing CPU architecture in history," said Jen-Hsun Huang, president and chief executive officer of NVIDIA. "This marks the beginning of the Internet Everywhere era, where every device provides instant access to the Internet, using advanced CPU cores and rich operating systems.

"ARM's pervasiveness and open business model make it the perfect architecture for this new era. With Project Denver, we are designing a high-performing ARM CPU core in combination with our massively parallel GPU cores to create a new class of processor," he said.

Warren East, ARM chief executive officer said, "NVIDIA is a key partner for ARM and this announcement shows the potential that partnership enables. With this architecture license, NVIDIA will be at the forefront of next generation SoC design, enabling the Internet Everywhere era to become a reality."

About NVIDIA
NVIDIA (NASDAQ: NVDA) awakened the world to the power of computer graphics when it invented the GPU in 1999. Since then, it has consistently set new standards in visual computing with breathtaking, interactive graphics available on devices ranging from tablets and portable media players to notebooks and workstations. NVIDIA's expertise in programmable GPUs has led to breakthroughs in parallel processing which make supercomputing inexpensive and widely accessible. The Company holds more than 1,600 patents worldwide, including ones covering designs and insights that are essential to modern computing. For more information, see www.nvidia.com.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
tweeny schreef op woensdag 05 januari 2011 @ 22:32:
Het is idd snel, maar als je de tabel van nVidia ziet die ze ook tijdens de presentatie lieten zien (kan hem nu niet vinden) zie je dat er op dit moment al zo'n 5 keer meer ARM processoren worden verkocht dan x86
Dat is toch niet zo vreemd? Er worden vast ook meer hamburgers verkocht... Beetje vreemde vergelijking.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

de nieuwste mobiele rebrands zijn weer aangekondigd:
http://www.anandtech.com/...-500m-refreshing-the-400m

opmerkelijk: de nieuwe gpu, de 315m, is trager dan de voorganger 310m

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Help!!!! schreef op woensdag 05 januari 2011 @ 18:55:
Het is interessant en positief om te zien dat Tegra2 enigzins opgepikt wordt.
Het is inderdaad possitief dat ze nu toch ergens in gebruikt gaan worden wat daadwerkelijk straks te koop gaat zijn. Maar ook is het weer een beetje negatief. Ht gaat hier om luxe auto's waar er maar een paar van verkopen. Daarbij komt ook nog eens dat e prijs van een dergelijk Tegra systeempje niet erg veel is. Deze factoren maken het moeilijk om een aanzienlijke omzet te kunnen generen. Over marge die er op gemaakt wordt kan minder snel iets gezegt worden maar aangezien er veel concurentie is kunnen we wel zeggen dat de marges niet al te hoog zullen zijn. M.a.w. als het hier voor Tegra 2 bij blijft krijgen ze de R&D kosten voor Tegra 1(heeft de markt namelijk nooit gehaald) laat staan de R&D kosten voor Tegra 2 niet terug verdiend.
tweeny schreef op woensdag 05 januari 2011 @ 22:32:
Het is idd snel, maar als je de tabel van nVidia ziet die ze ook tijdens de presentatie lieten zien (kan hem nu niet vinden) zie je dat er op dit moment al zo'n 5 keer meer ARM processoren worden verkocht dan x86
Dat kan wel kloppen maar x86 is momenteel wel veel breder inzetbaar en belangrijker. ARM apparaten moeten het namelijk vaak hebben van internet content(cloud) en die loopt mooi op x86 servers.
Daarbij komt ook nog eens dat de ARM markt veel meer concurentie kent dus die 5x meer t.o.v. x86 is leuk maar over ~10 fabrikanten is zuur. Ook is de omzet die gemaakt wordt met ARM lager omdat dat ASP veel lager ligt dan bij x86 producten. Lagere ASP betekend meestal ook lagere marges zowel in verhouding als in totaal.

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

madmaxnl schreef op donderdag 06 januari 2011 @ 11:54:
[...]

Het is inderdaad possitief dat ze nu toch ergens in gebruikt gaan worden wat daadwerkelijk straks te koop gaat zijn. Maar ook is het weer een beetje negatief. Ht gaat hier om luxe auto's waar er maar een paar van verkopen.
Nou de één en drie serie van BMW gaan nogal als warme broodjes (+- 300K per jaar voor alleen al de 3 serie)
Grafische schoonheid in auto's gaat wel een vlucht nemen de komende tijd denk ik, op zich een interessante markt voor Nvidia

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het belangrijkste is eerder dat de Tegra 2 in de nieuwe High End LG smartphone zit.
Een telefoon die best veel mensen zou kunnen aanspreken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Tja, qua performance zit het wel goed met de GTX485M, daar hebben ze flinke stappen gezet! Slim om over te stappen naar de GF104 chip... Jammer dat er in die review niks over stroomverbruik te vinden is (of heb ik daar zo snel overheen gekeken?) Want dat was bij de GTX480M natuurlijk niet best.
Korte vergelijking met de HD6970(M) is interessant al zal die laatste wel wat zuiniger zijn denk ik.

Wat wel weer typisch Nvidia is, is dat ze hun topmodel nu nog wel onder de 4xx serie voegen en de low/mid chips al wel onder de 5xx serie schuiven, daar wordt je toch moe van!

Acties:
  • 0 Henk 'm!

Anoniem: 390608

Ben idd ook erg benieuwd naar prestatie/TDP verhouding van 485M vs 6970M, zou erg onverwacht zijn als Nvidia's achterstand ineens is ingehaald met de 485M.

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Zoooo, als ik op zoek zou zijn naar een gamelaptop zou ik voor een laptop met de 485M gaan.
Wat een geweldige prestaties. :)

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Wat een kut vergelijkingen zeg, elke benchmark bevat weer andere systemen.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

spNk schreef op donderdag 06 januari 2011 @ 18:45:
Wat een kut vergelijkingen zeg, elke benchmark bevat weer andere systemen.
Het gaat toch om de GPU score? Dan lijkt het me vrij eerlijk?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • tjverhagen
  • Registratie: Januari 2009
  • Niet online
Waarom vergelijken ze bij 3DMark06 dan de score terwijl Nvidia een QX heeft en de AMD 6970M een mindere processor terwijl dat ook verschil maakt? Bij de GPU score laten ze de 6970 zelfs weg...

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Springstof schreef op donderdag 06 januari 2011 @ 18:38:
Zoooo, als ik op zoek zou zijn naar een gamelaptop zou ik voor een laptop met de 485M gaan.
Wat een geweldige prestaties. :)
Zonder dat er een goed vergelijk met de HD6970M is lijkt me dat wat te voorbarig. Tevens moet je niet vergeten dat er ook nog zoiets is als SLI en CFX bestaat. Of twee GTX485M in SLI mogelijk zijn lijkt me namelijk niet, iets te veel warmte en stroomverbruik voor een laptop. Terwijl twee HD6970M in CFX wellicht wel kunnen(HD6990M?). Daarnaast weten we niet precies hoeveel beiden verbruiken dus het is nog even wachten op fatsoenlijke tests.

Ik betwijfel of nVidia de snelste singel GPU gaat hebben in notebooks alhoewel het wel in de lijn der verwachting ligt. Maar de Barts chip heeft wel de beste performance/watt, prijs/prestatie en performance/die size.

Trouwens die Load temperatuur test met Furmark is niet goed. De temperatuur stijgt immers nog steeds en is nog niet afgevlakt dus over de temperatuur kunnen we niks zeggen behalve dat deze hoger ligt dan 72 graden Celsius en aan de groeifactor te zien veel hoger dan 72 graden Celsius.

[ Voor 83% gewijzigd door madmaxnl op 06-01-2011 22:04 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Xenomorphh schreef op donderdag 06 januari 2011 @ 19:22:
[...]

Het gaat toch om de GPU score? Dan lijkt het me vrij eerlijk?
Ik had het over de rest van de benchmarks, niet over de 3d mark score.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

madmaxnl schreef op donderdag 06 januari 2011 @ 21:11:
[...]


Zonder dat er een goed vergelijk met de HD6970M is lijkt me dat wat te voorbarig. Tevens moet je niet vergeten dat er ook nog zoiets is als SLI en CFX bestaat. Of twee GTX485M in SLI mogelijk zijn lijkt me namelijk niet, iets te veel warmte en stroomverbruik voor een laptop. Terwijl twee HD6970M in CFX wellicht wel kunnen(HD6990M?). Daarnaast weten we niet precies hoeveel beiden verbruiken dus het is nog even wachten op fatsoenlijke tests.

Ik betwijfel of nVidia de snelste singel GPU gaat hebben in notebooks alhoewel het wel in de lijn der verwachting ligt. Maar de Barts chip heeft wel de beste performance/watt, prijs/prestatie en performance/die size.

Trouwens die Load temperatuur test met Furmark is niet goed. De temperatuur stijgt immers nog steeds en is nog niet afgevlakt dus over de temperatuur kunnen we niks zeggen behalve dat deze hoger ligt dan 72 graden Celsius en aan de groeifactor te zien veel hoger dan 72 graden Celsius.
Dude, hij zegt dat hij vindt dat die laptop GPU geweldige prestaties biedt, en jij begint direkt over wie de snelste GPU heeft, of ze in SLi kunnen, over verbruik, en over temperaturen... En over het wachten op andere tests... Merkwaardig. 8)7 Vreemde reaktie op die post van Springstof. LOL. :+


Nofi btw.

[ Voor 3% gewijzigd door Format-C op 06-01-2011 23:06 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 245699

@Madmaxnl; Is het misschien mogelijk om iemand gewoon een keer niet te bekritiseren? Zoals Format-C zegt worden er weer gelijk tal van andere zaken bijgehaald wat hier echt totaal niet nodig is. Je hoeft echt niet bij elke positieve opmerking rond Nvidia gelijk voor AMD in de bres te springen, want dat wordt een beetje vermoeiend zo... En over vermoeiend gesproken, ik ga naar bed!

Acties:
  • 0 Henk 'm!

  • Dura Ace
  • Registratie: Februari 2010
  • Laatst online: 20-10-2020
GTX 595?

Afbeeldingslocatie: http://techreport.com/r.x/2011_1_6_EVGA_offers_a_sneak_peek_at_Nvidias_next_dualGPU_monster/front.jpg

http://techreport.com/discussions.x/20206

Hoewel in het artikel van TR de naam GTX 595 niet wordt vermeld weet FUD dat wel voor mekaar te krijgen... 8)7

[ Voor 34% gewijzigd door Dura Ace op 07-01-2011 12:43 ]

Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan :o ,vraag me trouwens af of dit de stock koeler wordt.

Ik gok ook op de gtx595 btw, er zit maar een enkele sli-stekker op, een gtx560 lijkt me aardig onmogelijk, zou wel wat zijn, new gpu-clockspeed record: gtx560 SR-classified oc'ed to 2133mhz core, 7ghz gddr5 qdr and 4266mhz on the shader units :+ O-)

Well, let's see what the future brings us :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 263922 schreef op vrijdag 07 januari 2011 @ 20:58:
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan :o ,vraag me trouwens af of dit de stock koeler wordt.
Stockkoeler? Je denkt dus dat nVidia hem uit gaat brengen? :?
er zit maar een enkele sli-stekker op,
Tja octa-sli is er nog niet hè. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Anoniem: 263922 schreef op vrijdag 07 januari 2011 @ 20:58:
Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan :o ,vraag me trouwens af of dit de stock koeler wordt.
Soldeerpunten op de achterkant van de kaart bij de gpu's hebben een rechthoekige vorm, dus dit wijst idd op gebruik van de GF114 chip (GF104 lijkt nu nog wat onwaarschijnlijk).

Afbeeldingslocatie: http://content.hwigroup.net/images/news/evgadual-gpugeforceces201102-575x237.jpg

Andere toekomstige kaart van EVGA;

Afbeeldingslocatie: http://img.hexus.net/v2/pmason/evga/ces2011/570-2.jpg
Afbeeldingslocatie: http://img.hexus.net/v2/pmason/evga/ces2011/570.jpg

Een custom GTX570 met verkorte pcb. Onderste plaatje laat zien hoeveel korter dan reference design.

[ Voor 5% gewijzigd door Anoniem: 245699 op 07-01-2011 21:14 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Twee volledig gebruikte GF104 chips (ofwel GF114 als de geruchten kloppen) gaan ook ver over de 300Watt als ze niet terug geclocked worden. Een GTX460 met 1 cluster uitgeschakeld zit al op 150 Watt. Het enige waarmee ze een Dual GTX560 onder de 300 Watt zouden kunnen houden, is door hetzelfde truckje uit te halen als bij de GTX580. Een softwarematige begrenzer aanbrengen dus. Of ze kunnen kiezen om wat extra hardware op het PCB te plaatsen die hardwarematig het stroomverbruik knijpt. Maar in dat geval kunnen ze de chip net zo goed lager clocken, waarmee de kans dat ze de HD5970 verslaan al behoorlijk kleiner wordt.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

-The_Mask- schreef op vrijdag 07 januari 2011 @ 21:07:
[...]
Stockkoeler? Je denkt dus dat nVidia hem uit gaat brengen? :?

[...]

Tja octa-sli is er nog niet hè. ;)
Ehh, op dat moment wel ja, maar heb op de frontpage gelezen dat het vrijwel zeker om een evga-only kaart gaat.

En ik weet best dat er nog geen octa sli is, was meer omdat de 7900gx2, 7950gx2, 9800gx2 en gtx295 ook maar een enkele sli connector hebben, en met de dubbele pci-e 8pins stekkers gokte ik dan ook dat het om een dual-gpu kaart gaat, zonder eigenlijk nog maar de achterkant van het pcb gezien te hebben, al lag het wel voor de hand. Misschien dat ik een beetje te enthiousiast was maar het was toch leuk om een nieuwe dual-gpu nvidia kaart te zien, een echte gtx595 van nvidia zich er waarschijnlijk nog niet in atm :'(

Weet trouwens niet waarom je me quote, je bevestigt eigenlijk enkel mijn reactie, of begreep je me niet?
Zoja, ben ik nu hopelijk wat duidelijker geweest :) .

@MW1F
Die ingekorte gtx570 is een mooie ontwikkeling, zit leuk spul aan te komen van evga 8)

@dahakon
Bij dual-gpu kaarten is het verbruik per videokaart netto een stuk lager, zo heeft de gtx260 55nm bijvoorbeeld een TDP van 171watt, waar de gtx295 een TDP van 289watt heeft. Dat is toch 342watt vs 289watt, waar de gtx295 ook nog eens meer shader cores heeft, het verschil met een gelijkwaardige teruggeclockte gtx275 sli opstelling zal dan iets rond de 65-70 watt zijn.
Er is dus nog aardig wat speling om de dual gf114 (als het al zo is) zo te tweaken dat ze weerstand kunnen bieden tegen de hd6990, al wordt dat ook aardig gelijkspel denk ik zo.
Het is maar de vraag hoe snel de hd6990 gaat worden, de hd6970 verbruikt meer dan een hd5870, het zal allemaal wat lastiger worden dan bij de hd5970.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tsja, de HD5970 blijft ook onder de 300 Watt, terwijl deze kaart meer shaders heeft dan de HD5850 (TDP 151) en op dezelfde snelheid loopt. Met binning kun je best wel wat bereiken. Wat dat aangaat is het interessant om te zien hoe de HD6990 zal uitvallen, aangezien de gemiddelde load van de HD6970 in games met 190 Watt amper hoger zit dan de HD5870, maar dat is meer voor het andere draadje.

Punt is echter dat een volle GF104 (ofwel GF114) meer stroom zal verbruiken dan de huidige top GF104 kaart, de GTX460 1GB, daar namelijk nog een cluster wordt ingeschakeld. TDP zal dus al gauw nog een zetje van zo'n 10Watt kunnen krijgen, over de 160Watt die het nu heeft. Ze zullen dus behoorlijk strak moeten gaan binnen, wat de hoeveelheden beschikbare kaarten ook niet ten goede zal komen. Onmogelijk zal het allemaal niet zijn misschien, maar het zou wel direct kunnen verklaren waarom het EVGA-only zou kunnen zijn. Bovendien blijft de vraag hangen of het werkelijke TDP niet, zoals bij HD4870X2 en GTX295 overschreden zal worden bij bepaalde belasting.

Acties:
  • 0 Henk 'm!

Anoniem: 390961

Anoniem: 263922 schreef op vrijdag 07 januari 2011 @ 20:58:
Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan :o ,vraag me trouwens af of dit de stock koeler wordt.

Ik gok ook op de gtx595 btw, er zit maar een enkele sli-stekker op, een gtx560 lijkt me aardig onmogelijk, zou wel wat zijn, new gpu-clockspeed record: gtx560 SR-classified oc'ed to 2133mhz core, 7ghz gddr5 qdr and 4266mhz on the shader units :+ O-)

Well, let's see what the future brings us :)
De gemiddelde consument die dit soort kaaten kopen kijken niet naar het TDP gebruik.
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.

Ik hoop op 2 gf110 chips.

Ojah een nieuwtje nvidia heeft performance drivers uitgegeven voor de 500 series.
Er valt dus zeker ng wat extra uit de gf110 chip te halen. Maar daar ging ik ook al wel van uit gezien
het gpu gebruik in heel veel games.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

@Dahakon
In deze review is te zien dat een dual-gpu kaart op basis van de gtx460 heel goed te doen is: http://www.techpowerup.co...IS/Radeon_HD_6970/27.html
Je ziet bij de card power consumption-max tabel dat de hd5970 op 304 watt zit, een hd5870 doet 212 watt.
De hd6970 verbruikt 287watt, een gtx570 298.
Als amd op basis van de hd6970 een hd6990 maakt, zou die kaart flink over de 300 watt gaan, ik denk dan ook dat ze wat aan de kloksnelheden en shader count gaan doen, maar hij zal, zoals ik het me nu voorstel, niet zo snel zijn als een hd6950 in cfx.
Nvidia zelf zal vast (denk ik) proberen 2 gtx570 gpu's op een kaart te solderen, wat ook weer de nodige uitdagingen met zich meebrengt, ik denk dat zowel ati als nvidia gpu's binnen zodat de snelheidswinst tov een single kaart nog wel te verantwoorden is, binnen de 300watt TDP grens.
Als het maar iets van, zeg eens, 25% scheelt met de single-gpu high-end parts gaan ze natuurlijk niet veel dual-gpu kaarten verkopen.

Als je naar de gtx460 kijkt met zijn 155watt is een dual-gpu gtx560 kaart in zijn geheel geen onmogelijke opgave, zeker als je het verbruik van andere dual-gpu kaarten tegenover hun gelijkwaardige dual single-gpu kaarten opstellingen vergelijkt.
Zelfs als een enkele gtx560 een 175watt TDP zou krijgen valt die dual-gf114 evga kaart mooi binnen de 300watt gestelde norm.

Een dual gpu op basis van gf114 chips zou zelfs nog wat hogere clocks mee kunnen krijgen, de gtx460 blijft netjes binnen zijn TDP, situaties zoals bij de gtx480 zijn dan ook uit te sluiten.
Die evga kaart komt er wel, en hij voldoet aan het 300watt TDP, die dubbele 8pins pci-e stekkers zullen vast de nodige overclock headroom geven, er zal vast en zeker ook een nette vermogensverziening opzitten.

Het is wachten wanneer de hd6990 komt, het is niet uitgesloten dat amd de nodige gebinde stock op zit te bouwen voor die kaarten zodat bij de lancering genoeg kaarten beschikbaar zijn, van de gtx595 zijn al behoorlijk lang speculaties, maar of die kaart nog gaat verschijnen is maar de vraag.

Die evga kaart is een goede kandidaat voor de performance-crown over te nemen van de hd5970, al betekent dat niet zo veel voor nvidia daar het een non-reference kaart is, ook al is evga erg dik met nvidia :P
Anoniem: 390961 schreef op zaterdag 08 januari 2011 @ 20:10:
[...]
De gemiddelde consument die dit soort kaaten kopen kijken niet naar het TDP gebruik.
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
TDP is het maximale vermogen wat, in dit geval, een videokaart trekt, er wordt geen TDP verbruikt ;) .
Het maakt mij ook niet veel uit, maar er is niet voor niets een norm van 300watt gesteld, anders liep het de spuigaten uit met het verbruik van videokaarten.
De kaarten moeten ook voldoen aan die norm, anders mogen ze nog niet eens op de markt gebracht worden dacht ik, als het wel mocht was die dual gf100 kaart van asus ook al op de markt gebracht.
De asus Mars zat dan wel weer iets boven de 300watt, maar dat ding was nauwelijks bruikbaar met de stock koeler, een dual gf100 zou volgens geruchten rond de 500watt (of zefls meer!) verbruiken, dan zitten toch zeker 5 slots van je moederbord gevuld met koelblok.
Twee gf110 gpu's zullen niet veel lager uitkomen lijkt me, dat is nauwelijks levensvatbaar :/

[ Voor 26% gewijzigd door Anoniem: 263922 op 08-01-2011 20:43 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verbruik van de videokaarten bij TPU kloppen niet altijd, dus kun je beter niet gebruiken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 390961

FrietjeMet ik heb momenteel 2gtx580's in sli (gekocht de eerste week dat de kaart uit kwam) en zijn iig genoeg te krijgen als je er voor wil betalen. Ik moet zeggen WAT EEN POWER. Weet iemand waar ik aan kan zien of de cpu een bottle nek is want ik wil alles uit mijn kaartjes trekken?

Verder gebruik ik de nieuwe performance BETA drivers
http://www.nvidia.com/obj...t-266.35-beta-driver.html

This is the first release from the Release 265 family of drivers (versions 265.xx to 269.xx). You can read more about this family of drivers on GeForce.com.

This driver package supports GeForce 6, 7, 8, 9, 100, 200, 300, 400, and 500-series desktop GPUs as well as ION desktop GPUs.

New in Release 266.35

GPU Support

Supports the newly released GeForce GTX 580 and GeForce GTX 570 GPUs.
Performance

Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. the latest Release 260 drivers. The following are examples of some of the most significant improvements measured on Windows 7. Results will vary depending on your GPU and system configuration:
GeForce GTX 580:
Up to 7% in Battlefield Bad Company 2 (1920x1200 4xAA/16xAF)
Up to 12% in Battleforge (SLI 1920x1200 4xAA/16xAF Very High)
Up to 11% in Call of Duty: Modern Warfare 2 (SLI 1920x1200 4xAA/16xAF)
Up to 7% in Dirt 2 (SLI 1920x1200 4xAA/16xAF)
Up to 7% in Far Cry 2 (1920x1200 4xAA/16xAF)
Up to 5% in Just Cause 2 (1920x1200 4xAA/16xAF Dark Tower)
Up to 5% in S.T.A.L.K.E.R.: Call of Pripyat (SLI – 1920x1200 4xAA/16xAF)
Up to 9% in Stone Giant (SLI 1920x1200, DOF on)
Up to 8% in Unigine Heaven v2.1 (SLI 1920x1200 4xAA/16xAF)
Improves performance in Final Fantasy XI on GeForce 400 Series and 500 Series GPUs.
Visual Quality

Adds ambient occlusion support for one of the most popular games of the year: Starcraft II: Wings of Liberty. Ambient occlusion improves the quality of lighting, shadows, and depth perception in many parts of the game. Learn more on GeForce.com.
NVIDIA 3D Vision

With Release 260 and 265 drivers, the installation process for 3D Vision has changed. Please view this knowledgebase article for more information on the changes.
Adds support for 3DVisionLive.com Beta 2:
Adds supports for 3D photo sharing and viewing
Adds new 3D video clips to the website
Includes several bug fixes
Adds 3D Vision Window Mode support for the following games and applications:
Games
Aion
Crazy Racing Kart Rider
Crossfire
Dragon Nest
EverQuest 2
Guild Wars 2
NED
PopKart
QQ Dance QQ
QQ Xian Xia
Tian Long Ba Bu
World of Warcraft – Burning Crusade
World of Warcraft – Wrath of the Lich King
Xun Xian
Zhu Xian 2
Google Earth
Improvements to 3DVisionLive
Adds support for new 3D Vision Desktop LCD monitors: Hannstar HS233, I-O Data 3D231XBR, Lenovo L2363dwA, Planar SA2311W
Adds support for new 3D Vision projectors: Acer X1261P, Sanyo PDG-DXL2000
Adds support for new DLP HDTVs: Mitsubishi WD-83838, WD-83738, WD-73838, WD-73837, WD-73738, WD-73638, WD-73C10, WD-65838, WD-65738, WD-65638, WD-65C10, WD-60738, WD-60638, WD-60C10, L75-A91.
Added the following 3D Vision game profiles:
Arcania: Gothic 4
Crazy Racing Kart Rider 크레이지레이싱 카트라이더
Crossfire 穿越火线
Darksiders
DC Universe Online
Dragon Nest
Front Mission Evolved
Guild Wars 2
Hank Haney's World Golf
Lineage 2
Medal of Honor (2010) Multiplayer
Medal of Honor (2010) Single Player
NED
Need for Speed Hot Pursuit
NVIDIA Demo: Aliens vs. Triangles
NVIDIA Demo Endless City
PopKart 跑跑卡丁车
QQ Dance QQ 炫舞
QQ Xian Xia Zhuan QQ 仙侠传
Tian Long Ba Bu 天龙八部
TRON: Evolution
Vizerra (fullscreen version)
World Rally Championship 2010
Xun Xian 寻仙
Update the following 3D Vision game profiles
Lost Planet 2 – rating is now changed to Fair
Tom Clancy’s H.A.W.X. 2- rating has been changed to 3D Vision Ready
NVIDIA Surround

Improved performance for 3-way and 4-way SLI configurations
Updated 3D Vision Surround and NVIDIA Surround game support list. Please visit the 3D Vision Surround web page for a full list of supported games.
NVIDIA SLI

Adds SLI profiles for the following PC games:
Alien vs. Triangles Demo
Endless City Demo
Lionheart: Kings Crusade
Moscow Racer: Legends of USSR
Rift: Planes of Telara
Shaun White Skateboarding
Enhances SLI profiles for the following PC games:
Age of Conan
Arcania: Gothic 4
Civilization V - DX11
Lost Planet 2
World Of Warcraft
Other

Installs HD Audio driver version 1.1.13.1
Installs PhysX System Software to version 9.10.0514
Supports playing back Blu-ray 3D discs when connecting your GPU to an HDMI 1.4 3D TV. Playback requires compatible software application from CyberLink, ArcSoft, Roxio, or Corel. For GPU and system requirements, visit the NVIDIA Blu-ray 3D website.
Supports lossless DTS-HD Master Audio and Dolby TrueHD audio bitstreaming support for compatible Blu-ray movies with GeForce GTX 460, GTS 450, and GT 430 GPUs.
Supports high definition 24-bit, 96 and 192 KHz multi-channel audio sampling rate support for compatible Blu-ray movies with GeForce 400 and 500 series, GT 240, GT 220 and 210 GPUs.
Supports the new GPU-accelerated features in Adobe CS5.
Supports GPU-acceleration for smoother online HD videos with Adobe Flash 10.1. Learn more here.
Supports the new version of MotionDSP's video enhancement software, vReveal, which adds support for HD output. NVIDIA customers can download a free version of vReveal that supports up to SD output here.
Supports DirectCompute with Windows 7 and GeForce 8-series and later GPUs.
Supports OpenCL 1.0 (Open Computing Language) for all GeForce 8-series and later GPUs.
Supports OpenGL 3.3 for GeForce 8-series and later GPUs.
Supports OpenGL 4.1 on GeForce 400 series and later GPUs.
Supports single GPU and NVIDIA SLI technology on DirectX 9, DirectX 10, DirectX 11, and OpenGL, including 3-way SLI, Quad SLI, and SLI support on SLI-certified Intel X58-based motherboards.
Supports GPU overclocking and temperature monitoring by installing NVIDIA System Tools software.
Users without US English operating systems can select their language and download the International driver here.
Release Notes (v266.35)
Control Panel User's Guide
GeForce 500 series:
GTX 580, GTX 570

GeForce 400 series:
GT 430, GTX 465, GTX 480, GTX 470, GTS 450, GTX 460, GTX 460 SE

GeForce 200 series:
205, GTX 285, GTX 260, GT 240, GTS 240, 210, GTX 295, GTX 275, GTS 250, GT 220, GT 230, GTX 280, G210

GeForce 100 series:
GT 120, G 100, GT 140, GT 130

GeForce 9 series:
9500 GS, 9200, 9100, 9300, 9600 GSO, 9800 GT, 9800 GX2, 9600 GT, 9500 GT, 9400, 9400 GT, 9600 GS, 9800 GTX/GTX+, 9300 GS, 9300 GE

GeForce 8 series:
8300, 8400 SE, 8100 / nForce 720a, 8500 GT, 8800 GTS 512, 8400 GS, 8400, 8300 GS, 8800 GS, 8800 GTS, 8800 GT, 8600 GTS, 8600 GT, 8800 Ultra, 8600 GS, 8200 / nForce 730a, 8800 GTX, 8200

GeForce 7 series:
7900 GTX, 7800 GTX, 7100 / NVIDIA nForce 620i, 7500 LE, 7650 GS, 7050 PV / NVIDIA nForce 630a, 7950 GX2, 7600 GS, 7550 LE, 7300 GS, 7300 GT, 7300 SE / 7200 GS, 7100 / NVIDIA nForce 630i, 7300 LE, 7900 GS, 7100 GS, 7350 LE, 7150 / NVIDIA nForce 630i, 7025 / NVIDIA nForce 630a, 7800 SLI, 7050 / NVIDIA nForce 630i, 7050 / NVIDIA nForce 610i, 7600 LE, 7600 GT, 7950 GT, 7800 GS, 7900 GT/GTO

GeForce 6 series:
6800 GS, 6100 nForce 405, 6100 nForce 400, 6100 nForce 420, 6250, 6600 GT, 6800 LE, 6800 XE, 6150SE nForce 430, 6800 GS/XT, 6200 A-LE, 6200 TurboCache, 6700 XL, 6150 LE, 6610 XL, 6800, 6600 VE, 6150LE / Quadro NVS 210S, 6150, 6600, 6800 Ultra, 6200 LE, 6800 GT, 6100, 6200, 6200SE TurboCache, 6500, 6800 XT, 6600 LE

ION series:
ION, ION LE

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik zie mezelf niet direct als de persoon die genoeg kennis van multi-gpu heeft om aan te geven of je cpu de bottleneck is, is iets voor het gtx5xx ervaringen topic trouwens, tevens is het handig om je cpu te vermelden als je vraagt of dat een bottleneck kan zijn :P.

Je doet er goed aan dat bericht te cut-pasten naar het ervaringen topic, die hele lap tekst van de nieuwe driver mag je dan weglaten, driver nummer vermelden is genoeg dunkt me ;)

Acties:
  • 0 Henk 'm!

Anoniem: 390961

Sorry dat ik het hier vraag. Ik weet dat dit topic daar niet voor bedoeld is maar
ik kan geen dergelijk topic vinden die over de gtx500 series gaat.
CPU is een core i7 920 op 4200mhz

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Geen bottleneck... Gewoon de settings zo hoog mogelijk zetten zodat/ zolang je acceptabele framerates haalt.

Dan haal je het maximale er wel uit. ;)

Je hebt pas een bottleneck als iets niet speelbaar is.

/ontopic/

[ Voor 87% gewijzigd door Format-C op 08-01-2011 22:01 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 390961 schreef op zaterdag 08 januari 2011 @ 20:10:
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Dat het dan ver buiten de PCI-e-specs valt en dat er dan 2 8-pins en een 6-pins stekker nodig zijn maakt EVGA wel uit. En 400W ga je echt niet gemakkelijk koelen, het maakt de gemiddelde consument wel uit als het een stofzuiger-koeling is of je per sé waterkoeling nodig hebt. ;)

Die 300W-grens is er niet voor niets (al gaan kaarten daar wel een beetje overheen, maar niet heel ver eroverheen).

[ Voor 30% gewijzigd door bwerg op 08-01-2011 22:58 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Om een positieve Nvidia noot toe tevoegen lijkt het er sterk op dat ze met de GTX485M iig ook de sterkste mobiele gpu in huis hebben. Het is wat grof vergelijken en zeker niet 1 op1, maar als uit deze review blijkt dat de GTX485M 57-69% sneller is dan de HD5870M en als dit plaatje klopt;
- http://ic.tweakimg.net/ext/i/imagelarge/1294432401.jpeg
Dan gaat Nvidia met zo'n 10% voorsprong aan de leiding, enig nadeel is dat het stroomverbruik zeer waarschijnlijk wel stukkie hoger ligt. ;)

Acties:
  • 0 Henk 'm!

Anoniem: 390961

bwerg schreef op zaterdag 08 januari 2011 @ 22:56:
[...]

Dat het dan ver buiten de PCI-e-specs valt en dat er dan 2 8-pins en een 6-pins stekker nodig zijn maakt EVGA wel uit. En 400W ga je echt niet gemakkelijk koelen, het maakt de gemiddelde consument wel uit als het een stofzuiger-koeling is of je per sé waterkoeling nodig hebt. ;)

Die 300W-grens is er niet voor niets (al gaan kaarten daar wel een beetje overheen, maar niet heel ver eroverheen).
De gemiddelde consument koop geen kaart van 450 euro en maakt warmte en gebruik niets uit.
Als je het snelste wil hebben kijk je daar niet naar. >:)
Ik snap dat gemiereneuk nooit om een 25-50 wat verschil. Bij de nieuwe pcie 3.0 gaan de wattage's zelfs een stuk omhoog als maximum lolzz

[ Voor 9% gewijzigd door Anoniem: 390961 op 09-01-2011 10:34 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-05 15:17

Darkasantion

Just keep swimming!

Anoniem: 390961 schreef op zondag 09 januari 2011 @ 10:32:
[...]


De gemiddelde consument koop geen kaart van 450 euro en maakt warmte en gebruik niets uit.
Als je het snelste wil hebben kijk je daar niet naar. >:)
Ik snap dat gemiereneuk nooit om een 25-50 wat verschil. Bij de nieuwe pcie 3.0 gaan de wattage's zelfs een stuk omhoog als maximum lolzz
Gemiereneuk over 25~50 Watt is geen gemiereneuk. 50 Watt meer vraagt veel meer van de koeling, dus maakt de kaart meer herrie. Verder voldoe je dan niet meer aan de PCI-Express standaard, dus mis je certificering en dus kunnen de OEM's(een hele grote klant op de grafische markt) niet meer jouw kaarten kopen en maak je dik verlies.
En bij PCI-Express 3 gaan de Wattages niet omhoog, zijn nog steeds maximaal 300 Watt.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Anoniem: 245699 schreef op zondag 09 januari 2011 @ 01:40:
Om een positieve Nvidia noot toe tevoegen lijkt het er sterk op dat ze met de GTX485M iig ook de sterkste mobiele gpu in huis hebben. Het is wat grof vergelijken en zeker niet 1 op1, maar als uit deze review blijkt dat de GTX485M 57-69% sneller is dan de HD5870M en dit plaatje klopt;
- http://ic.tweakimg.net/ext/i/imagelarge/1294432401.jpeg
Dan gaat Nvidia met zo'n 10% voorsprong aan de leiding, enig nadeel is dat het stroomverbruik zeer waarschijnlijk wel stukkie hoger ligt. ;)
Het is in der daad nog een beetje grof: ;)
In the 3D Mark 2006 comparison, our test system even achieves the new leading score: 20206 points weren't reached by any reviewed laptop so far. The GTX 480M is 23% slower, the HD5870 even 57%. Exiting: According to first benchmarks the new HD 6970M "Blackcomb", AMD's high-end graphics solution, gets 17300 to 20155 points (M17x Sandy Bridge) in the 3D Mark 2006. So, the Nvidia GTX 485M graphics would be 17% faster or possibly on the same level. The 485M also beats the 6970M in our score of the 3D Mark Vantage test (13524 versus 11771 points, Eurocom X8100 with Clarksfield CPU).
However, our test system is already equipped with Intel's Sandy Bridge, while the reference systems have to make do with Clarksfield or Bloomfield processors. Considering the huge performance gain we reported about in our comprehensive special article, the GTX 485M test platform could take advantage of the new CPU generation. So, the competition with the AMD HD 6970M stays interesting and we hope to get hold of a test system with this graphics card and Sandy Bridge hardware soon.

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Darkasantion schreef op zondag 09 januari 2011 @ 12:12:
[...]
dus mis je certificering en dus kunnen de OEM's(een hele grote klant op de grafische markt) niet meer jouw kaarten kopen en maak je dik verlies.
Ik kom niet veel OEM's tegen met bijvoorbeeld een 5970. Ik heb dus niet de indruk dat bij dergelijke high end producten OEM's een significant deel uitmaken, maar wellicht heb jij cijfers, die het tegenovergestelde aantonen.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Springstof schreef op zondag 09 januari 2011 @ 13:14:
[...]

Ik kom niet veel OEM's tegen met bijvoorbeeld een 5970. Ik heb dus niet de indruk dat bij dergelijke high end producten OEM's een significant deel uitmaken, maar wellicht heb jij cijfers, die het tegenovergestelde aantonen.
Goed punt, er zijn zat kaarten die over de 300 watt gaan, maar op papier doen ze dat niet dus zitten ze nog aan de spec's.
En de markt van de echte kaarten boven de 300watt (Asus MARS kaarten of mischien de aankomende GTX590/HD6990) is echt zo klein dat OEM's daar niet eens aan beginnen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Alienware desktops, Asus ROG CG desktops, Acer Predator desktops, Paradigit Extreme desktops, Medion Erazer desktops en Alternate HE desktops zo even uit mijn hoofd. Al deze systemen zijn doelwitten voor de de high-end videokaarten zoals o.a. de GTX580 en HD5970.

[ Voor 29% gewijzigd door madmaxnl op 09-01-2011 13:33 ]


Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 29-04 14:23

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Dat zou wel heel grappig zijn. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
1,5 miljard dollar gaat Intel over 6 jaar betalen aan nVidia omdat ? Ze geschaad zijn omdat ze geen chipsets meer mochten betalen ? Ze krijgen gewoon meer geld dan AMD destijds en die hebben toch echt wel meer schaden geleden dan nVidia. Alhoewel AMD daar wel nog de x86 licentie bij heeft gekregen die niet doorverkocht kan worden dit resulteerde in het wegvallen van alle restricties aan de x86 licentie waardoor GF geboren werd.
bladerash schreef op maandag 10 januari 2011 @ 23:34:
[...]

Gaan we nu zien dat ARM door nVidia wordt gedropt?
Hoe kom je daarbij ? ARM is de toekomst voor nVidia in potentie veel meer waar dan 1,5 miljard dollar krijgen verspreid over zes jaar.

Intel pays NVIDIA $1.5b in patent truce, Apple still hurt

Duidelijker dus.

[ Voor 92% gewijzigd door madmaxnl op 11-01-2011 00:00 ]


Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 29-04 14:23
madmaxnl schreef op maandag 10 januari 2011 @ 23:40:

Hoe kom je daarbij ? ARM is de toekomst voor nVidia in potentie veel meer waar dan 1,5 miljard dollar krijgen verspreid over zes jaar.

Intel pays NVIDIA $1.5b in patent truce, Apple still hurt

Duidelijker dus.
En tegelijkertijd een potentiële dreiging voor Intel wat meer schade dan 1,5 miljard kan richten in de winst.
Als Intel bereid is om retailers te betalen geen AMD te verkopen, zijn ze ook wel bereid nVidia te betalen geen ARM te gebruiken. 1,5 miljard is veel geld, misschien heeft een deel hiervan het doel om nVidia tevreden te houden. Maar dit zal wel weer onderhands gebeuren.
We zullen dit wel niet gepubliceerd zien maar merken het vanzelf wel als Tegra3 of hoe de opvolger ook mag heten niet verschijnt.
Is dit nou echt zo ver gezocht dat het niet kan kloppen dan?

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

En hoe zie je Intel dan alle ARM producenten uitkopen?

Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 29-04 14:23
Edmin schreef op dinsdag 11 januari 2011 @ 00:39:
En hoe zie je Intel dan alle ARM producenten uitkopen?
Niet, nVidia is de enige die daar relatief een krachtige gpu in kan proppen zodat de APU vlot genoeg is een desktop te draaien. Een echte atom killer want die kan niet eens youtube filmpjes fatsoenlijk afspelen zonder ION. En die is weer van nVidia. Zonder een redelijke gpu is het binnen een korte tijdsbestek alleen nog maar tussen Tegra2 en Ontario.
De andere producenten van ARM? Die lopen nog lichtjaren achter met gpu performance. Met alleen een Cortex zijn ze er nog niet.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Ten eerste, wie het nieuws even goed leest ziet al snel dat de deal specifiek niet over x86 licenties gaat. NVIDIA krijgt dus geen licentie.
Ten tweede, ik denk niet dat NVIDIA een licentie wil. Waarom zouden ze, het is wel duidelijk uit resultaten uit het verleden dat een x86 chip weinig toekomst heeft behalve bij Intel (en een klein beetje bij AMD). x86 is gewoon een waardeloze ISA en de enige reden dat Intel er zoveel performance uit weet te halen is het feit dat Intel het geld heeft om bizar veel R&D te doen en belangrijker nog, dat Intel gewoon met afstand de beste chipbakker is. Dit is ook de enige reden dat Intel straks Atom in een stroombudget van een telefoon weet te krijgen, omdat gewoon op productiegebied een stap voorlopen op alle andere chipbakkers.
bladerash schreef op dinsdag 11 januari 2011 @ 01:49:
[...]

Niet, nVidia is de enige die daar relatief een krachtige gpu in kan proppen zodat de APU vlot genoeg is een desktop te draaien. Een echte atom killer want die kan niet eens youtube filmpjes fatsoenlijk afspelen zonder ION. En die is weer van nVidia. Zonder een redelijke gpu is het binnen een korte tijdsbestek alleen nog maar tussen Tegra2 en Ontario.
De andere producenten van ARM? Die lopen nog lichtjaren achter met gpu performance. Met alleen een Cortex zijn ze er nog niet.
sorry, maar dat is gewoon onzin. Tegra 2 is maar een beetje beter dan wat andere ARM producenten op dit moment hebben en de enige reden dat ARM-SOC GPUs weinig performance hebben is het stroombudget waar ze in moeten passen. Met een ruimer budget kunnen de ARM-SOC GPUs makkelijk concurreren met Intel's eigen IGPs.

Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 29-04 14:23
Snoitkever schreef op dinsdag 11 januari 2011 @ 02:23:

sorry, maar dat is gewoon onzin. Tegra 2 is maar een beetje beter dan wat andere ARM producenten op dit moment hebben en de enige reden dat ARM-SOC GPUs weinig performance hebben is het stroombudget waar ze in moeten passen. Met een ruimer budget kunnen de ARM-SOC GPUs makkelijk concurreren met Intel's eigen IGPs.
Sorry :'(
Ik was ook te ver doorgegaan met me paranoïsme dat ik me gezond verstand ook niet meer bij had gebruikt bij het typen van dat stuk.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

en nog een mooi artikel over hetzelfde onderwerp: http://www.anandtech.com/...ney-fewer-problems-no-x86

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 09-05 20:52
Jup, anandtech's artikel is het duidelijkst (mag ook wel, na alles 10x herhaald te hebben).

De status quo blijft gehanteerd. Er gaat niks nieuws gebeuren, behalve dan 1,5 miljard naar Nvidia en Nvidia is natuurlijk bezig met Project Denver. Intel gaat echter geen Nvidia-gpu's inbouwen in zijn chipsets of zo. Sandy Bridge maakt namelijk al gebruik van Nvidia-patenten.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Oeps, pijnlijk..

Afbeeldingslocatie: http://images.nvidia.com/blogs/ntersect/feature_image07.jpg

Wie kent 'm nog? :D

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Waarschijnlijk het enige wat ik leuk en goed vind van nVidia: de spotprenten die ze maken van Intel.
Wel pijnlijk dat ze nu zelf een settlement hebben gesloten met Intel terwijl ze er in hun spotprent nog zo kritisch over waren toen Intel dat met AMD deed.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
madmaxnl schreef op dinsdag 11 januari 2011 @ 17:42:
Waarschijnlijk het enige wat ik leuk en goed vind van nVidia: de spotprenten die ze maken van Intel.
Wel pijnlijk dat ze nu zelf een settlement hebben gesloten met Intel terwijl ze er in hun spotprent nog zo kritisch over waren toen Intel dat met AMD deed.
Marc Rademaker schreef op dinsdag 11 januari 2011 @ 10:43:
De status quo blijft gehanteerd. Er gaat niks nieuws gebeuren, behalve dan 1,5 miljard naar Nvidia en Nvidia is natuurlijk bezig met Project Denver. Intel gaat echter geen Nvidia-gpu's inbouwen in zijn chipsets of zo. Sandy Bridge maakt namelijk al gebruik van Nvidia-patenten.
Ik denk niet dat de 1.5 miljard het belangrijkste onderdeel van de deal is. Natuurlijk zal NVIDIA daar blij mee zijn en alles, maar deze deal is veel interessanter dan alleen dat geldbedrag, en wel op het gebied van patenten. NVIDIA heeft een enorme lading GPU patenten, Intel heeft een enorme lading CPU patenten. Intel maakt IGPs die ongetwijfeld op een flink aantal patenten van NVIDIA inbreuk maken. Daar zou NVIDIA Intel flink mee dwars kunnen zitten. Omgekeerd hebben we nog geen week geleden (volgens mij geen toeval) gehoord dat NVIDIA druk bezig is met een eigen CPU gebaseerd op ARM. Ik durf te wedden dat ondanks de andere ISA Intel genoeg patenten heeft die betrekking hebben op technologieën in Denver.

Intel en NVIDIA hebben dus ingezien dat ze beiden waarschijnlijk eeuwig door kunnen vechten op dat gebied, maar dat geen van beiden er belang bij heeft. Nou heeft NVIDIA vanwege anti-competitief sentiment in de EU en VS een voordeel in deze situatie, en ze hebben ook geen interesse meer in de chipset business, met als gevolg de 1.5 miljard dollar. Maar ik zie de rest van de deal als veel interessanter dan dat bedrag.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever Intel heeft zojuist een patent van nVidia gekocht. Over 6 jaar verspreid krijgt nVidia daar 1,5 miljard dollar voor terug. M.a.w. Intel gaat geen anderen patenten van nVidia meer kopen. Want eerst hadden ze omtrent het gekochten patent een deal. Een patent voor een patent. Dit hield in dat nVidia chipsets mocht maken voor Intel platvormen. In ruil hiervoor kreeg Intel het patent. nVidia mocht op een gegeven moment geen chipsets meer maken want deze hadden een nieuwe bus maar Intel had wel nog het patent.

Deze deal moet dat nu goed maken.

Voer voor het Radeon topic.

[ Voor 24% gewijzigd door Edmin op 11-01-2011 20:59 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...

Op wie, en waarop is dat een reaktie?

Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff... :O

1, 2, 3, 4, 5, 6, 7, 8, 9, 10... :P

[ Voor 72% gewijzigd door Format-C op 11-01-2011 20:24 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Format-C schreef op dinsdag 11 januari 2011 @ 20:18:
WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...

Op wie, en waarop is dat een reaktie?

Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff... :O

1, 2, 3, 4, 5, 6, 7, 8, 9, 10... :P
11,12,13............. :P

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik snap het niet, hoezo een trol ?

Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

14,15,16... ;)

Ontopic:
Afbeeldingslocatie: http://app.quotemedia.com/quotetools/chartcache/chart129463382565260256.gif

Aandelen van nVidia zijn flink omhoog geschoten sinds januari :) Misschien iets te maken met project Denver? Of is de omzet/winst gewoon gestegen?

[ Voor 17% gewijzigd door Tyranium op 11-01-2011 20:45 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Goede CES voor nVidia idem voor AMD(ook qua aandeel) maar die verkloten het vervolgens weer met hun CEO akkefietje. Ook is het goede nieuws over de deal met Intel voor nVidia goed voor de aandelen. Denver is nog te weinig over bekend om de aandelen z'n stoot te geven.

In 6 dagen van ~16 dollar naar ~21 dollar per aandeel is niet niks.

[ Voor 26% gewijzigd door madmaxnl op 11-01-2011 20:57 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

madmaxnl schreef op dinsdag 11 januari 2011 @ 20:38:
Ik snap het niet, hoezo een trol ?

Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Omdat je een smilie plaatst, kan het als provocerend worden gezien hier in het nVidia topic.

Verder vind ik het persoonlijk net zo goed nVidia nieuws als AMD nieuws, zoals zo vaak is het met elkaar verbonden.
madmaxnl schreef op dinsdag 11 januari 2011 @ 20:55:
Goede CES voor nVidia idem voor AMD(ook qua aandeel) maar die verkloten het vervolgens weer met hun CEO akkefietje. Ook is het goede nieuws over de deal met Intel voor nVidia goed voor de aandelen. Denver is nog te weinig over bekend om de aandelen z'n stoot te geven.

In 6 dagen van ~16 dollar naar ~21 dollar per aandeel is niet niks.
Denk eigenlijk dat het wel met Denver en de Intel settlement te maken heeft en wellicht met relatief positief nieuws over Tegra2.

Als je de big picture bekijkt zie je een wereld waarin handheld devices zoals smartphones, tablets etc in sneltreinvaart een enorme invloed krijgen waarbij de bekende desktops in belang afnemen. Helemaal als je kijkt op een termijn van 5 a 10 jaar. Wellicht is binnen die periode zo'n device sterk genoeg voor 80% vd consumenten om 100% van de dingen te doen die ze willen. Thuis prik je je handheld dan in een dockingstation die gekoppeld is aan een groter scherm met toetsenbord. Uhh dit gaat natuurlijk wireless... :P 8)7

Dit is een groeimarkt, een markt waar je in wilt zitten. Een markt waar nog veel mogelijk is en ARM based Socs erg succesvol zijn en waar Intel nog geen heer en meester is.
Een markt die potentieel zelfs een partij als intel heel veel pijn kan gaan doen of zelfs een kopje kleiner maken als ze niet opletten.

Dit terwijl nVidia haar traditionele inkomstbronnen aan het opdrogen zijn (geen chipset business meer, kunnen de CPU+GPU trend niet volgen ivm ontbreken x86 licentie, instapgpu's worden irrelevant agv de CPU+GPU).

Ik kan me voorstellen dat beleggers in 1 keer weer meer vertrouwen hebben op een succesvolle toekomst omdat nVidia heeft aangegeven te willen gaan strijden in een markt die wat kan opleveren.
Dit betekend uiteraard niet dat nvidia gaat slagen maar ze strijden ergens voor.

Daarnaast is er nu niet alleen duidelijkheid inzake de toekomstrichting maar zijn ook dure, (management) intensieve en een duidelijke strategie verhinderende lawsuits beeindigd. Deze helderheid wordt ook altijd gewaardeerd.

Verder is 1.5mld in de kassa een toename vd bezittingen. Geld kan evt. ook aan aandeelhouders uitgekeerd worden.Laatste zal niet gebeuren maar kan zeker ook tot hogere waardering leiden.

[ Voor 16% gewijzigd door Help!!!! op 11-01-2011 21:26 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

madmaxnl schreef op dinsdag 11 januari 2011 @ 20:38:
Ik snap het niet, hoezo een trol ?

Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
In dit geval is de troll die jij hanteert de volgende:
Ook is een gevolgde methode het uitlokken van reacties of discussies over niet ter zake doende onderwerpen of schijnargumenten te geven, met als enkel doel om gebruikers binnen de gemeenschap opzettelijk en bewust te frustreren.
Het zal dan waar zijn dat CF op de 6800 en 6900 serie beter schaalt, maar als je dat post zonder dat je op iemand reageert, of dit telkens aangeeft terwijl dit niet eens terzake doet of onderdeel van een discussie is, is het gewoon onnodig, overbodig, en frustrerend voor mij, en volgens mij ook voor anderen. Als jij zelf vindt dat je niemand frustreert, denk ik dat je het mis hebt. Ik ga ook niet lukraak posten in topics dat nVidia beter is dan AMD, of Intel beter is dan AMD, of whatever beter is dan whatever. Dat is geoon onnodig. Mensen kunnen zelf ook lezen en hun conclusies trekken. Jij start geen discussie, maar eerder een flamewar.

Ik zou het iig waarderen als je het achterwege laat, en ontopic post. En niet lukraak van zulke opmerkingen en/of posts plaatst die onnodig zijn.

Just my 2 cents, en verder vind ik je een beste kerel. :)

[ Voor 15% gewijzigd door Format-C op 11-01-2011 22:29 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Zullen we er nu gewoon mee stoppen en verder kletsen over NVidia nieuwtjes?
Kthxbye!

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Strak plan. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Dura Ace
  • Registratie: Februari 2010
  • Laatst online: 20-10-2020
[H]ardOCP geeft in hun SLI vs CFX review aan dat in sommige games de 580 en 570 door resp. 1536MB en 1280MB enigszins worden afgeknepen (op erg hoge resoluties). zou het denkbaar zijn dat Nvidia de hoeveelheid geheugen op deze kaarten gaat verhogen (of dat partners dit doen)? En is het denkbaar dat de 570 op 2560x1440/1600 al wordt beperkt door de hoeveelheid geheugen? Zit er aan te denken om een 570 te kopen...twijfel of 1280MB voor mijn Dell 2711 op termijn wel voldoende is (moet minimaal 2 jaar meegaan)?

Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Om het even handig te laten zien wat het effect van 2gb geheugen op 2560x1600 heeft pak ik ff de review van Hardwarecanucks erbij; http://www.hardwarecanuck...70-hd-6950-review-28.html
Daar staat in de conclusie het volgende tabelletje;

Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/HD6900/HD6900-87.jpg

Hier valt duidelijk uit op te maken dat tot 1920 de GTX570 het prima bij kan benen en zelfs (zeer) lichtjes aan de leiding gaat. Bij 2560 neemt de HD6970 het stokje over en profiteert duidelijk van z'n grotere geheugen.
Anders gesteld; hier komt de GTX570 wat tekort...

Dat zie je zelfs bij 2560(8x) i.v.t. de GTX580 waar de voorsprong is geslonken tot 6%, terwijl het bij 1920 nog 16% was.
Dit is natuurlijk maar één review, maar bij Computerbase zie je onder deze pagina een beetje hetzelfde.

Maar dit is eigenlijk geen nieuws... ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 01:22:
Bij 2560 neemt de HD6970 het stokje over en profiteert duidelijk van z'n grotere geheugen.
Sorry maar ik zie toch echt wat anders. Ik zie twee totaal verschillende kaarten welke toevallig ook niet evenveel videogeheugen hebben. Dan kun je er natuurlijk van maken dat het alleen aan het geheugen ligt (tuurlijk het is logisch) maar waarom kan het niet gewoon aan de architectuur liggen kaarten zijn immers totaal verschillend. Je kunt hier echt pas een uitspraak overdoen als je een één neemt met dubbel zoveel geheugen en een normale.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 321370

Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.

KitGuru heeft de adviesprijs van NVIDIA's GeForce GTX 560 bekendgemaakt. Die bedraagt 279 dollar. Ook blijkt de launch van de GTX 560 te zijn uitgesteld, een nieuwe verwachting is midden februari.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait. Het TDP is 180 watt, twintig watt meer dan dat van de GeForce GTX 460.

[ Voor 11% gewijzigd door Anoniem: 321370 op 12-01-2011 07:22 ]


Acties:
  • 0 Henk 'm!

  • vinom
  • Registratie: Augustus 2009
  • Laatst online: 13:13
Anoniem: 321370 schreef op woensdag 12 januari 2011 @ 07:17:
Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.

KitGuru heeft de adviesprijs van NVIDIA's GeForce GTX 560 bekendgemaakt. Die bedraagt 279 dollar. Ook blijkt de launch van de GTX 560 te zijn uitgesteld, een nieuwe verwachting is midden februari.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait. Het TDP is 180 watt, twintig watt meer dan dat van de GeForce GTX 460.
Damn, dat is duurder dan ik verwacht had..:(

[ Voor 91% gewijzigd door vinom op 12-01-2011 08:00 ]


Acties:
  • 0 Henk 'm!

Anoniem: 308117

Moved to BGG Aanschaf videokaarten :P

[ Voor 95% gewijzigd door Anoniem: 308117 op 12-01-2011 10:10 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Dat hoort niet in dit topic thuis....

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 390961

Format-C schreef op dinsdag 11 januari 2011 @ 20:18:
WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...

Op wie, en waarop is dat een reaktie?

Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff... :O

1, 2, 3, 4, 5, 6, 7, 8, 9, 10... :P
Het leuke is dat het ook nog niet eens klopt wat die fanboy zegt.
Het werkt namelijk even goed op beide. Dit is indd wel trollen en fanboy gedrag erg jammer na het zien van wat posts.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

@Zilvere wolf nummer3: Klopt. Ik weet niet hoeveel non-reference GTX580 kaarten er al zijn, maar deze worden meestal in een 2e launch geintroduceerd: andere koelers, clockspeeds e.d.
Momenteel is er nog niet veel. Misschien de Palit met 2 fans, maar volgens mij hebben POV en eVGA nu de lead in hogere corespeeds op non-reference kaarten. Ik zou nog even wachten tot de fabrikanten met hun eigen designs uitkomen. Over het algemeen heb je dan wel wat robuustere kaarten.


EDIT: de post van silverwolf III is al weg

[ Voor 40% gewijzigd door Deathchant op 12-01-2011 10:19 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 390961

Asus heeft ook de core speed maar lieft 10mhz hoger bij de gtx580.

Acties:
  • 0 Henk 'm!

Anoniem: 245699

-The_Mask- schreef op woensdag 12 januari 2011 @ 01:29:
[...]
Sorry maar ik zie toch echt wat anders.
Dat mag, ik niet.
Ik zie twee totaal verschillende kaarten welke toevallig ook niet evenveel videogeheugen hebben.
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit. Van 1680 naar 1920 met of zonder AA zit er niet al te veel verschil in. Vanaf 2560 (ongeveer twee keer zoveel pixels) begint er opeens een groter verschil te onstaan, ik zie het verschil in geheugen grote daar als grootste reden van.

Maargoed, dit hoort eigenlijk ook in BGG Aanschaf videokaarten thuis...

[ Voor 5% gewijzigd door Anoniem: 245699 op 12-01-2011 10:41 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 321370 schreef op woensdag 12 januari 2011 @ 07:17:
Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.
TDP klopt, maar die was ook al een tijd bekend. De prijs klopt ook, aangezien 279 dollar ook de prijs van de GTX470 is. De GTX560 krijgt dus ook ongeveer dezelfde prijs als de GTX470 nu.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait.
Dat was al heeeel lang bekend. :p
Enige is dus dat die is uitgesteld, van 20 januari naar dus februari nu.
Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 10:40:
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit.
Dat zei ik, logisch is het wel maar dat zegt nog steeds niet veel. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 10:40:
[...]

Dat mag, ik niet.

[...]

Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit. Van 1680 naar 1920 met of zonder AA zit er niet al te veel verschil in. Vanaf 2560 (ongeveer twee keer zoveel pixels) begint er opeens een groter verschil te onstaan, ik zie het verschil in geheugen grote daar als grootste reden van.

Maargoed, dit hoort eigenlijk ook in BGG Aanschaf videokaarten thuis...
Ik denk dat jullie beiden wel gelijk hebben. Natuurlijk profiteert de 6970 van zijn 2GB geheugen op hogere resoluties met AA, maar om te kunnen zeggen hoeveel deze winst nu precies (in %) is, zal het toch even wachten zijn op de 1GB versies van de 6970/6950. Dan is er pas echt een goede vergelijking mogelijk. :)

Acties:
  • 0 Henk 'm!

Anoniem: 390961

Ik heb wel tests gezien. En ook een deze dagen wel gepost ergens. Het grote verschil is zo'n 5 fps gemiddeld genomen en vind daar voor die 1gb extra echt niet nodig. Zou dan liever cf of sli draaien met 1gb geheugen voor meer fps in een game op hoge resoluties. Eenigste kaart die dan redelijk een game laat afspelen is de 5970. De kracht patsers die daaronder zitten hoef ik niet voor 3 schermen. Of het moet al snel cf of sli worden.

[ Voor 7% gewijzigd door Anoniem: 390961 op 12-01-2011 11:54 ]


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Welke test? Waar gepost? Welke kaart? Een gemiddelde van fps waarden?

Hoog onzingehalte in je post...

[ Voor 99% gewijzigd door Noel op 12-01-2011 12:33 ]

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Anoniem: 308117

Deathchant schreef op woensdag 12 januari 2011 @ 10:18:
@Zilvere wolf nummer3: Klopt. Ik weet niet hoeveel non-reference GTX580 kaarten er al zijn, maar deze worden meestal in een 2e launch geintroduceerd: andere koelers, clockspeeds e.d.
Momenteel is er nog niet veel. Misschien de Palit met 2 fans, maar volgens mij hebben POV en eVGA nu de lead in hogere corespeeds op non-reference kaarten. Ik zou nog even wachten tot de fabrikanten met hun eigen designs uitkomen. Over het algemeen heb je dan wel wat robuustere kaarten.


EDIT: de post van silverwolf III is al weg == heb hem naar BBG video kaarten geplaats))
ja helaas kan ik niet echt lang wachten want ik heb nu een pc zonder graka aangezien mijn 5850 RMA is en het geld van de kaart binnen kort terug gestort word.
Maar ik heb van diverse fora gelezen dat de kaart uitstekend presteert zonder dat er veel warmte word gecreëerd.

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Anoniem: 390961 schreef op woensdag 12 januari 2011 @ 11:53:
Ik heb wel tests gezien. En ook een deze dagen wel gepost ergens. Het grote verschil is zo'n 5 fps gemiddeld genomen en vind daar voor die 1gb extra echt niet nodig.
Omdat ik nieuwschierig was heb ik je posts maar eens doorgenomen (en dat waren er gelukkig niet zoveel) en dan kom ik op deze post van je uit;
- Anoniem: 390961 in 'nieuws: 'Goedkopere HD 6950 en 6970 met 1GB geheugen op komst''
Waar je refereert naar een artikel waar de HD5870 1gb wordt vergeleken met de 2gb... Denk niet dat je de conclusies hiervan rechtstreeks kan copy/pasten naar die van de HD6950/6970!
Enfin, volgens mij hoort dit ook niet thuis in dit Nvidia topic! ;)

Deze GTX580 wel;
Afbeeldingslocatie: http://content.hwigroup.net/images/news/asusgeforcegtx580directcuii03-575x458.jpg
http://www.nordichardware...er-and-bigger-cooler.html

[ Voor 12% gewijzigd door Anoniem: 245699 op 12-01-2011 13:14 ]


Acties:
  • 0 Henk 'm!

Anoniem: 308117

Anoniem: 245699 schreef op woensdag 12 januari 2011 @ 13:12:
[...]

Omdat ik nieuwschierig was heb ik je posts maar eens doorgenomen (en dat waren er gelukkig niet zoveel) en dan kom ik op deze post van je uit;
- Anoniem: 390961 in 'nieuws: 'Goedkopere HD 6950 en 6970 met 1GB geheugen op komst''
Waar je refereert naar een artikel waar de HD5870 1gb wordt vergeleken met de 2gb... Denk niet dat je de conclusies hiervan rechtstreeks kan copy/pasten naar die van de HD6950/6970!
Enfin, volgens mij hoort dit ook niet thuis in dit Nvidia topic! ;)

Deze GTX580 wel;
[afbeelding]
http://www.nordichardware...er-and-bigger-cooler.html
OMG OMG OMG

Ok ik wacht wel dat ding ziet er egt super Geil uit en de specs Zijn ook nog eens stukken beter dan de standaard versie (enig idee wanneer de release is van dit monster)

>:) mhuu ha ha kan de 6970 niet tegen op tri slot koeler met twee maal DVI en een display poort en een HDMI OMG :o

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 09-05 20:52
Anoniem: 308117 schreef op woensdag 12 januari 2011 @ 13:28:
[...]

OMG OMG OMG

Ok ik wacht wel dat ding ziet er egt super Geil uit en de specs Zijn ook nog eens stukken beter dan de standaard versie (enig idee wanneer de release is van dit monster)

>:) mhuu ha ha kan de 6970 niet tegen op tri slot koeler met twee maal DVI en een display poort en een HDMI OMG :o
Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangen

Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop :P

Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen. Dan blijft er zelfs op high-end moederborden weinig plek over voor een tweede kaart, laat staan een geluids- of raid-kaart...

Acties:
  • 0 Henk 'm!

Anoniem: 390961

Noel schreef op woensdag 12 januari 2011 @ 12:32:
Welke test? Waar gepost? Welke kaart? Een gemiddelde van fps waarden?

Hoog onzingehalte in je post...
Zal ik die post voorjou nog maar WEER eens posten dan. Zie de Edit staks maar ff.
http://www.tomshardware.c...5870-eyefinity6,2595.html

Als je een beetje door bladerd zie je het verschil tussen 1gb en 2 gb tests in games.
Onzinnig mischien want had het al vaker gepost, blijf namelijk niet aan de gang.

[ Voor 29% gewijzigd door Anoniem: 390961 op 12-01-2011 14:08 ]


Acties:
  • 0 Henk 'm!

Anoniem: 308117

Marc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:
[...]

Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangen

Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop :P

Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen. Dan blijft er zelfs op high-end moederborden weinig plek over voor een tweede kaart, laat staan een geluids- of raid-kaart...
Ha jij verpest mijn Glorie momentje weer hoor ha ha lols
en ja ik heb wat zitten puzzelen op mijn mobo(P6T6 Revolution) en het past (duhu) maar ik kan dan mijn raid kaart voor mijn hdds niet meer kwijt en mijn WIFI kaart dus het word toch maar de standaard versie zet die wel in SLI mhuhahah >:) (nieuw glorie moment)

Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Anoniem: 308117 schreef op woensdag 12 januari 2011 @ 14:08:
[...]
Ha jij verpest mijn Glorie momentje weer hoor ha ha lols
en ja ik heb wat zitten puzzelen op mijn mobo(P6T6 Revolution) en het past (duhu) maar ik kan dan mijn raid kaart voor mijn hdds niet meer kwijt en mijn WIFI kaart dus het word toch maar de standaard versie zet die wel in SLI mhuhahah >:) (nieuw glorie moment)

Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)
Ja, want NVIDIA heeft nooit problemen, en die problemen die jij noemt komen ook voor bij iedereen met welke chip van ATI dan ook |:(
Gelukkig werp je even een objectieve blik op de zaken.

Een drie-slots koeler vind ik ook een beetje veel van het goede. Zulke high-end (en meestal overdreven dure) kaarten worden alleen door serieuze tweakers gekocht die er ook een beetje verstand van hebben. Laat het nu juist die mensen zijn die ook graag wel eens SLI of CFX draaien, met een bergje harde schijven en fatsoenlijke geluidskaart. Blijft knap weinig ruimte over op die manier, en is gewoon niet bepaald interessant behalve voor de pats factor :)

Ik ben veel nieuwsgieriger naar de GTX 560, en dan met name naar wat ze nog uit die verrassend goede chip kunnen persen met wat extra tweaks. Hij klokte in ieder geval al vrij aardig, deze zou het alleen maar beter moeten doen.

@ vPro: wel een compleet andere kaart en drivers, niet echt representatief of wel? ;)

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Anoniem: 308117 schreef op woensdag 12 januari 2011 @ 14:08:
[...]
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)
Kunnen we niet beter kijken naar het "doodgaan van 8800 kaarten" topic?

Acties:
  • 0 Henk 'm!

Anoniem: 390961

Werelds dat het andere kaarten zijn of drivers maakt niets uit voor het geheugen lijkt mij, of hoe het geheugen gebruikt word voor een bepaalde resolutie. Ik zou zelf veel eerder kiesen voor een sli of cf opstelling alsik meer fps wil hebben op hoge resoluties, de fps stijgen dan wel wat verder dan 5 fps extra

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Tuurlijk wel, er kan immers van beide kanten uit anders met het beest omgesprongen worden. Dan heb ik niet alleen zo zeer over waar het geheugen voor wordt gebruikt, maar een hogere framerate door snellere én efficiëntere reken units kan (maar hoeft niet) ook meer geheugen vergen. De 5870 was simpelweg niet snel genoeg om die 2 GB vol te pompen op die resoluties, maar als je naar de benchmarks van kaaimannen kijkt zie je dat het relatieve performance verlies een stuk minder is ten opzichte van Cypress. Met andere woorden: ze zijn in verhouding sneller op hogere resoluties. Ergo: dat extra geheugen zou nu weldegelijk verschil kunnen maken. Voor CFX opstellingen wordt dat alleen maar groter en beter, en ik denk dan ook dat dat is waar je het grootste verschil gaat zien. Als er ook een kaart is waar drivers veel verschil kunnen maken, is het de 5870 wel.

Ik denk dat het verschil met enkele kaarten wel groter zal zijn dan het was bij de 460 - maar zelfs bij die kaart zie je al jouw 5 FPS verschil in sommige games, en dan gaat het om een veel langzamere kaart met 256 MB verschil, waarvan de 768 MB variant vaak niet eens op 2560x1600 wordt getest (dus zelfs bij 1080p is het al goed zichtbaar). Ik vind het dan ook jammer dat er nog geen aanwijzingen zijn dat er een 560 met 1.25 of zelfs 1.5 GB komt; het is de soort kaart die leuk is om in een SLI opstelling te zetten, en ik denk dat een grotere buffer dan echt wel tot z'n recht kan komen.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik denk dat de gtx560, net zoals enkele versies van de gtx460, ook wel met 2gb komt, 1,25gb of 1,5gb is niet erg logisch. Er zijn nog geen aanwijzigingen voor, maar hij komt er wel :) . Voor mij was het wel jammer dat er geen reference-pcb gtx460 met 2gb is, ivm waterkoeling, maar 1gb is nog ruim zat op 1920 x 1080.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

Marc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:

Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen.
Inderdaad...en dan nog steeds 82 graden worden.....

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Pykow
  • Registratie: Augustus 2007
  • Laatst online: 06-05 17:40

Pykow

Angelo OTR

Wat gaat de prijs worden van de GTX 560 ? 200 euro of veel meer ?

Want ik ben nu aan het regelen voor een GTX460, maar als de GTX560 de zelfde prijs krijgt en sneller.
dan ben ik gek om nu een gtx460 te kopen.

Angelo NL / Global Cargo VTC

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.