[Algemeen] nVidia Nieuwdiscussie Topic - Deel 49 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 26.642 views

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik ben zelf wel benieuwd naar een mogelijke GTX595 en GTX560.
Ze zullen waarschijnlijk wel het zelfde doen met de GF104 als ze met de GF100 deden.
Volledig unlocken en uitbrengen als GF114 met natuurlijk soort gelijken verbeteringen zoals bij de GF100 naar GF110.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op woensdag 10 november 2010 @ 17:08:
met natuurlijk soort gelijken verbeteringen zoals bij de GF100 naar GF110.
Zo'n prestatiewinst is niet mogelijk, een GTX460 doet al 4 pixels per kloktik voor de texture filtering unit. Dit in tegenstelling tot de GTX480 die dit niet had, maar de GTX580 wel weer. Een volledige GF104 zou het dus alleen kunnen hebben van alles ingeschakeld en een iets hogere kloksnelheid.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 245699

-The_Mask- schreef op woensdag 10 november 2010 @ 16:15:
[...]

Dan zou de GTX570 het wel eens moeilijk kunnen krijgen....
Op prestatie niveau lukt het wel redelijk denk ik, op gebied van prijs wordt het een zeer moeilijke opgave... Neem aan dat je daar ook op doelde?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Cayman Pro gaat al sneller zijn dan de GTX480. GTX570 zou even snel zijn als GTX480.
GTX580 is 15% sneller dan GTX480 maar Cayman XT zal meer dan 15% sneller zijn dan de Cayman Pro variant.
Cayman XT gaat dus ook sneller zijn dan de GTX580 :)

[ Voor 50% gewijzigd door madmaxnl op 10-11-2010 17:41 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Denk dat een GTX570 iets sneller gaat zijn dan een GTX480 maar veel zal het niet worden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
-The_Mask- schreef op woensdag 10 november 2010 @ 17:53:
Denk dat een GTX570 iets sneller gaat zijn dan een GTX480 maar veel zal het niet worden.
Dat zal dan waarschijnlijk alleen maar mogelijk zijn op basis van kloksnelheid, daar ze met Cuda-cores weinig mogelijkheden hebben. Minder dan 512, maar sneller dan GTX480 zal eigenlijk automatisch 480 cudacores inhouden, want om met 448 cudacores een GTX480 voorbij te gaan, vereist een kloksnelheid die me onmogelijk haalbaar lijkt als normale retailkaart.

GTX570 zou dus 480 cudacores moeten hebben met een kloksnelheid hoger dan 700/1400MHz. Daarmee komt hij ondertussen wel weer erg dicht bij de GTX580, wat de prijs van 1 van de 2 kaarten niet ten goede zal komen, ofwel niet voor nVidia, danwel niet voor de consument.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Niet alleen op basis van kloksnelheid, die 30% meer in Vantage komt ook niet alleen door een paar extra cudacore's en een iets hogere klok.

Zie -The_Mask- in "[Algemeen] nVidia Nieuwdiscussie Topic -..." zou ook kunnen voor een eventuele GTX570

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Nog niet gezien hier, de SLI 580 review van Anand:
http://www.anandtech.com/...-gtx-580-the-sli-update/1

Ook weer typisch nvidia, mochten ze geen SLI reviewen zonder de bijbhorende high end PC..... 8)7

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
http://www.hexus.net/content/item.php?item=27478

Iets zegt me dat de tijd om mn GTX480 te verkopen voor ong. 275-300 euro wel aangebroken is. Dat kon na de GTX570 (en HD6950 waarschijnlijk) wel es een probleem gaan worden :/

anathema


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

anathema schreef op zaterdag 13 november 2010 @ 12:09:
http://www.hexus.net/content/item.php?item=27478

Iets zegt me dat de tijd om mn GTX480 te verkopen voor ong. 275-300 euro wel aangebroken is. Dat kon na de GTX570 (en HD6950 waarschijnlijk) wel es een probleem gaan worden :/
Tegen de tijd dat de Caymans uit zijn en de GTX580 beter leverbaar wordt, zal die ook wel in prijs dalen.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 263922

madmaxnl schreef op woensdag 10 november 2010 @ 17:08:
Ik ben zelf wel benieuwd naar een mogelijke GTX595 en GTX560.
Ze zullen waarschijnlijk wel het zelfde doen met de GF104 als ze met de GF100 deden.
Volledig unlocken en uitbrengen als GF114 met natuurlijk soort gelijken verbeteringen zoals bij de GF100 naar GF110.
Ik ook, zoek een vervanger voor mijn gtx295, daar haal ik toch de max niet uit met de games die ik op dit moment speel. (als ik al aan gamen toe kom).

Een gf114 gtx560 chip klinkt wel interessant, al vraag ik me af of een dual-gf114 genoeg power heeft om de 6990 bij te houden. Hangt natuurlijk ook af van de clocks ed, bij de 6990 liggen die waarschijnlijk lager dan bij een 6970. (uitgaande van hd5870/hd5970) Als een full-spec gf114 iets van 160W zou trekken zoals de gtx460 1gb zou de gtx595 toch een aardige kaart kunnen worden :)

Al vraag ik me dan af hoe lang het nog gaat duren voor er dan full-cover waterblocks beschikbaar komen, bij de gtx460 heeft dat ook een tijdje geduurd, een gtx460 met waterblock is natuurlijk ook leuk voor de kerst :)

Acties:
  • 0 Henk 'm!

Anoniem: 135867

anathema schreef op zaterdag 13 november 2010 @ 12:09:
http://www.hexus.net/content/item.php?item=27478

Iets zegt me dat de tijd om mn GTX480 te verkopen voor ong. 275-300 euro wel aangebroken is. Dat kon na de GTX570 (en HD6950 waarschijnlijk) wel es een probleem gaan worden :/
Waarom zou je hem verkopen?

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Ik vrees dat het voor Nvidia lastig gaat worden om de HD6990 te kunnen verslaan omdat AMD op dit moment gewoon een betere performance per watt heeft (bij zowel de Barts als straks zeer waarschijnlijk Cayman). Ga je dus tot de limiet (300watt), dan zal AMD meer prestatie kunnen bieden. Een eventuele dual GF114 chip kaart zal te ver teruggeclockt moeten worden om snel genoeg te zijn denk ik...

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ligt er maar net aan, als er een chip op de planning zou staan zoals een gf114, en deze op full-spec net zoveel zou verbruiken, met hogere clocks, dan een gf104 zou die chip natuurlijk een fenomenale price/performance hebben. Al lijkt het me sterk dat nvidia de optimalisaties van de gf110 ook bij de gf104 kan uitvoeren, die chip loopt al aardig op zn grenzen op dat gebied denk ik.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Omdat ik het leuk vind om een nieuwe kaart te kopen als er weer wat uitkomt. En als je dan zorgt dat je je oude kaart op het goede moment verkoopt is dat ook niet zo duur.

anathema


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

De 480 zakt nu ook al in waarde na release van de 6870 btw. Die is langzamer, maar rust op een dergelijk comfortabel prijsniveau dat veel mensen kiezen voor de portomonnee en dan nog steeds A klasse performance hebben.

Ik denk echt dat prijzen boven de €200-€250 euro in het algemeen een soort psychologische barriere vormen. De prijsperceptie van "300" is meteen meer 'holy crap' voor Jan Leek. En als je ziet wat de prijs/watt/performance van de 6870 is ... dan zakt de GTX480 langzaam in waarde ja ;) .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Anoniem: 263922

De goedkoopste gtx480 is op dit moment 350 euro, dan ga je een tweedehandse natuurlijk niet meer kwijtraken voor die prijs. Heeft verder weinig te maken met de hd6870 met z'n gunstige verbruik tov een high-end kaart, maar met de opvolger in de vorm van de gtx580 die onder andere op dat gebied beter uit de verf komt dan de gtx480 en de nieuwe high-end kaarten van amd die op stapel staan.

Als je al voor een high-end kaart gaat shoppen ga je niet stilstaan bij een mid-range kaart met de gedachte van oh die is goedkoper maar ik kan nog steeds alles op medium spelen, er zijn ook mensen die voor cf of sli kiezen maar ieder met hun eigen reden. Jan leek zal niet gauw een nieuwe videokaart kopen, die koopt een complete pc en als die niet meer voldoet komt er een nieuwe.

Die psychologische barriere verschilt natuurlijk ook per persoon, iemand die als hobby aan z'n pc sleutelt/gamed zal sneller 500 euro neertellen voor een onderdeel dan iemand die suske en wiske strips verzamelt en af en toe een spelletje hartenjagen doet op de computer.

[ Voor 46% gewijzigd door Anoniem: 263922 op 14-11-2010 20:32 ]


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Ik denk inderdaad dat het niet met de HD6870 te maken heeft, kaarten van rond de 200 euro die de meeste spellen goed kunnen draaien is tegenwoordig niet zo vreemd meer. 8800GT, HD4870, HD5850 (vlak na release dan) en ook GTX460. De HD6850 en HD6870 doen dit zelfde nu inderdaad ook.

350 voor de GTX480 is al tijdje vrij stabiel, ik denk dat de GTX580 ook niet zoveel hier aan gaat veranderen aangezien die toch 100 euro duurder is. HD6950 en GTX570 daarentegen wel, want die zullen ook wel rond de 350 euro zitten of iets goedkoper..

anathema


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
http://semiaccurate.com/2010/11/15/nvidia-eols-gtx480/

GTX480 gaat EOL.

+

Echte TDP van GTX580 in furmark rond de 350watt.

http://www.fudzilla.com/g...ttles-the-gtx-580-back-up

[ Voor 48% gewijzigd door spNk op 15-11-2010 18:05 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
spNk schreef op maandag 15 november 2010 @ 18:03:
Echte TDP van GTX580 in furmark rond de 350watt.
Wat dus bewijst dat de Performance/Watt dus helemaal niet verbeterd is, maar nog steeds ongeveer even slecht is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Ik ben het niet met je eens....

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4008/33853.png
(389 - 421)/421 * 100% = daling van 7.6% wat betreft verbruik.

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4008/33813.png
(56.9-50.7)/50.7 * 100 = 12.2% stijging in performance.

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4008/33812.png
(38.1 - 32.7) / 32.7 * 100 = 16.5% stijging in performance.

Dus is de performance watt met 15 a 20% gestegen.

Wat ook redelijk klopt als je kijkt naar:
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/perfwatt_1920.gif
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/perfwatt_2560.gif

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Performance/watt relateer je inderdaad aan games, niet aan een stresstest als Furmark.

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat mag, maar een GTX480 neemt max zo'n 300 Watt, een GTX580 doet max 350 Watt, verschil is 17% en dat is ook ongeveer het verschil in prestaties.

Maar als jij graag het tegendeel wil bewijzen met tests waar de OCP nog gewoon ingeschakeld zit is het nog al moeilijk je gelijk te krijgen. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Waar het om gaat is dat in tests waar het verbruik onder het gamen wordt gemeten, de GTX580 zuiniger blijkt dan de 480. Dat het bord onder furmark alsnog belachelijk veel verbruikt is ruk, maar doet niets af aan real world tests.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Wie zegt dat de OCP op sommige momenten niet ingrijpt?

Dat zou zelf logisch zijn, gezien het verbruik dus wel degelijk een stuk hoger ligt.

[ Voor 44% gewijzigd door -The_Mask- op 15-11-2010 19:15 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Ik heb hier geen GTX580 liggen, maar ik verwacht dat een GTX580 ook gewoon minder dan de helft van een GTX5480's FPS haalt in Furmark. Als ze dat in games doen merk je dat bij de FPS ook wel.

[ Voor 3% gewijzigd door Paprika op 15-11-2010 19:19 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het idee van een OCP is dat die alleen ingrijpt op het moment dat het nodig is en dan de GPU is laat terug klokken dit ga je waarschijnlijk ook niet echt merken in games. Omdat die het dus maar op bepaalde momenten doet en niet continue.

[ Voor 16% gewijzigd door -The_Mask- op 15-11-2010 19:26 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Ik heb geen review kunnen vinden waar in games de minimum FPS lager ligt bij de GTX580 dan de GTX480, dus ik denk niet dat dat zal gebeuren...

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Waarom zou het ook alleen bij minimum fps moeten komen? Op momenten dat je erg lage fps hebt hoeft het niet zo te zijn dat de videokaart op zijn max wordt belast, kan door zoveel andere dingen komen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Ik bedoel dat als ie dan dus erg terug clockt hij dus sterk in performance moet afnemen? Als ie in die modus nog beter fps haalt dan een 5870..... *no comment*

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Maar stel je nu eens voor, er gaat wederom iets mis in een driverrelease van nVidia. De OCP functioneert voor onduidelijke redenen niet en je gaat leuk een spelletje spelen (denk Star Craft 2 bijvoorbeeld) en na een kwartiertje komt er rook uit je pc, omdat je videokaart in bepaalde situaties dus blijkbaar weldegelijk meer stroom (veel meer) kan trekken dan waarmee men adverteert.

De werkelijk mogenlijke stroomafname is vanuit dat oogpunt zeker niet onbelangrijk.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op maandag 15 november 2010 @ 20:12:
Maar stel je nu eens voor, er gaat wederom iets mis in een driverrelease van nVidia. De OCP functioneert voor onduidelijke redenen niet en je gaat leuk een spelletje spelen (denk Star Craft 2 bijvoorbeeld) en na een kwartiertje komt er rook uit je pc, omdat je videokaart in bepaalde situaties dus blijkbaar weldegelijk meer stroom (veel meer) kan trekken dan waarmee men adverteert.

De werkelijk mogenlijke stroomafname is vanuit dat oogpunt zeker niet onbelangrijk.
Je slaat de spijker precies op zijn kop, daarom bestaat er zoiets als een TDP.
Aan de hand van de TDP bepaalt men welke koeling er toegepast gaat worden.
Als men de TDP dus verkeerd afleest/meet omdat ze bijvoorbeeld de bovenste mediaan waarden van de hoogste waarneming nemen omdat dit in de praktijk toch zal voldoen...

De koeling zou dus ten alle tijden moeten voldoen of je die kaart nu een hele dag Furmark laat draaien of je zit gewoon idle. Achja wat boeit het ons eigenlijk ook, consequenties blijven voor nVidia ;)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Dan moeten ze die consequenties wel ruimhartig nemen. Zie chipgate.

Zoals ik hier eerder al betoogd heb, is een programma als Furmark wel degelijk erg relevant.
Het is natuurlijk leuk om naar een crysis verbruik benchmark te kijken maar hoe weet je of er volgende week niet een andere game op de markt komt die wel veel meer stroom trekt dan bijv. Crysis.
Precies, dat weet je niet.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik vraag me af wat Charlie hier op gaat zeggen...

Ik vraag me trouwens af hoe er gereageerd geweest zou zijn als Charlie hier mee kwam.
Het zou in dat geval natuurlijk niet waar zijn geweest ^^

Nu dit trouwens aan het licht komt twijfel ik of nVidia überhaupt wel retail modellen naar de reviewers heeft gestuurd. Dus geen "chery-picked" of met een andere BIOS. Momenteel is hier geen grond voor en ik hoop dat dit ook zo blijft want anders is het "succes" verhaal van de GTX580 ook meteen weer afgelopen alhoewel dat door de concurrentie ook wel zo zal zijn. Omdat een HD69xx op de stoep staat.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Nvidia zelf richt zich ook veel op GPGPU-taken, dat zijn wel zaken waarin de GPU meer zal kunnen verbruiken dan in games. Dat kan wel richting furmark gaan.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verder neem ik aan, omdat het logisch is, dat nVidia zelf uiteraard wel degelijk furmark achtige stresstests houdt. Ze zullen van hun eigen kaart wel willen weten wat ie maximaal aan kan. :p

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
madmaxnl schreef op maandag 15 november 2010 @ 20:48:

Ik vraag me trouwens af hoe er gereageerd geweest zou zijn als Charlie hier mee kwam.
Het zou in dat geval natuurlijk niet waar zijn geweest ^^
Waar slaat dat op? Het punt wat hier wel es wordt gemaakt dat Charlie ook wel eens geen gelijk heeft, niet dat hij nooit gelijk heeft.

Ik begrijp trouwens de discussie niet zo goed, het is toch al lang duidelijk dat de kaart wel boven de 300 watt kan komen? Anders zat OCP er niet op. De vraag is of games daar ooit in de buurt gaan komen, Nvidia denkt van niet blijkbaar anders hebben ze nogal een probleem..

anathema


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

-The_Mask- schreef op maandag 15 november 2010 @ 19:14:
Wie zegt dat de OCP op sommige momenten niet ingrijpt?

Dat zou zelf logisch zijn, gezien het verbruik dus wel degelijk een stuk hoger ligt.
Dat kan zijn,m aar dan nog is jouw originele stelling niet waar.
Wat dus bewijst dat de Performance/Watt dus helemaal niet verbeterd is, maar nog steeds ongeveer even slecht is.
Het max. verbruik van de plank is inderdaad nog steeds erg hoog. Misschien zelfs wel hoger dan GTX480. Echter, jij hebt het over performance/Watt. Als ik er een willekeurige review op nasla (in dit geval [H]):
In all honesty, I have not been able to see more than a couple of percent at best difference when playing games between the GTX 580 SLI and the GTX 480 SLI. The 480 SLI system would pull about 715 watts at the wall under load, and the 580 SLI system would pull about 700 watts under the same condition. So there is really no power savings with GTX compared to GTX 480, but the GTX 580 is sure more efficient about its usage.
Tijdens het gamen is het verbruik nipt minder, maar de performance is wel een stukje gestegen, ergo: Performace/Watt is verbeterd. 700W voor een SLi setup is nog steeds bizar veel, maar relatief gezien is het nu iets minder erg.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Edmin schreef op maandag 15 november 2010 @ 21:09:
Tijdens het gamen is het verbruik nipt minder, maar de performance is wel een stukje gestegen, ergo: Performace/Watt is verbeterd. 700W voor een SLi setup is nog steeds bizar veel, maar relatief gezien is het nu iets minder erg.
Dat is dus maar schijn door de OCP. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Wat maakt het uit hoe die besparing wordt gerealiseerd? Zo lang er met hetzelfde of minder verbruik meer frames uit worden gespuugd, zal het mij (en verder waarschijnlijk iedereen m.u.v. The_Mask) een rotzorg zijn hoe die besparing wordt gerealiseerd, toch? :?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik zou de replays hierboven allemaal nog even lezen misschien wordt het je dan wel duidelijk.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Nee, want jij stelt eerder:
Dat mag, maar een GTX480 neemt max zo'n 300 Watt, een GTX580 doet max 350 Watt, verschil is 17% en dat is ook ongeveer het verschil in prestaties.
Dat is een mooie stelling, maar zolang die 350W niet gemeten wordt onder de condities waaronder getest wordt, is het onzin. De reviews laten zien dat er tijdens het gamen gelijk of licht lager verbruik meer fps worden gehaald. daar heeft die 350W niets mee te maken. De rekensom die vipeax je voorschotelt is dan ook gewoon correct. Het omzeilen van de OCP laat mooi zien dat het bord in staat is veel meer power te trekken dan de opgegeven TDP, maar dat is tegelijkertijd irrelevant voor de Performance/Watt. OCP is er nu eenmaal. Zonder OCP zou de kaart onder maximale belasting waarschijnlijk nog meer fps halen, maar OCP houdt het verbruik binnen de perken.

Het is trouwens een reply. Replays zie ik tijdens de voetbal.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Hardocp review van GTX580 tegenover de 5970:

http://www.hardocp.com/ar...n_hd_5970_2gb_performance

Conclusie: 5970 heeft over het algemeen hogere framerates, maar met de GTX580 is op hogere instelling (hoge resoluties + 8x AA) vloeiend te spelen, waar de framerates van de 5970 te inconsistent zijn door het gebrek aan geheugen. :)
If you already have a Radeon HD 5970, keep it, it is a great card and you already know that if you own one. If you are on a lesser generation, and looking to upgrade right now, no question, get the GeForce GTX 580 if you have the cash. The extra money spent will pay off with its higher VRAM capacity, and higher level of consistent gameplay experience.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Edmin schreef op maandag 15 november 2010 @ 21:33:
Dat is een mooie stelling, maar zolang die 350W niet gemeten wordt onder de condities waaronder getest wordt, is het onzin. De reviews laten zien dat er tijdens het gamen gelijk of licht lager verbruik meer fps worden gehaald. daar heeft die 350W niets mee te maken.
Het probleem is dat het systeem gebruik lijkt te maken van file-herkenning. Bedenk dan ook dat reviews over het algemeen een erg beperkt aantal titels test. Wat nu als er wederom zo'n game komt als StarCraft II, die in het menu de kaart volledig belast, zonder dat een gebruiker dat direct doorheeft en zonder dat OCP inspringt? Dan is het blijkbaar dus mogelijk dat de GTX580 350Watt loopt te trekken. Ik weet niet wat voor effect dat kan hebben op een dergelijke kaart in een wat minder goed geventileerde kast, maar ik kan me indenken dat het problemen kan veroorzaken. Het is dus een uitermate riskante methode van nVidia om dit geheel via software te doen, omdat er in de toekomst wel eens games kunnen komen met 'foutjes'.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Eens, maar dat zegt niets over Performance/Watt ;)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Edmin schreef op maandag 15 november 2010 @ 22:51:
Eens, maar dat zegt niets over Performance/Watt ;)
Wel als beide kaarten 60fps halen, waarbij de GTX480 op 275 Watt blijft hangen en de GTX580 op 350 Watt :P Maar goed, punt is wel dat nVidia weer wat heeft zitten goochelen met cijfertjes. Al met al is de chip gemiddeld zo te zien zuiniger, waarschijnlijk door het toevoegen van optimalisaties die AMD al in de HD5k lijn heeft doorgevoerd naar aanleiding van HD4770. Maar dat de top nog een stuk hoger ligt, is dan weer akelig.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 20-06 09:56
Twee keer GTX 580 is ruk, drie keer is veel leuker :P Richting 1100W in Furmark, uit de muur dan wel... Schaling lijkt aardig te zijn.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Dus de review verschijnt eind deze week? :P

Acties:
  • 0 Henk 'm!

  • ABD
  • Registratie: Maart 2008
  • Laatst online: 19-06 18:23

ABD

Marc Rademaker schreef op dinsdag 16 november 2010 @ 08:32:
Twee keer GTX 580 is ruk, drie keer is veel leuker :P Richting 1100W in Furmark, uit de muur dan wel... Schaling lijkt aardig te zijn.
Dit is ook precies waar deze discussie aan voorbij gaat: een beetje benchmarker en hardcoregamer zou het een rotzorg zijn hoeveel watt zo'n kaart trekt; die klokken die dingen zelfs nog hoger. Die persoon koopt gewoon een zwaardere voeding. Alles om maar de hoogste framerates of scores tijdens benchmarking te halen. Dit zijn de mensen die die kaarten kopen.

Als het je gaat om de hoogste performance/watt kijk je niet naar een highend videokaart.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Uh, ik wil met 3 monitoren zeker wel een snelle kaart, maar dan kan ik 750 Watt aan grafisch verbruik toch teveel vinden? 1 kaart vind ik wel ok. Ik denk dat je er wel vanuit kunt gaan dat als je 750 Watt puur op het grafische vlak verbruikt, de rest van de pc ook wel 250 Watt verbruikt. Als je dan 5 uur per dag gamed zit je al op +/- 400 euro per jaar aan stroom.

Ik denk dat de meeste lezers van dit topic zijn of haar ouders niet blij zouden maken als ze dat hoorden ;).

MAAR redding is naderbij:
http://www.hardwareheaven...ew-power-temps-noise.html
Volgens deze review verbruikt een GTX580 maar 4 Watt meer dan een 5870. _O-

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-06 19:35
Paprika schreef op dinsdag 16 november 2010 @ 11:05:
Uh, ik wil met 3 monitoren zeker wel een snelle kaart, maar dan kan ik 750 Watt aan grafisch verbruik toch teveel vinden? 1 kaart vind ik wel ok. Ik denk dat je er wel vanuit kunt gaan dat als je 750 Watt puur op het grafische vlak verbruikt, de rest van de pc ook wel 250 Watt verbruikt. Als je dan 5 uur per dag gamed zit je al op +/- 400 euro per jaar aan stroom.

Ik denk dat de meeste lezers van dit topic zijn of haar ouders niet blij zouden maken als ze dat hoorden ;).

MAAR redding is naderbij:
http://www.hardwareheaven...ew-power-temps-noise.html
Volgens deze review verbruikt een GTX580 maar 4 Watt meer dan een 5870. _O-
ik weet niet wat jij voor stroom betaalt maar 400 euro is zwaar overdreven. Ik denk dat je voor 150 toch al erg je best moet doen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Zo is het, maar -The_Mask- is zowieso nogal anti-nvidia, neem ik hem natuurlijk niet kwalijk is ieder zn eigen keus, maar het is wel vervelend dat hij dan wat geruchten de wereld inhelpt waarvan weinig goed onderbouwd zijn.

Het blijft wel een feit dat die fermi chip een behoorlijk gulzige chip is, zelfs nu hij meer 'af' is dan tijdens de gtx480 launch, maargoed, 3 miljard transistors zijn er natuurlijk ook behoorlijk veel en dat vertaalt zich grotendeels naar het gebruikte vermogen. Dat is een keus die nvida gemaakt heeft met hun multi-purpose fermi chip waar ati een kleinere meer op gaming-gerichte chip heeft, is maar net welke markt de voorkeur krijgt. Ati heeft zowieso al jaren de underdog-stempel, waar nvidia de grote boze wolf is die de consumenten alleen maar een hak kan zetten, dan is het ook weer niet zo gek dat nvidia met zo'n chip komt die de professionele markt voorrang geeft.

Maar zoals ABD al aangeeft, als je naar de hoogste performance/watt ratio kijkt shop je niet voor een high-end videokaart, nu gebruikt de gtx480 behoorlijk veel maar met de hd2900xt was het niet anders. Van die videokaart zijn ook genoeg van verkocht door de prijs mooi af te stemmen op de markt, waar de gtx480 het niet veel slechter doet.

Acties:
  • 0 Henk 'm!

  • ABD
  • Registratie: Maart 2008
  • Laatst online: 19-06 18:23

ABD

Paprika schreef op dinsdag 16 november 2010 @ 11:05:
Als je dan 5 uur per dag gamed zit je al op +/- 400 euro per jaar aan stroom.
Dit argument stond ook in die hardware.info review. Men zou de hand niet omdraaien om een 980X aan te schaffen om 2 of 3 GTX580 kaartjes optimaal te laten draaien, maar €300 aan stroom op jaarbasis zou dan teveel zijn. Dat is kolder. Zo'n bedrag maakt je niets uit als je €4-5K uitgeeft aan je systeem. Het zou je i.i.g. niet moeten uitmaken, want het is maar een fractie wat je reeds uitgegeven hebt.

PS als je 5 uur per dag gamet, dan is gamen je leven, dus dan boeit die €0.20 per uur aan stroom je al helemaal niet. Mensen met een sociaal leven geven aan een cola of biertje in de kroeg meer uit.

[ Voor 14% gewijzigd door ABD op 16-11-2010 11:17 ]


Acties:
  • 0 Henk 'm!

Anoniem: 263922

haarbal schreef op dinsdag 16 november 2010 @ 11:11:
[...]


ik weet niet wat jij voor stroom betaalt maar 400 euro is zwaar overdreven. Ik denk dat je voor 150 toch al erg je best moet doen.
Idd, altijd die worst-case scenario's die toch nooit uitkomen, lijkt me sterk dat iemand 5 uur per dag gamed, dan heb je toch echt geen leven 8)7 (uitgesloten beroeps-gamers)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ABD schreef op dinsdag 16 november 2010 @ 11:14:
[...]


Dit argument stond ook in die hardware.info review. Men zou de hand niet omdraaien om een 980X aan te schaffen om 2 of 3 GTX580 kaartjes optimaal te laten draaien, maar €300 aan stroom op jaarbasis zou dan teveel zijn. Dat is kolder. Zo'n bedrag maakt je niets uit als je €4-5K uitgeeft aan je systeem. Het zou je i.i.g. niet moeten uitmaken, want het is maar een fractie wat je reeds uitgegeven hebt.

PS als je 5 uur per dag gamet, dan is gamen je leven, dus dan boeit die €0.20 per uur aan stroom je al helemaal niet. Mensen met een sociaal leven geven aan een cola of biertje in de kroeg meer uit.
Sorry hoor maar wat een vreselijke onzin redenering.

Omdat men iets graag en veel doet maken de kosten (en overige nadelen niet uit) niet uit :? 8)7

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Wat deze discussie over het OCP ook (imho) best nutteloos maakt is dat volgens mij er in de komende tijd echt geen games aan gaan komen die de gpu zo extreem belasten als Furmark.

Het zijn allemaal "wat als" argumenten die ik hier voorbij zie komen, want tot nu toe zie ik geen enkele aanleiding om aan te nemen dat het OCP niet zijn werk goed doet/ zal doen. :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Anoniem: 263922 schreef op dinsdag 16 november 2010 @ 11:18:
[...]


Idd, altijd die worst-case scenario's die toch nooit uitkomen, lijkt me sterk dat iemand 5 uur per dag gamed, dan heb je toch echt geen leven 8)7 (uitgesloten beroeps-gamers)
Bij 5 uur per dag kosten die kaarten je nog 0.50 euro per uur. Bij 1 uur per dag zit je op 3 euro per uur. Ik ga er wel vanuit dat als je zoiets koopt, je het ook gebruikt?

van 4 tot 6 zouden er al 2 zijn en van 8 tot 11 nog eens 3. Als je dat iedere dag haalt (en ja er zijn zat gebruikers op dit forum die dit halen.... zat) ben je er al gauw hoor.

Uiteraard weet iedereen mijn mening beter dan ikzelf, dus mijn excuses.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-06 19:35
Paprika schreef op dinsdag 16 november 2010 @ 11:36:
[...]

Bij 5 uur per dag kosten die kaarten je nog 0.50 euro per uur. Bij 1 uur per dag zit je op 3 euro per uur. Ik ga er wel vanuit dat als je zoiets koopt, je het ook gebruikt?

van 4 tot 6 zouden er al 2 zijn en van 8 tot 11 nog eens 3. Als je dat iedere dag haalt (en ja er zijn zat gebruikers op dit forum die dit halen.... zat) ben je er al gauw hoor.

Uiteraard weet iedereen mijn mening beter dan ikzelf, dus mijn excuses.
probeer 8 (idd eerder 20) cent per kilowattuur en reken je sommetje opnieuw uit. maar als nog gaat je pc geen kilowatt trekken.

[ Voor 5% gewijzigd door haarbal op 16-11-2010 11:50 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Uh, ik had het hier over de aanschaf prijs van een GTX580, niet de stroomkosten.

(PS: jij betaald geen energie­belasting?)

[ Voor 43% gewijzigd door Paprika op 16-11-2010 11:43 ]


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 13:18
Tyranium schreef op dinsdag 16 november 2010 @ 11:34:
Wat deze discussie over het OCP ook (imho) best nutteloos maakt is dat volgens mij er in de komende tijd echt geen games aan gaan komen die de gpu zo extreem belasten als Furmark.
Folding@home?
Is wel geen game, maar wel een real life app.

[ Voor 7% gewijzigd door Blastpe op 16-11-2010 11:42 ]


Acties:
  • 0 Henk 'm!

  • ABD
  • Registratie: Maart 2008
  • Laatst online: 19-06 18:23

ABD

Help!!!! schreef op dinsdag 16 november 2010 @ 11:29:
[...]

Sorry hoor maar wat een vreselijke onzin redenering.

Omdat men iets graag en veel doet maken de kosten (en overige nadelen niet uit) niet uit :? 8)7
Volgens mij kan jij niet zo goed redeneren: als je voor je hobby reeds vier tot vijfduizend euro hebt uitgegeven, dan maken een paar honderd extra aan stroomkosten je ook niet uit.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Een GTX580 werkt ook best goed met een i7 930 hoor. Dan ben je al klaar voor 1500 euro met 2 GTX580s....

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Blastpe schreef op dinsdag 16 november 2010 @ 11:41:
[...]


Folding@home?
Is wel geen game, maar wel een real life app.
En belast Folding@home je gpu net zo extreem (en constant) als Furmark dan? Ik zou het zelf niet weten, want heb het al heel lang niet meer gedraaid.

Acties:
  • 0 Henk 'm!

  • denheer
  • Registratie: Oktober 2004
  • Laatst online: 12-04 19:32
ABD schreef op dinsdag 16 november 2010 @ 11:45:
[...]


Volgens mij kan jij niet zo goed redeneren: als je voor je hobby reeds vier tot vijfduizend euro hebt uitgegeven, dan maken een paar honderd extra aan stroomkosten je ook niet uit.
Wat ik meestal zie bij mensen is dat ze niet in 1 keer de gehele machine aanschaffen maar dat ze hun huidige machine onderdeel voor onderdeel upgraden. Het ene jaar het moederboard, dan een half jaar later weer een nieuwe CPU, later wat meer geheugen erin prikken en dan eens per jaar een nieuwe videokaart.

Als je op zo'n manier regelmatig upgrade dan is een paar honderd euro per jaar aan extra stroomkosten opeens wel een hoge kostenpost, voor dat geld kan je namelijk een leuke upgrade kopen. Stel je verkoopt je oude videokaart voor 200 euro en een nieuwe voor 400 euro, dan kost die videokaart upgrade 200 euro.

Als je het zo bekijkt dan is het misschien beter te begrijpen waarom sommige mensen zo moeilijk doen over 'die paar honderd extra aan stroomkosten'.

Acties:
  • 0 Henk 'm!

  • ABD
  • Registratie: Maart 2008
  • Laatst online: 19-06 18:23

ABD

denheer schreef op dinsdag 16 november 2010 @ 12:10:
[...]


Wat ik meestal zie bij mensen is dat ze niet in 1 keer de gehele machine aanschaffen maar dat ze hun huidige machine onderdeel voor onderdeel upgraden. Het ene jaar het moederboard, dan een half jaar later weer een nieuwe CPU, later wat meer geheugen erin prikken en dan eens per jaar een nieuwe videokaart.

Als je op zo'n manier regelmatig upgrade dan is een paar honderd euro per jaar aan extra stroomkosten opeens wel een hoge kostenpost, voor dat geld kan je namelijk een leuke upgrade kopen. Stel je verkoopt je oude videokaart voor 200 euro en een nieuwe voor 400 euro, dan kost die videokaart upgrade 200 euro.

Als je het zo bekijkt dan is het misschien beter te begrijpen waarom sommige mensen zo moeilijk doen over 'die paar honderd extra aan stroomkosten'.
Het is niet een paar honderd per jaar extra, het is een paar honderd per jaar totaal en dan bij 4-5 uur per dagen gamen, wat echt heel erg veel is. Misschien als je begrijpt dat het op maandbasis €10-€15 extra is, dat je dan begrijpt waarom ik vind dat je raar doet als je redeneert dat het veel geld is. Je zit immers elke dag een halve werkdag te gamen. Wanneer je maandelijks 120-150 uur zit te gamen, dan is €10-€15 echt niet veel. Daar kan je niet eens een avondje per maand voor stappen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ABD schreef op dinsdag 16 november 2010 @ 11:45:
[...]


Volgens mij kan jij niet zo goed redeneren: als je voor je hobby reeds vier tot vijfduizend euro hebt uitgegeven, dan maken een paar honderd extra aan stroomkosten je ook niet uit.
haha :F

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • ABD
  • Registratie: Maart 2008
  • Laatst online: 19-06 18:23

ABD

Laat ik precies zo over jou denken. Als je een Lamborghini voor €500K koopt, ga je ook niet lopen miepen dat hij 1 op 4 loopt. Je koopt hem omdat hij bloedsnel is en omdat je daar van geniet.

[ Voor 31% gewijzigd door ABD op 16-11-2010 13:24 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Alleen rijd je niet dagelijks met je lambo itt het gebruiken van je pc om te gamen.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

spNk schreef op dinsdag 16 november 2010 @ 13:48:
Alleen rijd je niet dagelijks met je lambo itt het gebruiken van je pc om te gamen.
Wat een argument.. Ook neit iedereen gamed elke dag. En sommige mensen rijden net zo goed elke dag in hun lambo. Hij heeft ook een heel goed punt vind ik.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Een PC is ook meer idle dan dat je games draait...

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Modbreak:Het is nu afgelopen met de (al dan niet verkapte) flames. Eerste en laatste waarschuwing; wie nu nog de ander voor mentaal gebrekkig (of enige variant daarop) uitmaakt, gaat met een korte vakantie.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 20-06 09:56
Ik kan wel een vakantie gebruiken ? ;)

Maar alle gekheid op een stokje. In furmark zie ik een verbruik van bijna 1100W. Ingame zie ik 920-940W voorbij komen. Furmark vergt dus slechts iets meer van de gpu's dan een game. Deze vreemde implementatie van Nvidia vind ik dus nogal raar. Sowieso houden ze niemand voor de gek, want de meeste websites hebben wel een workaround gevonden of een ander programma om de gpu's maximaal aan het werk te zetten.

Als het nou eens echt zou werken, als in, maximaal 60fps, en dus ook echt minder verbruikt, maar nee, het ging Nvidia er enkel om dat het zou lijken alsof de videokaart erg zuinig is... En boeien dat je slechts een paar tientjes bespaart op je energierekening. Je laat je lampen toch ook niet onnodig aanstaan? Elke energiebesparing (en opwarming van je kamer) is mooi meegenomen lijkt me.

Op technisch vlak kun je verder redeneren dat een hoge perf/w ook een goed teken is. Dan kunnen ze straks immers steeds meer prestaties bieden binnen de pci-e spec van 300W.

[ Voor 22% gewijzigd door Marc Rademaker op 16-11-2010 15:23 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Edmin schreef op maandag 15 november 2010 @ 21:33:
Het is trouwens een reply. Replays zie ik tijdens de voetbal.

Het is trouwens het voetbal :)

Over het verbruik: stroomkosten vind ik niet zo'n ramp, het nadeel van een onzuinige kaart lijkt me eerder de warmte, zeker bij een SLI-opstelling waar het (o.a.) over gaat. Is wel op te vangen met een goede koeler, maar 1100W krijg je gewoon niet even weg. Is mee te leven, maar 1100W aan warmte is gewoon erg veel.

Het voordeel van de GTX580 t.o.v. de GTX480 dat een nieuwe high-end koper geen last meer heeft van een te hoog idle verbruik, nog steeds wel hoog maar de GTX480 was echt gewoon te veel.

[ Voor 53% gewijzigd door bwerg op 16-11-2010 15:56 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 20-06 14:01

Darkasantion

Just keep swimming!

Ik denk dat de belangrijkste vraag is, als de OCP-beveiliging bij de GTX580 weg is, geeft ie dan in het algemene meer FPS, en zo ja, hoeveelmeer verbruikt ie dan? Dat moet je dan vergelijken met de GTX480 en dien's FPS/verbruik en volgens mij geeft die nog altijd minder Perf/Watt dan de GTX580, met of zonder OCP.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Paprika schreef op dinsdag 16 november 2010 @ 11:05:
Uh, ik wil met 3 monitoren zeker wel een snelle kaart, maar dan kan ik 750 Watt aan grafisch verbruik toch teveel vinden? 1 kaart vind ik wel ok. Ik denk dat je er wel vanuit kunt gaan dat als je 750 Watt puur op het grafische vlak verbruikt, de rest van de pc ook wel 250 Watt verbruikt. Als je dan 5 uur per dag gamed zit je al op +/- 400 euro per jaar aan stroom.

Ik denk dat de meeste lezers van dit topic zijn of haar ouders niet blij zouden maken als ze dat hoorden ;).

MAAR redding is naderbij:
http://www.hardwareheaven...ew-power-temps-noise.html
Volgens deze review verbruikt een GTX580 maar 4 Watt meer dan een 5870. _O-
WTF, gold en performance award ?
Performance is al geen 10 punten omdat de HD5970 gewoon sneller is en al een jaar op de markt is !!!
De 9 punten voor value zal ook wel doorgestoken kaart zijn om te zorgen dat die kaart een gold award kan opstrijken. Wat een keiharde faal :/

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Dat ze daar niet helemaal zuiver op de graat zijn, blijkt wel in de discussiedraad. Iemand heeft commentaar op het gebrek aan vergelijkingen met HD6870CF, http://www.hardwareheaven...eview-hh.html#post1386548. Het commetnaar van de crew:
Morning Ramon, thanks for your post I hope you feel better after your rant... its almost like you want a 580 so bad but dont have one and so our little review took the brunt of your rage
:O

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-06 19:35
Het is vooral raar dat ze de value score zo hoog leggen. Dat kan je gewoon prima zo doen: voor alle kaarten prijs/fps nemen, de beste 100% nemen. Desnoods een puntje plus of min voor haperingen/herrie/whatever.

Maar boeie, als je het geld hebt is een stel 580's gewoon de beste keus om op belachelijke resoluties maxxed out te gaan gamen.

[ Voor 23% gewijzigd door haarbal op 16-11-2010 17:01 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 20-06 14:01

Darkasantion

Just keep swimming!

Edmin schreef op dinsdag 16 november 2010 @ 16:47:
Dat ze daar niet helemaal zuiver op de graat zijn, blijkt wel in de discussiedraad. Iemand heeft commentaar op het gebrek aan vergelijkingen met HD6870CF, http://www.hardwareheaven...eview-hh.html#post1386548. Het commetnaar van de crew:

[...]

:O
Ach, ze zeggen ook dat een 6870 niet vergelijkbaar materiaal is, omdat je vanaf die niet upgraded... Nee, maar wat als je een HD5870 of GTX480 hebt en een van de 2 overweegt als upgrade? Vind de argumentatie erg slecht van die gasten.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Ook in review land heb je capabele en minder capabele mensen. Simpel, hardwareheaven slaat de plank een keer mis; maar laat helaas in de reacties hun kinderlijkheid van redeneren zien. Gewoon voortaan niet meer bekijken :) .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Wanneer komen we met een "certified reviewer logo ?" ;)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Die bestaat al, alleen heeft nVidia er geen logo voor gemaakt....

Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 10:36

Herman

FP ProMod
Edmin schreef op dinsdag 16 november 2010 @ 16:47:
Dat ze daar niet helemaal zuiver op de graat zijn, blijkt wel in de discussiedraad. Iemand heeft commentaar op het gebrek aan vergelijkingen met HD6870CF, http://www.hardwareheaven...eview-hh.html#post1386548. Het commetnaar van de crew:

[...]

:O
Als ik het zo lees (correct me if i'm wrong) is het niet dat de argumenten overboord worden gegooid, maar er werd gelijk, zonder hoor en wederhoor, aan de integriteit getwijfeld van de reviewer. Dat zou men hier op Tweakers ook niet waarderen. Stel je draagt een mogelijk gebrek aan van een review van Tweakers en impliceert gelijk dat het opzettelijk zou kunnen zijn geweest. Dat is m.i ook niet netjes.

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
Uh, de persoon die die reactie ontving had net een goed onderbouwde reactie.
The **obvious** contender to the 580 is the 5970, NOT the 5870. Nobody cares how much you are a "firm believer" in single GPU VS single GPU review. How AMD implement their video card technology is not open for pseudo philosophical debate that only exist in your head. The 5970, a year old product, is still the raw power king of single and dual video card setup, period.

As for the price/performance/power ratio perspective, I would have liked to see some 6870 Crossfire action against a single 580.

Cheapest 6870 at newegg.com: 239$X2 = 478$

Cheapest 580 at newegg.com: 559$

The 6870 combo cost 15% less. Presumably eat less power at both idle and under load. Has better thermal. Has much better tessellation than the 5870. Scale much better in Crossfire than the 5870. Is a better deal than the cheapest (499$) 5970.

So in the end, this article completely miss the point of adequately inform an eventual 580 buyer. The 580 is great and all, but it doesn't exist on its own and by itself: There are good alternative and you clearly failed at properly identity those alternatives in the same price range.

Comparing it against last year failed attempt, namely the 480, I can understand. But the 5870, which belong to a completely different price bracket instead of the 5970? And no inclusion of 6870 Crossfire? Omission of both, intentionally or not, was not a very bright move. 460 and 470 SLI should have been provided as well.

And don't try the ""we gave you 2 benchmark result" argument for the 5970. Not even close to good since the 5870, at 299.00$ (269.00$ with rebate) had clearly no business there in the first place against a 559$ card. At least, full benchmark result should have been provided for both the 5970 and the 6870 CF along with the 5870. As a matter of fact, the 460 and 470 SLI are both a better buy than the 580 as it is now.

The way you put it, the 580 wipes the floor with AMD and that's clearly not representative of the actual reality we all live in.

I have only 1 question for you: What is the best GPU performance/power/thermal you can get out of a 478$ to 559$ budget, right now? It's clearly not the 580. And both Cayman and Antilles are not even added to this equation yet.

On its own, the 580 is a marvelous piece of technology. The problem is the 460 SLI, the 470 SLI, the 6870 CF and the 5970 are probaly all a better buy but we will never know it since you didn't presented their respective results along with the 580. I would have loved to see a 5970 in Crossfire totally destroy the 580 in SLI, but that will have to wait I guess.... I wonder who would win: Triple 580 or dual 5970?


Ramon

Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 10:36

Herman

FP ProMod
Paprika schreef op dinsdag 16 november 2010 @ 19:09:
Uh, de persoon die die reactie ontving had net een goed onderbouwde reactie.


[...]
Omission of both, intentionally or not, was not a very bright move.
Hier wordt (volgens mij) al of niet bewuste nalatigheid verweten.
Dat is nogal wat...

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-06 17:55
En welk deel klopt daar niet? Er zitten 3 kaarten in de review, een vergelijking met 2 kaarten die beide goedkoper zijn, een max power die 120 watt er naast zit... etc

Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 10:36

Herman

FP ProMod
Paprika schreef op dinsdag 16 november 2010 @ 19:19:
En welk deel klopt daar niet? Er zitten 3 kaarten in de review, een vergelijking met 2 kaarten die beide goedkoper zijn, een max power die 120 watt er naast zit... etc
Begrijp me niet verkeerd, ik ben het eens met het commentaar. Maar twijfelen of de nalatigheid bewust is, nog voor een eventueel antwoord, is niet netjes. Dat is dus twijfelen aan de integriteit. En vandaar (volgens mij) dat er zo hard op wordt gereageerd (Daar wijzen de reacties eronder ook op).

[ Voor 11% gewijzigd door Herman op 16-11-2010 19:26 ]

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Edmin schreef op dinsdag 16 november 2010 @ 16:47:
Dat ze daar niet helemaal zuiver op de graat zijn, blijkt wel in de discussiedraad. Iemand heeft commentaar op het gebrek aan vergelijkingen met HD6870CF, http://www.hardwareheaven...eview-hh.html#post1386548. Het commetnaar van de crew:

[...]

:O
Dat was natuurlijk niet helemaal z'n hele reactie... Maar idd, is beetje kinderachtig en die Ramon had zeker een aantal goede punten.

Het punt dat de prijs/performance niet goed is, is eigenlijk altijd het geval voor top high-end kaarten. Dat zag je ook bij de HD5870; een HD5770 in CF is zeker even snel en veel goedkoper, maar dat maakt de HD5870 niet gelijk een slechte kaart...

Zat me ook gelijk af te vragen hoe ze het gaan doen bij AMD met de HD5970. Want als we er vanuit gaan dat de HD6970 (die in december komt) sneller gaat zijn als de GTX580, dan is ie dus zeker even snel als de HD5970, zo niet sneller... Dat maakt de HD5970 in één klap onverkoopbaar terwijl z'n opvolger (Antilles) pas in Q1 2011 komt. Das wel een beetje vervelend voor ze.

Acties:
  • 0 Henk 'm!

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 12:30
Er waren ook geruchten dat de 6970 is uitgesteld, omdat er een te grote stock van de 5970 was. Amd zou eerst de 5970 willen verlopen en daarna de 6970 op de markt brengen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het kan best dat ze nog wel wat veel HD5970 kaarten hebben liggen die ze nu toch nog net even wat langer kunnen slijten omdat dat HD69xx serie even uitblijft maar het is zeker geen bewuste zet.

Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 10:36

Herman

FP ProMod
Ik weet niet of het nieuwswaarde heeft maar ik zie dat er vandaag 3Way SLI benchmarks van de GTX 580 online zijn gezet op Tweakers. GTX 580 SLI X3 benchmarks

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Grappig, als je naar bijv. FC2 kijkt is daar toch een serieus CPU bottleneckje aanwezig! Ook bij BC2 en Dirt2 denk ik dat de CPU wat te kort komt. Kortom, een i7 richting de 4.5Ghz heeft dan wel degelijk nut...
Maarja, denk dat er maar weinig mensen zijn die 3x zo'n jongen aanschaffen. In SLI met twee kaarten kan ik me nog wat bij voorstellen, maar ook dan zal een goede overclock op de i7 geen kwaad kunnen.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 20-06 09:56
Anoniem: 245699 schreef op woensdag 17 november 2010 @ 18:33:
Grappig, als je naar bijv. FC2 kijkt is daar toch een serieus CPU bottleneckje aanwezig! Ook bij BC2 en Dirt2 denk ik dat de CPU wat te kort komt. Kortom, een i7 richting de 4.5Ghz heeft dan wel degelijk nut...
Maarja, denk dat er maar weinig mensen zijn die 3x zo'n jongen aanschaffen. In SLI met twee kaarten kan ik me nog wat bij voorstellen, maar ook dan zal een goede overclock op de i7 geen kwaad kunnen.
Hey, ik ben nog bezig met het invoeren van de testresultaten :P

De review gaat waarschijnlijk dit weekend online. Soms zie je inderdaad een cpu-bottleneck, maar ik heb het idee dat er soms ook schalings-problemen zijn. Ik heb nog niet heel goed naar de resultaten gekeken, maar het is me ook ergens opgevallen dat 2560x1600 met 8xAA sneller is dan met 4xAA...

Ik heb ook nog wat GTX 580 SLI resultaten met een gulftown (stock clocks) en uiteraard ook met een core i7 920 @ 3,8GHz (standaard benchsysteem). Mocht een spel multithreaded zijn, dan zien we vanzelf of er een cpu-bottleneck is...

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Anoniem: 245699 schreef op woensdag 17 november 2010 @ 18:33:
Grappig, als je naar bijv. FC2 kijkt is daar toch een serieus CPU bottleneckje aanwezig! Ook bij BC2 en Dirt2 denk ik dat de CPU wat te kort komt. Kortom, een i7 richting de 4.5Ghz heeft dan wel degelijk nut...
Maarja, denk dat er maar weinig mensen zijn die 3x zo'n jongen aanschaffen. In SLI met twee kaarten kan ik me nog wat bij voorstellen, maar ook dan zal een goede overclock op de i7 geen kwaad kunnen.
Of de cpu nu op 3,8 of op 4,5ghz draait; veelal heb je toch framerates die ver boven de 60fps zitten. Je kan dan imho beter spreken van grafische overkill dan een cpu bottleneck. Naar mijn mening is een cpu bottleneck pas lastig als je te lage framerates haalt. En dat is met GTX580 SLI/ Tri SLivolgens mij niet aan de orde in 99% van de hedendaagse games.

Met een snellere cpu zou je misschien wel 150 ipv 120 fps halen. Maar of dat nu echt een kwalijke bottleneck is?

[ Voor 6% gewijzigd door Format-C op 18-11-2010 07:44 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Anoniem: 245699

Marc Rademaker schreef op woensdag 17 november 2010 @ 22:21:
[...]

Hey, ik ben nog bezig met het invoeren van de testresultaten :P
Was zeker geen kritiek op jou natuurlijk! Eerder op het feit dat hedendaagse cpu's het videokaartgeweld niet kunnen bijbenen als ze gebundeld worden (SLI/CF). Verder zijn de drivers voor de GTX580 in SLI idd nog niet top als ik zo ook kijk bij andere reviews. Schaling lijkt slechter als bij de GTX480, zeker als je kijkt naar bijv. FC2. Als ik zo vij mag zijn even een verwijzingkje naar de buren te geven waar ze toendertijd de GTX480 in tri-SLI hebben getest; http://nl.hardware.info/r...test-benchmarks-far-cry-2
Maar wel tof dat jullie ook tri-SLI gaan draaien en de Gulftown ook gaan gebruiken om wat verschillen te bekijken. Nice!
@Format-C; Ja, je hebt zeker een punt hoor. Maar toch frapant dat je met een flink overclockte high-end cpu nog steeds niet genoeg kracht hebt om alles eruit te halen.

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 20-06 16:07

superwashandje

grofheid alom

Anoniem: 245699 schreef op donderdag 18 november 2010 @ 12:36:
[...]

Schaling lijkt slechter als bij de GTX480, zeker als je kijkt naar bijv. FC2. Als ik zo vij mag zijn even een verwijzingkje naar de buren te geven waar ze toendertijd de GTX480 in tri-SLI hebben getest; http://nl.hardware.info/r...test-benchmarks-far-cry-2
is de schaling wel goed te bepalen als je met een cpu bottleneck zit?(sowieso tussen verschillende systemen..)

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • Herman
  • Registratie: December 2009
  • Laatst online: 10:36

Herman

FP ProMod
Anoniem: 245699 schreef op donderdag 18 november 2010 @ 12:36:
(...)
Eerder op het feit dat hedendaagse cpu's het videokaartgeweld niet kunnen bijbenen als ze gebundeld worden (SLI/CF).
Zou een dual-socket MoBo (bijv. EVGA dual-socket 1366) met twee OC Xeon's betere testresultaten geven met tri SLI GTX 580, en dus een beter platfom zijn?

(Geen kritiek op Tweakers, maar ik vraag me af hoe je alles uit zo'n tri-SLI opstelling zou kunnen halen)

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Nee, want het aantal games dat écht meer dan twee cores gebruikt is nog steeds op 1 hand te tellen. Dat zal helaas zo blijven totdat de volgende generatie "Next-gen" consoles uitkomt. Jammer genoeg is dat voor ons meestal vrij rap "Prev-gen", als dat al niet zo is bij de launch van die dingen.

De enige manier om enige CPU bottleneck echt uit te sluiten met de huidige generatie games zou om een enkele CPU met 3 of 4 cores (om die paar games toch tegemoet te komen) te klokken op een 10 GHz ofzo ;)

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Herman87 schreef op donderdag 18 november 2010 @ 14:15:
[...]


maar ik vraag me af hoe je alles uit zo'n tri-SLI opstelling zou kunnen halen)
8x Supersampling AA en 16xHQAF gebruiken op een resolutie van 7680x1600 (3 monitoren met 2560x1600 resolutie). Dan kom je een heel eind... :)

[ Voor 6% gewijzigd door Format-C op 18-11-2010 16:02 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Is er eigenlijk tegenwoordig een database die ECHT up to date gehouden wordt met GPU test results? Guru3d en tomshardware chart lopen achter de feiten aan en updaten ook veel te weinig. Een soort van game/vantage/uniheaven chart?

De meeste mensen deugen!

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.