[Algemeen] nVidia Nieuwdiscussie Topic - Deel 52 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 11 Laatste
Acties:
  • 28.699 views

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op zaterdag 02 april 2011 @ 16:30:
Hoe het precies werkt weet ik niet,
Maar je claimt eerder wel te weten dat het zo werkt..
Het probleem is dat we gewoon niet weten met welke variabelen en interne tabellen power- en thermal management op die kaarten allemaal werkt... en daarnaast ook niet weten onder welke omstandigheden precies wat gebeurd. Elke educated guess is min of meer nattevingerwerk, gezien we gewoon niet alle informatie hebben.
Juist, we weten het niet.

Misschien dat we in de (nabije) toekomst mooie artikelen kunnen lezen die dit mooi uitleggen.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
enkel een educated guess is idd nattevingerwerk. Het is dan ook de bedoeling dat je hem gaat proberen te bewijzen. Als dat lukt dan kun je namelijk een aantal variabelen achterhalen. Deze black box kunnen we vast niet helemaal kraken, zeker niet als we hem niet zelf in handen hebben. Ik vind het persoonlijk een interessant object waarbij ik hem juist wil proberen te kraken als dat lukt :)

De ene hackt software, de ander probeert de geheime delen van een GPU te achterhalen :)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah, je claimt dat OCP pas inschakelt (je gaat daar in ieder geval van uit) door de test van Hardware.fr, omdat hun GTX590 tot 458 Watt trok en niet stuk ging. Je legt echter verbindingen die niet zomaar te leggen zijn. Ten eerste stelt Hardware.fr dat OCP nu overal op reageert, met uitzondering van de speciale versie van Furmark die ze hebben. Ze zeggen dus dat OCP NIET werkt in die test.

Door je 'claim' zijn er vervolgens wel anderen die ook maar gaan melden dat OCP blijkbaar bij 450 Watt, zonder verdere bewijsvoering. Als we de boel gaan bekijken, dan komen we er in ieder geval achter dat het allemaal wel erg krap is.

Kijken we naar verbruik van het geheugen, dan kom je niet veel verder dan 130Watt op maximum vermogen.

Extremetech spreekt over ~2.5Watt verbruik, maar is onduidelijk over het type GDDR5, een pagina van Samsung heeft het over ~11,8Watt verbruik voor 1.5V 2Gb chips met een 256-bit interface (4 chips?). Als je dan 12 chips a ~3 Watt hebt, dan kom je dus op ~36 Watt. Nu zou het kunnen dat het geheugen nog wel wat meer verbruikt, maar we moeten het niet in de honderden Watts gaan zoeken, temeer aangezien nVidia laaggeklokt GDDR5 gebruikt. Als het ook nog eens op 1.35V draait, wordt het verbruik ook nog eens lager.

Edit: (Nog even de Samsung site terug gezocht en extra aandachtig doorgelezen)

Als je ~36 van de 458 aftrekt, kom je op verbruik voor de GPU van 422 Watt. We zijn al tot de conclusie gekomen dat de VRM voor de GPU eigenlijk niet meer dan 150 Watt per GPU kan verdragen op langdurig gebruik. Je komt dus 61Watt per GPU te kort om continu vol te belasten in dit geval. Het lijkt me erg sterk dat OCP een situatie laat bestaan waarbij componenten continu boven maximale belasting blijven draaien.

[ Voor 13% gewijzigd door dahakon op 02-04-2011 19:41 . Reden: cijfertjes wat aangepast na teruglezen van wat achtergrond informatie ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
dahakon schreef op zaterdag 02 april 2011 @ 19:10:
Cheetah, je claimt dat OCP pas inschakelt (je gaat daar in ieder geval van uit) door de test van Hardware.fr, omdat hun GTX590 tot 458 Watt trok en niet stuk ging. Je legt echter verbindingen die niet zomaar te leggen zijn. Ten eerste stelt Hardware.fr dat OCP nu overal op reageert, met uitzondering van de speciale versie van Furmark die ze hebben. Ze zeggen dus dat OCP NIET werkt in die test.

Door je 'claim' zijn er vervolgens wel anderen die ook maar gaan melden dat OCP blijkbaar bij 450 Watt, zonder verdere bewijsvoering. Als we de boel gaan bekijken, dan komen we er in ieder geval achter dat het allemaal wel erg krap is.

Kijken we naar verbruik van het geheugen, dan kom je niet veel verder dan 130Watt op maximum vermogen.

Extremetech spreekt over ~2.5Watt verbruik, maar is onduidelijk over het type GDDR5, een pagina van Samsung heeft het over ~11,8Watt verbruik voor 1.5V 2Gb chips met een 256-bit interface (4 chips?). Als je dan 12 chips a ~3 Watt hebt, dan kom je dus op ~36 Watt. Nu zou het kunnen dat het geheugen nog wel wat meer verbruikt, maar we moeten het niet in de honderden Watts gaan zoeken, temeer aangezien nVidia laaggeklokt GDDR5 gebruikt. Als het ook nog eens op 1.35V draait, wordt het verbruik ook nog eens lager.

Edit: (Nog even de Samsung site terug gezocht en extra aandachtig doorgelezen)

Als je ~36 van de 458 aftrekt, kom je op verbruik voor de GPU van 422 Watt. We zijn al tot de conclusie gekomen dat de VRM voor de GPU eigenlijk niet meer dan 150 Watt per GPU kan verdragen op langdurig gebruik. Je komt dus 61Watt per GPU te kort om continu vol te belasten in dit geval. Het lijkt me erg sterk dat OCP een situatie laat bestaan waarbij componenten continu boven maximale belasting blijven draaien.
Oeh nice dat je wat cijfers over het geheugen hebt wat ik miste. Ik gokte zelf al op max 100W en dat lijkt wel te kloppen dan. 3*24 = 72W.

Tellen we daar de VRM voor het geheugen nog bij en we gaan mooi richting de 100W. Dan kunnen we daar wellicht nog wat componenten in kwijt. De MOSFET's voor de GPU mis je nog wel Dahakon. Deze doen bij 30A op 1V zo'n 5W verspelen, dus die gooien met zijn tienen nog 50W weg. Blijft er 458-150 = 308W over voor de GPU's zelf.

Nvidia geeft al aan dat de GF110 max 0,96V zou moeten doen. Ik neem die max, omdat dat nog het positiefst uitkomt voor de MOSFET. 0,96V * 35A * 10 MOSFET's = 336W. Als ik echter de stock 0,916V pak dan houden we het op 321W. Het lijkt me duidelijk dat de GF110 dan met nog zo'n 13-28W nog net binnen de marge blijft.

De cijfers even met de note dat ik het heel losjes uitreken en aan de hand van de informatie een goede educated guess maak van het verbruik. Een warmere MOSFET kan bv 6W gebruiken, reken maar na dat de marge dan nog maar 3W zou zijn. Ik geef mijn vlotte berekening dan ook een errormarge van +- 25W

@Dahakon, volgens mij heeft de GTX590 24 geheugenchips. 12 aan d bovenkant, 12 aan de onderkant.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
GENETX schreef op zaterdag 02 april 2011 @ 20:11:
@Dahakon, volgens mij heeft de GTX590 24 geheugenchips. 12 aan d bovenkant, 12 aan de onderkant.
Klopt, daar had ik me even verrekend. Maar als ik me niet vergis, verbruiken 1Gb chips iets minder dan 2Gb chips (scheelt misschien maar 0.5 Watt, maar over 24 chips is dat nog altijd 12 Watt). Bovendien is het extreem laag geklokt geheugen en is er momenteel veel 1.35V geheugen beschikbaar. Maar als we van het ergste uit gaan, dan zit je inderdaad zo rond de 72Watt (of 60Watt als we van de 2.5Watt voor 1Gb chips uitgaan) voor het geheugen (Mosfets idd niet meegerekend).

Je moet je verder afvragen of de mosfets van het geheugen zoveel verbruiken. Het kan best wel eens ophouden bij 2-3 Watt per stuk voor de mosfets van het geheugen. Hoe dan ook, het is margewerk en in het meest positieve geval zit de VRM voor de GPU's dus op zijn tax, niet iets wat je voor langere duur wilt hebben.

[ Voor 18% gewijzigd door dahakon op 02-04-2011 21:20 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zaterdag 02 april 2011 @ 16:39:
Ben ik het met je op alle punten eens.
Nice dat we dat punt toch bereikt hebben samen :)

Ik had wat opmerkingen bij hierbovenstaand, maar laat eigenlijk ook maar. Je berekening lijkt me op het eerste oog wel redelijk, en dit blijft eindeloos speculeren anders. De exacte getallen krijgen we toch nooit in handen (helaas).
dahakon schreef op zaterdag 02 april 2011 @ 20:35:
[...] zit de VRM voor de GPU's dus op zijn tax, niet iets wat je voor langere duur wilt hebben.
Dit is blijkbaar inderdaad zo bij dat verbruik van ~450W (en duidelijk niet al bij standaardverbruik binnen TDP, zoals eerder beweerd werd). En daar wil ik inderdaad prima in meegaan... vandaar dat de kaart daar blijkbaar vanuit het bios-powermanagement ook gecapped wordt :)

offtopic:
volgens mij ga ik bij een volgende videokaartrelease me niet meer in dit topic vertonen en wat leukers doen met m'n tijd 8)7

[ Voor 175% gewijzigd door Cheetah op 03-04-2011 02:48 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
dahakon schreef op zaterdag 02 april 2011 @ 20:35:
Je moet je verder afvragen of de mosfets van het geheugen zoveel verbruiken. Het kan best wel eens ophouden bij 2-3 Watt per stuk voor de mosfets van het geheugen. Hoe dan ook, het is margewerk en in het meest positieve geval zit de VRM voor de GPU's dus op zijn tax, niet iets wat je voor langere duur wilt hebben.
True, maar er zijn nog andere componententen. Stel dat je 20-25W overhoud van die 100W die we voor geheugen hebben, die kun je nog wel kwijt in verliezen elders, in kleine componentjes. Op zichzelf gebruiken ze bijna niks, maar als geheel. Het is alleen niet te doen om dat uit te rekenen. Vandaar dat ik zelf ook een marge van +-25W aanhoud.

@Cheetah, mooi hè dat dat kan op het web :P
Maar dan is het iig nog wel zorgelijk. Want de kaart zou normaal in het geval moeten lopen zoals op Tech Report. Het verbruik bij gamen gaat dus wel richting die 450W, zal wat minder zijn (420-430W gok ik). Het lijkt er op dat Nvidia met OCP echt alles uit die MOSFET's wil halen wat mogelijk is en eigenlijk geen marge overhoud, iig een hele kleine maar.

En ik denk idd dat we daar onze conclusie moeten houden: Het past net. Bij extreme langdurige situaties, hogere temps, een minder MOSFET kan er dan mogelijk eentje gaan vliegen. Het zal niet veel gebeuren gok ik zo idd. Ik hoop het iig niet meer na die laatste driver update. Jammer dat ze niet even 2 extra MOSFET's hebben genomen, want dan was alles gewoon safe geweest.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zondag 03 april 2011 @ 09:28:
Maar dan is het iig nog wel zorgelijk. Want de kaart zou normaal in het geval moeten lopen zoals op Tech Report. Het verbruik bij gamen gaat dus wel richting die 450W, zal wat minder zijn (420-430W gok ik).
Bij TechReport moet je nog wel het systeem van het verbruik aftrekken. Een high-end systeem under load zit zonder grafische kaart ook al snel op ~150-180W denk ik. De 590 loopt i.i.g. op hun WICKED (overklok/overvolt) instelling dus wel ruim boven TDP (schatting: ~430-470W), maar op stock waarschijnlijk niet of nauwelijks...
Ook jammer dat we daar de exacte getallen van het systeemverbruik niet hebben. Blijft n btje nattevingerwerk.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op zondag 03 april 2011 @ 10:13:
[...]
Bij TechReport moet je nog wel het systeem van het verbruik aftrekken. Een high-end systeem under load zit zonder grafische kaart ook al snel op ~150-180W denk ik. De 590 loopt i.i.g. op hun WICKED (overklok/overvolt) instelling dus wel ruim boven TDP (schatting: ~430-470W), maar op stock waarschijnlijk niet of nauwelijks...
Ook jammer dat we daar de exacte getallen van het systeemverbruik niet hebben. Blijft n btje nattevingerwerk.
Let eens op de HD6990. Dat vind ik het vreemde Die doet dik 40W minder, terwijl ook AMD alles uit zijn 375W TDP zou moeten halen met PowerTune. Als AMD op zijn max zit dan is het dus 375W + 44W = 419W voor stock.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zondag 03 april 2011 @ 10:26:
Let eens op de HD6990. Dat vind ik het vreemde Die doet dik 40W minder, terwijl ook AMD alles uit zijn 375W TDP zou moeten halen met PowerTune. Als AMD op zijn max zit dan is het dus 375W + 44W = 419W voor stock.
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Zeus
  • Registratie: Juni 2003
  • Laatst online: 11:47
Cheetah schreef op zondag 03 april 2011 @ 10:31:
[...]
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)
Als ik het goed begrijp denk jij dat de AMD een andere intepretatie geeft aan een hardwarematige TDP limiet?
Dus AMD zit ongeveer 40 watt onder de PCI-sig standaard?

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op zondag 03 april 2011 @ 10:31:
[...]
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)
Tsja, het lijkt me dat AMD max 375W doet hoor :P . Anders zou het voor Nvidia alleen maar erger worden ;)

Met Zeus dus. Anders zou AUSUM sowieo ook geen zin hebben. Juist AUSUM geeft wel aan dat de AMD HD6990 nog een stuk verder kan en dat het spel niet de bottleneck is voor de kaart waardoor het verbruik ineens rond de 300W voor de HD6990 zou zitten.

[ Voor 28% gewijzigd door GENETX op 03-04-2011 11:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Met oudere drivers gaan de punten van 2000 naar 4000 in furmark ook gaat de fan een heel stuk sneller draaien om rond de 90 graden te blijven, Ik heb dan OCP niet aangevinkt.
Ik wou dit gisteren nog even posten maar mijn internet lag er uit.

[ Voor 95% gewijzigd door Anoniem: 304087 op 03-04-2011 12:30 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
verkeerde topic ...

offtopic:
@Luppie

Ik poste mijn bericht in het verkeerde topic, had niks met jouw post te maken ;)

[ Voor 163% gewijzigd door Bullus op 03-04-2011 12:35 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nee niet verkeerd tpic ik laat niews weten over de gtx580 in furmark

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Anoniem: 304087 schreef op zondag 03 april 2011 @ 11:50:
Met oudere drivers gaan de punten van 2000 naar 4000 in furmark ook gaat de fan een heel stuk sneller draaien om rond de 90 graden te blijven, Ik heb dan OCP niet aangevinkt.
Ik wou dit gisteren nog even posten maar mijn internet lag er uit.
En in beide gevallen lijkt de load en de kloksnelheid gelijk?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Jeps 100%

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Ok, hartstikke bedankt :) . De aangegeven kloksnelheden in software kunnen we dus niet meer vertrouwen. Bedankt nvidia...

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Helemaal mee eens. Ik hoop echter dat dit niet ingame gebeurd maar dat gaik ook nog even testen. Ik maar er aankomende week ook wel even wat screens van zodat hetook zichtbaar is.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Veel screens (ook als het even kan grafiekjes met het verloop over de test bv) en driver info zijn zeer welkom. Met genoeg screens en driver info heb ik namelijk genoeg bewijs om er een artikel over te kunnen schrijven waarbij jij zeker een eervolle vermelding krijgt :)

@hieronder, die was ik idd nog vergeten, dit verdient zeker een _/-\o_

[ Voor 12% gewijzigd door GENETX op 03-04-2011 12:49 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op zondag 03 april 2011 @ 12:41:
Helemaal mee eens. Ik hoop echter dat dit niet ingame gebeurd maar dat gaik ook nog even testen. Ik maar er aankomende week ook wel even dat screens van zodat hetook zichtbaar is.
Jup, bedankt voor deze verheldering. Top dat je nog even verder wilt kijken _/-\o_
Cheetah schreef op zondag 03 april 2011 @ 10:31:
[...]
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)
Mhhz, ik zou een beetje oppassen met die uitspraak, wat dat betreft heeft Nvidia een slechtere naam.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Luppie, ik twijfelde aan je intenties eerst maar goed bezig :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Die wou ik ook net posten, dit plaatje springt redelijk in het oog:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4254/36386.png
:X

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Hmm, AMD is wel zuiniger, maar de 3e HD6970 wil zo te zien niet mee doen. Die zou dan ook rond de 850W moeten komen. Opvallend :)

Acties:
  • 0 Henk 'm!

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 30-05 22:53

epic_gram

undercover moderator

GENETX schreef op zondag 03 april 2011 @ 16:30:
Hmm, AMD is wel zuiniger, maar de 3e HD6970 wil zo te zien niet mee doen. Die zou dan ook rond de 850W moeten komen. Opvallend :)
het is toch algemeen bekend dat 3-way crossfire niet zo lekker schaald? (Alhoewel ik niet weet hoe dat zit met de nieuwste drivers.)

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Ik weet niet, maar in de review schaalt het prima hoor. Alleen schakeld Furmark de 3e GPU niet in ofzo en is het verschil in die grafiek enorm.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Ik vind het prima schalen hoor, vooral voor ATI: Afbeeldingslocatie: http://tweakers.net/ext/f/asmbLu6r0Q4SGaqbLLY4A6z0/full.png

Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

Ik ga denk ik een 2e video kaart aanschaffen.
Maar zou ik dan echt verschil merken? Ik zag op internet van wel, maargoed €200 is een hoop geld, dus ff zeker weten. Het gaat om een Nvidia 470GTX. Ik gebruik het voor zware programma's en high end gaming. :)
Thanks!

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Is dat nieuws?
Voor aankoopgerelateerde zaken verwijs ik je door naar de **LET OP** Welke videokaart moet ik kopen?

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Google "GTX-470 SLI review". Met een GTX460 maakt de 2e kaart heel veel verschil trouwens. Toevallig net m'n hele systeem geupgrade, waaronder nu ook GTX460 SLI :)

Maar zoals Darkstone al stelt: terug naar nieuws (als je nog iets vroeg over de 590: oke ;))

[ Voor 39% gewijzigd door Cheetah op 03-04-2011 20:37 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 245699

GENETX schreef op zondag 03 april 2011 @ 16:43:
Ik weet niet, maar in de review schaalt het prima hoor. Alleen schakeld Furmark de 3e GPU niet in ofzo en is het verschil in die grafiek enorm.
Even ter aanvulling op die grote wattage verschillen, dit is wat Anandtech er zelf van zegt en dat verklaard een hoop;
With up to 3 GPUs, power consumption under load gets understandably high. For FurMark in particular we see the triple GTX 580 setup come just shy of 1200W due to our disabling of OCP – it’s an amusingly absurd number. Meanwhile the triple 6970 setup picks up almost nothing over the dual 6970, which is clearly a result of AMD’s drivers not having a 3-way CF profile for FurMark. Thus the greatest power load we can place on the triple 6970 is under HAWX, where it pulls 835W.
Zie hier Hawx;
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4254/36392.png

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Mijn systeem (wat zwaarder dan wat Anand heeft) trekt tijdens HAWX maar zo'n 550W met alle instellingen op het hoogst @6085x1080. Een 3e 580 zou dat totaal op ongeveer 800W brengen schat ik. Wat voor nut heeft het dan om te laten zien hoeveel stroom 3 580's verbruiken als OCP uit staat. Dat lijkt me alleen nuttig als je hetzelfde zou doen bij de 6970's (of in combinatie met de resultaten van het verbruik met OCP aan).

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 00:05
Maxily schreef op zondag 03 april 2011 @ 22:16:
Mijn systeem (wat zwaarder dan wat Anand heeft) trekt tijdens HAWX maar zo'n 550W met alle instellingen op het hoogst @6085x1080. Een 3e 580 zou dat totaal op ongeveer 800W brengen schat ik. Wat voor nut heeft het dan om te laten zien hoeveel stroom 3 580's verbruiken als OCP uit staat. Dat lijkt me alleen nuttig als je hetzelfde zou doen bij de 6970's (of in combinatie met de resultaten van het verbruik met OCP aan).
Lijkt me erg sterk dat jouw systeem maar 550w verbruikt, dan zouden je GTX 580's maar iets van 200w per stuk onder load verbruiken?..

Edit: als jouw i7 ook nog overclocked is dan zou het al helemaal onmogelijk zijn, TDP is op stock al 130w (jaja hoeft niks te zeggen maar bij intel zit dit toch meestal wel tegen het gemiddelde gebruik onder load)

[ Voor 14% gewijzigd door Redblader op 03-04-2011 22:36 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
- Mijn i7 950 draait op 4GHz maar wordt niet 100% belast tijdens spellen
- Tijdens Crysis 1 / 2 worden mijn gpu's voor 100% belast, dan gaat het verbruik omhoog naar ~650W

Ik denk dat HAWX 2 580's niet maximaal belast, maar die 550W is gewoon wat ik hier meet (ik gebruik een Cresta RCE-1106). Anand vermeldt geloof ik niet welke instellingen ze hebben gebruikt dus ik heb gewoon de in-game hoogste gebruikt.

Edit:
Nog even wat getest. HAWX gebruikt wel beide gpu's voor 95-98%, cpu gebruik is ongeveer 50%, verbruik is altijd zo rond de 550W.

Edit 2:
Hehe, met vsync gaat daar nog 110-150W vanaf :p

[ Voor 17% gewijzigd door Max Hunt op 03-04-2011 23:04 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Als de driver het probleem niet oplost gaan we denk ik nog veel dode GTX590's voorbij zien komen,
de kaart is in de hele US al uitverkocht (kan ook aan een zeer beperkte oplage liggen natuurlijk).
http://news.softpedia.com...ld-out-in-US-192211.shtml

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kan komen door beperkte oplagen of veel RMA gevallen maar dat er veel mensen een GTX595 zouden willen hebben -en dus hebben gekocht- waardoor hij uitverkocht is lijkt me sterk.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik zou er wel graag een willen hebben, ben ik heel eerlijk in, maar ik heb er helaas niks aan.
Dat natuurlijk buiten het feit om dat het niet echt een verstandige keuze zou zijn door alle problemen waar de kaart mee kampt, maar voor hetzelfde geld is ook een 570 sli set te verkrijgen, de phantom versie is dan een goede door de 570 chip op een beefy gtx580 pcb.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

madmaxnl schreef op zondag 03 april 2011 @ 23:36:
Kan komen door beperkte oplagen of veel RMA gevallen maar dat er veel mensen een GTX595 zouden willen hebben -en dus hebben gekocht- waardoor hij uitverkocht is lijkt me sterk.
In het stuk staat toch echt duidelijk dat Amerikaanse suppliers uitverkocht zijn, en dat hij daar blijkbaar goed verkocht is (in tegenstelling tot in Europa). Ik heb afgezien van die 4 gevallen trouwens ook niet meer gehoord over dode retailkaarten, dus waar deze speculatie nu weer vandaan komt...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
4 dode kaarten van de paar die er verkocht zijn. Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 590. Maar ik heb dan ook niet liggen zoeken naar gevallen waar er niets aan het handje is. Enfin, over een tijdje zullen we het wel weten he. Als we een kerkhof kunnen vulle met 590s. Ik verheug me er niet op, want we krijgen toch weer een legioen aan nay sayers alla underfill debacle.

edit:595 moest natuurlijk 590 zijn, zat met mijn moeë kop op school met mijn iPod...

[ Voor 10% gewijzigd door madmaxnl op 04-04-2011 13:59 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595.
Dat zegt natuurlijk helemaal niks, mensen klagen gewoon liever. Zat voorbeelden hiervan zijn te bedenken maar dat lijkt me wat overbodig.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 08:17
madmaxnl schreef op maandag 04 april 2011 @ 09:05:
4 dode kaarten van de paar die er verkocht zijn. Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595. Maar ik heb dan ook niet liggen zoeken naar gevallen waar er niets aan het handje is. Enfin, over een tijdje zullen we het wel weten he. Als we een kerkhof kunnen vulle met 595s. Ik verheug me er niet op, want we krijgen toch weer een legioen aan nay sayers alla underfill debacle.
Je leest nooit iets over tevreden gebruikers/ervaringen juist omdat het werkt. Er zijn er ook wel iets meer als die 4 verkocht in de US daar is echt wel markt voor. Niet iedereen die dit koopt is tweaker of expert user.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 12:27:
[...]

Net nog even alles getest met furmark extreme burning test. Er is geen sprake van fps vermindering of een trugklok.
(gtx580 model van nvidia) Ik zie dit als allemaal propaganda om nvidia te dwarsbomen. Mensen van nvidia afhouden. Ik vraag me af wat voor stumpers hier achter kunnen zitten?

Was deze al langs gekomen
Nvidia GeForce GTX 590 Really Faster than HD 6990: AMD Gave Up
http://www.downloadatoz.c...-hd-6990-amd-gave-up.html
Er staat nergens dat AMD opgeeft. En als je het mij vraagt is er geen winnaar. Afhankelijk van de games die je speelt moet je kijken welke kaart beter is. Want zoals jij quote kan ik dat ook:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4239/36041.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4239/36049.png

Dus wat je nu aan het doen bent vind ik wat flauw. Als je de reviews goed leest zie je dat de verschillen per game verschillend zijn. De ene keer wint nVidia dan wint ATi weer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik geloof dat dat al duidelijk gemaakt was. :) Ik denk ook niet dat veel mensen in die 'review' trappen.

@Luppie hieronder: het is een BS-artikel omdat ze doen alsof AMD zelf toegeeft, wat onzin is, en het zijn slechte voorbeelden omdat voorbeelden representatief horen te zijn, als het niet om gemiddelden gaat maar om uitschieters in het voordeel van NVidia moet dat erbij gezegd worden. Als zo'n artikel in het voordeel van AMD wordt geschreven neemt ook niemand dat serieus hoor.

[ Voor 64% gewijzigd door bwerg op 04-04-2011 11:47 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Het gaat iet alleen om die 2 games. Die 2 games die je zag waren alleen 2 voorbeelden.
Hoezo doe ik eingelijk wat dan? Ik zeg zelf alleen maar wat er in die review staat. Ik doe dan verder niets verkeerd lijkt mij? Verder weet ik dat het verschilt per game maar wie over het algemeen in de meeste games meer fps haald over verschillende resoluties die heeft dan de snelste kaart lijkt mij ?
Hoeveel dingen hier wel niet over nvidia worden gepost zou ik ook flauw van worden en dat zeg ik ook niet, overgens doen AMD fans precies het zelfde geloof ik?

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Volgens mij hoeven we die discussie niet over te doen.

Wat ik nu wel interessant en nieuwswaardig vind is dat nvidia met OCP blijkbaar wel terugklokt maar dat dit in GPU-z niet terug te zien is. (m.a.w. volgens gpu-z draait de kaart gewoon op max klok)
Volgens mij heeft AMD(of was het toen nog ati?) dat geintje ooit ook eens uitgehaald en werd ze dat niet in dank afgenomen.

De vraag is nu of nvidie dit ook in games doet.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nvidia cheat met de klocks in furmark.

Furmark met driver 262.99
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894130-730.jpg

Furmark met driver 270.51
En kijk vooral naar de verschillende punten en tempraturen. In furmark en in msi afterburener en in gpu-z
is de load 99% en de clocks gewoon standdaart. Er worden dus dingen aangepast waar ik niet van kan zien welke waar door de kaart minder gaat verbruiken met nieuwere drivers.
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894230-60.jpg


AVP met driver 262.99 GPU load 99@ en standaard klocks
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894562-950.jpg

AVP met driver 270.51
Zoals je ziet word er niets gedaan waar door het
verbruik word beperkt. Ingame GPU load 99@ en standaard klocks
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894857-710.jpg

[ Voor 27% gewijzigd door Anoniem: 304087 op 04-04-2011 11:58 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 304087 schreef op maandag 04 april 2011 @ 11:43:
Het gaat iet alleen om die 2 games. Die 2 games die je zag waren alleen 2 voorbeelden.
Hoezo doe ik eingelijk wat dan? Ik zeg zelf alleen maar wat er in die review staat. Ik doe dan verder niets verkeerd lijkt mij? Verder weet ik dat het verschilt per game maar wie over het algemeen in de meeste games meer fps haald over verschillende resoluties die heeft dan de snelste kaart lijkt mij ?
Hoeveel dingen hier wel niet over nvidia worden gepost zou ik ook flauw van worden en dat zeg ik ook niet, overgens doen AMD fans precies het zelfde geloof ik?
Het komt op mij over alsof je wilt bewijzen dat de GTX590 sneller is zoals nVidia dat beweert. Als je de hele review bekijkt zie je dat je dat gewoon niet zo kunt stellen. En die link die je post laat een game zien die sneller is terwijl er zat games zijn waar ATi ook sneller is.

Wat je zegt klopt. Maar bij veel reviews komt ATi daar dus het beste uit (wint het de meeste games). Ik vind dat de resultaten zo dicht op elkaar zitten dat ik daar geen waarde aan hecht. En verschillende resoluties is bs met deze kaart. Enige die wat mij betreft tellen zijn 2560x1600 en hoger. Op andere resoluties heb je meer dan genoeg aan een single gpu kaart.

Als AMD fans dingen posten die niet kloppen en verdraait zijn vind ik het ook niet terecht. Het moet gewoon onderbouwd kunnen worden. Cherypicken kan iedereen. Maar dat schetst geen goed beeld.
Anoniem: 304087 schreef op maandag 04 april 2011 @ 11:51:
Nvidia cheat met de klocks in furmark.

Furmark met driver 262.99
[afbeelding]

Furmark met driver 270.51
En kijk vooral naar de verschillende punten en tempraturen. In furmark en in msi afterburener en in gpu-z
is de load 99% en de clocks gewoon standdaart. Er worden dus dingen aangepast waar ik niet van kan zien welke waar door de kaart minder gaat verbruiken met nieuwere drivers.
[afbeelding]

En de ingame tests post ik hier zo ook
Is dit niet gewoon die TDP protectie? Die moet zorgen dat de kaart niet te veel gaat verbruiken? Misschien hebben ze die wat aangescherpt? Of is dat niet wat je bedoelt?

[ Voor 22% gewijzigd door Astennu op 04-04-2011 11:55 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

madmaxnl schreef op maandag 04 april 2011 @ 09:05:
4 dode kaarten van de paar die er verkocht zijn.
Goh, heb jij verkoopcijfers? Wat leuk om dat te horen! Wil je die met ons delen misschien?
Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595.
Aha... Nouja, gezien dat blijkbaar normaal schijnt te zijn: Bij deze wil ik even melden dat er niets aan het handje is met mijn ene GTX460 en er is ook niets aan het handje met mijn andere GTX460. Daarnaast is er niets aan het handje met mijn i7 2600k. En ook niets aan het handje met mijn MSI P67 moederbord. Ook met mijn harddisk is niets aan het handje. Met mijn monitor ook niet trouwens. Had ik het al gehad over mijn geheugen? Nou daarmee is ook niks aan het handje.

Oh wacht, dat moet ik natuurlijk doen in elk individueel topic voor elk onderdeel dat in mijn PC zit. En als zo'n topic niet bestaat moet ik uiteraard ff specifiek eentje openen om te kunnen melden dat er bij mij niets aan het handje is met dat onderdeel.

Wat een geweldige redenatietrant weer... er van uitgaan dat er iets mis is, op basis van het feit dat bijna niemand zou melden dat er niets mis is :)

[ Voor 16% gewijzigd door Cheetah op 04-04-2011 12:08 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Jahaa, zie ook:
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:04:
Nee ik kan niet zien of het onzin is.
Oké het artikel is dus onzin dat wist ik niet. Het maakt mij persoonlijk ook niet uit wie de snelste kaart heeft.
Anoniem: 304087 schreef op maandag 04 april 2011 @ 11:51:
Nvidia cheat met de klocks in furmark.

En kijk vooral naar de verschillende punten en tempraturen. In furmark en in msi afterburener en in gpu-z
is de load 99% en de clocks gewoon standdaart. Er worden dus dingen aangepast waar ik niet van kan zien welke waar door de kaart minder gaat verbruiken met nieuwere drivers.
Wow, snelle service! :P
Ik vind het wel een kwalijke zaak, zo doet nvidia het voorkomen alsof de kaart 100% z'n best doet en dus maximaal stroom zou moeten verbruiken terwijl dat dus niet het geval is..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Je kunt het over een tijd pas zeggen. Daarnaast is het de vraag of iedereen het wel op inet meld. Ik denk niet dat nVidia gaat roepen hoeveel kaarten er dood gegaan zijn. Die willen dat liever in de doofpot stoppen. (net als denk ik bijna elk ander bedrijf).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

daan! schreef op maandag 04 april 2011 @ 11:57:
[...]

Jahaa, zie ook:

[...]


[...]

Wow, snelle service! :P
Ik vind het wel een kwalijke zaak, zo doet nvidia het voorkomen alsof de kaart 100% z'n best doet en dus maximaal stroom zou moeten verbruiken terwijl dat dus niet het geval is..
Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 304087 schreef op maandag 04 april 2011 @ 12:02:
[...]


Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.
Ah dat bedoel je dus. Max clocks zijn gewoon normaal GPU load ook maar toch helft van de performance. Leeft GPU-Z het wel goed uit? Zie je misschien andere dingen als je Afterburner gebruikt om uit te lezen?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Anoniem: 304087 schreef op maandag 04 april 2011 @ 12:02:
[...]


Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.
Je kan ook NOP's uitvoeren in plaats van echte instructies, dat scheelt al een boel. Of je core gaat gewoon voor korte tijd slapen.

edit: wacht, in dat geval zou je geen 100% GPU load zien?

..al lijkt het mij waarschijnlijker dat nvidia de boel belazert.

[ Voor 6% gewijzigd door Anoniem: 303530 op 04-04-2011 12:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Astennu schreef op maandag 04 april 2011 @ 12:04:
[...]


Ah dat bedoel je dus. Max clocks zijn gewoon normaal GPU load ook maar toch helft van de performance. Leeft GPU-Z het wel goed uit? Zie je misschien andere dingen als je Afterburner gebruikt om uit te lezen?
Met afterburner zie je ook geen veranderingen in snelheden of gebuik.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.
Ik zie 2 opties:
1. Ze clocken de kaart enorm terug maar schrijven extra code die externe programma's kan tracken en die verkeerde informatie kan geven over de gebruikte snelheden etc. zodat de mensen die al naar dat soort zaken kijken zullen denken dat de kaarten opeens zuiniger zijn met dezelfde clocksnelheden terwijl die mensen ook weten dat het stroomverbruik wordt gelimiteerd
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen

Dat is toch ook wat AMD doet? Daar kun je toch met een slider aangeven hoeveel stroom een kaart mag gebruiken, zonder dat je ziet dat opeens de clocksnelheid omhoog of naar beneden gaat.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Maxily schreef op maandag 04 april 2011 @ 12:07:
Ik zie 2 opties:
1. Ze clocken de kaart enorm terug maar schrijven extra code die externe programma's kan tracken en die verkeerde informatie kan geven over de gebruikte snelheden etc. zodat de mensen die al naar dat soort zaken kijken zullen denken dat de kaarten opeens zuiniger zijn met dezelfde clocksnelheden terwijl die mensen ook weten dat het stroomverbruik wordt gelimiteerd
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen

Dat is toch ook wat AMD doet? Daar kun je toch met een slider aangeven hoeveel stroom een kaart mag gebruiken, zonder dat je ziet dat opeens de clocksnelheid omhoog of naar beneden gaat.
Ik denk persoonlijk optie 2. Om het helemaal zeker te weten zou je het systeemverbruik moeten meten.

Voorspelling: Met de oude drivers gaat de 580 over TDP bij Furmark. Met de nieuwe drivers blijft hij binnen TDP.
Dit moet te testen zijn.

Ook klopt het hoge load-percentage dan nogsteeds.
De GPU blijft gewoon 100% gestressed binnen een bepaald verbruikswindow.

Aha, update van Luppie's post, dit gebeurd blijkbaar ook niet ingame. Is dus furmark specifiek.

[ Voor 10% gewijzigd door Cheetah op 04-04-2011 12:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Sh*t ik had eingelijk ook even met OGL in heaven moeten testen. Straks werkt OGL niet goed met niewere drivers. Ik ga dit ook nog even testen met OGL in heaven met oudere drivers.

Edit

Ben nu heaven met OGL aan het testen met driver 270.51 maar de OGL performance is erg slecht vergeleken met dx11 performance

Edit

Maar de performance in OGL is net zo slecht met 262.99 driver dus aa OGL zou het ook niet moeten liggen.

[ Voor 42% gewijzigd door Anoniem: 304087 op 04-04-2011 12:47 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
595 nooit van gehoord!

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Maxily schreef op maandag 04 april 2011 @ 12:07:
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen
Hoe wil je dat doen dan?

Om het stroomverbruik aan te passen moet je de clocks of het voltage verlagen, wat niet gebeurd. De enige andere optie is om de last te verlagen, wat eveneens niet gebeurd want die staat op 100%.

Enkel darkstone met zijn NOP's kan nog kloppen. Alleen dat lijkt me ook niet logisch om na iedere instructie een nop uit te voeren 8)7 . In dat geval weet ik ook niet of het verbruik daar genoeg mee zakt. Een NOP moet tenslotte ook door de pipeline en dergelijke/

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Sowieso is het verlagen van de clocks de meest efficiënte manier, omdat het voltage dan ook omlaag gaat.
Als je NOP's, of van mij part vage sleep constructies gaat uithalen blijft het voltage hetzelfde.

Maar ik heb wel eerder gezien dat de clocks niet klopen, bijvoorbeeld, ik kan het voltage van mijn HD4570 instellen op 0,1v, en dat word ook door wat tools bevestigd. Het lijkt me echter sterk dat dat daadwerkelijk zo was. Leest GPU-z niet gewoon de softwarekant van de clocks in?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

0.1v zou niet eens kunnen, transistoren hebben wel een stukje meer prik nodig om te kunnen blijven werken.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Jejking schreef op maandag 04 april 2011 @ 13:15:
0.1v zou niet eens kunnen, transistoren hebben wel een stukje meer prik nodig om te kunnen blijven werken.
Lang niet. Een normale transistor schakeld rond de 0,7V op de Base. Een transistor op een stukje sillicium gaat niet vele lager volgens mij. Dat zijn gewoon minimale spanningen om uberhaupt te kunnen schakelen.

En idd, een NOP lijkt me dus ook totaal niet voor de hand liggend darkstone. fcurrent = ftarget lijkt me verreweg het makkelijkste.

[ Voor 16% gewijzigd door GENETX op 04-04-2011 13:20 ]


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Dat hangt sterk af van de frequentie en productieprocess, een pentium M kan je tot 0,600v undervolten als je een goed exemplaar te pakken hebt.

Van horen zeggen overigens...

[ Voor 10% gewijzigd door Anoniem: 303530 op 04-04-2011 13:21 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Ik kon mijn AMD Turion X2 ook 800MHz laten doen op 0,725V. Dat vond ik ook al heel wat. Het kan idd lager, maar onder de 0,5V gaat zeker niet lukken.

[ Voor 10% gewijzigd door GENETX op 04-04-2011 13:22 ]


Acties:
  • 0 Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 22-05 07:29
madmaxnl schreef op maandag 04 april 2011 @ 09:05:
4 dode kaarten van de paar die er verkocht zijn. Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595. Maar ik heb dan ook niet liggen zoeken naar gevallen waar er niets aan het handje is.
Toch maar even een reactie van mijn kant. Ik heb sinds een week een EVGA GTX 590. Ik game, stress-test en benchmark ongeveer 8 à 10 uur per dag (ja ik ben momenteel vrij) en heb totaal geen problemen ondervonden. Over de temperaturen en geluidsproductie ben ik erg tevreden. De kaart draait op stock EVGA snelheden en voltage.

Ik "ken" 19 eigenaren (incl. foto bewijs) welke gezamenlijk 25 GTX590 kaarten hebben (ook enkele overclocked tussen de 680 en 840MHz). Een user had twee 590's waarvan er één DOA was. Hij had er ook een watercoolblock opgezet, verder weet ik niks van zijn snelheden en voltages.

Best wel grappig om te zien dat er zoveel mensen op diverse fora enorme discussies aan het voeren zijn over deze kaart terwijl 99.9% van deze mensen niet eens een 590 hebben. Deze hele heisa omtrent slechte vrm's, kapotte kaarten etc, ik maak me er geen seconde druk om. Gaat hij kapot, dan krijgen ze hem terug en krijg ik een nieuwe, 10 jaar lang. Overclocken hoeft van mij niet aangezien de 590 standaard al enorm snel is :)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22

[...]
Hoe wil je dat doen dan?
Geen idee, ik dacht zelf aan hoe AMD dat doet bij hun kaarten. Of gaan daar wel de clocksnelheden omlaag als hun energie-limiter in actie komt? Geen idee of dit mogelijk is, maar misschien kunnen ze cores uitschakelen?

Acties:
  • 0 Henk 'm!

Anoniem: 303530

De cores naar beneden klokken is efficienter dan het aantal cores verlagen, daar schiet je dus niet veel mee op.

Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:19
*knip*

[ Voor 93% gewijzigd door Edmin op 04-04-2011 17:35 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Cheetah schreef op maandag 04 april 2011 @ 11:55:
Wat een geweldige redenatietrant weer... er van uitgaan dat er iets mis is, op basis van het feit dat bijna niemand zou melden dat er niets mis is :)
Na alle heisa die er is ontstaan rondom de GTX590 lijkt het mij logisch dat die paar mensen waarmee niks aan het handje is een weerwoord gegeven? Immers zitten mensen die een GTX590 halen heus wel op een forum. Of zijn het geïndoctrineerde nVidia kopers ?

*knip*

[ Voor 35% gewijzigd door Edmin op 04-04-2011 17:36 ]


Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

Cheetah schreef op zondag 03 april 2011 @ 20:30:
[...]
Google "GTX-470 SLI review". Met een GTX460 maakt de 2e kaart heel veel verschil trouwens. Toevallig net m'n hele systeem geupgrade, waaronder nu ook GTX460 SLI :)

Maar zoals Darkstone al stelt: terug naar nieuws (als je nog iets vroeg over de 590: oke ;))
Bedankt!
Vooral dit soort dingen halen mij dan wel weer over... :D
Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GTX470_SLI/GTX470_SLI-45.jpg

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:19
Modbreak:Zucht

[ Voor 90% gewijzigd door Anoniem: 303530 op 04-04-2011 14:28 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
*knip*

[ Voor 95% gewijzigd door Kid Jansen op 04-04-2011 17:26 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Maxily schreef op maandag 04 april 2011 @ 12:07:
[...]
Ik zie 2 opties:
1. Ze clocken de kaart enorm terug maar schrijven extra code die externe programma's kan tracken en die verkeerde informatie kan geven over de gebruikte snelheden etc. zodat de mensen die al naar dat soort zaken kijken zullen denken dat de kaarten opeens zuiniger zijn met dezelfde clocksnelheden terwijl die mensen ook weten dat het stroomverbruik wordt gelimiteerd
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen

Dat is toch ook wat AMD doet? Daar kun je toch met een slider aangeven hoeveel stroom een kaart mag gebruiken, zonder dat je ziet dat opeens de clocksnelheid omhoog of naar beneden gaat.
Wat AMD doet is het volgende:
Powertune bepaalt het max TDP. Mocht de kaart daar overheen gaan worden de clockspeeds verlaagt om binnen het aangegeven TDP te blijven. Met de slider in het Catalyst Control Center kun je -20 of +20% TDP instellen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

madmaxnl schreef op maandag 04 april 2011 @ 14:11:
Na alle heisa die er is ontstaan rondom de GTX590 lijkt het mij logisch dat die paar mensen waarmee niks aan het handje is een weerwoord gegeven? Immers zitten mensen die een GTX590 halen heus wel op een forum.
Alle heisa? Je bedoelt die storm in dat glas water op een paar forums?
Het leukste is dat ~95% v/d heisa juist niet bij de GTX590 bezitters vandaan kwam, maar van... tja, u know.

En ik ga als ik iemand zie klagen dat zijn GTX460 defect is omdat ik toevallig hetzelfde type heb echt niet de moeite doen om speciaal te gaan melden dat de mijne niet defect is hoor. Je zult me wel horen wanneer er wat aan de hand is. En ik denk dat 90-95% van de rest van de wereld er ook zo over denkt.

Een gebrek aan mensen die melden dat er niets mis is interpreteren als een indicatie dat er wel wat mis zo zou zijn is gewoon een fundamenteel foute redenatie, ofwel een drogredenatie -> omgedraaide bewijslast.
Of zijn het geïndoctrineerde nVidia kopers ?
Vast wel. Allemaal. Zonder uitzondering.
Anoniem: 303530 schreef op maandag 04 april 2011 @ 13:42:
De cores naar beneden klokken is efficienter dan het aantal cores verlagen, daar schiet je dus niet veel mee op.
Is dat wel zo? Ook een naar beneden geklokte core verbruikt nog energie (en geeft warmte af, wat ook energieverlies inhoudt) namelijk; een uitgeschakelde helemaal niet. Ik zelf denk eerlijk gezegd dat het verbruik daarmee juist beter/makkelijker en efficienter te managen is.

Ook in de CPU wereld doet men steeds meer aan cores uitschakelen naar gelang de performancebehoefte.
Het zou me dus helemaal niet verbazen als er wel degelijk uitschakelroutines gebruikt worden op GPU's.

[edit] Voorbeeld:

Afbeeldingslocatie: http://www.legitreviews.com/images/reviews/1084/slide5.jpg

[edit2] En nu ik er verder over nadenk weten we wel zeker dat die uitschakelroutines er zijn, die worden namelijk sowieso gebruikt als de kaarten idle draaien -> thus het zo lage idle verbruik... of dergelijke routines ook in het leven worden geroepen om bij max load het energieverbruik binnen de perken te houden weet ik niet, maar het lijkt me zeker niet onaannemelijk.

't zou wel een mooie verklaring zijn voor die 100% load bij gelijke clockspeed, maar met lagere fm prestaties.

[ Voor 12% gewijzigd door Cheetah op 04-04-2011 17:40 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Confronterend reviewtje op HardOCP


HardOCP: ASUS GeForce GTX 590 Overclocking Follow-Up

[ Voor 33% gewijzigd door Help!!!! op 04-04-2011 17:49 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Leuk, ze trekken precies de conclusie die we hier ook al min of meer getrokken hadden :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het is natuurlijk hoe je het bekijkt. Ze hebben er in ieder geval minder tekst voor nodig.... ;) :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Cheetah schreef op maandag 04 april 2011 @ 17:13:
Is dat wel zo? Ook een naar beneden geklokte core verbruikt nog energie (en geeft warmte af, wat ook energieverlies inhoudt) namelijk; een uitgeschakelde helemaal niet. Ik zelf denk eerlijk gezegd dat het verbruik daarmee juist beter/makkelijker en efficienter te managen is.
Dat is zo ;)

Het is eigenlijk heel simpel:
Verdubbel je alle hardware, heb je 2x zoveel prestaties en 2x zoveel hitte (dualcore -> quad, performance per watt blijft gelijk)
Verdubbel je de frequentie, danheb je 2x zoveel prestaties, maar stijgt het stroomverbruik dramatisch: je moet immers het voltage ook meeverhogen, performance per watt keldert.
(heel grof allemaal)

maw, door de frequentie te verlagen draalt het voltage mee, en dus heb je meer performance per watt, bij het uitschakelen van wat cores blijft je performance per wat hetzelfde.

Om diezelfde reden zag je een tijd geleden wel mobiele quadcores op 2Ghz, maar geen dualcores op 4Ghz. De prestaties komen op hetzelfde neer, maar de eerste processor is vele malen zuiniger... onder full load.

Ik denk ook dat de software het niet leuk gaat vinden als er opeens cores uitvallen, maar ik moet bekennen dat ik daar niets vanaf weet.
Ook in de CPU wereld doet men steeds meer aan cores uitschakelen naar gelang de performancebehoefte.
Het zou me dus helemaal niet verbazen als er wel degelijk uitschakelroutines gebruikt worden op GPU's.
Dat is wat anders, firefox gebruikt 1 thread, wat zijn die overigen 3 cores dan aan het doen? Helemaal niets. Met een gpu heb je dat probleem niet omdat renderen bij uitstek geschrikt is om ver verdelen over honderden cores, een GPU komt vrij dicht in de buurt van een processor met een paar honderd cores.


Hoe dan ook, ik denk dat nvidia de boel belazert, het verlagen van de frequentie is simpel doch effectief.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op maandag 04 april 2011 @ 17:13:
Is dat wel zo? Ook een naar beneden geklokte core verbruikt nog energie (en geeft warmte af, wat ook energieverlies inhoudt) namelijk; een uitgeschakelde helemaal niet. Ik zelf denk eerlijk gezegd dat het verbruik daarmee juist beter/makkelijker en efficienter te managen is.
Ja, dat is zo:

Alweer U * U * f. Door omlaag te klokken kan het voltage omlaag, door cores uit te shakelen niet. De spanning heeft een kwadratisch effect (iemand ander beweerde zelfs dat het al U^3 is bij huidige processors). Als je de kloksnelheid dan ook nog eens doro de helft doet dan verbruik je dus minder. Je U^2 factor is namelijk lager.

Als je enkel de helft van de cores uitschakeld dan halveer je hoogstens het verbruik, maar je houdt de zelfde rekenkracht. 2x 500MHz is tenslotte net zo snel als 1x 1000MHz.

Het halveren van de kloksnelheid zorgt er dus voor dat het verbruik al wordt gehalveerd en dus al op hetzelfde niveau zit als het uitschakelen van de helft van de cores. Je kan de spanning dan ook nog verlagen en gezien de formule kom je dus een stuk lager uit :)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Behalve dat het uitschakelen van cuda cores ook minder lekstroom op zal leveren lijkt het me nu logischer dat ze inderdaad de kloksnelheid gewoon omlaag halen (zelfde soort discussie op nvidia forum 9 maanden geleden, dus mogelijk toegepast op de nieuwere kaarten).

Dan is maar de vraag of Nvidia echt met opzet programma's als gpu-z voor de gek probeert te houden door de normale snelheid te rapporteren of dat er updates oid nodig zijn voor deze programma's. En gedeeltelijk los daarvan, geeft gpu-z wel de goede waarden aan voor AMD kaarten die worden terug-geclockt d.m.v. power management?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Maxily schreef op maandag 04 april 2011 @ 19:26:
En gedeeltelijk los daarvan, geeft gpu-z wel de goede waarden aan voor AMD kaarten die worden terug-geclockt d.m.v. power management?
Mijn HD5750 geeft de juiste waarden aan. Dat wil zeggen, hij weet wat de officiele snelheid is en bij de cencors geeft hij de overclock snelheid of de idle snelheid aan, afhankelijk van wat de kaart aan het doen is. Mijn oude HD3870 daarentegen werd altijd de maximum snelheid aangegeven en nimmer de idle snelheid.

In ieder geval verwacht ik dat er hier ook sprake is van een frequentiedrop, om te voorkomen dat de kaart te veel stroom trekt. Als nVidia een even 'ingewikkeld' hardware matig systeem als AMD's Powertune had toegepast, dan hadden ze dit wel veel meer naar buiten gebracht. Tenzij ze anders zullen vermelden, ga ik er van uit dat alleen AMD in staat is om delen van de chip langzamer te laten lopen om binnen een bepaald stroomgebruik te blijven.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op maandag 04 april 2011 @ 19:09:
Alweer U * U * f. Door omlaag te klokken kan het voltage omlaag, door cores uit te shakelen niet.

De spanning heeft een kwadratisch effect (iemand ander beweerde zelfs dat het al U^3 is bij huidige processors). Als je de kloksnelheid dan ook nog eens doro de helft doet dan verbruik je dus minder. Je U^2 factor is namelijk lager.
Dit zijn een heleboel aannames die hier gedaan worden. Het is het maar net de vraag in hoeverre je het voltage kan verlagen als je de clocks verlaagt. Want het is echt niet zo dat een core die op de helft van de snelheid loopt (wat alvast waarschijnlijk niet het geval zal zijn; de 590 downclocked bijvoorbeeld 'slechts' naar 550mhz van de stock 607) ook maar de helft van de spanning nodig heeft om te kunnen draaien: er is sowieso een basisspanning nodig en die is vaak heel wat meer dan de helft.
Je beseft ook dat bij een spanning onder de 1V dat 'kwadratische effect' in de praktijk juist een vermindering inhoudt bij gebruik van deze formule en U^3 al helemaal? En bij een spanning van 1,00V maakt het precies niets uit.

Hoe kom je eigenlijk uberhaupt aan die formule "U * U * f" eigenlijk? Ik kan hem nergens vinden met Google namelijk en wil me er wel even op inlezen. Ik vraag me af of hij zomaar zo universeel toepasbaar is, zeker gezien de architectuurverschillen bij verschillende processorontwerpen.
Als je enkel de helft van de cores uitschakeld dan halveer je hoogstens het verbruik, maar je houdt de zelfde rekenkracht. 2x 500MHz is tenslotte net zo snel als 1x 1000MHz.
Dat 2x500 - in de praktijk - even snel is als 1x1000 is een stelling die ik ook niet zou durven lanceren in processorland, dat is van heel veel meer dingen afhankelijk.

offtopic:
Boys, weet je wat, ik ga Crysis2 spelen i.p.v. me weer hierin te storten :D

[ Voor 8% gewijzigd door Cheetah op 04-04-2011 20:57 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Cheetah schreef op maandag 04 april 2011 @ 20:52:
[...]
Hoe kom je eigenlijk uberhaupt aan die formule "U * U * f" eigenlijk? Ik kan hem nergens vinden met Google namelijk en wil me er wel even op inlezen. Ik vraag me af of hij zomaar zo universeel toepasbaar is, zeker gezien de architectuurverschillen bij verschillende processorontwerpen.
Dat is simpelweg de basisformule:
Afbeeldingslocatie: http://img244.imageshack.us/img244/1050/cpupowerconsumptionjh0.png
(bron: intel)

Heel grof, verdubbel je de frequentie stijft het voltage met een uit de duim gezogen factor 1.2, dubbel zoveel prestaties, maar 1,2*1,2*2 = 2,88 keer zoveel energieverbruik

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Anoniem: 303530 schreef op maandag 04 april 2011 @ 20:57:
Dat is simpelweg de basisformule:
[afbeelding]
(bron: intel)

Heel grof, verdubbel je de frequentie stijft het voltage met een uit de duim gezogen factor 1.2, dubbel zoveel prestaties, maar 1,2*1,2*2 = 2,88 keer zoveel energieverbruik
Geldt deze ook universeel voor GPU's?
Wat is "Dynamic capacitance"?

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op maandag 04 april 2011 @ 20:52:
[...]
Want het is echt niet zo dat een core die op de helft van de snelheid loopt ook maar de helft van de spanning nodig heeft om te kunnen draaien: er is sowieso een basisspanning nodig en die is vaak heel wat meer dan de helft.
Wat er volgens mij bedoeld wordt is dat wanneer je de frequentie van de 'processor' halveert je het stroomverbruik ook halveert.
Wat er vervolgens nog bijkomt is dat bij een lagere frequentie er ook een lagere spanning nodig is om de boel stabiel te houden.
Dat komt dan nog bovenop de energiebesparing van de verminderde frequentie.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

^correct.
Cheetah schreef op maandag 04 april 2011 @ 21:01:
[...]
Geldt deze ook universeel voor GPU's?
Volgens mij gaat deze formule op voor alle transistors en daarop gebaseerde dingen. Maar daar weet GENETX meer vanaf.
Wat is "Dynamic capacitance"?
Een constante die voor elke chip anders is.

Edit: wacht, dat laatse klopt niet, een "dynamic" constante? :O

[ Voor 10% gewijzigd door Anoniem: 303530 op 04-04-2011 21:29 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 303530 schreef op maandag 04 april 2011 @ 21:10:
Volgens mij gaat deze formule op voor alle transistors en op chip gebaseerde dingen.
Correct, praktisch gedacht zouden AMD en NVidia ook wel enorme oekels zijn als hogere frequentie efficienter was dan meer cores want dan hadden de recente kaarten beter een paarhonderd cores minder kunnen hebben en gewoon op 3GHz moeten lopen, een snelheid die prima te halen is. Kost ook nog minder silicium.

En dat praktisch denken doet mij ook afvragen: Als NVidia het verbruik op momenten kan inperken, zonder dat dat negatieve effecten (zoals performancedrops) heeft... waarom staat dat geniale stukje technologie dan niet permanent aan? :P Ik kan niet anders dan concluderen dat OCP en power-limiters bij zowel NVidia als AMD gewoon de boel moeten terugklokken. Welke marge gebruik je anders om het verbruik te verlagen? GPU-bakkers doen er echt alles aan om het TDP zo laag mogelijk te krijgen voor zo goed mogelijke prestaties en die optimalisaties steken ze veel R&D in, daar zal echt geen 50W verbruikt worden door een nutteloos onderdeel dat je wel even uit kan zetten.

[ Voor 12% gewijzigd door bwerg op 04-04-2011 21:32 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Jup, violgens mij per chip constant idd. Normaalgesproken heb je ze nodig om uiteindelijk het vermogen correct te berekenen, zonder kun je dus wel procentueel rekenen, maar niet het vermogen.

Hoe dan ook zou de C sowieso weinig invloed hebben mocht deze nog wel verschillen. Dat hebben je eigen metingen aan je processor op je tweakblog al eens aangetoond darkstone :)

[ Voor 4% gewijzigd door GENETX op 04-04-2011 21:46 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Maar dan nog, de 590 downclocked voor zover momenteel bekend 'slechts' naar 550mhz van de stock 607. Dit is maar 10% minder qua clockspeed, en qua voltage zal het ook niet zo idioot veel uitmaken. Die 10% lijkt mij niet voldoende om het (veel grotere) verschil tussen die 2 furmark charts te verklaren.

Even wikipedia-artikel over die formule opgezocht trouwens ("Dynamic capacitance" is the magic word):
The switching power dissipated by a chip using static CMOS gates is C·V2·f, where C is the capacitance being switched per clock cycle, V is voltage, and f is the switching frequency,[1] so this part of the power consumption decreases quadratically with voltage. The formula is not exact however, as many modern chips are not implemented using 100% CMOS, but also uses pseudo nMOS gates, domino logic etc. Moreover, there is also a static leakage current, which has become more and more accentuated as feature sizes have become smaller (below 90 nanometres) and threshold levels lower.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Je hebt het nu alleen over de GPU. Wie weet hoeveel het geheugen gethrottled wordt in het hele proces? Dat kon namelijk nog wel eens een behoorlijk invloed hebben op het geheel.

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op maandag 04 april 2011 @ 22:41:
Maar dan nog, de 590 downclocked voor zover momenteel bekend 'slechts' naar 550mhz van de stock 607. Dit is maar 10% minder qua clockspeed, en qua voltage zal het ook niet zo idioot veel uitmaken. Die 10% lijkt mij niet voldoende om het (veel grotere) verschil tussen die 2 furmark charts te verklaren.
Precies!
Het punt dat eerder gemaakt werd is dat nvidia sjoemelt met de uitgelezen kloksnelheden.
Wat we denken is dat de chip bij furmark lager wordt geklokt maar dat dit niet terug te zien is in gpu-z.
Hoe kan anders de prestatie inzakken bij gelijke kloksnelheid en gelijke belasting?
Dat ze de kloksnelheden omlaag brengen bij furmark is het probleem niet eens, maar wel dat het verborgen wordt voor gpu-z.

Volgens mij heb ik het zo goed samengevat.

Nogmaals, dit is een truukje dat ati ook ooit heeft uitgehaald en misschien dat AMD het nog steeds doet.
Onafhankelijk van wie het toepast lijkt mij het dat niemand daarop zit te wachten.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Bedoel je daarmee dat in gpu-z (of zo'n soort programma) je kan aflezen dat de kaart wordt terug geclockt naar 550MHz (terwijl het mogelijk lager moet zijn) of laat gpu-z helemaal niks zien van welke downclock dan ook?

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Maxily schreef op dinsdag 05 april 2011 @ 00:55:
Bedoel je daarmee dat in gpu-z (of zo'n soort programma) je kan aflezen dat de kaart wordt terug geclockt naar 550MHz (terwijl het mogelijk lager moet zijn) of laat gpu-z helemaal niks zien van welke downclock dan ook?
Daarmee bedoel ik dat de performance erg laag is met de klok op 607MHz (gpu-z) en de gpu usage op 100%.
Terwijl met een oudere driver de performance hoog is terwijl de klok (ook) op 607 en de usage op 100% staat.
In het tweede geval moet de koeler wel een stuk harder werken om de gpu koel te houden.
Bovenstaand is tot nu toe alleen bevestigd bij furmark.

Het impliceert dat Nvidia gpu-z voor de gek houdt door te doen alsof de gpu up maximale klok werkt (607) terwijl dat niet het geval is. Ansdere uitleg lijkt tot nu toe minder plausibel.

Nu hoop ik dat er iemand is die kan vertellen of AMD dit ook (nog) flikt, want ik vind het een slechte ontwikkeling.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

daan! schreef op maandag 04 april 2011 @ 23:41:
Het punt dat eerder gemaakt werd is dat nvidia sjoemelt met de uitgelezen kloksnelheden.
Leest GPU-Z de clocks uberhaupt realtime uit dan?
Wat we denken is dat de chip bij furmark lager wordt geklokt maar dat dit niet terug te zien is in gpu-z.
Hoe kan anders de prestatie inzakken bij gelijke kloksnelheid en gelijke belasting?
Tja, simpele verklaring = 'cores uitschakelen', maar dat gelooft men blijkbaar niet.
Dat ze de kloksnelheden omlaag brengen bij furmark is het probleem niet eens, maar wel dat het verborgen wordt voor gpu-z.
Zijn 2 dingen die aangetoond moeten worden:
1. Dat ze de kloksnelheden verlagen
2. Dat er routines zouden zijn om dat te 'verbergen'
Tot nu toe alleen maar gespeculeer, net zoals de afgelopen paar dagen...
...maar good luck anyway... :)

Ik kan er ook niet helemaal bij wat voor doel ermee gediend zou moeten worden om te 'verbergen' dat ze bij furmark zouden throttlen, ingeval ze dat al doen. I mean whatever.

[ Voor 13% gewijzigd door Cheetah op 05-04-2011 03:56 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op dinsdag 05 april 2011 @ 03:50:
Leest GPU-Z de clocks uberhaupt realtime uit dan?
Ja, bij de sensors tab kun je realtime cijfers zien van wat je videokaart doet, tenzij de videokaart die niet toelaat.
Tja, simpele verklaring = 'cores uitschakelen', maar dat gelooft men blijkbaar niet.
De statement is simpel, de techniek erachter echter verre van dat. Het is in ieder geval veel gemakkelijker om GPU-Z om de tuin te leiden. Wellicht gebeurt het zelfs onbewust.
Zijn 2 dingen die aangetoond moeten worden:
1. Dat ze de kloksnelheden verlagen
2. Dat er routines zouden zijn om dat te 'verbergen'
Tot nu toe alleen maar gespeculeer, net zoals de afgelopen paar dagen...
...maar good luck anyway... :)

Ik kan er ook niet helemaal bij wat voor doel ermee gediend zou moeten worden om te 'verbergen' dat ze bij furmark zouden throttlen, ingeval ze dat al doen. I mean whatever.
Ik zou zeggen,

1. Toon aan dat een deel van de Cuda Cores uitgeschakeld wordt.

Voor punt 2 is er namelijk wel genoeg bewijs te vinden dat GPU-Z niet altijd de realtime waardes kan uitlezen/weergeven.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
daan! schreef op maandag 04 april 2011 @ 23:41:
[...]

Precies!
Het punt dat eerder gemaakt werd is dat nvidia sjoemelt met de uitgelezen kloksnelheden.
Wat we denken is dat de chip bij furmark lager wordt geklokt maar dat dit niet terug te zien is in gpu-z.
Hoe kan anders de prestatie inzakken bij gelijke kloksnelheid en gelijke belasting?
Dat ze de kloksnelheden omlaag brengen bij furmark is het probleem niet eens, maar wel dat het verborgen wordt voor gpu-z.

Volgens mij heb ik het zo goed samengevat.
Jup.

Het idee is dat er iig *iets* niet klopt aan de uitgelezen waarden. Daardoor is hetgeen dat wordt uitgelezen gewoon onbetrouwbaar geworden. En "meten is weten", maar aangezien je niet kan meten (want onbetrouwbaar) kun je ook niet weten. Maw: Alle aan kloksnelheid, voltage, ingeschakelde cores, whatsoever, verbonden conclussies in reviews zijn hierbij waardeloos.

Een mooie test zou overigens zijn om Furmark eens te draaien op halve kloksnelheid bedenk ik me nu.

[ Voor 5% gewijzigd door GENETX op 05-04-2011 08:55 ]


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Nieuwe TS gemaakt,

wel "nieuwe" meer tijd gestoken in het migreren van de pics dan wat anders
*insert serieuse rant voor pic sharing systeem van tweakers, dies echt niet meer van deze tijd ...
Generieke publieke link generatie, titel niet bij default de bestandsnaam, geen mogelijkheid tot bulkupload,enzoverder.. :X *

Anyway ik hoop over een maand of 3 bij dezelfde provider te gaan en dezelfde webruimte aan te vragen waardoor all vorige topics direct weer correctie verwijzingen hebben naar de juiste prentjes ;)

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 53

PS voor de non-discussie voor het uitlezen van de "real time" snelheden;
nVidia heeft al officieel laten weten dat hun api hiervoor zal uitgebreid worden maar dit momenteel nog niet op punt staat in hun beta drivers. (zie bv Anandtech review waar dit vermeld staat ..)
Anyway moest het zelf in orde komen gaan dus alle uitleessoftware pakketten eerst een update moeten ontvangen voor ze de correctie frequenties kunnen tonen indien de thermische protectie in actie komt.

Specs

Pagina: 1 ... 10 11 Laatste

Dit topic is gesloten.

Let op:
Omdat het in het vorige deel blijkbaar niet helemaal duidelijk was nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.