[Algemeen] nVidia Nieuwdiscussie Topic - Deel 52 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 11 Laatste
Acties:
  • 28.738 views

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Luppie, ik twijfelde aan je intenties eerst maar goed bezig :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Die wou ik ook net posten, dit plaatje springt redelijk in het oog:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4254/36386.png
:X

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Hmm, AMD is wel zuiniger, maar de 3e HD6970 wil zo te zien niet mee doen. Die zou dan ook rond de 850W moeten komen. Opvallend :)

Acties:
  • 0 Henk 'm!

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 06:39

epic_gram

undercover moderator

GENETX schreef op zondag 03 april 2011 @ 16:30:
Hmm, AMD is wel zuiniger, maar de 3e HD6970 wil zo te zien niet mee doen. Die zou dan ook rond de 850W moeten komen. Opvallend :)
het is toch algemeen bekend dat 3-way crossfire niet zo lekker schaald? (Alhoewel ik niet weet hoe dat zit met de nieuwste drivers.)

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Ik weet niet, maar in de review schaalt het prima hoor. Alleen schakeld Furmark de 3e GPU niet in ofzo en is het verschil in die grafiek enorm.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Ik vind het prima schalen hoor, vooral voor ATI: Afbeeldingslocatie: http://tweakers.net/ext/f/asmbLu6r0Q4SGaqbLLY4A6z0/full.png

Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

Ik ga denk ik een 2e video kaart aanschaffen.
Maar zou ik dan echt verschil merken? Ik zag op internet van wel, maargoed €200 is een hoop geld, dus ff zeker weten. Het gaat om een Nvidia 470GTX. Ik gebruik het voor zware programma's en high end gaming. :)
Thanks!

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Is dat nieuws?
Voor aankoopgerelateerde zaken verwijs ik je door naar de **LET OP** Welke videokaart moet ik kopen?

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Google "GTX-470 SLI review". Met een GTX460 maakt de 2e kaart heel veel verschil trouwens. Toevallig net m'n hele systeem geupgrade, waaronder nu ook GTX460 SLI :)

Maar zoals Darkstone al stelt: terug naar nieuws (als je nog iets vroeg over de 590: oke ;))

[ Voor 39% gewijzigd door Cheetah op 03-04-2011 20:37 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 245699

GENETX schreef op zondag 03 april 2011 @ 16:43:
Ik weet niet, maar in de review schaalt het prima hoor. Alleen schakeld Furmark de 3e GPU niet in ofzo en is het verschil in die grafiek enorm.
Even ter aanvulling op die grote wattage verschillen, dit is wat Anandtech er zelf van zegt en dat verklaard een hoop;
With up to 3 GPUs, power consumption under load gets understandably high. For FurMark in particular we see the triple GTX 580 setup come just shy of 1200W due to our disabling of OCP – it’s an amusingly absurd number. Meanwhile the triple 6970 setup picks up almost nothing over the dual 6970, which is clearly a result of AMD’s drivers not having a 3-way CF profile for FurMark. Thus the greatest power load we can place on the triple 6970 is under HAWX, where it pulls 835W.
Zie hier Hawx;
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4254/36392.png

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Mijn systeem (wat zwaarder dan wat Anand heeft) trekt tijdens HAWX maar zo'n 550W met alle instellingen op het hoogst @6085x1080. Een 3e 580 zou dat totaal op ongeveer 800W brengen schat ik. Wat voor nut heeft het dan om te laten zien hoeveel stroom 3 580's verbruiken als OCP uit staat. Dat lijkt me alleen nuttig als je hetzelfde zou doen bij de 6970's (of in combinatie met de resultaten van het verbruik met OCP aan).

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 13-06 13:15
Maxily schreef op zondag 03 april 2011 @ 22:16:
Mijn systeem (wat zwaarder dan wat Anand heeft) trekt tijdens HAWX maar zo'n 550W met alle instellingen op het hoogst @6085x1080. Een 3e 580 zou dat totaal op ongeveer 800W brengen schat ik. Wat voor nut heeft het dan om te laten zien hoeveel stroom 3 580's verbruiken als OCP uit staat. Dat lijkt me alleen nuttig als je hetzelfde zou doen bij de 6970's (of in combinatie met de resultaten van het verbruik met OCP aan).
Lijkt me erg sterk dat jouw systeem maar 550w verbruikt, dan zouden je GTX 580's maar iets van 200w per stuk onder load verbruiken?..

Edit: als jouw i7 ook nog overclocked is dan zou het al helemaal onmogelijk zijn, TDP is op stock al 130w (jaja hoeft niks te zeggen maar bij intel zit dit toch meestal wel tegen het gemiddelde gebruik onder load)

[ Voor 14% gewijzigd door Redblader op 03-04-2011 22:36 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
- Mijn i7 950 draait op 4GHz maar wordt niet 100% belast tijdens spellen
- Tijdens Crysis 1 / 2 worden mijn gpu's voor 100% belast, dan gaat het verbruik omhoog naar ~650W

Ik denk dat HAWX 2 580's niet maximaal belast, maar die 550W is gewoon wat ik hier meet (ik gebruik een Cresta RCE-1106). Anand vermeldt geloof ik niet welke instellingen ze hebben gebruikt dus ik heb gewoon de in-game hoogste gebruikt.

Edit:
Nog even wat getest. HAWX gebruikt wel beide gpu's voor 95-98%, cpu gebruik is ongeveer 50%, verbruik is altijd zo rond de 550W.

Edit 2:
Hehe, met vsync gaat daar nog 110-150W vanaf :p

[ Voor 17% gewijzigd door Max Hunt op 03-04-2011 23:04 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Als de driver het probleem niet oplost gaan we denk ik nog veel dode GTX590's voorbij zien komen,
de kaart is in de hele US al uitverkocht (kan ook aan een zeer beperkte oplage liggen natuurlijk).
http://news.softpedia.com...ld-out-in-US-192211.shtml

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kan komen door beperkte oplagen of veel RMA gevallen maar dat er veel mensen een GTX595 zouden willen hebben -en dus hebben gekocht- waardoor hij uitverkocht is lijkt me sterk.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik zou er wel graag een willen hebben, ben ik heel eerlijk in, maar ik heb er helaas niks aan.
Dat natuurlijk buiten het feit om dat het niet echt een verstandige keuze zou zijn door alle problemen waar de kaart mee kampt, maar voor hetzelfde geld is ook een 570 sli set te verkrijgen, de phantom versie is dan een goede door de 570 chip op een beefy gtx580 pcb.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

madmaxnl schreef op zondag 03 april 2011 @ 23:36:
Kan komen door beperkte oplagen of veel RMA gevallen maar dat er veel mensen een GTX595 zouden willen hebben -en dus hebben gekocht- waardoor hij uitverkocht is lijkt me sterk.
In het stuk staat toch echt duidelijk dat Amerikaanse suppliers uitverkocht zijn, en dat hij daar blijkbaar goed verkocht is (in tegenstelling tot in Europa). Ik heb afgezien van die 4 gevallen trouwens ook niet meer gehoord over dode retailkaarten, dus waar deze speculatie nu weer vandaan komt...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
4 dode kaarten van de paar die er verkocht zijn. Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 590. Maar ik heb dan ook niet liggen zoeken naar gevallen waar er niets aan het handje is. Enfin, over een tijdje zullen we het wel weten he. Als we een kerkhof kunnen vulle met 590s. Ik verheug me er niet op, want we krijgen toch weer een legioen aan nay sayers alla underfill debacle.

edit:595 moest natuurlijk 590 zijn, zat met mijn moeë kop op school met mijn iPod...

[ Voor 10% gewijzigd door madmaxnl op 04-04-2011 13:59 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595.
Dat zegt natuurlijk helemaal niks, mensen klagen gewoon liever. Zat voorbeelden hiervan zijn te bedenken maar dat lijkt me wat overbodig.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 13-06 11:07
madmaxnl schreef op maandag 04 april 2011 @ 09:05:
4 dode kaarten van de paar die er verkocht zijn. Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595. Maar ik heb dan ook niet liggen zoeken naar gevallen waar er niets aan het handje is. Enfin, over een tijdje zullen we het wel weten he. Als we een kerkhof kunnen vulle met 595s. Ik verheug me er niet op, want we krijgen toch weer een legioen aan nay sayers alla underfill debacle.
Je leest nooit iets over tevreden gebruikers/ervaringen juist omdat het werkt. Er zijn er ook wel iets meer als die 4 verkocht in de US daar is echt wel markt voor. Niet iedereen die dit koopt is tweaker of expert user.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 17:17
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 12:27:
[...]

Net nog even alles getest met furmark extreme burning test. Er is geen sprake van fps vermindering of een trugklok.
(gtx580 model van nvidia) Ik zie dit als allemaal propaganda om nvidia te dwarsbomen. Mensen van nvidia afhouden. Ik vraag me af wat voor stumpers hier achter kunnen zitten?

Was deze al langs gekomen
Nvidia GeForce GTX 590 Really Faster than HD 6990: AMD Gave Up
http://www.downloadatoz.c...-hd-6990-amd-gave-up.html
Er staat nergens dat AMD opgeeft. En als je het mij vraagt is er geen winnaar. Afhankelijk van de games die je speelt moet je kijken welke kaart beter is. Want zoals jij quote kan ik dat ook:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4239/36041.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4239/36049.png

Dus wat je nu aan het doen bent vind ik wat flauw. Als je de reviews goed leest zie je dat de verschillen per game verschillend zijn. De ene keer wint nVidia dan wint ATi weer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ik geloof dat dat al duidelijk gemaakt was. :) Ik denk ook niet dat veel mensen in die 'review' trappen.

@Luppie hieronder: het is een BS-artikel omdat ze doen alsof AMD zelf toegeeft, wat onzin is, en het zijn slechte voorbeelden omdat voorbeelden representatief horen te zijn, als het niet om gemiddelden gaat maar om uitschieters in het voordeel van NVidia moet dat erbij gezegd worden. Als zo'n artikel in het voordeel van AMD wordt geschreven neemt ook niemand dat serieus hoor.

[ Voor 64% gewijzigd door bwerg op 04-04-2011 11:47 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Het gaat iet alleen om die 2 games. Die 2 games die je zag waren alleen 2 voorbeelden.
Hoezo doe ik eingelijk wat dan? Ik zeg zelf alleen maar wat er in die review staat. Ik doe dan verder niets verkeerd lijkt mij? Verder weet ik dat het verschilt per game maar wie over het algemeen in de meeste games meer fps haald over verschillende resoluties die heeft dan de snelste kaart lijkt mij ?
Hoeveel dingen hier wel niet over nvidia worden gepost zou ik ook flauw van worden en dat zeg ik ook niet, overgens doen AMD fans precies het zelfde geloof ik?

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 13-06 10:00
Volgens mij hoeven we die discussie niet over te doen.

Wat ik nu wel interessant en nieuwswaardig vind is dat nvidia met OCP blijkbaar wel terugklokt maar dat dit in GPU-z niet terug te zien is. (m.a.w. volgens gpu-z draait de kaart gewoon op max klok)
Volgens mij heeft AMD(of was het toen nog ati?) dat geintje ooit ook eens uitgehaald en werd ze dat niet in dank afgenomen.

De vraag is nu of nvidie dit ook in games doet.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nvidia cheat met de klocks in furmark.

Furmark met driver 262.99
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894130-730.jpg

Furmark met driver 270.51
En kijk vooral naar de verschillende punten en tempraturen. In furmark en in msi afterburener en in gpu-z
is de load 99% en de clocks gewoon standdaart. Er worden dus dingen aangepast waar ik niet van kan zien welke waar door de kaart minder gaat verbruiken met nieuwere drivers.
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894230-60.jpg


AVP met driver 262.99 GPU load 99@ en standaard klocks
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894562-950.jpg

AVP met driver 270.51
Zoals je ziet word er niets gedaan waar door het
verbruik word beperkt. Ingame GPU load 99@ en standaard klocks
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/04/1301894857-710.jpg

[ Voor 27% gewijzigd door Anoniem: 304087 op 04-04-2011 11:58 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 17:17
Anoniem: 304087 schreef op maandag 04 april 2011 @ 11:43:
Het gaat iet alleen om die 2 games. Die 2 games die je zag waren alleen 2 voorbeelden.
Hoezo doe ik eingelijk wat dan? Ik zeg zelf alleen maar wat er in die review staat. Ik doe dan verder niets verkeerd lijkt mij? Verder weet ik dat het verschilt per game maar wie over het algemeen in de meeste games meer fps haald over verschillende resoluties die heeft dan de snelste kaart lijkt mij ?
Hoeveel dingen hier wel niet over nvidia worden gepost zou ik ook flauw van worden en dat zeg ik ook niet, overgens doen AMD fans precies het zelfde geloof ik?
Het komt op mij over alsof je wilt bewijzen dat de GTX590 sneller is zoals nVidia dat beweert. Als je de hele review bekijkt zie je dat je dat gewoon niet zo kunt stellen. En die link die je post laat een game zien die sneller is terwijl er zat games zijn waar ATi ook sneller is.

Wat je zegt klopt. Maar bij veel reviews komt ATi daar dus het beste uit (wint het de meeste games). Ik vind dat de resultaten zo dicht op elkaar zitten dat ik daar geen waarde aan hecht. En verschillende resoluties is bs met deze kaart. Enige die wat mij betreft tellen zijn 2560x1600 en hoger. Op andere resoluties heb je meer dan genoeg aan een single gpu kaart.

Als AMD fans dingen posten die niet kloppen en verdraait zijn vind ik het ook niet terecht. Het moet gewoon onderbouwd kunnen worden. Cherypicken kan iedereen. Maar dat schetst geen goed beeld.
Anoniem: 304087 schreef op maandag 04 april 2011 @ 11:51:
Nvidia cheat met de klocks in furmark.

Furmark met driver 262.99
[afbeelding]

Furmark met driver 270.51
En kijk vooral naar de verschillende punten en tempraturen. In furmark en in msi afterburener en in gpu-z
is de load 99% en de clocks gewoon standdaart. Er worden dus dingen aangepast waar ik niet van kan zien welke waar door de kaart minder gaat verbruiken met nieuwere drivers.
[afbeelding]

En de ingame tests post ik hier zo ook
Is dit niet gewoon die TDP protectie? Die moet zorgen dat de kaart niet te veel gaat verbruiken? Misschien hebben ze die wat aangescherpt? Of is dat niet wat je bedoelt?

[ Voor 22% gewijzigd door Astennu op 04-04-2011 11:55 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

madmaxnl schreef op maandag 04 april 2011 @ 09:05:
4 dode kaarten van de paar die er verkocht zijn.
Goh, heb jij verkoopcijfers? Wat leuk om dat te horen! Wil je die met ons delen misschien?
Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595.
Aha... Nouja, gezien dat blijkbaar normaal schijnt te zijn: Bij deze wil ik even melden dat er niets aan het handje is met mijn ene GTX460 en er is ook niets aan het handje met mijn andere GTX460. Daarnaast is er niets aan het handje met mijn i7 2600k. En ook niets aan het handje met mijn MSI P67 moederbord. Ook met mijn harddisk is niets aan het handje. Met mijn monitor ook niet trouwens. Had ik het al gehad over mijn geheugen? Nou daarmee is ook niks aan het handje.

Oh wacht, dat moet ik natuurlijk doen in elk individueel topic voor elk onderdeel dat in mijn PC zit. En als zo'n topic niet bestaat moet ik uiteraard ff specifiek eentje openen om te kunnen melden dat er bij mij niets aan het handje is met dat onderdeel.

Wat een geweldige redenatietrant weer... er van uitgaan dat er iets mis is, op basis van het feit dat bijna niemand zou melden dat er niets mis is :)

[ Voor 16% gewijzigd door Cheetah op 04-04-2011 12:08 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 13-06 10:00
Jahaa, zie ook:
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:04:
Nee ik kan niet zien of het onzin is.
Oké het artikel is dus onzin dat wist ik niet. Het maakt mij persoonlijk ook niet uit wie de snelste kaart heeft.
Anoniem: 304087 schreef op maandag 04 april 2011 @ 11:51:
Nvidia cheat met de klocks in furmark.

En kijk vooral naar de verschillende punten en tempraturen. In furmark en in msi afterburener en in gpu-z
is de load 99% en de clocks gewoon standdaart. Er worden dus dingen aangepast waar ik niet van kan zien welke waar door de kaart minder gaat verbruiken met nieuwere drivers.
Wow, snelle service! :P
Ik vind het wel een kwalijke zaak, zo doet nvidia het voorkomen alsof de kaart 100% z'n best doet en dus maximaal stroom zou moeten verbruiken terwijl dat dus niet het geval is..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 17:17
Je kunt het over een tijd pas zeggen. Daarnaast is het de vraag of iedereen het wel op inet meld. Ik denk niet dat nVidia gaat roepen hoeveel kaarten er dood gegaan zijn. Die willen dat liever in de doofpot stoppen. (net als denk ik bijna elk ander bedrijf).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

daan! schreef op maandag 04 april 2011 @ 11:57:
[...]

Jahaa, zie ook:

[...]


[...]

Wow, snelle service! :P
Ik vind het wel een kwalijke zaak, zo doet nvidia het voorkomen alsof de kaart 100% z'n best doet en dus maximaal stroom zou moeten verbruiken terwijl dat dus niet het geval is..
Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 17:17
Anoniem: 304087 schreef op maandag 04 april 2011 @ 12:02:
[...]


Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.
Ah dat bedoel je dus. Max clocks zijn gewoon normaal GPU load ook maar toch helft van de performance. Leeft GPU-Z het wel goed uit? Zie je misschien andere dingen als je Afterburner gebruikt om uit te lezen?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Anoniem: 304087 schreef op maandag 04 april 2011 @ 12:02:
[...]


Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.
Je kan ook NOP's uitvoeren in plaats van echte instructies, dat scheelt al een boel. Of je core gaat gewoon voor korte tijd slapen.

edit: wacht, in dat geval zou je geen 100% GPU load zien?

..al lijkt het mij waarschijnlijker dat nvidia de boel belazert.

[ Voor 6% gewijzigd door Anoniem: 303530 op 04-04-2011 12:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Astennu schreef op maandag 04 april 2011 @ 12:04:
[...]


Ah dat bedoel je dus. Max clocks zijn gewoon normaal GPU load ook maar toch helft van de performance. Leeft GPU-Z het wel goed uit? Zie je misschien andere dingen als je Afterburner gebruikt om uit te lezen?
Met afterburner zie je ook geen veranderingen in snelheden of gebuik.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Indd clocks en belasting is 99-100%. Het moet ergens weg komen waar door hij minder warm word en slechter scoort in furmark.
Ik zie 2 opties:
1. Ze clocken de kaart enorm terug maar schrijven extra code die externe programma's kan tracken en die verkeerde informatie kan geven over de gebruikte snelheden etc. zodat de mensen die al naar dat soort zaken kijken zullen denken dat de kaarten opeens zuiniger zijn met dezelfde clocksnelheden terwijl die mensen ook weten dat het stroomverbruik wordt gelimiteerd
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen

Dat is toch ook wat AMD doet? Daar kun je toch met een slider aangeven hoeveel stroom een kaart mag gebruiken, zonder dat je ziet dat opeens de clocksnelheid omhoog of naar beneden gaat.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Maxily schreef op maandag 04 april 2011 @ 12:07:
Ik zie 2 opties:
1. Ze clocken de kaart enorm terug maar schrijven extra code die externe programma's kan tracken en die verkeerde informatie kan geven over de gebruikte snelheden etc. zodat de mensen die al naar dat soort zaken kijken zullen denken dat de kaarten opeens zuiniger zijn met dezelfde clocksnelheden terwijl die mensen ook weten dat het stroomverbruik wordt gelimiteerd
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen

Dat is toch ook wat AMD doet? Daar kun je toch met een slider aangeven hoeveel stroom een kaart mag gebruiken, zonder dat je ziet dat opeens de clocksnelheid omhoog of naar beneden gaat.
Ik denk persoonlijk optie 2. Om het helemaal zeker te weten zou je het systeemverbruik moeten meten.

Voorspelling: Met de oude drivers gaat de 580 over TDP bij Furmark. Met de nieuwe drivers blijft hij binnen TDP.
Dit moet te testen zijn.

Ook klopt het hoge load-percentage dan nogsteeds.
De GPU blijft gewoon 100% gestressed binnen een bepaald verbruikswindow.

Aha, update van Luppie's post, dit gebeurd blijkbaar ook niet ingame. Is dus furmark specifiek.

[ Voor 10% gewijzigd door Cheetah op 04-04-2011 12:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Sh*t ik had eingelijk ook even met OGL in heaven moeten testen. Straks werkt OGL niet goed met niewere drivers. Ik ga dit ook nog even testen met OGL in heaven met oudere drivers.

Edit

Ben nu heaven met OGL aan het testen met driver 270.51 maar de OGL performance is erg slecht vergeleken met dx11 performance

Edit

Maar de performance in OGL is net zo slecht met 262.99 driver dus aa OGL zou het ook niet moeten liggen.

[ Voor 42% gewijzigd door Anoniem: 304087 op 04-04-2011 12:47 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
595 nooit van gehoord!

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Maxily schreef op maandag 04 april 2011 @ 12:07:
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen
Hoe wil je dat doen dan?

Om het stroomverbruik aan te passen moet je de clocks of het voltage verlagen, wat niet gebeurd. De enige andere optie is om de last te verlagen, wat eveneens niet gebeurd want die staat op 100%.

Enkel darkstone met zijn NOP's kan nog kloppen. Alleen dat lijkt me ook niet logisch om na iedere instructie een nop uit te voeren 8)7 . In dat geval weet ik ook niet of het verbruik daar genoeg mee zakt. Een NOP moet tenslotte ook door de pipeline en dergelijke/

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Sowieso is het verlagen van de clocks de meest efficiënte manier, omdat het voltage dan ook omlaag gaat.
Als je NOP's, of van mij part vage sleep constructies gaat uithalen blijft het voltage hetzelfde.

Maar ik heb wel eerder gezien dat de clocks niet klopen, bijvoorbeeld, ik kan het voltage van mijn HD4570 instellen op 0,1v, en dat word ook door wat tools bevestigd. Het lijkt me echter sterk dat dat daadwerkelijk zo was. Leest GPU-z niet gewoon de softwarekant van de clocks in?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

0.1v zou niet eens kunnen, transistoren hebben wel een stukje meer prik nodig om te kunnen blijven werken.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Jejking schreef op maandag 04 april 2011 @ 13:15:
0.1v zou niet eens kunnen, transistoren hebben wel een stukje meer prik nodig om te kunnen blijven werken.
Lang niet. Een normale transistor schakeld rond de 0,7V op de Base. Een transistor op een stukje sillicium gaat niet vele lager volgens mij. Dat zijn gewoon minimale spanningen om uberhaupt te kunnen schakelen.

En idd, een NOP lijkt me dus ook totaal niet voor de hand liggend darkstone. fcurrent = ftarget lijkt me verreweg het makkelijkste.

[ Voor 16% gewijzigd door GENETX op 04-04-2011 13:20 ]


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Dat hangt sterk af van de frequentie en productieprocess, een pentium M kan je tot 0,600v undervolten als je een goed exemplaar te pakken hebt.

Van horen zeggen overigens...

[ Voor 10% gewijzigd door Anoniem: 303530 op 04-04-2011 13:21 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Ik kon mijn AMD Turion X2 ook 800MHz laten doen op 0,725V. Dat vond ik ook al heel wat. Het kan idd lager, maar onder de 0,5V gaat zeker niet lukken.

[ Voor 10% gewijzigd door GENETX op 04-04-2011 13:22 ]


Acties:
  • 0 Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 11-06 12:52
madmaxnl schreef op maandag 04 april 2011 @ 09:05:
4 dode kaarten van de paar die er verkocht zijn. Ik zie namelijk ook bijna niemand melde dat er niets aan het handje is met zijn 595. Maar ik heb dan ook niet liggen zoeken naar gevallen waar er niets aan het handje is.
Toch maar even een reactie van mijn kant. Ik heb sinds een week een EVGA GTX 590. Ik game, stress-test en benchmark ongeveer 8 à 10 uur per dag (ja ik ben momenteel vrij) en heb totaal geen problemen ondervonden. Over de temperaturen en geluidsproductie ben ik erg tevreden. De kaart draait op stock EVGA snelheden en voltage.

Ik "ken" 19 eigenaren (incl. foto bewijs) welke gezamenlijk 25 GTX590 kaarten hebben (ook enkele overclocked tussen de 680 en 840MHz). Een user had twee 590's waarvan er één DOA was. Hij had er ook een watercoolblock opgezet, verder weet ik niks van zijn snelheden en voltages.

Best wel grappig om te zien dat er zoveel mensen op diverse fora enorme discussies aan het voeren zijn over deze kaart terwijl 99.9% van deze mensen niet eens een 590 hebben. Deze hele heisa omtrent slechte vrm's, kapotte kaarten etc, ik maak me er geen seconde druk om. Gaat hij kapot, dan krijgen ze hem terug en krijg ik een nieuwe, 10 jaar lang. Overclocken hoeft van mij niet aangezien de 590 standaard al enorm snel is :)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45

[...]
Hoe wil je dat doen dan?
Geen idee, ik dacht zelf aan hoe AMD dat doet bij hun kaarten. Of gaan daar wel de clocksnelheden omlaag als hun energie-limiter in actie komt? Geen idee of dit mogelijk is, maar misschien kunnen ze cores uitschakelen?

Acties:
  • 0 Henk 'm!

Anoniem: 303530

De cores naar beneden klokken is efficienter dan het aantal cores verlagen, daar schiet je dus niet veel mee op.

Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:24
*knip*

[ Voor 93% gewijzigd door Edmin op 04-04-2011 17:35 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Cheetah schreef op maandag 04 april 2011 @ 11:55:
Wat een geweldige redenatietrant weer... er van uitgaan dat er iets mis is, op basis van het feit dat bijna niemand zou melden dat er niets mis is :)
Na alle heisa die er is ontstaan rondom de GTX590 lijkt het mij logisch dat die paar mensen waarmee niks aan het handje is een weerwoord gegeven? Immers zitten mensen die een GTX590 halen heus wel op een forum. Of zijn het geïndoctrineerde nVidia kopers ?

*knip*

[ Voor 35% gewijzigd door Edmin op 04-04-2011 17:36 ]


Acties:
  • 0 Henk 'm!

  • iApp
  • Registratie: Februari 2011
  • Niet online

iApp

Say cheese

Cheetah schreef op zondag 03 april 2011 @ 20:30:
[...]
Google "GTX-470 SLI review". Met een GTX460 maakt de 2e kaart heel veel verschil trouwens. Toevallig net m'n hele systeem geupgrade, waaronder nu ook GTX460 SLI :)

Maar zoals Darkstone al stelt: terug naar nieuws (als je nog iets vroeg over de 590: oke ;))
Bedankt!
Vooral dit soort dingen halen mij dan wel weer over... :D
Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GTX470_SLI/GTX470_SLI-45.jpg

An  a day keeps the doctor away.


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:24
Modbreak:Zucht

[ Voor 90% gewijzigd door Anoniem: 303530 op 04-04-2011 14:28 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
*knip*

[ Voor 95% gewijzigd door Kid Jansen op 04-04-2011 17:26 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 17:17
Maxily schreef op maandag 04 april 2011 @ 12:07:
[...]
Ik zie 2 opties:
1. Ze clocken de kaart enorm terug maar schrijven extra code die externe programma's kan tracken en die verkeerde informatie kan geven over de gebruikte snelheden etc. zodat de mensen die al naar dat soort zaken kijken zullen denken dat de kaarten opeens zuiniger zijn met dezelfde clocksnelheden terwijl die mensen ook weten dat het stroomverbruik wordt gelimiteerd
2. Ze limiteren het stroomverbruik van de kaart zonder de clocksnelheid aan te passen

Dat is toch ook wat AMD doet? Daar kun je toch met een slider aangeven hoeveel stroom een kaart mag gebruiken, zonder dat je ziet dat opeens de clocksnelheid omhoog of naar beneden gaat.
Wat AMD doet is het volgende:
Powertune bepaalt het max TDP. Mocht de kaart daar overheen gaan worden de clockspeeds verlaagt om binnen het aangegeven TDP te blijven. Met de slider in het Catalyst Control Center kun je -20 of +20% TDP instellen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

madmaxnl schreef op maandag 04 april 2011 @ 14:11:
Na alle heisa die er is ontstaan rondom de GTX590 lijkt het mij logisch dat die paar mensen waarmee niks aan het handje is een weerwoord gegeven? Immers zitten mensen die een GTX590 halen heus wel op een forum.
Alle heisa? Je bedoelt die storm in dat glas water op een paar forums?
Het leukste is dat ~95% v/d heisa juist niet bij de GTX590 bezitters vandaan kwam, maar van... tja, u know.

En ik ga als ik iemand zie klagen dat zijn GTX460 defect is omdat ik toevallig hetzelfde type heb echt niet de moeite doen om speciaal te gaan melden dat de mijne niet defect is hoor. Je zult me wel horen wanneer er wat aan de hand is. En ik denk dat 90-95% van de rest van de wereld er ook zo over denkt.

Een gebrek aan mensen die melden dat er niets mis is interpreteren als een indicatie dat er wel wat mis zo zou zijn is gewoon een fundamenteel foute redenatie, ofwel een drogredenatie -> omgedraaide bewijslast.
Of zijn het geïndoctrineerde nVidia kopers ?
Vast wel. Allemaal. Zonder uitzondering.
Anoniem: 303530 schreef op maandag 04 april 2011 @ 13:42:
De cores naar beneden klokken is efficienter dan het aantal cores verlagen, daar schiet je dus niet veel mee op.
Is dat wel zo? Ook een naar beneden geklokte core verbruikt nog energie (en geeft warmte af, wat ook energieverlies inhoudt) namelijk; een uitgeschakelde helemaal niet. Ik zelf denk eerlijk gezegd dat het verbruik daarmee juist beter/makkelijker en efficienter te managen is.

Ook in de CPU wereld doet men steeds meer aan cores uitschakelen naar gelang de performancebehoefte.
Het zou me dus helemaal niet verbazen als er wel degelijk uitschakelroutines gebruikt worden op GPU's.

[edit] Voorbeeld:

Afbeeldingslocatie: http://www.legitreviews.com/images/reviews/1084/slide5.jpg

[edit2] En nu ik er verder over nadenk weten we wel zeker dat die uitschakelroutines er zijn, die worden namelijk sowieso gebruikt als de kaarten idle draaien -> thus het zo lage idle verbruik... of dergelijke routines ook in het leven worden geroepen om bij max load het energieverbruik binnen de perken te houden weet ik niet, maar het lijkt me zeker niet onaannemelijk.

't zou wel een mooie verklaring zijn voor die 100% load bij gelijke clockspeed, maar met lagere fm prestaties.

[ Voor 12% gewijzigd door Cheetah op 04-04-2011 17:40 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Confronterend reviewtje op HardOCP


HardOCP: ASUS GeForce GTX 590 Overclocking Follow-Up

[ Voor 33% gewijzigd door Help!!!! op 04-04-2011 17:49 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Leuk, ze trekken precies de conclusie die we hier ook al min of meer getrokken hadden :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het is natuurlijk hoe je het bekijkt. Ze hebben er in ieder geval minder tekst voor nodig.... ;) :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Cheetah schreef op maandag 04 april 2011 @ 17:13:
Is dat wel zo? Ook een naar beneden geklokte core verbruikt nog energie (en geeft warmte af, wat ook energieverlies inhoudt) namelijk; een uitgeschakelde helemaal niet. Ik zelf denk eerlijk gezegd dat het verbruik daarmee juist beter/makkelijker en efficienter te managen is.
Dat is zo ;)

Het is eigenlijk heel simpel:
Verdubbel je alle hardware, heb je 2x zoveel prestaties en 2x zoveel hitte (dualcore -> quad, performance per watt blijft gelijk)
Verdubbel je de frequentie, danheb je 2x zoveel prestaties, maar stijgt het stroomverbruik dramatisch: je moet immers het voltage ook meeverhogen, performance per watt keldert.
(heel grof allemaal)

maw, door de frequentie te verlagen draalt het voltage mee, en dus heb je meer performance per watt, bij het uitschakelen van wat cores blijft je performance per wat hetzelfde.

Om diezelfde reden zag je een tijd geleden wel mobiele quadcores op 2Ghz, maar geen dualcores op 4Ghz. De prestaties komen op hetzelfde neer, maar de eerste processor is vele malen zuiniger... onder full load.

Ik denk ook dat de software het niet leuk gaat vinden als er opeens cores uitvallen, maar ik moet bekennen dat ik daar niets vanaf weet.
Ook in de CPU wereld doet men steeds meer aan cores uitschakelen naar gelang de performancebehoefte.
Het zou me dus helemaal niet verbazen als er wel degelijk uitschakelroutines gebruikt worden op GPU's.
Dat is wat anders, firefox gebruikt 1 thread, wat zijn die overigen 3 cores dan aan het doen? Helemaal niets. Met een gpu heb je dat probleem niet omdat renderen bij uitstek geschrikt is om ver verdelen over honderden cores, een GPU komt vrij dicht in de buurt van een processor met een paar honderd cores.


Hoe dan ook, ik denk dat nvidia de boel belazert, het verlagen van de frequentie is simpel doch effectief.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Cheetah schreef op maandag 04 april 2011 @ 17:13:
Is dat wel zo? Ook een naar beneden geklokte core verbruikt nog energie (en geeft warmte af, wat ook energieverlies inhoudt) namelijk; een uitgeschakelde helemaal niet. Ik zelf denk eerlijk gezegd dat het verbruik daarmee juist beter/makkelijker en efficienter te managen is.
Ja, dat is zo:

Alweer U * U * f. Door omlaag te klokken kan het voltage omlaag, door cores uit te shakelen niet. De spanning heeft een kwadratisch effect (iemand ander beweerde zelfs dat het al U^3 is bij huidige processors). Als je de kloksnelheid dan ook nog eens doro de helft doet dan verbruik je dus minder. Je U^2 factor is namelijk lager.

Als je enkel de helft van de cores uitschakeld dan halveer je hoogstens het verbruik, maar je houdt de zelfde rekenkracht. 2x 500MHz is tenslotte net zo snel als 1x 1000MHz.

Het halveren van de kloksnelheid zorgt er dus voor dat het verbruik al wordt gehalveerd en dus al op hetzelfde niveau zit als het uitschakelen van de helft van de cores. Je kan de spanning dan ook nog verlagen en gezien de formule kom je dus een stuk lager uit :)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Behalve dat het uitschakelen van cuda cores ook minder lekstroom op zal leveren lijkt het me nu logischer dat ze inderdaad de kloksnelheid gewoon omlaag halen (zelfde soort discussie op nvidia forum 9 maanden geleden, dus mogelijk toegepast op de nieuwere kaarten).

Dan is maar de vraag of Nvidia echt met opzet programma's als gpu-z voor de gek probeert te houden door de normale snelheid te rapporteren of dat er updates oid nodig zijn voor deze programma's. En gedeeltelijk los daarvan, geeft gpu-z wel de goede waarden aan voor AMD kaarten die worden terug-geclockt d.m.v. power management?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Maxily schreef op maandag 04 april 2011 @ 19:26:
En gedeeltelijk los daarvan, geeft gpu-z wel de goede waarden aan voor AMD kaarten die worden terug-geclockt d.m.v. power management?
Mijn HD5750 geeft de juiste waarden aan. Dat wil zeggen, hij weet wat de officiele snelheid is en bij de cencors geeft hij de overclock snelheid of de idle snelheid aan, afhankelijk van wat de kaart aan het doen is. Mijn oude HD3870 daarentegen werd altijd de maximum snelheid aangegeven en nimmer de idle snelheid.

In ieder geval verwacht ik dat er hier ook sprake is van een frequentiedrop, om te voorkomen dat de kaart te veel stroom trekt. Als nVidia een even 'ingewikkeld' hardware matig systeem als AMD's Powertune had toegepast, dan hadden ze dit wel veel meer naar buiten gebracht. Tenzij ze anders zullen vermelden, ga ik er van uit dat alleen AMD in staat is om delen van de chip langzamer te laten lopen om binnen een bepaald stroomgebruik te blijven.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op maandag 04 april 2011 @ 19:09:
Alweer U * U * f. Door omlaag te klokken kan het voltage omlaag, door cores uit te shakelen niet.

De spanning heeft een kwadratisch effect (iemand ander beweerde zelfs dat het al U^3 is bij huidige processors). Als je de kloksnelheid dan ook nog eens doro de helft doet dan verbruik je dus minder. Je U^2 factor is namelijk lager.
Dit zijn een heleboel aannames die hier gedaan worden. Het is het maar net de vraag in hoeverre je het voltage kan verlagen als je de clocks verlaagt. Want het is echt niet zo dat een core die op de helft van de snelheid loopt (wat alvast waarschijnlijk niet het geval zal zijn; de 590 downclocked bijvoorbeeld 'slechts' naar 550mhz van de stock 607) ook maar de helft van de spanning nodig heeft om te kunnen draaien: er is sowieso een basisspanning nodig en die is vaak heel wat meer dan de helft.
Je beseft ook dat bij een spanning onder de 1V dat 'kwadratische effect' in de praktijk juist een vermindering inhoudt bij gebruik van deze formule en U^3 al helemaal? En bij een spanning van 1,00V maakt het precies niets uit.

Hoe kom je eigenlijk uberhaupt aan die formule "U * U * f" eigenlijk? Ik kan hem nergens vinden met Google namelijk en wil me er wel even op inlezen. Ik vraag me af of hij zomaar zo universeel toepasbaar is, zeker gezien de architectuurverschillen bij verschillende processorontwerpen.
Als je enkel de helft van de cores uitschakeld dan halveer je hoogstens het verbruik, maar je houdt de zelfde rekenkracht. 2x 500MHz is tenslotte net zo snel als 1x 1000MHz.
Dat 2x500 - in de praktijk - even snel is als 1x1000 is een stelling die ik ook niet zou durven lanceren in processorland, dat is van heel veel meer dingen afhankelijk.

offtopic:
Boys, weet je wat, ik ga Crysis2 spelen i.p.v. me weer hierin te storten :D

[ Voor 8% gewijzigd door Cheetah op 04-04-2011 20:57 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Cheetah schreef op maandag 04 april 2011 @ 20:52:
[...]
Hoe kom je eigenlijk uberhaupt aan die formule "U * U * f" eigenlijk? Ik kan hem nergens vinden met Google namelijk en wil me er wel even op inlezen. Ik vraag me af of hij zomaar zo universeel toepasbaar is, zeker gezien de architectuurverschillen bij verschillende processorontwerpen.
Dat is simpelweg de basisformule:
Afbeeldingslocatie: http://img244.imageshack.us/img244/1050/cpupowerconsumptionjh0.png
(bron: intel)

Heel grof, verdubbel je de frequentie stijft het voltage met een uit de duim gezogen factor 1.2, dubbel zoveel prestaties, maar 1,2*1,2*2 = 2,88 keer zoveel energieverbruik

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Anoniem: 303530 schreef op maandag 04 april 2011 @ 20:57:
Dat is simpelweg de basisformule:
[afbeelding]
(bron: intel)

Heel grof, verdubbel je de frequentie stijft het voltage met een uit de duim gezogen factor 1.2, dubbel zoveel prestaties, maar 1,2*1,2*2 = 2,88 keer zoveel energieverbruik
Geldt deze ook universeel voor GPU's?
Wat is "Dynamic capacitance"?

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 13-06 10:00
Cheetah schreef op maandag 04 april 2011 @ 20:52:
[...]
Want het is echt niet zo dat een core die op de helft van de snelheid loopt ook maar de helft van de spanning nodig heeft om te kunnen draaien: er is sowieso een basisspanning nodig en die is vaak heel wat meer dan de helft.
Wat er volgens mij bedoeld wordt is dat wanneer je de frequentie van de 'processor' halveert je het stroomverbruik ook halveert.
Wat er vervolgens nog bijkomt is dat bij een lagere frequentie er ook een lagere spanning nodig is om de boel stabiel te houden.
Dat komt dan nog bovenop de energiebesparing van de verminderde frequentie.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

^correct.
Cheetah schreef op maandag 04 april 2011 @ 21:01:
[...]
Geldt deze ook universeel voor GPU's?
Volgens mij gaat deze formule op voor alle transistors en daarop gebaseerde dingen. Maar daar weet GENETX meer vanaf.
Wat is "Dynamic capacitance"?
Een constante die voor elke chip anders is.

Edit: wacht, dat laatse klopt niet, een "dynamic" constante? :O

[ Voor 10% gewijzigd door Anoniem: 303530 op 04-04-2011 21:29 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 303530 schreef op maandag 04 april 2011 @ 21:10:
Volgens mij gaat deze formule op voor alle transistors en op chip gebaseerde dingen.
Correct, praktisch gedacht zouden AMD en NVidia ook wel enorme oekels zijn als hogere frequentie efficienter was dan meer cores want dan hadden de recente kaarten beter een paarhonderd cores minder kunnen hebben en gewoon op 3GHz moeten lopen, een snelheid die prima te halen is. Kost ook nog minder silicium.

En dat praktisch denken doet mij ook afvragen: Als NVidia het verbruik op momenten kan inperken, zonder dat dat negatieve effecten (zoals performancedrops) heeft... waarom staat dat geniale stukje technologie dan niet permanent aan? :P Ik kan niet anders dan concluderen dat OCP en power-limiters bij zowel NVidia als AMD gewoon de boel moeten terugklokken. Welke marge gebruik je anders om het verbruik te verlagen? GPU-bakkers doen er echt alles aan om het TDP zo laag mogelijk te krijgen voor zo goed mogelijke prestaties en die optimalisaties steken ze veel R&D in, daar zal echt geen 50W verbruikt worden door een nutteloos onderdeel dat je wel even uit kan zetten.

[ Voor 12% gewijzigd door bwerg op 04-04-2011 21:32 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
Jup, violgens mij per chip constant idd. Normaalgesproken heb je ze nodig om uiteindelijk het vermogen correct te berekenen, zonder kun je dus wel procentueel rekenen, maar niet het vermogen.

Hoe dan ook zou de C sowieso weinig invloed hebben mocht deze nog wel verschillen. Dat hebben je eigen metingen aan je processor op je tweakblog al eens aangetoond darkstone :)

[ Voor 4% gewijzigd door GENETX op 04-04-2011 21:46 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Maar dan nog, de 590 downclocked voor zover momenteel bekend 'slechts' naar 550mhz van de stock 607. Dit is maar 10% minder qua clockspeed, en qua voltage zal het ook niet zo idioot veel uitmaken. Die 10% lijkt mij niet voldoende om het (veel grotere) verschil tussen die 2 furmark charts te verklaren.

Even wikipedia-artikel over die formule opgezocht trouwens ("Dynamic capacitance" is the magic word):
The switching power dissipated by a chip using static CMOS gates is C·V2·f, where C is the capacitance being switched per clock cycle, V is voltage, and f is the switching frequency,[1] so this part of the power consumption decreases quadratically with voltage. The formula is not exact however, as many modern chips are not implemented using 100% CMOS, but also uses pseudo nMOS gates, domino logic etc. Moreover, there is also a static leakage current, which has become more and more accentuated as feature sizes have become smaller (below 90 nanometres) and threshold levels lower.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Je hebt het nu alleen over de GPU. Wie weet hoeveel het geheugen gethrottled wordt in het hele proces? Dat kon namelijk nog wel eens een behoorlijk invloed hebben op het geheel.

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 13-06 10:00
Cheetah schreef op maandag 04 april 2011 @ 22:41:
Maar dan nog, de 590 downclocked voor zover momenteel bekend 'slechts' naar 550mhz van de stock 607. Dit is maar 10% minder qua clockspeed, en qua voltage zal het ook niet zo idioot veel uitmaken. Die 10% lijkt mij niet voldoende om het (veel grotere) verschil tussen die 2 furmark charts te verklaren.
Precies!
Het punt dat eerder gemaakt werd is dat nvidia sjoemelt met de uitgelezen kloksnelheden.
Wat we denken is dat de chip bij furmark lager wordt geklokt maar dat dit niet terug te zien is in gpu-z.
Hoe kan anders de prestatie inzakken bij gelijke kloksnelheid en gelijke belasting?
Dat ze de kloksnelheden omlaag brengen bij furmark is het probleem niet eens, maar wel dat het verborgen wordt voor gpu-z.

Volgens mij heb ik het zo goed samengevat.

Nogmaals, dit is een truukje dat ati ook ooit heeft uitgehaald en misschien dat AMD het nog steeds doet.
Onafhankelijk van wie het toepast lijkt mij het dat niemand daarop zit te wachten.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 11-06 11:45
Bedoel je daarmee dat in gpu-z (of zo'n soort programma) je kan aflezen dat de kaart wordt terug geclockt naar 550MHz (terwijl het mogelijk lager moet zijn) of laat gpu-z helemaal niks zien van welke downclock dan ook?

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 13-06 10:00
Maxily schreef op dinsdag 05 april 2011 @ 00:55:
Bedoel je daarmee dat in gpu-z (of zo'n soort programma) je kan aflezen dat de kaart wordt terug geclockt naar 550MHz (terwijl het mogelijk lager moet zijn) of laat gpu-z helemaal niks zien van welke downclock dan ook?
Daarmee bedoel ik dat de performance erg laag is met de klok op 607MHz (gpu-z) en de gpu usage op 100%.
Terwijl met een oudere driver de performance hoog is terwijl de klok (ook) op 607 en de usage op 100% staat.
In het tweede geval moet de koeler wel een stuk harder werken om de gpu koel te houden.
Bovenstaand is tot nu toe alleen bevestigd bij furmark.

Het impliceert dat Nvidia gpu-z voor de gek houdt door te doen alsof de gpu up maximale klok werkt (607) terwijl dat niet het geval is. Ansdere uitleg lijkt tot nu toe minder plausibel.

Nu hoop ik dat er iemand is die kan vertellen of AMD dit ook (nog) flikt, want ik vind het een slechte ontwikkeling.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

daan! schreef op maandag 04 april 2011 @ 23:41:
Het punt dat eerder gemaakt werd is dat nvidia sjoemelt met de uitgelezen kloksnelheden.
Leest GPU-Z de clocks uberhaupt realtime uit dan?
Wat we denken is dat de chip bij furmark lager wordt geklokt maar dat dit niet terug te zien is in gpu-z.
Hoe kan anders de prestatie inzakken bij gelijke kloksnelheid en gelijke belasting?
Tja, simpele verklaring = 'cores uitschakelen', maar dat gelooft men blijkbaar niet.
Dat ze de kloksnelheden omlaag brengen bij furmark is het probleem niet eens, maar wel dat het verborgen wordt voor gpu-z.
Zijn 2 dingen die aangetoond moeten worden:
1. Dat ze de kloksnelheden verlagen
2. Dat er routines zouden zijn om dat te 'verbergen'
Tot nu toe alleen maar gespeculeer, net zoals de afgelopen paar dagen...
...maar good luck anyway... :)

Ik kan er ook niet helemaal bij wat voor doel ermee gediend zou moeten worden om te 'verbergen' dat ze bij furmark zouden throttlen, ingeval ze dat al doen. I mean whatever.

[ Voor 13% gewijzigd door Cheetah op 05-04-2011 03:56 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op dinsdag 05 april 2011 @ 03:50:
Leest GPU-Z de clocks uberhaupt realtime uit dan?
Ja, bij de sensors tab kun je realtime cijfers zien van wat je videokaart doet, tenzij de videokaart die niet toelaat.
Tja, simpele verklaring = 'cores uitschakelen', maar dat gelooft men blijkbaar niet.
De statement is simpel, de techniek erachter echter verre van dat. Het is in ieder geval veel gemakkelijker om GPU-Z om de tuin te leiden. Wellicht gebeurt het zelfs onbewust.
Zijn 2 dingen die aangetoond moeten worden:
1. Dat ze de kloksnelheden verlagen
2. Dat er routines zouden zijn om dat te 'verbergen'
Tot nu toe alleen maar gespeculeer, net zoals de afgelopen paar dagen...
...maar good luck anyway... :)

Ik kan er ook niet helemaal bij wat voor doel ermee gediend zou moeten worden om te 'verbergen' dat ze bij furmark zouden throttlen, ingeval ze dat al doen. I mean whatever.
Ik zou zeggen,

1. Toon aan dat een deel van de Cuda Cores uitgeschakeld wordt.

Voor punt 2 is er namelijk wel genoeg bewijs te vinden dat GPU-Z niet altijd de realtime waardes kan uitlezen/weergeven.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 14:23
daan! schreef op maandag 04 april 2011 @ 23:41:
[...]

Precies!
Het punt dat eerder gemaakt werd is dat nvidia sjoemelt met de uitgelezen kloksnelheden.
Wat we denken is dat de chip bij furmark lager wordt geklokt maar dat dit niet terug te zien is in gpu-z.
Hoe kan anders de prestatie inzakken bij gelijke kloksnelheid en gelijke belasting?
Dat ze de kloksnelheden omlaag brengen bij furmark is het probleem niet eens, maar wel dat het verborgen wordt voor gpu-z.

Volgens mij heb ik het zo goed samengevat.
Jup.

Het idee is dat er iig *iets* niet klopt aan de uitgelezen waarden. Daardoor is hetgeen dat wordt uitgelezen gewoon onbetrouwbaar geworden. En "meten is weten", maar aangezien je niet kan meten (want onbetrouwbaar) kun je ook niet weten. Maw: Alle aan kloksnelheid, voltage, ingeschakelde cores, whatsoever, verbonden conclussies in reviews zijn hierbij waardeloos.

Een mooie test zou overigens zijn om Furmark eens te draaien op halve kloksnelheid bedenk ik me nu.

[ Voor 5% gewijzigd door GENETX op 05-04-2011 08:55 ]


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Nieuwe TS gemaakt,

wel "nieuwe" meer tijd gestoken in het migreren van de pics dan wat anders
*insert serieuse rant voor pic sharing systeem van tweakers, dies echt niet meer van deze tijd ...
Generieke publieke link generatie, titel niet bij default de bestandsnaam, geen mogelijkheid tot bulkupload,enzoverder.. :X *

Anyway ik hoop over een maand of 3 bij dezelfde provider te gaan en dezelfde webruimte aan te vragen waardoor all vorige topics direct weer correctie verwijzingen hebben naar de juiste prentjes ;)

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 53

PS voor de non-discussie voor het uitlezen van de "real time" snelheden;
nVidia heeft al officieel laten weten dat hun api hiervoor zal uitgebreid worden maar dit momenteel nog niet op punt staat in hun beta drivers. (zie bv Anandtech review waar dit vermeld staat ..)
Anyway moest het zelf in orde komen gaan dus alle uitleessoftware pakketten eerst een update moeten ontvangen voor ze de correctie frequenties kunnen tonen indien de thermische protectie in actie komt.

Specs

Pagina: 1 ... 10 11 Laatste

Dit topic is gesloten.

Let op:
Omdat het in het vorige deel blijkbaar niet helemaal duidelijk was nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.