[Algemeen] nVidia Nieuwdiscussie Topic - Deel 52 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 11 Laatste
Acties:
  • 28.698 views

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Je maakt overigens 1 fout in je aannames Cheetah. Als er 1 ding is dat Hardware.fr heeft aangetoond, dan is dat wel dat het mogenlijk is dat een programma OCP omzijlt. Of dit met opzet gebeurd of door toeval/per ongeluk doet er niet toe. Het kan gebeuren. Dat houdt dus in dat het mogenlijk is dat je in een situatie terechtkomt waarin de beveiliging dus niet werkt, waarmee Genetx' aanname dus helemaal zo absurd niet is.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Die lijst klopt niet, ga ze maar na. Hij verwijst naar sites die weer naar andere sites crosslinken, en iedere site die crosslinkt heeft volgens hem ook 1 dode kaart.

De 2 dode review kaarten zijn:
* Techreport, overvolt naar 1.2V - Asus custom bios, waarvan nV heeft aangegeven dat die niet goed was
* Sweclockers, overvolted (weet ff niet exact hoeveel) - Asus custom bios

Ik meende nu ik nadenk ergens te hebben gelezen dat hardware.fr ook een dode kaart had, maar snap geen frans om te weten of dat zo was of dat ze er alleen over de bekende gevallen berichtten zoals de anderen.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op vrijdag 01 april 2011 @ 18:55:
Je maakt overigens 1 fout in je aannames Cheetah. Als er 1 ding is dat Hardware.fr heeft aangetoond, dan is dat wel dat het mogenlijk is dat een programma OCP omzijlt. Of dit met opzet gebeurd of door toeval/per ongeluk doet er niet toe. Het kan gebeuren. Dat houdt dus in dat het mogenlijk is dat je in een situatie terechtkomt waarin de beveiliging dus niet werkt, waarmee Genetx' aanname dus helemaal zo absurd niet is.
Het doet er heel veel toe als OCP een BIOS-element heeft dat blijkbaar in bepaalde custom biossen stuk is. En dat lijkt conform nV's uitspraken dus duidelijk het geval te zijn.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Cheetah schreef op vrijdag 01 april 2011 @ 18:59:
[...]
* Sweclockers, overvolted (weet ff niet exact hoeveel) - Asus custom bios
Mijn Zweedse collega zei dat het filmpje van de tweede GTX590 was de eerste hadden ze niet gefilmpt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op vrijdag 01 april 2011 @ 19:01:
[...]
Het doet er heel veel toe als OCP een BIOS-element heeft dat blijkbaar in bepaalde custom biossen stuk is. En dat lijkt conform nV's uitspraken dus duidelijk het geval te zijn.
Jij gaat er van uit dat OCP niet meer werkt door een custom bios. NVidia heeft dat nergens benoemd. Ik heb het hier tenminste nergens gezien. Het enige wat nVidia benoemde was dat er een AIC een bios gebruikte die teveel voltage toestaat, niets meer, niets minder. Daarnaast benoemde Hardware.fr dat OCP over het algemeen wel werkte op hun GTX590, maar dat blijkbaar niet deed met hun versie van Furmark. Dat toont een probleem aan, eentje die dus niets met het Bios van doen heeft.

Je lijkt je eigen aanname meer en meer credit te geven, zonder dit te staven met concrete bewijzen.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op vrijdag 01 april 2011 @ 19:07:
Jij gaat er van uit dat OCP niet meer werkt door een custom bios. NVidia heeft dat nergens benoemd. Ik heb het hier tenminste nergens gezien. Het enige wat nVidia benoemde was dat er een AIC een bios gebruikte die teveel voltage toestaat, niets meer, niets minder. Daarnaast benoemde Hardware.fr dat OCP over het algemeen wel werkte op hun GTX590, maar dat blijkbaar niet deed met hun versie van Furmark. Dat toont een probleem aan, eentje die dus niets met het Bios van doen heeft.

Je lijkt je eigen aanname meer en meer credit te geven, zonder dit te staven met concrete bewijzen.
Tja, voor een theorie zul je nou eenmaal aannames moeten doen, en dit is inderdaad de ene aanname die ik moet doen voor de mijne. Dit is de tevens aanname die - zeker in combinatie met al de momenteel bekende variabelen - het dichtste komt bij een technischer vertaalslag van wat nV gezegd heeft:
"NVIDIA's reference GTX 590 VBIOS on the production boards has not changed, and we have not provided a new VBIOS to AICs or end users for GTX 590. The original GTX 590 VBIOS that NVIDIA shipped is good for customers to use and we stand fully behind the reliability of the hardware with that VBIOS.

We did hear of one AIC partner who issued a custom VBIOS update specific to their board and we are checking in with them on the details of this."
nVidia zegt feitelijk: ons bios is ok, er is iets mis met het custom bios van een AIB. Als mijn aanname dat wat er mis is met dat bios OCP betreft aangetoond/bevestigd wordt - en dat is iets wat ik niet kan doen - dan is het geen theorie meer maar een feit.

Maargoed, de problemen met en de sleep aan aannames benodigd nodig voor de alternatieve theorie heb ik al duidelijk gemaakt.
Edmin schreef op vrijdag 01 april 2011 @ 18:52:
edit: Uiteindelijk maakt het voor de consument geen klap uit waar de fout ligt. Die koopt een kaart en heeft in 99% van de gevallen geen flauw benul of de BIOS standaard is of niet.

Als dit een probleem is dat veroorzaakt wordt door een slechte BIOS, dan nog gaat NV niet helemaal vrijuit. Ik ga er vanuit dat ook bij Asus, Zotac en EVGA geen debielen rondlopen. Die bedrijven hebben behoorlijk wat ervaring in huis. Als er nu van verschillende fabrikanten tegelijkertijd en onafhankelijk van elkaar BIOS versies verschijnen die de GTX 590 opblazen, dan is er iets heel erg fout gegaan in de communicatie van NV naar haar board partners.
Seq vanuit het oogpunt van de consument is dat zeker zo. Die denkt "*&(%^& mijn kaart is stuk", en het interessert m niet of dat door nVidia of door <name AIB> komt. Maar we zitten wat mij betreft wel hier op Tweakers om verder te kijken dan dat.

Ik denk dat nV's richtlijnen voor AIB's na deze wel wat strakker zullen worden. Of - wat ik eigenlijk hoop - dat ze dit soort zaken in een soort schaduwbios proppen dat niet door een AIB kan worden aangepast. Dat garandeert wat meer de foolproofness waar GENETX het over heeft.

[ Voor 26% gewijzigd door Cheetah op 01-04-2011 19:36 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op vrijdag 01 april 2011 @ 18:37:
Nee dus. De mosfet sprong op ergens tussen de 25% en 50% boven spec. Dit omdat die essentiele OCP verbruikslimiter - die jij net handig uit je hypothese probeert weg te moffelen - niet werkte.
[...]
Juist. Blijkbaar zelfde situatie dus: verbruikslimiter werkte niet.
Juist het hele probleem wat jij niet wil zien blijkbaar. OCP zou niet moeten bijspringen bij een normale kaart. Of vind jij het ook normaal dat je 3x op een avond naar de stoppenkast moet lopen omdat je TV even net te veel stroom vroeg? Nee. Tijdens gamen zou OCP normaalgesproken niet bij moeten springen. Punt. Als je beweert dat ie dan tussen de 25-50% te veel gebruikt is er dus wat mis. Als OCP al bij zou moeten springen dan zou dat bij 5% boven spec ofzo moeten.
Zie helemaal bovenaan. Dit is een essentiele misvatting over de functie van een overspanningslimiter. Die heeft namelijk de functie om het maximum verbruik te limiteren en dit is essentieel, zelfs op je stofzuiger. En die functie heeft het altijd, ook op AMD's kaarten.
Die functie heeft een zekering ook 8)7

Enig idee wat je zegt? Of moeten mijn collega's en ik maar elektronica maken die makkelijk buiten spec draait onder het noemer: "ach de zekering/OCP vliegt er toch wel uit". Nee. Je maakt hardware die normaal geen zekering of OCP nodig heeft, enkel in situaties die normaalgesproken niet voorkomen.
Statement is aantoonbaar onwaar, lees elke review en vooral de hertest van TechReport. Die testen overclocked op ~700mhz met een overvolt en de kaart kan dat prima aan zonder qua performance in te kakken. Net zoals al de kaarten van de reviewers en de vele honderden kaarten die ongetwijfeld al in het reviewkanaal zitten overigens.

Dit is FUD die inmiddels al lang is weerlegd door o.a. TechReport. Die kaart throttled helemaal niet op stock speeds; zelfs niet overclocked tot 700mhz met een overvolt achter de kiezen.
Try to keep up, dit was afgelopen woensdag (!!) al bekend.
Ok zal ik doen. Maar ik heb ook mensen gezien die beweren dat Nvidia de uitgelezen snelheden gelijk houd zodat het lijkt alsof alles ok is. Tricky imho.
Ik ga even opsommen welke aannames we allemaal moeten doen om jouw hypothese te accepteren:
1. nVidia liegt over het feit dat het probleem ligt bij het custom BIOS van enkele AIBs
Ja, ik geloof Nvidia iig niet blind nee.
2. nVidia's hardware designers zijn ruk, en hebben minder begrip van hun eigen hardware dan jij dat hebt
Dat zeg ik niet. De designers zullen hun werk gedaan hebben. Ik verwacht eerder dat managers juist, tegen een advies van de ingenieurs in, de keuze hebben gemaakt om hem maar op te voeren. Doorgaans wint het geld namelijk van kennis en verstand helaas. Zie bv ook Fukushima of de hele bankensector.
3. nVidia heeft de kaart niet Quality Checked in hun lab
Als Charlie en ik gelijk hebben dan hadden ze geen tijd meer om te testen.
4. nVidia is niet capabel om te berekenen dat 2x4pin connector + PCI-e slot uitkomt op: 2x150 + 75 = 375W
Je zorgt altijd dat je meer vermogen kan binnentrekken dan je nodig hebt. Andersom zou je namelijk kabels door gaan fikken. Die bewering doe ik dan ook nog eens helemaal nergens.
En dan na dit alles: samengevatte line-out van mijn theorie die:
* wel strookt met alle momenteel bekende feiten,
* alle gevallen waarvan de relevante info bekend is (wel of geen custom bios) verklaart
* geen conspiracy theories bevat,
* niet veronderstelt dat nV op alle lagen idioten heeft zitten, en
* wel in overeenstemming is met de uitspraken van de fabrikant
Cheetah in "[Algemeen] nVidia Nieuwdiscussie Topic -..."
Als ik ergens een redenatiefout maak hoor ik het graag.
Prima jou theorie. Maar je theorie baseer je wel op een correct werkende OCP waarvan ik nu juist aangeef dat je die niet wilt nodig hebben.

Ik fel mijn oordeel namelijk op basis van datgene wat ik als elektrotechnisch ingenieur nou namelijk zelf als normaal accepteer. Het inzetten van een OCP als basis voor het correct werken van de kaart bij normaal gebruik hoort daar niet bij. Dat zal geen enkele ingenieur accepteren. En die OCP is nou juist het enige waarop jij Nvidia in bescherming neemt. Een groot verschil in visie die we nooit kunnen dichten.

Edit:
Laten we dus eens de OCP goed analyseren. Doet nvidia dat netjes. Dit is namelijk wat ze met de GTX580 deden:
http://forums.overclocker...?p=18792828&postcount=244
Beide mooi de top kloksnelheid, beide mooi op 99% load met Furmark. Geweldige kaart nietwaar? Alleen wel vreemd dat dezelfde GPU opeens minder dan de helft van de prestaties geeft op dezelfde snelheid met dezelfde test. Maw, grote kans dat Nvidia de zaak gewoon bedonderd.

[ Voor 4% gewijzigd door GENETX op 01-04-2011 19:41 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Olie op het vuur!

Na lang zoeken is er nu ook een Radeon HD 6990 gevonden die het heeft begeven, namelijk bij Neoseeker..
Update:

After our initial testing of the HD 6990 we moved the graphics card over to a backup system that we were using to test new games for our benchmarking suite. We were able to complete testing with the HD 6990 in some of our new benchmarks including H.A.W.X 2, Lost Planet 2 and DiRT 2, however, when we were testing the performance of Dragon Age II the HD 6990 died on us. At the time of it's demise the card was set at the stock 830MHz setting and the BIOS switch was in the default position. The fact that it died could have been that we tested the graphics card at both the 375W and 450W settings, but since the review we have left the settings at default level.

Presently this leaves Neoseeker without a HD 6990 for future testing. AMD will not warranty the card so we are left with no choice but to reach out to their partners to see if we can get a sample. So, from this point on it will only be seen in the benchmarks that were used at the time of the review until we can get a replacement.
Bron: http://www.neoseeker.com/..._HD_6990_Antilles/18.html

Nog een merkwaardige post: http://forums.guru3d.com/...p?p=3933815&postcount=226

[ Voor 12% gewijzigd door frankknopers op 01-04-2011 19:46 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op vrijdag 01 april 2011 @ 19:28:
nVidia zegt feitelijk: ons bios is ok, er is iets mis met het custom bios van een AIB. Als mijn aanname dat wat er mis is met dat bios OCP betreft aangetoond/bevestigd wordt - en dat is iets wat ik niet kan doen - dan is het geen theorie meer maar een feit.
Het punt wat ik dus maakte is dat Hardware.fr al heeft aangetoond dat OCP ook kan falen bij normale bios, terwijl het dus gewoon functioneert bij programma's die het herkent. Hun kaart had dus een werkende OCP die stopte met werken bij een speciale versie van Furmark. Dat is dus een heel ander verhaal dan dat OCP alleen niet zou kunnen werken met custom Bios'.

In jouw hypothese ga je er vanuit dat OCP sowieso niet werkt met een custom Bios, maar blijkbaar werkt het ook niet altijd met een reference Bios.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Maar waren het de VRM's?

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
En eveneens vreemd overigens voor wat betreft OCP:
http://www.xtremesystems....p?p=4798568&postcount=561
http://www.xtremesystems....p?p=4798627&postcount=562

Eerst slechts 20FPS in Crysis2 met de GTX590, na de rename dus 85FPS en bang. Dit is dus juist de reden waarom ik een heel groot vraagteken zet bij de correctheid van de kloksnelheid die GPU-Z uitleest. Ik hoef jullie niet uit te leggen dat videokaartfabrikanten er bekend om staan om in de driver trucjes uit te halen om alles rooskleuriger te maken.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op vrijdag 01 april 2011 @ 19:33:
Juist het hele probleem wat jij niet wil zien blijkbaar. OCP zou niet moeten bijspringen bij een normale kaart. Of vind jij het ook normaal dat je 3x op een avond naar de stoppenkast moet lopen omdat je TV even net te veel stroom vroeg? Nee. Tijdens gamen zou OCP normaalgesproken niet bij moeten springen. Punt. Als je beweert dat ie dan tussen de 25-50% te veel gebruikt is er dus wat mis. Als OCP al bij zou moeten springen dan zou dat bij 5% boven spec ofzo moeten.
Zoals ik al schreef: ook de AMD kaarten hebben dit soort verbruikslimiters, ze zijn normaal in hardwareland. De verbruikslimiter is geen zekering. Ik had het al lang door dat jij het als zodanig beschouwd, omdat jij vind dat het dat zou moeten zijn, maar dat is dus duidelijk niet wat het is: het is specifiek ontworpen om het verbruik te managen.

Datzelfde geldt overigens ook voor een variabele stofzuiger die je met het handje kunt instellen op 800W - 1200W - 1600W. Ook op 1600W is er een limiter in place die ervoor zorgt dat het ding niet meer verbruikt. En wat denk je dat er gebeurt als die limiter stukgemaakt wordt?

Als je wilt stellen dat de kaart naast de OCP nog een extra zekering had moeten hebben dan wil ik an sich nog wel in meegaan. Maar als de verbruikslimiter gewoon goed werkt binnen het reference bios dan is dat helemaal niet nodig - zoals vooralsnog ook blijkt. nV mag er van uit gaan dat de AIB niet aan OCP zit in het bios (alleen komt die aanname ze nu wel duur te staan).

Zoals ik eerder al schreef: wat jij zegt vergelijkbaar een airbagontwerper de schuld geven dat iemand fataal hoofdtrauma oploopt omdat na e.e.a. aan aanpassingen in het dashboard door de autoverkoper de airbag het niet meer doet. Dat ding is ontworpen met een bepaald doel om te draaien onder bepaalde specificaties.
Je kunt uiteraard wel aangeven dat je het beter zou vinden als de airbag nog een extra beschermlaag zou hebben, maar aan de andere kant is het niet onredelijk dat de airbagontwerper er van uit gaat dat de autoverkoper niet aan de airbag prutst als ie in het dashboard bezig is.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op vrijdag 01 april 2011 @ 19:55:
[...]
Zoals ik al schreef: ook de AMD kaarten hebben dit soort verbruikslimiters, ze zijn normaal in hardwareland. De verbruikslimiter is geen zekering. Ik had het al lang door dat jij het als zodanig beschouwd, omdat jij vind dat het dat zou moeten zijn, maar dat is dus duidelijk niet wat het is: het is specifiek ontworpen om het verbruik te managen.
Interessant, dus de 6990 klokt ook terug bij furmark?
Heb je daar een linkje voor, daar wil ik wel wat meer over weten.

Persoonlijk vind ik dat dit soort kaarten best mogen terugklokken tijdens furmark, maar niet tijdens games.
Wel jammer dat je zo'n kaart dan niet voor intensieve gpgpu taken kan gebruiken.

Edit:
GENETX schreef op vrijdag 01 april 2011 @ 19:54:
En eveneens vreemd overigens voor wat betreft OCP:
http://www.xtremesystems....p?p=4798568&postcount=561
http://www.xtremesystems....p?p=4798627&postcount=562

Eerst slechts 20FPS in Crysis2 met de GTX590, na de rename dus 85FPS en bang. Dit is dus juist de reden waarom ik een heel groot vraagteken zet bij de correctheid van de kloksnelheid die GPU-Z uitleest. Ik hoef jullie niet uit te leggen dat videokaartfabrikanten er bekend om staan om in de driver trucjes uit te halen om alles rooskleuriger te maken.
Hmm, dus de kaart klokt terug maar de computer denkt dat hij op volle snelheid draait?
Dat zou ik echt een schandalige zet vinden.

[ Voor 33% gewijzigd door daan! op 01-04-2011 20:03 ]


Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 20-05 14:57
Van die lijst klopt echt niets.

Trouwens in 1 artikel dat daar gequote wordt laten ze de kaart op 1.1V @900mhz lopen en gaat op die snelheid zonder problemen door heel de bench op lucht...en de kaart leeft nog ;)

Wel is het power design van het bord (vooral de mosfet's) complete crap en hun conclusie is ontsla de designers ervan :)

http://lab501.ro/placi-vi...studiu-de-overclocking/12
en
http://lab501.ro/placi-vi...studiu-de-overclocking/17

God does not play dice


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op vrijdag 01 april 2011 @ 19:55:
Maar als de verbruikslimiter gewoon goed werkt binnen het reference bios dan is dat helemaal niet nodig - zoals vooralsnog ook blijkt. nV mag er van uit gaan dat de AIB niet aan OCP zit in het bios (alleen komt die aanname ze nu wel duur te staan).
Nogmaals, OCP werd compleet uitgeschakeld/omzeild bij de test van Hardware.fr, terwijl er niets op wijst dat ze een kaart hadden met custom bios. Bovendien maken ze in hun artikel de statement dat OCP voor de rest functioneert op de kaart die ze bij de test hadden. Je stelling gaat dus, nogmaals, niet op.
Zoals ik eerder al schreef: wat jij zegt vergelijkbaar een airbagontwerper de schuld geven dat iemand fataal hoofdtrauma oploopt omdat na e.e.a. aan aanpassingen in het dashboard door de autoverkoper de airbag het niet meer doet.
Omdat je zo dol bent op autovergelijkingen.
Het lijkt meer op een gevalletje van raceautobouwer (Ferrari bv) die een nieuw model heeft gebouwd en deze aflevert op thuiskomertjes (je weet wel, die fragiele dunne bandjes voor als je een lekke band hebt) omdat je toch niet sneller dan 120 130 kmph mag. De lokale dealer doet bij de verkoop echter een gratis ticket voor een rondje Nürburgring om de auto daar eens flink op zijn staart te trappen, iets wat die bandjes natuurlijk nooit gaan houden.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op vrijdag 01 april 2011 @ 19:55:
[...]
Datzelfde geldt overigens ook voor een variabele stofzuiger die je met het handje kunt instellen op 800W - 1200W - 1600W. Ook op 1600W is er een limiter in place die ervoor zorgt dat het ding niet meer verbruikt. En wat denk je dat er gebeurt als die limiter stukgemaakt wordt?
Mag je mij even een bron geven. Ik vind 2 soorten limiters:
1. Temperatuur. Laat de stofzuiger uitzetten als de temp te hoog wordt. Doet een GPU ook als alles goed gaat en is geen OCP.
2. Current limiter om de stroom te begrenzen bij het starten. En we hebben het hier over een stofzuiger. Weet je waarom? Een startende elektromoter trekt f*cking veel stroom bij het starten. Zonder dat ding zou je zekering er gelijk uitbranden als je alleen maar denkt dat knopje in te drukken. Een videokaart is geen motor en kent dat probleem dan ook niet.

En ja als het stuk wordt gemaakt dan is dat niet goed.
Als je wilt stellen dat de kaart naast de OCP nog een extra zekering had moeten hebben dan wil ik an sich nog wel in meegaan. Maar als de verbruikslimiter gewoon goed werkt binnen het reference bios dan is dat helemaal niet nodig - zoals vooralsnog ook blijkt. nV mag er van uit gaan dat de AIB niet aan OCP zit in het bios (alleen komt die aanname ze nu wel duur te staan).
Een extra zekering was idd niet verkeerd geweest bij een VRM die hier niet op berekend is ja. En over de OCP praat ik niet. Onze mening daarin wijkt af en dat zal het blijven. Ik ga geen hardware designen die bij voorbaat over de grenzen zal gaan en puur op basis van een zekering niet in de prullenbak beland.
Zoals ik eerder al schreef: wat jij zegt vergelijkbaar een airbagontwerper de schuld geven dat iemand fataal hoofdtrauma oploopt omdat na e.e.a. aan aanpassingen in het dashboard door de autoverkoper de airbag het niet meer doet. Dat ding is ontworpen met een bepaald doel om te draaien onder bepaalde specificaties.
Helemaal mee eens. In deze geef ik Nvidia ook niet de schuld voor overgeklokte kaarten van fabriek af. Ik zie enkel een juiste BIOS en juiste driver met juiste OCP niet als juiste design. Wel als oplossing voor het probleem. Maar een oplossing voor een probleem dat in beginsel al niet had mogen voorkomen. Wellicht in vergelijking met een airbag die niet afgaat omdat de fabrikant zelf te weinig sensoren heeft ingebouwd voor een betrouwbare meting oid en dat de oplossing zou zijn om hem maar gevoeliger te maken met als resultaat dat de airbag mogelijk te snel in actie kan komen zoals bij een noodrem.
Je kunt uiteraard wel aangeven dat je het beter zou vinden als de airbag nog een extra beschermlaag zou hebben, maar aan de andere kant is het niet onredelijk dat de airbagontwerper er van uit gaat dat de autoverkoper niet aan de airbag prutst als ie in het dashboard bezig is.
Eens wat dat betreft.

Maar nogmaals: We verschillen van mening over de manier waarop een protectie moet werken. Ik zie protectie als valnet voor "error"-toestand binnen systemen, niet normale programmatoestand. In programmeerwereld is dat dus on ongeldige toestand die in het model niet voor kan komen, maar in realiteit wel moet worden opgevangen, niet als standaardtoestand bij normale executie. Je gaat bv ook niet met opzet nullpointerexcepties oid laten gooien in je programma. Zo laat een elektrotechnisch ingenieur ook niet met opzet een te hoge stroom lopen bij normaal verbruik. Zoals je weet heb ik al aangetoond dat 2 kaarten met grofweg normaal verbruik en normaal gebruik (als in: gewoon wat gamen, niet moedwillig opblazen) de lucht in gaan.

Edit: Jij verwijst wel mooi naar TechReport waar niks mis gaat. Nou, dat gaat het zeer zeker wel:
http://techreport.com/articles.x/20629/11
Afbeeldingslocatie: http://techreport.com/r.x/geforce-gtx-590/power-load.gif
En dat is geen Furmark, maar Bad Company 2. De GTX 590 doet bijna net zo veel als een AMD HD6990 met 450W setting. Het lijkt me bijna onmogelijk om te veronderstellen dat de GTX590 daar binnen zijn 365W TDP blijft of AMD moet opeens 100W onder het max zitten van wat ie kan 8)7

[ Voor 16% gewijzigd door GENETX op 01-04-2011 20:26 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op vrijdag 01 april 2011 @ 19:44:
Het punt wat ik dus maakte is dat Hardware.fr al heeft aangetoond dat OCP ook kan falen bij normale bios, terwijl het dus gewoon functioneert bij programma's die het herkent. Hun kaart had dus een werkende OCP die stopte met werken bij een speciale versie van Furmark. Dat is dus een heel ander verhaal dan dat OCP alleen niet zou kunnen werken met custom Bios'.

In jouw hypothese ga je er vanuit dat OCP sowieso niet werkt met een custom Bios, maar blijkbaar werkt het ook niet altijd met een reference Bios.
Draaide de hardware.fr kaart het reference bios dan? Kun je dat aanwijzen? Ik had sterk de indruk van niet namelijk (ik meen te hebben gelezen dat dat ook een Asus kaart was).

Alternatief - indien inderdaad blijkt dat ie reference is - zou kunnen zijn dat de BIOS OCP pas definitief inkicked bij ~450W verbruik. An sich past dat wel binnen de hypothese.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
hardware.fr heeft geen geen info. Het enige wat ik wel zie is een tabel met 607MHz. En ook op http://www.techpowerup.co...US/GeForce_GTX_590/1.html lijkt hij op 607MHz te draaien?

Kan het misschien zijn dat Nvidia Asus beschuldigd van het ophogen van de voltage lock? Die zou volgens Nvidia op 1,05V staan, terwijl bleek dat met MSI Afterburner de voltages naar 1,2V konden. Voornamelijk ook omdat Nvidia enkel Asus noemt als ik het zo lees?

In dat geval zou de BIOS volgens mij ook niks meer te maken hebben met OCP die zijn werk doet of beter gezegd niet, maar gewoon voor die extra 0,15V die echt dodelijk is. Alleen, wie gebruikt die? Alleen TPU heeft hem volgens mij opzettelijk zo hoog gezet?

Edit:
En het lijkt idd normaal te zijn. Met de Nvidia wordt namelijk 612MHz en 0,97V gemeten bij 3D:
http://www.techpowerup.co...S/GeForce_GTX_590/26.html
Prima normale specs. Kloksnelheid kan iets fluctueren en voltage kan ook een kleine afwijking hebben. Niks raars iig imho.

Zou Nvidia dan echt alleen Asus aanvallen vanwege het feit dat hun BIOS 1,2V toestaat ipv 1,05V? Dan vraag ik me namelijk echt af hoe het zit met EVGA waarvan ook al 2 kapot zijn gegaan.

Asus heeft ook maar 1 kaart:
http://www.asus.com/produ...gPYBzck1dgp3ti&templete=2
En eerlijk, 612MHz kan ik geen echte overclock noemen. Voltage wordt natuurlijk niet genoemd, maar dat lijkt me ook niet ineens overdreven meer te moeten zijn voor 5Mhz winst.

Edit2:
Met dahakon, idd lijkt die van hardware.fr gewoon van Nvidia te komen

[ Voor 37% gewijzigd door GENETX op 01-04-2011 21:51 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De kaart van Hardware.fr heeft geen merk opgeprint. Je zou denken dat als het een Asus is, dat dit terug te zien zou moeten zijn op de kaart of ook maar ergens in het verhaal.

De 'hypothese' dat OCP misschien pas bij 450 Watt ingrijpt, is ietwat ver gegrepen. Dat is namelijk ver voorbij de maximale belasting die de VRM's kunnen verdragen. Bovendien strookt het niet met het verhaal van Hardware.fr dat OCP gewoon lijkt te werken, tenzij ze een speciale Furmark inschakelen.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
dahakon schreef op vrijdag 01 april 2011 @ 21:49:
De kaart van Hardware.fr heeft geen merk opgeprint. Je zou denken dat als het een Asus is, dat dit terug te zien zou moeten zijn op de kaart of ook maar ergens in het verhaal.

De 'hypothese' dat OCP misschien pas bij 450 Watt ingrijpt, is ietwat ver gegrepen. Dat is namelijk ver voorbij de maximale belasting die de VRM's kunnen verdragen. Bovendien strookt het niet met het verhaal van Hardware.fr dat OCP gewoon lijkt te werken, tenzij ze een speciale Furmark inschakelen.
Hardware.fr gebruikt idd een speciale versie van Furmark die niet door OCP wordt gepakt. Maar daarmee zou wel het verhaal van Nvidia busted zijn imho. OCP zou dus op die kaart hoe dan ook moeten werken en eigenlijk software onafhankelijk. Want ja, Nvidia stelt dat OCP faalt door de custom BIOS van Asus. Maar blijkbaar faalt het net zo hard op de eigen BIOS. Of is het nu ineens weer de driver? :F Maarja, op driver level is sowieso :F Niet de laatste driver, wel de nieuwste game == :F

[ Voor 12% gewijzigd door GENETX op 01-04-2011 21:56 ]


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
daan! schreef op vrijdag 01 april 2011 @ 19:59:
[...]

Interessant, dus de 6990 klokt ook terug bij furmark?
Heb je daar een linkje voor, daar wil ik wel wat meer over weten.

Persoonlijk vind ik dat dit soort kaarten best mogen terugklokken tijdens furmark, maar niet tijdens games.
Wel jammer dat je zo'n kaart dan niet voor intensieve gpgpu taken kan gebruiken.
Dat de HD 6990 terugklokt is niet nieuw. Dat heet PowerTune en is al veelvuldig uitgelegd/aan bod gekomen. Sterker nog, in AvP klokt de HD 6990 ook terug zo vertelde AMD mij, met de normale settings op 830MHz. Dat is echter een van de weinige spellen. Bij AMD is het verbruik echter hardware-matig gereguleerd, waardoor de kaart altijd het max aantal fps uitspuugt, zonder meer dan X aantal Watt te verbruiken. Bij Nvidia werkt het net even wat anders.

Cheetah, je lijkt mij een verkeerde weg ingeslagen te zijn. Een kaart moet in 95 van de 100 gevallen zijn OCP niet nodig hebben. Die is er enkel voor outliers, zoals Furmark, of overklokkers die meer spanning op de gpu zetten.

De gpu is daarbij niet te vergelijken met een stofzuiger, waarvan de gebruiker niet altijd de maximum prestaties eist en deze dus naar beneden bij kan stellen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
-The_Mask- schreef op vrijdag 01 april 2011 @ 00:00:

nVidia komt met GTX595

In het kort een GTX590 4GB met beter PCB en iets hoger geklokt om de HD6990 te verslaan en waarschijnlijk dus ook wel een beter werkende OCP. Later meer. :)

[afbeelding]
Hier meer voor wie het nog niet wist. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Paprika schreef op vrijdag 01 april 2011 @ 18:54:
[...]

Dit valt niet meer onder humor, maar gewoon genialiteit. _O-
[afbeelding]
We have watercooling...
http://www.xtremesystems.org/forums/showthread.php?t=268893

edit: precies nog binnen 1 april... *O*

[ Voor 6% gewijzigd door Edmin op 02-04-2011 00:00 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

dahakon schreef op vrijdag 01 april 2011 @ 20:11:
Nogmaals, OCP werd compleet uitgeschakeld/omzeild bij de test van Hardware.fr, terwijl er niets op wijst dat ze een kaart hadden met custom bios. Bovendien maken ze in hun artikel de statement dat OCP voor de rest functioneert op de kaart die ze bij de test hadden. Je stelling gaat dus, nogmaals, niet op.
Nogmaals? Wel eigenlijk past dit uitstekend in mijn theorie, sterker nog: beter zelfs. Als wat jij stelt waar is functioneerde OCP niet op driverlevel maar wel nog op BIOS level. En verbruik kan dan dus blijkbaar stijgen naar 458W.
Omdat je zo dol bent op autovergelijkingen.
Vergelijkingen zijn alleen interessant als ze kloppen.
GENETX schreef op vrijdag 01 april 2011 @ 20:12:
Een extra zekering was idd niet verkeerd geweest bij een VRM die hier niet op berekend is ja.
Ik weet niet of je het ook in de gaten hebt, maar er komen steeds meer aanwijzingen dat die VRM er prima op berekend is. Zie verder hieronder.
En over de OCP praat ik niet. Onze mening daarin wijkt af en dat zal het blijven. Ik ga geen hardware designen die bij voorbaat over de grenzen zal gaan en puur op basis van een zekering niet in de prullenbak beland.
Prima, maar jij hebt het niet gedesigned, en de designers hadden er duidelijk een veel ruimer doel mee in gedachten dan jij vindt dat zou moeten. Ik pretendeer - in tegenstelling tot jou blijkbaar - niet beter dan de designers te weten hoe hun hardware werkt en welke variabelen meespelen. Ik geef alleen aan alleen dat OCP een veel ruimere functie heeft dan jij vind dat het zou moeten hebben, namelijk: powerregulatie, en niet slechts een 'zekering'-functie.

En als je dit zo'n issue vindt kun je zeer waarschijnlijk ook met de AMD designers om tafel, want ik begin er langzaamaan van overtuigd te raken dat hun powerregulatie op (vrijwel) exact dezelfde manier werkt als die van nV. Alleen mogen de AIB's van AMD niet met het bios kloten, dus kunnen die dat - uiteraard - niet stuk krijgen.
Maar nogmaals: We verschillen van mening over de manier waarop een protectie moet werken.
Nogmaals, het is blijkbaar niet slechts protectie maar powerregulatie. Protectie is daar 'slechts' onderdeel van.

Of om het andersom te stellen: OCP zoals jij dat bedoelt is slechts onderdeel van de powerregulatie als geheel.
Edit: Jij verwijst wel mooi naar TechReport waar niks mis gaat. Nou, dat gaat het zeer zeker wel:
http://techreport.com/articles.x/20629/11
[afbeelding]
En dat is geen Furmark, maar Bad Company 2. De GTX 590 doet bijna net zo veel als een AMD HD6990 met 450W setting. Het lijkt me bijna onmogelijk om te veronderstellen dat de GTX590 daar binnen zijn 365W TDP blijft of AMD moet opeens 100W onder het max zitten van wat ie kan 8)7
Prachtig plaatje, ik had die gemist. Weet je wat dit plaatje me vertelt, zeker i.c.m. die van hardware.fr?
1. De VRM's van de 590 kunnen een veel hogere belasting aan dan wat jullie hier fijn bedacht hebben (iets wat ik pas 3 dagen roep ofzo)
2. Powerregulatie (op bios niveau) kicked pas ruim boven het TDP in.
dahakon schreef op vrijdag 01 april 2011 @ 21:49:
De 'hypothese' dat OCP misschien pas bij 450 Watt ingrijpt, is ietwat ver gegrepen. Dat is namelijk ver voorbij de maximale belasting die de VRM's kunnen verdragen. Bovendien strookt het niet met het verhaal van Hardware.fr dat OCP gewoon lijkt te werken, tenzij ze een speciale Furmark inschakelen.
Dat powerregulatie/OCP op bios niveau ingrijpt zo rond de 450W kan volgens jou niet kloppen... omdat het ver voorbij de maximale belasting op de VRM's die jullie bedacht hebben zou zijn..??

Wat is dus de - steeds duidelijker wordende - niet kloppende variabele hier? -> de "maximale belasting" op de VRM's die jullie bedacht hebben. Maar dat zeg ik pas sinds woensdag ofzo hoor... ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Als die VRMs dan zo veel beter zijn als wat hier verondersteld wordt, hoe verklaar je dan de uitvallers? Op alle karten waar beeld van is, zie je de VRMs een sierlijke dood sterven.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Edmin schreef op zaterdag 02 april 2011 @ 01:31:
Als die VRMs dan zo veel beter zijn als wat hier verondersteld wordt, hoe verklaar je dan de uitvallers? Op alle karten waar beeld van is, zie je de VRMs een sierlijke dood sterven.
Als de powerregulatie (/ OCP) niet naar behoren werkt brand de hardware door als de belasting te hoog wordt. Meer specifiek: de VRM's.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Juist. Maar het is maar net waar je de oorzaak legt. In principe liggen de standpunten niet eens zo heel ver uiteen. Jij bent van mening dat OCP prima via BIOS en driver kan, de andere kant is van mening dat OCP via hardware moet en dat de kaart krap bemeten is op de VRMs.

nounounou, waar hebben we het over?

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 27-05 12:38

Ultraman

Moderator Harde Waren

Boefje

Ondanks dat het geen 1 april meer is...

Ze zouden het gewoon eens moeten doen: een kaart onder de 3dfx merknaam op de markt gooien.
Een sterke jongen, maar niet de dure multi-GPU varianten.
Iets gekieteld of met wat extra pijpjes/shaders/u-name-it of gelimiteerde opgaven.
Ik vind het maar saai worden met maar 2 echte merkkeuzes op de discrete videokaartenmarkt. :D :z
En dan wel full package he. Dus kaart in stijl, doos met juiste artwork, drivers + control panel in stijl en natuurlijk het logotje alvorens het starten van een game (met de optie om hem uit te schakelen). Jumjumjum.

Komt er natuurlijk toch niet, want dat soort grapjes kost meer geld dan het oplevert, maar dromen is leuk toch?

[ Voor 21% gewijzigd door Ultraman op 02-04-2011 02:11 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op zaterdag 02 april 2011 @ 01:09:
Nogmaals, het is blijkbaar niet slechts protectie maar powerregulatie. Protectie is daar 'slechts' onderdeel van.
1. Powerregulatie in deze vorm betekent dus blijkbaar het terugklokken wanneer de kaart teveel moet doen.
Bij de GTX 580 trad dit waarschijnlijk alleen op bij furmark (en AVP?)
Bij de GTX 590 treedt dit veel vaker op. (zie het voorbeeld van crysis2.exe)
Uit eerdere posts komt naar voren dat deze powerregulatie de kaart terugklokt waardoor de performance gigantisch inkakt. (20 ipv 85 fps)

Dat betekent dus dat de kaart een muilkorf krijgt juist op het moment dat ie z'n tanden moet laten zien.
Ik heb even geen autovoorbeeld, sorry. :P

Ik weet niet of tweakers.net het reviewexemplaar nog heeft liggen, zo ja dan is het wel de moeite dit te testen lijkt me. Ik denk dat dat wel nieuwswaarde heeft.

2. Probeer a.u.b. meningen en/of hypothesen minder te presenteren als feiten. Volgens mij stuit dat velen hier tegen de borst en het maakt de discussie onnodig lang.

3. Of de kaarten echt zo slecht zijn als sommigen beweren valt te bezien, time will tell.
Wat ik wel nog een keer wil benadrukken is dat kaarten best kapot mogen gaan (daar heb je garantie voor) maar ze mogen nooit vonken produceren, ongeacht de overklok of overvolt!

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Edmin schreef op zaterdag 02 april 2011 @ 01:53:
Juist. Maar het is maar net waar je de oorzaak legt. In principe liggen de standpunten niet eens zo heel ver uiteen. Jij bent van mening dat OCP prima via BIOS en driver kan, de andere kant is van mening dat OCP via hardware moet en dat de kaart krap bemeten is op de VRMs.

nounounou, waar hebben we het over?
Amen :)

En Cheetah, de VRM kan idd best wat hebben. Daar heb je helemaal gelijk in. In totaal zou, bij een voltage van 0,96V zo'n 340W kunnen trekken voor beide cores. Dat is dus wat beide cores maximaal mogen trekken. Bij 30A is dat ook nog eens 50W voor de MOSFET's. Ik weet niet wat het geheugen verbruikt helaas. Maar ik denk dat we redelijk richting de 458W totaal gaan voor de kaart zoals hardware.fr. kan er wat onder zitten, kan er ook wat boven zitten. Het kan, althans, hij blijft daar leven.

Één passage uit de de datasheet kan ik echter niet thuisbrengen:
The power MOSFETs are tailored for this device. The gate driver is an extremely robust high-performance driver rated at the switching node for DC voltages ranging from -1V to +30V. The closely coupled driver and MOSFETs enable efficiency improvements that are hard to match using discrete components. The power density for transmitted power of this approach is approximately 30W within a 36mm2 area.
Dat is het oppervlakte van de MOSFET zelf. En ik heb het gevoel dat de MOSFET dus bedoelt is voor 30W elk, wat het totaal brengt op 300W. 150W per GF110 core. Het is krap als dat deel dus echt klopt. Maar ook hier, veel MOSFET's zullen meer trekken, een enkeling niet en zal dus eerder plof zeggen.

En ook hier: Het is krap, niet te krap, maar wel krap. Iedere forumpost die ik zie elders op het web waarvan ik stevig de indruk krijg dat die ook verstand heeft van zaken komt op diezelfde conclusie: Heel erg krap bemeten. Anandtech forums, Overclockers.co.uk forum, S|A forum. Allemaal berkeneningen rondom de MOSFET's, allemaal de conclusie dat het krap is. Het werkt, maar de veiligheidsmarge is er gewoon niet en dat zou ook deel uit moeten maken van het design.

Zoals ik ook al op GeekSwarm aangaf: Het lijkt met name een combinatie. Een VRM die aan de zwakke kant is (betekend niet gelijk te zwak) in combinatie met hoge temperaturen en een falende OCP. Alleen in mijn ogen moet OCP te vaak inspringen om de kaart te beschermen, jij vind dat normaal. That's the difference en volgens liggen we verder echt niet zo ver uitelkaar als je denkt.

Ik begraaf hier iig mijn strijdbijl.

[ Voor 9% gewijzigd door GENETX op 02-04-2011 09:09 ]


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 17-05 23:15

Deathchant

Don't intend. Do!

GENETX schreef op zaterdag 02 april 2011 @ 09:03:
Alleen in mijn ogen moet OCP te vaak inspringen om de kaart te beschermen, jij vind dat normaal. That's the difference en volgens liggen we verder echt niet zo ver uitelkaar als je denkt.
Juist dat is nou ook mijn gedachte. We leven sowieso in overclockers/overvoltage tijden, iets waar nvidia gewoon rekening mee moet houden. Het 4+2 power design op de GTX570 is toch ook eigenlijk slecht? Tis niet zo kantje boord als bij de GTX590, maar toch.
Het moet sowieso niet zo zijn dat een pas uitgebrachte kaart als de GTX590 nog maar net in leven blijft bij "normaal" gebruik, en deel daarbij de mening dat de OCP niet zo vaak zou moeten ingrijpen.

Laten we hopen op een rev2 ofzo, of in ieder geval totdat de fabrikanten met hun custom designs komt.
Overigens, het terugklokken van de kaart om de stabiliteit erin te houden vind ik persoonlijk ook een beetje gevolgbestrijding ipv oorzaak aanpakken. Ik vraag me af of er nog een bios komt dat gewoon goed in elkaar zit.

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Edmin schreef op zaterdag 02 april 2011 @ 01:53:
Juist. Maar het is maar net waar je de oorzaak legt. In principe liggen de standpunten niet eens zo heel ver uiteen. Jij bent van mening dat OCP prima via BIOS en driver kan, de andere kant is van mening dat OCP via hardware moet en dat de kaart krap bemeten is op de VRMs.

nounounou, waar hebben we het over?
De theorie die hier aangehangen werd - en die zowel in de postings als GeekSwarm en Tweakers als verklaring voor de situatie is gepost - was dat de VRM's al bij standaardverbruik aan hun max zitten.
Op dit moment lijkt het er vrij sterk op dat er helemaal geen probleem is met de VRM's, maar dat er pas dingen misgaan als het powermanagement van de kaart (in bios) stuk is.
Dat lijkt mij een behoorlijk fundamenteel verschil.

OCP via hardware? De metingen (temperatuur/voltage/etc) worden gedaan door de hardware. De interpretatie van die metingen, en hoe zo'n kaart op die gedane metingen moet reageren wordt echter altijd geregeld via 'software'. En de software die dat regelt bevind zich bij computerhardware als moederborden/videokaarten etc. over het algemeen in een bios.
Zoals ik al schreef: ik heb sterk het idee dat dit bij AMD vrijwel precies hetzelfde werkt. Alleen mogen de AIB's daar niet aan het bios komen, waardoor AMD volledig in control blijft over de werking hiervan.
daan! schreef op zaterdag 02 april 2011 @ 03:49:
1. Powerregulatie in deze vorm betekent dus blijkbaar het terugklokken wanneer de kaart teveel moet doen.
Bij de GTX 580 trad dit waarschijnlijk alleen op bij furmark (en AVP?)
Bij de GTX 590 treedt dit veel vaker op. (zie het voorbeeld van crysis2.exe)
Uit eerdere posts komt naar voren dat deze powerregulatie de kaart terugklokt waardoor de performance gigantisch inkakt. (20 ipv 85 fps)
Dit gerucht blijft maar herhaald worden... het is afgelopen woensdag al naar het rijk der fabelen verwezen door TechReport die hierop specifiek heeft gehertest:
The next iteration of this same rumor came to us late yesterday, with the suggestion that perhaps those web release drivers with overclock protection are limiting clock speeds in games to 550MHz, below the 607MHz base clock for the GTX 590, along with the expected drop in performance. Our response was to install the 269.91 drivers and try them for ourselves. After re-running a portion of our test suite, including AvP, Civ V, and F1 2010, we found zero performance differences between the drivers we used in the review and the public 269.91 package.
En de basic performance van die kaarten spreekt voor zich, die kun je lezen in elke review. Indien iemand kan wijzen op een concrete verschillentest van een reputabele site die aantoont dat de performance inkakt met de nieuwe OCP drivers hoor ik het graag. Maar zover ik heb gelezen heeft niemand die echt concreet vergeleken heeft "performance inkakken" kunnen ontdekken. Sterker nog, zie de volgende statement van Techreport in hun normale review:
We figured, by all rights, we should test an overclocked configuration for the GTX 590, as well. One has to be careful here, though, because the GF110 chips will definitely reach much higher clock speeds when given enough voltage—we reached 772MHz at 1025 mV, similar to the GTX 580—but you'll also definitely bump up against the GTX 590's power limiting circuitry if you push too hard. The result, as we learned, is that performance drops with the supposedly overclocked config.

We eventually decided on a more mildly overclocked config in which the GPU core was raised to 690MHz, the GPU core voltage was increased from 938 mV to 963 mV, and the memory clock was tweaked up to 900MHz (or 3.6 GT/s). This setup was easily achieved with MSI's Afterburner software, proved quite stable, and, as you'll see in the following pages, performed consistently better than stock. The only thing left to do then was give these settings a name, since they lacked one. Folks, say hello to Wasson's Intrepid Clock Konfig, Extreme Dually—or WICKED. We've put WICKED and AUSUM head to head to see which is better.
Ofwel: powermanagement (en daarbij behorende clockdowns) kickte bij hun pas duidelijk in op 772Mhz met een 1.025V overvolt. Met een overvolt naar 0.96V en overclock naar 690mhz was dit geen probleem.
Dit zegt zowel wat over 1.) powerthrottling/downclocken en 2.) de kwaliteit en capaciteit van de VRM's.
Hertest met nieuwe driver: geen verschil.
Als iemand concreet bewijs van het tegendeel heeft hoor ik het graag.
Ik weet niet of tweakers.net het reviewexemplaar nog heeft liggen, zo ja dan is het wel de moeite dit te testen lijkt me. Ik denk dat dat wel nieuwswaarde heeft.
Yep, dat had zeker meerwaarde gehad. Marc stelde dat hij dat ook zou gaan doen dacht ik, maar ik heb er vooralsnog niets meer van gehoord.
2. Probeer a.u.b. meningen en/of hypothesen minder te presenteren als feiten. Volgens mij stuit dat velen hier tegen de borst en het maakt de discussie onnodig lang.
Ik begrijp je punt.
Het is echter wel vrij gebruikelijk om fenomenen vanuit een eerder uiteengezette theorie te verklaren, nadat eerder de theorie is gepostuleert en duidelijk is gesteld dat het een theorie is. Als dat iedere keer bij iedere statement opnieuw erbij vermeld moet worden maakt het de posts alleen maar langer (en vermoeiender om te lezen m.i).

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op zaterdag 02 april 2011 @ 09:23:
Ofwel: powermanagement (en daarbij behorende clockdowns) kickte bij hun pas duidelijk in op 772Mhz met een 1.025V overvolt. Met een overvolt naar 0.96V en overclock naar 690mhz was dit geen probleem.
Dit zegt zowel wat over 1.) powerthrottling/downclocken en 2.) de kwaliteit en capaciteit van de VRM's.
Hertest met nieuwe driver: geen verschil.
Als iemand concreet bewijs van het tegendeel heeft hoor ik het graag.
+10% in verbruik. 0,96V is volgens Nvidia normaal, dus enkel de 690Mhz zorgt voor een hoger verbruik dan toegestaan.

Een verklaring heb ik verder nog niet, want de scores met de OC kloppen idd niet. Mogelijk dat OCP op 2 punten ingrijpt: Bij een te hoge OC en bij een te hoog verbruik, waarbij die tweede faalt. Mogelijk.

Één ding moet je namelijk wel met me eens kunnen zijn: Hoe kan het dat ze, als OCP niet ingrijpt wel bij een systeemmeting net zo'n hoog verbruik meten als een HD 6990 met AUSUM :? Die kaart gaat blijkbaar wel makkelijk over zijn 365W TDP blijkbaar. Dat lijkt me ook niet de bedoeling. Zo'n TDP wordt ook niet voor niks opgegeven, het is de bedoeling dat je daar binnen gaat blijven. OCP had dus in mijn ogen dan in moeten grijpen om de kaart binnen zijn TDP te houden.

[ Voor 7% gewijzigd door GENETX op 02-04-2011 09:51 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

GENETX schreef op vrijdag 01 april 2011 @ 19:54:
En eveneens vreemd overigens voor wat betreft OCP:
http://www.xtremesystems....p?p=4798568&postcount=561
http://www.xtremesystems....p?p=4798627&postcount=562

Eerst slechts 20FPS in Crysis2 met de GTX590, na de rename dus 85FPS en bang. Dit is dus juist de reden waarom ik een heel groot vraagteken zet bij de correctheid van de kloksnelheid die GPU-Z uitleest. Ik hoef jullie niet uit te leggen dat videokaartfabrikanten er bekend om staan om in de driver trucjes uit te halen om alles rooskleuriger te maken.
Ik klik op de link maar zie niets. Sli werkte trouwens nog niet in de eerdere drivers voor crysis 2 dat zou het kunnen zijn want in latere drivers werkte sli wel. Voor de rest nog geen mensen tegen gekomen dat de kaarten trug klokken. Je zal dit ook na kunnen gaan met msi afterburner en dan gpu gebruik en de klok snelheden mee laten draaien op het beeld.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Die lijkt weggehaald. Had bewsij heb ik ook niet. Maar MSI Afterburner zou dan ook niet werken wss. In dat geval lijkt het er op dat Nvidia gewoon de kloksnelheid faked.De enige goede manier is om dus de framerate tussen wel en geen OCP te meten en te vergelijken. Dat lijkt men dus wel met Furmark met de GTX 580 hebben kunnen doen. Maar dat valt echt moeilijk te bewijzen als je niet kunt zine of OCP zijn werk doet of niet. Dat maakt het lastig.

[ Voor 14% gewijzigd door GENETX op 02-04-2011 10:48 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Jeps weggehaald en ik denk omdat het weer propaganda verkondigen was want bewijs is er niet van, daarom weggehaald.

Bij de gtx580 is het trugklokken nooit voorgekomen teminste niet bij mij en ik had de kaarten op 10 november 1 dag na de releash. Niet met furmark en niet met benchmarks. Na het horen er van heb ik dit gelijk getest gpu gebruik bleef 99% en warmte blijft 85graden en de FPS bleven ook stabiel. Ik denk dat dit een soort van propaganda is door nvidia haters, want bewijzen zijn nooit te vinden alleen maar een hoop text zonder afbeedlingen. Ik wil het zelf ook wel laten zien met furmark dat de gtx580 niet trug klokt met de eerste gtx580 drivers. Ik kan wel hard bewijs leveren.

[ Voor 12% gewijzigd door Anoniem: 304087 op 02-04-2011 10:58 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Bij die van Crysis had ik sowieso al hele grote vraagtekens, Furmark doet hier anders met een GTX 580:
http://forums.overclocker...?p=18792828&postcount=244

Maar dat blijft dus twijfelachtig of die verhalen kloppen idd. Helaas heb ik zelf geen Nvidia (ik heb een oude HD3870 aangezien ik toch bijna nooit meer game :P ) om het te testen. Ik verwacht iig niet dat de G310M van mijn laptop afhankelijk is van de OCP in die mate :P Dus ik geloof je maar op je woord. Hopelijk kunnen we er eens een krijgen bij GeekSwarm want dit is wel iets waar ik echt goed naar wil kijken dan.

[ Voor 14% gewijzigd door GENETX op 02-04-2011 11:16 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Je kan mij zeker wel geloven. Ik wil alleen niet mijn fan op 20% laten en dan stressen zodat hij over de 100 graden word met furmark. Het zou kunnen dat hij dan wel trug klokt en dat is juist goed. Maar goed wie laat zijn fan op 20% draaien en dan stressen, je bent dan aardig dom bezig want dan maak je wel de boel kapot als het trugklokken niet werk of als het trugklokken helemaal niet aan de orde is.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 11:27:
Je kan mij zeker wel geloven. Ik wil alleen niet mijn fan op 20% laten en dan stressen zodat hij over de 100 graden word met furmark. Het zou kunnen dat hij dan wel trug klokt en dat is juist goed. Maar goed wie laat zijn fan op 20% draaien en dan stressen, je bent dan aardig dom bezig want dan maak je wel de boel kapot als het trugklokken niet werk of als het trugklokken helemaal niet aan de orde is.
Dat zeker. Het gaat mij meer om het feit of Furmark opeens de helft van de prestaties gaat leveren terwijl belasting en kloksnelheid gelijk blijken te zijn. Dat is vreemd. Of het is een uitleesfout, of Nvidia doet dat bewust, of het is in scene gezet door Nv haters.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Cheetah schreef op zaterdag 02 april 2011 @ 09:23:
Zoals ik al schreef: ik heb sterk het idee dat dit bij AMD vrijwel precies hetzelfde werkt.
We’re glad to report that NVIDIA has taken up at least some of our advice, and that OCP is taking its first step forward since then. Starting with the ForceWare 267 series drivers, NVIDIA is now using OCP at all times, meaning OCP now protects against any possible program that would generate an excessive load (as defined by NVIDIA), and not just Furmark and OCCT. At this time there’s definitely still a driver component involved as NVIDIA still throttles Furmark and OCCT right off the bat, but everything else seems to be covered by their generic detection methods.

At this point our biggest complaint is that OCP’s operation is still not transparent to the end user. If you trigger it you have no way of knowing unless you know how the game/application should already be performing. NVIDIA tells us that at some point this will be exposed through NVIDIA’s driver API, but today is not that day. Along those lines, at least in the case of Furmark and OCCT OCP still throttles to an excessive degree—whereas AMD gets this right and caps anything and everything at the PowerTune limit, we still see OCP heavily clamp these programs to the point that our GTX 590 draws 100W more under games than it does under Furmark. Clamping down on a program to bring power consumption down to safe levels is a good idea, but clamping down beyond that just hurts the user and we hope to see NVIDIA change this.
bron: http://www.anandtech.com/...or-the-single-card-king/4

Verschil tussen OCP en PowerTune lijkt vooral te zijn dat AMD met zijn powertune de kaart ook omhoog kan clocken als het maximale verbruik niet wordt bereikt, tevens is AMD's powertune niet afhankelijk van driver's maar werkt altijd en voor iedere applicatie.
Waarbij bij Nvidia een applicatie in de driver lijkt te moeten opgenomen worden voordat OCP fatsoenlijk werkt.

Bij AMD lijkt het ook meer een extraatje voor je kaart te zijn: 'We gaan niet over ons opgegeven verbruik heen, en als we er onder zitten overclocken we je GPU ook nog eens!'
Terwijl Nvidia meer op mij overkomt van: 'Alleen in de benches die voor stroomverbruik metingen worden gedaan voegen we toe aan onze driver zodat OCP aanslaat, voor de rest wil het nog wel eens aangaan als je kaart bijna overlijd...'
Ik zeg niet dat het zo is, maar zo komt het op mij over ;)

Maar bij AMD is het dus echt een functie om de maximale performance uit je kaart te halen binnen het gestelde verbruik, terwijl bij Nvidia het alleen een beveiliging is voor overbelasting.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

GENETX schreef op zaterdag 02 april 2011 @ 11:31:
[...]

Dat zeker. Het gaat mij meer om het feit of Furmark opeens de helft van de prestaties gaat leveren terwijl belasting en kloksnelheid gelijk blijken te zijn. Dat is vreemd. Of het is een uitleesfout, of Nvidia doet dat bewust, of het is in scene gezet door Nv haters.
Net nog even alles getest met furmark extreme burning test. Er is geen sprake van fps vermindering of een trugklok.
(gtx580 model van nvidia) Ik zie dit als allemaal propaganda om nvidia te dwarsbomen. Mensen van nvidia afhouden. Ik vraag me af wat voor stumpers hier achter kunnen zitten?

Was deze al langs gekomen
Nvidia GeForce GTX 590 Really Faster than HD 6990: AMD Gave Up
http://www.downloadatoz.c...-hd-6990-amd-gave-up.html

[ Voor 25% gewijzigd door Anoniem: 304087 op 02-04-2011 12:43 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Lol, dat is waarschijnlijk het slechtste stukje 'nieuws' dat ik in jaren heb gelezen. AMD gave up? Waar komt dat vandaan? Is die civ bench het grote sluitende bewijs? Misschien snap ik de strekking van dat artikel niet....

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 12:27:
[...]
Was deze al langs gekomen
Nvidia GeForce GTX 590 Really Faster than HD 6990: AMD Gave Up
http://www.downloadatoz.c...-hd-6990-amd-gave-up.html
Woooow, de GTX590 is sneller dan de HD6990. AMD gave up. Ja, tuurlijk. 8)7

Werkelijk een fantastische conclusie: de GTX590 is maar liefst in 2 games sneller dan HD6990, waarvan Crysis 2 nogal een TWIMTBP game is. Nee dan is het ook een logische conclusie dat de GTX590 beter is dan HD6990.

Goed gevonden Luppie. Zit je soms bij de Nvidia Focus Group? :+

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Tjah ik post alleen maar een arikel moet ik dan gelijk worden uitgemaakt voor iemand die voor nvidia werkt?
Niet zo door een rood brilletje kijken want ik weet ook niet of het klopt of niet klopt Indy
Het maakt mij persoonlijk zelf niet uit wie de snelste kaart heeft. Van mij part is de hd6990 100% sneller.

[ Voor 21% gewijzigd door Anoniem: 304087 op 02-04-2011 13:08 ]


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:06:
Tjah ik post alleen maar een arikel moet ik dan gelijk worden uitgemaakt voor iemand die voor nvidia werkt?
Niet zo door een rood brilletje kijken want ik weet ook niet of het klopt of niet klopt Indy
Ik dacht eigenlijk dat je het als grapje bedoelde.
Ik heb er in ieder geval smakelijk om gelachen! ;)

Voor iedereen die het 'artikel' niet gelezen heeft, deze wil ik jullie niet onthouden:
GeForce GTX 590 is able to performance really faster than AMD HD 6990.

[ Voor 17% gewijzigd door daan! op 02-04-2011 13:09 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Je weet toch ook wel dat het artikel nergens op slaat. Op basis van 1 benchmark maar even zeggen dat de GTX 590 sneller is. Het is gewoon zo uit de review van Anandtech gehaald. En ja, De GTX 590 is daar sneller, net als in HAWX. Op andere games wint AMD weer.
http://www.anandtech.com/...-for-the-single-card-king
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 12:27:
[...]

Net nog even alles getest met furmark extreme burning test. Er is geen sprake van fps vermindering of een trugklok.
(gtx580 model van nvidia) Ik zie dit als allemaal propaganda om nvidia te dwarsbomen. Mensen van nvidia afhouden. Ik vraag me af wat voor stumpers hier achter kunnen zitten?
Hoo! Nvidia zet de GTX 580 standaard in OCP bij Furmark. Het maakt dus niet uit of hij langer draait of niet. De driver zou Furmark moeten detecteren en gelijk terugklokken. Dat zou het idee moeten zijn, terugklokken, maar de buitenwereld laten denken dat alles ok is. Als ik onder het pedaal van mijn Fiesta ook een baksteen leg dan gaat ie ook geen 100km/h halen, hoe hard ik ook druk :P . Zo'n test kun je alleen doen als je OCP uit kan schakelen en 100% zeker weet dat OCP niet werkt.

Ik zou zeggen: Lees deze eens. Hiermee zou je OCP uit kunnen zetten. In dat geval zou je dezelfde framerate moeten zien als de screens onzin zouden zijn.
http://www.techpowerup.co...ing-using-GPU-Z.html?cp=3

[ Voor 63% gewijzigd door GENETX op 02-04-2011 13:16 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Is dat artikel dan gebaseerd op 1 of 2 games? Nee ik wist zelf niet of het nergens op slaat.
such as Crysis 2 and Civilization 5, AMD has to give up.
Dit betekent voor zo ver ik weet "zoals crysis 2 en Civilization 5"

[ Voor 40% gewijzigd door Anoniem: 304087 op 02-04-2011 13:14 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:06:
Tjah ik post alleen maar een arikel moet ik dan gelijk worden uitgemaakt voor iemand die voor nvidia werkt?
Niet zo door een rood brilletje kijken want ik weet ook niet of het klopt of niet klopt Indy
Het maakt mij persoonlijk zelf niet uit wie de snelste kaart heeft. Van mij part is de hd6990 100% sneller.
Dat van de Nvidia Focus Group is natuurlijk een grapje....vandaar :+

Als je het artikel vluchtig had bekeken, was je erachter gekomen dat het gewoon een nietszeggend flut artikeltje is. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik heb hem door gelezen maar ik oordeel niet zo snel over iets wat nog aan de gang is.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Mja, het zijn ouwe koeien. Ze gaan selectief gegevens uit een volledige review halen. Zodra er selectief gequote wordt zonder bronvermelding is het gewoon niet te vertrouwen ;) Ja ze hebben gelijk. AMD is trager als Nvidia. Maar daarom geven ze nog niet op... Willem II voetbalt ook nog steeds terwijl ze al zo goed als zeker degraderen ;)

Heb je mijn vorige post mbt Furmark nog gezien. Met GPU-Z schijn je OCP op de GTX580 uit te kunnen schakelen. Als je dat ook nog eens zou kunnen doen en kan kijken of je dezelfde score met furmark kan neerzetten zou ik dat erg op prijs stellen iig :)

[ Voor 15% gewijzigd door GENETX op 02-04-2011 13:19 ]


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 00:31

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 12:27:
[...]
Ik zie dit als allemaal propaganda om nvidia te dwarsbomen. Mensen van nvidia afhouden. Ik vraag me af wat voor stumpers hier achter kunnen zitten?
`
Ik wil er niet te veel woorden aan vuil maken, ik heb er in het verleden al genoeg over gezegd, maar Nvidia heeft de schijn ook wel erg tegen (en de nasleep daarvan). Met name doordat het hele 8x00 en 9x00 debakel nog vers in het geheugen ligt, waarin Nvidia gewoon een paar jaar (eind 2006 tot mid. 2008) stug GPU's hebben door geproduceerd waarvan men wist dat hier een designfout in zat.

Hierdoor is het vertrouwen van Nvidia in het algemeen erg geschaad, aangezien zij zowel consument als oem partners echt in de koude hebben laten staan, door niet met een fatsoenlijk oplossing te komen. Niet meer dan aangepaste BIOSen om fan's harder te laten draaien in met name laptop's wat verschillende negatieve neven effecten opleverde. Daarnaast spreekt het topic over het massaal dood gaan van de 8800 desktop serie ook boekdelen. Overigens Nvidia heeft (gelukkig) min of meer toegegeven, want anders waren zij absoluut niet meer geloofwaardig te noemen.

Dit alles heeft Nvidia gewoon zeer slecht aangepakt, waardoor veel hardware/systeem adviserende mensen zoals ik, Nvidia echt op een 2e plan hebben gezet. Alleen als echt Nvidia specifieke zaken nodig zijn wordt een Nvidia kaart geadviseerd.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:16:
Ik heb hem door gelezen maar ik oordeel niet zo snel over iets wat nog aan de gang is.
Pardon, wat is nog aan de gang? Welke bedrijf de snelste single board videokaart heeft?

Er zijn anders legio reviews te vinden om zelf een oordeel te kunnen vormen welke kaart het snelste is, toch?
Of heb je je mening nog niet gevormd?

[ Voor 29% gewijzigd door Indy91 op 02-04-2011 13:25 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Achja, in kamp rood heeft hij ook al toegegeven fout te zitten. Nothing to see here, move on:
Anoniem: 304087 in "CJ's Radeon Nieuwsdiscussietopic - Deel 121"

* GENETX is nog steeds benieuwd naar iemand met GTX 580 die 2 rondjes Furmark wil doen:

1 met OCP aan en 1 met OCP uit middels GPU-Z:
http://www.techpowerup.co...ing-using-GPU-Z.html?cp=3

Acties:
  • 0 Henk 'm!

  • Luxicon
  • Registratie: Oktober 2010
  • Laatst online: 18-07-2021
http://www.downloadatoz.c...-hd-6990-amd-gave-up.html

Wel erg obscuur artikel hoor over die GTX590 vs HD6990.
Dat valt dus echt niet serieus te nemen.
Dat kun je zelf toch ook inzien, neem ik aan? :+
Er zijn toch genoeg benches geweest, waar het tegendeel is bewezen?

Mij boeit het verder niet, koop gewoon het snelst is.
Heb van beide fabrikanten videokaarten gehad.

[ Voor 23% gewijzigd door Luxicon op 02-04-2011 13:26 ]

...


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/02/1301727592-110.jpg

Moet ik letten op fps vermindering tijdens de test ? Want dat gebeurd zowel niet met OCP aan als uit

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Nee, voornamelijk of de FPS met OCP aan en OCP uit gelijk aan elkaar zijn. Ik verwacht niet dat de FPS nog ineens inkakken, in dat geval zou OCP gewoon goed werken. Je hoeft ook niet lang zonder OCP te testen, gewoon ff checken of de FPS gelijk zijn.

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Dat OCP ingrijpt bij furmark is toch algemene kennis?
Hoe kan het anders het stroomverbruik terugdringen?
FurMark 1.8.2 is black listed and you can easily see the impact of the OCP on a GTX 580: with OCP, the FurMark 1.8.2 score is 4256 points (71FPS) in 1920×1080 while with OCP disabled, the score jumps to 7772 points (130FPS).

[ Voor 53% gewijzigd door daan! op 02-04-2011 13:42 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

OCP aan
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/02/1301728167-160.jpg

OCP uit
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/04/02/1301728252-10.jpg

Wat wel gebeurd is dat er om de zoveel sec de fps dalen en stijgen, dit zie je ook aan de tempraturen zowel met opc aan als uit. Dit is trouwens met een nieuwe furmark. De oudere bleef stabiel op 1 hoeveelheid fps.

[ Voor 11% gewijzigd door Anoniem: 304087 op 02-04-2011 13:42 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Dan geloof ik je voorlopig maar voor wat dit betreft. Nvidia kan natuurlijk nog de driver aangepast hebben zodat de GPU-Z truc niet meer werkt. Testen met een driver van voor de hack zou het bewijs sluitend maken wat mij betreft. Maar ik laat het aan jou nieuwschierigheid of je dat wil testen :) Iig bedankt!
daan! schreef op zaterdag 02 april 2011 @ 13:40:
Dat OCP ingrijpt bij furmark is toch algemene kennis?
Hoe kan het anders het stroomverbruik terugdringen?

[...]
Dat weten we idd wel. Maar het gaat er om of Nvidia met OCP nog zijn kloksnelhelheid faked. Bij Furmark is dat niet zo'n probleem, maar nu de GTX590 wellicht ook bij games terug moet klokken is het belangrijk om te weten of we worden genept of niet. Kijken op basis van kloksnelheid die GPU-Z uitleest kan in dat geval een verkeerde testmethode zijn.

Alsof je auto ook opeens ipv 120m/h maar 100km/h gaat, maar de teller maar mooi op 120km/h houdt. Nu zie je dat wel als het ineens gebeurd. Je gaat het echter niet merken als je auto al vanaf het starten max 100km/h wil doen, maar wel vrolijk 120km/h aangeeft.

[ Voor 60% gewijzigd door GENETX op 02-04-2011 13:54 ]


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
GENETX schreef op zaterdag 02 april 2011 @ 13:49:
Dan geloof ik je voorlopig maar voor wat dit betreft. Nvidia kan natuurlijk nog de driver aangepast hebben zodat de GPU-Z truc niet meer werkt. Testen met een driver van voor de hack zou het bewijs sluitend maken wat mij betreft. Maar ik laat het aan jou nieuwschierigheid of je dat wil testen :) Iig bedankt!
Als je bedenkt dat de hack al vanaf begin november 2010 beschikbaar is lijkt me dat wel.

Wat mij betreft is de echte vraag of er ook throttling optreedt bij games.
Throttling bij furmark vind ik prima, bij games zou dit niet mogen.

edit:
volgens mij begrijpen wij elkaar :P

[ Voor 3% gewijzigd door daan! op 02-04-2011 13:56 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Helemaal mee eens en eventuele clock faking zou het erg lastig maken om vast te gaan stellen dat dat optreedt, bijna onmogelijk zelfs en al helemaal als je OCP niet uit zou kunnen schakelen.
daan! schreef op zaterdag 02 april 2011 @ 13:54:
[...]
edit:
volgens mij begrijpen wij elkaar :P
Zeg dat dan meteen :P

[ Voor 35% gewijzigd door GENETX op 02-04-2011 13:59 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

De 2 gtx580 scores zijn van mij 1tje met opc aan en 1tje met opc uit
1382 punten en 1381 punten
http://www.ozone3d.net/benchmarks/furmark_all_scores_190.php
daan! schreef op zaterdag 02 april 2011 @ 13:54:
[...]

Als je bedenkt dat de hack al vanaf begin november 2010 beschikbaar is lijkt me dat wel.

Wat mij betreft is de echte vraag of er ook throttling optreedt bij games.
Throttling bij furmark vind ik prima, bij games zou dit niet mogen.

edit:
volgens mij begrijpen wij elkaar :P
Bij gamen blijven mijn fps gelukkig stabiel. Ik weet wel dat deze furmark de kaartje als geen enkele game laat zweten. Ik merk het nu ook wel op dit kamertje

Edit
ik draai nu met driver 270.51 weke driver wil je graag getest zien ik ben zelf namelijk nu ook wel erg benieuwd.
De eerste driver heb ik nog wel ergens in mijn downloads staan of ik gebruik de driver van de disc ?

[ Voor 86% gewijzigd door Anoniem: 304087 op 02-04-2011 14:04 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Ja idd, de GTX580 zou idd niet bij games terugklokken. Overigens die score is toch vreemd somehow:
http://www.ozone3d.net/be...k_score_190.php?id=158666
http://www.ozone3d.net/be...k_score_190.php?id=158516
http://www.ozone3d.net/be...k_score_190.php?id=158509

Vooral die laatste. Driver van 7 januari met een GPU clock van slechts 400MHz maar wel een bijna 2x zo hoge score. WTF!
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:59:
Edit
ik draai nu met driver 270.51 weke driver wil je graag getest zien ik ben zelf namelijk nu ook wel erg benieuwd.
De eerste driver heb ik nog wel ergens in mijn downloads staan of ik gebruik de driver van de disc ?
Zolang het maar een driver is van voor de GPU-Z trick. Daarna kan Nvidia er op gereageerd hebben, er voor iig niet.

[ Voor 34% gewijzigd door GENETX op 02-04-2011 14:06 ]


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Anoniem: 304087 schreef op zaterdag 02 april 2011 @ 13:59:
De 2 gtx580 scores zijn van mij 1tje met opc aan en 1tje met opc uit
1382 punten en 1381 punten
http://www.ozone3d.net/benchmarks/furmark_all_scores_190.php
Eh, 1382 punten waar een 570 er 3594 doet en een 460 2115?
Volgens mij staat OCP bij beide tests aan. :)

Of is de score afhankelijk van de resolutie?

[ Voor 5% gewijzigd door daan! op 02-04-2011 14:08 ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Met daan! dus, dit stinkt toch wel ergens. Mooi dat je zo nieuwschierig bent :)
daan! schreef op zaterdag 02 april 2011 @ 14:06:
Of is de score afhankelijk van de resolutie?
Probably, maar die 3x GTX 580 die ik aanhaal zijn wel allen op FHD gedaan, alleen de driver en de kloksnelheid is anders. De GTX 580 met de oudste driver en slechts 400MHz wint het dik 8)7

[ Voor 98% gewijzigd door GENETX op 02-04-2011 14:10 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

daan! schreef op zaterdag 02 april 2011 @ 14:06:
[...]

Eh, 1382 punten waar een 570 er 3594 doet en een 460 2115?
Volgens mij staat OCP bij beide tests aan. :)

Of is de score afhankelijk van de resolutie?
Resolutie of cf met 2 of 3 kaarten.
Ik heb sli nu ook werkede gekregen 4100 punten met oc

Edit ik ga morgen even proberen met 262.99 ik heb nu geen tijd meer want moet nog bij de buurman zijn.

[ Voor 12% gewijzigd door Anoniem: 304087 op 02-04-2011 14:36 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

daan! schreef op zaterdag 02 april 2011 @ 13:54:
Wat mij betreft is de echte vraag of er ook throttling optreedt bij games.
Throttling bij furmark vind ik prima, bij games zou dit niet mogen.
Ik neem aan dat je het over clockthrottling (downclocken) hebt? Daar zijn dus nog geen concrete aanwijzingen voor gevonden en TechReport gaf duidelijk aan dat clockthrottling bij hun pas leek plaats te vinden bij een fikse overclock met een aardige overvolt (prestaties liepen daar terug t.o.v. een lichtere overklok). Dit is dus blijkbaar echt het 'paardemiddel' dat functioneert zoals bedoeld.

Mocht je het specifiek over vermogensthrottling hebben: Dit zou nooit een probleem moeten zijn. Als het maximale verbruik (en daarmee de maximale prestaties) van de kaart wordt gelimiteerd tot <x> vermogen horen daar gewoon <y> prestaties bij in game <z>. En die <y> prestaties in game <z> zijn waar het uiteindelijk om gaat, niet hoe de kaart technisch gezien aan die prestaties komt.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op zaterdag 02 april 2011 @ 14:59:
Mocht je het specifiek over vermogensthrottling hebben: Dit zou nooit een probleem moeten zijn. Als het maximale verbruik (en daarmee de maximale prestaties) van de kaart wordt gelimiteerd tot <x> vermogen horen daar gewoon <y> prestaties bij in game <z>. En die <y> prestaties in game <z> zijn waar het uiteindelijk om gaat, niet hoe de kaart technisch gezien aan die prestaties komt.
Tenzij er in reviews is gewerkt met driver q die minder afknijpt dan de nieuwe driver r..

En hoe zit het dan met de temperatuur van de kaart?
Hierboven werd uitgelegd dat efficiëntie omlaag gaat bij hogere temperaturen en daarmee het verbruik omhoog, dan zou je op een warme dag dus minder fps krijgen dan op een koude?
Wel een erg als als als dan verhaal, geef ik toe.

Ik ben gewoon nieuwsgierig hoe het nu echt zit!

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Dus laten we Luppie even afwachten. Dan weten we iig of de aangegeven kloksnelheid wel of niet klopt.

Acties:
  • 0 Henk 'm!

  • Dooievriend
  • Registratie: Juni 2008
  • Niet online

Dooievriend

gitlab.com/JoD/exact

Wat ik niet begrijp is dat jullie OCP verwarren met het downclocken van Furmark :s Zowel Anandtech als hardware.fr geeft aan dat dit twee verschillende dingen zijn bij de GTX590. Zo weet je meteen ook waarom Furmark met OCP of zonder OCP (door GPUz uitgeschakeld) geen verschil maakt: Furmark heeft bij de GTX590 weinig met OCP te maken. OCP grijpt voor zover ik het begrijp pas in rond de 450W, onafhankelijk van de applicatie.
NVIDIA is now using OCP at all times, meaning OCP now protects against any possible program that would generate an excessive load (as defined by NVIDIA), and not just Furmark and OCCT. At this time there’s definitely still a driver component involved as NVIDIA still throttles Furmark and OCCT right off the bat, but everything else seems to be covered by their generic detection methods.
http://www.anandtech.com/...or-the-single-card-king/4
Bij de GeForce GTX 590 daarentegen is de OCP altijd actief, en hij grijpt in zonder de toepassing te detecteren, zo hebben we kunnen vaststellen.

Daarbovenop heeft nVidia nog een extra « tweak » toegevoegd die de frequentie kan verminderen of de weergave vertragen op het moment dat een programma als Furmark wordt gedetecteerd, zonder dat het verbruiksniveau enige invloed heeft.
Dooievriend in "[Algemeen] nVidia Nieuwdiscussie Topic -..."

'Mushrooming' is a marketing term that means feeding them sh*t and keeping them in the dark.


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Het zijn geen verschillende dingen. OCP klokt Furmark sowieso terug, maar nu ook games en dergelijk wanneer nodig. Bij de GTX 580 was het enkel Furmark en OCCT waarbij OCP inschakeld.

Maargoed, daarmee mis je de kern van onze discussie. Het gaat er niet zozeer om wie of wat ingrijpt, het gaat er om of Nvidia wel of niet de cijfers die de GPU geeft manipuleerd.

Ik begrijp het namelijk anders dan jij en Cheetah doen. Uit de franse quote is het minder te zien, maar ook daar. OCP is nu altijd ingeschakeld itt bij de GTX580 en klokt terug wanneer het te veel wordt. De extra tweak is juist eerder het origineel: OCP die Furmark of OCCT detecteerd en hoe dan ook inschakeld. 2 technieken onder dezelfde vlag OCP.

Anand is nog veel duidelijk er wat dat betreft:
NVIDIA is now using OCP at all times, meaning OCP now protects against any possible program that would generate an excessive load (as defined by NVIDIA), and not just Furmark and OCCT.
Dat zegt echt alles. Die "and not just" geeft aan dat diezelfde OCP nu ook bij games kan ingrijpen en niet enkel meer bij Furmark en OCCT zoals in het verleden.

[ Voor 51% gewijzigd door GENETX op 02-04-2011 15:56 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

@ Dooievriend: goede aanvulling. Dat is inderdaad wat ik ook begrepen had.

@GENETX: "OCP" of eigenlijk liever powermanagement gebeurd zowel op driverlevel als in de bios.
De bios capped (stock) blijkbaar op ~450W, totaal onafhankelijk van wat de driver doet. Dat blijkt duidelijk uit die test van hardware.fr -> die hadden een Furmark variant die niet door de driver (!) gedetecteerd kon worden.
Ofwel, wat ik afgelopen donderdag al schreef dus ;)
het gaat er om of Nvidia wel of niet de cijfers die de GPU geeft manipuleerd.
Hebben jullie niet inmiddels al je buik vol van al die conspiracy theories? De ene na de andere komt ten tafel :P

[ Voor 101% gewijzigd door Cheetah op 02-04-2011 15:59 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah, lees me nog eens goed dan voor je gelijk weer van alles vet maakt ;) . Ik zeg nergens dat jou verhaal niet klopt, want dat onderschrijf ik ook. Ik geef alleen aan dat zowel het ingrijpen bij Furmark en OCCT, als het ingrijpen bij games onder de noemer "OCP" gebeurd en dus deel uit maken van 1 en hetzelfdy systeem. OCP is een totaaloplossing met meerdere detectiemanieren.
Cheetah schreef op zaterdag 02 april 2011 @ 15:53:
Hebben jullie niet inmiddels al je buik vol van al die conspiracy theories? De ene na de andere komt ten tafel :P
Als je even terugleest dan weet je dat Luppie dat morgen voor ons gaat testen. Dan kun je het met eigen ogen zien. Er zijn zowel aanwijzigen dat het niet gebeurd als dat het wel gebeurd. Niks conspiracy of whatsoever, gewoon nalopen of hetgeen dat beweerd wordt ook klopt. Dat is het mooie aan wetenschap: je kan zelf dezelfde test doen om te controleren of het klopt of niet.

Dat niet of wel vermelden van valse gegevens vindt ik nogal essentieel om te weten hoe betrouwbaar de gegevens zijn ja. Dus als we de kans hebben om iets zelf te kunnen controleren dan heeft dat absoluut de voorkeur. Dit soort dingen kunnen er namelijk voor zorgen dat je met een extra variabele zit in metingen die je niet verwacht. Op basis daarvan kun je compleet verkeerde conclusies trekken. Gegevens moeten betrouwbaar zijn om er wat mee te kunnen: Meten is weten.

[ Voor 61% gewijzigd door GENETX op 02-04-2011 16:04 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zaterdag 02 april 2011 @ 15:59:
OCP is een totaaloplossing met meerdere detectiemanieren.
En meerdere manieren om met een 'onwenselijke' situatie te dealen.
2 prominente: powerlimiting en clockthrotling. Maar dat laatste (het 'paardenmiddel') - waar jij het waarschijnlijk over hebt - (b)lijkt dus alleen in extreme gevallen waarin bewust ver buiten specs (heavy overclock+overvolt) wordt gerund te gebeuren. Zie TechReport review+hertest.

Het lijkt er trouwens ook op dat de marges voor powerlimiting verder worden opgerekt bij een overvolt.

[ Voor 9% gewijzigd door Cheetah op 02-04-2011 16:09 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah, ik geloof je best op dat punt en ook Tech Report op dat deel.

Wat ik niet snap is waarom het systeem met de GTX590 net zoveel gebruikt als de HD6990 AUSUM. Die zit wss boven TDP. En ook dat hoeft niet gelijk slecht te zijn om hem op te blazen. Maar boven TDP werken is allerminst netjes. Nu hebben dit soort mensen wel een goede voeding, maar in mindere gevallen, waar je denkt binnen de specs te blijven met je voeding, krijg je toch een instabiel systeem.

En vandaar ook de evaluatie kant van het meten is weten? Liggen de waarden in de lijn met de verwachte waarden? Bij mij doen ze dat nog niet, ook niet bij Tech Report. Wel als het gaat om de FPS zelf. Niet als het gaat om het verbruik. Bij Tech Report schakelt OCP dus blijkbaar idd niet in bij games. Dat zie ik ook, daar twijfel ik ook niet aan, dat klopt. Het gevolg is echter blijkbaar ook dat het verbruik boven de 365W TDP gaat. Dat laatste is geen goed ding.

[ Voor 42% gewijzigd door GENETX op 02-04-2011 16:15 ]


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op zaterdag 02 april 2011 @ 16:08:
[...]
En meerdere manieren om met een 'onwenselijke' situatie te dealen.
2 prominente: powerlimiting en clockthrotling. Maar dat laatste (het 'paardenmiddel') - waar jij het waarschijnlijk over hebt - (b)lijkt dus alleen in extreme gevallen waarin bewust ver buiten specs (heavy overclock+overvolt) wordt gerund te gebeuren. Zie TechReport review+hertest.

Het lijkt er trouwens ook op dat de marges voor powerlimiting verder worden opgerekt bij een overvolt.
Wat ik me afvraag: Hoe kan OCP powerlimiting toepassen zonder clockthrottling?

Is het trouwens een idee om hier een nieuw topic over te openen?

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Kan ie niet, clock moet omlaag idd. Maar zoals Cheetah ook al aangeeft: Dat gebeurd niet bij Tech Report. Daar hoeft OCP niet in te springen en die kaart brand niet door. De kaart gaat met 80% zekerheid wel over zijn TDP heen, wat eveneens niet goed is. O80%, want het is een compleet Systeem. Het betekend wel dat AMD in het andere geval maar grofweg 300W verbruikt en dus nog zat headroom zou hebben...
Cheetah schreef op zaterdag 02 april 2011 @ 16:08:
Het lijkt er trouwens ook op dat de marges voor powerlimiting verder worden opgerekt bij een overvolt.
Ja, dat is ook logisch:
P = U * I. Als je vermogen gelijk blijft, en je gooit je voltage omhoog dan betekend dat dat de stroom omlaag gaat. Stroom is in het engels current. Daar heb je de reden waarom Overcurrent protection niet gelijk hoeft in te schakelen. De stroom is namelijk lager. De marge wordt dus idd groter.

Ik heb hem al vaker gepost mbt de verhouding tot clock en voltage en het verbruik van de GPU:
P = C * U * U * f
C kun je constant houden en weglaten in deze aangezien we het over dezelfde chip hebben. Het vermogen krijg je dan niet meer, maar je kan wel procentueel gaan rekenen hoeveel meer verbruikt wordt. Lager voltage en hogere clock betekend doorgaans dus een lager verbruik. Hoger voltage en gelijke klok is meer verbruik, maar wel minder stroom op de MOSFET's. Hoger voltage en een overclock brengt op een bepaald punt gelijke stroom bij een hoger verbruik. Als je verder klokt zal uiteindelijk de stroom ook weer toenemen op de MOSFET's.

[ Voor 25% gewijzigd door GENETX op 02-04-2011 16:25 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zaterdag 02 april 2011 @ 16:13:
Wat ik niet snap is waarom het systeem met de GTX590 net zoveel gebruikt als de HD6990 AUSUM. Die zit wss boven TDP.
En daarmee kom je waarschijnlijk weer in die eeuwige discussie over wat TDP betekent: de een zegt gemiddeld verbruik, de andere zegt maximum verbruik en volgens mij waren er ook nog een paar andere meningen over. Ik las niet zo lang terug ook al een noodoproep van 1 van de techsites dat ze het gegoochel met en geherinterpreteer van die term spuugzat zijn en er gewoon een standaard voor moet komen.
daan! schreef op zaterdag 02 april 2011 @ 16:13:
Wat ik me afvraag: Hoe kan OCP powerlimiting toepassen zonder clockthrottling?
Hoe het precies werkt weet ik niet, maar het zijn duidelijk 2 verschillende dingen.
Die kaart wordt stock gecapped op max ~450W lijkt het, maar de prestaties nemen daarbij niet af. Clockthrottling is duidelijk te merken door een drop in prestaties, en die ervaart TR pas bij hoge overclock+overvolt. Waarschijnlijk is er dus een fysieke vermogensopnamebarriere in het bios waarbij de beveiligingsmethode 'downclocken' in werking treed. Zolang deze barriere niet bereikt is wordt er ook niet gedownclocked. Het kan echter ook best zijn dat deze barierre 'on the fly' wordt berekend middels een hashtable waarin zowel vermogen als clockfrequentie (en misschien nog wel andere variabelen zoals bijvoorbeeld coretemperatuur) zijn opgenomen.

Het probleem is dat we gewoon niet weten met welke variabelen en interne tabellen power- en thermal management op die kaarten allemaal werkt... en daarnaast ook niet weten onder welke omstandigheden precies wat gebeurd. Elke educated guess is min of meer nattevingerwerk, gezien we gewoon niet alle informatie hebben.
Ja, dat is ook logisch:
Klopt, dat principe had ik idd al in gedachten. Goed dat je de technische verklaring er ff bij zet :)

[ Voor 15% gewijzigd door Cheetah op 02-04-2011 16:39 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Ben ik het met je op alle punten eens.

Moet de GPU overigens wel gemiddeld 365W verbruiken, ook bij constante belasting zoals bij gamen, en daar zet ik dan wel even een vraagteken. Ik vind het verder niet ernstig, de voedingen in die systemen zijn er toch wel op berekend. Men komt iig niet met een Sweex aanzetten :P . Netjes is alleen anders, maar ernstig idd niet. In het AMD (CPU) topic had ik het ook al over TDP. Zeker met de Turbo bij Intel en AMD vind ik TDP namelijk achterhaald. Die zou voor de koeling moeten gelden, terwijl er een 2e Pmax waarde zou moeten zijn die het absolute maximale verbruik aangeeft zodat je daar je voeding op kan dimensioneren. Zo'n systeem is veel transparanter.

Zie ik kom zo langzamerhand ook wel tot de conclusie dat Nvidia het verder wel netjes oplost en dat er nu nog weinig problemen lijken te zijn. Tech Report onderschrijft dat in ieder geval. Als OCP dus ook straks bij andere reviews niet te vaak ingrijpt en er geen andere kaarten meer springen is het allemaal prima. Het neemt alleen niet weg dat het VRM systeem beter had gekund. Dat blijft, maar als de oplossing verder netjes is dan hoor je mij echt niet zeuren :)

[ Voor 16% gewijzigd door GENETX op 02-04-2011 16:44 ]


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Cheetah schreef op zaterdag 02 april 2011 @ 16:30:
Hoe het precies werkt weet ik niet,
Maar je claimt eerder wel te weten dat het zo werkt..
Het probleem is dat we gewoon niet weten met welke variabelen en interne tabellen power- en thermal management op die kaarten allemaal werkt... en daarnaast ook niet weten onder welke omstandigheden precies wat gebeurd. Elke educated guess is min of meer nattevingerwerk, gezien we gewoon niet alle informatie hebben.
Juist, we weten het niet.

Misschien dat we in de (nabije) toekomst mooie artikelen kunnen lezen die dit mooi uitleggen.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
enkel een educated guess is idd nattevingerwerk. Het is dan ook de bedoeling dat je hem gaat proberen te bewijzen. Als dat lukt dan kun je namelijk een aantal variabelen achterhalen. Deze black box kunnen we vast niet helemaal kraken, zeker niet als we hem niet zelf in handen hebben. Ik vind het persoonlijk een interessant object waarbij ik hem juist wil proberen te kraken als dat lukt :)

De ene hackt software, de ander probeert de geheime delen van een GPU te achterhalen :)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah, je claimt dat OCP pas inschakelt (je gaat daar in ieder geval van uit) door de test van Hardware.fr, omdat hun GTX590 tot 458 Watt trok en niet stuk ging. Je legt echter verbindingen die niet zomaar te leggen zijn. Ten eerste stelt Hardware.fr dat OCP nu overal op reageert, met uitzondering van de speciale versie van Furmark die ze hebben. Ze zeggen dus dat OCP NIET werkt in die test.

Door je 'claim' zijn er vervolgens wel anderen die ook maar gaan melden dat OCP blijkbaar bij 450 Watt, zonder verdere bewijsvoering. Als we de boel gaan bekijken, dan komen we er in ieder geval achter dat het allemaal wel erg krap is.

Kijken we naar verbruik van het geheugen, dan kom je niet veel verder dan 130Watt op maximum vermogen.

Extremetech spreekt over ~2.5Watt verbruik, maar is onduidelijk over het type GDDR5, een pagina van Samsung heeft het over ~11,8Watt verbruik voor 1.5V 2Gb chips met een 256-bit interface (4 chips?). Als je dan 12 chips a ~3 Watt hebt, dan kom je dus op ~36 Watt. Nu zou het kunnen dat het geheugen nog wel wat meer verbruikt, maar we moeten het niet in de honderden Watts gaan zoeken, temeer aangezien nVidia laaggeklokt GDDR5 gebruikt. Als het ook nog eens op 1.35V draait, wordt het verbruik ook nog eens lager.

Edit: (Nog even de Samsung site terug gezocht en extra aandachtig doorgelezen)

Als je ~36 van de 458 aftrekt, kom je op verbruik voor de GPU van 422 Watt. We zijn al tot de conclusie gekomen dat de VRM voor de GPU eigenlijk niet meer dan 150 Watt per GPU kan verdragen op langdurig gebruik. Je komt dus 61Watt per GPU te kort om continu vol te belasten in dit geval. Het lijkt me erg sterk dat OCP een situatie laat bestaan waarbij componenten continu boven maximale belasting blijven draaien.

[ Voor 13% gewijzigd door dahakon op 02-04-2011 19:41 . Reden: cijfertjes wat aangepast na teruglezen van wat achtergrond informatie ]


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
dahakon schreef op zaterdag 02 april 2011 @ 19:10:
Cheetah, je claimt dat OCP pas inschakelt (je gaat daar in ieder geval van uit) door de test van Hardware.fr, omdat hun GTX590 tot 458 Watt trok en niet stuk ging. Je legt echter verbindingen die niet zomaar te leggen zijn. Ten eerste stelt Hardware.fr dat OCP nu overal op reageert, met uitzondering van de speciale versie van Furmark die ze hebben. Ze zeggen dus dat OCP NIET werkt in die test.

Door je 'claim' zijn er vervolgens wel anderen die ook maar gaan melden dat OCP blijkbaar bij 450 Watt, zonder verdere bewijsvoering. Als we de boel gaan bekijken, dan komen we er in ieder geval achter dat het allemaal wel erg krap is.

Kijken we naar verbruik van het geheugen, dan kom je niet veel verder dan 130Watt op maximum vermogen.

Extremetech spreekt over ~2.5Watt verbruik, maar is onduidelijk over het type GDDR5, een pagina van Samsung heeft het over ~11,8Watt verbruik voor 1.5V 2Gb chips met een 256-bit interface (4 chips?). Als je dan 12 chips a ~3 Watt hebt, dan kom je dus op ~36 Watt. Nu zou het kunnen dat het geheugen nog wel wat meer verbruikt, maar we moeten het niet in de honderden Watts gaan zoeken, temeer aangezien nVidia laaggeklokt GDDR5 gebruikt. Als het ook nog eens op 1.35V draait, wordt het verbruik ook nog eens lager.

Edit: (Nog even de Samsung site terug gezocht en extra aandachtig doorgelezen)

Als je ~36 van de 458 aftrekt, kom je op verbruik voor de GPU van 422 Watt. We zijn al tot de conclusie gekomen dat de VRM voor de GPU eigenlijk niet meer dan 150 Watt per GPU kan verdragen op langdurig gebruik. Je komt dus 61Watt per GPU te kort om continu vol te belasten in dit geval. Het lijkt me erg sterk dat OCP een situatie laat bestaan waarbij componenten continu boven maximale belasting blijven draaien.
Oeh nice dat je wat cijfers over het geheugen hebt wat ik miste. Ik gokte zelf al op max 100W en dat lijkt wel te kloppen dan. 3*24 = 72W.

Tellen we daar de VRM voor het geheugen nog bij en we gaan mooi richting de 100W. Dan kunnen we daar wellicht nog wat componenten in kwijt. De MOSFET's voor de GPU mis je nog wel Dahakon. Deze doen bij 30A op 1V zo'n 5W verspelen, dus die gooien met zijn tienen nog 50W weg. Blijft er 458-150 = 308W over voor de GPU's zelf.

Nvidia geeft al aan dat de GF110 max 0,96V zou moeten doen. Ik neem die max, omdat dat nog het positiefst uitkomt voor de MOSFET. 0,96V * 35A * 10 MOSFET's = 336W. Als ik echter de stock 0,916V pak dan houden we het op 321W. Het lijkt me duidelijk dat de GF110 dan met nog zo'n 13-28W nog net binnen de marge blijft.

De cijfers even met de note dat ik het heel losjes uitreken en aan de hand van de informatie een goede educated guess maak van het verbruik. Een warmere MOSFET kan bv 6W gebruiken, reken maar na dat de marge dan nog maar 3W zou zijn. Ik geef mijn vlotte berekening dan ook een errormarge van +- 25W

@Dahakon, volgens mij heeft de GTX590 24 geheugenchips. 12 aan d bovenkant, 12 aan de onderkant.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
GENETX schreef op zaterdag 02 april 2011 @ 20:11:
@Dahakon, volgens mij heeft de GTX590 24 geheugenchips. 12 aan d bovenkant, 12 aan de onderkant.
Klopt, daar had ik me even verrekend. Maar als ik me niet vergis, verbruiken 1Gb chips iets minder dan 2Gb chips (scheelt misschien maar 0.5 Watt, maar over 24 chips is dat nog altijd 12 Watt). Bovendien is het extreem laag geklokt geheugen en is er momenteel veel 1.35V geheugen beschikbaar. Maar als we van het ergste uit gaan, dan zit je inderdaad zo rond de 72Watt (of 60Watt als we van de 2.5Watt voor 1Gb chips uitgaan) voor het geheugen (Mosfets idd niet meegerekend).

Je moet je verder afvragen of de mosfets van het geheugen zoveel verbruiken. Het kan best wel eens ophouden bij 2-3 Watt per stuk voor de mosfets van het geheugen. Hoe dan ook, het is margewerk en in het meest positieve geval zit de VRM voor de GPU's dus op zijn tax, niet iets wat je voor langere duur wilt hebben.

[ Voor 18% gewijzigd door dahakon op 02-04-2011 21:20 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zaterdag 02 april 2011 @ 16:39:
Ben ik het met je op alle punten eens.
Nice dat we dat punt toch bereikt hebben samen :)

Ik had wat opmerkingen bij hierbovenstaand, maar laat eigenlijk ook maar. Je berekening lijkt me op het eerste oog wel redelijk, en dit blijft eindeloos speculeren anders. De exacte getallen krijgen we toch nooit in handen (helaas).
dahakon schreef op zaterdag 02 april 2011 @ 20:35:
[...] zit de VRM voor de GPU's dus op zijn tax, niet iets wat je voor langere duur wilt hebben.
Dit is blijkbaar inderdaad zo bij dat verbruik van ~450W (en duidelijk niet al bij standaardverbruik binnen TDP, zoals eerder beweerd werd). En daar wil ik inderdaad prima in meegaan... vandaar dat de kaart daar blijkbaar vanuit het bios-powermanagement ook gecapped wordt :)

offtopic:
volgens mij ga ik bij een volgende videokaartrelease me niet meer in dit topic vertonen en wat leukers doen met m'n tijd 8)7

[ Voor 175% gewijzigd door Cheetah op 03-04-2011 02:48 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
dahakon schreef op zaterdag 02 april 2011 @ 20:35:
Je moet je verder afvragen of de mosfets van het geheugen zoveel verbruiken. Het kan best wel eens ophouden bij 2-3 Watt per stuk voor de mosfets van het geheugen. Hoe dan ook, het is margewerk en in het meest positieve geval zit de VRM voor de GPU's dus op zijn tax, niet iets wat je voor langere duur wilt hebben.
True, maar er zijn nog andere componententen. Stel dat je 20-25W overhoud van die 100W die we voor geheugen hebben, die kun je nog wel kwijt in verliezen elders, in kleine componentjes. Op zichzelf gebruiken ze bijna niks, maar als geheel. Het is alleen niet te doen om dat uit te rekenen. Vandaar dat ik zelf ook een marge van +-25W aanhoud.

@Cheetah, mooi hè dat dat kan op het web :P
Maar dan is het iig nog wel zorgelijk. Want de kaart zou normaal in het geval moeten lopen zoals op Tech Report. Het verbruik bij gamen gaat dus wel richting die 450W, zal wat minder zijn (420-430W gok ik). Het lijkt er op dat Nvidia met OCP echt alles uit die MOSFET's wil halen wat mogelijk is en eigenlijk geen marge overhoud, iig een hele kleine maar.

En ik denk idd dat we daar onze conclusie moeten houden: Het past net. Bij extreme langdurige situaties, hogere temps, een minder MOSFET kan er dan mogelijk eentje gaan vliegen. Het zal niet veel gebeuren gok ik zo idd. Ik hoop het iig niet meer na die laatste driver update. Jammer dat ze niet even 2 extra MOSFET's hebben genomen, want dan was alles gewoon safe geweest.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zondag 03 april 2011 @ 09:28:
Maar dan is het iig nog wel zorgelijk. Want de kaart zou normaal in het geval moeten lopen zoals op Tech Report. Het verbruik bij gamen gaat dus wel richting die 450W, zal wat minder zijn (420-430W gok ik).
Bij TechReport moet je nog wel het systeem van het verbruik aftrekken. Een high-end systeem under load zit zonder grafische kaart ook al snel op ~150-180W denk ik. De 590 loopt i.i.g. op hun WICKED (overklok/overvolt) instelling dus wel ruim boven TDP (schatting: ~430-470W), maar op stock waarschijnlijk niet of nauwelijks...
Ook jammer dat we daar de exacte getallen van het systeemverbruik niet hebben. Blijft n btje nattevingerwerk.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op zondag 03 april 2011 @ 10:13:
[...]
Bij TechReport moet je nog wel het systeem van het verbruik aftrekken. Een high-end systeem under load zit zonder grafische kaart ook al snel op ~150-180W denk ik. De 590 loopt i.i.g. op hun WICKED (overklok/overvolt) instelling dus wel ruim boven TDP (schatting: ~430-470W), maar op stock waarschijnlijk niet of nauwelijks...
Ook jammer dat we daar de exacte getallen van het systeemverbruik niet hebben. Blijft n btje nattevingerwerk.
Let eens op de HD6990. Dat vind ik het vreemde Die doet dik 40W minder, terwijl ook AMD alles uit zijn 375W TDP zou moeten halen met PowerTune. Als AMD op zijn max zit dan is het dus 375W + 44W = 419W voor stock.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

GENETX schreef op zondag 03 april 2011 @ 10:26:
Let eens op de HD6990. Dat vind ik het vreemde Die doet dik 40W minder, terwijl ook AMD alles uit zijn 375W TDP zou moeten halen met PowerTune. Als AMD op zijn max zit dan is het dus 375W + 44W = 419W voor stock.
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Zeus
  • Registratie: Juni 2003
  • Laatst online: 11:47
Cheetah schreef op zondag 03 april 2011 @ 10:31:
[...]
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)
Als ik het goed begrijp denk jij dat de AMD een andere intepretatie geeft aan een hardwarematige TDP limiet?
Dus AMD zit ongeveer 40 watt onder de PCI-sig standaard?

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Cheetah schreef op zondag 03 april 2011 @ 10:31:
[...]
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)
Tsja, het lijkt me dat AMD max 375W doet hoor :P . Anders zou het voor Nvidia alleen maar erger worden ;)

Met Zeus dus. Anders zou AUSUM sowieo ook geen zin hebben. Juist AUSUM geeft wel aan dat de AMD HD6990 nog een stuk verder kan en dat het spel niet de bottleneck is voor de kaart waardoor het verbruik ineens rond de 300W voor de HD6990 zou zitten.

[ Voor 28% gewijzigd door GENETX op 03-04-2011 11:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Met oudere drivers gaan de punten van 2000 naar 4000 in furmark ook gaat de fan een heel stuk sneller draaien om rond de 90 graden te blijven, Ik heb dan OCP niet aangevinkt.
Ik wou dit gisteren nog even posten maar mijn internet lag er uit.

[ Voor 95% gewijzigd door Anoniem: 304087 op 03-04-2011 12:30 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
verkeerde topic ...

offtopic:
@Luppie

Ik poste mijn bericht in het verkeerde topic, had niks met jouw post te maken ;)

[ Voor 163% gewijzigd door Bullus op 03-04-2011 12:35 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nee niet verkeerd tpic ik laat niews weten over de gtx580 in furmark

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Anoniem: 304087 schreef op zondag 03 april 2011 @ 11:50:
Met oudere drivers gaan de punten van 2000 naar 4000 in furmark ook gaat de fan een heel stuk sneller draaien om rond de 90 graden te blijven, Ik heb dan OCP niet aangevinkt.
Ik wou dit gisteren nog even posten maar mijn internet lag er uit.
En in beide gevallen lijkt de load en de kloksnelheid gelijk?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Jeps 100%

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Ok, hartstikke bedankt :) . De aangegeven kloksnelheden in software kunnen we dus niet meer vertrouwen. Bedankt nvidia...

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Helemaal mee eens. Ik hoop echter dat dit niet ingame gebeurd maar dat gaik ook nog even testen. Ik maar er aankomende week ook wel even wat screens van zodat hetook zichtbaar is.

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 08:51
Veel screens (ook als het even kan grafiekjes met het verloop over de test bv) en driver info zijn zeer welkom. Met genoeg screens en driver info heb ik namelijk genoeg bewijs om er een artikel over te kunnen schrijven waarbij jij zeker een eervolle vermelding krijgt :)

@hieronder, die was ik idd nog vergeten, dit verdient zeker een _/-\o_

[ Voor 12% gewijzigd door GENETX op 03-04-2011 12:49 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op zondag 03 april 2011 @ 12:41:
Helemaal mee eens. Ik hoop echter dat dit niet ingame gebeurd maar dat gaik ook nog even testen. Ik maar er aankomende week ook wel even dat screens van zodat hetook zichtbaar is.
Jup, bedankt voor deze verheldering. Top dat je nog even verder wilt kijken _/-\o_
Cheetah schreef op zondag 03 april 2011 @ 10:31:
[...]
En daar komt die interpretatie van "TDP" alweer om de hoek kijken... average of maximum, of...? ;)
Mhhz, ik zou een beetje oppassen met die uitspraak, wat dat betreft heeft Nvidia een slechtere naam.
Pagina: 1 ... 10 11 Laatste

Dit topic is gesloten.

Let op:
Omdat het in het vorige deel blijkbaar niet helemaal duidelijk was nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.