[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 30 Laatste
Acties:
  • 125.310 views

Acties:
  • 0 Henk 'm!

Anoniem: 304087

meer dan 5% is geloof ik geen foutmarge meer. Zeker niet als je keer op keer op het zelfde uit komt.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Nas T schreef op maandag 17 september 2012 @ 17:08:
Even een schopje: niemand weet de afstand tussen de mounting holes van de Nvidia 660 Ti?
Hier ben ik ook wel benieuwd naar, ik wil graag weten welke koelers op het ding passen. Stock, al is het dan een fancy stockkoeler, gaat 'm niet worden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23-06 00:58

Sp3ci3s8472

@ 12 graden...

Anoniem: 304087 schreef op maandag 17 september 2012 @ 17:23:
meer dan 5% is geloof ik geen foutmarge meer. Zeker niet als je keer op keer op het zelfde uit komt.
Als ze de test 10x hebben gedraaid en elke keer 5% meer hadden dan heb je gelijk. Maar stel dat de test maar 2x is gedraaid dan valt het binnen de fout marge imo.

Volgens mij hebben AMD en Nvidia zoiezo beide een testsuite staan met een groot aantal spellen, deze draaien ze dan meerdere keren (neem ik aan :P). Dit verklaart misschien ook dat jij een keer ergens een boost behaalde in een spel maar dat niet terugzag in de driver release notes, ze kunnen namelijk niet elk spel/level draaien ;).
Het kan ook zijn dat een optimalisatie voor spel x een positieve invloed heeft op spel y maar dit wordt dan niet getest.

Maar ik speculeer nu lekker :P.

Anoniem: 59888

XanderDrake schreef op maandag 17 september 2012 @ 17:21:
[...]
  1. Hij had het over foutmarges. Maar dat hoeft niet de verklaring van de verschillen te zijn. Gezien TechReport redelijk goed aan statistiek doet denk ik niet dat we daar over kunnen spreken
  2. Zoals je ziet in graphs zijn de verschillen vaak klein tussen videokaarten. Je verliest het vermogen om te onderscheiden als je daar te makkelijk over doet.
Nou vooruit, dan zal ik het maar weer eens volledig uitspellen.
foutmarge v/m
mate van onzekerheid bij de uitslag van een steekproef, statistische meting enzovoort
bijvoorbeeld: 95% betrouwbaarheid en een foutmarge van 5%.
Waar het om gaat is dus meetonzekerheid. Je hebt bij het runnen van benchmarks altijd kleine afwijkingen. Misschien moet de virusscanner even iets doen, misschien is er een achtergrondproces wat ineens opduikt, er kan altijd wel een klein dingetje zijn die net een paar FPS verschil veroorzaakt. Tuurlijk kun je dat beperken door een zo schoon mogelijke windows installatie te gebruiken en de test meerdere keren te draaien, maar een 100% exacte benchmark zul je nooit krijgen.

Dan kun je dat wel weer naar je eigen argumenten toe gaan beredeneren door het in percentages uit te rekenen en daar een vage norm aan te hangen, maar uiteindelijk gaat het om een verschil van enkele FPS op een gemiddelde van 74 en een minimum van 44. Dat zijn hele kleine verschillen die heel gemakkelijk veroorzaakt kunnen worden door kleine afwijkingen in de benchmark. Die vallen dus inderdaad binnen de foutmarge.

Uiteraard houdt dat nVidia niet tegen zoiets te claimen. Als die een verbetering in de driver aanbrengen zullen ze dat altijd in de releasenotes zetten (PR waarde++), of de winst nou puur theoretisch is of niet. Daar is op zichzelf ook niets mis mee. Een verbetering in de driver is een verbetering in de driver. Maar laten we eerlijk zijn, het verschil tussen 15 en 18 fps merk je misschien nog, het verschil tussen 72 en 75 FPS absoluut niet. Het verschil is dusdanig klein dat het niet alleen binnen de foutmarge valt, maar ook volstrekt insignificant is.

En ja, als het verschil tussen videokaarten zo klein uitvalt wordt het inderdaad lastig om nog een snellere aan te wijzen. Maar in de praktijk zullen de verschillen nooit zo klein zijn in alle benchmarks en alle spellen. En als dat toch voor zou komen is de logische conclusie niet anders dan dat beide kaarten gelijkwaardig presteren. Daar is niks mee lijkt me zo.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Sorry, maar dit is statistisch gezien lariekoek. De foutmarge wordt juist bepaald door het aantal metingen (wortel-n-wet) en zonder het aantal metingen te weten is er helemaal niet te zeggen of iets binnen een foutmarge valt. Willekeurige meetfouten middelen namelijk uit over genoeg metingen (strict genomen zorgen achtergrondprocessen voor systematische fouten omdat ze altijd vertragen en nooit versnellen, maar aangezien het om het verschil tussen twee resultaten gaat middelt dat elkaar alsnog uit). Dit is het fundament van statistisch onderzoek: onnauwkeurige resultaten toch met grote zekerheid nauwkeurig kunnen verklaren.

En wat XanderDrake heeft gezegd: De verschillen tussen bijvoorbeeld de HD7870 en de GTX660 liggen ook in deze orde. Een driver-update is dan ook nog eens maandelijks, waardoor de drivers over een jaar tijd nog een groter verschil kunnen laten zien.

Daarbij zeg ik niet dát het resultaat significant is, want ik ken de meetmethodes ook niet. Misschien is het dus alsnog een onzin-resultaat, maar dan niet om de redenen die je noemt.

Goed, genoeg over statistiek nu. :P

[ Voor 31% gewijzigd door bwerg op 19-09-2012 08:01 ]

Heeft geen speciale krachten en is daar erg boos over.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 06-07 18:28

XanderDrake

Build the future!

Anoniem: 59888 schreef op woensdag 19 september 2012 @ 02:39:
Dan kun je dat wel weer naar je eigen argumenten toe gaan beredeneren door het in percentages uit te rekenen en daar een vage norm aan te hangen.
Dus, door echte statistiek toe te passen?

Foutemarges zijn namelijk dan net zo goed een vage norm, als je lekker onduidelijk wil blijven. Je zou makkelijk een t-test kunnen uitvoeren op de benchmark resultaten en kijken of twee videokaarten met een bepaalde zekerheid te onderscheiden zijn. Maar ja, dat is natuurlijk vaag :+

Ik vind dat als je aan de ene kant definities quote, dat je het niet meer over vage dingen mag hebben. Of de termen zijn je duidelijk of niet. Te pas en onpas termen gebruiken die je niet 100% begrijpt... is vaag :P

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Anoniem: 304087

14500+ NVIDIA Kepler Flagship GK110 GPUs to Go Into Titan Supercomputer!
http://www.legitreviews.com/news/14114/

http://www.hpcwire.com/hp..._titan_supercomputer.html

Anoniem: 59888

bwerg schreef op woensdag 19 september 2012 @ 07:58:
Sorry, maar dit is statistisch gezien lariekoek. De foutmarge wordt juist bepaald door het aantal metingen (wortel-n-wet) en zonder het aantal metingen te weten is er helemaal niet te zeggen of iets binnen een foutmarge valt. [..] Dit is het fundament van statistisch onderzoek: onnauwkeurige resultaten toch met grote zekerheid nauwkeurig kunnen verklaren.
Dan ga je er vanuit dat de foutmarge überhaupt te bepalen is. Dat gaat inderdaad niet, daarvoor ontbreekt veel te veel informatie. Maar, iedereen die wel eens een benchmark gedraait heeft weet dat als je die meerdere keren achter elkaar draait je altijd kleine afwijkingen ziet (enkele FPS). De foutmarge mag dan niet te bepalen zijn, in de praktijk zien we wel afwijkingen in de resultaten. Dat kun je toch moeilijk negeren.

Of die afwijkingen nou veroorzaakt worden door een engine die onder dezelfde omstandigheden niet altijd 100% gelijk presteert, een test die niet 100% exact is of achtergrondprocessen die roet in het eten gooien, maakt eigenlijk niet uit. Duidelijk is dat we met de huidige technologie dergelijk kleine verschillen niet betrouwbaar kunnen reproduceren, en niet betrouwbaar kunnen meten. Je zult dus bij het interpreteren van de meetresultaten altijd uit moeten gaan van een foutmarge.

Van welke foutmarge je dan uit moet gaan is feitelijk natte-vingerwerk, maar als we deze cijfers willen gebruiken moet je toch wat. Hoe groot of klein je de foutmarge ook in wilt schatten, als je in de praktijk afwijkingen van enkele FPS terugziet kun je toch moeilijk uitgaan van een foutmarge die kleiner is dan dat.

Kortom, er kan wel een verschil zijn, maar als je dat niet betrouwbaar kunt reproduceren en niet betrouwbaar kunt meten, kun je aan de cijfers die je hebt geen conclusies verbinden. Niet als de verschillen zo klein zijn. Ik ging er eigenlijk vanuit dat dat wel gemeengoed was hier op GoT. :X

Anoniem: 304087

Gerucht, GF GK110 maart 2013?
http://translate.googleus...MN2oytSwnXl-5KxsT5VeeJGug

Nvidia gaat AMD weer afwachten en zich daar op aanpassen. Maar goed als het andersom zou zijn dan
kan het zijn dat nvidia wel een minder snellere gpu op de markt brengt dan zijn tegenhanger.

[ Voor 20% gewijzigd door Anoniem: 304087 op 20-09-2012 09:15 ]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Als nVidia eerder kan zijn doen ze dat natuurlijk heel graag, welke fabrikant niet? Kunnen ze meer verkopen met meer winst omdat ze minder concurrentie hebben. Daarnaast kan nVidia in de tijd natuurlijk zo goed als niets meer veranderen, alleen de kloksnelheid een beetje, maar die wordt toch bijna altijd naar de "max" gezet. (max = zo hoog mogelijk met zo goed mogelijke yields)

Overigens is dat hele nieuwsbericht gebaseerd op gebakken lucht.

[ Voor 8% gewijzigd door -The_Mask- op 20-09-2012 10:39 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 304087

GK104 kwam ook veel te laat, maar als nog maakt nvidia daar ook winst mee + het voordeel dat die kaart sneller is dan de non oc van AMD en ook nog eens zuiniger.

[ Voor 8% gewijzigd door Anoniem: 304087 op 20-09-2012 10:46 ]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik denk dat iedereen dat wel weet, dus wat wil je daar mee zeggen?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 304087

Dat het weinig uit maakt om te wachten tot de concurent eerst komt.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het maakt wel degelijk uit wanneer je later bent dan de concurrent, zeker als de nieuwe serie van de concurrent sneller is dan jouw vorige serie. Op dat moment verkoopt de concurrent gewoon meer. Als je later je product uitbrengt is het voor de concurrent ook veel eenvoudiger om de prijs te verlagen omdat er al een deel van de investering is terugverdiend.

Anoniem: 304087

Het is maar net hoe je het bekijkt, als je dan wat later wat uit brengt dan je concurent en die is dan sneller dan kom je weer bij het zelfde verhaal uit van jou dcm. Dat is nu ook het geval geweest met de GK104.
Je kan lanter komen maar je moet niet een jaar te laat komen want dan zijn er misschien wel problemen voor de laatkomer.

Edit

PHYSX blijkt toch wel zwaarder te zijn voor de CPU
User.tmp in "[Multi] Borderlands 2"

[ Voor 50% gewijzigd door Anoniem: 304087 op 20-09-2012 11:59 ]


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Want wanneer je later bent kan je genoegen nemen met een lagere marge omdat je al een deel hebt terugverdient? Dat lijkt mij geen gezonde strategie, want je hebt nog niets terugverdient.

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

dcm360 schreef op donderdag 20 september 2012 @ 11:50:
Het maakt wel degelijk uit wanneer je later bent dan de concurrent, zeker als de nieuwe serie van de concurrent sneller is dan jouw vorige serie. Op dat moment verkoopt de concurrent gewoon meer. Als je later je product uitbrengt is het voor de concurrent ook veel eenvoudiger om de prijs te verlagen omdat er al een deel van de investering is terugverdiend.
Hoeft ook niet. Als AMD bijvoorbeeld bij deze launch van SI de prijs zo laag mogelijk hadden gezet zou AMD moeilijk even snel wat aan de prijzen kunnen doen en dan zou nVidia ook bij de launch van Kepler met de prijs lager moeten hebben ingezet. Dat is nu niet gebeurd: AMD hebben de prijs van SI hoger vastgesteld om de prijs / prestatie ongeveer gelijk te zetten aan Fermi 2. Zodoende konden ze de prijs na de introductie van Kepler naar beneden bijstellen waarvoor ze eerst hebben kunnen cashen.
dcm360 schreef op donderdag 20 september 2012 @ 12:14:
Want wanneer je later bent kan je genoegen nemen met een lagere marge omdat je al een deel hebt terugverdient? Dat lijkt mij geen gezonde strategie, want je hebt nog niets terugverdient.
Hierop aansluitend: dit jaar kon nVidia ook later komen met Kepler en dankzij de hoge inzet van AMD konden zij Kepler ook op de markt brengen met een leuke marge. Zeker omdat ze nog niet te maken hadden met de grote GK100, maar de relatief kleine GK104 zouden de kosten makkelijk lager kunnen zijn dan bij Fermi en Fermi 2. Dit jaar hoefde nVidia dus niet echt "genoegen te nemen met een lagere marge" want die konden ze prima hebben.
Had je serieus anders verwacht dan?

[ Voor 7% gewijzigd door Fid3lity op 20-09-2012 12:18 ]


  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Vind het exorbitant lang duren met AMD / Nvidia..... pff 2013 voordat er weer wat nieuws komt, wil gewoon met 1 single GPU BF3 op 120fps.. dus geen 50 +-

Dan toch maar een 3e 580 over een maandje ofso... winter...

[ Voor 67% gewijzigd door A87 op 20-09-2012 13:01 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Zonder ook maar iets te zeggen over resolutie en settings slaat je punt natuurlijk nergens op. En 1 nieuwe generatie per ~jaar is toch prima?

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

680 is geen nieuwe generatie maar slow mirange crap ;). maarja laat die 110 maar komen :+

1080P gaming

[ Voor 83% gewijzigd door A87 op 20-09-2012 13:14 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 06-07 18:28

XanderDrake

Build the future!

A87 schreef op donderdag 20 september 2012 @ 13:13:
680 is geen nieuwe generatie maar slow crap ;).

1080P gaming
Trolololololooooo

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Anoniem: 304087

3XPER7 schreef op donderdag 20 september 2012 @ 12:17:
[...]


Had je serieus anders verwacht dan?
Ja eingelijk wel omdat hier vaak beweerd werd dat het beter op een cpu zou lopen.

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Anoniem: 304087 schreef op donderdag 20 september 2012 @ 13:14:
[...]


Ja eingelijk wel omdat hier vaak beweerd werd dat het beter op een cpu zou lopen.
Ik daag je uit om met posts te komen die dat beweren.

Anoniem: 304087

Ja dan zou ik alle topics weer door moeten spitten van post tot post, daar heb ik echt geen tijd voor.
Mij word iig verteld dat het net zo goed over de cpu kan, zelfs beter. Ik had toen ook een andere profiel dus kan het ook niet meer terug vinden in mijn post historie. Ik zal het iig even proberen maar ga er niet al te veel tijd in steken want dat heb ik niet.
dcm360 schreef op donderdag 20 september 2012 @ 12:14:
Want wanneer je later bent kan je genoegen nemen met een lagere marge omdat je al een deel hebt terugverdient? Dat lijkt mij geen gezonde strategie, want je hebt nog niets terugverdient.
Verder op in het jaar heb je dat dan wel weer terug verdiend. Je verdiend niet enkel aan een generatie in het eerste jaar. ;) Bij lange na niet.

[ Voor 52% gewijzigd door Anoniem: 304087 op 20-09-2012 13:22 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Eh nee, het enige dat wel vaak genoeg gezegd wordt (en terecht) is dat het veel beter op de CPU kan lopen dat het nu doet; en het grootste deel loopt toch al via de CPU.

Anoniem: 304087

Het grootste gendeelte van de niet physx effecten neem ik aan dan zoals de pshsics effecten.
Maar zat zit vaak niet in de gpu physx games.

Hier laat men zien waarom dat het beter op de gpu werkt.
nieuws: 'PhysX-berekeningen op cpu traag door slechte optimalisatie'
Wel oude troep overgens.

[ Voor 49% gewijzigd door Anoniem: 304087 op 20-09-2012 13:55 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Nee hoor, een groot deel van de "PhysX effecten" loopt ook gewoon op de CPU; althans met PhysX < 3.0/Apex < 1.2 - en nee, er is nog steeds geen enkele game die 3.0 of hoger gebruikt. Zo zie je heel goed waarom men PhysX gebruikt; de zak geld is en blijft de voornaamste drijfveer. In 3.0 en hoger (met name de nieuwe 3.2) loopt alles een stuk beter op de CPU en loopt er ook meer op de GPU. Tja, krijg je er van als Nvidia eerst 3 jaar niets er mee doet nadat ze het aanschaffen :)

  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 03-07 11:52

Sinester

Game Guru

Volgens mij is het ook gewoon duidelijk dat je Borderlands 2 niet met Physx op High moet spelen als je geen nvidia kaart hebt... op Medium draait het al veel beter en ziet er nog steeds prima uit

Ik las zelf dat nVidia kaarten moeite hadden met Physx op High, en dat je daarvoor het beste SLI kan draaien
Of dit echt waar is weet ik niet, kan morgen pas spelen :'(

Hello there


Anoniem: 304087

Werelds schreef op donderdag 20 september 2012 @ 14:10:
Nee hoor, een groot deel van de "PhysX effecten" loopt ook gewoon op de CPU; althans met PhysX < 3.0/Apex < 1.2 - en nee, er is nog steeds geen enkele game die 3.0 of hoger gebruikt. Zo zie je heel goed waarom men PhysX gebruikt; de zak geld is en blijft de voornaamste drijfveer. In 3.0 en hoger (met name de nieuwe 3.2) loopt alles een stuk beter op de CPU en loopt er ook meer op de GPU. Tja, krijg je er van als Nvidia eerst 3 jaar niets er mee doet nadat ze het aanschaffen :)
Hoe kan ik na gaan dat physx op de cpu loopt, ik weet wel met benchmark progamma's dat de cpu tijdens de physx test wel altijd op 0% staat zoals met vantage.

In borderlands word 2.8.4 SDK gebruikt iig.

[ Voor 3% gewijzigd door Anoniem: 304087 op 20-09-2012 17:33 ]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
ik weet wel met benchmark progamma's dat de cpu tijdens de physx test wel altijd op 0% staat zoals met vantage
Kan niet.

[ Voor 86% gewijzigd door -The_Mask- op 20-09-2012 17:59 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 304087

Draai meer eens dan met een nvidia kaart en kijk naar je cpu gebruik tijdens de physx test, hooguit 1-3% door achtergrond programma's. Ik kan er wel een screenshot van laten zien ook.
Nu ff niet maar straks na mijn benen, schouders en biceps training op testo.

[ Voor 10% gewijzigd door Anoniem: 304087 op 20-09-2012 18:03 ]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Weet je wel hoeveel keer 1-3% hoger is dan 0%, dat is heeeeeeel veeeeel meer, miljard keer meer is er niks bij. :Y

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Dat screenshot wil ik wel eens graag zien, zeker gezien de physics test juist een CPU test hoort te zijn na de ban op PhysX misbruik. Gebruik ook asjeblieft niet PhysX in plaats van physics, hebben namelijk minder met elkaar te maken dan eigenlijk zou moeten.

  • fragcompany
  • Registratie: Mei 2004
  • Laatst online: 12-05 17:01
Zou het zin hebben (en werken) om bv een gtx 560ti als dedicated Physx kaart te gebruiken naast mijn Asus gtx 680 top versie?

Anoniem: 304087

Werelds schreef op donderdag 20 september 2012 @ 19:30:
Dat screenshot wil ik wel eens graag zien, zeker gezien de physics test juist een CPU test hoort te zijn na de ban op PhysX misbruik. Gebruik ook asjeblieft niet PhysX in plaats van physics, hebben namelijk minder met elkaar te maken dan eigenlijk zou moeten.
Klopt maar vantage heeft een aparte physx test er tussen zitten die alleen met nvidia physx werkt.
Dit is een on eerlijke benchmark daarom zetten veel mensen hem ook gewoon uit want met een nvidia kaart krijg je door die test veel meer punten dan dat je hem over de cpu laat doen wat ook kan door physx via het controlpannel uit te zetten. Gelukkig kan hier niet mee worden vals gespeelt want je extreme puten laten gelijk zien dat physx via de gpu is gebruikt. Ik zal zo een screen shot posten in windows mode.

[ Voor 3% gewijzigd door Anoniem: 304087 op 20-09-2012 19:59 ]


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 59888 schreef op donderdag 20 september 2012 @ 04:55:
Van welke foutmarge je dan uit moet gaan is feitelijk natte-vingerwerk, maar als we deze cijfers willen gebruiken moet je toch wat. Hoe groot of klein je de foutmarge ook in wilt schatten, als je in de praktijk afwijkingen van enkele FPS terugziet kun je toch moeilijk uitgaan van een foutmarge die kleiner is dan dat.
Misschien wat laat, maar:

Je meet natuurlijk niet één keer. Je meet 10 keer en je neemt een gemiddelde (of als je aan het benchmarken bent, neem je het gemiddelde van een hele minuut en niet de rendering tijd van één frame). Specifieke metingen mogen dan wel sterk verschillen, maar je past de wortel-n-wet toe en je kan de te behalen gemiddelde FPS van een kaart tot op de honderdste procent nauwkeurig meten als je dat zou willen. Kwestie van genoeg metingen doen. Achtergrondprocessen zijn dan nagenoeg compleet uitgemiddeld. En dat is geen nattevingerwerk als je het goed doet, dat kun je prima wetenschappelijk analyseren (wat benchmarkers ongetwijfeld níet doen, maar het kan wel en is niet vaag maar heel erg duidelijk).

Dat is de basis van statistiek. Dat komt bij onderbouw VWO/havo natuurkunde/scheikunde/wiskunde al aan bod.

[ Voor 11% gewijzigd door bwerg op 20-09-2012 20:08 ]

Heeft geen speciale krachten en is daar erg boos over.


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
10 keer @random de benchmark draaien, zonder verder acht te slaan op eventuele achtergrond processen of 10 keer een zo gelijk mogenlijke benchmark te draaien, waarbij je hebt getracht zoveel mogenlijk variabelen uit te schakelen om tot een zo gelijkwaardige uitslag te komen, zijn natuurlijk wel twee totaal verschillende dingen met totaal verschillende uitslagen, met, zoals je wellicht al hebt zien aankomen, 2 totaal verschillende afwijkingen.

De vraag is dan, hoeveel zekerheid heb je dat het om situatie 2 gaat en niet om situatie 1?

Anoniem: 304087

-The_Mask- schreef op donderdag 20 september 2012 @ 19:21:
Weet je wel hoeveel keer 1-3% hoger is dan 0%, dat is heeeeeeel veeeeel meer, miljard keer meer is er niks bij. :Y
Je hebt gelijk :)
Ik heb net 3dmark vantage weer eens gedraaid en de test zit er niet meer tussen.
Dat gedeeldte van die bruine rotsen en blikems. Ik zal even een andere versie van vantage op zoeken
waar die test nog tussen zit, ik geloof dat die test na een update er uit is gehaald?

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

dahakon schreef op donderdag 20 september 2012 @ 20:14:
De vraag is dan, hoeveel zekerheid heb je dat het om situatie 2 gaat en niet om situatie 1?
Geen. Dat zeg ik ook niet. Ik zeg alleen dat het onzin is om te stellen dat het nou eenmaal niet nauwkeurig kan, en dat een x aantal FPS binnen de foutmarge valt zonder de meetmethode en het aantal metingen te weten.

Heeft geen speciale krachten en is daar erg boos over.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:03
fragcompany schreef op donderdag 20 september 2012 @ 19:34:
Zou het zin hebben (en werken) om bv een gtx 560ti als dedicated Physx kaart te gebruiken naast mijn Asus gtx 680 top versie?
Zin: ja, $/performance: nee.

Anoniem: 172410

Is er al iets bekend over welke koelers op de GTX 660 passen? Ik zie wel iets over dual mounting holes, maar ik heb nog niet ontdekt waar dat precies naar vertaalt.

Ook wel awesome, ik zie dat de GTX660 vandaag voor het eerst onder de 200 euro is gedoken. Dat is de Twin Frozr-variant, dus de rest zal niet duurder blijven.

[ Voor 11% gewijzigd door Anoniem: 172410 op 20-09-2012 23:26 ]


Anoniem: 59888

bwerg schreef op donderdag 20 september 2012 @ 20:05:
[...]

Misschien wat laat, maar:

[verhaal]
Goed, zo langzamerhand wordt dit meer een verplaswedstrijd over statistiek-theorie dan dat het inhoudelijk nog een zinnige discussie is. Waar het mij om ging is dat het verschil in de cijfers zoals die in de post van Lupp staan te klein is om daar conclusies aan te kunnen verbinden. Als jij dat wel wil doen houd ik je niet tegen, maar deze academische discussie voortzetten lijkt me niet bijzonder zinnig, en hier eigenlijk ook offtopic. Laten we het topic dan verder ook maar niet vervuilen. ;)

Anoniem: 172410

Anoniem: 59888 schreef op donderdag 20 september 2012 @ 23:28:
Goed, zo langzamerhand wordt dit meer een verplaswedstrijd over statistiek-theorie dan dat het inhoudelijk nog een zinnige discussie is. Waar het mij om ging is dat het verschil in de cijfers zoals die in de post van Lupp staan te klein is om daar conclusies aan te kunnen verbinden. Als jij dat wel wil doen houd ik je niet tegen, maar deze academische discussie voortzetten lijkt me niet bijzonder zinnig, en hier eigenlijk ook offtopic. Laten we het topic dan verder ook maar niet vervuilen. ;)
Eerst je eigen standpunt nog eens poneren en vervolgens zalvende woorden spreken om de discussie te staken zet niet echt zoden aan de dijk ;)

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Anoniem: 172410 schreef op donderdag 20 september 2012 @ 23:25:
Is er al iets bekend over welke koelers op de GTX 660 passen? Ik zie wel iets over dual mounting holes, maar ik heb nog niet ontdekt waar dat precies naar vertaalt.

Ook wel awesome, ik zie dat de GTX660 vandaag voor het eerst onder de 200 euro is gedoken. Dat is de Twin Frozr-variant, dus de rest zal niet duurder blijven.
Dezelfde koelers als de 670gtx serie. De Arctic Accelero mono plus doet het er wel heel goed op.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Sn0wblind schreef op donderdag 20 september 2012 @ 23:34:
Dezelfde koelers als de 670gtx serie. De Arctic Accelero mono plus doet het er wel heel goed op.
Ik zou toch voor iets groters gaan, eventueel iets waar je zelf stille fans op hangt. Ik ga echt voor stilte, vandaar dat een >150 watt-kaart ook interessant is.

Wel jammer, want de GTX 670-koelers zijn vaak relatief duur. Zo goedkoop als een Accelero S1 zal het wel niet worden. Misschien dat andere koelers ook nog mogelijk zijn, want ik zag wel kaarten met meerdere mounting holes.

Ik kan overigens nu even niet zo goed uitzoeken hoe of wat, mijn firewall signaleert de Arctic-website als spamsite :/

[ Voor 10% gewijzigd door Anoniem: 172410 op 21-09-2012 00:14 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Anoniem: 172410 schreef op vrijdag 21 september 2012 @ 00:12:
[...]

Ik zou toch voor iets groters gaan, eventueel iets waar je zelf stille fans op hangt. Ik ga echt voor stilte, vandaar dat een >150 watt-kaart ook interessant is.

Wel jammer, want de GTX 670-koelers zijn vaak relatief duur. Zo goedkoop als een Accelero S1 zal het wel niet worden. Misschien dat andere koelers ook nog mogelijk zijn, want ik zag wel kaarten met meerdere mounting holes.

Ik kan overigens nu even niet zo goed uitzoeken hoe of wat, mijn firewall signaleert de Arctic-website als spamsite :/
Nog groter? Die koeler is al zo groot en bijna onhoorbaar op een Geforce 670GTX OC-ed. En zwaarder buigt teveel die mini pcb van die kaarten.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Sn0wblind schreef op vrijdag 21 september 2012 @ 01:44:
Nog groter? Die koeler is al zo groot en bijna onhoorbaar op een Geforce 670GTX OC-ed. En zwaarder buigt teveel die mini pcb van die kaarten.
Ben je gek, ik heb een Accelero S1 rev. b in combinatie met een gemodde Nexus Real Silent 120mm op een GTS 450 hangen en dat gaat prima :Y Die koeler is op de foto's afgaande al een stukje groter dan een Mono Plus.

Afbeeldingslocatie: http://tweakers.net/ext/f/i1wmcqcSDiwIMZCj0ZyTqJA4/full.jpg

Overigens is bijna onhoorbaar niet goed genoeg :p Zo groot mogelijk koeloppervlak - zo stil mogelijke fan(s) is het devies in huize Camacha. Vooralsnog levert het een muisstil systeem op.

[ Voor 3% gewijzigd door Anoniem: 172410 op 21-09-2012 02:03 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
De accelero mono plus is groter EN beter als die, kan je oo kwel zelf een fan op monteren als je handig bent, want de S1 gaat niet passen vanwege de VRM's en de capacitors die naast de GPU zitten.

De mono plus koelt in ieder geval tot 200watt,, een 670gtx verstookt 170watt aan warmte en de 660 150watt aan warmte. De fan gaat daarop niet eens harder draaien onder load waarschijnlijk. Bij mij is de kaart in ieder geval vrijwel onhoorbaar, als in hij komt niet boven 2 andere 120mm fans uit die vrij langzaam draaien.

Ik hou zelf ook van stilte namelijk, en omdat mijn kast 90c rotated moederboard tray heeft komt al het geluid er ook nog eens aan de bovenkant uit, dus als mijn PC zelfs stil is ermee.

Groter dan die mono plus gaat de kaart in ieder geval flink later buigen, heb er al fotos van gezien.

Bedoelde overigens dat alleen de Mono plus in het huidige Arctic assortiment echt geschikt is voor de 660 en de Twin turbo al te groot/zwaar is.

De mono plus op een 670gtx (foto is van iemand anders)
Afbeeldingslocatie: http://i.imgur.com/E8Wip.jpg

[ Voor 13% gewijzigd door Sn0wblind op 21-09-2012 12:25 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Nvidia GeForce GTX 650 Ti specificaties duiken op?
De technologiesite ArabPCWorld zegt exclusieve informatie te hebben over de nieuwe GeForce GTX 650 Ti van Nvidia. Deze videokaart zou in de tweede week van oktober op de markt moeten komen en vult daarmee het gat tussen onlangs gelanceerde GeForce GTX 650 en de de GTX 660. Eerstgenoemde is gebaseerd op de kleine GK107 GPU met 384 shader units, terwijl laatstgenoemde een GK106 chip heeft met 960 shader units. Het behoeft verder geen uitleg dat er een groot gat zit tussen deze twee kaarten, een gat dat de GTX 650 Ti kan opvullen.

....
Afbeeldingslocatie: http://content.hwigroup.net/images/news/NVIDIA-GeForce-GTX-650-Ti-Block-Diagram.png

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • SlowikPL
  • Registratie: December 2001
  • Laatst online: 01-07 08:31
Kan me iemand aub helpen met oplossen van mijn probleem. Ik ben een eigenaar van 3x Dell 3007
30inch Monitor 2560x1600 en wil graag Nvidia Sourround of AMD Eyefinity. Allen probleem is bij AMD dat geen karten bestaan die 3x DVI- Dual-link uitgangen hebben. Of ik moet 2 mDP naar DVI dual-link adapter bijkopen voor 100 Euro elk. Ik wil toch over gaan op nVidia wegens Support van IL-2 Sturmovik die ik spel. De vraag is als ik 2 VGA`s van Nvidia GTX680 4GB ga met SLI aansluiten krijg ik zoals onder beschreven de mogelijkheid om 3 DVI uitgangen Dual Link ? Of is beter SLI 3x Nvidia 670 voor mijn Monitors?? Ik heb nog 2x Dell 2007 monitors en deze indien mogelijk ook aansluiten.


Afbeeldingslocatie: http://www.legitreviews.com/images/reviews/1904/sli-surround-connectors.jpg

* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 06-07 16:11

Format-C

Tracing Rays

SlowikPL schreef op dinsdag 25 september 2012 @ 21:12:
Kan me iemand aub helpen met oplossen van mijn probleem.
Nee, niet in dit topic.

Je hebt al een topic geopend omtrent je probleem, dus wacht ff rustig af of daar op gereageerd wordt en ga niet crossposten. :) ;)

[ Voor 44% gewijzigd door Format-C op 25-09-2012 21:43 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Anoniem: 172410

Sn0wblind schreef op vrijdag 21 september 2012 @ 12:04:
Bedoelde overigens dat alleen de Mono plus in het huidige Arctic assortiment echt geschikt is voor de 660 en de Twin turbo al te groot/zwaar is.
Te zwaar is geen probleem, desnoods maak ik zelf een bracket die het geval ondersteunt (maar ik zie niet in waarom een koeler voor een GTX 660 te zwaar zou zijn en voor een andere kaart niet). Te groot alleen als het fysiek daardoor niet meer past. Alles daarbuiten kan aangepast en geregeld worden.

Overigens is de Mono ook kleiner dan de S1, alleen in de hoogte net niet (wat wel kritiek kan zijn wat cleareance betreft, maar wat betreft het koeloppervlak natuurlijk niet echt.

Mono: 136 (L) x 138 (W) x 51 (H) mm

S1: 140(L) x 215(W) x 32(H) mm

[ Voor 18% gewijzigd door Anoniem: 172410 op 26-09-2012 00:59 ]


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Anoniem: 172410 schreef op woensdag 26 september 2012 @ 00:49:
[...]

Te zwaar is geen probleem, desnoods maak ik zelf een bracket die het geval ondersteunt (maar ik zie niet in waarom een koeler voor een GTX 660 te zwaar zou zijn en voor een andere kaart niet). Te groot alleen als het fysiek daardoor niet meer past. Alles daarbuiten kan aangepast en geregeld worden.

Overigens is de Mono ook kleiner dan de S1, alleen in de hoogte net niet (wat wel kritiek kan zijn wat cleareance betreft, maar wat betreft het koeloppervlak natuurlijk niet echt.

Mono: 136 (L) x 138 (W) x 51 (H) mm

S1: 140(L) x 215(W) x 32(H) mm
Die Hoger heeft denk ik meer effect als breder, ook voornamelijk omdat die 120mm fan daar natuurlijk in een rustig tempo meer lucht overheen kan blazen. Maar de S1 hebben ze niet meer sowieso? De Arctic twin cooler, is echt fors groter dan de 660, echt enorm veel groter en dan ook nog dikker dan de mono plus, daarom zei ik ook dat de mono plus nu de enige koeler in hun assortiment is die er een beetje netjes nog op past, naast hun water koeler.

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Asus GTX670 DCII serie uitgebreid met een OC-versie & een 4GB-versie:

OC-versie (1058MHz Boostclock): Asus GTX670-DC2O-2GD5

4GB-versie: Asus GTX670-DC2-4GD5

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagelarge/1348649636.jpegAfbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagelarge/1348649741.jpeg

[ Voor 6% gewijzigd door bitshape op 26-09-2012 13:06 ]

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


  • yzx
  • Registratie: Januari 2011
  • Laatst online: 11-06 16:39

yzx

Gooit Nvidia hun GTX680 zo niet kapot?
Alle die asus gaat om bij om rond dezelfde prijs als een GTX680

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

yzx schreef op woensdag 26 september 2012 @ 14:02:
Gooit Nvidia hun GTX680 zo niet kapot?
De GTX670 heeft nog altijd een veel betere prijs/prestatie(FPS) verhouding, een GTX680 is voor de echte liefhebber die het beste wil ongeacht de prijs.
Wat de Asus GTX680 betreft, er zijn ook kopers van videokaarten die persé geen 3-slotter willen... ;)
Alle die asus gaat om bij om rond dezelfde prijs als een GTX680
Kijk eens wat een 4GB GTX680 kost... (appels-appels :P )

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


  • yzx
  • Registratie: Januari 2011
  • Laatst online: 11-06 16:39

yzx

bitshape schreef op woensdag 26 september 2012 @ 14:28:

[...]

Kijk eens wat een 4GB GTX680 kost... (appels-appels :P )
Had maar naar een simpele GTX680 want die 2 of 4gb gaat je geen 100fps meer geven hoor toch niet op een normale resolutie :+
maar ik snap je vergelijking wel ;)

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Anoniem: 245699

De 4gb gaat je uberhaupt niet veel meer fps geven... Er zijn maar enkele games op zeer hoge reso die er baat bij hebben. Bandbreedte wordt er namelijk niet hoger van...

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Anoniem: 245699 schreef op woensdag 26 september 2012 @ 19:06:
De 4gb gaat je uberhaupt niet veel meer fps geven... Er zijn maar enkele games op zeer hoge reso die er baat bij hebben. Bandbreedte wordt er namelijk niet hoger van...
De framerate kakt minder snel in natuurlijk op hoge resoluties, zodra het geheugen vol zit moet er geswapped worden, als de bandbreedte voornamelijk daarmee bezig is gaat het ten koste van de fps.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Sn0wblind schreef op woensdag 26 september 2012 @ 20:30:
[...]

De framerate kakt minder snel in natuurlijk op hoge resoluties, zodra het geheugen vol zit moet er geswapped worden, als de bandbreedte voornamelijk daarmee bezig is gaat het ten koste van de fps.
Als antwoord op dit zou ik precies MW1F zijn bericht kunnen quoten, dus dan doe ik dat ook maar. :9
Anoniem: 245699 schreef op woensdag 26 september 2012 @ 19:06:
De 4gb gaat je uberhaupt niet veel meer fps geven... Er zijn maar enkele games op zeer hoge reso die er baat bij hebben. Bandbreedte wordt er namelijk niet hoger van...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
-The_Mask- schreef op woensdag 26 september 2012 @ 20:53:
[...]

Als antwoord op dit zou ik precies MW1F zijn bericht kunnen quoten, dus dan doe ik dat ook maar. :9

[...]
Het is maar hoe je ertegen op kijkt maar in tegenstelling tot de 2gb versie heb je op hogere resoluties dan 1080p dus tegenover de 2gb versie een hogere framerate, dat is dus winst ;).

Anoniem: 245699

Sn0wblind schreef op woensdag 26 september 2012 @ 21:51:
[...]

Het is maar hoe je ertegen op kijkt maar in tegenstelling tot de 2gb versie heb je op hogere resoluties dan 1080p dus tegenover de 2gb versie een hogere framerate, dat is dus winst ;).
Uit welke reviews blijkt dit dan?

EDIT; http://hexus.net/tech/rev...e-gtx-680-classified-4gb/
De winst t.o.v. de Gigabyte GTX680 in deze review komt waarschijnlijk uit de iets hogere clocks, niet uit de 2gb extra geheugen...

[ Voor 24% gewijzigd door Anoniem: 245699 op 26-09-2012 21:57 ]


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
Anoniem: 245699 schreef op woensdag 26 september 2012 @ 21:53:
[...]

Uit welke reviews blijkt dit dan?
Mijn praktijk ervaringen, niet credible natuurlijk maar veel reviews betreft 4gb modellen met recentere drivers kan ik niet vinden. Merkte wel dat Metro2033 er baat bij had. Heb zelf overigens geen 4gb variant amar heb deze voor een vriend geinstalleerd en even grondig getest.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Niet uit reviews iig en onderbuik gevoel telt niet mee.... Zoals MW1F al zei geheugenbandbreedte is het grote probleem niet geheugen hoeveelheid.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-06 20:36
-The_Mask- schreef op woensdag 26 september 2012 @ 22:14:
Niet uit reviews iig en onderbuik gevoel telt niet mee.... Zoals MW1F al zei geheugenbandbreedte is het grote probleem niet geheugen hoeveelheid.
Geen onderbuik gevoel gewoon avg framerates naast elkaar leggen. Beiden overclocked, beide mono accelero mono plus voor koeling op de kaarten, verder reference style boards. Metro 2033 had op high res minder last van framedrops, BF3 op hogere soluties dan 1920x1200. Dit zat; in 3d en of surround vision nog wel groter worden hoor.

Het is geen rocket science datals het bandbreedte puur gebruikt wordt voor textures uitlezen omdat ze volledig in het geheugen passen dan swappen dat dit winst geeft. Ik kan helaas overigens maar welgeteld 3 credible reviews vinden en dit is allen met 2 driver revisies terug. Zodra textures en anti aliasing de 2gb grens gaat overschrijden gaat het ten koste van de framerate.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De eerste drie reviews die ik tegen kwam lieten geen noemenswaardig tot geen verschil zien in Metro 2033.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 245699

Nouja, maakt verder niet uit. Wellicht dat het bij 3d surround nog wat meer kan uitmaken. En minder dipjes in minimale framerates zijn idd niet goed te zien in deze review waarbij geen minimum's getoond worden.

Feit is wel dat het prijsverschil van 2gb vs. 4gb en de performance verschillen niet stroken...

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Na Asus die hun Mars III niet mag uitbrengen nu EVGA welke hun EVBot niet meer mag meeleveren, ze zullen wel blij zijn met nVidia. :/
nieuws: 'Nvidia dwingt EVGA te stoppen met EVBot-spanningsregeling'

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-06 14:35

Darkasantion

Just keep swimming!

Iemand die weet waarom nVidia dit nu doet? Eerste gok is GPU's die teveel doorbranden door te hoge voltages en dus laten zien dat Kepler al (te) hoog geclockt is om mee te beginnen, maar ergens concrete bronnen omtrent de "Waarom?".

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Misschien wijst nvidia data uit dat er erg weinig ruimte is om voltage te verhogen zonder dat de hele boel kapot gaat. En willen ze potentiele slechte publiciteit voorkomen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik vraag het mij ook af. Zelf denk ik dat bij evga de leeks de kaarten te ver zullen pushen want bij evga ben je geen extra mods meer nodig geloof ik en dan is de kans groot dat nvidia te veel rma's terug krijgt.

Ook sterke goede gpu's kun je ver pushen met overvolten maar dit moet niet te makkelijk worden gemaakt want dan is het voor de leeks te makkelijk om zo'n kaart te kopen waardoor er veel meer rma's komen.

Zie bvb de asus dc2 kaarten waar bij je zelf nog moet modden om het voltage control los te krijgen, geen probleem want de leeks doen dit toh niet en dus minder rma's door te ver te pushen.
Darkasantion schreef op woensdag 03 oktober 2012 @ 11:55:
Iemand die weet waarom nVidia dit nu doet? Eerste gok is GPU's die teveel doorbranden door te hoge voltages en dus laten zien dat Kepler al (te) hoog geclockt is om mee te beginnen, maar ergens concrete bronnen omtrent de "Waarom?".
Lijkt me sterk gezien er toch best veel ruimte in zit om de kaarten te overklocken, standaard al.

[ Voor 43% gewijzigd door Anoniem: 304087 op 03-10-2012 13:00 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-06 14:35

Darkasantion

Just keep swimming!

Nou vraag ik mij dit bij die EVGA kaarten wel af, zoals ook genoemd bij het artikel, de EVBot kost €80,- extra bovenop de premium prijs van de kaart zelf.

Acht de kans klein dat een leek ten eerste specifiek de GTX680 Lightning eruit kiest als ie niet wil overclocken, en dan ook nog eens weet dat de EVBot bestaat. Om het vervolgens EVBot nog eens te kopen en te gebruiken. De Classified is gemaakt voor een hele specifieke markt waar mensen weten wat ze doen en willen, en de EVBot gaat hier eigenlijk nog eens dunnetjes boven zitten, namelijk de die hard overclock/overvolt mensen die echt wel weten wat ze doen, of waar ze de correcte info kunnen vinden.

En het is altijd makkelijk de kaart te kopen, bestellen, betalen, klaar.
Echter is het maar de vraag of een leek deze kaart er specifiek uitkiest voor dit doel, en dan ook nog bereid is hiervoor dik te betalen. Het wordt echter iets makkelijker de kaart hard te pushen, maar zoals reeds gezegd, ik acht de kans klein dat leken op de hoogte zijn van het bestaan en kunnen van de EVBot.
Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 12:54:

[...]


Lijkt me sterk gezien er toch best veel ruimte in zit om de kaarten te overklocken, standaard al.
Oh ja? Dacht juist dat sommige kaarten niet eens de max boost halen, laat staan volledig stabiel waren op die clocks. En wat is best veel ruimte?

[ Voor 14% gewijzigd door Darkasantion op 03-10-2012 13:08 ]

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Er zijn zat leeken die graag zo'n kaart zou willen, ik ook want dat hardwarematige gedoe vind ik maar te veel gepruts maar zou wel veel verder willen overklocken. Ik doelde ook meer op de hw oc leeks en niet de leeks die net bij videohardware komen kijken want die klocken sowieso al niet zo snel over.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Darkasantion schreef op woensdag 03 oktober 2012 @ 13:06:
[...]
Oh ja? Dacht juist dat sommige kaarten niet eens de max boost halen, laat staan volledig stabiel waren op die clocks. En wat is best veel ruimte?
Klopt dat waren die gtx670 kaarten met klein pcb, volgens mij was daar een bios update fix voor want de bios was niet helemaal goed ingesteld voor die kaart toen en dus terug klocken omdat de powerlimit of zo niet goed was ingesteld.

Gewoon met standaard overklocken gaan veel kaarten wel zo'n +150mhz verder en nog een keer 100mhz verder met kepler boost en + 400mhz op het geheugen. Laat wel zien dat er niets mis is met de gk104.

En door te ver overvolten kunnen de kaarten indd door branden maar dat geldt ook voor alle AMD kaarten
-The_Mask- schreef op woensdag 03 oktober 2012 @ 11:33:
Na Asus die hun Mars III niet mag uitbrengen nu EVGA welke hun EVBot niet meer mag meeleveren, ze zullen wel blij zijn met nVidia. :/
nieuws: 'Nvidia dwingt EVGA te stoppen met EVBot-spanningsregeling'
Van de mars 3 komt niet door nvidia dat hij niet komt. Die kaart was puur bedoeld om te laten zien wat asus kan. Verder waren er geen redenen om hem niet uit te brengen.

We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.

[ Voor 126% gewijzigd door Anoniem: 304087 op 03-10-2012 13:47 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 06-07 16:11

Format-C

Tracing Rays

Met zo'n hardware overvolter is de kans dat je een kaart toast veel groter dan met een software tooltje natuurlijk. Met software is de grens veel duidelijker.

Ik zie het nut van overvolten zowieso niet echt in. Ja misschien voor LN2 runs wel, maar verder niet.

Ik heb het nu een paar keer geprobeerd, maar het legt niet echt zonden aan de dijk. Ik heb een 580 gehad en die klokte voor geen meter, ook niet met voltageverhoging, en heb een 560ti gehad die deed het iets beter. (Heb het idee dat ASUS kaarten beroerde OC'ers zijn trouwens)

Mijn huidige 660Ti PE overklokt als een beest. Zonder voltageverhoging. 237MHz op de core, en 900MHz op het mem. 8) Dit houdt dus in dat mijn 660Ti core tov een reference kaart maar liefst 354MHz!!! is overklokt (reference is 980 boost, die van mij doet 1334 boost) .

Het feit dat EVGA die tool niet meer mag meeleveren heeft vast met een contract, of afspraak, of licentie oid te maken. Of nVidia WEET dat ze vanaf een bepaalde hoeveelheid volts gewoon poef gaan zeggen, en willen ze dat niet. Of ze hebben duidelijk een maximum hoeveelheid volts afgesproken oid, en houdt EVGA zich daar niet aan met hun hardware overvolter.

[ Voor 18% gewijzigd door Format-C op 03-10-2012 15:39 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 13:14:
[...]

Verder waren er geen redenen om hem niet uit te brengen.
Wie zegt dat? Dat ASUS geen reden heeft opgegeven bij TPU wil niet zeggen dat ze geen reden hadden.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 06-07 16:11

Format-C

Tracing Rays

Dit is de reden toch? (Zoals Lupp ook aangaf?)


http://www.techpowerup.co...GTX-680-PCB-Pictured.html
We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.

[ Voor 21% gewijzigd door Format-C op 03-10-2012 15:45 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 25-06 00:45
Wat zou Asus het niet uitbrengen als ze al de research en kosten al gedaan hadden? Limited editions met premium pricetag en gaan. Die dingen worden toch wel verkocht.

Je weet ook helemaal niet wat er aan dat statement voorafgegaan is. Maar met het EVGA gedoe kan je zelf ook de puntjes wel verbinden, me dunkt.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Dat ze een kaart kunnen maken is geen reden om hem niet uit te brengen, dat levert alleen maar des te meer vraagtekens op. Het logische antwoord zou zijn dat men niet zit te wachten op een $1300+ kaart en dat dus de markt er gewoon niet voor is.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 25-06 00:45
Tuurlijk is er een markt voor. GTX690 vliegt ook achterlijk snel over de toonbank bij ons.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 11-06 16:39

yzx

3XPER7 schreef op woensdag 03 oktober 2012 @ 15:54:
Dat ze een kaart kunnen maken is geen reden om hem niet uit te brengen, dat levert alleen maar des te meer vraagtekens op. Het logische antwoord zou zijn dat men niet zit te wachten op een $1200+ kaart en dat dus de markt er gewoon niet voor is.
Was toendertijd toch ook met die trifire AMD kaart op 1 pcb, ook al waren het 3 laptop gpus

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 12:54:
Ik vraag het mij ook af. Zelf denk ik dat bij evga de leeks de kaarten te ver zullen pushen want bij evga ben je geen extra mods meer nodig geloof ik en dan is de kans groot dat nvidia te veel rma's terug krijgt.
EVGA zal vooral RMA's krijgen, nVidia niet.
Ook sterke goede gpu's kun je ver pushen met overvolten maar dit moet niet te makkelijk worden gemaakt want dan is het voor de leeks te makkelijk om zo'n kaart te kopen waardoor er veel meer rma's komen.
EVGA hun probleem.
Zie bvb de asus dc2 kaarten waar bij je zelf nog moet modden om het voltage control los te krijgen, geen probleem want de leeks doen dit toh niet en dus minder rma's door te ver te pushen.
Leuk voor Asus, maar heeft niks met nVidia nodig. Daarnaast denk ik niet dat een leek zoiets van nVidia koopt en er mee gaat overklokken.
Lijkt me sterk gezien er toch best veel ruimte in zit om de kaarten te overklocken, standaard al.
Ehhh :?
Darkasantion schreef op woensdag 03 oktober 2012 @ 13:06:
Nou vraag ik mij dit bij die EVGA kaarten wel af, zoals ook genoemd bij het artikel, de EVBot kost €80,- extra bovenop de premium prijs van de kaart zelf.

Acht de kans klein dat een leek ten eerste specifiek de GTX680 Lightning eruit kiest als ie niet wil overclocken, en dan ook nog eens weet dat de EVBot bestaat. Om het vervolgens EVBot nog eens te kopen en te gebruiken. De Classified is gemaakt voor een hele specifieke markt waar mensen weten wat ze doen en willen, en de EVBot gaat hier eigenlijk nog eens dunnetjes boven zitten, namelijk de die hard overclock/overvolt mensen die echt wel weten wat ze doen, of waar ze de correcte info kunnen vinden.

En het is altijd makkelijk de kaart te kopen, bestellen, betalen, klaar.
Echter is het maar de vraag of een leek deze kaart er specifiek uitkiest voor dit doel, en dan ook nog bereid is hiervoor dik te betalen. Het wordt echter iets makkelijker de kaart hard te pushen, maar zoals reeds gezegd, ik acht de kans klein dat leken op de hoogte zijn van het bestaan en kunnen van de EVBot.
Dit dus. :)
Oh ja? Dacht juist dat sommige kaarten niet eens de max boost halen, laat staan volledig stabiel waren op die clocks. En wat is best veel ruimte?
Iets wat ik vrij weinig zou noemen in dit geval. :p
Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 13:14:
[...]


Klopt dat waren die gtx670 kaarten met klein pcb, volgens mij was daar een bios update fix voor want de bios was niet helemaal goed ingesteld voor die kaart toen en dus terug klocken omdat de powerlimit of zo niet goed was ingesteld.
Juist :z
Van de mars 3 komt niet door nvidia dat hij niet komt. Die kaart was puur bedoeld om te laten zien wat asus kan. Verder waren er geen redenen om hem niet uit te brengen.

We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.
Volgens mij hebben we het hier al eerder over gehad en volgens mij zei ik toen iets van: je denkt toch niet werkelijk dat Asus al die moeite doet om alleen maar te laten zien dat ze het kunnen.

Ja gevonden, de vorige keer zei ik dus ook al: Lees de bron!

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 304087

We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.

Uit Asus zijn mond.

Maar goed ben benieuwd wat er volgens nvidia of evga achter zit zodat misschien die kaarten toch niet verkocht mogen worden.

[ Voor 25% gewijzigd door Anoniem: 304087 op 03-10-2012 16:07 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Geloof je nu werkelijk een fabrikant op z'n blauwe ogen?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik geloof niets, echter is het wat Asus zegt de eenige bron tot nu toe.
Waarom zou een fabriekant niet een leuk kaartje kunnen maken om hem even te showen en
er later toch niets mee gaat doen. Dat soort zaken zie je wel vaker in hardwareland.
http://www.techpowerup.co...GTX-680-PCB-Pictured.html

Edit

Hier onder.

Welke bron, jij? Dat is geen bron maar een speculatie van u zelf, of zie ik een link over het hoofd?

[ Voor 30% gewijzigd door Anoniem: 304087 op 03-10-2012 16:17 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Help!!!! schreef op woensdag 03 oktober 2012 @ 12:17:
Misschien wijst nvidia data uit dat er erg weinig ruimte is om voltage te verhogen zonder dat de hele boel kapot gaat. En willen ze potentiele slechte publiciteit voorkomen.
Op de standaard kaarten kun je zelf niet meer het voltage aanpassen maar dit doet de kaart zelf tot max 1,75V, ligt er aan hoeveel je zelf er bij klockt en je de boel zo in stelt dat je kaart volledig belast word.
Het is dus niet zo dat er weinig weinig is om te overklocken anders zouden de gtx680's standaard wel met lagere klocks komen want daar was genoeg ruimte voor om dan als nog sneller te zijn.

[ Voor 16% gewijzigd door Anoniem: 304087 op 03-10-2012 16:37 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Ik neem aan dat je 1.175V bedoelt?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 16:12:
Welke bron, jij? Dat is geen bron maar een speculatie van u zelf, of zie ik een link over het hoofd?
Anoniem: 304087 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55" hier kwam jij mee en als je daarvan de bron leest dan zie je dat staan en Expreview is de originele bron van TechPowerUp en Hardware.info.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-06 14:35

Darkasantion

Just keep swimming!

Even tussendoor, best wel wat grammaticale fouten in mijn vorige post gemaakt, excuses :$

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Anoniem: 304087

-The_Mask- schreef op woensdag 03 oktober 2012 @ 16:44:
[...]

Anoniem: 304087 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55" hier kwam jij mee en als je daarvan de bron leest dan zie je dat staan en Expreview is de originele bron van TechPowerUp en Hardware.info.
Deze dus
http://en.expreview.com/2...-card-surfaced/24466.html

Maar nog steeds geen bron dat het niet van nvidia mag ;)
Niet op HWI, niet op expreview en niet op techpowerup.

Conclussie, het komt niet door nvidia dat de mars 3 niet uit mag komen.
3XPER7 schreef op woensdag 03 oktober 2012 @ 16:39:
Ik neem aan dat je 1.175V bedoelt?
Correct. :z

[ Voor 21% gewijzigd door Anoniem: 304087 op 04-10-2012 09:40 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De Chinese versie van Expreview is de orginele bron. Expreview is een Chinese site, sommige dingen worden alleen vertaald en later geplaatst maar vaak minder uitgebreid.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik weet dus zo niet wat ik nu moet doen.. kan wel een 680 kopen maarja, het is strax november en zie het al weer helemaal voor me dat de GK110 opeens onverwacht komt. Dik dillema :o. Heb nu een 580.. maar wordt saai :P

680 is sinds eind maart uit.. lastig lastig.. vind het nog een klap geld voor zo'n ding met in het achterhoofd houdende dat er een 256 bit bus op zit die vrij cheap is.
Toch heb ik Nvidia nodig heb 3d vision brillen en een bijpassend 120hz scherm :+

Aan de andere kant tweaken en klooien vind ik het leukste en gamen 2 uur per dag 8).
Vind het uitpakken en inbouwen van een kaart altijd meesterlijk om te doen, liefst koop ik elke maand een kaart om er vervolgens weer mee te benchmarken >:).

Weet niet of de GK110 uberhaupt nog gaat komen, ik gokte op maart 2013.. maar ik kan er helemaal naast zitten.. vervelende keuzes altijd

[ Voor 81% gewijzigd door A87 op 04-10-2012 21:39 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

A87 schreef op donderdag 04 oktober 2012 @ 21:31:
Weet niet of de GK110 uberhaupt nog gaat komen, ik gokte op maart 2013.. maar ik kan er helemaal naast zitten.. vervelende keuzes altijd
GK110 gaat wel komen in de vorm van GTX780, maart/april 2013. Misschien dat hij wel iets vroeger komt om AMD dwars te zitten, maar dat is niet zeker.
Als je nu al twijfelt, en E500,- is een flink bedrag, zou ik zeker even geduld hebben om dat te belonen met het nieuwstevanhetnieuwste met een 384bit memory-bus. :9

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nvidia is weer eens heel stil over zijn volgende generatie kaarten.
Ik verwacht er deze keer iig niet zo veelvan want de GK110 zou er al lang moeten zijn. Wat wel weer een
voordeel is dat nvidia de GK110 een stuk beter kan optimaliseren door de vertraging.

Uit eingelijk is het ook wel een goede set geweest om met de GK104 te komen als high end kaart want
nu hebben ze de GK110 achter de hand en hoeven ze niet voor de aankomende generatie weer wat nieuws verzinnen want die kunnen ze weer bewaren voor 2 generaties verder op en zou dus met iets komen waar je geen haast acher hoeft te zetten en dus met een beter product komen over 2 generaties verder.

[ Voor 43% gewijzigd door Anoniem: 304087 op 05-10-2012 13:35 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 13:31:
Nvidia is weer eens heel stil over zijn volgende generatie kaarten.
Ik verwacht er deze keer iig niet zo veelvan want de GK110 zou er al lang moeten zijn. Wat wel weer een
voordeel is dat nvidia de GK110 een stuk beter kan optimaliseren door de vertraging.
Want dat heeft zo goed uitgepakt voor Fermi, toch? :+

En nee, GK110 had er niet al lang moeten zijn. GK100 had er moeten zijn; welbeschouwd staat GK110 na de GF100 vertraging eigenlijk pas voor Q1 2013 op het programma, precies waar we hem verwachten.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

GK100 is toch de GK110? Net als GF100 en GF110?
Nvida heeft gewoon geluk vanwege de kepler GK104 waar eingelijk de gk100/110 had moeten staan.

Trouwens nog wat nieuws over de voltage van de evga kaarten
http://techreport.com/new...support-to-voltage-limits

Het is de garantie waar het om gaat en een licentie

[ Voor 32% gewijzigd door Anoniem: 304087 op 05-10-2012 14:03 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 13:49:
GK100 is toch de GK110? Net als GF100 en GF110?
Nvida heeft gewoon geluk vanwege de kepler GK104 waar eingelijk de gk100/110 had moeten staan.
Nee, GK110 is een evolutie van GK100, net als GF110 dat van GF100 is. Dat kan gepaard met kleine architecturele en/of een die shrink gepaard gaan, maar schokkend is het nooit. GK104 is dan ook een kleinere versie van GK100 en een *ouder* ontwerp dan GK110. En het mag inmiddels duidelijk zijn dat de chip nummers op dezelfde manier werken; xy0 voor de big boss, xy4 voor cd mid-/highend mainstream chip, xy6/xy8 voor de kleintjes. y staat dan voor de revisie. De grote clou is dat hoe hoger het laatste getal, hoe kleiner/trager de chip!

Om het even grof naar kaartnummers te vertalen:
- GF100/104/106/108 = GTX 480/460/450/rest
- GF110/114/116/118 = GTX 580/560/550+545/rest

Vertaal je dat dan naar Kepler:
- GK100/104/106/108 = GTX 680/660/650/640
- GK110/114/116/118 = GTX 780/760/750/740

Dus nogmaals, waar GK104 nu in de markt staat had eigenlijk GK100 moeten staan - GK110 is alweer de volgende iteratie net als GF110 dat was. Met GF110 was Nvidia erg snel, juist omdat GF100 zo slecht in de markt kwam; dat probleem hebben ze nu niet, dus nemen ze de tijd voor GK110 zoals dat op de planning stond.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:03
Werelds schreef op vrijdag 05 oktober 2012 @ 13:45:
[...]

Want dat heeft zo goed uitgepakt voor Fermi, toch? :+
Hier dacht ik ook al meteen aan: omdat jarenlang opgevoerde 8800GTs verkopen ze goed heeft gedaan.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Nu was G80/G92 ook wel geweldig, daar zul je me nooit slecht over horen praten. Alleen jammer dat ze daardoor bij hun chips van boven de 500mm^2 (lees: de schrikbarende GT200 serie) zijn gekomen :(
Pagina: 1 ... 3 ... 30 Laatste

Dit topic is gesloten.