meer dan 5% is geloof ik geen foutmarge meer. Zeker niet als je keer op keer op het zelfde uit komt.
Anoniem: 172410
Hier ben ik ook wel benieuwd naar, ik wil graag weten welke koelers op het ding passen. Stock, al is het dan een fancy stockkoeler, gaat 'm niet worden.Nas T schreef op maandag 17 september 2012 @ 17:08:
Even een schopje: niemand weet de afstand tussen de mounting holes van de Nvidia 660 Ti?
Als ze de test 10x hebben gedraaid en elke keer 5% meer hadden dan heb je gelijk. Maar stel dat de test maar 2x is gedraaid dan valt het binnen de fout marge imo.Anoniem: 304087 schreef op maandag 17 september 2012 @ 17:23:
meer dan 5% is geloof ik geen foutmarge meer. Zeker niet als je keer op keer op het zelfde uit komt.
Volgens mij hebben AMD en Nvidia zoiezo beide een testsuite staan met een groot aantal spellen, deze draaien ze dan meerdere keren (neem ik aan
Het kan ook zijn dat een optimalisatie voor spel x een positieve invloed heeft op spel y maar dit wordt dan niet getest.
Maar ik speculeer nu lekker
Anoniem: 59888
Nou vooruit, dan zal ik het maar weer eens volledig uitspellen.XanderDrake schreef op maandag 17 september 2012 @ 17:21:
[...]
- Hij had het over foutmarges. Maar dat hoeft niet de verklaring van de verschillen te zijn. Gezien TechReport redelijk goed aan statistiek doet denk ik niet dat we daar over kunnen spreken
- Zoals je ziet in graphs zijn de verschillen vaak klein tussen videokaarten. Je verliest het vermogen om te onderscheiden als je daar te makkelijk over doet.
Waar het om gaat is dus meetonzekerheid. Je hebt bij het runnen van benchmarks altijd kleine afwijkingen. Misschien moet de virusscanner even iets doen, misschien is er een achtergrondproces wat ineens opduikt, er kan altijd wel een klein dingetje zijn die net een paar FPS verschil veroorzaakt. Tuurlijk kun je dat beperken door een zo schoon mogelijke windows installatie te gebruiken en de test meerdere keren te draaien, maar een 100% exacte benchmark zul je nooit krijgen.foutmarge v/m
mate van onzekerheid bij de uitslag van een steekproef, statistische meting enzovoort
bijvoorbeeld: 95% betrouwbaarheid en een foutmarge van 5%.
Dan kun je dat wel weer naar je eigen argumenten toe gaan beredeneren door het in percentages uit te rekenen en daar een vage norm aan te hangen, maar uiteindelijk gaat het om een verschil van enkele FPS op een gemiddelde van 74 en een minimum van 44. Dat zijn hele kleine verschillen die heel gemakkelijk veroorzaakt kunnen worden door kleine afwijkingen in de benchmark. Die vallen dus inderdaad binnen de foutmarge.
Uiteraard houdt dat nVidia niet tegen zoiets te claimen. Als die een verbetering in de driver aanbrengen zullen ze dat altijd in de releasenotes zetten (PR waarde++), of de winst nou puur theoretisch is of niet. Daar is op zichzelf ook niets mis mee. Een verbetering in de driver is een verbetering in de driver. Maar laten we eerlijk zijn, het verschil tussen 15 en 18 fps merk je misschien nog, het verschil tussen 72 en 75 FPS absoluut niet. Het verschil is dusdanig klein dat het niet alleen binnen de foutmarge valt, maar ook volstrekt insignificant is.
En ja, als het verschil tussen videokaarten zo klein uitvalt wordt het inderdaad lastig om nog een snellere aan te wijzen. Maar in de praktijk zullen de verschillen nooit zo klein zijn in alle benchmarks en alle spellen. En als dat toch voor zou komen is de logische conclusie niet anders dan dat beide kaarten gelijkwaardig presteren. Daar is niks mee lijkt me zo.
Sorry, maar dit is statistisch gezien lariekoek. De foutmarge wordt juist bepaald door het aantal metingen (wortel-n-wet) en zonder het aantal metingen te weten is er helemaal niet te zeggen of iets binnen een foutmarge valt. Willekeurige meetfouten middelen namelijk uit over genoeg metingen (strict genomen zorgen achtergrondprocessen voor systematische fouten omdat ze altijd vertragen en nooit versnellen, maar aangezien het om het verschil tussen twee resultaten gaat middelt dat elkaar alsnog uit). Dit is het fundament van statistisch onderzoek: onnauwkeurige resultaten toch met grote zekerheid nauwkeurig kunnen verklaren.
En wat XanderDrake heeft gezegd: De verschillen tussen bijvoorbeeld de HD7870 en de GTX660 liggen ook in deze orde. Een driver-update is dan ook nog eens maandelijks, waardoor de drivers over een jaar tijd nog een groter verschil kunnen laten zien.
Daarbij zeg ik niet dát het resultaat significant is, want ik ken de meetmethodes ook niet. Misschien is het dus alsnog een onzin-resultaat, maar dan niet om de redenen die je noemt.
Goed, genoeg over statistiek nu.
En wat XanderDrake heeft gezegd: De verschillen tussen bijvoorbeeld de HD7870 en de GTX660 liggen ook in deze orde. Een driver-update is dan ook nog eens maandelijks, waardoor de drivers over een jaar tijd nog een groter verschil kunnen laten zien.
Daarbij zeg ik niet dát het resultaat significant is, want ik ken de meetmethodes ook niet. Misschien is het dus alsnog een onzin-resultaat, maar dan niet om de redenen die je noemt.
Goed, genoeg over statistiek nu.
[ Voor 31% gewijzigd door bwerg op 19-09-2012 08:01 ]
Heeft geen speciale krachten en is daar erg boos over.
Dus, door echte statistiek toe te passen?Anoniem: 59888 schreef op woensdag 19 september 2012 @ 02:39:
Dan kun je dat wel weer naar je eigen argumenten toe gaan beredeneren door het in percentages uit te rekenen en daar een vage norm aan te hangen.
Foutemarges zijn namelijk dan net zo goed een vage norm, als je lekker onduidelijk wil blijven. Je zou makkelijk een t-test kunnen uitvoeren op de benchmark resultaten en kijken of twee videokaarten met een bepaalde zekerheid te onderscheiden zijn. Maar ja, dat is natuurlijk vaag
Ik vind dat als je aan de ene kant definities quote, dat je het niet meer over vage dingen mag hebben. Of de termen zijn je duidelijk of niet. Te pas en onpas termen gebruiken die je niet 100% begrijpt... is vaag
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 304087
14500+ NVIDIA Kepler Flagship GK110 GPUs to Go Into Titan Supercomputer!
http://www.legitreviews.com/news/14114/
http://www.hpcwire.com/hp..._titan_supercomputer.html
http://www.legitreviews.com/news/14114/
http://www.hpcwire.com/hp..._titan_supercomputer.html
Anoniem: 59888
Dan ga je er vanuit dat de foutmarge überhaupt te bepalen is. Dat gaat inderdaad niet, daarvoor ontbreekt veel te veel informatie. Maar, iedereen die wel eens een benchmark gedraait heeft weet dat als je die meerdere keren achter elkaar draait je altijd kleine afwijkingen ziet (enkele FPS). De foutmarge mag dan niet te bepalen zijn, in de praktijk zien we wel afwijkingen in de resultaten. Dat kun je toch moeilijk negeren.bwerg schreef op woensdag 19 september 2012 @ 07:58:
Sorry, maar dit is statistisch gezien lariekoek. De foutmarge wordt juist bepaald door het aantal metingen (wortel-n-wet) en zonder het aantal metingen te weten is er helemaal niet te zeggen of iets binnen een foutmarge valt. [..] Dit is het fundament van statistisch onderzoek: onnauwkeurige resultaten toch met grote zekerheid nauwkeurig kunnen verklaren.
Of die afwijkingen nou veroorzaakt worden door een engine die onder dezelfde omstandigheden niet altijd 100% gelijk presteert, een test die niet 100% exact is of achtergrondprocessen die roet in het eten gooien, maakt eigenlijk niet uit. Duidelijk is dat we met de huidige technologie dergelijk kleine verschillen niet betrouwbaar kunnen reproduceren, en niet betrouwbaar kunnen meten. Je zult dus bij het interpreteren van de meetresultaten altijd uit moeten gaan van een foutmarge.
Van welke foutmarge je dan uit moet gaan is feitelijk natte-vingerwerk, maar als we deze cijfers willen gebruiken moet je toch wat. Hoe groot of klein je de foutmarge ook in wilt schatten, als je in de praktijk afwijkingen van enkele FPS terugziet kun je toch moeilijk uitgaan van een foutmarge die kleiner is dan dat.
Kortom, er kan wel een verschil zijn, maar als je dat niet betrouwbaar kunt reproduceren en niet betrouwbaar kunt meten, kun je aan de cijfers die je hebt geen conclusies verbinden. Niet als de verschillen zo klein zijn. Ik ging er eigenlijk vanuit dat dat wel gemeengoed was hier op GoT.

Anoniem: 304087
Gerucht, GF GK110 maart 2013?
http://translate.googleus...MN2oytSwnXl-5KxsT5VeeJGug
Nvidia gaat AMD weer afwachten en zich daar op aanpassen. Maar goed als het andersom zou zijn dan
kan het zijn dat nvidia wel een minder snellere gpu op de markt brengt dan zijn tegenhanger.
http://translate.googleus...MN2oytSwnXl-5KxsT5VeeJGug
Nvidia gaat AMD weer afwachten en zich daar op aanpassen. Maar goed als het andersom zou zijn dan
kan het zijn dat nvidia wel een minder snellere gpu op de markt brengt dan zijn tegenhanger.
[ Voor 20% gewijzigd door Anoniem: 304087 op 20-09-2012 09:15 ]
Als nVidia eerder kan zijn doen ze dat natuurlijk heel graag, welke fabrikant niet? Kunnen ze meer verkopen met meer winst omdat ze minder concurrentie hebben. Daarnaast kan nVidia in de tijd natuurlijk zo goed als niets meer veranderen, alleen de kloksnelheid een beetje, maar die wordt toch bijna altijd naar de "max" gezet. (max = zo hoog mogelijk met zo goed mogelijke yields)
Overigens is dat hele nieuwsbericht gebaseerd op gebakken lucht.
Overigens is dat hele nieuwsbericht gebaseerd op gebakken lucht.
[ Voor 8% gewijzigd door -The_Mask- op 20-09-2012 10:39 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
GK104 kwam ook veel te laat, maar als nog maakt nvidia daar ook winst mee + het voordeel dat die kaart sneller is dan de non oc van AMD en ook nog eens zuiniger.
[ Voor 8% gewijzigd door Anoniem: 304087 op 20-09-2012 10:46 ]
Ik denk dat iedereen dat wel weet, dus wat wil je daar mee zeggen?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het maakt wel degelijk uit wanneer je later bent dan de concurrent, zeker als de nieuwe serie van de concurrent sneller is dan jouw vorige serie. Op dat moment verkoopt de concurrent gewoon meer. Als je later je product uitbrengt is het voor de concurrent ook veel eenvoudiger om de prijs te verlagen omdat er al een deel van de investering is terugverdiend.
Anoniem: 304087
Het is maar net hoe je het bekijkt, als je dan wat later wat uit brengt dan je concurent en die is dan sneller dan kom je weer bij het zelfde verhaal uit van jou dcm. Dat is nu ook het geval geweest met de GK104.
Je kan lanter komen maar je moet niet een jaar te laat komen want dan zijn er misschien wel problemen voor de laatkomer.
Edit
PHYSX blijkt toch wel zwaarder te zijn voor de CPU
User.tmp in "[Multi] Borderlands 2"
Je kan lanter komen maar je moet niet een jaar te laat komen want dan zijn er misschien wel problemen voor de laatkomer.
Edit
PHYSX blijkt toch wel zwaarder te zijn voor de CPU
User.tmp in "[Multi] Borderlands 2"
[ Voor 50% gewijzigd door Anoniem: 304087 op 20-09-2012 11:59 ]
Want wanneer je later bent kan je genoegen nemen met een lagere marge omdat je al een deel hebt terugverdient? Dat lijkt mij geen gezonde strategie, want je hebt nog niets terugverdient.
Hoeft ook niet. Als AMD bijvoorbeeld bij deze launch van SI de prijs zo laag mogelijk hadden gezet zou AMD moeilijk even snel wat aan de prijzen kunnen doen en dan zou nVidia ook bij de launch van Kepler met de prijs lager moeten hebben ingezet. Dat is nu niet gebeurd: AMD hebben de prijs van SI hoger vastgesteld om de prijs / prestatie ongeveer gelijk te zetten aan Fermi 2. Zodoende konden ze de prijs na de introductie van Kepler naar beneden bijstellen waarvoor ze eerst hebben kunnen cashen.dcm360 schreef op donderdag 20 september 2012 @ 11:50:
Het maakt wel degelijk uit wanneer je later bent dan de concurrent, zeker als de nieuwe serie van de concurrent sneller is dan jouw vorige serie. Op dat moment verkoopt de concurrent gewoon meer. Als je later je product uitbrengt is het voor de concurrent ook veel eenvoudiger om de prijs te verlagen omdat er al een deel van de investering is terugverdiend.
Hierop aansluitend: dit jaar kon nVidia ook later komen met Kepler en dankzij de hoge inzet van AMD konden zij Kepler ook op de markt brengen met een leuke marge. Zeker omdat ze nog niet te maken hadden met de grote GK100, maar de relatief kleine GK104 zouden de kosten makkelijk lager kunnen zijn dan bij Fermi en Fermi 2. Dit jaar hoefde nVidia dus niet echt "genoegen te nemen met een lagere marge" want die konden ze prima hebben.dcm360 schreef op donderdag 20 september 2012 @ 12:14:
Want wanneer je later bent kan je genoegen nemen met een lagere marge omdat je al een deel hebt terugverdient? Dat lijkt mij geen gezonde strategie, want je hebt nog niets terugverdient.
Had je serieus anders verwacht dan?Anoniem: 304087 schreef op donderdag 20 september 2012 @ 11:53:
Edit
PHYSX blijkt toch wel zwaarder te zijn voor de CPU
User.tmp in "[Multi] Borderlands 2"
[ Voor 7% gewijzigd door Fid3lity op 20-09-2012 12:18 ]
Vind het exorbitant lang duren met AMD / Nvidia..... pff 2013 voordat er weer wat nieuws komt, wil gewoon met 1 single GPU BF3 op 120fps.. dus geen 50 +-
Dan toch maar een 3e 580 over een maandje ofso... winter...
Dan toch maar een 3e 580 over een maandje ofso... winter...
[ Voor 67% gewijzigd door A87 op 20-09-2012 13:01 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Zonder ook maar iets te zeggen over resolutie en settings slaat je punt natuurlijk nergens op. En 1 nieuwe generatie per ~jaar is toch prima?
680 is geen nieuwe generatie maar slow mirange crap
. maarja laat die 110 maar komen
1080P gaming
1080P gaming
[ Voor 83% gewijzigd door A87 op 20-09-2012 13:14 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
TrolololololoooooA87 schreef op donderdag 20 september 2012 @ 13:13:
680 is geen nieuwe generatie maar slow crap.
1080P gaming
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik daag je uit om met posts te komen die dat beweren.Anoniem: 304087 schreef op donderdag 20 september 2012 @ 13:14:
[...]
Ja eingelijk wel omdat hier vaak beweerd werd dat het beter op een cpu zou lopen.
Anoniem: 304087
Ja dan zou ik alle topics weer door moeten spitten van post tot post, daar heb ik echt geen tijd voor.
Mij word iig verteld dat het net zo goed over de cpu kan, zelfs beter. Ik had toen ook een andere profiel dus kan het ook niet meer terug vinden in mijn post historie. Ik zal het iig even proberen maar ga er niet al te veel tijd in steken want dat heb ik niet.
Bij lange na niet.
Mij word iig verteld dat het net zo goed over de cpu kan, zelfs beter. Ik had toen ook een andere profiel dus kan het ook niet meer terug vinden in mijn post historie. Ik zal het iig even proberen maar ga er niet al te veel tijd in steken want dat heb ik niet.
Verder op in het jaar heb je dat dan wel weer terug verdiend. Je verdiend niet enkel aan een generatie in het eerste jaar.dcm360 schreef op donderdag 20 september 2012 @ 12:14:
Want wanneer je later bent kan je genoegen nemen met een lagere marge omdat je al een deel hebt terugverdient? Dat lijkt mij geen gezonde strategie, want je hebt nog niets terugverdient.
[ Voor 52% gewijzigd door Anoniem: 304087 op 20-09-2012 13:22 ]
Eh nee, het enige dat wel vaak genoeg gezegd wordt (en terecht) is dat het veel beter op de CPU kan lopen dat het nu doet; en het grootste deel loopt toch al via de CPU.
Anoniem: 304087
Het grootste gendeelte van de niet physx effecten neem ik aan dan zoals de pshsics effecten.
Maar zat zit vaak niet in de gpu physx games.
Hier laat men zien waarom dat het beter op de gpu werkt.
nieuws: 'PhysX-berekeningen op cpu traag door slechte optimalisatie'
Wel oude troep overgens.
Maar zat zit vaak niet in de gpu physx games.
Hier laat men zien waarom dat het beter op de gpu werkt.
nieuws: 'PhysX-berekeningen op cpu traag door slechte optimalisatie'
Wel oude troep overgens.
[ Voor 49% gewijzigd door Anoniem: 304087 op 20-09-2012 13:55 ]
Nee hoor, een groot deel van de "PhysX effecten" loopt ook gewoon op de CPU; althans met PhysX < 3.0/Apex < 1.2 - en nee, er is nog steeds geen enkele game die 3.0 of hoger gebruikt. Zo zie je heel goed waarom men PhysX gebruikt; de zak geld is en blijft de voornaamste drijfveer. In 3.0 en hoger (met name de nieuwe 3.2) loopt alles een stuk beter op de CPU en loopt er ook meer op de GPU. Tja, krijg je er van als Nvidia eerst 3 jaar niets er mee doet nadat ze het aanschaffen
Volgens mij is het ook gewoon duidelijk dat je Borderlands 2 niet met Physx op High moet spelen als je geen nvidia kaart hebt... op Medium draait het al veel beter en ziet er nog steeds prima uit
Ik las zelf dat nVidia kaarten moeite hadden met Physx op High, en dat je daarvoor het beste SLI kan draaien
Of dit echt waar is weet ik niet, kan morgen pas spelen
Ik las zelf dat nVidia kaarten moeite hadden met Physx op High, en dat je daarvoor het beste SLI kan draaien
Of dit echt waar is weet ik niet, kan morgen pas spelen
Hello there
Anoniem: 304087
Hoe kan ik na gaan dat physx op de cpu loopt, ik weet wel met benchmark progamma's dat de cpu tijdens de physx test wel altijd op 0% staat zoals met vantage.Werelds schreef op donderdag 20 september 2012 @ 14:10:
Nee hoor, een groot deel van de "PhysX effecten" loopt ook gewoon op de CPU; althans met PhysX < 3.0/Apex < 1.2 - en nee, er is nog steeds geen enkele game die 3.0 of hoger gebruikt. Zo zie je heel goed waarom men PhysX gebruikt; de zak geld is en blijft de voornaamste drijfveer. In 3.0 en hoger (met name de nieuwe 3.2) loopt alles een stuk beter op de CPU en loopt er ook meer op de GPU. Tja, krijg je er van als Nvidia eerst 3 jaar niets er mee doet nadat ze het aanschaffen
In borderlands word 2.8.4 SDK gebruikt iig.
[ Voor 3% gewijzigd door Anoniem: 304087 op 20-09-2012 17:33 ]
Kan niet.ik weet wel met benchmark progamma's dat de cpu tijdens de physx test wel altijd op 0% staat zoals met vantage
[ Voor 86% gewijzigd door -The_Mask- op 20-09-2012 17:59 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Draai meer eens dan met een nvidia kaart en kijk naar je cpu gebruik tijdens de physx test, hooguit 1-3% door achtergrond programma's. Ik kan er wel een screenshot van laten zien ook.
Nu ff niet maar straks na mijn benen, schouders en biceps training op testo.
[ Voor 10% gewijzigd door Anoniem: 304087 op 20-09-2012 18:03 ]
Weet je wel hoeveel keer 1-3% hoger is dan 0%, dat is heeeeeeel veeeeel meer, miljard keer meer is er niks bij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat screenshot wil ik wel eens graag zien, zeker gezien de physics test juist een CPU test hoort te zijn na de ban op PhysX misbruik. Gebruik ook asjeblieft niet PhysX in plaats van physics, hebben namelijk minder met elkaar te maken dan eigenlijk zou moeten.
Zou het zin hebben (en werken) om bv een gtx 560ti als dedicated Physx kaart te gebruiken naast mijn Asus gtx 680 top versie?
Anoniem: 304087
Klopt maar vantage heeft een aparte physx test er tussen zitten die alleen met nvidia physx werkt.Werelds schreef op donderdag 20 september 2012 @ 19:30:
Dat screenshot wil ik wel eens graag zien, zeker gezien de physics test juist een CPU test hoort te zijn na de ban op PhysX misbruik. Gebruik ook asjeblieft niet PhysX in plaats van physics, hebben namelijk minder met elkaar te maken dan eigenlijk zou moeten.
Dit is een on eerlijke benchmark daarom zetten veel mensen hem ook gewoon uit want met een nvidia kaart krijg je door die test veel meer punten dan dat je hem over de cpu laat doen wat ook kan door physx via het controlpannel uit te zetten. Gelukkig kan hier niet mee worden vals gespeelt want je extreme puten laten gelijk zien dat physx via de gpu is gebruikt. Ik zal zo een screen shot posten in windows mode.
[ Voor 3% gewijzigd door Anoniem: 304087 op 20-09-2012 19:59 ]
Misschien wat laat, maar:Anoniem: 59888 schreef op donderdag 20 september 2012 @ 04:55:
Van welke foutmarge je dan uit moet gaan is feitelijk natte-vingerwerk, maar als we deze cijfers willen gebruiken moet je toch wat. Hoe groot of klein je de foutmarge ook in wilt schatten, als je in de praktijk afwijkingen van enkele FPS terugziet kun je toch moeilijk uitgaan van een foutmarge die kleiner is dan dat.
Je meet natuurlijk niet één keer. Je meet 10 keer en je neemt een gemiddelde (of als je aan het benchmarken bent, neem je het gemiddelde van een hele minuut en niet de rendering tijd van één frame). Specifieke metingen mogen dan wel sterk verschillen, maar je past de wortel-n-wet toe en je kan de te behalen gemiddelde FPS van een kaart tot op de honderdste procent nauwkeurig meten als je dat zou willen. Kwestie van genoeg metingen doen. Achtergrondprocessen zijn dan nagenoeg compleet uitgemiddeld. En dat is geen nattevingerwerk als je het goed doet, dat kun je prima wetenschappelijk analyseren (wat benchmarkers ongetwijfeld níet doen, maar het kan wel en is niet vaag maar heel erg duidelijk).
Dat is de basis van statistiek. Dat komt bij onderbouw VWO/havo natuurkunde/scheikunde/wiskunde al aan bod.
[ Voor 11% gewijzigd door bwerg op 20-09-2012 20:08 ]
Heeft geen speciale krachten en is daar erg boos over.
10 keer @random de benchmark draaien, zonder verder acht te slaan op eventuele achtergrond processen of 10 keer een zo gelijk mogenlijke benchmark te draaien, waarbij je hebt getracht zoveel mogenlijk variabelen uit te schakelen om tot een zo gelijkwaardige uitslag te komen, zijn natuurlijk wel twee totaal verschillende dingen met totaal verschillende uitslagen, met, zoals je wellicht al hebt zien aankomen, 2 totaal verschillende afwijkingen.
De vraag is dan, hoeveel zekerheid heb je dat het om situatie 2 gaat en niet om situatie 1?
De vraag is dan, hoeveel zekerheid heb je dat het om situatie 2 gaat en niet om situatie 1?
Anoniem: 304087
Je hebt gelijk-The_Mask- schreef op donderdag 20 september 2012 @ 19:21:
Weet je wel hoeveel keer 1-3% hoger is dan 0%, dat is heeeeeeel veeeeel meer, miljard keer meer is er niks bij.
Ik heb net 3dmark vantage weer eens gedraaid en de test zit er niet meer tussen.
Dat gedeeldte van die bruine rotsen en blikems. Ik zal even een andere versie van vantage op zoeken
waar die test nog tussen zit, ik geloof dat die test na een update er uit is gehaald?
Geen. Dat zeg ik ook niet. Ik zeg alleen dat het onzin is om te stellen dat het nou eenmaal niet nauwkeurig kan, en dat een x aantal FPS binnen de foutmarge valt zonder de meetmethode en het aantal metingen te weten.dahakon schreef op donderdag 20 september 2012 @ 20:14:
De vraag is dan, hoeveel zekerheid heb je dat het om situatie 2 gaat en niet om situatie 1?
Heeft geen speciale krachten en is daar erg boos over.
Zin: ja, $/performance: nee.fragcompany schreef op donderdag 20 september 2012 @ 19:34:
Zou het zin hebben (en werken) om bv een gtx 560ti als dedicated Physx kaart te gebruiken naast mijn Asus gtx 680 top versie?
Anoniem: 172410
Is er al iets bekend over welke koelers op de GTX 660 passen? Ik zie wel iets over dual mounting holes, maar ik heb nog niet ontdekt waar dat precies naar vertaalt.
Ook wel awesome, ik zie dat de GTX660 vandaag voor het eerst onder de 200 euro is gedoken. Dat is de Twin Frozr-variant, dus de rest zal niet duurder blijven.
Ook wel awesome, ik zie dat de GTX660 vandaag voor het eerst onder de 200 euro is gedoken. Dat is de Twin Frozr-variant, dus de rest zal niet duurder blijven.
[ Voor 11% gewijzigd door Anoniem: 172410 op 20-09-2012 23:26 ]
Anoniem: 59888
Goed, zo langzamerhand wordt dit meer een verplaswedstrijd over statistiek-theorie dan dat het inhoudelijk nog een zinnige discussie is. Waar het mij om ging is dat het verschil in de cijfers zoals die in de post van Lupp staan te klein is om daar conclusies aan te kunnen verbinden. Als jij dat wel wil doen houd ik je niet tegen, maar deze academische discussie voortzetten lijkt me niet bijzonder zinnig, en hier eigenlijk ook offtopic. Laten we het topic dan verder ook maar niet vervuilen.
Anoniem: 172410
Eerst je eigen standpunt nog eens poneren en vervolgens zalvende woorden spreken om de discussie te staken zet niet echt zoden aan de dijkAnoniem: 59888 schreef op donderdag 20 september 2012 @ 23:28:
Goed, zo langzamerhand wordt dit meer een verplaswedstrijd over statistiek-theorie dan dat het inhoudelijk nog een zinnige discussie is. Waar het mij om ging is dat het verschil in de cijfers zoals die in de post van Lupp staan te klein is om daar conclusies aan te kunnen verbinden. Als jij dat wel wil doen houd ik je niet tegen, maar deze academische discussie voortzetten lijkt me niet bijzonder zinnig, en hier eigenlijk ook offtopic. Laten we het topic dan verder ook maar niet vervuilen.
Dezelfde koelers als de 670gtx serie. De Arctic Accelero mono plus doet het er wel heel goed op.Anoniem: 172410 schreef op donderdag 20 september 2012 @ 23:25:
Is er al iets bekend over welke koelers op de GTX 660 passen? Ik zie wel iets over dual mounting holes, maar ik heb nog niet ontdekt waar dat precies naar vertaalt.
Ook wel awesome, ik zie dat de GTX660 vandaag voor het eerst onder de 200 euro is gedoken. Dat is de Twin Frozr-variant, dus de rest zal niet duurder blijven.
Anoniem: 172410
Ik zou toch voor iets groters gaan, eventueel iets waar je zelf stille fans op hangt. Ik ga echt voor stilte, vandaar dat een >150 watt-kaart ook interessant is.Sn0wblind schreef op donderdag 20 september 2012 @ 23:34:
Dezelfde koelers als de 670gtx serie. De Arctic Accelero mono plus doet het er wel heel goed op.
Wel jammer, want de GTX 670-koelers zijn vaak relatief duur. Zo goedkoop als een Accelero S1 zal het wel niet worden. Misschien dat andere koelers ook nog mogelijk zijn, want ik zag wel kaarten met meerdere mounting holes.
Ik kan overigens nu even niet zo goed uitzoeken hoe of wat, mijn firewall signaleert de Arctic-website als spamsite

[ Voor 10% gewijzigd door Anoniem: 172410 op 21-09-2012 00:14 ]
Nog groter? Die koeler is al zo groot en bijna onhoorbaar op een Geforce 670GTX OC-ed. En zwaarder buigt teveel die mini pcb van die kaarten.Anoniem: 172410 schreef op vrijdag 21 september 2012 @ 00:12:
[...]
Ik zou toch voor iets groters gaan, eventueel iets waar je zelf stille fans op hangt. Ik ga echt voor stilte, vandaar dat een >150 watt-kaart ook interessant is.
Wel jammer, want de GTX 670-koelers zijn vaak relatief duur. Zo goedkoop als een Accelero S1 zal het wel niet worden. Misschien dat andere koelers ook nog mogelijk zijn, want ik zag wel kaarten met meerdere mounting holes.
Ik kan overigens nu even niet zo goed uitzoeken hoe of wat, mijn firewall signaleert de Arctic-website als spamsite![]()
Anoniem: 172410
Ben je gek, ik heb een Accelero S1 rev. b in combinatie met een gemodde Nexus Real Silent 120mm op een GTS 450 hangen en dat gaat primaSn0wblind schreef op vrijdag 21 september 2012 @ 01:44:
Nog groter? Die koeler is al zo groot en bijna onhoorbaar op een Geforce 670GTX OC-ed. En zwaarder buigt teveel die mini pcb van die kaarten.


Overigens is bijna onhoorbaar niet goed genoeg
[ Voor 3% gewijzigd door Anoniem: 172410 op 21-09-2012 02:03 ]
De accelero mono plus is groter EN beter als die, kan je oo kwel zelf een fan op monteren als je handig bent, want de S1 gaat niet passen vanwege de VRM's en de capacitors die naast de GPU zitten.
De mono plus koelt in ieder geval tot 200watt,, een 670gtx verstookt 170watt aan warmte en de 660 150watt aan warmte. De fan gaat daarop niet eens harder draaien onder load waarschijnlijk. Bij mij is de kaart in ieder geval vrijwel onhoorbaar, als in hij komt niet boven 2 andere 120mm fans uit die vrij langzaam draaien.
Ik hou zelf ook van stilte namelijk, en omdat mijn kast 90c rotated moederboard tray heeft komt al het geluid er ook nog eens aan de bovenkant uit, dus als mijn PC zelfs stil is ermee.
Groter dan die mono plus gaat de kaart in ieder geval flink later buigen, heb er al fotos van gezien.
Bedoelde overigens dat alleen de Mono plus in het huidige Arctic assortiment echt geschikt is voor de 660 en de Twin turbo al te groot/zwaar is.
De mono plus op een 670gtx (foto is van iemand anders)
De mono plus koelt in ieder geval tot 200watt,, een 670gtx verstookt 170watt aan warmte en de 660 150watt aan warmte. De fan gaat daarop niet eens harder draaien onder load waarschijnlijk. Bij mij is de kaart in ieder geval vrijwel onhoorbaar, als in hij komt niet boven 2 andere 120mm fans uit die vrij langzaam draaien.
Ik hou zelf ook van stilte namelijk, en omdat mijn kast 90c rotated moederboard tray heeft komt al het geluid er ook nog eens aan de bovenkant uit, dus als mijn PC zelfs stil is ermee.
Groter dan die mono plus gaat de kaart in ieder geval flink later buigen, heb er al fotos van gezien.
Bedoelde overigens dat alleen de Mono plus in het huidige Arctic assortiment echt geschikt is voor de 660 en de Twin turbo al te groot/zwaar is.
De mono plus op een 670gtx (foto is van iemand anders)

[ Voor 13% gewijzigd door Sn0wblind op 21-09-2012 12:25 ]
Nvidia GeForce GTX 650 Ti specificaties duiken op?
De technologiesite ArabPCWorld zegt exclusieve informatie te hebben over de nieuwe GeForce GTX 650 Ti van Nvidia. Deze videokaart zou in de tweede week van oktober op de markt moeten komen en vult daarmee het gat tussen onlangs gelanceerde GeForce GTX 650 en de de GTX 660. Eerstgenoemde is gebaseerd op de kleine GK107 GPU met 384 shader units, terwijl laatstgenoemde een GK106 chip heeft met 960 shader units. Het behoeft verder geen uitleg dat er een groot gat zit tussen deze twee kaarten, een gat dat de GTX 650 Ti kan opvullen.
....

Goud is geen geld
Kan me iemand aub helpen met oplossen van mijn probleem. Ik ben een eigenaar van 3x Dell 3007
30inch Monitor 2560x1600 en wil graag Nvidia Sourround of AMD Eyefinity. Allen probleem is bij AMD dat geen karten bestaan die 3x DVI- Dual-link uitgangen hebben. Of ik moet 2 mDP naar DVI dual-link adapter bijkopen voor 100 Euro elk. Ik wil toch over gaan op nVidia wegens Support van IL-2 Sturmovik die ik spel. De vraag is als ik 2 VGA`s van Nvidia GTX680 4GB ga met SLI aansluiten krijg ik zoals onder beschreven de mogelijkheid om 3 DVI uitgangen Dual Link ? Of is beter SLI 3x Nvidia 670 voor mijn Monitors?? Ik heb nog 2x Dell 2007 monitors en deze indien mogelijk ook aansluiten.
30inch Monitor 2560x1600 en wil graag Nvidia Sourround of AMD Eyefinity. Allen probleem is bij AMD dat geen karten bestaan die 3x DVI- Dual-link uitgangen hebben. Of ik moet 2 mDP naar DVI dual-link adapter bijkopen voor 100 Euro elk. Ik wil toch over gaan op nVidia wegens Support van IL-2 Sturmovik die ik spel. De vraag is als ik 2 VGA`s van Nvidia GTX680 4GB ga met SLI aansluiten krijg ik zoals onder beschreven de mogelijkheid om 3 DVI uitgangen Dual Link ? Of is beter SLI 3x Nvidia 670 voor mijn Monitors?? Ik heb nog 2x Dell 2007 monitors en deze indien mogelijk ook aansluiten.

* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora
Nee, niet in dit topic.SlowikPL schreef op dinsdag 25 september 2012 @ 21:12:
Kan me iemand aub helpen met oplossen van mijn probleem.
Je hebt al een topic geopend omtrent je probleem, dus wacht ff rustig af of daar op gereageerd wordt en ga niet crossposten.
[ Voor 44% gewijzigd door Format-C op 25-09-2012 21:43 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 172410
Te zwaar is geen probleem, desnoods maak ik zelf een bracket die het geval ondersteunt (maar ik zie niet in waarom een koeler voor een GTX 660 te zwaar zou zijn en voor een andere kaart niet). Te groot alleen als het fysiek daardoor niet meer past. Alles daarbuiten kan aangepast en geregeld worden.Sn0wblind schreef op vrijdag 21 september 2012 @ 12:04:
Bedoelde overigens dat alleen de Mono plus in het huidige Arctic assortiment echt geschikt is voor de 660 en de Twin turbo al te groot/zwaar is.
Overigens is de Mono ook kleiner dan de S1, alleen in de hoogte net niet (wat wel kritiek kan zijn wat cleareance betreft, maar wat betreft het koeloppervlak natuurlijk niet echt.
Mono: 136 (L) x 138 (W) x 51 (H) mm
S1: 140(L) x 215(W) x 32(H) mm
[ Voor 18% gewijzigd door Anoniem: 172410 op 26-09-2012 00:59 ]
Die Hoger heeft denk ik meer effect als breder, ook voornamelijk omdat die 120mm fan daar natuurlijk in een rustig tempo meer lucht overheen kan blazen. Maar de S1 hebben ze niet meer sowieso? De Arctic twin cooler, is echt fors groter dan de 660, echt enorm veel groter en dan ook nog dikker dan de mono plus, daarom zei ik ook dat de mono plus nu de enige koeler in hun assortiment is die er een beetje netjes nog op past, naast hun water koeler.Anoniem: 172410 schreef op woensdag 26 september 2012 @ 00:49:
[...]
Te zwaar is geen probleem, desnoods maak ik zelf een bracket die het geval ondersteunt (maar ik zie niet in waarom een koeler voor een GTX 660 te zwaar zou zijn en voor een andere kaart niet). Te groot alleen als het fysiek daardoor niet meer past. Alles daarbuiten kan aangepast en geregeld worden.
Overigens is de Mono ook kleiner dan de S1, alleen in de hoogte net niet (wat wel kritiek kan zijn wat cleareance betreft, maar wat betreft het koeloppervlak natuurlijk niet echt.
Mono: 136 (L) x 138 (W) x 51 (H) mm
S1: 140(L) x 215(W) x 32(H) mm
Asus GTX670 DCII serie uitgebreid met een OC-versie & een 4GB-versie:
OC-versie (1058MHz Boostclock): Asus GTX670-DC2O-2GD54GB-versie: Asus GTX670-DC2-4GD5


[ Voor 6% gewijzigd door bitshape op 26-09-2012 13:06 ]
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Gooit Nvidia hun GTX680 zo niet kapot?
Alle die asus gaat om bij om rond dezelfde prijs als een GTX680
Alle die asus gaat om bij om rond dezelfde prijs als een GTX680
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
De GTX670 heeft nog altijd een veel betere prijs/prestatie(FPS) verhouding, een GTX680 is voor de echte liefhebber die het beste wil ongeacht de prijs.yzx schreef op woensdag 26 september 2012 @ 14:02:
Gooit Nvidia hun GTX680 zo niet kapot?
Wat de Asus GTX680 betreft, er zijn ook kopers van videokaarten die persé geen 3-slotter willen...
Kijk eens wat een 4GB GTX680 kost... (appels-appelsAlle die asus gaat om bij om rond dezelfde prijs als een GTX680
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Had maar naar een simpele GTX680 want die 2 of 4gb gaat je geen 100fps meer geven hoor toch niet op een normale resolutiebitshape schreef op woensdag 26 september 2012 @ 14:28:
[...]
Kijk eens wat een 4GB GTX680 kost... (appels-appels)
maar ik snap je vergelijking wel
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 245699
De 4gb gaat je uberhaupt niet veel meer fps geven... Er zijn maar enkele games op zeer hoge reso die er baat bij hebben. Bandbreedte wordt er namelijk niet hoger van...
De framerate kakt minder snel in natuurlijk op hoge resoluties, zodra het geheugen vol zit moet er geswapped worden, als de bandbreedte voornamelijk daarmee bezig is gaat het ten koste van de fps.Anoniem: 245699 schreef op woensdag 26 september 2012 @ 19:06:
De 4gb gaat je uberhaupt niet veel meer fps geven... Er zijn maar enkele games op zeer hoge reso die er baat bij hebben. Bandbreedte wordt er namelijk niet hoger van...
Als antwoord op dit zou ik precies MW1F zijn bericht kunnen quoten, dus dan doe ik dat ook maar.Sn0wblind schreef op woensdag 26 september 2012 @ 20:30:
[...]
De framerate kakt minder snel in natuurlijk op hoge resoluties, zodra het geheugen vol zit moet er geswapped worden, als de bandbreedte voornamelijk daarmee bezig is gaat het ten koste van de fps.
Anoniem: 245699 schreef op woensdag 26 september 2012 @ 19:06:
De 4gb gaat je uberhaupt niet veel meer fps geven... Er zijn maar enkele games op zeer hoge reso die er baat bij hebben. Bandbreedte wordt er namelijk niet hoger van...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het is maar hoe je ertegen op kijkt maar in tegenstelling tot de 2gb versie heb je op hogere resoluties dan 1080p dus tegenover de 2gb versie een hogere framerate, dat is dus winst-The_Mask- schreef op woensdag 26 september 2012 @ 20:53:
[...]
Als antwoord op dit zou ik precies MW1F zijn bericht kunnen quoten, dus dan doe ik dat ook maar.![]()
[...]
Anoniem: 245699
Uit welke reviews blijkt dit dan?Sn0wblind schreef op woensdag 26 september 2012 @ 21:51:
[...]
Het is maar hoe je ertegen op kijkt maar in tegenstelling tot de 2gb versie heb je op hogere resoluties dan 1080p dus tegenover de 2gb versie een hogere framerate, dat is dus winst.
EDIT; http://hexus.net/tech/rev...e-gtx-680-classified-4gb/
De winst t.o.v. de Gigabyte GTX680 in deze review komt waarschijnlijk uit de iets hogere clocks, niet uit de 2gb extra geheugen...
[ Voor 24% gewijzigd door Anoniem: 245699 op 26-09-2012 21:57 ]
Mijn praktijk ervaringen, niet credible natuurlijk maar veel reviews betreft 4gb modellen met recentere drivers kan ik niet vinden. Merkte wel dat Metro2033 er baat bij had. Heb zelf overigens geen 4gb variant amar heb deze voor een vriend geinstalleerd en even grondig getest.Anoniem: 245699 schreef op woensdag 26 september 2012 @ 21:53:
[...]
Uit welke reviews blijkt dit dan?
Niet uit reviews iig en onderbuik gevoel telt niet mee.... Zoals MW1F al zei geheugenbandbreedte is het grote probleem niet geheugen hoeveelheid.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Geen onderbuik gevoel gewoon avg framerates naast elkaar leggen. Beiden overclocked, beide mono accelero mono plus voor koeling op de kaarten, verder reference style boards. Metro 2033 had op high res minder last van framedrops, BF3 op hogere soluties dan 1920x1200. Dit zat; in 3d en of surround vision nog wel groter worden hoor.-The_Mask- schreef op woensdag 26 september 2012 @ 22:14:
Niet uit reviews iig en onderbuik gevoel telt niet mee.... Zoals MW1F al zei geheugenbandbreedte is het grote probleem niet geheugen hoeveelheid.
Het is geen rocket science datals het bandbreedte puur gebruikt wordt voor textures uitlezen omdat ze volledig in het geheugen passen dan swappen dat dit winst geeft. Ik kan helaas overigens maar welgeteld 3 credible reviews vinden en dit is allen met 2 driver revisies terug. Zodra textures en anti aliasing de 2gb grens gaat overschrijden gaat het ten koste van de framerate.
De eerste drie reviews die ik tegen kwam lieten geen noemenswaardig tot geen verschil zien in Metro 2033.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 245699
Nouja, maakt verder niet uit. Wellicht dat het bij 3d surround nog wat meer kan uitmaken. En minder dipjes in minimale framerates zijn idd niet goed te zien in deze review waarbij geen minimum's getoond worden.
Feit is wel dat het prijsverschil van 2gb vs. 4gb en de performance verschillen niet stroken...
Feit is wel dat het prijsverschil van 2gb vs. 4gb en de performance verschillen niet stroken...
Na Asus die hun Mars III niet mag uitbrengen nu EVGA welke hun EVBot niet meer mag meeleveren, ze zullen wel blij zijn met nVidia.
nieuws: 'Nvidia dwingt EVGA te stoppen met EVBot-spanningsregeling'

nieuws: 'Nvidia dwingt EVGA te stoppen met EVBot-spanningsregeling'
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Iemand die weet waarom nVidia dit nu doet? Eerste gok is GPU's die teveel doorbranden door te hoge voltages en dus laten zien dat Kepler al (te) hoog geclockt is om mee te beginnen, maar ergens concrete bronnen omtrent de "Waarom?".
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Misschien wijst nvidia data uit dat er erg weinig ruimte is om voltage te verhogen zonder dat de hele boel kapot gaat. En willen ze potentiele slechte publiciteit voorkomen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 304087
Ik vraag het mij ook af. Zelf denk ik dat bij evga de leeks de kaarten te ver zullen pushen want bij evga ben je geen extra mods meer nodig geloof ik en dan is de kans groot dat nvidia te veel rma's terug krijgt.
Ook sterke goede gpu's kun je ver pushen met overvolten maar dit moet niet te makkelijk worden gemaakt want dan is het voor de leeks te makkelijk om zo'n kaart te kopen waardoor er veel meer rma's komen.
Zie bvb de asus dc2 kaarten waar bij je zelf nog moet modden om het voltage control los te krijgen, geen probleem want de leeks doen dit toh niet en dus minder rma's door te ver te pushen.
Ook sterke goede gpu's kun je ver pushen met overvolten maar dit moet niet te makkelijk worden gemaakt want dan is het voor de leeks te makkelijk om zo'n kaart te kopen waardoor er veel meer rma's komen.
Zie bvb de asus dc2 kaarten waar bij je zelf nog moet modden om het voltage control los te krijgen, geen probleem want de leeks doen dit toh niet en dus minder rma's door te ver te pushen.
Lijkt me sterk gezien er toch best veel ruimte in zit om de kaarten te overklocken, standaard al.Darkasantion schreef op woensdag 03 oktober 2012 @ 11:55:
Iemand die weet waarom nVidia dit nu doet? Eerste gok is GPU's die teveel doorbranden door te hoge voltages en dus laten zien dat Kepler al (te) hoog geclockt is om mee te beginnen, maar ergens concrete bronnen omtrent de "Waarom?".
[ Voor 43% gewijzigd door Anoniem: 304087 op 03-10-2012 13:00 ]
Nou vraag ik mij dit bij die EVGA kaarten wel af, zoals ook genoemd bij het artikel, de EVBot kost €80,- extra bovenop de premium prijs van de kaart zelf.
Acht de kans klein dat een leek ten eerste specifiek de GTX680 Lightning eruit kiest als ie niet wil overclocken, en dan ook nog eens weet dat de EVBot bestaat. Om het vervolgens EVBot nog eens te kopen en te gebruiken. De Classified is gemaakt voor een hele specifieke markt waar mensen weten wat ze doen en willen, en de EVBot gaat hier eigenlijk nog eens dunnetjes boven zitten, namelijk de die hard overclock/overvolt mensen die echt wel weten wat ze doen, of waar ze de correcte info kunnen vinden.
En het is altijd makkelijk de kaart te kopen, bestellen, betalen, klaar.
Echter is het maar de vraag of een leek deze kaart er specifiek uitkiest voor dit doel, en dan ook nog bereid is hiervoor dik te betalen. Het wordt echter iets makkelijker de kaart hard te pushen, maar zoals reeds gezegd, ik acht de kans klein dat leken op de hoogte zijn van het bestaan en kunnen van de EVBot.
Acht de kans klein dat een leek ten eerste specifiek de GTX680 Lightning eruit kiest als ie niet wil overclocken, en dan ook nog eens weet dat de EVBot bestaat. Om het vervolgens EVBot nog eens te kopen en te gebruiken. De Classified is gemaakt voor een hele specifieke markt waar mensen weten wat ze doen en willen, en de EVBot gaat hier eigenlijk nog eens dunnetjes boven zitten, namelijk de die hard overclock/overvolt mensen die echt wel weten wat ze doen, of waar ze de correcte info kunnen vinden.
En het is altijd makkelijk de kaart te kopen, bestellen, betalen, klaar.
Echter is het maar de vraag of een leek deze kaart er specifiek uitkiest voor dit doel, en dan ook nog bereid is hiervoor dik te betalen. Het wordt echter iets makkelijker de kaart hard te pushen, maar zoals reeds gezegd, ik acht de kans klein dat leken op de hoogte zijn van het bestaan en kunnen van de EVBot.
Oh ja? Dacht juist dat sommige kaarten niet eens de max boost halen, laat staan volledig stabiel waren op die clocks. En wat is best veel ruimte?Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 12:54:
[...]
Lijkt me sterk gezien er toch best veel ruimte in zit om de kaarten te overklocken, standaard al.
[ Voor 14% gewijzigd door Darkasantion op 03-10-2012 13:08 ]
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 304087
Er zijn zat leeken die graag zo'n kaart zou willen, ik ook want dat hardwarematige gedoe vind ik maar te veel gepruts maar zou wel veel verder willen overklocken. Ik doelde ook meer op de hw oc leeks en niet de leeks die net bij videohardware komen kijken want die klocken sowieso al niet zo snel over.
Anoniem: 304087
Klopt dat waren die gtx670 kaarten met klein pcb, volgens mij was daar een bios update fix voor want de bios was niet helemaal goed ingesteld voor die kaart toen en dus terug klocken omdat de powerlimit of zo niet goed was ingesteld.Darkasantion schreef op woensdag 03 oktober 2012 @ 13:06:
[...]
Oh ja? Dacht juist dat sommige kaarten niet eens de max boost halen, laat staan volledig stabiel waren op die clocks. En wat is best veel ruimte?
Gewoon met standaard overklocken gaan veel kaarten wel zo'n +150mhz verder en nog een keer 100mhz verder met kepler boost en + 400mhz op het geheugen. Laat wel zien dat er niets mis is met de gk104.
En door te ver overvolten kunnen de kaarten indd door branden maar dat geldt ook voor alle AMD kaarten
Van de mars 3 komt niet door nvidia dat hij niet komt. Die kaart was puur bedoeld om te laten zien wat asus kan. Verder waren er geen redenen om hem niet uit te brengen.-The_Mask- schreef op woensdag 03 oktober 2012 @ 11:33:
Na Asus die hun Mars III niet mag uitbrengen nu EVGA welke hun EVBot niet meer mag meeleveren, ze zullen wel blij zijn met nVidia.![]()
nieuws: 'Nvidia dwingt EVGA te stoppen met EVBot-spanningsregeling'
We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.
[ Voor 126% gewijzigd door Anoniem: 304087 op 03-10-2012 13:47 ]
Met zo'n hardware overvolter is de kans dat je een kaart toast veel groter dan met een software tooltje natuurlijk. Met software is de grens veel duidelijker.
Ik zie het nut van overvolten zowieso niet echt in. Ja misschien voor LN2 runs wel, maar verder niet.
Ik heb het nu een paar keer geprobeerd, maar het legt niet echt zonden aan de dijk. Ik heb een 580 gehad en die klokte voor geen meter, ook niet met voltageverhoging, en heb een 560ti gehad die deed het iets beter. (Heb het idee dat ASUS kaarten beroerde OC'ers zijn trouwens)
Mijn huidige 660Ti PE overklokt als een beest. Zonder voltageverhoging. 237MHz op de core, en 900MHz op het mem.
Dit houdt dus in dat mijn 660Ti core tov een reference kaart maar liefst 354MHz!!! is overklokt (reference is 980 boost, die van mij doet 1334 boost) .
Het feit dat EVGA die tool niet meer mag meeleveren heeft vast met een contract, of afspraak, of licentie oid te maken. Of nVidia WEET dat ze vanaf een bepaalde hoeveelheid volts gewoon poef gaan zeggen, en willen ze dat niet. Of ze hebben duidelijk een maximum hoeveelheid volts afgesproken oid, en houdt EVGA zich daar niet aan met hun hardware overvolter.
Ik zie het nut van overvolten zowieso niet echt in. Ja misschien voor LN2 runs wel, maar verder niet.
Ik heb het nu een paar keer geprobeerd, maar het legt niet echt zonden aan de dijk. Ik heb een 580 gehad en die klokte voor geen meter, ook niet met voltageverhoging, en heb een 560ti gehad die deed het iets beter. (Heb het idee dat ASUS kaarten beroerde OC'ers zijn trouwens)
Mijn huidige 660Ti PE overklokt als een beest. Zonder voltageverhoging. 237MHz op de core, en 900MHz op het mem.
Het feit dat EVGA die tool niet meer mag meeleveren heeft vast met een contract, of afspraak, of licentie oid te maken. Of nVidia WEET dat ze vanaf een bepaalde hoeveelheid volts gewoon poef gaan zeggen, en willen ze dat niet. Of ze hebben duidelijk een maximum hoeveelheid volts afgesproken oid, en houdt EVGA zich daar niet aan met hun hardware overvolter.
[ Voor 18% gewijzigd door Format-C op 03-10-2012 15:39 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Wie zegt dat? Dat ASUS geen reden heeft opgegeven bij TPU wil niet zeggen dat ze geen reden hadden.Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 13:14:
[...]
Verder waren er geen redenen om hem niet uit te brengen.
Dit is de reden toch? (Zoals Lupp ook aangaf?)
http://www.techpowerup.co...GTX-680-PCB-Pictured.html
http://www.techpowerup.co...GTX-680-PCB-Pictured.html
We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.
[ Voor 21% gewijzigd door Format-C op 03-10-2012 15:45 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Wat zou Asus het niet uitbrengen als ze al de research en kosten al gedaan hadden? Limited editions met premium pricetag en gaan. Die dingen worden toch wel verkocht.
Je weet ook helemaal niet wat er aan dat statement voorafgegaan is. Maar met het EVGA gedoe kan je zelf ook de puntjes wel verbinden, me dunkt.
Je weet ook helemaal niet wat er aan dat statement voorafgegaan is. Maar met het EVGA gedoe kan je zelf ook de puntjes wel verbinden, me dunkt.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Dat ze een kaart kunnen maken is geen reden om hem niet uit te brengen, dat levert alleen maar des te meer vraagtekens op. Het logische antwoord zou zijn dat men niet zit te wachten op een $1300+ kaart en dat dus de markt er gewoon niet voor is.
Tuurlijk is er een markt voor. GTX690 vliegt ook achterlijk snel over de toonbank bij ons.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Was toendertijd toch ook met die trifire AMD kaart op 1 pcb, ook al waren het 3 laptop gpus3XPER7 schreef op woensdag 03 oktober 2012 @ 15:54:
Dat ze een kaart kunnen maken is geen reden om hem niet uit te brengen, dat levert alleen maar des te meer vraagtekens op. Het logische antwoord zou zijn dat men niet zit te wachten op een $1200+ kaart en dat dus de markt er gewoon niet voor is.
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
EVGA zal vooral RMA's krijgen, nVidia niet.Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 12:54:
Ik vraag het mij ook af. Zelf denk ik dat bij evga de leeks de kaarten te ver zullen pushen want bij evga ben je geen extra mods meer nodig geloof ik en dan is de kans groot dat nvidia te veel rma's terug krijgt.
EVGA hun probleem.Ook sterke goede gpu's kun je ver pushen met overvolten maar dit moet niet te makkelijk worden gemaakt want dan is het voor de leeks te makkelijk om zo'n kaart te kopen waardoor er veel meer rma's komen.
Leuk voor Asus, maar heeft niks met nVidia nodig. Daarnaast denk ik niet dat een leek zoiets van nVidia koopt en er mee gaat overklokken.Zie bvb de asus dc2 kaarten waar bij je zelf nog moet modden om het voltage control los te krijgen, geen probleem want de leeks doen dit toh niet en dus minder rma's door te ver te pushen.
EhhhLijkt me sterk gezien er toch best veel ruimte in zit om de kaarten te overklocken, standaard al.
Dit dus.Darkasantion schreef op woensdag 03 oktober 2012 @ 13:06:
Nou vraag ik mij dit bij die EVGA kaarten wel af, zoals ook genoemd bij het artikel, de EVBot kost €80,- extra bovenop de premium prijs van de kaart zelf.
Acht de kans klein dat een leek ten eerste specifiek de GTX680 Lightning eruit kiest als ie niet wil overclocken, en dan ook nog eens weet dat de EVBot bestaat. Om het vervolgens EVBot nog eens te kopen en te gebruiken. De Classified is gemaakt voor een hele specifieke markt waar mensen weten wat ze doen en willen, en de EVBot gaat hier eigenlijk nog eens dunnetjes boven zitten, namelijk de die hard overclock/overvolt mensen die echt wel weten wat ze doen, of waar ze de correcte info kunnen vinden.
En het is altijd makkelijk de kaart te kopen, bestellen, betalen, klaar.
Echter is het maar de vraag of een leek deze kaart er specifiek uitkiest voor dit doel, en dan ook nog bereid is hiervoor dik te betalen. Het wordt echter iets makkelijker de kaart hard te pushen, maar zoals reeds gezegd, ik acht de kans klein dat leken op de hoogte zijn van het bestaan en kunnen van de EVBot.
Iets wat ik vrij weinig zou noemen in dit geval.Oh ja? Dacht juist dat sommige kaarten niet eens de max boost halen, laat staan volledig stabiel waren op die clocks. En wat is best veel ruimte?
JuistAnoniem: 304087 schreef op woensdag 03 oktober 2012 @ 13:14:
[...]
Klopt dat waren die gtx670 kaarten met klein pcb, volgens mij was daar een bios update fix voor want de bios was niet helemaal goed ingesteld voor die kaart toen en dus terug klocken omdat de powerlimit of zo niet goed was ingesteld.

Volgens mij hebben we het hier al eerder over gehad en volgens mij zei ik toen iets van: je denkt toch niet werkelijk dat Asus al die moeite doet om alleen maar te laten zien dat ze het kunnen.Van de mars 3 komt niet door nvidia dat hij niet komt. Die kaart was puur bedoeld om te laten zien wat asus kan. Verder waren er geen redenen om hem niet uit te brengen.
We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.
Ja gevonden, de vorige keer zei ik dus ook al: Lees de bron!
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
We received an update from ASUS, clarifying that this card will not be released. The design was only displayed during a factory tour, to show ASUS craftmanship.
Uit Asus zijn mond.
Maar goed ben benieuwd wat er volgens nvidia of evga achter zit zodat misschien die kaarten toch niet verkocht mogen worden.
Uit Asus zijn mond.
Maar goed ben benieuwd wat er volgens nvidia of evga achter zit zodat misschien die kaarten toch niet verkocht mogen worden.
[ Voor 25% gewijzigd door Anoniem: 304087 op 03-10-2012 16:07 ]
Geloof je nu werkelijk een fabrikant op z'n blauwe ogen?
Anoniem: 304087
Ik geloof niets, echter is het wat Asus zegt de eenige bron tot nu toe.
Waarom zou een fabriekant niet een leuk kaartje kunnen maken om hem even te showen en
er later toch niets mee gaat doen. Dat soort zaken zie je wel vaker in hardwareland.
http://www.techpowerup.co...GTX-680-PCB-Pictured.html
Edit
Hier onder.
Welke bron, jij? Dat is geen bron maar een speculatie van u zelf, of zie ik een link over het hoofd?
Waarom zou een fabriekant niet een leuk kaartje kunnen maken om hem even te showen en
er later toch niets mee gaat doen. Dat soort zaken zie je wel vaker in hardwareland.
http://www.techpowerup.co...GTX-680-PCB-Pictured.html
Edit
Hier onder.
Welke bron, jij? Dat is geen bron maar een speculatie van u zelf, of zie ik een link over het hoofd?
[ Voor 30% gewijzigd door Anoniem: 304087 op 03-10-2012 16:17 ]
Waarom lees je de bron niet?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Op de standaard kaarten kun je zelf niet meer het voltage aanpassen maar dit doet de kaart zelf tot max 1,75V, ligt er aan hoeveel je zelf er bij klockt en je de boel zo in stelt dat je kaart volledig belast word.Help!!!! schreef op woensdag 03 oktober 2012 @ 12:17:
Misschien wijst nvidia data uit dat er erg weinig ruimte is om voltage te verhogen zonder dat de hele boel kapot gaat. En willen ze potentiele slechte publiciteit voorkomen.
Het is dus niet zo dat er weinig weinig is om te overklocken anders zouden de gtx680's standaard wel met lagere klocks komen want daar was genoeg ruimte voor om dan als nog sneller te zijn.
[ Voor 16% gewijzigd door Anoniem: 304087 op 03-10-2012 16:37 ]
Ik neem aan dat je 1.175V bedoelt?
Anoniem: 304087 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55" hier kwam jij mee en als je daarvan de bron leest dan zie je dat staan en Expreview is de originele bron van TechPowerUp en Hardware.info.Anoniem: 304087 schreef op woensdag 03 oktober 2012 @ 16:12:
Welke bron, jij? Dat is geen bron maar een speculatie van u zelf, of zie ik een link over het hoofd?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Even tussendoor, best wel wat grammaticale fouten in mijn vorige post gemaakt, excuses
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 304087
Deze dus-The_Mask- schreef op woensdag 03 oktober 2012 @ 16:44:
[...]
Anoniem: 304087 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55" hier kwam jij mee en als je daarvan de bron leest dan zie je dat staan en Expreview is de originele bron van TechPowerUp en Hardware.info.
http://en.expreview.com/2...-card-surfaced/24466.html
Maar nog steeds geen bron dat het niet van nvidia mag
Niet op HWI, niet op expreview en niet op techpowerup.
Conclussie, het komt niet door nvidia dat de mars 3 niet uit mag komen.
Correct.3XPER7 schreef op woensdag 03 oktober 2012 @ 16:39:
Ik neem aan dat je 1.175V bedoelt?

[ Voor 21% gewijzigd door Anoniem: 304087 op 04-10-2012 09:40 ]
De Chinese versie van Expreview is de orginele bron. Expreview is een Chinese site, sommige dingen worden alleen vertaald en later geplaatst maar vaak minder uitgebreid.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik weet dus zo niet wat ik nu moet doen.. kan wel een 680 kopen maarja, het is strax november en zie het al weer helemaal voor me dat de GK110 opeens onverwacht komt. Dik dillema
. Heb nu een 580.. maar wordt saai 
680 is sinds eind maart uit.. lastig lastig.. vind het nog een klap geld voor zo'n ding met in het achterhoofd houdende dat er een 256 bit bus op zit die vrij cheap is.
Toch heb ik Nvidia nodig heb 3d vision brillen en een bijpassend 120hz scherm
Aan de andere kant tweaken en klooien vind ik het leukste en gamen 2 uur per dag
.
Vind het uitpakken en inbouwen van een kaart altijd meesterlijk om te doen, liefst koop ik elke maand een kaart om er vervolgens weer mee te benchmarken
.
Weet niet of de GK110 uberhaupt nog gaat komen, ik gokte op maart 2013.. maar ik kan er helemaal naast zitten.. vervelende keuzes altijd
680 is sinds eind maart uit.. lastig lastig.. vind het nog een klap geld voor zo'n ding met in het achterhoofd houdende dat er een 256 bit bus op zit die vrij cheap is.
Toch heb ik Nvidia nodig heb 3d vision brillen en een bijpassend 120hz scherm
Aan de andere kant tweaken en klooien vind ik het leukste en gamen 2 uur per dag
Vind het uitpakken en inbouwen van een kaart altijd meesterlijk om te doen, liefst koop ik elke maand een kaart om er vervolgens weer mee te benchmarken
Weet niet of de GK110 uberhaupt nog gaat komen, ik gokte op maart 2013.. maar ik kan er helemaal naast zitten.. vervelende keuzes altijd
[ Voor 81% gewijzigd door A87 op 04-10-2012 21:39 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
GK110 gaat wel komen in de vorm van GTX780, maart/april 2013. Misschien dat hij wel iets vroeger komt om AMD dwars te zitten, maar dat is niet zeker.A87 schreef op donderdag 04 oktober 2012 @ 21:31:
Weet niet of de GK110 uberhaupt nog gaat komen, ik gokte op maart 2013.. maar ik kan er helemaal naast zitten.. vervelende keuzes altijd
Als je nu al twijfelt, en E500,- is een flink bedrag, zou ik zeker even geduld hebben om dat te belonen met het nieuwstevanhetnieuwste met een 384bit memory-bus.
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Anoniem: 304087
Nvidia is weer eens heel stil over zijn volgende generatie kaarten.
Ik verwacht er deze keer iig niet zo veelvan want de GK110 zou er al lang moeten zijn. Wat wel weer een
voordeel is dat nvidia de GK110 een stuk beter kan optimaliseren door de vertraging.
Uit eingelijk is het ook wel een goede set geweest om met de GK104 te komen als high end kaart want
nu hebben ze de GK110 achter de hand en hoeven ze niet voor de aankomende generatie weer wat nieuws verzinnen want die kunnen ze weer bewaren voor 2 generaties verder op en zou dus met iets komen waar je geen haast acher hoeft te zetten en dus met een beter product komen over 2 generaties verder.
Ik verwacht er deze keer iig niet zo veelvan want de GK110 zou er al lang moeten zijn. Wat wel weer een
voordeel is dat nvidia de GK110 een stuk beter kan optimaliseren door de vertraging.
Uit eingelijk is het ook wel een goede set geweest om met de GK104 te komen als high end kaart want
nu hebben ze de GK110 achter de hand en hoeven ze niet voor de aankomende generatie weer wat nieuws verzinnen want die kunnen ze weer bewaren voor 2 generaties verder op en zou dus met iets komen waar je geen haast acher hoeft te zetten en dus met een beter product komen over 2 generaties verder.
[ Voor 43% gewijzigd door Anoniem: 304087 op 05-10-2012 13:35 ]
Want dat heeft zo goed uitgepakt voor Fermi, toch?Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 13:31:
Nvidia is weer eens heel stil over zijn volgende generatie kaarten.
Ik verwacht er deze keer iig niet zo veelvan want de GK110 zou er al lang moeten zijn. Wat wel weer een
voordeel is dat nvidia de GK110 een stuk beter kan optimaliseren door de vertraging.
En nee, GK110 had er niet al lang moeten zijn. GK100 had er moeten zijn; welbeschouwd staat GK110 na de GF100 vertraging eigenlijk pas voor Q1 2013 op het programma, precies waar we hem verwachten.
Anoniem: 304087
GK100 is toch de GK110? Net als GF100 en GF110?
Nvida heeft gewoon geluk vanwege de kepler GK104 waar eingelijk de gk100/110 had moeten staan.
Trouwens nog wat nieuws over de voltage van de evga kaarten
http://techreport.com/new...support-to-voltage-limits
Het is de garantie waar het om gaat en een licentie
Nvida heeft gewoon geluk vanwege de kepler GK104 waar eingelijk de gk100/110 had moeten staan.
Trouwens nog wat nieuws over de voltage van de evga kaarten
http://techreport.com/new...support-to-voltage-limits
Het is de garantie waar het om gaat en een licentie
[ Voor 32% gewijzigd door Anoniem: 304087 op 05-10-2012 14:03 ]
Nee, GK110 is een evolutie van GK100, net als GF110 dat van GF100 is. Dat kan gepaard met kleine architecturele en/of een die shrink gepaard gaan, maar schokkend is het nooit. GK104 is dan ook een kleinere versie van GK100 en een *ouder* ontwerp dan GK110. En het mag inmiddels duidelijk zijn dat de chip nummers op dezelfde manier werken; xy0 voor de big boss, xy4 voor cd mid-/highend mainstream chip, xy6/xy8 voor de kleintjes. y staat dan voor de revisie. De grote clou is dat hoe hoger het laatste getal, hoe kleiner/trager de chip!Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 13:49:
GK100 is toch de GK110? Net als GF100 en GF110?
Nvida heeft gewoon geluk vanwege de kepler GK104 waar eingelijk de gk100/110 had moeten staan.
Om het even grof naar kaartnummers te vertalen:
- GF100/104/106/108 = GTX 480/460/450/rest
- GF110/114/116/118 = GTX 580/560/550+545/rest
Vertaal je dat dan naar Kepler:
- GK100/104/106/108 = GTX 680/660/650/640
- GK110/114/116/118 = GTX 780/760/750/740
Dus nogmaals, waar GK104 nu in de markt staat had eigenlijk GK100 moeten staan - GK110 is alweer de volgende iteratie net als GF110 dat was. Met GF110 was Nvidia erg snel, juist omdat GF100 zo slecht in de markt kwam; dat probleem hebben ze nu niet, dus nemen ze de tijd voor GK110 zoals dat op de planning stond.
Hier dacht ik ook al meteen aan: omdat jarenlang opgevoerde 8800GTs verkopen ze goed heeft gedaan.Werelds schreef op vrijdag 05 oktober 2012 @ 13:45:
[...]
Want dat heeft zo goed uitgepakt voor Fermi, toch?
Nu was G80/G92 ook wel geweldig, daar zul je me nooit slecht over horen praten. Alleen jammer dat ze daardoor bij hun chips van boven de 500mm^2 (lees: de schrikbarende GT200 serie) zijn gekomen
Dit topic is gesloten.