Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
mijn reviewtje
[ Voor 28% gewijzigd door alexke1988 op 23-03-2012 20:35 ]
i7 5960X - Rampage V Extr. - 16GB Quad DDR4 2800 Corsair LPX - MSI 980GTX Ti - AX1200i - Obsidian 650D
Vooral je BF3 vergelijking is indrukwekkend! 55 tegen 72 fps
Quote Tom's Hardware: GeForce GTX 680 is now the fastest single-GPU graphics card, and not by a margin that leaves room to hem or haw.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
check mijn FPS bij Gulf of oman 64 spelers ! : Min fps is 41Illidan schreef op vrijdag 23 maart 2012 @ 20:43:
@ alexke: Nice! Die 680 kaart wordt warmer dan je 580, maar das niet zo gek gezien het msi koelblok dat op de 580 zit, dus ik zou me daar geen zorgen over maken.
Vooral je BF3 vergelijking is indrukwekkend! 55 tegen 72 fps![]()
Quote Tom's Hardware: GeForce GTX 680 is now the fastest single-GPU graphics card, and not by a margin that leaves room to hem or haw.
i7 5960X - Rampage V Extr. - 16GB Quad DDR4 2800 Corsair LPX - MSI 980GTX Ti - AX1200i - Obsidian 650D
na mijn 6950 en mijn doa geleverde 7950 heb ik mezelf maar een upgrade gegund;)
Moet goed gaan!
Ik vraag me alleen af: als ik mijn 3 monitoren aansluit en op mijn middelste game met op mijn 2 andere schermen iets simpels, hoeveel fps trekken die 2 non-gamende schermen dan van mijn hoofdscherm weg?
Deze signature is om volstrekt onduidelijke redenen verwijderd. PVOutput
Ander detail wat voor nVidia spreekt: Ik speel Forgotten Hope 2, een BF2 mod. Ik heb een extended desktop, en met de 5970 moest ik iedere keer dit uitschakelen om FH2 te kunnen spelen. Bij de 680 niet meer. Teken dat het met de drivers ook wel goed zit!
Zeer tevreden tot nu toe. In de toekomst zet ik er een EK waterblock op om verder te tunen. Het is voorlopig stil genoeg met de stock koeler
Verwijderd
Deze nieuwe nVidia 680 schept verwachtingen of zou het hier voorlopig bij blijven?
Ik hoop dat ze snel zullen komen, ben benieuwd hoe de schaling is vergeleken met de vorige generatie.Verwijderd schreef op vrijdag 23 maart 2012 @ 21:31:
Ik wacht geduldig wat de rond de 250 Euro kaarten gaan brengen.
Deze nieuwe nVidia 680 schept verwachtingen of zou het hier voorlopig bij blijven?
Is er al wat bekent over de aangepaste kaarten van de partners van nvidia?
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Maak je daar maar echt niet druk om...DRuw schreef op vrijdag 23 maart 2012 @ 21:25:
Ik vraag me alleen af: als ik mijn 3 monitoren aansluit en op mijn middelste game met op mijn 2 andere schermen iets simpels, hoeveel fps trekken die 2 non-gamende schermen dan van mijn hoofdscherm weg?
Angelo NL / Global Cargo VTC
Verwijderd
Is je cpu ook overgeklockt? Wel een mooie minimale fps in die map. Met een enkele gtx580 was dat bij mij 'zo'n 35fps en niet speelbaar met deze shooter.alexke1988 schreef op vrijdag 23 maart 2012 @ 20:55:
[...]
check mijn FPS bij Gulf of oman 64 spelers ! : Min fps is 41
Zag nu ook een 4GB versie http://eu.evga.com/articles/00669/#GTX680FTW
Iemand enig idee hoe duur die gaat worden?
Het EVGA model met waterblok is al binnen een week leverbaar, bron http://www.evga.com/forums/tm.aspx?m=1510320
Hier is een interessante discussie over de meerwaarde van 4GB ipv 2GB http://www.evga.com/forums/tm.aspx?m=1507114
[ Voor 37% gewijzigd door Wackmack op 24-03-2012 09:27 ]
[ Voor 3% gewijzigd door Paprika op 24-03-2012 10:46 ]


In principe valt het bij 2 kaarten dus nog wel mee, maar bij 3 of meer gaat het hard.
Hopelijk gaat het veel gebruikt worden want als het promo materiaal klopt dan is het veelbelovend. Vind het ook wel een pre van nVidia tov AMD dat ze op het gebied van IQ iets nieuws brengen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Overigens niet bepaald onder de indruk van GPU boost. In Windows geeft het een beetje lag (althans, ik denk dat het GPU boost is - of ik moet ergens in NVCP iets fixen om Windows altijd lekker te laten lopen; games zijn geen probleem
Edit:
http://www.werelds.net/gpu/6950.html
http://www.werelds.net/gpu/680-1.html
http://www.werelds.net/gpu/680-2.html
Zie je ook meteen wat voor invloed GPU Boost op performance kan hebben - benchmarks op deze kaarten zijn eigenlijk vrij nutteloos, omdat je geen consistente resultaten kunt krijgen. Hoogste dat hij bij mij is gegaan is 1084 tot nu toe, heb nog niets aan overklokken gedaan (vooral ook omdat ASUS GPU Tweak zo'n onoverzichtelijk stuk stront is, ik ga Precision of Afterburner eens proberen, hopelijk werkt dat).
[ Voor 41% gewijzigd door Werelds op 24-03-2012 11:49 ]
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Dat klopt. Voorzover ik weet niets wezenlijks op het gebied van IQ met de 7xxx launch.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Zoals je je in de post van vipeax kunt zien zijn 2 7970's wel altijd beter dan 2 680's.Versteegrob schreef op zaterdag 24 maart 2012 @ 11:07:
Hmm ja wil Surround gaan draaien maar dan koop ik wel een normale 680, scheelt aardig wat geld en later een tweede.
De schaling is dus een stuk beter, waarschijnlijk vanwege de 680 geheugen bottleneck.
[ Voor 12% gewijzigd door mitsumark op 24-03-2012 11:53 ]
http://www.anandtech.com/...d-radeon-hd-7970-review/6Help!!!! schreef op zaterdag 24 maart 2012 @ 11:50:
[...]
Dat klopt. Voorzover ik weet niets wezenlijks op het gebied van IQ met de 7xxx launch.
En zoals altijd hebben ze hun AF implementatie weer wat getweakt. Is wel erg makkelijk gezegd dat AMD niets aan IQ doet, maar het is gewoon niet waar. PRT is net zo boeiend als TXAA
Ik vind catchup features zoals het tweaken van hun AF implementatie en bepaalde zaken (DX10+ SSAA & AAA) kunnen forceren in het controlpanel waarmee ze eindelijk na jaren on par zijn met nVidia nou geen wezenlijke veranderingen.Werelds schreef op zaterdag 24 maart 2012 @ 11:59:
[...]
http://www.anandtech.com/...d-radeon-hd-7970-review/6
En zoals altijd hebben ze hun AF implementatie weer wat getweakt.
Bovendien bij < 7xxx werkt dit (nog) niet terwijl nVidia's TXAA ook gaat werken op 4xx en 5xx kaarten.
Sorry hoor maar ik zie voor PRT vooralsnog niet zo'n grote toekomst. Zie quote hieronder.Is wel erg makkelijk gezegd dat AMD niets aan IQ doet, maar het is gewoon niet waar. PRT is net zo boeiend als TXAA
TXAA daarentegen zal normaal gesproken, al dit jaar in verschillende grote games zitten.
Verder spreekt Anand in dezelfde review zijn teleurstelling uit dat er geen nieuwe AA modes zijn.
Wrapping things up, for the time being while Southern Islands will bring hardware support for PRT software support will remain limited. As D3D is not normally extensible it’s really only possible to easily access the feature from other APIs (e.g. OpenGL), which when it comes to games is going to greatly limit the adoption of the technology. AMD of course is working on the issue, but there are few ways around D3D’s tight restrictions on non-standard features.
[ Voor 3% gewijzigd door Help!!!! op 24-03-2012 12:30 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
vast en zeker, wanneer kan ik helaas niet zeggen, ik heb geen ideeVerwijderd schreef op zaterdag 24 maart 2012 @ 13:01:
Zal wel een ontzettend domme vraag zijn, maar eh, komt er nog een review van de GTX680 van tweakers.net zelf? Weet iemand dat toevallig?
ora et labora
Eeeeehh.. Wacht even.. Dus jou GTX 680 kan in combinatie met een high end systeem BF3 in een 64 multiplayer map als Oman niet aan op 1900x1080 met 4xAA en ultra settings?alexke1988 schreef op vrijdag 23 maart 2012 @ 20:55:
[...]
check mijn FPS bij Gulf of oman 64 spelers ! : Min fps is 41
Dan is er dus blijkbaar nog geen een single GPU die dat spel aankan.. Fail!! Ziet er naar uit dat ik dus voorlopig geen GPU ga upgraden..
Niemand verplicht je om maxxed out te spelen hoor, bovendien, waar ligt bij jou de lat qua fps?Jovas schreef op zaterdag 24 maart 2012 @ 14:15:
[...]
Eeeeehh.. Wacht even.. Dus jou GTX 680 kan in combinatie met een high end systeem BF3 in een 64 multiplayer map als Oman niet aan op 1900x1080 met 4xAA en ultra settings?
Dan is er dus blijkbaar nog geen een single GPU die dat spel aankan.. Fail!! Ziet er naar uit dat ik dus voorlopig geen GPU ga upgraden..
Mechwarrior Online: Flapdrol
De lat ligt bij mijn monitor refresh rate, 60 hz op 1680x1050.haarbal schreef op zaterdag 24 maart 2012 @ 14:20:
[...]
Niemand verplicht je om maxxed out te spelen hoor, bovendien, waar ligt bij jou de lat qua fps?
Weetje wat het is, al die benchmarks zijn singleplayer, zoals die gast hierboven al beschrijft ga je het op een 64 slots Gulf of Oman server alsnog niet trekken.. Hij meet 41 FPS met een GTX 680, i7 3930K op 1900x1080 ultra settings.. Dat zal dus op 1680 ongeveer 50 FPS zijn, en dan heb je alsnog een stotterend beeld met een kaart en een systeem wat bakken met geld kost..
Dan kan ik net zo goed bij mijn HD5850 blijven op medium settings, wat er vrijwel net zo goed uitziet op wat schaduw en belichting na.. Scheelt me weer 3/400 euro..
Ik zoek gewoon een kaart die voluit blaast weetje wel, geen gezeik met dipjes onder de 60 FPS..
Voor mij persoonlijk is SSAA-support in dx10+ de heilige graal (overigens doet nV alleen officieel alleen transparant SSAA en AMD fullscene, dus ook gewone textures en zonder blurr vanwege de nieuwe lodcorrectie), ik heb nog geen ingame post AA-vorm gezien die mij bevalt quality-wise. Hopelijk zien we snel wat ingame voorbeelden van TXAA.Help!!!! schreef op zaterdag 24 maart 2012 @ 12:23:
[...]
Ik vind catchup features zoals het tweaken van hun AF implementatie en bepaalde zaken (DX10+ SSAA & AAA) kunnen forceren in het controlpanel waarmee ze eindelijk na jaren on par zijn met nVidia nou geen wezenlijke veranderingen.
Bovendien bij < 7xxx werkt dit (nog) niet terwijl nVidia's TXAA ook gaat werken op 4xx en 5xx kaarten.
[...]
Sorry hoor maar ik zie voor PRT vooralsnog niet zo'n grote toekomst. Zie quote hieronder.
TXAA daarentegen zal normaal gesproken, al dit jaar in verschillende grote games zitten.
Verder spreekt Anand in dezelfde review zijn teleurstelling uit dat er geen nieuwe AA modes zijn.
[...]
Nadeel van AMD's dx10+ SSAA-implementatie is dat de game msaa moet ondersteunen, anders heb je er niets aan. Met de toenemende post AA in moderne gameengines is het ook maar de vraag of het (MSAA/SSAA) toekomst heeft.
Ik zou het zeer betreuren als de mogenlijkheid vervalt om de beste kwaliteit na te streven, anderszijds, als er een goede post AA-filter komt, kan dat een alternatief zijn. Performance-wise is post-AA the way to go natuurlijk.
Voor de rest heeft nV een dijk van een GPU neergezet, die in de meeste gevallen gevallen vooral in single display omgeving t/m 2500x1600 gewoon de beste perf. biedt.
Dit belooft wat voor de grote broer, als er tenminste niet teveel transitors aan GPGPU opgeofferd worden.
[ Voor 12% gewijzigd door edward2 op 24-03-2012 15:03 ]
Niet op voorraad.
Dus omdat er een spel bestaat dat je niet op de volle max kunt spelen (met 1 GPU) is het niet zinvol om te upgraden? Buiten dat je die dipjes zeer waarschijnlijk niet eens merkt (zonder je Fraps tellertje op je scherm), betekent dat dus eigenlijk ook dat je door een spel dat grafisch zoveel voor ligt zoals Crysis destijds bij de release gewoon 3 jaar niets nieuws koopt?Jovas schreef op zaterdag 24 maart 2012 @ 14:39:
[...]
Ik zoek gewoon een kaart die voluit blaast weetje wel, geen gezeik met dipjes onder de 60 FPS..
ik denk dat je met je 5850 op medium ook niet boven de 60 zit op gulf of oman.Jovas schreef op zaterdag 24 maart 2012 @ 14:39:
[...]
De lat ligt bij mijn monitor refresh rate, 60 hz op 1680x1050.
Weetje wat het is, al die benchmarks zijn singleplayer, zoals die gast hierboven al beschrijft ga je het op een 64 slots Gulf of Oman server alsnog niet trekken.. Hij meet 41 FPS met een GTX 680, i7 3930K op 1900x1080 ultra settings.. Dat zal dus op 1680 ongeveer 50 FPS zijn, en dan heb je alsnog een stotterend beeld met een kaart en een systeem wat bakken met geld kost..
Dan kan ik net zo goed bij mijn HD5850 blijven op medium settings, wat er vrijwel net zo goed uitziet op wat schaduw en belichting na.. Scheelt me weer 3/400 euro..
Ik zoek gewoon een kaart die voluit blaast weetje wel, geen gezeik met dipjes onder de 60 FPS..
bovendien maakt net boven of net onder de 60 fps niet uit qua vloeiendheid, of heb je vsync aan staan?
de 680 is gewoon een brute kaart, die alles op 1080p goed speelt op van die idiote settings als ubersampling na dan, maar dat is ook niet echt meer 1080p. De prijs is nu vrij hoog, maar die zal wel wat omlaag gaan over een paar maanden.
[ Voor 10% gewijzigd door haarbal op 24-03-2012 15:17 ]
Mechwarrior Online: Flapdrol
Hij dipt af en toe wel eens naar de 40 ja inderdaad met v-sync aan ja. Maar kan er lekker mee spelen. Als ik genoeg poen had had ik ook wel een GTX 680 gehaald, maar dat heb ik niet, ha!haarbal schreef op zaterdag 24 maart 2012 @ 15:13:
[...]
ik denk dat je met je 5850 op medium ook niet boven de 60 zit op gulf of oman.
bovendien maakt net boven of net onder de 60 fps niet uit qua vloeiendheid, of heb je vsync aan staan?
de 680 is gewoon een brute kaart, die alles op 1080p goed speelt op van die idiote settings als ubersampling na dan.
Maar serieus, maak maar eens wat screenshots op medium en ultra in BF3, alleen de schaduwen en diepte lijnen zijn wat fijner..
Catchup? Nvidia's multimonitor setup is nog steeds niet je van het (zie hieronder ook), AMD's angle-independent AF is ook beter dan die van Nvidia. En die laatste zin raakt kant noch wal; je zegt dat iets bij AMD (nog) niet werkt en geeft dan als argument dat het bij Nvidia..(nog) niet werkt. Huh?Help!!!! schreef op zaterdag 24 maart 2012 @ 12:23:
Ik vind catchup features zoals het tweaken van hun AF implementatie en bepaalde zaken (DX10+ SSAA & AAA) kunnen forceren in het controlpanel waarmee ze eindelijk na jaren on par zijn met nVidia nou geen wezenlijke veranderingen.
Bovendien bij < 7xxx werkt dit (nog) niet terwijl nVidia's TXAA ook gaat werken op 4xx en 5xx kaarten.
Een quote voor je uit dezelfde AT review:
Ze ontlopen elkaar niet veel. Dat jij TXAA belangrijker vindt is een andere zaak en irrelevant. Feit is gewoon dat beide op sommige vlakken iets voor hebben op de ander qua IQ.As a result for the time being there will continue to be an interesting division in image quality between AMD and NVIDIA. AMD still maintains an advantage with anisotropic filtering thanks to their angle-independent algorithm, but NVIDIA will have better anti-aliasing options in DX10+ games (ed: and Minecraft). It’s an unusual status quo that apparently will be maintained for quite some time to come.
Waarom ben je er zo van overtuigd dat TXAA in verschillende grote games zal zitten? Het is namelijk een stuk ingrijpender dan FXAA en MLAA. Die laatste twee werken altijd, voor iedereen - TXAA werkt alleen op Nvidia, en dan niet eens al hun kaarten (voorlopig Kepler exclusive, wellicht komt Fermi daar bij). Wat dat betreft heeft het 0,0 voordeel vergeleken met PRT. Het heeft ook niet veel meer nut, want het voegt alleen een AA optie bovenop de bestaande (die grotendeels vendor-onafhankelijk zijn).Sorry hoor maar ik zie voor PRT vooralsnog niet zo'n grote toekomst. Zie quote hieronder.
TXAA daarentegen zal normaal gesproken, al dit jaar in verschillende grote games zitten.
Verder spreekt Anand in dezelfde review zijn teleurstelling uit dat er geen nieuwe AA modes zijn.
En dan nu even een benchmarkje erbij: http://www.werelds.net/gpu/680-3.html
V-Sync uitgezet - de eerste twee waren met V-Sync op "application controlled". Ik edit over een minuut of 5 deze post met Adaptive V-Sync
Edit: De hele handel nog eens op een rij:
- http://www.werelds.net/gpu/6950.html (unlocked, durf eigenlijk niet te zeggen of MSI AB aan stond, dus ik weet niet of dit de stock clocks zijn, of de 6970 clocks die m'n kaart op 6950 voltage draai(t/de))
- http://www.werelds.net/gpu/680-1.html (stock, geen NVCP instellingen aangepast)
- http://www.werelds.net/gpu/680-2.html (stock, geen NVCP instellingen aangepast - GPU boost heeft duidelijk invloed op resultaten)
- http://www.werelds.net/gpu/680-3.html (stock, V-Sync Off)
- http://www.werelds.net/gpu/680-4.html (stock, Adaptive V-Sync)
Adaptive V-Sync doet z'n werk dus heel netjes. Zelfde minimum als zonder V-Sync, gemiddelde ligt gewoon tegen de 60 aan. Colour me impressed, ik hoop dat AMD ook iets soortgelijks in hun drivers gaat inbakken.
Excuses overigens voor het gebruiken van dit topic, maar er zijn sowieso al een tijd geen ervaringen topics van Nvidia geweest lijkt het wel; althans geen actieve. Wel denk ik dat mijn simpele benches wel wat nieuws waarde hebben, omdat GPU Boost en Adaptive V-Sync toch duidelijk hun werking en (on)nut laten zien
[ Voor 18% gewijzigd door Werelds op 24-03-2012 15:50 ]
Ik weet niet of veel mensen hier de 301.10 driver al hebben geinstalleerd? Dat kan met elke nvidia kaart als je een modded inf gebruikt.
Adaptive vsync is een leuke feature, als je onder de 60 fps komt heb je even een stottertje als de sync uit gaat, maar dat is beter dan van 60 naar 30 fps gaan, wat je met "echte" vsync hebt.
de sync herstellen nadat je weer 60 fps hebt merk je trouwens niks van.
[ Voor 8% gewijzigd door haarbal op 24-03-2012 15:32 ]
Mechwarrior Online: Flapdrol
Je hebt gelijk, nu echter met prijzen die al rond de 450 liggen is voor mij persoonlijk de 680 ook en betere keus. Maar die idle stroom scheelde toch maar 1watt dat is nou niet echt iets belangrijks volgens mijPaprika schreef op vrijdag 23 maart 2012 @ 18:51:
[...]
Stom, ik dacht dat ik op je post gereageerd had?![]()
De HD7970s zijn natuurlijk wel weer zuiniger in idle-modus en als programmeur zit ook daar een groot deel van de tijd in (en zijn die 3 monitoren juist extra handig). GPGPU boeit me niet, vond het bij de GTX480, GTX580 en nu de HD7970 zonde van de ruimte, al kun je soms niet anders natuurlijk). In principe heffen de voordelen wat betreft stroom elkaar op. Mijn grootste 2 punten waardoor ik naar de GTX680 leun zijn toch wel mijn multi-GPU ervaringen (nVidia heeft minder last van stotteren naar mijn mening) en het feit dat de laatste kaarten allemaal AMDs waren (4870, 5870 & 6970 waren allemaal de betere opties voor mijn eisen (4870 was een beetje zoals de GTX680 nu (alleen dan ook met de prijs daarna, al komt dat nu door AMD natuurlijk), 5870 & 6970 voor Eyefinity (wat nu dus ook met de GTX680 kan zonder 2 kaarten te gebruiken, al komt die 2e wel nog later dit jaar)). Lijkt me leuk om weer eens nVidia te proberen (alleen al van de G80/G92s --> 8800GTS (640MB), 8800GT, 8800GTS (512MB) & 9800GTX gehad
).
De HD7970 zou alleen nog door het geheugen aantrekkelijk zijn, dus hoop ik eigenlijk op wat meer SLI/Xfire i.c.m. 3-monitor reviews.
Kijk hier is nou een handige analyse die ik zelf dus ook zo heb gemaakt! Spreek boekdelen volgens mij.Tyranium schreef op vrijdag 23 maart 2012 @ 15:07:
Aangezien ik het wel grappig vond om te lezen dat verschillende mensen soms totaal verschillende conclusies uit dezelfde reviews kunnen trekken, heb ik maar even een overzicht gemaakt van de conclusies uit 13 verschillende reviews. (ik weet, teveel vrije tijd)
Daarnaast heb ik extra gekeken naar surround/eyefinity resoluties en overclock resultaten voorzover die getest zijn, aangezien hier ook nogal wat discussie over is. Hier de resultaten:
Anandtech
Getest tot 2560x1600
Conclusie: GTX680 is sneller, koeler en stiller.
Hardware Canucks
Conclusie: GTX680 is beter dan de 7970 op bijna alle vlakken.
Bij 5760-1080 is de verdeling van winst in de verschillende games 6 - 4 in voordeel van de GTX680.
Overclock-resultaten: core +147mhz (1153mhz baseclock) en mem +528mhz
Hocp
Conclusie: t/m 2560x1600 wint de 680, daarboven (5760x1200) is het gelijk
GTX680 wint 3 van de 5 games bij die resolutie.
Hardware.info
Conclusie: gemiddeld is de GTX680 10% sneller, maar wordt de winnaar bepaald door de uiteindelijke prijs.
Bij 5760x1080 wint de GTX680 in 5 games en de 7970 in 2. Daarnaast wat rare resultaten bij Shogun 2, waar de 7970 bij medium settings wint, maar bij ultra +4xAA juist de GTX680.
OC: gemiddeld +115mhz (1121mhz baseclock) voor de core en 7358mhz() mem.
Guru3D
Conclusie: GTX680 biedt betere performance dan de 7970. Getest t/m 2560x1600.
OC: core 1264mhz en mem 6634mhz
Hardware Heaven
Conclusie: tot 1080p is de GTX680 de betere kaart, vaak zelfs gelijk tot beter dan factory OC varianten van de 7970.
Vanaf 5760x1080 is het ongeveer gelijk. GTX680 wint het in 4 van de gamebenchmarks op die resolutie, de 7970 in 3. (batman niet meegenomen, omdat de settings niet hetzelfde zijn)
OC: 1264mhz core en 7088mhz mem.
Techpowerup
Overal conclusie: de GTX680 is een "clear winner", betere performance bij ongeveer gelijk verbruik + heeft meer features. Getest tot 2560x1600.
OC: 1147mhz core en 7332mhz mem, = +15% en +22%. Met de 7970 halen ze +16% oc op de core en +25% mem.
OC performance: met beide kaarten overclocked wint de GTX680 nog steeds.
Tom's Hardware
Conclusie: Als gamingkaart is de GTX680 de duidelijke winnaar. Tot 2560x1600 getest.
OC: ~1200mhz core.
Legit Reviews
Conclusie: Overall winner is de GTX680, zelfs vergeleken met een factory OC variant van de 7970. Getest tot 2560x1600.
OC: core 1171mhz (baseclock) - 1224mhz (boost), mem 6320mhz. (core ging zelfs tot max 1275mhz in 3Dmark 11). Performance winst was 6 tot 13% met deze overclock.
Computerbase.de
Conclusie: "Ja, die GTX680 ist das bessere product als die 7970".
Tot 1080p is de GTX680 duidelijk beter, bij 2560x1600 is het ongeveer gelijk en bij 5760x1600 is de 7970 iets beter. De GTX680 wint 5 gamebenchmarks, de 7970 wint er 6 bij 5760x1600.
OC: 1153 tot 1228mhz core en 7012mhz mem. Performance ging met 15 / 16% omhoog.
Hardware.fr
Conclusie: Hun voorkeur gaat uit naar de GTX 680.
(maar ik moet er bij zeggen dat mijn Frans niet zo goed meer is..maar die conclusie haal ik uit dit stukje: "Notre préférence penche cependant vers la GeForce GTX 680 qui bénéficie d'un rendement énergétique supérieur, de nuisances sonores légèrement plus faibles, de l'écosystème 3D Vision, le plus répandu pour la 3D stéréo, ainsi que de pilotes offrant quelques fonctionnalités innovantes telles que la synchronisation verticale et assurant en général plus rapidement un support optimal des nouveaux jeux.")
Bij 5760x1080 wint de GTX680 in 4 games, de 7970 in 3. Bij 3 games is het gelijk. (en dan beschouw ik een verschil van 1 fps ook als gelijk, anders is het 7-3 voor de GTX680)
OC: 1106 tot 1210mhz core en 7200mhz mem. De performance neemt hierdoor met gemiddeld 13% toe, waar bij de 7970 een increase van 15% krijgt na overclock.
Techreport
Conclusie: niet veel verschil in performance, maar de GTX680 is efficiënter met energie en stiller. "the GeForce GTX 680 has earned itself an Editor's Choice award for being the most desirable video card in its class." Getest tot 2560x1600.
Xbitlabs
Conclusie: GTX680 is sneller, stiller en efficiënter met energie.
OC: 1186 tot 1304mhz core, 7126mhz mem. = +17.3% (baseclock) en +18.6% mem. Met de 7970 halen ze +24.3% op de core en +27.3% mem. Na overclock van beide kaarten is de GTX680 4 tot 11% sneller bij 1080p en 1 tot 9% sneller bij 2560x1600.
Verder ligt de adviesprijs van $500 netjes tussen de 7970 ($550) en 7950 ($450) in. Bij gpgpu is de kaart over het algemeen minder dan de 7970, al verschilt dit ook erg tussen verschillende applicaties. Daarnaast is de nieuwe AA modus een zeer mooie toevoeging, al moet hier nog wel ondersteuning in games voor komen.
Persoonlijk concludeer ik uit de 13 reviews hierboven dat de GTX680 t/m een resolutie van 2560x1600 (+AA) over het algemeen de beste performance biedt, behalve in een paar uitzonderingen waar er een bottleneck optreedt. Bij 5760x1200 is de performance ongeveer gelijk aan de 7970 en zullen gebruikers van 3 monitoren vooral goed moeten kijken welke kaart het beste is in de games die ze spelen. Bij resoluties lager dan 2560x1600 wordt de voorsprong van de GTX680 over het algemeen alleen maar groter. (al is de vraag natuurlijk of zo'n kaart nut heeft onder 1080p)
Verder verbuikt de GTX680 onder load minder energie, is de kaart koeler en stiller.
Voor 99% van de gamers (dus de mensen die geen eyefinity/surround gebruiken) zie ik eigenlijk geen reden om een 7970 te kopen ipv een GTX680. Behalve voor mensen met een sterke voorkeur voor AMD in het algemeen of diegene met de gedachte nVidia = evil ofzo.. Toch ben ik benieuwd naar hun argumentatie.
Edit: Wat overclocken betreft blijkt iig uit de bovenstaande reviews dat er niet een groot verschil zit tussen beide kaarten, alhoewel de 7970 vaak iets verder komt. Als beide videokaarten tot hun max overclocked zijn blijft de GTX680 over het algemeen sneller.
Dit .... is weer zo kort door de bocht volgens mij moet je toch even beter alle reviews daadwerkelijk lezen, en ja de schaling is nog niet perfect maar vooral omdat er echt nog wel patches nodig zijn. Sli profiles zijn gewoon wat complexer en zullen altijd wat langer op zich laten wachten.mitsumark schreef op zaterdag 24 maart 2012 @ 11:53:
[...]
Zoals je je in de post van vipeax kunt zien zijn 2 7970's wel altijd beter dan 2 680's.
De schaling is dus een stuk beter, waarschijnlijk vanwege de 680 geheugen bottleneck.
Jij spreekt jezelf genieten vaak tegen, wil geen kaart die onder de 60 frames komt moet blazen op ultra etc etc maar met vsync bij zijn 5850 die op 40 fps komt merkt hij het niet en medium is toch niet zo veel verschil met ultra...Jovas schreef op zaterdag 24 maart 2012 @ 15:18:
[...]
Hij dipt af en toe wel eens naar de 40 ja inderdaad met v-sync aan ja. Maar kan er lekker mee spelen. Als ik genoeg poen had had ik ook wel een GTX 680 gehaald, maar dat heb ik niet, ha!
Maar serieus, maak maar eens wat screenshots op medium en ultra in BF3, alleen de schaduwen en diepte lijnen zijn wat fijner..
Verder ben ik benieuwd naar wat amd gaat doen als reactie als ze met een sterke prijs drop of concurrentie aankomen kan het zijn dat er bij de 680 ook snel prijs drops komen maar misschien is dat een beetje dromen
Idle is wel wat groter in SLI (of X-fire), eigenlijk zelfs zo dat 1 GTX680 == 2 HD7970s.Jasper 99 schreef op zaterdag 24 maart 2012 @ 15:36:
Je hebt gelijk, nu echter met prijzen die al rond de 450 liggen is voor mij persoonlijk de 680 ook en betere keus. Maar die idle stroom scheelde toch maar 1watt dat is nou niet echt iets belangrijks volgens mij

Maar zoals ik al zei, onder load heft dat voordeel zich weer op:

Maar eens kijken wat begin volgende maand gebeurt is met de prijzen.
owja das wel veel maar is dit wel een logische tabel? de 7950 pakt idle meer stroom als een 7970? Maar inderdaad 680 sli is idle wel een beetje aan het slurpen zal vast ook wel met die dynamic overclock te maken hebben volgens mij gebeurt dat namelijk ook in windowsPaprika schreef op zaterdag 24 maart 2012 @ 15:41:
[...]
Idle is wel wat groter in SLI (of X-fire), eigenlijk zelfs zo dat 1 GTX680 == 2 HD7970s.
[afbeelding]
Maar zoals ik al zei, onder load heft dat voordeel zich weer op:
[afbeelding]
Maar eens kijken wat begin volgende maand gebeurt is met de prijzen.
Mwah, ook wel veel idle tijd wat betreft GPU power, maar een monitor (laat staan 3) verbruikt al meer dan het verschil in idle power.Jasper 99 schreef op zaterdag 24 maart 2012 @ 15:48:
[...]
al als gamer zal je meestal de meeste tijd gamen denk ik
Wellicht is dit dan een kleine preview van een Non-Reference model van EVGA:

Bron.
YouTube: Galaxy NVIDIA GeForce GTX 680 2GB Video Card Unboxing & First Look Linus Tech Tipsihre schreef op zaterdag 24 maart 2012 @ 16:05:
Ik begrijp dat de GTX 680 de eerste kaart is, met 2 PCI-E 6 pins aansluitingen in tegenovergestelde richting.
Wellicht is dit dan een kleine preview van een Non-Reference model van EVGA:
[afbeelding]
Bron.
vanaf 4:45, dit is dus ook mogelijk op reference kaarten. zelfs naast elkaar.
Edit: Ik gebruik de edit-knop vaak.
Ja, ik spreek mezelf tegen en gelukkig ben ik niet zo gek dat ik bakken met geld over de balk smijt voor zo'n marginaal placebo effect in het enige videospel wat ik speel, BF3!Jasper 99 schreef op zaterdag 24 maart 2012 @ 15:36:
[...]Jij spreekt jezelf genieten vaak tegen, wil geen kaart die onder de 60 frames komt moet blazen op ultra etc etc maar met vsync bij zijn 5850 die op 40 fps komt merkt hij het niet en medium is toch niet zo veel verschil met ultra...wat wil je nou ?! Je hoeft hem toch ook niet te kopen gewoon 5850 in sli draaien ben je echt nog wel een tijdje zoet, vooral als je niet perse alles hoeft te maxen
Je leest het hierboven toch? Die gast dipt op Ultra en 1900x1080 naar 41 Fps met zo'n high end bak.. Dat is toch lullig voor een kaart van 500 euro. EA, DICE en Nividia weten dat wel, want er zijn toch altijd mensen met teveel geld die er nog eentje bijprikken!
Waarom in hemelsnaam in tegenovergestelde richting? Lijkt me erg lastig om die kabels dan weer los te krijgen.ihre schreef op zaterdag 24 maart 2012 @ 16:05:
Ik begrijp dat de GTX 680 de eerste kaart is, met 2 PCI-E 6 pins aansluitingen in tegenovergestelde richting.
Als ze de 'weerhaakjes' aan de buitenkant plaatsen moet dat geen probleem worden. Omdat nu allebei je kabels zo ver mogelijk aan het einde van de videokaart zitten zie je ook weer een stukje minder kabel door je windowOlaf van der Spek schreef op zaterdag 24 maart 2012 @ 17:27:
[...]
Waarom in hemelsnaam in tegenovergestelde richting? Lijkt me erg lastig om die kabels dan weer los te krijgen.
Ik had het gezien, alleen gaat het daar dus nog steeds om een 2x PCI-E 6-pins aansluiting, en mijn gelinkte plaatje heeft 1x 6 en 1x 8-pins aansluitingen.Fordox schreef op zaterdag 24 maart 2012 @ 16:57:
[...]
YouTube: Galaxy NVIDIA GeForce GTX 680 2GB Video Card Unboxing & First Look Linus Tech Tips
vanaf 4:45, dit is dus ook mogelijk op reference kaarten. zelfs naast elkaar.
YouTube: NVIDIA GeForce GTX 680 2GB Kepler Video Card: In-Depth Review & Benchmarks Volgens dit filmpje is het op die manier nog nooit eerder toegepast.
ach ja hebt een puntJovas schreef op zaterdag 24 maart 2012 @ 17:03:
[...]
Ja, ik spreek mezelf tegen en gelukkig ben ik niet zo gek dat ik bakken met geld over de balk smijt voor zo'n marginaal placebo effect in het enige videospel wat ik speel, BF3!Prachtige kaart hoor GTX680, maar HD5850 is ook nog goed genoeg..
Je leest het hierboven toch? Die gast dipt op Ultra en 1900x1080 naar 41 Fps met zo'n high end bak.. Dat is toch lullig voor een kaart van 500 euro. EA, DICE en Nividia weten dat wel, want er zijn toch altijd mensen met teveel geld die er nog eentje bijprikken!
Multimonitor is niet wat ik onder IQ verbetering versta. Het ging om mij om nieuwe IQ features die je in elke willekeurige monitor setup kunt benutten.Werelds schreef op zaterdag 24 maart 2012 @ 15:32:
[...]
Catchup? Nvidia's multimonitor setup is nog steeds niet je van het (zie hieronder ook)
Uit dezelfde review:, AMD's angle-independent AF is ook beter dan die van Nvidia.
Een quote voor je uit dezelfde AT review:
[...]
Wat mij betreft is de AF van beide fabrikanten vergelijkbaar en niet (of alleen met zeer veel moeite) te onderscheiden van elkaar. In geen review heb ik gelezen dat AF van AMD significant beter is dan bij nVidia.For Southern Islands AMD has changed the kernel weights of their anisotropic filtering mechanism in order to further reduce shimmering of high frequency textures. The algorithm itself remains unchanged and as does performance, but image quality is otherwise improved. Admittedly these AF changes seem to be targeting increasingly esoteric scenarios – we haven’t seen any real game where the shimmering matches the tunnel test – but we’ll gladly take any IQ improvements we can get.
Since AMD’s latest changes are focused on reducing shimmering in motion we’ve put together a short video of the 3D Center Filter Tester running the tunnel test with the 7970, the 6970, and GTX 580. The tunnel test makes the differences between the 7970 and 6970 readily apparent, and at this point both the 7970 and GTX 580 have similarly low levels of shimmering.
Elke verbetering is uiteraard meegenomen maar het is imo onzin om te doen alsof de AMD AF verbetering in de 7xxx series iets bijzonders is. Dit imo in tegenstelling tot TXAA. Wat nvidia PR daar belooft is veelbelovend.
Wel op het gebied van AA als TXAA geimplementeerd gaat worden.Ze ontlopen elkaar niet veel.
Ja dat klopt, ik vind TXAA belangrijker dan PRT en denk dat er redelijke argumenten zijn die onderbouwen dat we TXAA waarschijnlijk vaker terug gaan zien dan PRT.Dat jijTXAA belangrijker vindt is een andere zaak en irrelevant. Feit is gewoon dat beide op sommige vlakken iets voor hebben op de ander qua IQ.
Die argumenten maken mijn mening net even wat minder irrelevant.
Hoezo nietEn die laatste zin raakt kant noch wal; je zegt dat iets bij AMD (nog) niet werkt en geeft dan als argument dat het bij Nvidia..(nog) niet werkt. Huh?
Iets wat AMD imo gewoon ook had moeten regelen zeker daar deze verbetering long overdue is.
Omdat nVidia tot nu toe meer invloed heeft bij de developers dan AMD.[...]
Waarom ben je er zo van overtuigd dat TXAA in verschillende grote games zal zitten?
Nee dat is niet zo:Het is namelijk een stuk ingrijpender dan FXAA en MLAA. Die laatste twee werken altijd, voor iedereen - TXAA werkt alleen op Nvidia, en dan niet eens al hun kaarten (voorlopig Kepler exclusive, wellicht komt Fermi daar bij).
* MLAA werkt alleen op AMD GPU's (Het is juist FXAA dat op beide merken werkt in jouw analogie is MLAA dus minder.)
* TXAA gaat op 4xx & 5xx & 6xx werken.
Daar verschil ik dus van mening. Zoals Anand al aangeeft ga je PRT in principe niet of nauwelijks terugzien.Wat dat betreft heeft het 0,0 voordeel vergeleken met PRT. Het heeft ook niet veel meer nut, want het voegt alleen een AA optie bovenop de bestaande (die grotendeels vendor-onafhankelijk zijn).
Post AA zoals FXAA en MLAA is qua IQ niet echt zaligmakend onder IQ liefhebbers.
Ik vind 8 MSAA of beter voor de performance hit van 2 MSAA erg interessant ja en denk dat een hoop IQ liefhebbers die dat ook zullen vinden.
Helaas is het zo (zoals Edward2 ook al zei) dat Post AA door velen als de toekomst wordt gezien. Zolang Post AA qua IQ kwaliteit minder is dan ouderwetse AA ben ik dus blij met een functie als TXAA die nVidia waarschijnlijk goed zal gaan pushen.
Uiteraard staat of valt TXAA waarschijnlijk vooral bij het gemak van implementatie door developers maar daar is mij nog niks over bekend.
De praktijk zal het moeten uitwijzen maar ik heb gezien nVidia's developer relaties behoorlijk goede hoop dat we dit binnenkort in games terug gaan zien.
Adaptive vSync vindt ik ook een mooi voorbeeld van een functie die nVidia deze launch implementeert die potentieel de IQ verbetert.En dan nu even een benchmarkje erbij: http://www.werelds.net/gpu/680-3.html
V-Sync uitgezet - de eerste twee waren met V-Sync op "application controlled". Ik edit over een minuut of 5 deze post met Adaptive V-Sync
Edit: De hele handel nog eens op een rij:
- http://www.werelds.net/gpu/6950.html (unlocked, durf eigenlijk niet te zeggen of MSI AB aan stond, dus ik weet niet of dit de stock clocks zijn, of de 6970 clocks die m'n kaart op 6950 voltage draai(t/de))
- http://www.werelds.net/gpu/680-1.html (stock, geen NVCP instellingen aangepast)
- http://www.werelds.net/gpu/680-2.html (stock, geen NVCP instellingen aangepast - GPU boost heeft duidelijk invloed op resultaten)
- http://www.werelds.net/gpu/680-3.html (stock, V-Sync Off)
- http://www.werelds.net/gpu/680-4.html (stock, Adaptive V-Sync)
Adaptive V-Sync doet z'n werk dus heel netjes. Zelfde minimum als zonder V-Sync, gemiddelde ligt gewoon tegen de 60 aan. Colour me impressed, ik hoop dat AMD ook iets soortgelijks in hun drivers gaat inbakken.
Excuses overigens voor het gebruiken van dit topic, maar er zijn sowieso al een tijd geen ervaringen topics van Nvidia geweest lijkt het wel; althans geen actieve. Wel denk ik dat mijn simpele benches wel wat nieuws waarde hebben, omdat GPU Boost en Adaptive V-Sync toch duidelijk hun werking en (on)nut laten zien
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Waar zijn die argumenten dan? Ik zie geen enkel argument dat TXAA vaker in games voor gaat komen dan PRT. Ik geef er zelf wel alvast een: Nvidia gooit er grotere zakken met geld tegenaan - althans in het verleden, hoewel AMD heeft gezegd (o.a. tegen Anandtech) dat zij dat voortaan ook gaan doen.Help!!!! schreef op zaterdag 24 maart 2012 @ 18:16:
Ja dat klopt, ik vind TXAA belangrijker dan PRT en denk dat er redelijke argumenten zijn die onderbouwen dat we TXAA waarschijnlijk vaker terug gaan zien dan PRT.
Die argumenten maken mijn mening net even wat minder irrelevant.
Eigenlijk niet, aangezien je voor Fermi de .inf moet hacken. Nvidia heeft zelf nog niets gedaan, technisch gezien is dit nog steeds Kepler-exclusiveHoezo nietIk vergelijk een AMD (catchup) verbetering met een nVidia (new feature) verbetering. De AMD verbetering werkt alleen op 7xxx en de nVidia verbetering werkt bij introductie gelijk op alle recente kaarten (4xx & 5xx & 6xx)
Excuseer? Deus Ex: HR (eerste die me te binnen schiet) heeft MLAA en dat werkt op beide kanten. Dat er niemand een injector voor heeft gebouwd is een andere zaak, maar het werkt weldegelijk op welke videokaart dan ook* - en de opvolger/verbeterde versie (SMAA) heeft wel een injector. En ook even voor de duidelijkheid, het heeft een eeuwigheid geduurd voordat je FXAA kon forceren via de driver, terwijl dit bij MLAA vanaf het begin mogelijk was (en daar heb ik ook dankbaar gebruik van gemaakt in sommige games, Dead Space 2 bijvoorbeeld).* MLAA werkt alleen op AMD GPU's (Het is juist FXAA dat op beide merken werkt in jouw analogie is MLAA dus minder.)
* mits er PP op de shaders uitgevoerd kan worden natuurlijk (alle unified shader architecturen)
Volledig met je eens en dit mag AMD rap overnemen.Adaptive vSync vindt ik ook een mooi voorbeeld van een functie die nVidia deze launch implementeert die potentieel de IQ verbetert.
Nogmaals, je hebt echt wel gelijk op sommige punten, maar je onderbouwt het niet - en angle-independent AA zie je in sommige games echt heel duidelijk. Met name in games waar de IQ sowieso al niet al te best is (CoD games bijvoorbeeld) zie je het verschil; met name op vlakken die van je weg draaien (een oplopende bocht) merk je het wel. Als ik moet gokken heeft Anand ten tijde van Cypress wel een stukje er over geschreven. Ben te lui om het op te zoeken en ik ben druk aan het spelen met EVGA Precision
alles op standaard in de software, 3 monitor surround, op 5760x1200 met ales op ultra en dan heb ik een min/max/avrg van 21/34/28.6 in een tijdsbestek van 1 minuut met de GTX680 van MSI.
Dit is dus zonder tweaks en alles op uber;)
Niet slecht op deze resolutie en instellingen dacht ik!
Edit, temp werd max 80 geloof ik trouwens
[ Voor 6% gewijzigd door DRuw op 24-03-2012 22:20 ]
Deze signature is om volstrekt onduidelijke redenen verwijderd. PVOutput
http://www.werelds.net/gpu/680-100c-50m.html = +100 Core, +50 Memory, 132% max TDP
http://www.werelds.net/gpu/680-120c-50m.html = +120 Core, +50 Memory, 132% max TDP
In de praktijk gaat de +100 setup verder; GPU Boost gaat dan naar 1184-1202, waarbij hij ongeveer 50/50 tussen die twee snelheden springt. Met +120 komt ie niet verder dan 1171; soms 1184 voor een moment, maar dat is het dan ook. Met +125 is het geheel al niet meer stabiel, nog lang niet in de buurt van de 1.3GHz+ die ze op sommige sites haalden
Vriend van me haalt met z'n 7970 gewoon 1165/1600, dat is redelijk dicht bij de norm die je op websites ziet.
[ Voor 7% gewijzigd door Werelds op 24-03-2012 22:47 ]
cherry picked kaarten krijgen maar ze hebben ook gewoon beter spul.
Stel nu, dat Werelds systeemkast best wel goed is (wellicht nog de NZXT die in zijn gallery terug te vinden is) en de kaart dus niet door koeling tegengehouden wordt. Stel dan dat Werelds kaart in een kast was gekomen met veel minder goede luchtstroming, dus een warmere systeemtemperatuur. Dan waren de resultaten dus wellicht nog beroerder dan Werelds ze nu heeft aangetroffen.
In beide gevallen zal de consument met mindere prestaties zitten als de reviews hem voorschotelen.
M'n inventaris is up-to-date, heb nog steeds m'n (prachtigedahakon schreef op zaterdag 24 maart 2012 @ 23:45:
Stel dat het aan Werelds systeem(kast) ligt "omdat reviewers toch wel beter spul zullen hebben", dan is dat iets wat voor menig koper van de GTX680 geldt, waardoor Werelds ervaring dus door veel meer mensen zal worden ervaren.
Stel nu, dat Werelds systeemkast best wel goed is (wellicht nog de NZXT die in zijn gallery terug te vinden is) en de kaart dus niet door koeling tegengehouden wordt. Stel dan dat Werelds kaart in een kast was gekomen met veel minder goede luchtstroming, dus een warmere systeemtemperatuur. Dan waren de resultaten dus wellicht nog beroerder dan Werelds ze nu heeft aangetroffen.
In beide gevallen zal de consument met mindere prestaties zitten als de reviews hem voorschotelen.
Kijk, als er pakweg 50 MHz verschil in zat, zou ik het inderdaad op een slecht sample weg schrijven. Maar nu lijkt het er op dat er vrij aggressief is gekozen; pas als er meer mensen hun resultaten hier even droppen kunnen we daar echt een mening over vormen. Koeling is in mijn geval in elk geval absoluut het probleem niet, hij komt niet eens tot de 70 graden met een ietwat aangepast fan profiel. Ik heb nu de fanspeed vrij lineair met temperatuur; dat moet ik nog een beetje tweaken, het mag best iets aggressiever want de koeler is aardig stil. Je kunt echter pas zeggen dat ik een slecht sample heb als "de rest" (overige 680 eigenaren) consistent hoger klokt.
De overklok is overigens niet slecht verder, het is alsnog pakweg 20% op de core als ik Boost mee tel. Het is echter ook niet de 30% die websites halen. M'n 6950 doet/deed 6970 clocks op z'n stock 6950 voltage en m'n 5870 haalde ook 950 op stock, 975 met 10mV extra (en 1 GHz+ ging ook, dan begon alleen de temperatuur/lawaai curve hard op te lopen). In het geval van m'n 6950 is dat precies op dezelfde lijn als reviews. In het geval van m'n 5870 had ik toevallig een heel goed sample.
Tuurlijk zorgen ze dat er voor reviews iets betere samples beschikbaar worden gesteld. Maar in dit geval is het verschil wel erg groot (20% tegenover 30%). We zullen zien, ik ga de komende tijd de bekende fora in de gaten houden om te zien wat men elders haalt
Ik heb die 300 driver ook geinstalleerd in ben zeer tevreden met adaptive vsync. Ik merk zelf geen hapering als vsync uit gaat, zie het alleen door een heel klein beetje tearing.haarbal schreef op zaterdag 24 maart 2012 @ 15:32:
mjah, ik speel met het meeste op low, ultra is wel beter, maar niet veel.
Ik weet niet of veel mensen hier de 301.10 driver al hebben geinstalleerd? Dat kan met elke nvidia kaart als je een modded inf gebruikt.
Adaptive vsync is een leuke feature, als je onder de 60 fps komt heb je even een stottertje als de sync uit gaat, maar dat is beter dan van 60 naar 30 fps gaan, wat je met "echte" vsync hebt.
de sync herstellen nadat je weer 60 fps hebt merk je trouwens niks van.
Het is een fantastische optie vind ik.
Dit bericht kan oorzaak of gevolg zijn van misverstanden.
En igv van single gpu altijd triple buffering met v-sync.
[ Voor 9% gewijzigd door edward2 op 25-03-2012 01:22 ]
Niet op voorraad.
Verwijderd
GeForce Kepler GK110 basic specs leaked
http://www.fudzilla.com/h...-gk110-basic-specs-leaked
[ Voor 32% gewijzigd door Verwijderd op 25-03-2012 09:33 ]
Effectief levert deze methode fps=refreshrate/2 op. Dat moet je toch niet willen.edward2 schreef op zondag 25 maart 2012 @ 01:17:
Dat is toch helemaal niks, adaptive v-sync, je wilt absoluut geen tearing hebben, lag los je op door max fps met een framerate limiter net onder je refreshrate te zetten met v-sync. Ik snap niet dat dit standaard niet in gameengines zo ingesteld staat icm v-sync.
En igv van single gpu altijd triple buffering met v-sync.
Dit bericht kan oorzaak of gevolg zijn van misverstanden.
Mechwarrior Online: Flapdrol
De argumenten zijn reeds genoemd:Werelds schreef op zaterdag 24 maart 2012 @ 21:29:
[...]
Waar zijn die argumenten dan? Ik zie geen enkel argument dat TXAA vaker in games voor gaat komen dan PRT. Ik geef er zelf wel alvast een: Nvidia gooit er grotere zakken met geld tegenaan - althans in het verleden, hoewel AMD heeft gezegd (o.a. tegen Anandtech) dat zij dat voortaan ook gaan doen.
PRT:
As D3D is not normally extensible it’s really only possible to easily access the feature from other APIs (e.g. OpenGL), which when it comes to games is going to greatly limit the adoption of the technology. AMD of course is working on the issue, but there are few ways around D3D’s tight restrictions on non-standard features.
Maw, hier kan AMD wel geld tegen aan gaan gooien maar het gaat helaas waarschijnlijk niet werken/ geen grote impact hebben omdat:
a) OGL games in de minderheid zijn en
b) D3D het maar zeer lastig toelaat.
TXAA:
* Er zijn voorzover mij nu bekend geen restricties in de engines zelf.
* Evenmin zijn er nog berichten dat het moeilijk is om te implementeren.
* nVidia zal dit gaan pushen bij de developers en obv ervaringen van het verleden zal dit ook wel gaan lukken.
* The following games, engines, and developers have committed to offering TXAA support: MechWarrior Online, Secret World, Eve Online, Borderlands 2, Unreal Engine 4, BitSquid, Slant Six Games, and Crytek.
Mocht je al titels hebben gevonden die PRT op de PC gaan ondersteunen dan hoor ik ze graag want ben benieuwd.
Dit is wat hardwarecanucks hierover schrijft:[...]
Eigenlijk niet, aangezien je voor Fermi de .inf moet hacken. Nvidia heeft zelf nog niets gedaan, technisch gezien is dit nog steeds Kepler-exclusive
There is however one catch: TXAA cannot be enabled in NVIDIA’s control panel. Instead, game engines have to support it and developers will be implementing it within the in-game options. Presently there isn’t a single title on the market that supports TXAA but that should change over the next 12 months. Once available, it will be backwards compatible with the GTX 400 and GTX 500 series GPUs as well.
Met een beetje geluk kan het ook op AMD kaarten. (Hoop ik.)
Dat klopt niet. MLAA werkt out of the gate alleen op AMD.Excuseer? Deus Ex: HR (eerste die me te binnen schiet) heeft MLAA en dat werkt op beide kanten. Dat er niemand een injector voor heeft gebouwd is een andere zaak, maar het werkt weldegelijk op welke videokaart dan ook* - en de opvolger/verbeterde versie (SMAA) heeft wel een injector. En ook even voor de duidelijkheid, het heeft een eeuwigheid geduurd voordat je FXAA kon forceren via de driver, terwijl dit bij MLAA vanaf het begin mogelijk was (en daar heb ik ook dankbaar gebruik van gemaakt in sommige games, Dead Space 2 bijvoorbeeld).
* mits er PP op de shaders uitgevoerd kan worden natuurlijk (alle unified shader architecturen)
Dat je blijkbaar via lastige omwegen kunt proberen een versie van MLAA draaiende kan krijgen vind ik nou niet echt een argument om te zeggen "het werkt op allebei ! " Net als: "dat niemand er een injector" voor heeft geschreven.
Noem liever games waarbij MLAA out of the box bij nVidia goed werkt. Volgensmij gaat je dat niet lukken.
Als FXAA in de game zit werkt het zonder verdere toestanden gelijk op allebei de merken. Dit in tegenstelling tot MLAA.
Nou ja, ik onderbouw mijn punten wel degelijk alleen jij hebt een andere mening. Prima.[...]
Volledig met je eens en dit mag AMD rap overnemen.
Nogmaals, je hebt echt wel gelijk op sommige punten, maar je onderbouwt het niet - en angle-independent AA zie je in sommige games echt heel duidelijk. Met name in games waar de IQ sowieso al niet al te best is (CoD games bijvoorbeeld) zie je het verschil; met name op vlakken die van je weg draaien (een oplopende bocht) merk je het wel. Als ik moet gokken heeft Anand ten tijde van Cypress wel een stukje er over geschreven. Ben te lui om het op te zoeken en ik ben druk aan het spelen met EVGA Precision
Het zal komend jaar wel duidelijk worden wat we meer terug gaan zien PRT of TXAA.
Ik verwacht vanwege bovengenoemde argumenten het laatste. Een nieuwe feature is imo alleen echt nuttig als je het in de praktijk regelmatig kunt gebruiken.
Qua AF: Cypress is twee generaties geleden. Ik had en heb het over 7xxx en 680gtx. Ik geloof best dat jij in sommige games iets van verschil ziet maar dit is niet een breder gedeelde mening want uit de reviews blijkt bij mijn weten niet dat er een significant verschil is in AF. Dit was ook al zo bij de 69xx en 5xx series.
Ik stel mijn mening overigens graag bij als ik daarmee een betere aankoopbeslissing kan maken.
O.a. daarom hoop ik dat je alsnog (ook mede gezien je nogal aan onderbouwing en argumenten hecht) even wat linkjes naar goede sites kunt geven die bevestigen dat er een significant verschil is qua AF tussen beide merken bij de nieuwste kaarten.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
beetje rare vergelijking doen ze daar over de vermeende prestaties:Verwijderd schreef op zondag 25 maart 2012 @ 09:27:
GeForce Kepler GK110 basic specs leaked
http://www.fudzilla.com/h...-gk110-basic-specs-leaked
waarom vergelijkt ie daar met 6990s?All in all, having three GK110s in Triple-SLI would still give you more single-precision performance at 13.50 TFLOPs than having four GeForce GTX 680s (GK104s) in 4-way SLI at 12.36 TFLOPs. In comparison, having two AMD Radeon HD 6990s in Quad-CrossFireX (four Antilles GPUs) would only give you 10.2 TFLOPs.
verder niet echt iets nieuws geloof ik. misschien het vermeende aantal shaders/cuda cores...
[ Voor 6% gewijzigd door superwashandje op 25-03-2012 14:16 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
[ Voor 82% gewijzigd door Fid3lity op 25-03-2012 15:15 ]
waar hebben jullie het allemaal over lezen jullie?3XPER7 schreef op zondag 25 maart 2012 @ 14:17:
En Antilles is nog altijd geen GPU, maar een kaart. Dit zijn nog altijd Cayman GPU's. Dat terzijde, inderdaad vreemd dat 'ie niet even vergelijkt met HD7970's, bias much?
In terms of raw power, a single GK110 GPU is expected to have up to 4.50 TFLOPs single-precision compute performance. In comparison, AMD's Radeon HD 7970 flagship single-GPU has 3.79 TFLOPs, the GeForce GTX 680 (GK104) has 3.09 TFLOPs and the previous generation GeForce GTX 590 (2 x GF110) dual-GPU card has 2.49 TFLOPs.
Edit je bedoelt de tripple sli vs 2 6990? hmm weet ik niet het is sowieso wel een beetje een zweverig artikel met speculaties waar je weinig over kunt zeggen en weinig aan hebt. Expected to have 4.50 maar hoeft niet dus ja beetje nutteloos artikel sowieso
[ Voor 16% gewijzigd door Jasper 99 op 25-03-2012 15:05 ]
Klopt als een bus, PRT is nog niet bepaald eenvoudig, maar dat komt vooral doordat D3D zoals gezegd niet uitbreidbaar is. PRT is een techniek die net even iets verder gaat dan "dom" shader werk, dus ja, het kan best even duren voordat je het in D3D ziet. Als er echter een ontwikkelaar is die hier mee uit de voeten moet kunnen is het id wel. Zij werken sowieso al via OpenGL.Help!!!! schreef op zondag 25 maart 2012 @ 14:10:
PRT/TXAA verhaal
Dat gezegd, er wordt nergens gerept over een "lastige" implementatie - voor ontwikkelaars. De last ligt momenteel bij AMD om het bruikbaar te maken in D3D11, in plaats van eigen API's. Als hen dit lukt heeft het even veel potentie als TXAA.
De genoemde "support" voor TXAA is aardig, maar op welke termijn? In het geval van Crytek is dat pas voor de volgende versie, ik betwijfel of ze dat nog in Crysis 2 gaan stoppen. Dat UE4 het gaat ondersteunen is leuk en aardig, maar als ik kijk naar hoe veel van de features van UE3 gebruikt worden vrees ik het ergste. De parade paardjes van UE zijn vaak vrij indrukwekkend, maar voor de rest is de gemiddelde ontwikkelaar lui. Er zit heel veel in UE3.5 dat wij nooit zien, terwijl het letterlijk niet meer dan een paar uurtjes hoeft te kosten. Om je een idee te geven van hoe lui men is: ME3 draait op build 684.194 - deze stamt ergens uit eind 2008, begin 2009; voordat je nu beweert dat het spel zo veel ontwikkeling nodig had, het is met UE3 vrij eenvoudig om te updaten. Batman: AC draait gewoon op 805.101, een build uit 2011 - dicht bij het eind van hun cyclus dus. Games als ME3 zijn echter de norm, de meeste zijn zo lui als BioWare (wat ook aangeeft wat voor bedrijf BioWare tegenwoordig is
We zullen het wel zien. UE4 is in elk geval nog ver verwijderd en met uitzondering van een enkele ontwikkelaar die niet lui is, is TXAA veel meer werk dan FXAA of MLAA en zullen ze er dus niet eens aan beginnen - tenzij je grappen krijgt zoals bij Arkham Asylum en dat hoop ik toch echt van niet. Je hebt zeker gelijk dat TXAA op het moment de betere kanshebber is, maar dat wil niet zeggen dat PRT minder indrukwekkend is. Hardwarematige "MegaTexture" support zou best wel eens een sterke feature voor DX12 kunnen zijn. AMD moet in elk geval geld uit gaan geven, anders wordt PRT inderdaad het vervolg op hun hardware tessellation (ik mag hopen dat je deze referentie snapt
Heh? MLAA kun jij in DX:HR gewoon in het menu aanzetten op een Nvidia kaart hoor. MLAA is net als FXAA een post-processing shader filter, wat betekent dat het volledig vendor agnostisch is. Het maakt geen donder uit of je Nvidia of AMD hebt, zolang je programmable shaders hebt werkt het. Er zijn geen omwegen nodig of wat dan ook. Ik zal zometeen het spel eens opnieuw installeren en testen, maar MLAA werkte bij iedereen die ik ken gewoon. En om je nog een andere te geven, Shogun 2 heeft ook MLAA ingebouwd en het is NIET beperkt tot AMD kaarten. Ik weet niet waar jij je informatie vandaan haalt, maar nogmaals, MLAA en FXAA zijn beide vendor agnostisch. Ik zal zometeen (of beter gezegd, vanavond) met alle plezier even kijken of ik gelijk heb. FXAA is gewoon populairder dankzij de injector, niets meer en niets minder. Overigens heb ik persoonlijk een hekel aan zowel FXAA als MLAA, als het even kan gebruik ik gewoon MSAA.MLAA onzin
En nee, ik heb nog geen reviews gezien waar men diep in gaat op de daadwerkelijke beeldkwaliteit. Sowieso is AF lastig aan te tonen, omdat het alleen in heel specifieke situaties voorkomt en dus eigenlijk alleen te bewijzen is met tests die geschreven zijn om het te verpesten (link). Ik heb ook nooit beweerd dat ik verschil zie, althans niet tijdens het gamen; waarschijnlijk als ik wat screenshots in detail ga bekijken wel. Echter is dat mijn punt ook een beetje: ze ontlopen elkaar gewoon niet veel, wisselen stuivertje en in de praktijk zie je het niet tenzij je echt gaat zoeken. Bij analyse gaat ook niet een van de twee beter uit de bus komen - aangenomen dat je geen idiote dingen gaat forceren via third party tools of control panels (SSAA en andere onzin).
Uiteindelijk zijn wat mij betreft de enige dingen die boeiend zijn, de dingen die aan beide kanten ondersteund worden en die de IQ gelijk houden met performance winst (of de IQ verbeteren zonder verlies). TXAA weten we dat nog niet van; we weten alleen wat de theorie belooft, maar de theorie voor FXAA en MLAA is ook indrukwekkender dan de praktijk.
Edit: MLAA werkt gewoon, zoals ik zei
Nee, ik gebruik msi afterburner beta als frameratelimiter.Verwijderd schreef op zondag 25 maart 2012 @ 09:27:
Hey edward2. Kun je dat wl via het conto pannel zo in stellen. Ik zou namelijk ook wel eens van die lag af willen met vsync aan.
GeForce Kepler GK110 basic specs leaked
http://www.fudzilla.com/h...-gk110-basic-specs-leaked
Maar bv. in BF3 kan je ook met de gametimevariablefps consolecommando een max framerate instellen. Voor 60 hz icm v-sync werkt 59.9 perfect.
Niet op voorraad.
Een voordeel van nvidia inspector is dat je per spel een andere frame limit kan forceren als je daar zin in hebt, en je verder niks extra's hoeft te draaien tijdens het spel, inspector doet zelf niks, alleen verborgen opties in de driver veranderen.
Mechwarrior Online: Flapdrol
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Als ik nVidia GPU's in mijn pc heb staat inspector hier ook vast en zeker op. Een best proggy, vooral nu nHancer er mee op is gehouden.haarbal schreef op zondag 25 maart 2012 @ 18:16:
Er zit al een frame limiter in de nvidia driver ingebouwd, je kan er alleen met het control panel niet bij. Met het programma "nvidia inspector" kan je wel nagenoeg alles in de driver forceren, fxaa kon ook al een tijdje, maar is nu pas via het control panel beschikbaar. Wellicht de frame limiter binnenkort ook.
Een voordeel van nvidia inspector is dat je per spel een andere frame limit kan forceren als je daar zin in hebt, en je verder niks extra's hoeft te draaien tijdens het spel, inspector doet zelf niks, alleen verborgen opties in de driver veranderen.
Ben benieuwd hoe lang we op de grote broer moeten wachten, en 30-50% sneller dan GK104?
Kloksnelheid van zo'n monster zal wel een stukje lager liggen dan de GK104.
Niet op voorraad.
Verwijderd
Maargoed, oud nieuws
Jammer dat de prijzen zo slecht zijn, wel frappant dat elke keer als nVidia de baas is de prijzen nergens op slaan. G80 toen en nu met GK104 weer. T.t.v. AMD heerschappij was dat wel anders zie HD4xxx, HD5xxx en HD6xxx -series.Format-C schreef op zondag 25 maart 2012 @ 18:30:
Toch mooi dat nV eindelijk een keer weer een echt betere kaart dan AMD heeft; sneller, stiller, zuiniger, meer features.
HD7xxx?madmaxnl schreef op zondag 25 maart 2012 @ 20:07:
[...]
T.t.v. AMD heerschappij was dat wel anders zie HD4xxx, HD5xxx en HD6xxx -series.
zijn de prijzen zo slecht dan? goedkoopste rond de 450. en de 7970 rond de 430. niet heel veel verschillend met de afgelopen 3 maand (toen amd heer een meester was) toch?madmaxnl schreef op zondag 25 maart 2012 @ 20:07:
[...]
Jammer dat de prijzen zo slecht zijn, wel frappant dat elke keer als nVidia de baas is de prijzen nergens op slaan. G80 toen en nu met GK104 weer. T.t.v. AMD heerschappij was dat wel anders zie HD4xxx, HD5xxx en HD6xxx -series.
edit:@vipeax gefeliciteerd!
[ Voor 3% gewijzigd door superwashandje op 25-03-2012 20:54 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Zo moet je het dus niet zien.superwashandje schreef op zondag 25 maart 2012 @ 20:54:
[...]
zijn de prijzen zo slecht dan? goedkoopste rond de 450. en de 7970 rond de 430. niet heel veel verschillend met de afgelopen 3 maand (toen amd heer een meester was) toch?
edit:@vipeax gefeliciteerd!
HD4xxx vs G9xxx en G2xx, HD5xxx vs G4xx en HD6xxx vs G5xx. Heerschappij in deze is dus relatief en ja de prijzen zijn slecht. Ik heb liever de prijzen zoals ze waren met de HD4xxx, HD5xxx of HD6xxx serie.
Het was nVidia er alles aan gelegen om als beste uit de bus te komen en toch ben je nu verbaast ?Werelds schreef op zaterdag 24 maart 2012 @ 23:44:
Beter spul is per definitie cherry picked. Alle sites hadden ook gewoon reference koelers en dergelijke, dus het is echt gewoon review binning
[ Voor 33% gewijzigd door madmaxnl op 25-03-2012 23:16 ]
[ Voor 115% gewijzigd door madmaxnl op 25-03-2012 23:16 ]
Verwijderd
Even los gezien van het hele mid-end gpu die voor high-end wordt verkocht vind ik dit toch wel onzin. Alles en iedereen was AMD aan het verdedigen m.b.t. de prijzen van de HD7970 die goed waren t.o.v. de GTX580 (een iets betere prijs/performance), nu basseert Nvidia haar prijzen op de HD7970 (lijkt mij terecht...) en dan zijn de prijzen opeens weer 'zo slecht'. Dit kan ik niet volgen...madmaxnl schreef op zondag 25 maart 2012 @ 20:07:
[...]
Jammer dat de prijzen zo slecht zijn, wel frappant dat elke keer als nVidia de baas is de prijzen nergens op slaan. G80 toen en nu met GK104 weer. T.t.v. AMD heerschappij was dat wel anders zie HD4xxx, HD5xxx en HD6xxx -series.
Misschien moeten we wel teleurgesteld zijn in AMD aangezien Nvidia's mid-end gpu zelfs een lichte overhand heeft op de high-end van AMD....

Verwijderd
Ah zo....madmaxnl schreef op zondag 25 maart 2012 @ 23:21:
Ey niet alleen nVidia zit verkeerd met zijn prijs, AMD ook. Ik had gehoopt dat nVidia nu eens AMD zou dwingen de prijzen te verlagen, weer een illusie armer.
Tja, beiden kiezen voor geld verdienen boven de volle aanval... Wellicht wordt er achter de schermen gebabbeld...
Inderdaad, maar we zijn weer terug bij af. GPUs van ~350mm2 die voor meer dan 450 euro van de hand gaan. Lekker belangrijk dat AMD nu verliest en nVidia wint, wij consumenten verliezen allemaal. Ik vond het alleen leuk om AMD fanboy te zijn als wij ook wonnen.dcm360 schreef op zondag 25 maart 2012 @ 23:34:
Of er wordt niet achter de schermen gebabbeld en zijn beide partijen tevreden met de huidige prijzen. De markt voor videokaarten is de afgelopen jaren niet heel erg winstgevend geweest en dan is het ook eens aangenaam om wat meer marge te hebben.
[ Voor 28% gewijzigd door Jasper 99 op 25-03-2012 23:53 ]
Uh zoals iedereen kan zien heeft nVidia zich gewoon gericht op de prijzen van z'n vorige reeks. En niet qua technishce redenen (die size) of geheugen prijzen bv. Maar gewoon simpelweg zodat de "oude" gtx5xx reeks kaarten nog verkocht moeten worden. Nu afkomen met een kaart die de vloer aanveeft met de 580 maar "slechts" 300 euro kost gaat hun zuur opbreken. Geen enkele leverancier/verkoper wil dan in de toekomst nog zich wagen een voorraad op te bouwen.WilliamP schreef op dinsdag 13 december 2011 @ 14:09:
Ja klopt, maar deze kaart is (klinkt heel logisch) de opvolger van de 580?
En die zit nu rond de 420 euro, dus 399 dollar als opvolger van de 580 klinkt best goedkoop?
Maar goed, die hele kaart is dus troep, zal wel weer gewoon rond de 450 euro gaan zitten de 680 gtx
Eerst "moeten" de oude kaarten allen verkocht wezen voor de prijzen van de nieuwe 28nm kaarten kunnen droppen. Temeer er een productie tekort is zal dit dus nog een tijdje duren. Misschien kan je dat als consument als een "verlies" aanzien maar je kan nog steeds de oude meer bang voor bucks kopen indien gewenst
Diegene die schreeuwen dat de prijzen voor ons allen naar beneden zouden moeten gaan hebben dus een taak voor de boeg: de oude voorraden opkopen
Mid-end van AMD... Als je GK104 mid-end wilt noemen, dan is Tahiti net zo goed mid-end, namelijk evenmin bedoeld als het snelste wat AMD te bieden heeft.Verwijderd schreef op zondag 25 maart 2012 @ 23:17:
Misschien moeten we wel teleurgesteld zijn in AMD aangezien Nvidia's mid-end gpu zelfs een lichte overhand heeft op de high-end van AMD....
Of AMD of nVidia te duur is op het moment? Dat kunnen we alleen achteraf zien wanneer de marges bekend worden. Of je ~450 euro voor een videokaart uit wilt geven is echter geen leidraad voor een dergelijk statement.
http://www.extremetech.co...2nm-essentially-worthless
In dat artikel staat een leuk grafiekje over de kosten per transistor. Als je dan bedenkt dat het lang geleden is dat relatief grote chips zo vroeg in het stadium van een nieuw process op de markt zijn gekomen, dan kun je je eens achter de oren krabben. HD4770 was een kleine chip die een half jaar nadat massa-productie al van start zou moeten zijn gegaan op de markt kwam. HD5870 kwam nog eens een half jaartje later. GTX480 gooide daar nog eens een jaar overheen. GTX280/285 kwamen op een process wat al lang volwassen was, net zoals 8800GTx.
Als mensen graag vooruitgang willen in de GPU-markt en ze willen als (een van de) eerste een nieuwe kaart hebben, dan kunnen ze beter genoegen nemen met het feit dat een relatief grotere chip simpelweg duur is om te maken de eerste 3-4 kwartalen. Ik heb geen 450 euro over voor een kaart, ongeacht de prestaties, maar het zijn de prijzen die nu gelden. Misschien levert het een iets hogere marge op voor de bedrijven, maar dan nog worden ze er niet opeens stinkend rijk van.
De sleutel ligt toch echt bij het in gedachte houden dat dit de eerste keer is in heel erg lange tijd dat relatief grote chips als eerste de markt zien op een nieuw process. Bij 55nm was het een kleine RV670, bij 65nm waren het de kleine chips voor kaarten als HD2600 en HD2400.
Enfin, genoeg gereutel over het (eeuwige) gejammer over de prijs en het 'maar deze keer is het hullies schuld, echt waar' gedoe.

Jasper 99 schreef op zondag 25 maart 2012 @ 23:51:
Ach ja als nvidia inderdaad 300 euro voor die kaart had gevraagd was het GG voor AMD konden ze alleen nog maar huilen en misschien +/- 10 kaarten verkopen aan fanboys, maarja kartel vorming he... lijkt mij ook dat er wat afspraken zijn hier en daar. (kort door de bocht natuurlijk ze zouden zelf ook dan net zo goed kunnen stoppen met het verkopen van de 5xx serie e.d. want iedereen koopt dan de 680 en dat kunnen ze niet eens supplien maar toch)


De 680 is/was nooit bedoeld als 300euro kaart, de winst die ze daarop zouden maken zou dan ook bedroefend klein zijn. (als nvidia daar wel winst op zou maken...). (het is een ander geval kijken naar de originele 104 reeks doelgebied die veel minder binning en lower quality memory kon gebruiken).
(itt tot de 5xx serie is de huidige 6xx serie onbruikbaar voor het professionele segment waar nvidia hun winst haalden).
Zoals dahakon al aanhaald: als bedrijf wil je ook je ontwerpkosten terugverdienen of herinvesteren. Gezien de complexiteit en het schrinkend marktaandeel voor gaming gpu's gaat de prijs moeten stijgen. Vandaar dat AMD met de 79xx serie de focus legt op gpgpu om een andere markt te kunnen betreden. Nvidia kepler 680 is weggegaan van die markt en moet nu zijn geld terugverdienen in een schrimpende markt.
Concurrentie zou er zowiezo voor zorgen dat AMD en Nvidia altijd gelijkaardige prijzen gaan vragen, daarvoor heb je echt geen prijsafspraken nodig. Dat is net concurrentie. Je prijst je produkt zodat je het meeste overschot hebt per verkochte kaart en je toch genoeg kaarten verkoopt.
[ Voor 13% gewijzigd door Devpartner op 26-03-2012 08:38 ]
Verwijderd
http://nl.hardware.info/n...oor-smartphones-gebruiken
Misschien kunnen we dan op de duur mooiere games krijgen op mobiel.
Lijkt me geen slecht idee. Die huidige Geforce Chips in de Tegra SOC's zijn echt uber traag vergeleken met de PowerVR, ARM Mail en de nieuwe Adeno. Voor een bedrijf dat ook desktop en laptop GPU's maakt vind ik dat erg slecht.Verwijderd schreef op maandag 26 maart 2012 @ 09:49:
Kepler voor in smartphones?
http://nl.hardware.info/n...oor-smartphones-gebruiken
Misschien kunnen we dan op de duur mooiere games krijgen op mobiel.
Maar ook niet als een kaart van 500 euro. Maar omdat de performance gewoon erg goed was konden ze em daar wel neer zetten. Ik denk dat die kaart uiteindelijk wel voor 300 bedoelt was alleen niet in het begin. Maar gezien GK100/GK110 er voorlopig niet komt en de performance goed was kunnen ze er nu wat extra op verdienenDevpartner schreef op maandag 26 maart 2012 @ 08:34:
![]()
[...]
![]()
![]()
De 680 is/was nooit bedoeld als 300euro kaart, de winst die ze daarop zouden maken zou dan ook bedroefend klein zijn. (als nvidia daar wel winst op zou maken...). (het is een ander geval kijken naar de originele 104 reeks doelgebied die veel minder binning en lower quality memory kon gebruiken).
(itt tot de 5xx serie is de huidige 6xx serie onbruikbaar voor het professionele segment waar nvidia hun winst haalden).
Zoals dahakon al aanhaald: als bedrijf wil je ook je ontwerpkosten terugverdienen of herinvesteren. Gezien de complexiteit en het schrinkend marktaandeel voor gaming gpu's gaat de prijs moeten stijgen. Vandaar dat AMD met de 79xx serie de focus legt op gpgpu om een andere markt te kunnen betreden. Nvidia kepler 680 is weggegaan van die markt en moet nu zijn geld terugverdienen in een schrimpende markt.
Concurrentie zou er zowiezo voor zorgen dat AMD en Nvidia altijd gelijkaardige prijzen gaan vragen, daarvoor heb je echt geen prijsafspraken nodig. Dat is net concurrentie. Je prijst je produkt zodat je het meeste overschot hebt per verkochte kaart en je toch genoeg kaarten verkoopt.
[ Voor 59% gewijzigd door Astennu op 26-03-2012 10:04 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Volgens mij lees jij 300 en dan stop je al. Als je iets verder leest zie je dat het een stel scenario is, sterker jij weet niet wat die kaart zou kosten en sterke concurentie zou wel gaan naar een lagere prijs, stel ze hebben een ongelimiteerde oplage en bij een prijs van 300 maken zij 50 winst per chip, maar door vraag aanbod wordt de vraag dan waarschijnlijk oneindig hoog en je concureerd de andere partij gewoon weg.Devpartner schreef op maandag 26 maart 2012 @ 08:34:
![]()
[...]
![]()
![]()
De 680 is/was nooit bedoeld als 300euro kaart, de winst die ze daarop zouden maken zou dan ook bedroefend klein zijn. (als nvidia daar wel winst op zou maken...). (het is een ander geval kijken naar de originele 104 reeks doelgebied die veel minder binning en lower quality memory kon gebruiken).
(itt tot de 5xx serie is de huidige 6xx serie onbruikbaar voor het professionele segment waar nvidia hun winst haalden).
Zoals dahakon al aanhaald: als bedrijf wil je ook je ontwerpkosten terugverdienen of herinvesteren. Gezien de complexiteit en het schrinkend marktaandeel voor gaming gpu's gaat de prijs moeten stijgen. Vandaar dat AMD met de 79xx serie de focus legt op gpgpu om een andere markt te kunnen betreden. Nvidia kepler 680 is weggegaan van die markt en moet nu zijn geld terugverdienen in een schrimpende markt.
Concurrentie zou er zowiezo voor zorgen dat AMD en Nvidia altijd gelijkaardige prijzen gaan vragen, daarvoor heb je echt geen prijsafspraken nodig. Dat is net concurrentie. Je prijst je produkt zodat je het meeste overschot hebt per verkochte kaart en je toch genoeg kaarten verkoopt.
Tuurlijk willen ze veel winst maar als je een kaart 450-500 maakt heb je gewoon een veel lager verkoop dan 300-400 dus dat hoeft echt niet veel meer winst te betekenen, echter in dit geval is er een grote kans dat ze niet genoeg kaarten hebben om aan de vraag te voldoen bij een lagere prijs.
Uber traag? Ik moet nog een spel vinden dat ik niet kan spelen op mijn Tegra 2 LG O2X. Vaak zijn er zelfs THD versies van games die je zonder hacks niet eens kan draaien op andere chipsets.Astennu schreef op maandag 26 maart 2012 @ 10:01:
Die huidige Geforce Chips in de Tegra SOC's zijn echt uber traag vergeleken met de PowerVR, ARM Mail en de nieuwe Adeno.
Benchmarks kan je niet spelen Astennu, dat zou je moeten weten
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
XanderDrake schreef op maandag 26 maart 2012 @ 11:22:
On topic: Hoewel nog niet leverbaar voor die prijs, dipt de GTX 680 nu al een kleine €20 onder de goedkoopste HD 7970Sneller dan ik had verwacht!
Zou mooi zijn ja.Tyranium schreef op maandag 26 maart 2012 @ 12:01:
[...]
Mooie ontwikkeling, ben benieuwd of AMD nog een "officiële" prijsverlaging gaat doorvoeren. Misschien dat ze nog wachten zolang de GTX680 niet ruim verkrijgbaar is.
Hopen dat de standaard 680's rond de 400 komen, en dan non reference designs rond de 450.
Dan wordt het wellicht wel aantrekkelijk om te upgraden vanaf een 6950.
Dat gaat niet lang duren, maandje of 1-2.Solictice schreef op maandag 26 maart 2012 @ 12:16:
[...]
Zou mooi zijn ja.
Hopen dat de standaard 680's rond de 400 komen, en dan non reference designs rond de 450.
Dan wordt het wellicht wel aantrekkelijk om te upgraden vanaf een 6950.
Nu al 444 euro.
Toch knap dat het al zo laag is aangezien alles kunstmatig hoog kan worden gehouden, wat me nog meevalt. Snap niet dat mensen zeuren om de 450 euro bedragen, zelfs in verhouding met de 580 is het dan opeens goed te doen... what you pay more is what you get more litteraly.
[ Voor 28% gewijzigd door A87 op 26-03-2012 12:43 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Dat de HD79xx en GTX680 kaarten goed zijn geprijst t.o.v. de GTX580 is niet bijzonder. Beter geprijst zijn dan de slecht geprijsde GTX580 maakt de HD79xx en GTX680 kaarten nog niet goed geprijst. Ook hier geldt dat je gewoon de hoofdprijs betaald als je het snelste van het snelste wilt hebben.
Dit is gewoon verreweg de beste keuze op dit moment.
Zelf ga ik waarschijnlijk de GK110 kopen, de geruchten zijn lovend over die kaart, ik ben zeer benieuwd wat dat gaat worden.
GTX480 was erger. Maar vergeleken met de AMD kaarten was de GTX580 ook te duur. Echter werden ze nog steeds massaal gekocht. Dus waarom zou nVidia dan de prijzen lager maken?madmaxnl schreef op maandag 26 maart 2012 @ 12:50:
GTX580 was een enorm slechte kaart voor zijn prijs, maar voor de snelste single GPU kaart betaal je gewoon de hoofdprijs. Frappant was wel dat als je voor twee kaarten ging je weer beter zat bij AMD i.v.m. het beter schalen van Crossfire en het hebben van 2GB geheugen per kaart.
Dat de HD79xx en GTX680 kaarten goed zijn geprijst t.o.v. de GTX580 is niet bijzonder. Beter geprijst zijn dan de slecht geprijsde GTX580 maakt de HD79xx en GTX680 kaarten nog niet goed geprijst. Ook hier geldt dat je gewoon de hoofdprijs betaald als je het snelste van het snelste wilt hebben.
Als je op zoek bent naar een kaart in het 400+ euro segment wel. Maar dat is maar een heel klein deel van de mensen. Daarnaast zou het mij niets verbazen als de prijzen van de AMD kaarten binnenkort veranderen.WilliamP schreef op maandag 26 maart 2012 @ 12:51:
444 euro... wauw, de 680 is nu al 3 tientjes goedkoper dan de 7970, én de 680 is sneller en stiller.
Dit is gewoon verreweg de beste keuze op dit moment.
Zelf ga ik waarschijnlijk de GK110 kopen, de geruchten zijn lovend over die kaart, ik ben zeer benieuwd wat dat gaat worden.
[ Voor 26% gewijzigd door Astennu op 26-03-2012 12:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 56% gewijzigd door -The_Mask- op 26-03-2012 13:30 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Hier eentje van een 10tje duurder dan de goedkoopste hd7970
http://www.alternate.nl/h...70_(21197-00-40G)/623762/?
Dat tientje extra is die gtx680 meer dan waard want hij is ook sneller.
Waar baseer je dat dan op prijs/verbruik (GTX580)madmaxnl schreef op maandag 26 maart 2012 @ 12:50:
GTX580 was een enorm slechte kaart voor zijn prijs, maar voor de snelste single GPU kaart betaal je gewoon de hoofdprijs. Frappant was wel dat als je voor twee kaarten ging je weer beter zat bij AMD i.v.m. het beter schalen van Crossfire en het hebben van 2GB geheugen per kaart.
Dat de HD79xx en GTX680 kaarten goed zijn geprijst t.o.v. de GTX580 is niet bijzonder. Beter geprijst zijn dan de slecht geprijsde GTX580 maakt de HD79xx en GTX680 kaarten nog niet goed geprijst. Ook hier geldt dat je gewoon de hoofdprijs betaald als je het snelste van het snelste wilt hebben.
[ Voor 58% gewijzigd door Verwijderd op 26-03-2012 13:42 ]
edit: pricewatch is geupdate
[ Voor 15% gewijzigd door superwashandje op 26-03-2012 13:42 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Hmm bij mijn selectie is wel anders, €471.superwashandje schreef op maandag 26 maart 2012 @ 13:42:
pricewatch geeft toch echt 433 voor de 7970 aan...goedkoper dus nog niet echt maar komt al wel in de buurt.
Kan je ons jou pricewatch link geven?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anders zou je ook nog kunnen denken dat omdat de prijs wel heel erg hard naar beneden gaat, de kaart blijkbaar toch niet goed ontvangen is
Ik zag verder al iemand dromen dat nVidia wel even 50 dollar winst zou kunnen pakken bij een prijs van 300 dollar, maar dat is allemaal wel heel erg optimistisch gedacht. Zo heel geweldig zijn de marges in de videokaart industrie voor consumentenkaarten nou ook weer niet. Als dergelijke winsten normaal waren, dan zou nVidia afgelopen financieel jaar wel zo'n 1.5 miljoen kaarten verkocht hebben. Klinkt niet als er veel en klinkt nog minder realistisch. Kijk anders nog eens naar de 'kosten per transistor' slide uit mijn eerdere post.