[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 25 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
het verschil tussen de 680 en 7970 in prestaties is ongeveer waar ik het verwachte. (iets positiever voor nvidia op 2560*..) Hetr verbruik valt me dan wel meer tegen gezien de hype die erover ging. soms meer soms minder dan de 7970. Als pure gamer chip is de 680 natuurlijk wel koning. Echter de combo van gaming en gpgpu.... laat nog maar eens zien hoe sterk de 7970 wel is voor zijn verbruik en die size.
Nvidia heeft er goed aan gedaan om hun 104 te opwaarderen tot en net voorbij het prestatie niveau van de 7970 en gpgpu laten vallen als een baksteen.
Daar is het grootste deel van het segment toch niets mee en zolang er geen nuttige gpgpu programmas komen voor de big majority is teveel focus hierop nadelig. (Voor AMD is dit wel belangrijker met hun fusion project).

Al bij al plezante suprise van nvidia. Terug concurrentie aan de top gaming end. Nu hopen dat AMD hun VCE in orde krijgen zodat ze mee kunnen concurreren met encoding.. (wat is de kwaliteit eigenlijk die kepler brengt hierin? vindt ik nergens terug).

Kijkend naar 680 en 7870 dan zie je eigenlijk pas hoe hard de gpgpu focus de gaming markt tegenhield.

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Wat is GPGPU?

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 19-09 19:33

superwashandje

grofheid alom

General Purpose Graphics Processing Unit? :)

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 19:05

Cheezus

Luiaard

Astennu schreef op donderdag 22 maart 2012 @ 18:13:
Petje af voor nVidia voor het neer zetten van deze kaart. Maar ik heb wel twee kanttekeningen:

1: GPU Turbo: Leuk idee maar zodra de belasting in games het zwaarste is en je op je min FPS zit wil je die OC eigenlijk hebben maar dan kan het zijn dat dat niet kan vanwegen het TDP dus krijg je veel meer variatie in de FPS. Max fps boeit helemaal niets min fps is veel belangrijker en daar na average. Min wil je zo hoog mogelijk hebben en de framerate in het geheel wil je relatief stabiel hebben. Ik vrees dat die GPU turbo dit juist niet doet.
Als je naar de review van HardOCP kijkt lijkt dat wel mee te vallen, de verschillen tussen min/max zijn ongeveer hetzelfde als bij andere kaarten. Ik vraag me af of die turbo wel zo dynamisch dat er per frame wordt geregeld, het lijkt me meer dat er naar de temperatuur of belasting gedurende een langere tijd wordt gekeken. Het is natuurlijk niet zo dat je videokaart meteen 10 graden opwarmt als ie even 10 zware frames heeft moeten renderen..

Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
Linustechtips heeft ook al een behoorlijke verdieping in de nieuwe kaart: YouTube: LinusTechTips

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Lekkere resultaten voor de graphic-whores onder ons :P :

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph5699/45147.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph5699/45148.png

SSAA FTW! >:)

Voor de rest: De kaart is zoals Anandtech het zegt, sneller, zuiniger en stiller dan de 7970 en dat voor een adviesprijs die tussen de 7970 en de 7950 in zit. Wat de uiteindelijke prijzen bij de winkels gaan worden is nog even afwachten, zelf verwacht ik vooral in het begin iets hoger dan de 7970 vanwege de verwachte vraag naar deze kaart.
Duidelijk is wel dat er in sommige games een memory bandwidth bottleneck optreedt, wat ook volgens mij de reden is dat de kaart niet nog overtuigender wint van de 7970 dan die al doet.

Als de GTX680 dan nog vergeleken wordt met de GTX580 is het imho echt een hele grote sprong vooruit. Naast dat hij een stuk beter presteert is de kaart op alle andere onderdelen als verbruik en temps een stuk beter en volgens mij is het lang geleden dat er op al die punten zo een vooruitgang is geboekt vergeleken met de vorige high-end.

Enige waar de GTX680 niet in uitblinkt is gpgpu (wat mij als gamer ook amper interesseert), alhoewel de performance van de verschillende videokaarten sterk verschilt per benchmark, mooi voorbeeld hiervan:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph5699/45165.png

Ik als BF3 "fan" krijg iig spontaan een warm gevoel van binnen als ik dit soort resultaten zie O+
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph5699/45151.png

[ Voor 8% gewijzigd door Tyranium op 22-03-2012 19:16 ]


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21
Waarom is er eigenlijk nog geen review van tweakers? Inclusief mooie thermische plaatjes :>

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 19:21

Tomas Hochstenbach

Redacteur componenten
NVIDIA heeft sinds een paar launches maar 1 sample voor de Benelux ;).

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Anandtehch is de enige met derglijk grote verschillen..

Wel een mooi stukje gelezen over turboboost van nvidia... Namelijk die stopt niet op 1056MHz.. maar kan tot 1300MHz(mss zelfs hoger, dat is de hoogst gezien atm) gaan maar kan die niet sustainen. Dus afhangend van de kaart die je koopt en hebt kan je bij een zeer goede kaart veel tegen 1300MHz lopen en bij een slechte tegen de 1056MHz. Waarschijnlijk zien we daardoor een vrij grote variatie tussen verschillende reviews.

Hiermee wil ik ook even aangeven dat overclocken een zeer kleine impact gaat hebben bij goede chips itt tot AMD die op een constante snelheid draait.

Zeer kutmanier om resultaten te vergelijken en te weten hoeveel variatie er is tussen de chips die je koopt. Wel zeer leuke manier om zoveel mogelijk uit je videokaart te halen. Hiermee heeft nvidia een goede zet gedaan en mss wel de volgende stap in grafische prestaties gebracht. (Natuurlijk zijn we nu dan wel kepler van mss 1200MHz aan hetvergelijken met een 7970 op 925MHz, maar dat is natuurlijk het stock/geluk voordeel dat nvidia zichzelf gegeven heeft hiermee).

Note: overclocken op de chip zorgt gewoon voor een hogere variatie tussen de lowest clock en de hoogste!! dus een oc van 1065 naar 1300 kan overall 5% opbrengen afhangend van je chip of kan zeer veel opbrengen als de chip ervoor vastzat op 1056MHz in dat spel/game.

[ Voor 44% gewijzigd door Devpartner op 22-03-2012 19:27 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Devpartner schreef op donderdag 22 maart 2012 @ 19:18:
Anandtehch is de enige met derglijk grote verschillen..
Ik heb nog niet alle reviews gelezen die er zijn, maar bij HWI bijvoorbeeld zijn de verschillen echt niet minder. Daarnaast staat Anandtech bij mij iig als 1 van de beste reviewsites te boek, zo niet dé beste (wat overigens niet hetzelfde is als meest uitgebreide..), dus als een andere site minder grote verschillen laat zien dan Anandtech twijfel ik persoonlijk eerder aan die andere site..

Edit:
Net bij HWI gelezen dat met de nieuwe surround methode van nvidia je dus 3 schermen aan kan sluiten zonder dat het nodig is om schermen met een displayport te kopen. Dit maakt de techniek imho toch weer net wat bruikbaarder.

[ Voor 17% gewijzigd door Tyranium op 22-03-2012 19:32 ]


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Tyranium schreef op donderdag 22 maart 2012 @ 19:28:
[...]

Ik heb nog niet alle reviews gelezen die er zijn, maar bij HWI bijvoorbeeld zijn de verschillen echt niet minder. Daarnaast staat Anandtech bij mij iig als 1 van de beste reviewsites te boek, zo niet dé beste (wat overigens niet hetzelfde is als meest uitgebreide..), dus als een andere site minder grote verschillen laat zien dan Anandtech twijfel ik persoonlijk eerder aan die andere site..

Edit:
Net bij HWI gelezen dat met de nieuwe surround methode van nvidia je dus 3 schermen aan kan sluiten zonder dat het nodig is om schermen met een displayport te kopen. Dit maakt de techniek imho toch weer net wat bruikbaarder.
HardOcp, hardware.fr, techpowerup, ...

je mist ook het punt... dat de prestaties volledig afhangen van turbo op de 680 en die varieert enorm van model tot model. Die turbo is dus enorm goed in het omhoog halen va de prestaties, dus een zeer goede evolutie. Maar het verkracht overclockresultaten (want die werken op turbo niet op base clock) en een goede vergelijking. (e.g. je hebt eigenlijk een hele batch nodig voor een average performance punt te kunnen zetten).

[ Voor 14% gewijzigd door Devpartner op 22-03-2012 19:38 ]


Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
nvm.

[ Voor 98% gewijzigd door rickyy op 22-03-2012 19:40 ]

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Devpartner schreef op donderdag 22 maart 2012 @ 19:36:
[...]


HardOcp, hardware.fr, techpowerup, ...

je mist ook het punt... dat de prestaties volledig afhangen van turbo op de 680 en die varieert enorm van model tot model. Die turbo is dus enorm goed in het omhoog halen va de prestaties, dus een zeer goede evolutie. Maar het verkracht overclockresultaten (want die werken op turbo niet op base clock) en een goede vergelijking. (e.g. je hebt eigenlijk een hele batch nodig voor een average performance punt te kunnen zetten).
Verschil zal er inderdaad kunnen onstaan door die turboboost. Maar aangezien de gemiddelde boost 5% boven de baseclock is, zullen de verschillen tussen verschillende kaarten niet in de tientallen procenten lopen lijkt mij. :)

Edit: Tientallen procenten is misschien een beetje overdreven, wat ik bedoel is dat het verschil niet significant zal zijn.

Edit 2: Om niet alleen Anandtech te linken ;) :
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_6_5.gif

Wellicht een mooie voor de volgende first post :+

[ Voor 16% gewijzigd door Tyranium op 22-03-2012 20:01 ]


Acties:
  • 0 Henk 'm!

  • el-jorge
  • Registratie: Maart 2005
  • Laatst online: 18-09 11:20

el-jorge

turn around and feel the vibe

Een seasonic 560W uit de x-series, modulair met een 80plus gold label icm i2500K@4,3ghz gaat de GTX680 nog wel trekken toch?

Spielerei...


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Ja.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 19-09 19:06

edward2

Schieten op de beesten

Tyranium schreef op donderdag 22 maart 2012 @ 19:42:
[...]

Verschil zal er inderdaad kunnen onstaan door die turboboost. Maar aangezien de gemiddelde boost 5% boven de baseclock is, zullen de verschillen tussen verschillende kaarten niet in de tientallen procenten lopen lijkt mij. :)

Edit: Tientallen procenten is misschien een beetje overdreven, wat ik bedoel is dat het verschil niet significant zal zijn.

Edit 2: Om niet alleen Anandtech te linken ;) :
[afbeelding]

Wellicht een mooie voor de volgende first post :+
Voor zover ik weet doet AMD geen adaptive SSAA en is het gewoon fullscene SGSSAA, dus die vergelijking is een beetje vreemd van Kyle, full scene is veel zwaarder dan TRSSAA.

Desalniettemin heeft nV een heel mooie chip neergezet, die vaak net wat sneller is dan de HD7970 tot 2500x1600, maar zeker niet overal en op zeer hoge res. neemt de HD7970 het zoals verwacht min of meer over.

Nog een paar reviews:

http://www.pcgameshardwar...r-GK104/Grafikkarte/Test/

http://www.hardwareheaven...-review-introduction.html

http://www.hardware.fr/ar...geforce-gtx-680-test.html

http://www.xbitlabs.com/a...idia-geforce-gtx-680.html

[ Voor 15% gewijzigd door edward2 op 22-03-2012 20:18 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Tyranium schreef op donderdag 22 maart 2012 @ 19:42:
[...]

Verschil zal er inderdaad kunnen onstaan door die turboboost. Maar aangezien de gemiddelde boost 5% boven de baseclock is, zullen de verschillen tussen verschillende kaarten niet in de tientallen procenten lopen lijkt mij. :)

Edit: Tientallen procenten is misschien een beetje overdreven, wat ik bedoel is dat het verschil niet significant zal zijn.

Edit 2: Om niet alleen Anandtech te linken ;) :
[afbeelding]

Wellicht een mooie voor de volgende first post :+
1300 is dichter bij 30% dan 5% hoor. (en nee 1056 is niet de max boost, toch niet hetgeen ik gelezen heb.. die boost zit naar 1150 en 1250 in vele gevallen.

Acties:
  • 0 Henk 'm!

  • Cliors40
  • Registratie: November 2008
  • Laatst online: 13-09 23:29
Ik weet niet of deze review hier al is voorbij gekomen.
http://vr-zone.com/articl...me-lose-some/15322-1.html
Bij deze review zijn ze allebei flink overgeklokt ( Gtx 680 1335/1800 & HD7970 1250/1870 )
Geeft toch wat andere resultaten als allebei stock.
Verschillen worden kleiner

[ Voor 19% gewijzigd door Cliors40 op 22-03-2012 20:26 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

edward2 schreef op donderdag 22 maart 2012 @ 20:12:
[...]


Voor zover ik weet doet AMD geen adaptive SSAA en is het gewoon fullscene SGSSAA, dus die vergelijking is een beetje vreemd van Kyle, full scene is veel zwaarder dan TRSSAA.

Desalniettemin heeft nV een heel mooie chip neergezet, die vaak net wat sneller is dan de HD7970 tot 2500x1600, maar zeker niet overal en op zeer hoge res. neemt de HD7970 het zoals verwacht min of meer over.
Dat plaatje was ook niet serieus bedoeld, het was wel duidelijk dat er iets mis ging met de 7970. Dank iig voor de uitleg. :) Desondanks doet de GTX680 het erg netjes met SSAA ingeschakeld, ondanks de kleinere memorybus imho.

Wat betreft resoluties boven 1080p ben ik het niet helemaal met je eens. De GTX680 'kakt' wat meer in dan de 7970, maar de absolute performance is gewoon goed te noemen. De conclusie van Hocp in dit geval vind ik wel een goede:
While gaming at 2560x1600 was fantastic, we wanted to push the video card to its limits, and so next we configured an NV Surround triple-display configuration and gamed on three displays from the single GeForce GTX 680. We wanted to be able to run at the native resolution of 5760x1200 and compare the performance to the Radeon HD 7970. We figured if any resolution is going to show the advantages of AMD's memory capacity and memory bandwidth edge it would be 5760x1200. We were absolutely surprised that the GeForce GTX 680 had no trouble keeping pace with the Radeon HD 7970 at 5760x1200. We thought this is the resolution we might see the GTX 680 bottleneck, but to our surprise no bottlenecks were experienced
Devpartner schreef op donderdag 22 maart 2012 @ 20:16:
[...]

1300 is dichter bij 30% dan 5% hoor. (en nee 1056 is niet de max boost, toch niet hetgeen ik gelezen heb.. die boost zit naar 1150 en 1250 in vele gevallen.
Mag ik vragen waar je die 1300 vandaan haalt? Als ik de review van Anandtech mag geloven is dat op overclock settings. Op standaard settings kan de turboboost tot zo'n 1100mhz gaan, waar het gemiddelde 1050mhz is volgens nVidia.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:34

XanderDrake

Build the future!

Wow, wat een feest, wat een goede prestaties :)

Nu nog goedkoper en ik ben van de partij.

Grappig dat voor de AMD mensen nu ineens GPGPU aangehaald wordt ;) De rollen zijn letterlijk omgedraaid.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
HardOcp is de gemakkelijkste: first page:
Since the TDP of this video card is 195W, there might be some games that don't come close to tapping the full power of this video card. In these lower powered games, the GeForce GTX 680 is able to raise the GPU frequency to give you better performance until it reaches TDP. This means the GPU clock speed could increase from 1006MHz to 1.1GHz or 1.2GHz or potentially even higher. (Kyle saw a GTX 680 sample card reach over 1300MHz running live demos but it could not sustain this clock.) The actual limit of the GPU clock is unknown. As each video card is different, and with the addition of custom cooling, your maximum GPU Boost clock speed could be anything…within reason. This is going to make overclocking, and finding the maximum overclock a bit harder.


GPU Boost is guaranteed to hit 1058MHz in most games. Typically, the GPU will be going much higher. We experienced clock speeds in demo sessions that would raise to 1.150GHz and even 1.2GHz in such games as Battlefield 3.
Dus zeer variabel. het slechts zit je op 1058 en het best atm op 1300 wat toch snel 20% verschil gaat leveren op dat moment.
note: ik vind dat een fantastisch concept en het lijkt enorm goed te doen waarvoor het ontwikkeld is. Maar het is niet meer zo zwart wit (e.g. zoals Kyle al aangaf voor release) als vroeger.

[ Voor 7% gewijzigd door Devpartner op 22-03-2012 21:09 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
20% in kloksnelheid maar zeker niet 20% in fps winst. Wordt de videokaart echt zwaar belast gaat die langzamer draaien. GPU boost vind ik dan ook een vrij slechte naam. (pure marketings naam) Als het nodig is klokt die eerder naar beneden in plaats van omhoog. :p Is gewoon een dynamische kloksnelheid.

[ Voor 3% gewijzigd door -The_Mask- op 22-03-2012 21:09 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
XanderDrake schreef op donderdag 22 maart 2012 @ 20:54:
Wow, wat een feest, wat een goede prestaties :)

Nu nog goedkoper en ik ben van de partij.
Vooral wisselende prestaties, per review. Hardware.fr zat er goed op, afhankelijk van de chip op de kaart die je koopt, kun je hele mooie prestaties krijgen, of prestaties die niet in de buurt komen van sommige reviews, omdat je een 'slechte' chip op de kaart hebt. De effiecientie van GF114 heeft nVidia in ieder geval op goede manier weten door te zetten, waardoor ze niet langer ver achter lopen op AMD.
Grappig dat voor de AMD mensen nu ineens GPGPU aangehaald wordt ;) De rollen zijn letterlijk omgedraaid.
Tsja, als je het jarenlang om de oren gesmeten krijgt, dan ga je er vanzelf ook over praten ;)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Devpartner schreef op donderdag 22 maart 2012 @ 21:03:
HardOcp is de gemakkelijkste: first page:

[...]


Dus zeer variabel. het slechts zit je op 1058 en het best atm op 1300 wat toch snel 20% verschil gaat leveren op dat moment.
Ik denk dat we pas een duidelijk antwoord hierop krijgen als er wat meer gebruikerservaringen komen van retail kaarten. In dat stukje van hocp staat namelijk niet of ze het tdp hebben verhoogt of niet, dit laat namelijk inderdaad een hogere boostclock toe. (een beetje zoals AMD's Powertune). :)

Edit:
dahakon schreef op donderdag 22 maart 2012 @ 21:12:
[...]


Vooral wisselende prestaties, per review. Hardware.fr zat er goed op, afhankelijk van de chip op de kaart die je koopt, kun je hele mooie prestaties krijgen, of prestaties die niet in de buurt komen van sommige reviews, omdat je een 'slechte' chip op de kaart hebt. De effiecientie van GF114 heeft nVidia in ieder geval op goede manier weten door te zetten, waardoor ze niet langer ver achter lopen op AMD.
Er zullen vast en zeker enige verschillen in de prestaties per review zijn, maar volgens mij is de algemene conclusie toch aardig gelijk.

[ Voor 36% gewijzigd door Tyranium op 22-03-2012 21:17 ]


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
-The_Mask- schreef op donderdag 22 maart 2012 @ 21:08:
Als het nodig is klokt die eerder naar beneden in plaats van omhoog.
Hoe kom je daar bij? Volgens mij doe je verkeerde aannames over oorzaken van 'lage' performance.

Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 09-07 02:45
Devpartner schreef op donderdag 22 maart 2012 @ 21:03:
Dus zeer variabel. het slechts zit je op 1058 en het best atm op 1300 wat toch snel 20% verschil gaat leveren op dat moment.
note: ik vind dat een fantastisch concept en het lijkt enorm goed te doen waarvoor het ontwikkeld is. Maar het is niet meer zo zwart wit (e.g. zoals Kyle al aangaf voor release) als vroeger.
Het probleem is wel dat als de meeste review samples cherry picked zijn dat het dus een vertekend beeld heeft over de performance. Je weet ook niet wat voor performance je krijgt wanneer je de kaart koopt, enkel het minimum. Ik denk daarom ook dat een OC'd 7970 in de meeste gevallen sneller zal zijn dan de meeste GTX 680's (al dan niet OC'd).

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
een oced 7970 is idd sneller algemeen. ook te verwachten natuurlijk, want bij 7970 overclocken neem je alles mee ipv een grotere spread zoals bij de 680.
Maar natuurlijk is de oc van de 7970 of de 680 ook geen garantie en niet iedereen clockt hun gpu over. Dus in dat opzicht haal t een stock 680 er veel meer uit wat erin zit dan de 7970.

Het enigste wat je in de reviews met zekerheid kan zeggen is dat 1080p de 680 de sterkste is. ongeacht de turbostelling. bij 2560+AA zijn ze gelijkwaardig en waarschijnlijk gaat het daar afhangen van de turbo wie er de snelste is.

Either way als ze dezelfde prijs hebben zou ik de 7970 aanprijzen. Als de 7970 duurder is de 680. (tenzij die persoon gpgpu apps gebruikt).

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Olaf van der Spek schreef op donderdag 22 maart 2012 @ 21:31:
[...]

Hoe kom je daar bij? Volgens mij doe je verkeerde aannames over oorzaken van 'lage' performance.
Kwestie van logisch nadenken. Als de videokaart het zwaarst belast wordt stijgt de temp en verbruik en gaat de kloksnelheid dus omlaag. Of te wel op het moment dat het het meest nodig is klokt die terug. Daarom GPU boost is een slechte naam en meer voor marketing.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Net als bij CPUs heb je ook bij GPUs workloads die niet alle 'rekeneenheden' gebruiken. Om die reden is iets als Furmark een veel zwaardere belasting dan games, maar ook tussen games zitten verschillen.
Dat niet alle rekeneenheden worden gebruikt betekent niet dat wat extra snelheid niet handig zou zijn. Sterker nog, extra snelheid is dan juist handig.
AMD heeft toch ook PowerTune? Werkt iets anders, maar is wel iets in dezelfde richting.

[ Voor 11% gewijzigd door Olaf van der Spek op 22-03-2012 21:54 ]


Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 07:32

mrc4nl

Procrastinatie expert

is er eigelijk al een 600 serie ervaringen en discussie topic?

ora et labora


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Van welke ervaringen? :P Al moet ie wel komen ja... :)

[ Voor 38% gewijzigd door Paprika op 22-03-2012 22:12 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Olaf van der Spek schreef op donderdag 22 maart 2012 @ 21:53:
Net als bij CPUs heb je ook bij GPUs workloads die niet alle 'rekeneenheden' gebruiken. Om die reden is iets als Furmark een veel zwaardere belasting dan games, maar ook tussen games zitten verschillen.
Dat niet alle rekeneenheden worden gebruikt betekent niet dat wat extra snelheid niet handig zou zijn. Sterker nog, extra snelheid is dan juist handig.
AMD heeft toch ook PowerTune? Werkt iets anders, maar is wel iets in dezelfde richting.
Nee, is iets totaal anders.

GPU Boost is een load-balanced clock-speed. Minder load? Kloksnelheden omhoog. Het is niet zo goed als Intel's Turbo, omdat ongebruikte cores niet worden uitgeschakeld.

Met Powertune verleg je de bovengrens van het stroomverbruik. Waar hij soms wellicht gaat throttlen bij 100% usage omdat het stroomverbruik te hoog wordt, kun je dat met Powertune voorkomen. Powertune verandert niets aan kloksnelheden of wat dan ook, verlegt alleen de throttle grens.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op donderdag 22 maart 2012 @ 22:13:
Powertune verandert niets aan kloksnelheden of wat dan ook, verlegt alleen de throttle grens.
En wat dacht je dat throttlen effectief doet dan?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Zijn er overigens nog goede 3-monitor reviews online gezet?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Niet de kloksnelheden verhogen als load laag is; alleen kloksnelheid terug zetten naar stock wanneer load ONDER de grens valt.

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Paprika schreef op donderdag 22 maart 2012 @ 22:24:
Zijn er overigens nog goede 3-monitor reviews online gezet?
Ja, check hardware.info

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Goede... :P

Nvm, Hardwareheaven (http://www.hardwareheaven...-review-introduction.html) is er weer bij. Zonder min-FPS is het geen review maar een Fraps-FPS dump.

[ Voor 14% gewijzigd door Paprika op 22-03-2012 22:28 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Bedankt :). Dat is dan weer wel een goede.

Afbeeldingslocatie: http://vipeax.org/03Y4E2g422h30Z.png
Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-680/GTX-680-84.jpg

Zo scheelt het wel natuurlijk (instellingen + OC).
The implementation of hardware monitoring and power/performance balancing doesn't negatively impact framerates though and at 1920x1080 the GTX 680 almost always exceeds the performance of a reference clocked 7970, in fact it tends to match or exceed the 7970 running at its maximum rate for air cooling. At 5760x1080 the result is a little less clear cut though. The GTX 680 still performs well and does win in some benchmarks but generally it offers similar performance to a reference 7970 rather than exceeding that level.
Blijft lastig. :/

[ Voor 124% gewijzigd door Paprika op 22-03-2012 22:31 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_10_1.gif

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_10_2.gif

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_10_3.gif

Ik zou een HD7970 nemen voor Eyefinity/Surround omdat er meer winst te halen is met overklokken. :)

[ Voor 15% gewijzigd door -The_Mask- op 22-03-2012 22:38 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 16:54
Feit is gewoon, dat de 680 sneller is dan de 7970 zelfs op de hogere resoluties kan hij meekomen een is hij gemiddeld sneller, dus zelfs met de gelimiteerde bandbreedte. Wel vindt ik het nieuwe overclocken minder fijn, zoals al gesteld wordt gaat bij een hogere temp de clocks omlaag, dat is dus een beetje jammer als je juist meer clock speed nodig hebt. Echter werkt het systeem wel iets anders want ze willen berekenen wanneer de overclock nodig is. Los hiervan wat alle reviews zeggen is de 680 is de betere keus goedkoper en sneller. Logisch en we gaan zien wat er allemaal mogelijk wordt met dit dynamisch overclocken (dus limieten eraf halen bios flash etc etc.)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
@TheMask,
bedankt. Private held.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Jasper 99 schreef op donderdag 22 maart 2012 @ 22:36:
zoals al gesteld wordt gaat bij een hogere temp de clocks omlaag, dat is dus een beetje jammer als je juist meer clock speed nodig hebt
Nee. Als jij je GPU op 1200 klokt neemt hij *dat* als ondergrens, Boost werkt daar nog eens bovenop.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 16:54

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op donderdag 22 maart 2012 @ 22:25:
Niet de kloksnelheden verhogen als load laag is; alleen kloksnelheid terug zetten naar stock wanneer load ONDER de grens valt.
Dus kloks verhogen als load laag is? :p

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Dat is zeker niet slecht. Tijd voor een 6XX-serie prijzen topic? :+ Kan hem eventueel zelf wel maken morgen. :>

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Gezien de prijs ben je dus eigenlijk beter af met 2 HD7850's (al dan niet met 200MHz overclock) in crossfire ;) .

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Olaf van der Spek schreef op donderdag 22 maart 2012 @ 23:01:
[...]

Dus kloks verhogen als load laag is? :p
Houdt eens op met m'n woorden te verdraaien, want volgens mij weet je dondersgoed hoe het werkt ;)

Met willekeurige cijfers:
- Clock = 1000
- Throttle grens is 200W -> met 100% load haalt ie 220W dus gaat de clock omlaag tot hij op die 200W zit.
- Met Powertune op 10% zou hij hier niet throttlen en gewoon op 1000 blijven draaien. Met Powertune op 20% zou hij ook gewoon op 1000 blijven draaien.

Nu voor GPU Boost:
- Clock = 1000
- Throttle grens is 200W
- GPU load is maar 60% (en verbruik dus < 200W) dus hij springt naar 1050
- GPU load stijgt naar 80%, dus hij zakt naar 1030
- GPU load zakt naar 70%, dus hij stijgt naar 1040
- GPU load stijgt naar 90%, dus hij zakt naar 1000
- GPU load stijgt naar 100% waardoor hij over de 200W gaat -> Throttling nog steeds actief, dus hij gaat onder de 1000 zitten.

Kleine opmerking: het draait niet echt om het verbruik waardoor hij throttled, maar de temperatuur; die laatste is echter direct aan de eerste gerelateerd, vandaar dat ik het op deze manier presenteer. Zijn ook allemaal, stuk voor stuk, volledig fictieve waarden ;)

Met GPU load stijgt het verbruik ook en ik gok dat ze intern een combinatie van de twee meetwaarden nemen om de "hoeveelheid Boost" te bepalen. Punt is echter dat Powertune die throttle grens verlegt, Boost doet dat niet. Boost aan de andere kant gaat boven de stock clock zitten om toch iets meer performance uit die half gebruikte chip te persen. Is op zich mooi, hoewel ik persoonlijk niet warm of koud wordt van 50 MHz als je handmatig zomaar even 250 of meer er op kan gooien ;)


Zit toch echt een fundamenteel verschil in het doel van beide technieken hoor. In een zin: het doel van Powertune is throttling te vermijden, terwijl Boost meer performance uit de kaart perst wanneer het stroomverbruik het toelaat - echter verlegt deze laatste niet de grens waarop hij throttled en maakt het dus geen donder uit of Boost actief is of niet als je deze grens bereikt, omlaag gaat hij toch.

Overigens liggen deze throttle grenzen aardig hoog, ik heb m'n 6950 in elk geval nog nooit aan het throttlen gekregen buiten Furmark :)

[ Voor 3% gewijzigd door Werelds op 22-03-2012 23:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Uiteindelijk vind ik de prestaties nog best knap. Lees her en der (op HWI) best wat negatieve reacties, maar die vind ik niet helemaal gegrond. Men weet ~35% betere prestaties neer te zetten met een gpu die 40% kleiner is dan de GF110. Dat deze sprong bij AMD kleiner is (~40% winst t.o.v. de HD6970, maar een 5% kleinere die), is ook wel weer logisch omdat AMD juist veel gpgpu performance heeft toegevoegd en Nvidia deze sterk heeft teruggebracht.
De rollen zijn dus eigenlijk (voorlopig) omgedraaid, Nvidia de efficiënte 'game' gpu; klein, maar gemiddeld meer performance en minder verbruik. AMD iets groter, maar dus ook meer gpgpu performance.

Zoals ik eerder al zie denk ik dat die gpgpu performance bij de GK110 weer hersteld zal zijn. Die gpu zal dan ook wel sneller zijn op game-gebied, maar vooral zeer veel beter/sneller op gpgpu gebied.

Ik denk dat dit best wel een slimme strategie is. Eerder hadden ze voor de high-end game-markt dezelfde 'onhandig' grote gpu in gebruik als voor de gpgpu markt. Nu lijken ze een veel betere marge te hebben op hun 'game' kaarten. De GTX680 lijkt redelijk goedkoop te zijn om te produceren, men heeft immers een (veel) kleinere die, kleinere bus t.o.v. de GTX580. Marge per kaart lijkt me veel hoger te kunnen liggen dan de GF110 (los gezien van potentiële waferprijs stijgingen).

Het is verder even afwachten wat de prijzen gaan doen, maar zal denk ik al snel rond de ~450,- gaan zitten, of misschien nog wel tikkie lager. Vergeleken met de HD7970 is dat heel netjes, die kaart lijkt dan alleen nog maar interessanter te zijn als men op meerdere monitoren wil gamen én wil overclocken. Op reso's tot 1600p lijkt me de GTX680 straks de betere keuze.

Wel stom, is deze kaart er eindelijk, ben je eigenlijk gelijk alweer nieuwschierig naar de HD7870 concurrent en eigenlijk al helemaal naar de HD7850 concurrent, omdat dit voor velen toch de iets interessantere prijsklasses zijn.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Afbeeldingslocatie: http://vipeax.org/03G5M8H523z29T.png

Memory drama?

Acties:
  • 0 Henk 'm!

Verwijderd

SLI is leuk, maar daarna houdt het op... Er is nog wel erg veel te doen qua driversupport en zoals Vipeax al aanstipt lijkt het zo te zijn dat er een geheugen tekort is. Teveel gpu-power welke niet meer kan weggeschreven worden naar het geheugen wat al vol zit...

EDIT; welterusten... ;)

[ Voor 4% gewijzigd door Verwijderd op 23-03-2012 00:37 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Maareh.. HWI: exciting results? Valt wel mee toch :?

Acties:
  • 0 Henk 'm!

  • HMeijer
  • Registratie: Mei 2008
  • Laatst online: 23-12-2023
Hetzelfde zie je ook terug in de BF3 benchmark. Zodra je én op triple-HD én ultra 4x AA gaat spelen, is de 256-bit geheugencontroller en 2 GB geheugen toch echt te weinig geworden. Drivers kunnen wel het één en andere verbeteren, maar niet dat alle kaarten "slechts" 2 GB hebben. Voor de volgende generatie games heb je daarom meer aan een Radeon HD 7970 met 3 GB als je drie schermen hebt.

[ Voor 3% gewijzigd door HMeijer op 23-03-2012 00:38 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:13
Er schijnen ook 4GB 680's te komen, de bandbreedte zal misschien wel een beetje een bottleneck blijven, maar iig niet snel out of memory dan :P

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 16:54
HMeijer schreef op vrijdag 23 maart 2012 @ 00:38:
Hetzelfde zie je ook terug in de BF3 benchmark. Zodra je én op triple-HD én ultra 4x AA gaat spelen, is de 256-bit geheugencontroller en 2 GB geheugen toch echt te weinig geworden. Drivers kunnen wel het één en andere verbeteren, maar niet dat alle kaarten "slechts" 2 GB hebben. Voor de volgende generatie games heb je daarom meer aan een Radeon HD 7970 met 3 GB als je drie schermen hebt.
uhm... ja en nee bij crysis 2 is de 680 veel sneller op die resolutie etc etc. Ja het kon meer zijn maar alle mensen die hierover begonnen zijn na de reviews een beetje op hun plek gezet zou je niet zeggen..
(lees maar gerust de reviews bv: While gaming at 2560x1600 was fantastic, we wanted to push the video card to its limits, and so next we configured an NV Surround triple-display configuration and gamed on three displays from the single GeForce GTX 680. We wanted to be able to run at the native resolution of 5760x1200 and compare the performance to the Radeon HD 7970. We figured if any resolution is going to show the advantages of AMD's memory capacity and memory bandwidth edge it would be 5760x1200. We were absolutely surprised that the GeForce GTX 680 had no trouble keeping pace with the Radeon HD 7970 at 5760x1200. We thought this is the resolution we might see the GTX 680 bottleneck, but to our surprise no bottlenecks were experienced. )


vooral txaa e.d. maakt deze kaart een veel interresante keus maar je mag best een 7970 kopen als je wilt hoor, is alleen niet de beste koop ook dus lang niet altijd met 3 schermen.

[ Voor 32% gewijzigd door Jasper 99 op 23-03-2012 01:45 ]


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op donderdag 22 maart 2012 @ 23:19:
Houdt eens op met m'n woorden te verdraaien, want volgens mij weet je dondersgoed hoe het werkt ;)
Ik wel. Maar jij zei toch net: "Powertune verandert niets aan kloksnelheden of wat dan ook, verlegt alleen de throttle grens."?
Nu kom je met een heel verhaal dat Powertune wel clocks veranderd (wat waar is).
Zit toch echt een fundamenteel verschil in het doel van beide technieken hoor. In een zin: het doel van Powertune is throttling te vermijden, terwijl Boost meer performance uit de kaart perst wanneer het stroomverbruik het toelaat - echter verlegt deze laatste niet de grens waarop hij throttled en maakt het dus geen donder uit of Boost actief is of niet als je deze grens bereikt, omlaag gaat hij toch.
Volgens mij is het doel toch echt in beide gevallen hetzelfde: zoveel mogelijk performance binnen een bepaald power budget. De implementatie is inderdaad iets anders. nV kiest voor altijd zo hoog mogelijke clocks, AMD kiest meer voor standaard (hoge) clocks, tenzij het niet anders kan. Mij lijkt de keuze van nV beter, aangezien ze dichter en vaker bij de grens zitten.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Tyranium schreef op donderdag 22 maart 2012 @ 19:42:
[...]

Verschil zal er inderdaad kunnen onstaan door die turboboost. Maar aangezien de gemiddelde boost 5% boven de baseclock is, zullen de verschillen tussen verschillende kaarten niet in de tientallen procenten lopen lijkt mij. :)

Edit: Tientallen procenten is misschien een beetje overdreven, wat ik bedoel is dat het verschil niet significant zal zijn.

Edit 2: Om niet alleen Anandtech te linken ;) :
[afbeelding]

Wellicht een mooie voor de volgende first post :+
Als je een onrealistisch beeld weel schetsen wel je ;w

Tripple en Quad SLI valt me trouwens behoorlijk tegen. Het lijkt er op dat AMD dat gewoon beter op orde heeft. Daar is Tripple CF nog echt interessant.
HMeijer schreef op vrijdag 23 maart 2012 @ 00:38:
Hetzelfde zie je ook terug in de BF3 benchmark. Zodra je én op triple-HD én ultra 4x AA gaat spelen, is de 256-bit geheugencontroller en 2 GB geheugen toch echt te weinig geworden. Drivers kunnen wel het één en andere verbeteren, maar niet dat alle kaarten "slechts" 2 GB hebben. Voor de volgende generatie games heb je daarom meer aan een Radeon HD 7970 met 3 GB als je drie schermen hebt.
Met drie schermen misschien. Al vraag ik me af of het echt zo veel verschil maakt. De HD69xx had niet heel veel baat bij z'n 2GB hier en daar wel maar lang niet alle games. Dus laat staan alles boven de 2GB.
AMD is voor 3GB gegaan omdat ze anders 1,5 zouden hebben dan dat is voor een next gen kaart wel weinig. GTX580 zat hier en daar ook tegen zijn geheugen limiet aan. Met 2GB heb je toch 25% extra ruimte.

Persoonlijk denk ik dat het nu wel mee valt misschien dat je er in bepaalde gevallen wel merkbare verschillen uit kan halen. Maar 3 schermen met AA voor BF3 dan heb je het toch echt al over een SLI setup een single kaart haalt dat niet. Maar goed dan kan geheugen misschien wel een bottelnek worden.
De reviews zullen het tegen die tijd wel laten zien.

[ Voor 51% gewijzigd door Astennu op 23-03-2012 07:31 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:34

XanderDrake

Build the future!

-The_Mask- schreef op donderdag 22 maart 2012 @ 22:36:
Ik zou een HD7970 nemen voor Eyefinity/Surround omdat er meer winst te halen is met overklokken. :)
Quote van Techpowerup:
Maximum stable clocks of our card are 1159 MHz GPU / +153 MHz clock offset (15% overclock) and 1833 MHz Memory (22% overclock). (HD 7970 review: +16% / +25%)
Zo groot is de OC winst van een HD 7970 ook weer niet in vergelijking met de GTX 680. Als je rekening houdt met het feit dat de GTX 680 zeker bij BF3 vaak een paar FPS sneller is en meer netto wint met een OC bij deze game, kan je stellen dat jou bovenstaande stelling eigenlijk preken voor eigen kerk is ;)
Niet dat daar iets mis mee is. Maar MIJ haal je er niet mee over.

Sterker nog, ik zeg haal de GTX 680, ook voor Surround + OC, want over twee weken is deze kaart waarschijnlijk goedkoper te krijgen en het energie verbruik is net wat lager in-game en bij het kijken van een HD film.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:34

XanderDrake

Build the future!

Gezien de schaling van de SLI opstelling: driver/optimalisatie issue?
No way dat een hele extra GTX 680 slechts 2 FPS meer kan bieden, zelfs met de bandwidth limitation.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Bij EVGA hebben ze met een GTX680 1900 MHz core en 3500 MHz voor het geheugen gehaald.
Hiervoor werden wel extreme mods uitgevoerd. (aanpassingen aan de VRM's met een extra stroom module) en natuurlijk LN2 cooling. Maar des al niet te min een heel mooi resultaat.

Afbeeldingslocatie: http://overclockingpin.com/15327-single-gtx680-WR.jpg

Afbeeldingslocatie: http://overclockingpin.com/2/cards.jpg

Dit is wel bij EVGA in house. Dus je kunt verwachten dat dit echt de beste samples zijn :)

[ Voor 33% gewijzigd door Astennu op 23-03-2012 08:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Steyn_E
  • Registratie: Oktober 2010
  • Laatst online: 11-09 15:16
Houd er ook even rekening mee dat de drivers van nVidia nog niet geoptimaliseerd zijn voor de GTX 680, en dat triple of quad SLI nou niet het meeste aandacht krijgt. Voor die multimonitor setups zou ik wachten tot de drivers in een volgend stadium zijn. De prestaties zullen dan in veel meer spellen ook omhoog gaan.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
steyn.elgersma schreef op vrijdag 23 maart 2012 @ 08:28:
Houd er ook even rekening mee dat de drivers van nVidia nog niet geoptimaliseerd zijn voor de GTX 680, en dat triple of quad SLI nou niet het meeste aandacht krijgt. Voor die multimonitor setups zou ik wachten tot de drivers in een volgend stadium zijn. De prestaties zullen dan in veel meer spellen ook omhoog gaan.
Zo veel verschil zit er natuurlijk niet in SLI van de GTX5xx of GTX6xx. Er kan wat verschil in zitten als ze de techniek verandert hebben maar meestal was dat wel vanaf dag 1 zichtbaar. van HD5xxx naar HD6xxx was er bij AMD een duidelijk verschil merkbaar qua scaling.

Dus ik weet niet of je wonderen moet verwachten. Ik denk dat je nu moet kijken naar de % scaling in games waar Quad CF het nu heel goed doet. En dat is dan misschien iets wat je kunt gaan zien. Maar elk spel schaalt weer anders dus het is geen garantie.

[ Voor 15% gewijzigd door Astennu op 23-03-2012 08:33 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Steyn_E
  • Registratie: Oktober 2010
  • Laatst online: 11-09 15:16
Astennu schreef op vrijdag 23 maart 2012 @ 08:31:
[...]


Zo veel verschil zit er natuurlijk niet in SLI van de GTX5xx of GTX6xx. Er kan wat verschil in zitten als ze de techniek verandert hebben maar meestal was dat wel vanaf dag 1 zichtbaar. van HD5xxx naar HD6xxx was er bij AMD een duidelijk verschil merkbaar qua scaling.
Er is natuurlijk wel meer nieuw. Je kon eerst niet eens 3 monitoren op 1 kaart aansluiten, dus wat dat betreft is er vast nog wel winst te behalen. Daarbij zie je bij nVidia wel eens vaker dat de prestaties bij bepaalde games 200% omhoog gaan met een nieuwe driver. AMD heeft nu al een aantal maanden gehad om de drivers te optimaliseren, nVidia niet.
EDIT:
Ik bedoelde ook vooral de scaling. Bij BF3 zou nVidia het beter moeten doen met meerdere kaarten, maar dat is dus niet zo. Die scaling kan dus nog stukken beter, ik kan me herinneren dat SLI het vaak beter deed dan Crossfire. De reden dat die scaling nog niet zo bijzonder is weet ik niet precies, maar het zal bij het bouwen van de drivers wel niet eerste prioriteit zijn geweest. Exotische opstellingen als deze kom je niet zo heel vaak tegen natuurlijk.

[ Voor 23% gewijzigd door Steyn_E op 23-03-2012 08:37 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
steyn.elgersma schreef op vrijdag 23 maart 2012 @ 08:34:
[...]

Er is natuurlijk wel meer nieuw. Je kon eerst niet eens 3 monitoren op 1 kaart aansluiten, dus wat dat betreft is er vast nog wel winst te behalen. Daarbij zie je bij nVidia wel eens vaker dat de prestaties bij bepaalde games 200% omhoog gaan met een nieuwe driver. AMD heeft nu al een aantal maanden gehad om de drivers te optimaliseren, nVidia niet.
Multi display solutions =! nieuwe SLI techniek. Kan zijn dat die 1:1 van de GTX5xx komt. Ja voorheen had je 2 kaarten nodig voor 3 schermen dat klopt dus in het geval van een Suround setup zou het iets uit kunnen maken. Maar het hoeft niet meteen te betekenen dat ze daar heel veel voor moeten veranderen.

Zo veel winst heeft AMD tot nu toe ook niet geboekt. Er is wel een leuke boost geweest maar daar is ook zeker nog meer mogelijk. Daarnaast zouden de CF drivers op dit moment ook alles behalve goed zijn.

Ik denk dat we over een jaar pas echt kunnen zeggen hoe SLi en CF schalen. Maar tegen die tijd zijn de nieuwe kaarten al weer uit.

[ Voor 3% gewijzigd door Astennu op 23-03-2012 08:38 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Steyn_E
  • Registratie: Oktober 2010
  • Laatst online: 11-09 15:16
Ik heb mijn post al geëdit (of hoe je dat ook schrijft), waarin ik reageer op jouw edit. Dat de drivers in het begin nog niet super zijn is niet zo kwalijk, maar na een maandje of 3 mag je toch verwachten dat alles uitstekend werkt. Dat is nu dus nog niet zo, maar kan nog komen. Daarbij probeerde ik aan te geven dat er wel dingen zullen zijn die prioriteit hebben. Multi-monitor en triple/quad SLI zullen dat niet hebben, omdat het niet zo vaak voorkomt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
steyn.elgersma schreef op vrijdag 23 maart 2012 @ 08:42:
Ik heb mijn post al geëdit (of hoe je dat ook schrijft), waarin ik reageer op jouw edit. Dat de drivers in het begin nog niet super zijn is niet zo kwalijk, maar na een maandje of 3 mag je toch verwachten dat alles uitstekend werkt. Dat is nu dus nog niet zo, maar kan nog komen. Daarbij probeerde ik aan te geven dat er wel dingen zullen zijn die prioriteit hebben. Multi-monitor en triple/quad SLI zullen dat niet hebben, omdat het niet zo vaak voorkomt.
Nou tegenwoordig is het helaas normaal dat je na 3 maanden nog best wel wat bugs hebt. Dus daar zou ik maar niet op rekenen. Als dat zo zou zijn zou je eigenlijk nooit nieuwe drivers nodig hebben echter komen die wel eens per maand uit (bij nVidia in de form van een beta en eens in de zoveel tijd WHQL).

Over Prioriteiten. Wat je zegt klopt misschien maar dit zijn wel de echte Enthousiasts die je dan in de kou laat staan. Zit zijn de mensen die meer dan 1000 euro en soms zelfs 2500 euro uitgeven voor een Quad SLI + Suround setup. En die moeten dan maar te horen krijgen dat er geen prioriteit voor hun is? dan voel je je toch echt belazerd. Maar ik weet ook wel dat het in praktijk zo gaat echt is het niet eerlijk.

[ Voor 19% gewijzigd door Astennu op 23-03-2012 08:49 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Olaf van der Spek schreef op vrijdag 23 maart 2012 @ 01:10:
Ik wel. Maar jij zei toch net: "Powertune verandert niets aan kloksnelheden of wat dan ook, verlegt alleen de throttle grens."?
Nu kom je met een heel verhaal dat Powertune wel clocks veranderd (wat waar is).
Nee, dat doet Powertune dus niet, dat doet het throttling mechanisme - iets dat elke GPU heeft, al jaren. Net zoals CPU's dat ook hebben. Powertune zelf doet helemaal niets met die clocks. Het throttling mechanisme is bij GPU Boost ook nog aanwezig, naast GPU Boost. Throttling is per definitie een negatieve boost en is niet bedoeld om iets aan je performance te doen, het is bedoeld om de GPU (en de rest van de kaart) te beschermen tegen beschadiging door overmatig gebruik.
Volgens mij is het doel toch echt in beide gevallen hetzelfde: zoveel mogelijk performance binnen een bepaald power budget. De implementatie is inderdaad iets anders. nV kiest voor altijd zo hoog mogelijke clocks, AMD kiest meer voor standaard (hoge) clocks, tenzij het niet anders kan. Mij lijkt de keuze van nV beter, aangezien ze dichter en vaker bij de grens zitten.
Nogmaals, in beide gevallen zit je met dezelfde base clock. Beide gaan er onder zitten als verbruik (en dus hitte, wat schadelijk is voor verschillende onderdelen) te hoog wordt, dit noemt men throttling. Dit hebben we, zoals ik al zei, al jaren en is niets nieuws.

Nvidia's idee is inderdaad "beter" in de zin dat je soms net iets meer performance uit je kaart krijgt, zolang de power envelope het toe laat. AMD doet daar niets aan. Op die standaard clock van 925 op een 7970 heeft AMD nog gigantisch veel ruimte in de power envelope en daar maken ze 0,0 gebruik van. Nogmaals, Powertune zelf doet niets met clocks, dat doet het throttling mechanisme dat op alle kaarten aanwezig is - het doel van dat mechanisme negeert performance ook compleet, het is een fail-safe.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb wat SLI schaling gezien en ze schalen iets beter dan met de voorige generatie gpu's Dit is bij AMD en NVIDA verbeterd. Volgens HWI schaald qsli beter dan qcf op 2500+resoluties en op lagere resoluties juist slechter met 3 en 4 gpu's. 2gpu's schalen ook goed waar bij sli net zo goed voor blijft als single gpu.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Jasper 99 schreef op vrijdag 23 maart 2012 @ 00:46:
vooral txaa e.d. maakt deze kaart een veel interresante keus maar je mag best een 7970 kopen als je wilt hoor, is alleen niet de beste koop ook dus lang niet altijd met 3 schermen.
Inderdaad is een HD7970 niet de beste koop als toch alleen maar groen koopt.
XanderDrake schreef op vrijdag 23 maart 2012 @ 08:08:
Sterker nog, ik zeg haal de GTX 680, ook voor Surround + OC
Afbeeldingslocatie: http://puu.sh/lZHu
AMD

Afbeeldingslocatie: http://puu.sh/lZHO
nVidia

Afbeeldingslocatie: http://puu.sh/lZJZ
AMD

Afbeeldingslocatie: http://puu.sh/lZJL
AMD

Afbeeldingslocatie: http://puu.sh/lZId
Hierbij zou ik voor nVidia gaan, de min FPS ligt hoger, al vind ik de lijn van AMD over het algemeen beter.

Afbeeldingslocatie: http://puu.sh/lZIn
nVidia

Ik vind het dus nogal lastig om (als gebruiker die beide merken gewoon zou kopen, vooral nu beide met maar 1 kaart 3 monitoren kunnen aansturen, 1000 euro in 1x voor SLI/X-fire is me wat overdreven) zomaar een opstelling aan te wijzen. Zeker als je kijkt naar het feit dat voltage verhoging, overclocken etc bij een 7970 veel makkelijker is (en dan wint een 7970 setup ook zeker wel). De counter is weer dat je bij SLI & Crossfire aardig wat warmte genereert en dan lijkt me dat de GTX680 opstelling weer een betere keuze is, gezien je de 7970s dan niet zo extreem kunt overclocken (of je moet al waterkoeling hebben). Een ander voordeel van de GTX680 zou dan wel weer SLI stuttering zijn. Ik blijf, uit persoonlijke ervaring, erbij dat stuttering in een dual GPU setup minder aanwezig is bij nVidia, maar ook bij AMD is het wel al beter dan voorheen.
Uiteindelijk zal het, voor mij, dan ook gewoon de kaart worden die uiteindelijk het goedkoopste is.
XanderDrake schreef op vrijdag 23 maart 2012 @ 08:11:
Gezien de schaling van de SLI opstelling: driver/optimalisatie issue?
No way dat een hele extra GTX 680 slechts 2 FPS meer kan bieden, zelfs met de bandwidth limitation.
En medium settings werken gewoon? Lijkt mij toch echt memory drama.... Is het typische voorbeeld van een bottleneck.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Verwijderd schreef op vrijdag 23 maart 2012 @ 09:12:
Ik heb wat SLI schaling gezien en ze schalen iets beter dan met de voorige generatie gpu's Dit is bij AMD en NVIDA verbeterd. Volgens HWI schaald qsli beter dan qcf op 2500+resoluties en op lagere resoluties juist slechter met 3 en 4 gpu's. 2gpu's schalen ook goed waar bij sli net zo goed voor blijft als single gpu.
Heb reviews van HWI niet gelezen, maar bij 4*CF zit je regelmatig tegen een cpu bottleneck aan te kijken. (zelfs met triple cf kom je daar in de buurt). Dit was in elk geval zo bij andere crossfire-sli reviews.
cfx doet het atm gewoon beter dan sli op de 680. Maar beide hebben daar nog redelijk wat werk voor de boeg, want in beide kampen zijn er nog grote tekortkomingen aan het dubbel-triple-quatro opstellingen. (atm bij cfx minder dan bij sli).

Acties:
  • 0 Henk 'm!

Verwijderd

Devpartner schreef op vrijdag 23 maart 2012 @ 09:28:
[...]


Heb reviews van HWI niet gelezen, maar bij 4*CF zit je regelmatig tegen een cpu bottleneck aan te kijken. (zelfs met triple cf kom je daar in de buurt). Dit was in elk geval zo bij andere crossfire-sli reviews.
cfx doet het atm gewoon beter dan sli op de 680. Maar beide hebben daar nog redelijk wat werk voor de boeg, want in beide kampen zijn er nog grote tekortkomingen aan het dubbel-triple-quatro opstellingen. (atm bij cfx minder dan bij sli).
Klopt dat zij HWI er ook bij. Dat cfx iets beter schaalt en met 4 kaarten schaalt sli wat beter. Maar daar bij heb je ook een bottlnek van de cpu.Ik zie wel dat sli cf nog redelijk goed voor blijft qua fps maar de schaling van cf is weer beter.

Ik vraag me af waneer we de kant en klare videokaarten gaan zien met waterblok er op?

Edit
Afbeeldingslocatie: http://content.hwigroup.net/images/news/gtx680-evga4-fixed.jpg

Wanneer zal dit beestje uitkomen en voor welke prijs kan dat ongeveer zijn. De hydro copper

[ Voor 9% gewijzigd door Verwijderd op 23-03-2012 09:36 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:34

XanderDrake

Build the future!

Paprika schreef op vrijdag 23 maart 2012 @ 09:21:
Ik vind het dus nogal lastig om zomaar een opstelling aan te wijzen.
Je maakt wel een goede overweging. Helaas verschilt het ook per review, HardOCP laat namelijk dit zien:
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_10_1.gif
En bij nog zwaardere belasting
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_10_3.gif
en natuurlijk deze
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1332370311kfvezRMQlH_11_2.gif

Wat voor conclusies je er uit kan trekken? Helaas geen duidelijke, maar het zal stuivertje wisselen zijn.
Uiteindelijk zal het, voor mij, dan ook gewoon de kaart worden die uiteindelijk het goedkoopste is.
Inderdaad, ik denk dus dat, gezien de potentie van prijsdalingen door een kleinere GPU, dat de GTX 680 de goedkoopste keuze zal worden. Energie technisch bij langdurig idle is de HD 7970 de beste keuze (knappe prestatie trouwens) maar in-game en in-media zal de GTX 680 winnen. En je koopt zon zware GPU toch voor te gamen ;)
En medium settings werken gewoon? Lijkt mij toch echt memory drama.... Is het typische voorbeeld van een bottleneck.
Euh, normaliter is SLI/Crossfire schaling 80-97%, dus bij toevoeging van een extra GPU gaan je prestaties lineair omhoog. Dat zie je ook van één GTX 680 naar twee GTX 680's, van 12 FPS naar 21 FPS, een schaling van ongeveer 80%. Als er echt iets fundamenteels mis is met geheugen bandbreedte verwacht je in dát geval ook een slechte schaling, minder dan 70%.
Als je vervolgens kijkt naar Tri en Quad SLI gaat het mis, met ronduit rampzalige schaling. Waarbij een extra GPU maar 2 FPS meer biedt. Daar gaat iets mis, maar zoals we in het verleden 1000x hebben gezien bij SLI/Crossfire implementaties zal het waarschijnlijk te vinden zijn in optimalisaties/drivers/SLI profiles.


Overigens ben ik niet meer een fan van multi-GPU opstellingen. Ik draai nu 3-4 jaar een 8800 GTS G92 SLI setup, en hoewel de drivers allang volwassen zijn, zijn er tal van games die niet lekker werken met SLI (bijv. GTA 4) en games die gewoon niet werken met SLI zonder tal van hacks (bijv. Mass Effect 2). Daarnaast zul je micro-stutters altijd blijven houden, hoewel nVidia daar beter mee omgaat dan AMD. Bij Bad Company 2 merkte ik het heel erg.
Ik koop gewoon weer één snelle GPU.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Zarrack
  • Registratie: Februari 2012
  • Laatst online: 08-04-2023
Ik ga even een domme vraag stellen, waarom krijgen deze kaarten een adviesprijs van 500 $ en zijn ze hier in de EU te zien voor 500 euro? Wordt hier echt zo veel belasting over betaald?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
@ Zarrack: ja, 19% telt aardig aan. Tel transport etc er nog bij op...
@ Xander: Ik had ook liever 1 snelle GPU. Daarom had ik ook gewacht op de "echte" GTX680 (of beter gezegd: had ik eind afgelopen jaar toch wel gehoopt i.i.g. iets van de GK100 te horen/zien, al zijn het early specs). 1 GTX680/7970 is toch alweer best krap met mijn resolutie (en dat is meer dan die Tri-fullHD reviews).

[ Voor 75% gewijzigd door Paprika op 23-03-2012 09:58 ]


Acties:
  • 0 Henk 'm!

  • Zarrack
  • Registratie: Februari 2012
  • Laatst online: 08-04-2023
Als ik op Newegg kijk zie ik ze idd voor 499 staan. De USA kent het concept BTW niet?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Bij dit soort producten niet echt nee.

Acties:
  • 0 Henk 'm!

  • Zarrack
  • Registratie: Februari 2012
  • Laatst online: 08-04-2023
...Dat is handig haha. Importeren vanuit de USA heeft waarschijnlijk ook geen zin want dan krijg je toch de VAT erbij. O well maar even wachten tot de 7970 naar het prijsniveau van de huidige 7950 zakt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Zarrack schreef op vrijdag 23 maart 2012 @ 09:52:
Ik ga even een domme vraag stellen, waarom krijgen deze kaarten een adviesprijs van 500 $ en zijn ze hier in de EU te zien voor 500 euro? Wordt hier echt zo veel belasting over betaald?
Yep zoals andere ook al zeggen 19% btw. Je kunt het beste een 7970 pakken aangezien die prijzen stabieler zijn omdat die er al even is. En dan die kaart hier in de PW vergelijken met bv newegg. dan kun je het verschil goed zien. In het begin is het verschil vaak iets groter. Winkels en distributie bedrijven pakken dan aardig wat marge.
Zarrack schreef op vrijdag 23 maart 2012 @ 10:00:
...Dat is handig haha. Importeren vanuit de USA heeft waarschijnlijk ook geen zin want dan krijg je toch de VAT erbij. O well maar even wachten tot de 7970 naar het prijsniveau van de huidige 7950 zakt.
Dan moet je gewoon 19% belasting betalen over je betaalde nieuwprijs + 16 euro administratie kosten. Een enkele keer komt een pakket er door heen zonder dat je moet betalen. Maar ze zijn sinds 2 jaar veel strenger gaan controleren. (PostNL toen de tijd TNT Post ging de douane afhandeling doen).

[ Voor 32% gewijzigd door Astennu op 23-03-2012 10:02 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Zelf heb ik het geluk stage te lopen bij een bedrijf dat voornamelijk internationaal (en al helemaal in de US) actief is. Misschien maar eens kijken of de volgende vlieger(s) niet alleen Apple devices, maar ook een videokaart kunnen meenemen op de terug weg. ~380 euro is natuurlijk not bad :P. Zit je alleen wel met garantie. :/

[ Voor 5% gewijzigd door Paprika op 23-03-2012 10:02 ]


Acties:
  • 0 Henk 'm!

  • Zarrack
  • Registratie: Februari 2012
  • Laatst online: 08-04-2023
Astennu schreef op vrijdag 23 maart 2012 @ 10:01:
[...]


Yep zoals andere ook al zeggen 19% btw. Je kunt het beste een 7970 pakken aangezien die prijzen stabieler zijn omdat die er al even is. En dan die kaart hier in de PW vergelijken met bv newegg. dan kun je het verschil goed zien. In het begin is het verschil vaak iets groter. Winkels en distributie bedrijven pakken dan aardig wat marge.
Ik verwacht eigenlijk wel een prijsdaling van de 7970. Denk dat ik daar nog even op wacht.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Paprika schreef op vrijdag 23 maart 2012 @ 10:02:
Zelf heb ik het geluk stage te lopen bij een bedrijf dat voornamelijk internationaal (en al helemaal in de US) actief is. Misschien maar eens kijken of de volgende vlieger(s) niet alleen Apple devices, maar ook een videokaart kunnen meenemen op de terug weg. ~380 euro is natuurlijk not bad :P. Zit je alleen wel met garantie. :/
Dat kan inderdaad wel tot iets van 450 euro als ik me niet vergis. Dus een GTX680 of HD7970 zou dan net moeten kunnen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
De truc is dan natuurlijk dat je de zooi al uitpakt, zodat het lijkt alsof ie altijd al van jou was :P, maar zoals ik al zei: garantie is dan wel echt balen. Al helemaal een verkoop (2e hands) zal dan tegenzitten. Al kun je natuurlijk wel ook 100 euro minder vragen, je betaalde ook >100 minder.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Paprika schreef op vrijdag 23 maart 2012 @ 10:05:
De truc is dan natuurlijk dat je de zooi al uitpakt, zodat het lijkt alsof ie altijd al van jou was :P, maar zoals ik al zei: garantie is dan wel echt balen. Al helemaal een verkoop (2e hands) zal dan tegenzitten. Al kun je natuurlijk wel ook 100 euro minder vragen, je betaalde ook >100 minder.
Ook maar als je spullen mee neemt is het bedrag wat je belasting vrij mag importeren groter. Ik weet de bedragen niet pressies meer maar bij zendingen is het iets van 25 euro onbelast. En bij zelf mee nemen iets van 350-450 euro.

Garantie is dan inderdaad lastig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:34

XanderDrake

Build the future!

Dingen mee nemen vanuit de States heeft een hoger import belastingsvrij limiet dan dingen daar bestellen en naar hier shippen. Volgens mij is het importvrije limiet dan $100. Tenminste, veel mensen die bijvoorbeeld een tablet van €150 uit china bestellen moeten vaak €30 import kosten dokken.

Je kan ook gewoon even geduldig zijn en dan hiér een laaggeprijsde GTX 680 halen... Zo lang gaat het niet duren.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 19-09 07:33

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Nu wil ik van die kaart toch wel eens reviews zijn. Zou leuk zijn om >2GB bij een SLI opstelling te hebben met Surround, maar dan zit je dus wel nog altijd met de 256-bit bus (en dus zijn er reviews nodig om te zien of de 256-bit bus het gewoon kan bijhouden).

Genoeg TBDs i.i.g.
Afbeeldingslocatie: http://puu.sh/lZUP

[ Voor 10% gewijzigd door Paprika op 23-03-2012 10:26 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Tijd voor een review met een 2GB GTX680 er naast. Kijken of dat geheugen echt verschil maakt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Zarrack
  • Registratie: Februari 2012
  • Laatst online: 08-04-2023
lag de bottleneck niet bij de controller ipv de geheugenhoeveelheid?

Acties:
  • 0 Henk 'm!

  • LOTG
  • Registratie: Augustus 2004
  • Laatst online: 09-09 13:40
Heb ik nog een redelijk tegoed bij Buyitdirect, maar die kennen blijkbaar het concept adviesprijs niet. De goedkoopste is daar de MSI voor 436 excl. BTW. Ik had gehoopt voor een Asus 500 incl. BTW zoals dat een redelijke prijs is overal maar daar vragen ze al 485 excl. BTW. voor.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Zarrack schreef op vrijdag 23 maart 2012 @ 10:41:
lag de bottleneck niet bij de controller ipv de geheugenhoeveelheid?
Het meeste van de tijd zal het bij de bandbreedte zitten. Maar er zijn hier een aantal mensen die denken dat 2GB niet genoeg gaat zijn voor 3x 1080p. Ik denk dat het in 95% van de gevallen genoeg zal zijn gezien de resultaten van andere kaarten met 1 vs 2gb en 1,5 vs 2 gb. Maar de enige manier om het echt te testen is de 2GB en de 4GB GTX680 tov elkaar te zetten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 16:54
Paprika schreef op vrijdag 23 maart 2012 @ 09:21:
[...]

Inderdaad is een HD7970 niet de beste koop als toch alleen maar groen koopt.
Wat is dit dan weer voor onzin? Je bedoelt omdat elke site zegt dat de 680 het zowel beter doet kwa prijs preformance + zuinigheid etc dat de 7970 toch een betere koop is? Terwijl als je 680 oc en 7970 oc vergelijkt de 680 er ook vaak als winnaar uitkomt ? + extra futures zoals txaa en een lagere adviesprijs ? Nee tuurlijk ik ben keihard biased.

Als je gewoon braaf door alle reviews heen gaat zie je dat er toch altijd een clear winner is in the end en dat is de 680. Ik zeg niet dat een 7970 veel slechter is, als je nu een 7970 hebt zou je die nooit moeten verkopen. Maar de 680 is toch echt wel beter ookal zijn dit kleine verschillen ze zijn er wel.

Maar inderdaad als je ze in nederland niet goedkoop gaat vinden kun je eventueel bedenken om een 7970 te kopen maar dat lijkt mij toch een minder logische keus. Of je moet een Gpgpu enthousiast zijn.

En dat hele bottleneck argument valt een beetje in het water als je de resultaten ziet, verder denk ik dat driver wise er echt nog wel wat optimalisatie nodig is vooral voor sli.

Acties:
  • 0 Henk 'm!

  • Steyn_E
  • Registratie: Oktober 2010
  • Laatst online: 11-09 15:16
Bij alternate lijken ze allemaal (dus alle merken) voor 500 incl. BTW weg te gaan. Zou het eens proberen.

Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 19:18
Iemand enig idee wanneer de GT620 uitkomt? Zie m namelijk verschijnen in allerlei drivers, zoals deze: http://www.nvnews.net/vbulletin/showthread.php?t=176804 En ik heb die kaart nodig omdat ik een nvidia kaart nodig heb die een tdp heeft van 25 watt (of minder..) De GT520 heeft een tdp van 29 watt, net teveel voor in m'n dell optiplex. Nu lees ik overal dat kepler 2x zo goed is op het gebied van performance/watt vergeleken met fermi, dus lijkt me dat een GT620 wel aansluit bij m'n eisen.

Als die binnen drie maanden uitkomt zou dat perfect zijn...

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:34

XanderDrake

Build the future!

Wat ik me afvraag omtrent de 3rd party verbeteringen aan de GTX 680:
We zijn het er allemaal over eens dat een hogere geheugen bandbreedte de GTX 680 veel verbeteringen in prestaties zou geven. Ik las in de review van Anandtech dat de nVidia technicians alles op alles hebben gezet om de geheugen controller up to speed te krijgen (vandaar nVidia's eerste 256bit bus met 6ghz DDR5). Dat is blijkbaar een hele uitdaging.

Wat voor verbeteringen kunnen we nog verwachten van EVGA et al. ? Kunnen ze nóg sneller geheugen plaatsen en zo ja, zou dat dan de oplossing zijn voor de relatieve grote performance drop wanneer zware GFX settings worden gebruikt?
Of heeft de GTX 680 zijn geheugen snelheids maximum bereikt?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
XanderDrake schreef op vrijdag 23 maart 2012 @ 11:30:
Wat ik me afvraag omtrent de 3rd party verbeteringen aan de GTX 680:
We zijn het er allemaal over eens dat een hogere geheugen bandbreedte de GTX 680 veel verbeteringen in prestaties zou geven. Ik las in de review van Anandtech dat de nVidia technicians alles op alles hebben gezet om de geheugen controller up to speed te krijgen (vandaar nVidia's eerste 256bit bus met 6ghz DDR5). Dat is blijkbaar een hele uitdaging.

Wat voor verbeteringen kunnen we nog verwachten van EVGA et al. ? Kunnen ze nóg sneller geheugen plaatsen en zo ja, zou dat dan de oplossing zijn voor de relatieve grote performance drop wanneer zware GFX settings worden gebruikt?
Of heeft de GTX 680 zijn geheugen snelheids maximum bereikt?
Ik denk dat het geheugen voor productie inderdaad zijn max bereikt heeft. Veel rek ga je daar niet meer uitkrijgen vanuit een mass productie oogpunt.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Jasper 99 schreef op vrijdag 23 maart 2012 @ 11:25:
Wat is dit dan weer voor onzin? Je bedoelt omdat elke site zegt dat de 680 het zowel beter doet kwa prijs preformance + zuinigheid etc dat de 7970 toch een betere koop is?
Jij stelt dat. Echter laten de reviews zien dat het helemaal niet zo makkelijk is als jij het stelt. Met maar 1 monitor lijkt me de GTX680 inderdaad de beter keuze, maar met 3x >Full HD zie ik toch echt niet dat 1 kaart overduidelijk de winnaar is. Bij HardOCP blijkt dat de GTX680 de betere optie is voor Surround, echter blijkt bij 3 andere websites juist het tegenovergestelde (al is het met maar enkele %'en). Bij 2 GPUs heb je denk ik toch alweer wat meer aan de hogere memory bandwidth (en hoeveelheid) van de HD7970, maar dat is moeilijk te testen zonder dat er meerdere websites zijn die dit even uitgebreid testen (met min FPS, nogmaals: avg boeit niet) om zo een gemiddelde te kunnen nemen. We hebben het wel even over een bedrag waar je ook een complete game PC voor kunt kopen, om dan zo radicaal even die aanname te kunnen maken, vind ik knap.

Afbeeldingslocatie: http://puu.sh/m09j

[ Voor 7% gewijzigd door Paprika op 23-03-2012 11:39 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
XanderDrake schreef op vrijdag 23 maart 2012 @ 11:30:
Wat ik me afvraag omtrent de 3rd party verbeteringen aan de GTX 680:
We zijn het er allemaal over eens dat een hogere geheugen bandbreedte de GTX 680 veel verbeteringen in prestaties zou geven. Ik las in de review van Anandtech dat de nVidia technicians alles op alles hebben gezet om de geheugen controller up to speed te krijgen (vandaar nVidia's eerste 256bit bus met 6ghz DDR5). Dat is blijkbaar een hele uitdaging.

Wat voor verbeteringen kunnen we nog verwachten van EVGA et al. ? Kunnen ze nóg sneller geheugen plaatsen en zo ja, zou dat dan de oplossing zijn voor de relatieve grote performance drop wanneer zware GFX settings worden gebruikt?
Of heeft de GTX 680 zijn geheugen snelheids maximum bereikt?
Klopt zie nVidia's voorgaande GDDR5 kaarten. Die liepen niet zo hard. AMD had dit in het begin ook met de HD4870. Maar met de HD5xxx gingen ze al best hard. Nu met de HD79xx ook stock misschien niet maar met OC heb ik al 3600 MHz gehaald. De Lightning haalde zelfs 3800 MHz (7600 MHz effectief). Die nVidia GTX680 van EVGA met 1900 core onder ln2 haalde 3500 (7000 MHz effectief). Dus ze hebben een grote inhaalslag gemaakt op dat gebied. Eerst zaten ze rond de 2200-2400 MHz te klooien.

Ik denk niet dat EVGA iets aan de mem speeds kan doen. Dit is vooral de controller die dit aan moet kunnen. Een deel zit em in de banen op het PCB. Dus wat winst in wel mogelijk als in 100-200 MHz er bij (effectief is dat iets van 200-400 MHz).

Ik denk dat dit redelijk aan de max zit. Of je moet weer een nieuwe memory controller ontwerpen. Echter is dat niet zo simpel.
Paprika schreef op vrijdag 23 maart 2012 @ 11:38:
[...]

Jij stelt dat. Echter laten de reviews zien dat het helemaal niet zo makkelijk is als jij het stelt. Met maar 1 monitor lijkt me de GTX680 inderdaad de beter keuze, maar met 3x >Full HD zie ik toch echt niet dat 1 kaart overduidelijk de winnaar is. Bij HardOCP blijkt dat de GTX680 de betere optie is voor Surround, echter blijkt bij 3 andere websites juist het tegenovergestelde (al is het met maar enkele %'en). Bij 2 GPUs heb je denk ik toch alweer wat meer aan de hogere memory bandwidth (en hoeveelheid) van de HD7970, maar dat is moeilijk te testen zonder dat er meerdere websites zijn die dit even uitgebreid testen (met min FPS, nogmaals: avg boeit niet) om zo een gemiddelde te kunnen nemen. We hebben het wel even over een bedrag waar je ook een complete game PC voor kunt kopen, om dan zo radicaal even die aanname te kunnen maken, vind ik knap.

[afbeelding]
Ik ben het helemaal eens met het feit dat je max FPS eigenlijk buiten beschouwing moet houden. Min is het belangrijkste gevolgd voor average. Je wilt bij het spelen van games zo'n hoog mogelijke min fps. En overall een zo stabiel mogelijke fps zonder grote pieken en dalen.

[ Voor 27% gewijzigd door Astennu op 23-03-2012 11:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 ... 25 ... 43 Laatste