Acties:
  • 0 Henk 'm!

  • canth
  • Registratie: Augustus 2002
  • Laatst online: 09-09 16:31
unfor schreef op vrijdag 06 juli 2012 @ 18:19:
[afbeelding]
:P

32c idle / 58c stressed / 24c ambient.
Met 1250 core en 120% power limit :)

En het mooiste: Je hoort helemaal niets.
Ik heb net dezelfde koeler geinstalleerd op een Gainward Phantom 670 GTX. Die Phantom koeler is toch echt een heel stuk minder goed dan deze arctic cooler.
Situatie voor: 1250/6600, 70/71 graden bij Heaven, fan op 60%, duidelijk hoorbaar
Nu: 1275/6600, 50/51 graden bij Heaven, fan maximaal op 47%, onhoorbaar

Ook van idle is een paar graden afgesnoept, maar dat is natuurlijk minder belangrijk.

Heb overigens de memory koel spullen niet geinstalleerd, het geheugen zat al zonder enige vorm van heatsink op de kaart. De luchtstroom van de koeler zou genoeg koelte moeten brengen.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Mooi, heb je nog eigen koelpasta gebruikt?
Je hebt iets betere temps dan mij, maar kan ook aan de kast liggen.
Met dit weer haal ik max 55c.

Acties:
  • 0 Henk 'm!

  • canth
  • Registratie: Augustus 2002
  • Laatst online: 09-09 16:31
Ja, mijn omgevingstemperatuur is nu ongeveer 19 graden denk ik (lekkere zomer in NL).
Bij furmark gaat het geheel wel naar de 55 graden, power zit dan op ~125% en de GPU klokt naar 1235 (was 1190 met de oude koeler).
Hij blijft geruisloos :)

Overigens gewoon de vooraangebrachte koelpasta gebruikt, ik heb zelf alleen AS5, en die MX4 zut schijnt beter te zijn.

Nog een kleine overzichtsfoto:

Afbeeldingslocatie: http://i373.photobucket.com/albums/oo178/cornelisZ/GTX670_arctic_cooler.jpg

[ Voor 35% gewijzigd door canth op 14-07-2012 17:17 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Bah ik baal echt, ik wil dolgraag die koeler erop zetten. Maar er zit een klein low profile firewire kaartjes in het slot ernaast, en ik denk dat het niet niet gaat passen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ander vraag ik het toch niet smart ass.
[...]

Anders bekijk je die afbeelding, of de link van Jovas gewoon. Daar staan dan wel niet de "ervaren vloeiendheid" in, maar als je met zulke subjectieve maatstaven komt, kan je net zo goed alle benchmarks overslaan.
De behaalde framerates met Adaptive-Vsync aan, en zonder vsync ligt bij die benches van HardOCP binnen de foutmarge.
Ik ken dat artikel allang. Alleen FPS grafiekje zeggen niet alles. Microstuttering haal je daar bijvoorbeeld ook niet uit.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
canth schreef op zaterdag 14 juli 2012 @ 16:25:
Ja, mijn omgevingstemperatuur is nu ongeveer 19 graden denk ik (lekkere zomer in NL).
Bij furmark gaat het geheel wel naar de 55 graden, power zit dan op ~125% en de GPU klokt naar 1235 (was 1190 met de oude koeler).
Hij blijft geruisloos :)
Oeh, ook nog even een testje gedaan met kast open:
http://tweakers.net/ext/f/ue0TQjVx6xR3ZdhEjk6r2MZ2/full.jpg

52c max in furmark, dat ga je volgens mij echt niet halen met een DC2 of andere custom cooler.

Met gesloten case ook 55c:
http://tweakers.net/ext/f/WDDH6YIq4S2jFOBMn3bA77PA/full.jpg

[ Voor 7% gewijzigd door unfor op 14-07-2012 16:42 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Help!!!! schreef op zaterdag 14 juli 2012 @ 16:29:
Ik ken dat artikel allang. Alleen FPS grafiekje zeggen niet alles. Microstuttering haal je daar bijvoorbeeld ook niet uit.
Waarom zou je een bizar en compleet ongerelateerd probleem als microstuttering krijgen bij adaptive-vsync? :?

Het is zo triviaal als wat; zolang je het renderen van een frame langer dan 16.6miliseconden (<60fps) duurd, word deze direct naar de framebuffer geschreven en word de backbuffer simpelweg overgeslagen. Zodra het renderen van een frame sneller gebeurd dan 16.6ms word deze naar de backbuffer geschreven en word bij elk volledig frame de inhoud van de backbuffer naar de framebuffer kopieerd.
Wat van dit verhaal zou volgends jou zo enorm veel "overhead" veroorzaken dat 'microstuttering' zou onstaan?
Sn0wblind schreef op zaterdag 14 juli 2012 @ 16:29:
Bah ik baal echt, ik wil dolgraag die koeler erop zetten. Maar er zit een klein low profile firewire kaartjes in het slot ernaast, en ik denk dat het niet niet gaat passen.
PCI-E/PCI Riser kopen, en die firewire-kaart gewoon ergens anders in je kast leggen :Y .

[ Voor 37% gewijzigd door SirNobax op 14-07-2012 17:32 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • canth
  • Registratie: Augustus 2002
  • Laatst online: 09-09 16:31
Sn0wblind schreef op zaterdag 14 juli 2012 @ 16:29:
Bah ik baal echt, ik wil dolgraag die koeler erop zetten. Maar er zit een klein low profile firewire kaartjes in het slot ernaast, en ik denk dat het niet niet gaat passen.
Zoals je ziet heb ik de kaart in het onderste slot zitten, zou dat voor jou ook geen oplossing zijn?
Enige nadeel is dat dit slot op mijn mobo alleen x8 ondersteund, het bovenste slot doet ook x16.
Qua performance maakt het volgens mij niet zoveel uit, haal nu 77 FPS met heaven
(4x AA, 16x Anisotropy, Tesselation Normal, rest op high, 1920/1080), dat is ongeveer hetzelfde wat ik haalde met de kaart in het bovenste slot.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

SirNobax schreef op zaterdag 14 juli 2012 @ 16:49:
[...]

Waarom zou je een bizar en compleet ongerelateerd probleem als microstuttering krijgen bij adaptive-vsync? :?

Het is zo triviaal als wat; zolang je het renderen van een frame langer dan 16.6miliseconden (<60fps) duurd, word deze direct naar de framebuffer geschreven en word de backbuffer simpelweg overgeslagen. Zodra het renderen van een frame sneller gebeurd dan 16.6ms word deze naar de backbuffer geschreven en word bij elk volledig frame de inhoud van de backbuffer naar de framebuffer kopieerd.
Wat van dit verhaal zou volgends jou zo enorm veel "overhead" veroorzaken dat 'microstuttering' zou onstaan?
Ik zeg niet dat het dat veroorzaakt. Ik zeg dat grafieken niet alles zeggen. "MS lees je ook niet terug uit die grafieken."

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • TheDeeGee
  • Registratie: Oktober 2005
  • Niet online
alexander1685 schreef op zaterdag 14 juli 2012 @ 15:41:
[...]


Bedankt voor je reactie. Als ik die beta driver wil installeren, moet ik dan die WHQL driver er eerst afhalen?
Is niet echt nodig bij nVidia, maar ik doe het zelf altijd op de volgende manier:

1) Oude Driver deinstalleren.
2) Opnieuw opstarten.
3) Oude mappen handmatig verwijderen uit Program Files (Mochten deze er nog zijn, wat meestal het geval is).
4) CCleaner het Register ff laten opruimen.
5) Nieuwe Driver installeren.
6) Opnieuw opstarten.

Zo doe ik het al jaren zonder problemen.

Acties:
  • 0 Henk 'm!

  • TheDeeGee
  • Registratie: Oktober 2005
  • Niet online
canth schreef op zaterdag 14 juli 2012 @ 17:05:
[...]


Zoals je ziet heb ik de kaart in het onderste slot zitten, zou dat voor jou ook geen oplossing zijn?
Enige nadeel is dat dit slot op mijn mobo alleen x8 ondersteund, het bovenste slot doet ook x16.
Qua performance maakt het volgens mij niet zoveel uit, haal nu 77 FPS met heaven
(4x AA, 16x Anisotropy, Tesselation Normal, rest op high, 1920/1080), dat is ongeveer hetzelfde wat ik haalde met de kaart in het bovenste slot.
16x vs 8x is nog geen 1%. zelfs van 8x naar 4x maakt zeer weinig uit.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Help!!!! schreef op zaterdag 14 juli 2012 @ 17:41:
[...]
Ik zeg niet dat het dat veroorzaakt. Ik zeg dat grafieken niet alles zeggen. MS lees je ook niet terug uit die grafieken.
Als het geen microstuttering (onstabiele frame-to-frame tijden) is en de frame-rate is in orde, wat is het dan wel?
Help!!!! schreef op woensdag 11 juli 2012 @ 19:41:
Ik stel alleen vast dat er ongetwijfeld overhead is [...]
Verder mag je me nog steeds uitleggen waarom jij vast stel "dat er ongetwijfeld overhead is".
Tenzij je natuurlijk je uitspraken op gebakken lucht baseer, is het wel netjes om te vermelden hoe dit precies overhead veroorzaakt en je daarom een feature als adaptive-vsync afschiet.

[ Voor 3% gewijzigd door SirNobax op 14-07-2012 18:23 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18:56
Ben er net achter gekomen dat een GTX 670 Crysis 1 bagger draait. Het is getest met een 1090T en een i7 920.
Het systeem van een vriend met een i7 920 en 6970 draait Crysis 1 nog beter dan mijn in combinatie met een GTX 670.
Ik vind trouwens dat AMD de driver indeling toch 10x beter heeft. Alles is makkelijker te vinden en heeft een beter design..(Ja het is maar wat je fijn vind..)

Acties:
  • 0 Henk 'm!

  • elsympatico
  • Registratie: Oktober 2010
  • Laatst online: 31-08 09:37
Sorry maar crysis 1 is grootste crapgame ik ooit hebt gehad.Ik heb dat nog op geen 1 van mijn pc's deftig kunnen spelen altijd één of ander miserie,warhead draait wel perfect en alle andere games ook.

Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18:56
Ja dat is jou mening en ervaring natuurlijk... Bij een vriend draait Crysis 1 perfect ;)

Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 19:44
Mosin schreef op maandag 16 juli 2012 @ 02:23:
Ja dat is jou mening en ervaring natuurlijk... Bij een vriend draait Crysis 1 perfect ;)
Dan heeft je vriend mazzel gehad want dat spel draait op heel erg veel systemen ongeacht de specs bagger.

Wie goed doet, die goed ontmoet.


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Mosin schreef op maandag 16 juli 2012 @ 01:20:
Ben er net achter gekomen dat een GTX 670 Crysis 1 bagger draait. Het is getest met een 1090T en een i7 920.
Het systeem van een vriend met een i7 920 en 6970 draait Crysis 1 nog beter dan mijn in combinatie met een GTX 670.
Ik vind trouwens dat AMD de driver indeling toch 10x beter heeft. Alles is makkelijker te vinden en heeft een beter design..(Ja het is maar wat je fijn vind..)
Crysis is een prima game hoor, alleen het begon bij mij pas goed te draaien en speelbaar op very high HD en 2xaa op een GTX580sli op 850mhz. En nog meestal 40 fps in drukke stukken 8)7.
Maar het spel is gewoon zwaar :). Perfect draait het dus nog altijd niet bij mij .... daar heb je gewoon 3 way sli voor nodig

verbaas me niets dat het slecht draait op een enkelle 670...... Hoe lang denk je trouwens dat het nog duurt voordat Crysis goed draait bij minimaal 60 fps ?? ;) tot die tijd is het een prima benchmark,

[ Voor 26% gewijzigd door A87 op 16-07-2012 10:49 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

Verwijderd

Crysis maakt helemaal niet goed gebruik van de GPU. Tijdens het gamen zie ik heel vaan het gpu gebruik in
kakken waar door je fps drop krijgtrichting de 30fps. Wat wel weer zo is is dat je bij 30fps nog altijd een redelijk soepele gameplay hebt.

Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18:56
A87 schreef op maandag 16 juli 2012 @ 10:45:
[...]


Crysis is een prima game hoor, alleen het begon bij mij pas goed te draaien en speelbaar op very high HD en 2xaa op een GTX580sli op 850mhz. En nog meestal 40 fps in drukke stukken 8)7.
Maar het spel is gewoon zwaar :). Perfect draait het dus nog altijd niet bij mij .... daar heb je gewoon 3 way sli voor nodig

verbaas me niets dat het slecht draait op een enkelle 670...... Hoe lang denk je trouwens dat het nog duurt voordat Crysis goed draait bij minimaal 60 fps ?? ;) tot die tijd is het een prima benchmark,
Nou nou 3 way sli is ook weer wat extreem :P
Nee, maar wat mijn wel verbaast is dat het wel op een enkele 6970 draait die veel minder presteert dan een GTX 670... Nou die fps gaat lang duren, maar als deze probleempjes krijgt, dus dat het spel niet goed draait op een nieuwe gpu, dan kun je die 60fps wel vergeten.

Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18:56
Verwijderd schreef op maandag 16 juli 2012 @ 11:44:
Crysis maakt helemaal niet goed gebruik van de GPU. Tijdens het gamen zie ik heel vaan het gpu gebruik in
kakken waar door je fps drop krijgtrichting de 30fps. Wat wel weer zo is is dat je bij 30fps nog altijd een redelijk soepele gameplay hebt.
Dat de GPU niet goed gebruikt word geloof ik graag, want een GTX 670 die niet beter is dan een 6970 vind ik nogal vaag 8)7.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

SirNobax schreef op zaterdag 14 juli 2012 @ 18:19:
[...]

Als het geen microstuttering (onstabiele frame-to-frame tijden) is en de frame-rate is in orde, wat is het dan wel?


[...]

Verder mag je me nog steeds uitleggen waarom jij vast stel "dat er ongetwijfeld overhead is".
Tenzij je natuurlijk je uitspraken op gebakken lucht baseer, is het wel netjes om te vermelden hoe dit precies overhead veroorzaakt en je daarom een feature als adaptive-vsync afschiet.
Ik schiet het niet af. Als je eerst leest en dan reageert, dan had je dat al doorgehad.

Ik pretendeer niet, in tegenstelling tot jou, exact te weten hoe (adaptive) vsync op driver/hardware/framebuffer niveau werkt en de gevolgen van die werking. Evenmin beweer ik dat de eventuele overhead signficant is.
Het is echter op zijn minst aannemelijk dat er ergens in de keten overhead is want er moet iets gemonitord worden en vervolgens daarnaar gehandeld worden.


Jij stelt dat er geen reden is om het niet aan te zetten.

Ik stel dat het wellicht overhead heeft en/of andere onvoorziene side effects.
En dat dat een reden kan zijn om het, m.n. onder omstandigheden waarbij het sowieso al niet perse nodig is, uit te laten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
canth schreef op zaterdag 14 juli 2012 @ 17:05:
[...]


Zoals je ziet heb ik de kaart in het onderste slot zitten, zou dat voor jou ook geen oplossing zijn?
Enige nadeel is dat dit slot op mijn mobo alleen x8 ondersteund, het bovenste slot doet ook x16.
Qua performance maakt het volgens mij niet zoveel uit, haal nu 77 FPS met heaven
(4x AA, 16x Anisotropy, Tesselation Normal, rest op high, 1920/1080), dat is ongeveer hetzelfde wat ik haalde met de kaart in het bovenste slot.
Mijn onderste slot is 4x helaas. Denk dat de impact dan net iets te groot wordt qua performance.

Het betreft dit moederbord.
http://www.asus.com/Mothe...55/P8Z77M/#specifications

Toch wel een beetje spijt van dat ik niet even iets beter onderzocht heb welke videokaart ik had moeten kopen. Als ik de Gigiabyte had gekocht had ik nogsteeds een reference board maar wel veel betere koeling. Dan maar versneld naar waterkoeling gaan vrees ik.

Heb nogal veel compromisen gesloten door sowieso voor een mATX kast te gaan met een mATX moederbord. Hoopte op die manier een compact high end systeem te bouwen.

Acties:
  • 0 Henk 'm!

Verwijderd

Bij welke games heeft gheugen ovrklocken eigenlijk zin voor meer FPS?

Acties:
  • 0 Henk 'm!
Bij een GTX670 en GTX680 zo goed als alle wel, met name op hoge resolutie met veel AA.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 12:23
hallo dan,

ik heb net een gtx 680 twin frozr. Nu zie ik dat mijn fan op automatisch staat. als ik bf3 speel gaat hij naar ongeveer 60% en hoor je hem uiteraard wel.
Mn temperatuur is dan ongeveer 68 - 70 graden.
Als ik nu bijvoorbeeld mn fan op vast zet op zeg eens 40%. is het dan al snel bye bye kaartje of zal hij dan bijvoorbeeld 75-70 graden worden en dan hoor je hem niet en maakt dit niet uit.

Ben niet zo bekend in de hele fanprofielen etc. en ben eigenlijk te bang om het zelf nu zo direct erop te zetten en dat mn kaart naar de knoppen is.

bedankt alvast!

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Sn0wblind schreef op maandag 16 juli 2012 @ 12:48:
[...]

Mijn onderste slot is 4x helaas. Denk dat de impact dan net iets te groot wordt qua performance.

Het betreft dit moederbord.
http://www.asus.com/Mothe...55/P8Z77M/#specifications

Toch wel een beetje spijt van dat ik niet even iets beter onderzocht heb welke videokaart ik had moeten kopen. Als ik de Gigiabyte had gekocht had ik nogsteeds een reference board maar wel veel betere koeling. Dan maar versneld naar waterkoeling gaan vrees ik.

Heb nogal veel compromisen gesloten door sowieso voor een mATX kast te gaan met een mATX moederbord. Hoopte op die manier een compact high end systeem te bouwen.
Ik zou toch eens gaan benchmarken in je 16x en 4x slot, zorg wel dat je benchmarked op je native resolutie.
Aanrader: Heaven 3.0

Tests uit het verleden met de 5xx serie gaven aan dat er nog steeds amper tot geen verschil zat tussen 4x en 16x.
Zelfs de 6990 deed het nog prima op 4x mode wat in feite maar 2x per GPU over laat.

hier: YouTube: Radeon HD 6990 Bandwidth Comparison Test 16x vs 8x vs 4x 3DMark 11 Linus Tech Tips
En HardOCP heeft ook wat meer uitgebreide tests staan, zelf zoeken :P

[ Voor 8% gewijzigd door unfor op 16-07-2012 17:50 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Dank voor de links, even zitten meten, maar ook in het 3de slot net niet genoeg ruimte.

Jammer. de koeler lijkt erg goed te presteren uiteindelijk bij velen.

Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
Ik heb al een aantal weken een Gigabyte GV-N670OC-2GD in m'n kast. Volgens de specs:
Base clock: 980 MHz; Boost clock: 1058 MHz (dat staat ook in GPU-Z).
Maar als ik FurMark draai, zeggen GPU-Z en FurMark zelf dat m'n kaart op 1123 MHz loopt. Vind ik niet erg natuurlijk ;) maar ik vind 't wel vreemd. Ik heb namelijk niks geOC'd in m'n PC. Is dit iets wat 'ie zelf doet/besluit?

Acties:
  • 0 Henk 'm!

Verwijderd

Is een dolenthiousiaste kaart ;), kan best een andere revisie zijn. Zou ook een driver conflictje kunnen zijn of natuurlijk een verouderde gpu-z/furmark.

Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
GPU-Z en FurMark zijn allebei de nieuwste versies. Ook de meest recente WHQL drivers.

[ Voor 25% gewijzigd door Bramm op 17-07-2012 12:02 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
Op die nieuwe kaarten zit toch een soort turbo modus ala intel? Die zal wel geklocked zijn op 1123mhz door Gigabyte. Furmark kan je kaart mollen/beschadigen dus dat moet je niet al te lang laten draaien.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
Dat is toch gewoon de Boost clock? Die staat volgens GPU-Z dus op 1058 MHz. Of zou er nog een tweede Boost clock zijn?

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
Laat GPU-z niet je baseclock zien en die 1123 is je turbo snelheid?

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
Afbeeldingslocatie: http://gpuz.techpowerup.com/12/07/17/9c9.png
Afbeeldingslocatie: http://gpuz.techpowerup.com/12/07/17/8w0.png

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
Vaag, maar zoals alom bekend is heeft furmark een negatieve invloed op je kaart, probeer het eens met een zwaar spel en/of 3dMark en kijk eens wat er dan komt te staan.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
Deze screenshots waren tijdens de rendertest van GPU-Z.

Twee minuutjes The Witcher 2: GPU-Z zegt 1123 MHz.

Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
15 MHz erbij en ik zit op de Boost clock van de GV-N680OC-2GD :)

Acties:
  • 0 Henk 'm!

  • Progeny
  • Registratie: November 2009
  • Laatst online: 05-06-2021
Bramm schreef op dinsdag 17 juli 2012 @ 12:08:
Dat is toch gewoon de Boost clock? Die staat volgens GPU-Z dus op 1058 MHz. Of zou er nog een tweede Boost clock zijn?
Er is inderdaad een 2e boost en wordt door sommigen als Kepler boost benoemd. Mijn voormalige Asus TOP draaide out of the box op 1280.

[ Voor 23% gewijzigd door Progeny op 17-07-2012 12:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Is normaal dynamic oc, dat doet de kaart zelf als het kan. Bij mij loopt hij ook zo tijden zware games gelukkig, max TDP ligt dan als nog rond de 80% en heb dan nog zo'n 20% over. Lekker zuinig dus met een flinke oc.

Acties:
  • 0 Henk 'm!

  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 11-09 09:16
Ahá, ik wist nog niet van het bestaan van een Kepler boost. Opgelost :)

Acties:
  • 0 Henk 'm!

  • canth
  • Registratie: Augustus 2002
  • Laatst online: 09-09 16:31
Bramm schreef op dinsdag 17 juli 2012 @ 13:05:
Ahá, ik wist nog niet van het bestaan van een Kepler boost. Opgelost :)
Die kepler boost is een beetje apart, je zou verwachten dat de boost clock al de turbo is, maar ik heb in games zowel de boost clock als de nominale clock nog nooit gezien.
Voorbeeld: mijn Gainward Phantom 670GTX heeft een coreclock van 1006 MHz en een Boost clock van 1086. Zonder iets te overclocken loopt de videokaart op 1229 MHz. Dit betekent dus ten opzichte van de normale boost een extra overclock van 143 MHz. Dit getal is bij elke 6xx kaart anders, maar wel altijd een factor van 13 (dus 39 MHz, 52 MHz, 130 MHz etc.)
Dit verklaard ook waarom twee gelijk geklokte kaarten toch een verschillende performance kunnen hebben.
Bij het overklokken weet ik niet precies wat de 'base' waarde is waar van wordt uitgegaan.
Ikzelf heb er met Afterburner 125 MHz bij kunnen klokken, de kaart draait nu heaven stabiel op 1275 MHz. Dit zou betekenen dat de 'base' waarde voor de overclock 1150 MHz zou moeten zijn, hoe dat rijmt met de andere genoemde aantallen is mij nog niet helemaal duidelijk (als iemand dat nog weet houd ik mij aanbevolen).

Er schijnen inderdaad een aantal Asus kaarten geweest te zijn die dusdanig hoge turbo clocks hadden dat ze op stock al uitvielen (als je turbo naar 1280 gaat moet je wel een aardig goede kaart hebben).
Heb helaas niet meer de link kunnen vinden waar dit allemaal wordt uitgelegd..

[ Voor 17% gewijzigd door canth op 17-07-2012 13:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

hallo ik heb een Nvidea gxt 680....origieneel laten of overclocken heeft dat veel meer waarde bij gaming?
of merk je hier weinig van gezien de al goede prestaties

[ Voor 26% gewijzigd door Verwijderd op 17-07-2012 13:40 ]


Acties:
  • 0 Henk 'm!

  • canth
  • Registratie: Augustus 2002
  • Laatst online: 09-09 16:31
Als je een goede kaart hebt kun je er nog ongeveer 10% aan frames bij knutselen. Of dat echt de moeite is moet je voor jezelf afwegen. Ik ben zelf hard aan het experimenteren geslagen, we zitten hier tenslotte wel op tweakers.net!

Acties:
  • 0 Henk 'm!

Verwijderd

Ik doe het met een gtx680 DC2O wel voor BF3 en crysis 2, ik wil namelijk geen romp onder de 50FPS hebben en met een oc van 1260 core en 1720 mem lukt dat aardig. Met bf3 ultra pressent haal ik gemiddeld zo'n 85 fps 1920x1080 4xAA. Dat is heel wat meer dan een stock gtx680.
Voordeel voor mij is dat ik nu geen sli meer nodig ben en een betere gameplay ervaar.
Memory gebruik heb ik nog niet over de 1540MB zien gaan verder.

[ Voor 46% gewijzigd door Verwijderd op 17-07-2012 13:55 ]


Acties:
  • 0 Henk 'm!

Verwijderd

die AA...blijf ik raar vinden..
het blurt het geheel....wat het wellicht smoother laat overkomen maar technisch wordt de graphics iets minder..daarbij ook nog eens een fps drop....maar ik zal eens kijken bij the witcher2 als ik em heb... met aan en uit ..misschien zie ik het verkeerd

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is geloof ik alleen met FXAA in bf3?

Acties:
  • 0 Henk 'm!

  • vinom
  • Registratie: Augustus 2009
  • Nu online
FXAA blurred het gebeuren, MSAA niet.

Acties:
  • 0 Henk 'm!

Verwijderd

ja bij de witcher 2 heb je de uber sampling, neem aan hetzelfde

Acties:
  • 0 Henk 'm!

  • RandomAsianDude
  • Registratie: Juni 2012
  • Niet online
Beste mensen ik heb hulp nodig...

Ik heb een gtx 680 (asus reference) aangeschaft voor mijn systeem (8GB, i5 2310 2.90 ghz, PSU 450w, 1280x1024 monitor)
Het is een below average systeem geloof ik maar de videokaart is high-end.. Ik dacht dat het wel een goede investering zou zijn. Ik hoef me nu tenminste geen zorgen te maken als ik me monitor upgrade :P

Nu vraag ik me af of if meer fps kan krijgen in BF3 als ik mijn voeding vernieuw. Kan het kloppen dat mijn fps soms wel tot 50 daalt doordat mijn voeding niet krachtig genoeg is? Of ligt het aan de processor bijvoorbeeld?
Of aan beide? Ik zal het waarderen als iemand mij kan zeggen wat ik moet veranderen om gewoon boven de 70 fps te blijven.

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • Progeny
  • Registratie: November 2009
  • Laatst online: 05-06-2021
Ik heb precies hetzelfde met een 7970 nu. fps drops tussen de 10 en 50 fps ten opzichte van mijn voormalige 7950 en 670 top met hogere minimum fps. Ook een 450W voeding hiero.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
RandomAsianDude schreef op dinsdag 17 juli 2012 @ 18:10:
Beste mensen ik heb hulp nodig...

Ik heb een gtx 680 (asus reference) aangeschaft voor mijn systeem (8GB, i5 2310 2.90 ghz, PSU 450w, 1280x1024 monitor)
Het is een below average systeem geloof ik maar de videokaart is high-end.. Ik dacht dat het wel een goede investering zou zijn. Ik hoef me nu tenminste geen zorgen te maken als ik me monitor upgrade :P

Nu vraag ik me af of if meer fps kan krijgen in BF3 als ik mijn voeding vernieuw. Kan het kloppen dat mijn fps soms wel tot 50 daalt doordat mijn voeding niet krachtig genoeg is? Of ligt het aan de processor bijvoorbeeld?
Of aan beide? Ik zal het waarderen als iemand mij kan zeggen wat ik moet veranderen om gewoon boven de 70 fps te blijven.

Alvast bedankt!
Wat een bizarre combinatie! een 1280x1024 monitor met een 680... je 680 zit te schreeuwen om wat te doen!
Een PSU geeft niet meer FPS, als je PSU niet toereikend is crashed je systeem. Niet meer niet minder.
Dat je FPS naar de 50 zakt is niet meer dan normaal, helemaal op B2K maps. Ligt meer aan de maps zelf dan dat je systeem het niet meer aan zou kunnen.

Beetje slimme koper had een 670 met een HD monitor gehaald.

Acties:
  • 0 Henk 'm!

Verwijderd

RandomAsianDude schreef op dinsdag 17 juli 2012 @ 18:10:
Beste mensen ik heb hulp nodig...

Ik heb een gtx 680 (asus reference) aangeschaft voor mijn systeem (8GB, i5 2310 2.90 ghz, PSU 450w, 1280x1024 monitor)
Het is een below average systeem geloof ik maar de videokaart is high-end.. Ik dacht dat het wel een goede investering zou zijn. Ik hoef me nu tenminste geen zorgen te maken als ik me monitor upgrade :P

Nu vraag ik me af of if meer fps kan krijgen in BF3 als ik mijn voeding vernieuw. Kan het kloppen dat mijn fps soms wel tot 50 daalt doordat mijn voeding niet krachtig genoeg is? Of ligt het aan de processor bijvoorbeeld?
Of aan beide? Ik zal het waarderen als iemand mij kan zeggen wat ik moet veranderen om gewoon boven de 70 fps te blijven.

Alvast bedankt!
De volgende aankom zou ik voor een 1920x1080 monitor gaan als ik jou was, past mooi bij de gtx680. :*)

Acties:
  • 0 Henk 'm!

  • Flozem
  • Registratie: Januari 2007
  • Laatst online: 22:34
1900x1200 vind ik dan toch het minimum... liefst twee... ;)

[ Voor 14% gewijzigd door Flozem op 18-07-2012 00:19 ]


Acties:
  • 0 Henk 'm!

  • p0st
  • Registratie: April 2010
  • Laatst online: 14:33

p0st

Dutch Reefer

Flozem schreef op woensdag 18 juli 2012 @ 00:17:
1900x1200 vind ik dan toch het minimum... liefst twee... ;)
Dat ligt er dan weer net aan of je veel video's kijkt (dan is 1920x1080 beter) of veel met documenten/foto's werkt (dan is 1920x1200 beter). Ik heb zelf voor een 1080p scherm gekozen, en dat bevalt mij goed, maar die keuze is dus geheel persoonlijk en hangt samen met waarvoor je je PC het meeste gaat gebruiken :)

🐠 Reef Tank @ Instagram 🖥️ x570 \\ 5950x \\ RTX3070


Acties:
  • 0 Henk 'm!

  • TheDeeGee
  • Registratie: Oktober 2005
  • Niet online
Vind persoonlijk 16:10 verhouding ook fijner. Mocht mijn huidige monitor ooit kapot gaan ga ik voor 1920 x 1200. Ik heb nu 1680 x 1050, een EIZO FlexScan S2231W.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
1080p is zoó 2009 :+ Heb een U2711 (2560x1440 en IPS scherm) als je dan achter een 1080p TN scherm zit is dat echt een heel stuk minder qua kwaliteit. Zeker omdat die 680 dat makkelijk trekt zou ik kijken naar zon zelfde scherm kijken en geen half bakke TN paneel neerzetten dat lijkt me beetje zonde van je 680. Overigens 1 2560x1600 scherm is bijna net zo duur als 2 U2711's dus dat kan ik afraden.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

Verwijderd

naaitsab schreef op woensdag 18 juli 2012 @ 11:48:
1080p is zoó 2009 :+ Heb een U2711 (2560x1440 en IPS scherm) als je dan achter een 1080p TN scherm zit is dat echt een heel stuk minder qua kwaliteit. Zeker omdat die 680 dat makkelijk trekt zou ik kijken naar zon zelfde scherm kijken en geen half bakke TN paneel neerzetten dat lijkt me beetje zonde van je 680. Overigens 1 2560x1600 scherm is bijna net zo duur als 2 U2711's dus dat kan ik afraden.
Zonde? Echt praat AUB alleen voor je zelf. Is namelijk niet zonde want de gtx680 heeft het zeker moeilijk al in een aantal games op 1920x1080. En ik spreek uit echte ervaring.

Vraag aan de TS, wat voor games ga je vooral spelen want bepaalde games hebben voordelen voor bepaalde resoluties.

[ Voor 9% gewijzigd door Verwijderd op 18-07-2012 11:59 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Die resolutie is inderdaad net vaak iets TE voor veeleisende games. Ja of je gaat bij bijvoorbeeld BF3 op medium en high zetten.

Acties:
  • 0 Henk 'm!

Verwijderd

En wat ook een nadeel is vind ik is dat je minder goed alles waar kan nemen bij FPS games bij 16k resloluties. De gameplay word een stuk moeilijke omdat de opjecten kleiner worden Veel pro gamers gamen niet voor niets op 800x600 alleen vind ik dat weer te laag van het goede.

Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 11-09 13:24

Phntm

Tlingelingeling

Verwijderd schreef op woensdag 18 juli 2012 @ 12:13:
En wat ook een nadeel is vind ik is dat je minder goed alles waar kan nemen bij FPS games bij 16k resloluties. De gameplay word een stuk moeilijke omdat de opjecten kleiner worden Veel pro gamers gamen niet voor niets op 800x600 alleen vind ik dat weer te laag van het goede.
800x600? Sorry wat? Waar heb jij dat gehoord. Programers willen juist op een zo hoog mogelijke resolutie spelen om juist meer te spotten in hun gebied, maar dan laten ze de graphic settings lekker op low of mid staan want dat kan voor een FPS hit zorgen. En progamers gebruiken 120hz schermen want dafuq datrefreshrate.

Dus ik weet niet of dat 800x600 ook uit "ervaring" was, maar dat is klinklare onzin.

Acties:
  • 0 Henk 'm!

Verwijderd

Phntm schreef op woensdag 18 juli 2012 @ 12:22:
[...]


800x600? Sorry wat? Waar heb jij dat gehoord. Programers willen juist op een zo hoog mogelijke resolutie spelen om juist meer te spotten in hun gebied, maar dan laten ze de graphic settings lekker op low of mid staan want dat kan voor een FPS hit zorgen. En progamers gebruiken 120hz schermen want dafuq datrefreshrate.

Dus ik weet niet of dat 800x600 ook uit "ervaring" was, maar dat is klinklare onzin.
Nee haal ik van het internet af van meerdere gamers sites, en het is geen onzin want ze hebben het nergens over hoge resoluties. Het gaat wel alleen om shooters want dan is de hitpoint veel groter dan bij hogere resoluties.

[ Voor 11% gewijzigd door Verwijderd op 18-07-2012 12:29 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
Verwijderd schreef op woensdag 18 juli 2012 @ 11:57:
[...]

Zonde? Echt praat AUB alleen voor je zelf. Is namelijk niet zonde want de gtx680 heeft het zeker moeilijk al in een aantal games op 1920x1080. En ik spreek uit echte ervaring.

Vraag aan de TS, wat voor games ga je vooral spelen want bepaalde games hebben voordelen voor bepaalde resoluties.
Een 670 OC trekt 1 1080p scherm gemakkelijk games naar 40-80FPS dus dan weet ik niet wat voor 680 jij hebt. Zeker als je een stock 680 koopt is dat echt een zinloze uitgave aangezien een 670OC een stuk goedkoper is en als je benchmarks raadpleegt zul je zien dat die net zo snel en soms zelfs sneller is als een 680.
Dat een scherm 1440p is betekend niet dat je niet kan gamen op 1080p, dat werkt prima op een U2711 bijvoorbeeld mijn PS3 die kan niet hoger dan 1080P en dat doet niks onder aan de kwaliteit op 1440P.
Sn0wblind schreef op woensdag 18 juli 2012 @ 12:02:
Die resolutie is inderdaad net vaak iets TE voor veeleisende games. Ja of je gaat bij bijvoorbeeld BF3 op medium en high zetten.
Ik speel BF3 op High (merk geen verschil met Ultra op 1080p als ik speel dus dat vind ik zinloos) op een resolutie van 2560x1440 met een GTX570 OC (zie verdere systeem specs) dus dat valt allemaal wel mee. Op de veeleisende maps (Oman bijv) draait het systeem op 40FPS dus dat vind ik prima, in normale maps 45-50, als ik de boel op Ultra zet gaat het wel lastig op die resolutie maar zoals ik al zei ik merk geen verschil ingame.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

Verwijderd

naaitsab schreef op woensdag 18 juli 2012 @ 12:28:
[...]

Een 670 OC trekt 1 1080p scherm gemakkelijk games naar 40-80FPS dus dan weet ik niet wat voor 680 jij hebt. Zeker als je een stock 680 koopt is dat echt een zinloze uitgave aangezien een 670OC een stuk goedkoper is en als je benchmarks raadpleegt zul je zien dat die net zo snel en soms zelfs sneller is als een 680.
Dat een scherm 1440p is betekend niet dat je niet kan gamen op 1080p, dat werkt prima op een U2711 bijvoorbeeld mijn PS3 die kan niet hoger dan 1080P en dat doet niks onder aan de kwaliteit op 1440P.
Ik speel met een gtx680 dc2 dus een snellere gtx670 is er niet En zinloos is mijn uitgave niet want ik heb er veel aan bij een aantal games want ik heb soms drops naar de 50 toe en dat is dan nog net te doen.
Als ik een hogere resolutie zou nemen moet ik haast wel een 2e gtx680 er bij aanschaffen andes word het een stotterfeest.

Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 11-09 13:24

Phntm

Tlingelingeling

Verwijderd schreef op woensdag 18 juli 2012 @ 12:27:
[...]


Nee haal ik van het internet af van meerdere gamers sites, en het is geen onzin want ze hebben het nergens over hoge resoluties. Het gaat wel alleen om shooters want dan is de hitpoint veel groter dan bij hogere resoluties.
Hitpoint? Wat? Waar heb jij het over Lupp, ik weet niet wat voor games OF wat voor sites je het over hebt, maar neem het van mij aan van wat ik zei in de vorige post.

Acties:
  • 0 Henk 'm!

Verwijderd

Phntm schreef op woensdag 18 juli 2012 @ 12:34:
[...]


Hitpoint? Wat? Waar heb jij het over Lupp, ik weet niet wat voor games OF wat voor sites je het over hebt, maar neem het van mij aan van wat ik zei in de vorige post.
Ik neem dat niet aan want de pro games willen op lage resoluties spelen met FPS games want de hitpoint word groter en makkelijker te raken, en als je niet weet wat de hitpoit heb dan vraag ik me af of het wel verstandig is om hier over me te praten.
Edit

En het lieft ook nog op zo'n dikke CRT beeldbuis monitor..

[ Voor 16% gewijzigd door Verwijderd op 18-07-2012 12:39 ]


Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 11-09 13:24

Phntm

Tlingelingeling

Verwijderd schreef op woensdag 18 juli 2012 @ 12:35:
[...]

Ik neem dat niet aan want de pro games willen op lage resolutis spelen met FPS games want de hitpoit word groter en makkelijker te raken. Typ maar in op internet dan zie je dat ik gelijk heb.
De grootte van de hitpoints ligt aan de netcode van het spel. Jij wilt altijd gelijk hebben terwijl je bij outdated sources zit, of bij rare gaming sites staat ze zoeken. Ga maar eens een pro direct vragen welke resolutie ze spelen. Ze kiezen het sweet spot van een spel of de hoogste resolutie mogelijk voor hun.

Jij moet eens even niet meer zo offtopic gaan met je 800x600 kerel want je zit er helemaal naast en ik geloof dat het beter is dat je eens een goeie bron zoekt en echt gaat uitzoeken. Wil je denken dat je gelijk hebt, blijf dat maar denken, vind ik best. Maar deze discussie stopt hier, moet je wat, DM is mogelijk. :)

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
Verwijderd schreef op woensdag 18 juli 2012 @ 12:33:
[...]

Ik speel met een gtx680 dc2 dus een snellere gtx670 is er niet En zinloos is mijn uitgave niet want ik heb er veel aan bij een aantal games want ik heb soms drops naar de 50 toe en dat is dan nog net te doen.
Als ik een hogere resolutie zou nemen moet ik haast wel een 2e gtx680 er bij aanschaffen andes word het een stotterfeest.
Ik had het over een 670OC vs 680 stock (reference), een 680 OC is nog eens een pak duurder. Op het moment van schrijven is een 670 OC van ASUS/Gigabyte 399 en de 680 OC van ASUS 499 en ASUS 520, die 120 euro zou het mij toch echt niet waard zijn voor die wat extra FPS zeker niet aangezien alle genoemde types "slechts" 2GB Vram hebben had ik een iets lagere instelling toch voor lief genomen om 120 euro te besparen.

En zoals ik zei je bent niet verplicht om op 1440p gamen als je een spel hebt wat erg zwaar is of niet lekker loopt (denk aan gta4 bij de release) dan zet je m toch gewoon op 1080/1200p? Dat is het voordeel van een knap scherm dan kan dat gewoon, zon "brak" samsung/lg/acer dingetje van 150-180 euro op zijn niet-standaard (native) resolutie instellen ziet er niet al te jovel uit.

Kom het op mn werk ook tegen lui die zo 800-1200 euro voor een upgrade neerleggen (mobo,cpu,gpu enz) maar een knap scherm is niet belangrijk :') Volgens mij zorgt je scherm voor een goeie kleur/contrast weergave en niet je GPU, een onboard intel GPU geeft immers hetzelfde kwaliteit 2D beeld weer als een GTX690.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

Verwijderd

Phntm schreef op woensdag 18 juli 2012 @ 12:40:
[...]


De grootte van de hitpoints ligt aan de netcode van het spel. Jij wilt altijd gelijk hebben terwijl je bij outdated sources zit, of bij rare gaming sites staat ze zoeken. Ga maar eens een pro direct vragen welke resolutie ze spelen. Ze kiezen het sweet spot van een spel of de hoogste resolutie mogelijk voor hun.

Jij moet eens even niet meer zo offtopic gaan met je 800x600 kerel want je zit er helemaal naast en ik geloof dat het beter is dat je eens een goeie bron zoekt en echt gaat uitzoeken. Wil je denken dat je gelijk hebt, blijf dat maar denken, vind ik best. Maar deze discussie stopt hier, moet je wat, DM is mogelijk. :)
Ik heb het zelf in pro verband gespeel met je vooroordelen en op de persoon in gaan, tijden van Deltaforce
Laat de pro's maar eens reageren dan voor dat de TS een verkeerde aankoop doet door jou.
Zoals ik al zij gaan de pro's liever voor een CRT scherm maar als je het zo goed weet kom dan dan met echte bronnen die ik zo eens zal posten.
naaitsab schreef op woensdag 18 juli 2012 @ 12:48:
[...]

Ik had het over een 670OC vs 680 stock (reference), een 680 OC is nog eens een pak duurder. Op het moment van schrijven is een 670 OC van ASUS/Gigabyte 399 en de 680 OC van ASUS 499 en ASUS 520, die 120 euro zou het mij toch echt niet waard zijn voor die wat extra FPS zeker niet aangezien alle genoemde types "slechts" 2GB Vram hebben had ik een iets lagere instelling toch voor lief genomen om 120 euro te besparen.

En zoals ik zei je bent niet verplicht om op 1440p gamen als je een spel hebt wat erg zwaar is of niet lekker loopt (denk aan gta4 bij de release) dan zet je m toch gewoon op 1080/1200p? Dat is het voordeel van een knap scherm dan kan dat gewoon, zon "brak" samsung/lg/acer dingetje van 150-180 euro op zijn niet-standaard (native) resolutie instellen ziet er niet al te jovel uit.

Kom het op mn werk ook tegen lui die zo 800-1200 euro voor een upgrade neerleggen (mobo,cpu,gpu enz) maar een knap scherm is niet belangrijk :') Volgens mij zorgt je scherm voor een goeie kleur/contrast weergave en niet je GPU, een onboard intel GPU geeft immers hetzelfde kwaliteit 2D beeld weer als een GTX690.
Ja oké hoe je er poersoonlijk over denkt dan kan kan ik er in komen als ik jou was, maar mij boeid het niet echt dat ik 300 euro meer moet neertellen voor meer fps die wel goed uitkomen en hogere gfx instelingen.
Allemaal persoonlijk ;)

[ Voor 117% gewijzigd door Verwijderd op 18-07-2012 12:56 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 21:26
Verwijderd schreef op woensdag 18 juli 2012 @ 12:48:
Ja oké hoe je er poersoonlijk over denkt dan kan kan ik er in komen als ik jou was, maar mij boeid het niet echt dat ik 300 euro meer moet neertellen voor meer fps die wel goed uitkomen en hogere gfx instelingen.
Allemaal persoonlijk ;)
Als je je hand niet omdraait voor 300 euro extra waarom heb je dan geen Gigabyte 670OC in SLI gekocht? stuk sneller dan 1 680, die ASUS koeler is zo lomp dat die in SLI niet zo lekker in je kast past.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

Verwijderd

Omdat als het nodig zal zijn ik deze in sli ga zetten, momenteel is dat nog niet nodig en heb deze kaart puur gekocht omdat die net aan mijn eisen voldoet, ook maar net. Past verder prima in mijn kast

Mijn keuze voor de gtx680 asus dc2 heb ik gemaakt om deze redenen.
Haald hogere klocks
Blijft rond de 60 graden onder full load
Je hoord hem niet
Ziet er mooi uit in mijn glazen kast.

[ Voor 32% gewijzigd door Verwijderd op 18-07-2012 13:26 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Lupp, Deltaforce is uit 1998. We zijn ongeveer 14 !! jaar verder.

Ik kan me niet voorstellen dat de huidige pro's, op een uitzondering na, nog op een CRT en/of 800*600 spelen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Klopt is al een oud spel, speel hem ook niet meer. En ben zeker geen pro gamer meer echter ken ik nog wel wat die hards die enkel op een CRT zitten te gamen omdat dat sneller en beter werkt. Maar goed dat is ook een sellectief groepje die ik onder de echte pro's versta. Mainstream is 1680x1050 1920x1080 en 1920x1200, maar dat zijn zeker niet de pro's. Ik kan er helaas ook weinng over vinden op internet, enkel
wat pro's op websites die het vertellen op fora, dus niet echt een artiekeltje helaas.

[ Voor 17% gewijzigd door Verwijderd op 18-07-2012 14:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb vandaag een standaard evga gtx 670 gehaald.
Nu heb ik er eff wat benchmarks mee gedraaid standaard,alleen fanspeed handmatig op 60 gezet.
Nu is de performance helemaal top,alleen als ik via gpu-z kijk wat de max clocks geweest zijn zegt ie 1105mhz,dit hoort tock 980mhz boost clock te zijn?

Acties:
  • 0 Henk 'm!

  • M4DMan
  • Registratie: April 2009
  • Laatst online: 29-04-2024

M4DMan

Into disorder!

Verwijderd schreef op woensdag 18 juli 2012 @ 16:15:
Ik heb vandaag een standaard evga gtx 670 gehaald.
Nu heb ik er eff wat benchmarks mee gedraaid standaard,alleen fanspeed handmatig op 60 gezet.
Nu is de performance helemaal top,alleen als ik via gpu-z kijk wat de max clocks geweest zijn zegt ie 1105mhz,dit hoort tock 980mhz boost clock te zijn?
Goeie batch, ik zit op 1071 max boost clock met een EVGA GTX 670 :P En idd, volgens de specs zou de boost clock 980 moeten zijn.. Geen idee waarom dit hoger ligt..

Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 11-09 13:24

Phntm

Tlingelingeling

M4DMan schreef op woensdag 18 juli 2012 @ 17:17:
[...]


Goeie batch, ik zit op 1071 max boost clock met een EVGA GTX 670 :P En idd, volgens de specs zou de boost clock 980 moeten zijn.. Geen idee waarom dit hoger ligt..
Je temperatuur. De kaart overklokt zichzelf afhankelijk van de temperatuur. Heb je een lekker lage temperatuur in je kast en omgeving en runt je kaart ook koeler, dan overklokt het zichzelf hoger. Zo runt mijn kaart vanzelf 1110 mhz in plaats van 1058. Lang leve EVGA GTX 680 reference :+

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op woensdag 18 juli 2012 @ 14:18:
Klopt is al een oud spel, speel hem ook niet meer. En ben zeker geen pro gamer meer echter ken ik nog wel wat die hards die enkel op een CRT zitten te gamen omdat dat sneller en beter werkt. Maar goed dat is ook een sellectief groepje die ik onder de echte pro's versta. Mainstream is 1680x1050 1920x1080 en 1920x1200, maar dat zijn zeker niet de pro's. Ik kan er helaas ook weinng over vinden op internet, enkel
wat pro's op websites die het vertellen op fora, dus niet echt een artiekeltje helaas.
Ik zal je nog even uitleggen waarom "progamers" op 640x480 en 800x600 spelen:
HUD schaalt in CS 1.6 met de resolutie, hoe hoger de resolutie hoe kleiner je HUD.
En aangezien TFT's op een non-native resolutie niet zulk mooi beeld geven als een CRT spelen veel CS 1.6 die-hards nog met CRT's.
Ik noem CS 1.6 als voorbeeld omdat die game IMO de enige shooter is die serieus genomen is in e-sports.

Heeft helemaal niks te maken met hitboxes of wat dan ook.

[ Voor 5% gewijzigd door unfor op 18-07-2012 19:18 ]


Acties:
  • 0 Henk 'm!

  • kevz
  • Registratie: Maart 2006
  • Laatst online: 22:07
Ze spelen op die resolutie omdat ze dat gewend zijn. Als ze inderdaad nog op een CRT spelen dan komt erbij dat die 120hz en meer aankunnen de lager de resolutie is. Je kan met een fatsoenlijke 120hz LCD dezer dagen flink meekomen hoor ;)

Ik hoorde van een maat dat ATI/AMD weer prijzen verlaagd hebben, hoop zelf dat NV ze ook wat naar beneden gaat schroeven, zit ernstig te azen op een oc'd 670 :)

Mijn YouTube


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Ze hebben de AMD prijzen nu meer in de lijn van wat ze presteren tegenover de Nvidia kaarten, de 7950 is natuurlijk slomer als de Geforce 670 maar had wel een zelfde soort prijs.

Acties:
  • 0 Henk 'm!

  • M4DMan
  • Registratie: April 2009
  • Laatst online: 29-04-2024

M4DMan

Into disorder!

Phntm schreef op woensdag 18 juli 2012 @ 17:25:
[...]


Je temperatuur. De kaart overklokt zichzelf afhankelijk van de temperatuur. Heb je een lekker lage temperatuur in je kast en omgeving en runt je kaart ook koeler, dan overklokt het zichzelf hoger. Zo runt mijn kaart vanzelf 1110 mhz in plaats van 1058. Lang leve EVGA GTX 680 reference :+
Hoppa nice! Laat ik dan net morgen een backplate voor mijn kaart binnenkrijgen, zal de temperatuur ook weer wat mee droppen.

Op mijn vorige kaart (EVGA GTX 570) had ik ook een backplate + highflow bracket, dropte de temps ongeveer 3/4 graden idle en 6/7 graden onder load. Het is wel aangenaam dat op de laatste batches GTX 670 al een highflow bracket vanuit de fabriek geplaatst is :D

Voor de mensen met een EVGA kaart, de backplates voor zowel de GTX 680 als de 670 zijn weer beschikbaar via de EU store, bestellen maar!

[ Voor 37% gewijzigd door M4DMan op 19-07-2012 11:23 ]


Acties:
  • 0 Henk 'm!
Sn0wblind schreef op woensdag 18 juli 2012 @ 22:47:
Ze hebben de AMD prijzen nu meer in de lijn van wat ze presteren tegenover de Nvidia kaarten, de 7950 is natuurlijk slomer als de Geforce 670 maar had wel een zelfde soort prijs.
Nee goedkope GTX670 waren niet te krijgen, nu al een stuk beter, maar nu zijn de AMD kaarten dus beter geprijst, tenzij je veel waarde hecht aan verbruik en minder aan prijs/prestatie.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
-The_Mask- schreef op donderdag 19 juli 2012 @ 11:44:
[...]

Nee goedkope GTX670 waren niet te krijgen, nu al een stuk beter, maar nu zijn de AMD kaarten dus beter geprijst, tenzij je veel waarde hecht aan verbruik en minder aan prijs/prestatie.
Toen ik mijn 670 kocht, was deze net zo duur als een 7950 die minder presteerd. DUs een lichte prijsverlaging daarbij prijst de 7950 meer naar hoe die presteerd tegenover de 670.

Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op woensdag 18 juli 2012 @ 19:16:
[...]

Ik zal je nog even uitleggen waarom "progamers" op 640x480 en 800x600 spelen:
HUD schaalt in CS 1.6 met de resolutie, hoe hoger de resolutie hoe kleiner je HUD.
En aangezien TFT's op een non-native resolutie niet zulk mooi beeld geven als een CRT spelen veel CS 1.6 die-hards nog met CRT's.
Ik noem CS 1.6 als voorbeeld omdat die game IMO de enige shooter is die serieus genomen is in e-sports.

Heeft helemaal niks te maken met hitboxes of wat dan ook.
Heeft wel te maken met de resolutie. Als je een kleinere standaard resolutie hebt zijn de pixels groter. Verder blijft het opject wat je wil raken even veel pixel behouden en heeft die dus voor het oog een grotere raak oppervlak.

Acties:
  • 0 Henk 'm!

  • Mr Silver
  • Registratie: April 2012
  • Laatst online: 27-05 22:40
Kan iemand me vertellen of deze series ook veel last hebben van coil whine?

Ik zie overigens niet echt een verschil anders dan de prijs en een extra video-uit tussen deze 2:
http://tweakers.net/pricewatch/compare/49/310583;315459

[ Voor 51% gewijzigd door Mr Silver op 19-07-2012 14:24 ]


Acties:
  • 0 Henk 'm!

  • Robin198
  • Registratie: Maart 2012
  • Laatst online: 01-09 18:20
Ohmygod na 2,5 maand is mijn GTX690 verzonden! Morgen of zaterdag eindelijk mijn build afmaken, en uiteraard lekker experimenteren met de overclock van de 690! Iemand hier nog tips over wat de veilige freq en volts zijn?

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op donderdag 19 juli 2012 @ 12:44:
[...]

Heeft wel te maken met de resolutie. Als je een kleinere standaard resolutie hebt zijn de pixels groter. Verder blijft het opject wat je wil raken even veel pixel behouden en heeft die dus voor het oog een grotere raak oppervlak.
Wat is dit nu weer voor een onzin, 3d objecten worden niet groter of kleiner naarmate je resolutie veranderd.
Alleen 2d sprites zoals huds schalen in oudere games vaak niet, in CSS schaalt je hud wel gewoon mee.

Om mijn punt te bewijzen, open beide plaatjes in een nieuw tab en switch heen en weer.
http://tweakers.net/ext/f/kDPsclznQqwMHS9L37wzeFTC/full.jpg (1280x960)
http://tweakers.net/ext/f/2uk96wUKx7LEVUvwtddFX7iK/full.jpg (640x480 2x opgerekt naar 1280x960)

[ Voor 18% gewijzigd door unfor op 19-07-2012 16:25 ]


Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Mr Silver schreef op donderdag 19 juli 2012 @ 13:35:
Kan iemand me vertellen of deze series ook veel last hebben van coil whine?

Ik zie overigens niet echt een verschil anders dan de prijs en een extra video-uit tussen deze 2:
http://tweakers.net/pricewatch/compare/49/310583;315459
Ik heb op de referentie ontwerpen in ieder geval nog geen coil whine gehoord.

Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op donderdag 19 juli 2012 @ 16:14:
[...]

Wat is dit nu weer voor een onzin, 3d objecten worden niet groter of kleiner naarmate je resolutie veranderd.
Alleen 2d sprites zoals huds schalen in oudere games vaak niet, in CSS schaalt je hud wel gewoon mee.

Om mijn punt te bewijzen, open beide plaatjes in een nieuw tab en switch heen en weer.
http://tweakers.net/ext/f/kDPsclznQqwMHS9L37wzeFTC/full.jpg (1280x960)
http://tweakers.net/ext/f/2uk96wUKx7LEVUvwtddFX7iK/full.jpg (640x480 2x opgerekt naar 1280x960)
Wel met de standaard resolutie. Hoe wil je anders meer pixels op een groter scherm krijgen als de pixels niet kleiner worden. Test maar eens met 2 schermen naast elkaar. Ik zie het hier zelf.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Verwijderd schreef op donderdag 19 juli 2012 @ 12:44:
[...]
Heeft wel te maken met de resolutie. Als je een kleinere standaard resolutie hebt zijn de pixels groter. Verder blijft het opject wat je wil raken even veel pixel behouden en heeft die dus voor het oog een grotere raak oppervlak.
Als jij serieus denkt dat hit-detection op basis van "beeldscherm-pixels" werkt, zou ik lekker gaan multiplayeren met een resolutie van 3x3 pixels. Hoef je niet eens te mikken, en schiet je alles raak!

@hieronder
Verwijderd schreef op donderdag 19 juli 2012 @ 17:55:
Kijk anders nog even in het andere topic over 27" scherm 1080p wel scherp.
Het geldt niet voor alle games maar dat wist ik dus niet.

Maar de TS heeft al lang een andwoord op zijn vraag TS?
:?

[ Voor 24% gewijzigd door SirNobax op 19-07-2012 18:15 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

Verwijderd

Kijk anders nog even in het andere topic over 27" scherm 1080p wel scherp.
Het geldt niet voor alle games maar dat wist ik dus niet.

Maar de TS heeft al lang een andwoord op zijn vraag TS?

[ Voor 46% gewijzigd door Verwijderd op 19-07-2012 17:57 ]


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op donderdag 19 juli 2012 @ 17:28:
[...]

Wel met de standaard resolutie. Hoe wil je anders meer pixels op een groter scherm krijgen als de pixels niet kleiner worden. Test maar eens met 2 schermen naast elkaar. Ik zie het hier zelf.
Gast waar heb je het over, welke standaard resolutie?
Houd op met jezelf belachelijk te maken :D

Acties:
  • 0 Henk 'm!

Verwijderd

Maar is het niet raar om benchmark van een stock 680 te gaan vergelijken met een zwaar overklokte en pcb aangepaste asus 670?.
Ik zou toch voor een 680 gaan gaan,alleen niet asus,want dan hangt er 3 kilo aan mijn board:) en watercool sowieso. Ik heb 2 gigabyte windforce gevallen, welke lichter overklokt zijn en deze staan sli ,watercooled met koolance coolblocks. Voor die prijs had je ook de 690 gehad...,alleen veelste mooi om eraan te gaan watercoolen.

Maar het gaat mij er meer om waarom de asus 680 a la overgekokt niet wordt vergeleken met de 670 a la overklok. Iedereen zegt nu infeite:die opel 1.4 waar zijn een turbo opgezet hebben is evensnel als de 2.0 16v ...rare vergelijkingen.

En wat mijn ervaringen met de giga's betreft....stockcooler is infeite al prima. Ben geen gamer maar bij bf3 haal ik rond de 70met de windforce.....ik begin altijd wel met de coolers op 50% te laten lopen. Over de sli-watercool kan ik weinig zeggen,aangezien ik me dooderger aan de samsung s27a750d , kan alleen zeggen dat bij furmark met de gpu op 1100 en geheugen op 1650 met een 70mv increase de boel na een kwartier 38graden was met fps'jes rond 110 ....idle is het nu 25 graden met dezelfde instellingen. Goede coolblokken en ogen nice itt die van ek met een kinderpatroontje erop.......

gr.rich

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op donderdag 19 juli 2012 @ 18:55:
Maar het gaat mij er meer om waarom de asus 680 a la overgekokt niet wordt vergeleken met de 670 a la overklok. Iedereen zegt nu infeite:die opel 1.4 waar zijn een turbo opgezet hebben is evensnel als de 2.0 16v ...rare vergelijkingen.
Waarom is dat een rare vergelijking als je voor 100 euro minder dan een 680 een 670 OC hebt die hetzelfde performed.
Uiteindelijk boeit het niemand welke kaart nou net die ene FPS meer geeft, maar de kaart die de beste bang for buck geeft.

Acties:
  • 0 Henk 'm!

Verwijderd

Nou, ik weet wel zeker dat de asus ook genomen wordt voor het uiterlijk...mooie backplate e.d. misstaat niet. Bij mij was dat iig geval bij de 570gtx de doorslag in eerste instantie. Alleen later kom je er pas achter dat er weinig koelblokken voor waren qua watercooling.
Ja ik zal niet ontkennen dat asus de beste is om te kopen. De gpu is het meest overklocked ,alleen het geheugen komt niet superver. Alleen om 1.5maand op een kaart te moeten wachten is bezopen.
Bang for a buck is het op dit moment iig niet bij die paar zaken welke hem echt kunnen leveren. Ja sorry, ik weet dat het offtopic is maar informartique is echt gek.....
Het is jammer dat je met de gigabyte niet verder kan dan de 110%target en de beperkte voltage tweak... Kwam de 660 nou volgende maand uit of is dat verschoven?.. Erg benieuwd naar wat die gaan qua scoren.

Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op donderdag 19 juli 2012 @ 18:12:
[...]

Gast waar heb je het over, welke standaard resolutie?
Houd op met jezelf belachelijk te maken :D
De max resolutie van het scherm.
Ik maak me verder iet belachelijk om iets wat klopt. 8)7

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op donderdag 19 juli 2012 @ 20:18:
[...]

De max resolutie van het scherm.
Ik maak me verder iet belachelijk om iets wat klopt. 8)7
Ik zie niet in wat de max resolutie van een scherm heeft te maken met de grootte van 3d objecten in een shooter.
Je manier van schrijven is erg onduidelijk.

Acties:
  • 0 Henk 'm!

Verwijderd

Laten we er maar over ophouden. Ik had het iig wel in het verleden met enkele shooters, dat was nog in mijn pro gaming tijd. Ik was altijd er na bang dat bij hoge resoluties de opjecten kleiner worden.
Zie het enkel nog wel met de crosshair gebeuren in shooters van tegenwoordig.
Maar goed ik ga maar niet verder oftopic.

Acties:
  • 0 Henk 'm!

  • Mr Silver
  • Registratie: April 2012
  • Laatst online: 27-05 22:40
Sn0wblind schreef op donderdag 19 juli 2012 @ 16:18:
[...]

Ik heb op de referentie ontwerpen in ieder geval nog geen coil whine gehoord.
Goed want het laatste dat ik wil is coil whine. Maar als ik Google vind ik er wel een paar:
YouTube: Nvidia GTX 680 COIL WHINE

Ik heb nu een AMD 7970 en die gaat waarschijnlijk morgen RMA (2de maal) en ik neem nu een ander model dus ik moet even een nieuwe uitzoeken met dezelfde of hogere prestaties.

Ik zat te denken aan een van deze 2 kaarten:
pricewatch: EVGA GTX 680 FTW+ 4GB pricewatch: Point of View GeForce GTX 680 Charged 4GB (geen idee of dat reference kaarten zijn)
Als (vrijwel) niemand daar coil whine op heeft dan denk ik dat ik er een neem tenzij iemand een betere weet < 700 euro en geen coil whine.
Als ze een beetje coil whine hebben op extreem hoge FPS (> 60) of op 100% gpu belasting dan alah, maar niet in een idle Windows of in Word ofzo in een stille kamer als ik aan het werken ben en dan *peeeeeeeeeeeeeeeeeeep ratel ratel peeeeeep* 8 uur lang.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Ik heb nu ik een extreem stille VGA cooler heb wel wat coil whine gehoord, echter is het bijna onhoorbaar. (alleen in furmark)
Heb ook wel kaarten gehad waarbij het overdreven irritant aanwezig was.

[ Voor 5% gewijzigd door unfor op 19-07-2012 21:09 ]


Acties:
  • 0 Henk 'm!

  • Mr Silver
  • Registratie: April 2012
  • Laatst online: 27-05 22:40
Is er ergens een white/black list ofzo van kaarten met lage/hoge kansen op coil whine? Of moet ik er een kopen en hopen op goed geluk dat ze het niet hebben?

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Mr Silver schreef op donderdag 19 juli 2012 @ 21:22:
Is er ergens een white/black list ofzo van kaarten met lage/hoge kansen op coil whine? Of moet ik er een kopen en hopen op goed geluk dat ze het niet hebben?
Er is niet een kaart die het wel of niet heeft.
Maar wat ik uit de reacties opmaak, is dat de 6xx serie over het algemeen vrij weinig coil whine heeft.
Overigens vind ik het hele coil whine een beetje een non-issue, je hoort het alleen bij extreme hoge fps in menu's en in furmark.
Pagina: 1 ... 10 ... 23 Laatste

Let op:
Dit is een topic voor ervaringen, niet voor geneuzel over levertijden of meldingen dat je er eentje besteld hebt...

Hou het on-topic, levertijden horen sowieso niet in de techfora thuis maar in Shopping Forum