Toon posts:

Welke grafische kaart voor gamen op 1900 x 1200

Pagina: 1
Acties:
  • 4.410 views

Verwijderd

Topicstarter
Beste Tweakers,

Ik ga binnen enkele maanden een nieuwe pc kopen maar ik ben er nog niet helemaal uit welke grafische kaart het gaat worden. Ik ga er zeker op gamen maar op het moment van schrijven weet ik nog niet welke games ik ga spelen. Ik kan er dus maar beter van uitgaan dat ik een goede grafische kaart nodig heb dan dat ik een wat mindere koop en er daarna spijt van krijg. Ik zit echter met twee ''problemen'':

1. Ik heb nu nog een 17'' 1280 x 1024 monitor maar ik ben van plan een wat grotere te kopen van 1900 x 1200. Dit schijnt zeer veel van je grafische kaart te kosten. Ik moet alle games op high (hoeft niet per se zolang het er maar goed uitziet) kunnen runnen op deze resolutie. Ik heb al gezien dat dat met crysis erg moeilijk gaat. Misschien ga ik dit spel wel niet vaak spelen maar toch heb ik graag dat hij het gewoon ''doet'' (niet op onspeelbare fps).

2. Mede dankzij de wat grotere monitor lopen de stroomkosten hoog op. Nou vind ik de hd4850 een zeer goede kaart als je kijkt naar de stroomkosten. Alleen ik weet dus niet hoe deze het gaat doen op hogere resoluties. Ik vind het op zich niet erg dat mijn pc 300 watt trekt als hij crysis aan het spelen is maar als dat echt zo is bij elke game dan vind ik het te ver gaan. Is het zo dat een game zoals cod4 300 watt van mijn pc vergt (met een gtx260) omdat hij voor de uiterste prestaties gaat (hoogste fps) of het zo dat een iets mindere game ook daadwerkelijk minder stroom trekt?

Ik zit dus erg te twijfelen tussen de hd4850, de hd4870 en de gtx 260.
De hd4850 vind ik geweldig vanwege zijn prijs en vanwege de stroomkosten. Als dit toereikend is zelfs bij een resolutie van 1900 x 1200, neem ik deze.
Als de stroomkosten in load te remmen zijn vind ik de gtx 260 of de hd 4870 een goede keuze. Ik heb alleen gehoord dat de hd4870 te veel stroom nodig heeft in idle. Nu zou dit verholpen worden door de nieuwe driver. Is die driver er al? Zoja werkt het goed?

Mijn overige systeemspecs zijn:
Intel core I7 920 2.66 ghz
asus p6t deluxe x58
3 x 1gb cl7 1333mhz ddr3 geheugen
500gb seagate hdd 7200 rpm 16mb buffer
asus dvd-rom drive
coolermaster m600 voeding (600 watt)
Antec ninehundred

Bij voorbaat dank als je op dit topic reageert!

Even voor de duidelijkheid: Het gaat mij er niet om of mijn voeding het trekt maar om het stroomverbruik (dus wat ik moet gaan betalen).

[ Voor 3% gewijzigd door Verwijderd op 12-01-2009 20:41 ]


  • Outerspace
  • Registratie: Februari 2002
  • Laatst online: 13:52

Outerspace

Moderator General Chat / Wonen & Mobiliteit

AFX Ghey Edition by HlpDsK

Met zo'n voeding maakt het toch niet uit als je een wat sterkere videokaart gebruikt? Dan zou ik toch echt gewoon gaan voor de HD4870. Hij kost misschien wel bijna 70,- meer, maar ik denk dat je er meer kracht uit haalt dan met een HD4850.

Wauw, een sig!


Verwijderd

Idd HD4870 1GB all the way.

  • blackangel
  • Registratie: April 2002
  • Laatst online: 19-02 12:08
De hd4850 vind ik geweldig vanwege zijn prijs en vanwege de stroomkosten. Als dit toereikend is zelfs bij een resolutie van 1900 x 1200, neem ik deze.
Crysis speel ik niet, maar Far Cry 2 doet het prima met +/- 40fps op 1920x1200. Met een E8400 erin :)

Qua stroom, tsja. Ze hebben er een passieve versie van (die ik heb). Die wordt onder full load 75 graden (amper airflow), dus ik ben er zelf tevreden mee :) Hoe dat zit met idle weet ik eerlijk gezegd niet.

Zelf zou ik voor een 4870 zijn gegaan als ze die passief zouden hebben overigens. Er zit een leuk prestatieverschil tussen ;)

Overigens is reviews: Club3D Radeon HD 4870 versus MSI Geforce GTX260 OC nog een leuk stukje leesvoer voor je denk ik :) De GTX260 is weer net iets zuiniger dan de 4870, al hoewel dit ook per model kan afhangen.

Lees wat reviews, het meeste is wel te vinden :)

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 13:53
Jup minimaal een HD4870 1GB of een GTX260 216c. Persoonlijk zou ik nog eventjes wachten en kijken wat de GTX280 prijzen doen als de GTX285 uitkomt. Voor 300 euro: pricewatch: MSI N280GTX-T2D1G-SUPER OC kan het de moeite waard zijn, tov van en HD4870 1GB die 220 euro kost.

  • grmpf
  • Registratie: Januari 2009
  • Laatst online: 07-05 18:01
denk ook eens aan de xfx gtx260 black edition. deze stevig overgeclockte gtx 260 zit rond de 250 euro en is volgens de reviews (bijna) net zo snel als een gtx 280 en in elk geval sneller dan een hd4870.

en dat uit de mond van een ati/amd-fanboy... ;)

over je voeding moet je je sowieso geen zorgen maken. alles vanaf 450/500w is prima, zolang je voeding van een fatsoenlijk merk is met genoeg voltage op de 12v-rail.

Verwijderd

Topicstarter
De hd4870 verbruikt voor mij te veel stroom in idle. Maar een hd 4850 trekt het dus absoluut niet (qua prestatie). Ik vind die overgeclockte gtx 260 kaarten ook wel heel erg in stroom oplopen. Mijn vraag is: als ik bijv. een spel als cod4 speel (met een gtx 260 oc) verbruikt deze dan net zoiets vergelijkbaars als de hd4850 omdat het hem minder moeite kost?

Als er dan echt een gtx 260 in MOET als ik wil gamen op 1900 x 1200 dan zat ik te denken aan dit:

http://azerty.nl/8-971-81...e-gtx-260---grafisch.html

Hij is een tikkie duur maar omdat hij niet oc'd is gebruikt hij aanzienlijk minder stroom, toch?

@ blackangel in die test zit een msi kaart die erg goedkoop is. Is die kaart beter of minder goed dan de door mij genoemde xfx kaart?

[ Voor 17% gewijzigd door Verwijderd op 12-01-2009 20:52 ]


  • PilatuS
  • Registratie: September 2002
  • Niet online
Hij is een tikkie duur maar omdat hij niet oc'd is gebruikt hij aanzienlijk minder stroom, toch?
Zeker niet aanzienlijk. Wel iets minder maar niet veel.

Verwijderd

Topicstarter
Die msi kaart maakt volgens die test wel erg veel herrie.

  • LittleKiller
  • Registratie: Oktober 2007
  • Laatst online: 11-05 14:12
blackangel schreef op maandag 12 januari 2009 @ 18:45:
[...]
Qua stroom, tsja. Ze hebben er een passieve versie van (die ik heb). Die wordt onder full load 75 graden (amper airflow), dus ik ben er zelf tevreden mee :) Hoe dat zit met idle weet ik eerlijk gezegd niet.
Lees wat reviews, het meeste is wel te vinden :)
<offtopic

stroom? wattage? ik weet dat je dat door middel van temperatuur ook kunt weten, maar 75 graden is wel heel abstract :P

</offtopic>

oh en btw,

300 W Is nog niet zo veel hoor. Daar zit je al snel aan. Je wilt geen under achiever hebben zeker voor in de toekomst. Aangezien ik denk dat jij niet vaak een nieuwe computer koopt ;)?

Verwijderd

Topicstarter
Dit is de eerste keer dat ik er eentje koop maar ik wil het in 1 keer goed doen. Ik denk dat er niet heel veel verschil zit tussen de hd 4850 en de gtx 260 non oc of wel?

  • Vortex_be
  • Registratie: Oktober 2007
  • Laatst online: 31-03-2024
Nu kan ik u verzekeren dat je NIET voor een 4850 moet gaan. Ik heb een 8800 GT met een E6850 een CPU die een stuk minder presteerd als de Core I7 en hier is zelfs de graka de bottleneck. Ik heb zelfs een overclocked edition.

Een 4850 en een 8800 GT zijn goed vergelijkbaar in prestaties dus zul je op zijn minst voor een 4870 moeten gaan. De 1 GB versie stock OC van Club3D lijkt mij dan ook de beste uitweg aangezien 1920x1200 echt wel zwaar op de GPU weegt zoals ik heb ervaren. (ik heb namelijk een 24" samsung)

Een game zoals CSS wat al een jaar of 5 oud is krijgt te maken met een GPU bottleneck. (heb wel eerst mijn CPU overclocked en toen pas gemerkt dat GPU ook niet meekon) Ik spreek hier wel over extreem deathmatch mod gamen met 64 man :P

i5 3570K|16 GB DDR3|GTX 1080TI|512 GB samsung 840 SSD - Samsung 46F8000 TV - Samsung 24" LCD - Logitech G11 + G903 + G25 + Z5500


Verwijderd

Nauw de HD4850 is wel een stuk sterker dan de GT hoor. Al ben ik het verder met je eens.

  • Powrskin
  • Registratie: November 2005
  • Niet online
Hm mijn Hd4850 doet het prima op 1900x1200
Hij loopt dan wel op 785/2300, dus meer een 4870 eigenlijk :P

Gezien de prijzen van de hd4870 nu zou ik die nemen (pixmania) of voor een 1GB versie gaan.
Spellen trekken 512MB wel gemakkelijk vol tegenwoordig en qua toekomstgerichtheid is meer wel beter (als je high textures wil blijven aanzetten etc).

Als je 250E+ wilt gaan uitgeven zou ik lekker de Hd4850x2 nemen
http://techgage.com/article/sapphire_radeon_hd_4850_x2_2gb/1

Stroomverbruik idle is wel in te perken door zelf de bios te flashen naar lager voltage.

Nukezone FTW


Verwijderd

Topicstarter
@ Vortex: Je hebt helemaal gelijk! Ik denk dat als je een krachtige processor hebt daar ook een erg snelle grafa bij moet anders is de grafa de bottleneck van me systeem.

Mij lijkt de xfx gtx 260 black edition wel wat. Ik denk dat ik die ga nemen als ik al het geld heb!

Iedereen heel erg bedankt!

  • blackangel
  • Registratie: April 2002
  • Laatst online: 19-02 12:08
LittleKiller schreef op maandag 12 januari 2009 @ 21:03:
[...]

<offtopic

stroom? wattage? ik weet dat je dat door middel van temperatuur ook kunt weten, maar 75 graden is wel heel abstract :P

</offtopic>
Niet echt offtopic hoor. Meer het feit dat je zo'n kaart passief kunt koelen zegt alleen wel wat. Dat hebben bedrijven bij Nvidia nog niet aangedurfd ;) Ofwel er is geen markt bij nvidia, ofwel ze zijn niet passief te koelen omdat ze teveel stroom (watt) gebruiken (omzetten).

Het is niet de meest briljante maatstaaf, maar het is er wel een :)

(en 75 graden is een redelijk gezonde temperatuur,,meer ter indicatie dat het een passief koelblok is wat goed werkt :))
Verwijderd schreef op maandag 12 januari 2009 @ 20:47:
@ blackangel in die test zit een msi kaart die erg goedkoop is. Is die kaart beter of minder goed dan de door mij genoemde xfx kaart?
Ik heb er geen ervaring mee. Goedkoop zegt namelijk ook niet alles. Fabrikanten kunnen een reference design (bedrijf zegt: deze chip werkt zo, gebruik dit printplaatje) gebruiken, of zelf een design samen stellen. In het eerste geval is dat prima afgesteld, bij het tweede kunnen er wat optimalisaties zijn (beter geheugen bijvoorbeeld). Dan is dat laatste beter. Over het algemeen verschilt dat niet zo heel erg veel, het enige waar je eigenlijk op hoort te letten bij vergelijkbare gpu's is het type/snelheid van het geheugen, de hoeveelheid en de clock van de gpu zelf. Eventueel eventjes kijken naar wat voor koeler erop zit, maar dan heb je alle verschillen wel gehad :) Dat moet je zelf ook wel lukken met wat zoekwerk denk ik :)
Powrskin schreef op maandag 12 januari 2009 @ 21:15:
Als je 250E+ wilt gaan uitgeven zou ik lekker de Hd4850x2 nemen
http://techgage.com/article/sapphire_radeon_hd_4850_x2_2gb/1

Stroomverbruik idle is wel in te perken door zelf de bios te flashen naar lager voltage.
Het tegenovergestelde van overclocken. Dit zijn dus geen garanties dat het (goed) werkt.

Verwijderd

Topicstarter
De xfx kaart waar ik het over had is vrij weinig over te vinden. Ik heb echt alles afgezocht maar dan gaat het vaak over de overgeclockte versie.

Maarja ik denk dat het nu toch de xfx gtx 260 black edition oc.

  • grmpf
  • Registratie: Januari 2009
  • Laatst online: 07-05 18:01
volg link voor een review van die xfx black: http://techgage.com/artic...e_gtx_260_black_edition/1

Daarin alle specs, prestaties en stroomverbruik tov ondermeer hd4850 en hd 4870.
nb. het zou kunnen dat ati inmiddels wat dichterbij is gekomen qua prestaties door nieuwere drivers.

succes met kiezen!

  • MrDummy
  • Registratie: April 2000
  • Laatst online: 25-07-2025

MrDummy

Nog steeds gek op anime...

Als je wilt gamen, koop dan niet gelijk nieuwe Intels CPU i7. Blijf bij E8400/E8500. PC Gameplay blad deed in laatste uitgave een onderzoek naar en komt tot conclusie dat je weinig winst boekt met i7. Alleen als je 3D rendering en encode werk veel doet, dan mag het wel. Maar voor pure gaming? Niet echt moeite waard.

1920x1200 gamen, je bent me wel een eentje. Lekker patsen op Full HD gaming. Maar wel zwaar videokaart nodig voor die resolutie, en al helemaal als je ook nog alle opties wil aanzetten ... op high.

Er is eigenlijk niet zo groot verschil tussen 1680x1050 en 1920x1200. Net als camera van 8 MP en 10 MP. 10 MP is groter, maar qua scherpte geen grote winst. Voor onze ogen is dat iets moeilijker op te vallen.
Alleen voor films kijken krijgen we inderdaad meer te maken met 1920x1080, en 24 inch monitoren worden al niet meer zo duur meer. Maar gamen op full hd is niet makkelijker omdat games zelf ook steeds zwaarder worden. Meer polygonen komen er bij elke maand. Meer lighting en shadows, meer dynamische omgeving.

Dat is dus heel wat anders dan films die eigenlijk niet elke maand zwaarder worden. Zelfde h264 compressie, misschien wat groter, maar dat is geen moeite voor E8400.

Verder heb je liefhebbers en haters voor Ati en nvidia. Meestal vanwege drivers. Er wordt vaak voor nvidia gekozen omdat Ati in sommige ogen vaak energieslurpender en warmer zijn omdat hun ontwikkeling iets achter loopt tov nvidia, en wat problemen met drivers.

Budget is HD4850
GTX-260 is alternatief tegenover HD4870
GTX-280 is alternatief tegenover HD4870X2
Voor zware videokaart zal je moeten rekenen op 700W vermogen als minimaal rekenen.
De rest laat ik aan anderen over :)

  • Powrskin
  • Registratie: November 2005
  • Niet online
blackangel schreef op maandag 12 januari 2009 @ 21:33:
[...]
Het tegenovergestelde van overclocken. Dit zijn dus geen garanties dat het (goed) werkt.
Jewel dat werkt juist omdat je en het voltage en het aantal mhzen kan veranderen bij overklokken kan je vaak niet het voltage omhoog doen dus loop je al snel vast.

Elke 4800serie kan op 0.892v draaien ipv 1.09v

Nukezone FTW


Verwijderd

GTX260 core216 lijkt me de beste keus. Vergeet cuda en physx niet die alleen nvidia heeft. Om eerlijk te zijn ben ik ati helemaal zat met hun brakke drivers. Heb het zelf ervaren hd3650, X1300 pro.

En zoals je net zelf zegt. De XFX black edition is een goede keuze. De gtx260 core216 boekt de hd4870 er uit. zelfs de oude gtx260 core 192 versie wint het van ati's beste chip.

http://www.fudzilla.com/i...amp;id=10892&Itemid=1

GTX260 Core 216 heeft nog steeds the lead tegenover de HD4870

Beiden met de nieuwste drivers, En uit de benchmarks blijkt dat de oudere gtx260 core 192 wint tegenover de hd4870 1GB.

En de 4870 is ook nog een gs ( golden sample, een overgeklokte versie en de gtx260 core 192 niet eens. )

Ik heb veel videokaarten gehad als gamer, zowel ati en nvidia. En heb geleerd dat prijs/performance lang niet alles is. Denk o.a. aan temperatuur, levensduur, support, verbruik (grotendeels naar idle want al je pc aanstaat staat de pc meer in idle dan dat je gamed) Ati's 4 serie zakt op dit gebied, geluidsproductie, en nog meer

  • bashje
  • Registratie: Januari 2009
  • Laatst online: 29-04 04:41
MrDummy schreef op dinsdag 13 januari 2009 @ 00:07:
Budget is HD4850
GTX-260 is alternatief tegenover HD4870
GTX-280 is alternatief tegenover HD4870X2
De rest laat ik aan anderen over :)
als je dit iets meer naar prijs neerzet kan je ff kijken naar mn tabel in http://gathering.tweakers.net/forum/list_messages/1330933

maar op pricewatch hier,
4870 voor 170
gtx 260 OC voor 205
4850x2 voor 250
gtx 280 OC voor 295

en ik geloof dat een single GPU systeem vrijwel altijd zuiniger als dan multi GPU (of op een kaart of crossfire/sli)

Succes!

Verwijderd

Topicstarter
@mrdummy, Ja die monitoren zijn idd goedkoop. En ik wil er ook ee4ntje want die kan ook mijn wii en xbox 360 erop afgespeeld krijgen (de juiste aansluitingen). En het zal best wel zo zijn wat je zegt over de resolutie maar hoe groter je scherm hoe hoger de resolutie moet zijn om het beeld nog mooier weer te geven (zelfde met mp). Maar jij denkt dat zelfs de gtx 260 black op dit gebied tekort schiet?

BTW ik heb nog een een kleinere monitor hier staan. Is het mogelijk met een programma te switchen tussen deze twee monitoren als het de grafa te veel wordt op de hogere resolutie?

2Powrskin
Ik ben ook erg geinteresseerd in het underclocken ervan dus ik zal eens gaan kijken of dat wat wordt (als ik een grafa, ati of nvidia, heb gekocht)

@mellao15
Bij xfx zat de temp. en het geluid wel goed dacht ik.

  • blackangel
  • Registratie: April 2002
  • Laatst online: 19-02 12:08
Powrskin schreef op dinsdag 13 januari 2009 @ 00:09:
[...]


Jewel dat werkt juist omdat je en het voltage en het aantal mhzen kan veranderen bij overklokken kan je vaak niet het voltage omhoog doen dus loop je al snel vast.

Elke 4800serie kan op 0.892v draaien ipv 1.09v
Als dat altijd kon, zou Ati wel standaard doen, denk je niet?

In 99% van de gevallen misschien wel ja, maar er is geen garantie (100%) dat het werkt.

offtopic:
Overigens wel een goede tip, eens kijken waar mijn kaart op draait & proberen :P

  • Vortex_be
  • Registratie: Oktober 2007
  • Laatst online: 31-03-2024
Verwijderd schreef op dinsdag 13 januari 2009 @ 07:58:
BTW ik heb nog een een kleinere monitor hier staan. Is het mogelijk met een programma te switchen tussen deze twee monitoren als het de grafa te veel wordt op de hogere resolutie?
Als je in windows (in geval van dualscreen) je klein scherm als hoofdscherm instelt en je start dan je game dan zal het spel op het kleine scherm in fullscreen opstarten. Maar dat is niet aan geraden aangezien je dan je scherm of keyboard ofzo zal moeten verplaatsen ofwel een zeer speciale setup zal moeten maken ^^

i5 3570K|16 GB DDR3|GTX 1080TI|512 GB samsung 840 SSD - Samsung 46F8000 TV - Samsung 24" LCD - Logitech G11 + G903 + G25 + Z5500


  • Vortex_be
  • Registratie: Oktober 2007
  • Laatst online: 31-03-2024
blackangel schreef op dinsdag 13 januari 2009 @ 09:31:
[...]

Als dat altijd kon, zou Ati wel standaard doen, denk je niet?

In 99% van de gevallen misschien wel ja, maar er is geen garantie (100%) dat het werkt.
De reden waarom ze dit niet doen is omdat dit de performance niet ten goede komt. Mhz verhogen is niet de enigste manier om de snelheid te verhogen. Nu is het voltage veranderen niet echt zoeen snelheids-verhogende/verlagende factor maar het speelt ook mee met de stabiliteit.

Je zal het mss niet merken als je het voltage verlaagd maar je games kunnen soms nogal snel crashen terwijl dit met standaard settings niet zou gebeuren.

i5 3570K|16 GB DDR3|GTX 1080TI|512 GB samsung 840 SSD - Samsung 46F8000 TV - Samsung 24" LCD - Logitech G11 + G903 + G25 + Z5500


  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 09-05 16:12
Verwijderd schreef op maandag 12 januari 2009 @ 21:31:
@ Vortex: Je hebt helemaal gelijk! Ik denk dat als je een krachtige processor hebt daar ook een erg snelle grafa bij moet anders is de grafa de bottleneck van me systeem.

Mij lijkt de xfx gtx 260 black edition wel wat. Ik denk dat ik die ga nemen als ik al het geld heb!

Iedereen heel erg bedankt!
http://www.pcmegastore.nl..._715&products_id=35949505

denk dat je beter hiervoor kan gaan

Verwijderd

Verwijderd schreef op dinsdag 13 januari 2009 @ 00:37:
GTX260 core216 lijkt me de beste keus. Vergeet cuda en physx niet die alleen nvidia heeft. Om eerlijk te zijn ben ik ati helemaal zat met hun brakke drivers. Heb het zelf ervaren hd3650, X1300 pro.
PhysX en Cuda, laat me niet lachen. Die gaan het nooit worden. Alleen nvidia ondersteunt het en de rest van de markt gaat OpenCL doen, ook nvidia. Dus waarom zou je willen programmeren in een format wat nog niet eens door de helft van je markt ondersteunt word. Die gaan floppen. Dan krijg je ook nog DX11. Welke ook GPGPU gaat doen en we weten allemaal hoe machtig microsoft is.

Oh en ATI heeft DX10.1 en dat werkt echt. Betere performance, hogere iq en waar DX11 op gestoeld is.

Brakke drivers licht aan jouw, ik heb nergens last van. Nooit gehad ook. 9000, Geforce 4 Ti4200, X700, 2600PRO, 8800GTS en HD4850 en geen problemen. Hoe kan dat nauw?! :> . Zelfs met linux en ati lukte het! Al koste DAT wel meer moeite en is dat NU appeltje eitje geworden.
En zoals je net zelf zegt. De XFX black edition is een goede keuze. De gtx260 core216 boekt de hd4870 er uit. zelfs de oude gtx260 core 192 versie wint het van ati's beste chip.
En als je eens andere reviews gaat lezen zie je dat hij wint. Maarja je kijkt niet verder dan een he.
GTX260 Core 216 heeft nog steeds the lead tegenover de HD4870
Hij heeft een klein voorspongetje, maar is ook duurder. En verliest de non oc-ed het ook nog vaak
http://www.hardocp.com/ar...5NSw5LCxoZW50aHVzaWFzdA==

Here the ATI Radeon HD 4870 1GB framerates dropped like a rock. Its average FPS is over 11 FPS lower than the XFX GeForce GTX 260 Black Edition. The NVIDIA GeForce GTX 260 (216 core) fared a little, but still unplayable at these settings. It averaged 4 FPS slower than the Black Edition.


In Fallout 3 the XFX GeForce GTX 260 Black Edition and the ATI Radeon HD 4870 1GB are neck and neck with less than 2 FPS difference on average. The NVIDIA GeForce GTX 260 (216 core) however trails the Black Edition by over 5 FPS on average.


In Left 4 Dead the XFX GeForce GTX 260 Black Edition has an average framerate of 79.4 FPS while the NVIDIA GeForce GTX 260 (216 core) is 9 FPS lower at 70.3 FPS and the ATI Radeon HD 4870 1GB is 10 FPS lower at 69.3 FPS.

Here the XFX GeForce GTX 260 Black Edition once again leads over the NVIDIA GeForce GTX 260 (216 core) by average of 4 FPS. The ATI Radeon HD 4870 falls just under 6 FPS behind the Black Edition.


Here the GeForce GTX 260 Black Edition and the ATI Radeon HD 4870 1GB seem to share the same framerates throughout the run-through. However here is why actually playing the game is important at 8X AA our gameplay simply wasn’t very smooth on the 4870.


VS Black:
3 verloren 2 gelijk
VS NonOC
2 Verlies 1 gelijk 2 Winst

Gaan we verder:
http://techgage.com/artic..._260216_896mb_follow-up/3

GTX wint CoD:WaW
HD4870 wint crysis op hogere resolutie
Deadpace wint GTX
HD4870 wint Fallout3 op hogere resolutie
Farcry 2 is gelijkspel
GTX wint l4d nipt
HD4870 wint Stalker
HD4870 wint hogere resolutie UT3

Dat jij niet wil slikken dat het vs de 216 stuivertje wisselen is, kan ik niets aan doen. Het zou je niet misstaan om het maar eens aan te gaan nemen en misschien wat meer feiten laat spreken in plaats van gevoelens.
Beiden met de nieuwste drivers, En uit de benchmarks blijkt dat de oudere gtx260 core 192 wint tegenover de hd4870 1GB.

En de 4870 is ook nog een gs ( golden sample, een overgeklokte versie en de gtx260 core 192 niet eens. )
Waarom zijn er meer reviews die dat niet zeggen, dan die welke jouw ondersteunt? Ga eens op zoek naar meer voor je conclusies gaat trekken. Cat 8.12 vs core 216 is bijna overal stuivertje wisselen, in de ene game is de ene beter in de andere de andere.
Ik heb veel videokaarten gehad als gamer, zowel ati en nvidia. En heb geleerd dat prijs/performance lang niet alles is. Denk o.a. aan temperatuur, levensduur, support, verbruik (grotendeels naar idle want al je pc aanstaat staat de pc meer in idle dan dat je gamed) Ati's 4 serie zakt op dit gebied, geluidsproductie, en nog meer
Temperatuur? Lekker belangrijk, die dingen mogen gewoon 100 graden worden. Support? Elke maand nieuwe drivers wat wil ik nog meer!? Verbruik is niets mis mee, de core 216 is idle zuiniger en onder load onzuiniger. Dit is dan wel standaard, waar je met makkelijke tooltjes beide kaarten nog een stuk zuiniger kan maken.

@hier onder, waar heb je het over? O-)

[ Voor 36% gewijzigd door Verwijderd op 13-01-2009 11:26 ]


  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 01-04 07:53

Hann1BaL

Do you stay for dinner?Clarice

Als stroomverbruik zo'n issue is, zou ik ook niet voor een i7 systeem gaan. Duur in aanschaf, maar ook in verbruik.

Daarnaast kun je bij AMD/ATI gewoon een tooltje downloaden waarbij je je videokaart zeer eenvoudig kunt onderklokken in 2D modus. Zo kun je het verbruik idle behoorlijk verlagen. Verder lijkt het er op dat de TS al een keuze gemaakt heeft :)

Ook wil ik de TS wijzen op het feit dat met de huidige schermen het niet zo'n groot probleem meer is als je niet op de native resolutie van het scherm spellen speelt. Sommige games ondersteunen geen 1680x1050 (in mijn geval) maar als ik dan game op 1280x800 dan ziet het er nog steeds goed uit. Het is als het beeld beweegt zelfs lastig om het verschil ook maar te kunnen waarnemen. Dus staar je niet blind op gamen op een zeer hoge resolutie.

@hierboven: meerdere malen gebruik je het woord ondersteund waar ondersteunt moet staan. Schoonheidsfoutje in een verder sterk verhaal waar ik me bij aansluit.

edit2: leuk he? de editknop :P

[ Voor 67% gewijzigd door Hann1BaL op 13-01-2009 11:29 ]


  • poing
  • Registratie: Juli 2001
  • Niet online
Ik zat met hetzelfde probleem, maar heb ondertussen mijn bestelling geplaatst. Op www.tomshardware.com staat een vergelijking tussen kaarten, resoluties en prijzen (met benchmarks). Zo heb ik beslist om een 260 (niet de nieuwe core) te nemen.

Waarom? Volgens de site "performant" op 1920 x 1200, het is een Asus net zoals mijn moederbord, hij kost 236 euro en ik heb van iemand gehoord dat nvidia de meeste games onmiddelijk ondersteund en dat nvidia beter zou zijn op 64bit OS (wat daar van waar is ... geen idee).

Kan later nog een kaart bij steken :-)

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 01-04 07:53

Hann1BaL

Do you stay for dinner?Clarice

poing schreef op dinsdag 13 januari 2009 @ 11:18:

Waarom? Volgens de site "performant" op 1920 x 1200, het is een Asus net zoals mijn moederbord, hij kost 236 euro en ik heb van iemand gehoord dat nvidia de meeste games onmiddelijk ondersteund en dat nvidia beter zou zijn op 64bit OS (wat daar van waar is ... geen idee).
Waar heb je dit gehoord en wat heb je gedaan om te checken of het waar is? Ik zou graag wel eens wat reviews/benchmarks daarvan zien, voordat hier een dergelijk argument gebruikt wordt :)

(en ook hier hoort ondersteunT te staan ipv ondersteunD)

[ Voor 6% gewijzigd door Hann1BaL op 13-01-2009 11:30 ]


  • poing
  • Registratie: Juli 2001
  • Niet online
Zoals ik al zei, van dat games onmiddelijk ondersteunen en 64bit OS heb ik gehoord, ben het niet gaan nakijken. De review van tomshardware: http://www.tomshardware.c...-card,review-31483-4.html

Edit: als je wil overclocken http://www.techarp.com/showarticle.aspx?artno=585&pgno=1

[ Voor 17% gewijzigd door poing op 13-01-2009 11:29 ]


Verwijderd

This is one of those situations where a buyer really should look at which card is best for the games he or she plans to play (although you really can’t go wrong with either card).
Uit die thoms hardware pagina over de GTX 260.

Daar komt het op neer, want qua performance overall ontlopen ze elkaar niet zo veel, met het voordeel naar de HD4870 1GB toe. Hier is de GTX 260 vaak duurder dan in de USA. Daar is het prijs verschil tussen die 2 kaarten veel kleiner, waarbij de GTX 260 in bepaalde acties al voor 190$ bij newegg weg gingen. . Als je ook naar de volgende pagina kijkt:
Best PCIe Card For $250: Tie
GTX 260 core 216 en HD4870 1GB.

Zij kunnen dus ook geen winnaar aanwijzen.

Overklokken? Dat is zo makkelijk. Zowel bij nvidia als bij ati. :'(

[ Voor 27% gewijzigd door Verwijderd op 13-01-2009 11:46 ]


  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 09-05 16:12
Dan is er ook nog verschil tussen de 55 en 65nm gtx260's wat overklokken betreft....

heb zelf sinds een week een 55nm versie, en die klokken héél goed over (tenminste die van mij)

735/1250/1600 haalt ie wel ... 16.5k 3dmarks06 met een dualcore :)

En het voordeel van die kaarten is ook dat ze zichzelf in 2d terugklokken naar 200/200 oid (dus zonder een app)...ook de fans maken ''standaard'' al niet zo veel geluid

en je hebt niet zo veel met ''hotfixes'' te maken

en ze blijven lekker koel...60graden @ full load...38 idle met de fan op 42%

nogmaals: http://www.pcmegastore.nl..._715&products_id=35949505 240 euro voor een 55nm core 216

[ Voor 26% gewijzigd door Mr. Detonator op 13-01-2009 12:09 ]


  • blackangel
  • Registratie: April 2002
  • Laatst online: 19-02 12:08
Vortex_be schreef op dinsdag 13 januari 2009 @ 10:47:
[...]


De reden waarom ze dit niet doen is omdat dit de performance niet ten goede komt. Mhz verhogen is niet de enigste manier om de snelheid te verhogen. Nu is het voltage veranderen niet echt zoeen snelheids-verhogende/verlagende factor maar het speelt ook mee met de stabiliteit.

Je zal het mss niet merken als je het voltage verlaagd maar je games kunnen soms nogal snel crashen terwijl dit met standaard settings niet zou gebeuren.
offtopic:
Performance is weldegelijk een combinatie van architectuur (incl. optimalisaties) en de snelheid waar die op draait. Hence, de frequentie (gpu & geheugen, de bus daartussen valt bij mij onder architectuur). De spanning heeft als enige doel zorgen dat het stabiel werkt. Bij een bepaalde architectuur en bepaalde frequentie hoort tenminste een bepaalde spanning, anders is het niet betrouwbaar.

Aangezien de architectuur gegeven is, is het zo dat je bij een hoger voltage ook (vaak) een betere frequentie kan halen (=performance). Andersom werkt het ook, bij een lager voltage haal je niet altijd eenzelfde frequentie. Hence, niet stabiel (even uitgezonderd de minimum/maximum grenzen. 0.1V zal niet snel werken ongeacht de frequentie, eveneens zal 5V de kaart frituren)

Mocht Ati erachter komen dat hun architectuur met bepaalde chipset ook prima werkt op een lager voltage, dan zullen ze dat graag doen. Juist omdat ze de stabiliteit niet kunnen garanderen bij een bepaalde spanning en frequentie, en ze niet teveel op de frequentie willen inboeten, is er een bepaald voltage. Er zit wel een kleine marge in, maar een marge van bijna 20% vind ik niet realistisch. Het kan zeker zijn dat het werkt, maar ik denk persoonlijk niet dat dat voor alle kaarten geldt.

Verwijderd

Mr. Detonator schreef op dinsdag 13 januari 2009 @ 12:01:
Dan is er ook nog verschil tussen de 55 en 65nm gtx260's wat overklokken betreft....

heb zelf sinds een week een 55nm versie, en die klokken héél goed over (tenminste die van mij)

735/1250/1600 haalt ie wel ... 16.5k 3dmarks06 met een dualcore :)
Bij jouw ja, dat geeft geen garanties.
En het voordeel van die kaarten is ook dat ze zichzelf in 2d terugklokken naar 200/200 oid (dus zonder een app)...ook de fans maken ''standaard'' al niet zo veel geluid
Dat doen de ATI's ook. Alleen kunnen die nog strenger worden gezet(nvidia weet ik niet).
en je hebt niet zo veel met ''hotfixes'' te maken
Nee bij NVIDIA mag je een half jaar wachten op je driver.(overdreven)
en ze blijven lekker koel...60graden @ full load...38 idle met de fan op 42%

nogmaals: http://www.pcmegastore.nl..._715&products_id=35949505 240 euro voor een 55nm core 216
Temperatuur is totaal onzinnig. Die dingen mogen 100 graden worden. Een HD4870 met toxic koeler word ook totaal niet warm.

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 09-05 16:12
Verwijderd schreef op dinsdag 13 januari 2009 @ 13:11:


Nee bij NVIDIA mag je een half jaar wachten op je driver.(overdreven)
omdat er wat minder behoefte aan is bij nvidia (lees: vrijwel alle spellen draaien goed bij release)

echte performanceverbeteringen heb je bij nvidia niet gauw op driver-gebied idd...maar dat komt oa. door het twimtbp programma....daardoor zijn de drivers vanaf release meteen ''op orde''

kun je dus als een voordeel, maar ook als een nadeel zien...ligt er maar net aan welke bril je op hebt :)
Temperatuur is totaal onzinnig. Die dingen mogen 100 graden worden. Een HD4870 met toxic koeler word ook totaal niet warm.
ja...weet ik ook wel dat ze zo heet mogen worden....maar de rest van je kast word ook een stuk warmer waardoor bijv. je cpu minder ver te klokken is

[ Voor 20% gewijzigd door Mr. Detonator op 13-01-2009 13:30 ]


Verwijderd

Mr. Detonator schreef op dinsdag 13 januari 2009 @ 13:26:
[...]


omdat er wat minder behoefte aan is bij nvidia (lees: vrijwel alle spellen draaien goed bij release)

kun je dus als een voordeel, maar ook als een nadeel zien...ligt er maar net aan welke bril je op hebt :)


[...]
Laat ik het zo zeggen, jij hebt een half jaar mogen wachten op big bang 2 drivers, terwijl ik elke maand een beetje extra performance heb kunnen krijgen. De games werken bij ATI ook gewoon direct hoor. Dat slaat nergens op door dat te zeggen. Het is niet voor niets dat nvidia big bang drivers doet. Als ze direct zo goed zouden lopen, waarom moet er dan nog zon driver worden gemaakt? :>

En ati drivers installeren is met vista geweldig. Gewoon installeren en door werken tot het beeld ff zwart word en weer terug komt klaar. Niets geen reboot ofzo.
ja...weet ik ook wel dat ze zo heet mogen worden....maar de rest van je kast word ook een stuk warmer waardoor bijv. je cpu minder ver te klokken is
Temperatuur van je kaart zegt niets over hoe warm het in je kast word. Dit zou je alleen kunnen zeggen aan de hand van opgenomen vermogen(watt). Daar is de HD4870 iets onzuiniger in idle en zuiniger onder load. Dus dat is ook geen punt wat je kan gebruiken.

[ Voor 17% gewijzigd door Verwijderd op 13-01-2009 13:41 ]


  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 09-05 16:12
Verwijderd schreef op dinsdag 13 januari 2009 @ 13:31:
[...]

Laat ik het zo zeggen, jij hebt een half jaar mogen wachten op big bang 2 drivers, terwijl ik elke maand een beetje extra performance heb kunnen krijgen. De games werken bij ATI ook gewoon direct hoor. Dat slaat nergens op door dat te zeggen. Het is niet voor niets dat nvidia big bang drivers doet. Als ze direct zo goed zouden lopen, waarom moet er dan nog zon driver worden gemaakt? :>

En ati drivers installeren is met vista geweldig. Gewoon installeren en door werken tot het beeld ff zwart word en weer terug komt klaar. Niets geen reboot ofzo.
dat de games bij ati niet direct bij release werken heb je mij ook niet horen zeggen......ik bedoel dat nvidia met hun drivers meteen al op 90-100% zit van het maximale wat eruit te halen valt

de post hierna verwoord het goed:
maar zodra de 9.1 drivers er zijn wordt het hopelijk 50fps :)
en dat blijft toch terugkomen bij ati...kun je zeggen wat je wil


big-bang drivers ?....de nvidia pr werkt goed zo te horen :)

''big-bang'' drivers zijn van nvidia nooit geweest...tenminste niet in die zin dat ze ineens veel beter presteerde...

''toevallig'''zijn die drivers samen met de gtx260 core 216 gereleased....waardoor het leek of er ineens heel wat verbetering was....maar dat kwam natuurlijk alleen maar door de extra shaders :)

en wat maakt een keer rebooten nou uit als je wat hebt geinstalleerd...daar heb ik nou nooit problemen mee gehad

[ Voor 13% gewijzigd door Mr. Detonator op 13-01-2009 14:02 ]


Verwijderd

Ik zelf heb veel gehoord ven gtx kaarten die te heet worden, en dat de gtx260 de hd4870 verslaat is ook een fabeltje, anders had men de core 216 niet uitgebracht, en zelfs deze heeft zijn handen vol aan de hd4870, enkel in GTA ligt nv goed voor, maar als ja AA en AF aanzet gaat ATI aan kop :)

natuurlijk blijft de core 216 een goed keus, ikzelf had er op dit moment liever een gehad ipv mijn ATI ivm gta, maar zodra de 9.1 drivers er zijn wordt het hopelijk 50fps :)

Verwijderd

Mr. Detonator schreef op dinsdag 13 januari 2009 @ 13:50:
[...]


dat de games bij ati niet direct bij release werken heb je mij ook niet horen zeggen......ik bedoel dat nvidia met hun drivers meteen al op 90-100% zit van het maximale wat eruit te halen valt

de post hierna verwoord het goed:


[...]


en dat blijft toch terugkomen bij ati...kun je zeggen wat je wil


big-bang drivers ?....de nvidia pr werkt goed zo te horen :)

''big-bang'' drivers zijn van nvidia nooit geweest...tenminste niet in die zin dat ze ineens veel beter presteerde...

''toevallig'''zijn die drivers samen met de gtx260 core 216 gereleased....waardoor het leek of er ineens heel wat verbetering was....maar dat kwam natuurlijk alleen maar door de extra shaders :)

en wat maakt een keer rebooten nou uit als je wat hebt geinstalleerd...daar heb ik nou nooit problemen mee gehad
Je bent wel slecht geinformeerd:
http://www.theinquirer.ne...idia-launches-big-bang-ii
A new driver release would hardly be worth releasing if it didn’t offer a performance boost, and the Geforce 180 is no exception. Nvidia boasts gains of over 30 per cent in games like Far Cry 2, at 1680 x 1050 with 4x AA and 16x AF on a Geforce 9800 GTX+ and the new driver. But apparently most other games only see a pretty conservative, non earth shattering 10 per cent performance improvement.
http://www.pcper.com/article.php?aid=630
ou might have heard a bit about something called the "Big Bang II" driver in recent weeks that indicated that release 180 of the NVIDIA GeForce drivers would be introducing some new and interesting features. Well with 180 sort of in the wild, what is the truth?
Looking over the results it is pretty clear that the GeForce 180.43 is the winner and the best thing about it is that it has shown consistent performance improvements although obviously not all were significant - see the Half-Life 2 Episode Two and Crysis Warhead results. Overall, the series 180 GeForce drivers are off to a great start with the 180.43 so if you don't run into any issues with them, you've got yourself a keeper. Al least until the next 180 driver is released.
http://www.tcmagazine.com...d=246&perpage=1&pagenum=2

http://www.techarp.com/showarticle.aspx?artno=594
Afbeeldingslocatie: http://www.techarp.com/article/NVIDIA/R180_Drivers/Slide_04_big.jpg

http://vr-zone.com/articl...review/6110.html?doc=6110

Big Bang 2 heeft voor 5 top games gezorgt dat Nvidia weer aan kop stond. Als je kijkt Big Bang 2 vs 8.12(ATI counter) is de score van snelst naar langzaamst zo GTX216 core 216, HD4870 1GB, GTX 216. Waar het verschil hem nu vooral zit waar je een lagere prijs kan krijgen.
en dat blijft toch terugkomen bij ati...kun je zeggen wat je wil
Je blijft slecht geinformeerd. 9.1, wat eigenlijk 8.12HF grotendeels al is, heeft een grote vernieuwing. Betere multicore ondersteuning! Dus heeft niets met games te maken, maar puur met de driver zelf.
en wat maakt een keer rebooten nou uit als je wat hebt geinstalleerd...daar heb ik nou nooit problemen mee gehad
Dat is echt fcking chill. Ik vind rebooten zonde van mijn tijd. Ik kan nu gewoon door blijven werken. Ik hoef niets af te sluiten. Dat is vooral fijn omdat ik dus elke maand update naar de nieuwste drivers van ATI.

[ Voor 73% gewijzigd door Verwijderd op 13-01-2009 14:14 ]


  • Vortex_be
  • Registratie: Oktober 2007
  • Laatst online: 31-03-2024
blackangel schreef op dinsdag 13 januari 2009 @ 12:01:
[...]

offtopic:
Performance is weldegelijk een combinatie van architectuur (incl. optimalisaties) en de snelheid waar die op draait. Hence, de frequentie (gpu & geheugen, de bus daartussen valt bij mij onder architectuur). De spanning heeft als enige doel zorgen dat het stabiel werkt. Bij een bepaalde architectuur en bepaalde frequentie hoort tenminste een bepaalde spanning, anders is het niet betrouwbaar.

Aangezien de architectuur gegeven is, is het zo dat je bij een hoger voltage ook (vaak) een betere frequentie kan halen (=performance). Andersom werkt het ook, bij een lager voltage haal je niet altijd eenzelfde frequentie. Hence, niet stabiel (even uitgezonderd de minimum/maximum grenzen. 0.1V zal niet snel werken ongeacht de frequentie, eveneens zal 5V de kaart frituren)

Mocht Ati erachter komen dat hun architectuur met bepaalde chipset ook prima werkt op een lager voltage, dan zullen ze dat graag doen. Juist omdat ze de stabiliteit niet kunnen garanderen bij een bepaalde spanning en frequentie, en ze niet teveel op de frequentie willen inboeten, is er een bepaald voltage. Er zit wel een kleine marge in, maar een marge van bijna 20% vind ik niet realistisch. Het kan zeker zijn dat het werkt, maar ik denk persoonlijk niet dat dat voor alle kaarten geldt.
Volledig mee eens. Je bevestigd enkel wat ik eerder zei.

Temperatuur? Lekker belangrijk, die dingen mogen gewoon 100 graden worden.
Dit is niet echt positief. Zoals eerder aangehaald is het niet goed voor de case temperatuur en 100° is echt wel veel te warm. Mijn 8800 GT begint te laggen op ongeveer 85-90° en games bollen het beste als ze nog maar een paar minuten opstaan. Ik spreek hier vooral over GTA4 waar dit zeer goed te merken is. De temperatuur is dan namelijk nog redelijk laag.

Vergelijk het even met sporten:
Als het koud is en je bent 10 minuten bezig, dan ben je nog lang niet moe (als je het rustig aan doet natuurlijk) Maar probeer hetzelfde maar eens in de zomer. Dan ga je merken dat je veel rapper moe bent.

Dit is ook zo met PC onderdelen. Het is natuurlijk moeilijk te vergelijken maar ik kan je verzekeren dat je fps beter is als hij op 60° draait ipv op 100° ook al kan de kaart makkelijk 100° aan.

i5 3570K|16 GB DDR3|GTX 1080TI|512 GB samsung 840 SSD - Samsung 46F8000 TV - Samsung 24" LCD - Logitech G11 + G903 + G25 + Z5500


Verwijderd

Vortex_be schreef op dinsdag 13 januari 2009 @ 14:13:
[...]

Dit is niet echt positief. Zoals eerder aangehaald is het niet goed voor de case temperatuur en 100° is echt wel veel te warm. Mijn 8800 GT begint te laggen op ongeveer 85-90° en games bollen het beste als ze nog maar een paar minuten opstaan. Ik spreek hier vooral over GTA4 waar dit zeer goed te merken is. De temperatuur is dan namelijk nog redelijk laag.

Vergelijk het even met sporten:
Als het koud is en je bent 10 minuten bezig, dan ben je nog lang niet moe (als je het rustig aan doet natuurlijk) Maar probeer hetzelfde maar eens in de zomer. Dan ga je merken dat je veel rapper moe bent.

Dit is ook zo met PC onderdelen. Het is natuurlijk moeilijk te vergelijken maar ik kan je verzekeren dat je fps beter is als hij op 60° draait ipv op 100° ook al kan de kaart makkelijk 100° aan.
Temperatuur van je videokaart heeft dus NIETS maar dan ook NIETS te maken met hoe warm je kast gaat worden. Het gaat om opgenomen en afgegeven vermogen. Moeten jullie niet eens wat meer natuurkunde gaan volgen?

Een GPU is niet organisch en heeft een veel grotere range van optimale temperaturen(-zoveel tot 100 graden oid). Jouw eiwitten hebben een optimum temperatuur range van 36-38 graden. Boven de 40 graden vallen ze uit elkaar. De vergelijking is gewoon kul. En ik verzeker je dat je geen verschil in fps gaat zin of je kaart nu 80 graden word of 30. Dat zit allemaal in de optimale range.

Dan doe je ook nog af aan het feit dat er bijna geen referentie kaarten meer nieuw worden verkocht, maar bijna allemaal met andere koelers er op. De standaard van sapphire nu(een van de meest verkochten) doet het erg goed en houd de temperatuur onder de 80 graden.

http://www.westernextralite.com/resources.asp?key=72

[ Voor 14% gewijzigd door Verwijderd op 13-01-2009 14:37 ]


  • omgwtfbbq
  • Registratie: Juli 2007
  • Laatst online: 12-05 20:19
Ik draai zelf 1920x1200 op een HD4870 512MB, en dat draait altijd goed, ik heb nooit FPS lag oid, behalve als ik vrij zware games als Crysis en FarCry2 speel, dan moet de eyecandy wel wat omlaag, maar dingen als Fallout 3 etc staan hier allemaal vol open. Dat is in combinatie met een E6750 op 3,5Ghz en 4GB RAM =)

  • kleefei
  • Registratie: Maart 2006
  • Laatst online: 13-05 16:37
Dus even heel zwart wit om dit verhaal samen te vatten.

Ik heb een 8800GT en ik wil upgraden.
Ik wil niet meer dan 300 euro uitgeven.
(overige specs: e8400, p5e, ocz 4g. 600watt voeding)

Kan ik dan het beste een HD4870 1gb OC (club3d) nemen of zon gtx260?

Ik speel af en toe spelletjes maar als ik speel wil ik het beste.
ook wil ik hem aan mijn HDready tv kunnen hangen. (hdmi dus)

Ik kan namelijk niet echt opmaken uit reviews en deze discussie wat nou het beste is. (voor een gebruiker als ik)
(behalve dat de hd4870 goedkoper is) En ik weet natuurlijk ook wel dat er nu reacties komen van: moet je kijken wat het beste bij jou past blabla. Heb ik gedaan en ik denk dat de HD4870 het best aan mijn eisen voldoet. en aangezien hier mensen zitten die veel over nvidea kunnen vertellen kunnen deze mij misschien wel behoeden van een miskoop.

Verwijderd

Nee je zit wel goed :P. Wij kunnen aan de hand van de reviews ook niet echt een keuze maken, ze zijn gewoon aan elkaar gewaagd. De GTX 260 core 216 is nipt sneller, maar duurder. Het ligt dus echt waar jij waarde aan hecht.
Een miskoop zal het niet zijn.

  • mhindrik
  • Registratie: Januari 2006
  • Laatst online: 12-05 10:28
De GTX 260 is inderdaad net iets sneller dan de HD4870.

Persoonlijk zou ik voor de ATI kiezen, omdat die toch qua prijs kwaliteit beter is dan de GTX 260.

En als de prijs zakt van HD4870 kan je later er nog eentje bij prikken in crossfire, die 600 watt voeding zou dat wel aankunnen.

Over geluid en temperatuur durf ik niks te zeggen, maar er zijn meer dan zat vervangings mogelijkheden voor de stockkoelers.

Alle vragen hebben een antwoord


Verwijderd

Topicstarter
Ik denk dat de hd 4870 te veel stroom kost in idle. De gtx 260 black edition lijkt me voor mij een zeer goede kaart. Is de 55 nm versie (van de gtx 260) nou ook zuiniger? De 55nm versie is superclockt en daarom zijn de stroomkosten wat hoger maar is het zo dat dankzij de 55nm de stroomkosten toch lager zijn?

  • Visgek82
  • Registratie: December 2002
  • Nu online
Lekker voor de HD4870 gaan. DX10.1, betere IQ en (imo) betere drivers. maandelijkse driver updates! :)

Verder vind ik de kwaliteit van de kaarten gewoon beter.

  • KneoK
  • Registratie: December 2001
  • Laatst online: 14:01

KneoK

Not in a million lightyears

Mr. Detonator schreef op dinsdag 13 januari 2009 @ 13:26:
[...]


omdat er wat minder behoefte aan is bij nvidia (lees: vrijwel alle spellen draaien goed bij release)

echte performanceverbeteringen heb je bij nvidia niet gauw op driver-gebied idd...maar dat komt oa. door het twimtbp programma....daardoor zijn de drivers vanaf release meteen ''op orde''

kun je dus als een voordeel, maar ook als een nadeel zien...ligt er maar net aan welke bril je op hebt :)


[...]


ja...weet ik ook wel dat ze zo heet mogen worden....maar de rest van je kast word ook een stuk warmer waardoor bijv. je cpu minder ver te klokken is
Uhm, ik zie mensen vaker roepen dat het met Ati altijd zo'n geklooi is omdat er zo vaak nieuwe drivers en hotfixes uitkomen, maar waarom valt het niemand op dat nVidia gewoon precies hetzelfde doet ? Die brengen ook talloze betadrivers uit, dan kun je discussieren over beta vs hotfix, maar naar mijn mening is dat hetzelfde. De meuktracker is op het moment stuk, maar even snel op guru3d gekeken en dan kom je alleen in de 180 serie van nVidia al de volgende drivers tegen:

GeForce ForceWare 181.20 XP 32-bit WHQL
GeForce ForceWare 185.20 XP 32-bit
Geforce ForceWare 181.00 Win XP 32-bit
GeForce Forceware 180.84 Windows XP 32-bit
GeForce ForceWare 180.60 XP (32-bit)
ForceWare 180.70 XP (32-bit)
Forceware GeForce 180.48 XP 32-bit WHQL
GeForce Forceware 180.43 XP 32-bit
GeForce Forceware 180.42 XP 32-bit

En dit is alleen voor XP 32 bit. Pak een willekeurige changelog van een van die drivers en dan kom je ook gewoon dingen als "this driver is has several improvements for Grand Theft Auto 4" tegen, ordinaire hotfixes dus die bij Ati zo gehaat zijn...

Het gros van de spellen loopt bij launch op Ati hardware ook prima en als er iets aan verbeterd kan worden dan is Ati daar snel mee, een nieuwe release of een hotfix maakt niet uit, they usually get the job done. Dan is het voor mij geen kwestie van het spel pas kunnen spelen nadat de hotfix is uitgebracht maar meer een kwestie van nog meer kunnen genieten van een spel dat toch al perfect liep.

Man man, ik heb als serieuze nVidia kaarten een TNT1, TNT2, GF2MX, GF3Ti200, GF4Ti4200 en 8800GTS512 gehad en ik heb talloze drivers gebruikt, soms wel twee of drie nieuwe in de maand, beta na beta, de ene driver voor het ene spel, de andere driver voor een ander spel. Ik weet niet hoe het nu met nVidia gesteld is (maar het lijstje hierboven zegt me wel veel), maar ik update een keer in de maand (soms zelfs 2 maanden als ik geen issues of nieuwe spellen heb) mijn videokaartdrivers met de laatst uitgebrachte WHQL's en kan elk spel tot nu toe gewoon prima spelen. Die ene glitch of fps drop wordt in de volgende issue meestal toch wel aangepakt, als een spel serieus bugt volgt er meestal wel eem hotfix (die ik afhankelijk van of ik het spel speel wel of niet installeer, de FC2 hotfix heb ik bijvoorbeeld wel meegenomen, draai nu gewoon op 8.12 WHQL).

Wat overklokken betreft laat ik dat niet van een videokaart afhangen. Het ligt er dan ook nog totaal aan welk model je hebt, veel high-end kaarten blazen de lucht ook buiten de kast, dus veel warmte wordt al afgevoerd. Ik heb nu twee 4870's boven elkaar hangen met vlak daarboven weer een Zalman cnps9700led die mijn Q6600 koelt en met een beetje airflow wordt de temperatuur in de kast niet veel meer dan 7 graden warmer dan kamertemperatuur (zo'n 28 tot 30 graden) en wordt de warmste core van de Q6600 onder load op 3,84GHz netjes 64 graden, hiervoor zat er een enkele 8800GTS in en ik kwam geen MHz hoger en de temperaturen scheelden weinig (een graadje of 2, 3 minder op de temperatuur in de kast met de 8800). Als het al een issue zou zijn dan zou het zeker mijn keuze tussen Ati en nVidia niet bepalen, hier spelen veel meer factoren een rol.

[ Voor 12% gewijzigd door KneoK op 13-01-2009 19:21 ]


  • grmpf
  • Registratie: Januari 2009
  • Laatst online: 07-05 18:01
@ritsaart - de 55nm-versie van de gtx 260 zou zuiniger (en koeler) moeten zijn, maar dat blijkt in de praktijk nogal tegen te vallen. EVGA heeft 'm in drie smaken - standaard, SuperClocked en SuperSuperClocked. Die laatste is nog wat sneller dan de xfx black, maar is ook tegen de 300 euro. Bij mijn weten is er 1 webshop waar je ze alledrie krijgen kunt en de eerste reviews zijn er ook al. Veel voordeel tov de ouwe 216-versie is er echter mijns inziens niet, ook niet qua overclockbaarheid.

Anyway - de keuze tussen ATI en nVidia is uiteindelijk een persoonlijke. Qua performance en prijs/kwaliteit maakt het niet zoveel uit. De gtx 260 is de marginaal snelste maar ook de marginaal duurste. Of het je dat waard is, is aan jou.

Wel belangrijk: opletten op de garantievoorwaarden. Ik meen dat XFX, EVGA en Gainward levenslang garantie geven.

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Heb je ook al **LET OP** Welke videokaart/monitor moet ik kopen? bekeken? :) Wellicht staan daar ook tips in!

Verwijderd

Topicstarter
Ja dat heb ik al doorgelezen. Maar worden de hd 4870's nog zuiniger in idle (met nieuwe drivers) of blijven ze zo onzuinig?

Ik koop wel een p6t moederbord die grafa underclockt als ze in 2d mode zitten (asus epu). Aangezien de gtx 260 dit uit zichzelf doet (of tenminste iets dergelijks) heeft dat weinig nut. Denken jullie dat ik dankzij de epu engine de hd 4870 nog verder kan underclocken dat hij ongeveer op dezelfde kosten zit in idle als de hd 4870?

Hij gebruikt niet eens veel stroom!

http://www.neoseeker.com/...ws/xfxgtx260black/12.html

[ Voor 11% gewijzigd door Verwijderd op 14-01-2009 19:42 ]


Verwijderd

Volgensmij doet EPU dat niet. Ik weet niet of hij daar op kan komen, maar wel dat ie een stuk lager kan.

  • Yuri de Jager
  • Registratie: Juni 2001
  • Laatst online: 13-05 14:01

Yuri de Jager

Assume good intent

Hier nog een review om te bekijken. Er wordt getest met de NVIDIA GeForce driver 180.84 en AMD Catalyst 8.12 op Vista x64 met een Intel Core i7 940.

Hier wel een toepasselijke grafiek omdat 1 van je wensen is dat 'het er goed uit moet zien':

Afbeeldingslocatie: http://www.elitebastards.com/hanners/sapphire/4870-toxic-1gb/charts/high-iq.png

Crysis is dan helaas niet meer speelbaar. Alleen Far Cry 2 is sneller op de GTX260 216.

1 van de belangrijkste is voor mij persoonlijk deze:

Afbeeldingslocatie: http://www.elitebastards.com/hanners/sapphire/4870-toxic-1gb/charts/gpu-noise.png

5950@CTR3,85-4,875GHz|64GB 3600C14|32TB HDD|2.2TB SSD|RTX2070-XC-ULTRA|Alienware M17xR2 FTW!|i7 920XM(ES)|16GB DDR1333|750GB 7.2K HDD|256GB Crucial M4 SSD|3DV:P7671


Verwijderd

Topicstarter
Uit deze review blijkt dat de gtx 260 black edition de hd 4870 verslaat. Hij is op de meeste punten zelfs beter dan de stock gtx 280!

http://www.neoseeker.com/...ews/xfxgtx260black/8.html

Verwijderd

@ritsaart
For the drivers, all the ATI cards used Catalyst 8.10,
Afgekeurd. 8.12 drivers zorgen voor veel meel prestaties bij ATI.

[ Voor 24% gewijzigd door Verwijderd op 15-01-2009 17:22 ]


  • Powrskin
  • Registratie: November 2005
  • Niet online
Hier wordt de hd4870 vaak vergeleken met de 260gtx 216
terwijl je hem qua prijs toch beter kan vergelijken met de HD4850 x2 1gb of niet??

pricewatch: EVGA GTX 260 Core 216 - 55nm
pricewatch: Sapphire HD 4850 X2 1G GDDR3 PCI-E

Nukezone FTW


Verwijderd

Topicstarter
8.12 zal wel beter zijn maar ik vind gewoon de idle stroomkosten te duur bij de hd 4870. Ja en je kunt hem gaan vergeleken met zon dual gpu kaart als de hd 4850 x 2 maar dat is gewoon een monster. Dan zou ik nog eerder een gtx 280 kopen.

Doe gtx 260 black edition verslaat zelfs de gtx 280 (stock) op veel punten. En komt dicht in de buurt van de gtx 280 black edition. Ik denk dat dat je niet lukt met een hd 4870.

Ik ben zeker niet tegen ati. Ik zat in de eerste instantie meer aan een ati kaart te kijken (de hd4850) maar de hd 4870 is toch inefficienter dan de gtx 260 black edition.

De hd 4870 x2 vind ik een geweldige kaart alleen verbruikt hij te veel. Als ik op mezelf zou wonen had ik hem meteen gekocht!

[ Voor 6% gewijzigd door Verwijderd op 16-01-2009 15:10 ]


Verwijderd

Uit deze review blijkt dat de gtx 260 black edition de hd 4870 verslaat.
Dat gaat over prestatie, niet over verbruik. Alle reviews met 8.10 zijn gewoon afgekeurd op basis dat de 8.12 drivers veel beter presteren.

Een GTX 280 is veel duurder. Al zou ik ook geen 4850X2 kopen omdat ie me te lawaaiig lijkt.

Ik weet niet hoe het met jouw zit, maar stroom kosten boeien mij niet.

Afbeeldingslocatie: http://farm4.static.flickr.com/3112/2829760111_d7360b4639.jpg?v=0
Mijn HD4850 productreview: Jetway X4850-EN-512M review door Verwijderd. De eerste is ondergeklokt, 2e is stock, 3e is overclocked. Met de HD4870 is er ook wel zo iets af te halen. Ik weet niet hoeveel je bij een GTX 260 er af kan halen.

Edit: 8.12

[ Voor 55% gewijzigd door Verwijderd op 16-01-2009 15:10 ]


Verwijderd

Topicstarter
Ik begrijp dat het een verouderde test is. Maar is het mogelijk om een ati kaart te runnen voor de graphics en een nidia kaart te runnen voor physics?

Verwijderd

Alleen in windows 7 als ik het goed begrepen heb.

Als je weet dat ie verouderd is, waarom post je hem dan nog? :?

[ Voor 43% gewijzigd door Verwijderd op 16-01-2009 15:14 ]


  • M2M
  • Registratie: Juli 2006
  • Laatst online: 13-05 19:04

M2M

medicijnman

volgens mij is dat driverwise niet mogelijk. Ik heb in ieder geval die combinatie nog niet meegemaakt. Het is al lastig om een nvidia kaart naast een ati kaart draaiend te hebben (ivm 3 displays bijvoorbeeld). Misschien weet google het wel?

-_-


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 13-05 22:02

Ultraman

Moderator Harde Waren

Boefje

Het is ooit gedaan op Hardspell.com als ik mij goed herinner. Met een HD38xx en 9600GT volgens mij.

Als je stil blijft staan, komt de hoek wel naar jou toe.


Verwijderd

Topicstarter
Verwijderd schreef op vrijdag 16 januari 2009 @ 15:13:
Alleen in windows 7 als ik het goed begrepen heb.

Als je weet dat ie verouderd is, waarom post je hem dan nog? :?
Ik had eerst niet gekeken naar de drivers.

Maargoed merk je nou echt veel van physx of directx 10.1?

  • Patriek
  • Registratie: Februari 2002
  • Laatst online: 19-03 21:31

Patriek

edit koning

Heb niet de hele thread gelezen, maar wat dacht je van 2 x HD4830 in Crossfire? Betaal je 200 euro voor.
Enige reden waarom dat niet interessant zou zijn is geluidshinder of als je erg op je stroom let. Het is onder de games die crossfire ondersteunen (zowat alle hedendaagse?) sowieso sneller dan een single kaart van die prijs.

Verwijderd

Ik ga vandaag mijn nieuwe graka bestellen, heb 26 inch monitor voor 1900*1200, de xfx gtx 280 staat op 259 bij alternate en de hd4870 1 gb bij pixmania voor 179/189plus verzending....wat zouden jullie doen?...

  • dion_b
  • Registratie: September 2000
  • Laatst online: 13:25

dion_b

Moderator Harde Waren

say Baah

wat zouden jullie doen?...
In ieder geval niet een oud topic van een ander kicken :o

Zie voor keuze videokaart: **LET OP** Welke videokaart moet ik kopen?
Een Tweaker wordt namelijk in staat geacht zelf een keuze te maken.

Oslik blyat! Oslik!

Pagina: 1

Dit topic is gesloten.