[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 34 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

dcm360 schreef op woensdag 02 mei 2012 @ 16:02:
De waarheid spreken is niet hetzelfde als objectief zijn.
Ooh ja zeker wel.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Dat is het niet, je kan best de waarheid spreken maar de feiten dusdanig presenteren dat het niet meer objectief is. Marketingafdelingen zijn daar over het algemeen best goed in.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
dcm360 schreef op woensdag 02 mei 2012 @ 16:38:
Dat is het niet, je kan best de waarheid spreken maar de feiten dusdanig presenteren dat het niet meer objectief is. Marketingafdelingen zijn daar over het algemeen best goed in.
niemand beweert ook dat marketingafdelingen de waarheid spreken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

dcm360 schreef op woensdag 02 mei 2012 @ 16:38:
Dat is het niet, je kan best de waarheid spreken maar de feiten dusdanig presenteren dat het niet meer objectief is. Marketingafdelingen zijn daar over het algemeen best goed in.
Dan spreek je alsnog de waarheid en maak je gebruik van feiten uit resultaten.

Feit: Kaart X is gemiddeld 1,6 keer zo snel als Kaart Y.

Marketing:

Kaart X is gemiddeld 60% sneller dan Kaart Y!!!!!!!111oneoneone

Bedrijven presenteren feiten op een manier waardoor ze er voor hen het beste uitkomen. Dat verandert niets aan de feiten, dus ga dat dan ook niet verwarren met marketing. Nog een voorbeeld:

Feit: Kaart X is gemiddeld 1,6 keer zo snel als Kaart Y.

Mening: Wij vinden Kaart X overall net wat beter dan Kaart Y. Toegegeven, de prestaties liegen er niet om maar Kaart Y is beduidend stiller en behoorlijk wat zuiniger.

Resultaten van verbruik (indien niet zo positief) zul je niet zo nadrukkelijk naar voren zien komen als het feit dat Kaart X dus 60% sneller is.

Feiten zijn een fundering voor meningen en voor meningen moet je bij bedrijven die hun producten willen verkopen niet zijn, die vinden hun eigen spul toch alleen maar geweldig (Het kan niet vaak genoeg genoemd worden, maar "Wij van WC-Eend"). Meningen zijn dan ook nog eens afhankelijk van waar men meer belang aan hecht. Is het die performance of toch veel liever de focus op het verbruik? Zo kunnen beoordelingen in reviews ook enigzins uiteen lopen en lees je ook niet overal hetzelfde verhaal.

[ Voor 18% gewijzigd door Fid3lity op 02-05-2012 16:54 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Astennu schreef op woensdag 02 mei 2012 @ 16:26:
En dan GPGPU waar de 7970 de GTX580 aan kan en waar de GTX680 in vergelijking met de GTX580 het slecht doet. (niet in alle apps maar wel een aantal). En dit werd door veel nVidia fans in de Tijd van de GTX4 en GTX5 als een van DE aankoop argumenten gebruikt. Terwijl je ze er nu niet over hoort dat GPGPU slechter geworden is.
Of toen ze zeiden dat geluid niet van belang was of die keer dat ze zeiden dat verbruik ook niet van belang was of die keer dat ze zeiden dat prijs niet van belang was. Waar het op neerkomt is dat ze de belangrijke punten altijd dusdanig kiezen zodat hun favoriete merk als beste uit de bus komt.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 19:18
Natuurlijk kun je feiten (waarheden) zo presenteren dat het lijkt mee te vallen of dat het juist superieur is, echter de feiten zelf veranderen niet. Kwestie dus van ZELF nadenken en de feiten juist interpreteren.

Slechte resultaten weglaten en alleen de goede presenteren gebeurt helaas ook vaak zat, dan is het lastiger om te bepalen wat de werkelijkheid doet.

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 02 mei 2012 @ 16:26:
[...]


Nee hoor. 7970 = GPGPU georienteerd. Waar de GTX680 trager kan zijn met GPGPU dan de GTX580 en niet een klein beetje ook. Ze hebben al die extra's er uit gesloopt.

Daarnaast kunnen alle 7970's met gemak 1000 MHz draaien. Dus ik snap niet dat AMD dat niet gedaan heeft. Ik durf zelfs te stellen dat dat met lagere voltages nog had gekunt waardoor het verbruik lager geweest was en de prestaties hoger. Op die manier was de GTX680 amper sneller geweest.

En dan GPGPU waar de 7970 de GTX580 aan kan en waar de GTX680 in vergelijking met de GTX580 het slecht doet. (niet in alle apps maar wel een aantal). En dit werd door veel nVidia fans in de Tijd van de GTX4 en GTX5 als een van DE aankoop argumenten gebruikt. Terwijl je ze er nu niet over hoort dat GPGPU slechter geworden is.

Als AMD die transistors die ze nu aan GPGPU hebben besteed hadden besteed aan gaming power was die kaart heel wat sneller geweest. Big Kepler zou in verhouding ook minder gaming performance per mm2 krijgen dan de huidige GTX680. Dus het is niet zo zwart/wit.
Maar dat was de bedoeling ook van nvidia om met deze kaart meer op het gamen te gaan richten en juist niet meer op gpgpu. Dat hebben ze bij nvidia geloof ik ver voor de release al laten weten. Gpgpu komt vast weer meer in de big chips die weer minder voor de gamers gericht zijn en nvidia mist daar geen performance momenteel met zijn speciale kaarten daar voor. Ik vind het dus knap wat nvidia met veel minder heeft gedaan. De focus lag op het gamen en dat is 100% goed uitgepakt. GPGPU is verder wel belangrijk, heel belangrijk zelfs want daar maken juist veel bedrijven gebruik van maar gpgpu is niet belangrijk in deze gaming serie, door voor heeft nvidia andere kaarten en komen weer meer terug in weer andere kaarten ala gk110 waarschijnlijk.
haarbal schreef op woensdag 02 mei 2012 @ 15:47:
[...]


idd, charlie is 100% objectief 8)7
Het is gewoon een mooi prater. Goede dingen kan hij niet onderuit en hij zal dat ook vast niet met blijheid zeggen dat de gk104 een win is voor nvidia, dit had hij liever nooit gezien. Het is en blijft een amd fanboy die die bij AMD in zijn hol kruipt en smeerige leugens gaat verzinnen met niets. Kijk als er nu meer bronnen kwamen met het zelfde dan kun je het gelijk al waarheid nemen maar hij is gewoon heel ongeloofwaardig voor velen omdat er gewoon niet meer is.

Hier onder, ja want word uitgemaakt voor fanboy, ik zelf noem hier verder niemand fanboy. Dus nee ik scheld hier niemand verder uit zoals wel naar mij word toegedaan en later nog eens gericht naar mij toe. Niet mij dus alleen de schuld geven van schelden.

[ Voor 27% gewijzigd door Verwijderd op 02-05-2012 17:54 ]


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 19-09 22:38

Racing_Reporter

Contentmaker

En jij riep zelf dat het gescheld moest stoppen Lupp? Kap dan zelf ook effe met ranten alsjeblieft... We're trying to have a discussion here.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Verwijderd schreef op woensdag 02 mei 2012 @ 17:28:
[...]

Maar dat was de bedoeling ook van nvidia om met deze kaart meer op het gamen te gaan richten en juist niet meer op gpgpu. Dat hebben ze bij nvidia geloof ik ver voor de release al laten weten. Gpgpu komt vast weer meer in de big chips die weer minder voor de gamers gericht zijn en nvidia mist daar geen performance momenteel met zijn speciale kaarten daar voor. Ik vind het dus knap wat nvidia met veel minder heeft gedaan. De focus lag op het gamen en dat is 100% goed uitgepakt.
Nu kun je natuurlijk ook alleen maar gaan speculeren wat AMD met bijvoorbeeld de HD 7900 lijn had kunnen doen als zij dezelfde aanpak hadden gehanteerd en geen inhaalslag hadden gemaakt op GPGPU. Punt is dus wel, AMD staat op GPGPU markt nu aardig sterk zolang GK-110 er niet is.

Ik denk persoonlijk nog steeds dat het oorspronkelijk plan van nVidia met deze chip niet de focus op GPGPU was, maar wel om hem als GTX 660Ti of 670 neer te zetten (op basis van de die size en het verbruik). Dan leggen ze de focus vervolgens ineens weer puur op gaming en zijn ze verbaasd wat ze eruit hebben weten te halen. "Big" Kepler GK-110 leverde problemen op en kon gewoon niet gelanceerd worden, dus moesten ze iets anders doen. Als eerste zeggen ze na de launch van GCN met Tahiti voorop "we hadden wel meer verwacht van AMD" puur en alleen kijkend naar game-performance zonder ook maar iets te zeggen over GPGPU. Dan schuiven ze de naamgeving toch even een stapje op, wat maakt het uit?

(GF-110 vormde zoals menigeen hier wel weet de basis voor de GTX 580 en 570, waar GF-114 de basis van de GTX 560Ti en de 560)

Zodoende komen ze dus met een chip die bij gaming verbazend goed mee kan doen, en voor hun doen behoorlijk zuinig is wat de kaart uiteindelijk lekker stil maakt. Maar deze kaart stelt teleur op GPGPU performance en is in situaties trager dan de 580. De marketing pas je er gewoon op aan met een "nieuwe verbruiksstandaard tijdens het gamen" (met 2 6-pins in plaats van een 6-pins met een 8-pins PEG-setje) en verzwijg je dat "Big" Kepler GK-110 gewoon niet wil lukken, zoals in eerste instantie met Fermi ook het geval was (right?).

Er valt verder zo lekker op door te speculeren. Gaan we "Big" Kepler GK-110 pas zien in de GTX 780? Of komen ze later nog met een GTX 685? Of splitsen ze het zelfs helemaal af en komen ze met een aparte GPGPU lijn? Het ene scenario uiteraard minder waarschijnlijk dan de andere, maar laat je fantasie maar de vrije loop!

Disclaimer:
Inhakend op de discussie hiervoor, dit is een duidelijk voorbeeld van een mening of gewoon een eigen idee van de situatie. Neem het niet aan als een feit, maar denk lekker creatief mee. Of het verhaal waarschijnlijk of logisch is, geen idee. Wat er op de achtergrond precies heeft gespeeld, geen idee. Maar dat weet ook niemand die niet intern meepraat bij nVidia 100% zeker.
:w

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op woensdag 02 mei 2012 @ 17:28:
Maar dat was de bedoeling ook van nvidia om met deze kaart meer op het gamen te gaan richten en juist niet meer op gpgpu. Dat hebben ze bij nvidia geloof ik ver voor de release al laten weten. Gpgpu komt vast weer meer in de big chips die weer minder voor de gamers gericht zijn en nvidia mist daar geen performance momenteel met zijn speciale kaarten daar voor. Ik vind het dus knap wat nvidia met veel minder heeft gedaan. De focus lag op het gamen en dat is 100% goed uitgepakt. GPGPU is verder wel belangrijk, heel belangrijk zelfs want daar maken juist veel bedrijven gebruik van maar gpgpu is niet belangrijk in deze gaming serie, door voor heeft nvidia andere kaarten en komen weer meer terug in weer andere kaarten ala gk110 waarschijnlijk.
AMD doet dit met zijn HD78xx en HD77xx reeks. 100% focus op gamen. Een HD7870 zit dan ook op de hielen van een HD7950 m.b.t. gamen. AMD doet het dus beter, tenzij jij denkt dat het gemiddelde budget van gamers voor een videokaart over de 450 euro ligt.

AMD heeft een heel erg andere tactiek dan nVidia. AMD's grootste chip is 365mm2. Als ze nVidia tactiek hadden gevolgd hadden ze alle GPGPU specifieke functies uit Tahiti gesloopt en een nog grotere chip gemaakt waar wel weer GPGPU specifieke dingen in zitten. AMD ziet geen of weinig markt voor chips boven de 500mm2.

nVidia heeft met de GK104 t.o.v. Tahiti een heel erge goede chip neergezet voor gaming. Dit komt doordat Tahiti ook een erg goede chip is voor GPGPU terwijl de GK104 dat juist niet is. nVidia wint dus in het hogere segment, maar gaat waarschijnlijk verliezen in het midden en lagere segment omdat AMD daar niet meer de handicap van GPGPU focus heeft. Het wordt voor nVidia dus moeilijker om een de HD78xx en HD77xx serie aan te pakken en dat is waar het geld wordt verdient.

Vergeet niet, een HD7870 is nog geen 10% langzamer dan een HD7950. Terwijl een HD7870 veel goedkoper is dan een HD7950:
212mm2 vs 365mm2
256bits vs 384bits
2GB vs 3GB

Ik wens nVidia dan ook veel succes toe, ze gaan een GTX660Ti positioneren tegenover een HD7870. Een 320mm2 grote chip tegenover een 212mm2 grote chip.

[ Voor 23% gewijzigd door madmaxnl op 03-05-2012 13:52 ]


Acties:
  • 0 Henk 'm!

Verwijderd

3XPER7 schreef op woensdag 02 mei 2012 @ 17:49:
[...]


Nu kun je natuurlijk ook alleen maar gaan speculeren wat AMD met bijvoorbeeld de HD 7900 lijn had kunnen doen als zij dezelfde aanpak hadden gehanteerd en geen inhaalslag hadden gemaakt op GPGPU. Punt is dus wel, AMD staat op GPGPU markt nu aardig sterk zolang GK-110 er niet is.
Maar nvdia heeft daar momenteel nog andere kaarten voor die er meer geschikt voor zijn en dus niet de geforce kaarten. Nvidia domineert nog altijd in die markt.

Nvidia kan beter die big die gevallen voor de bedrijven markt houden en de rest zoals GK104. Misschien gaat nvidia nu ook wel die richting op.

[ Voor 11% gewijzigd door Verwijderd op 02-05-2012 18:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Die paar chips die op de consumenten markt verkocht worden kunnen daar nog wel bij, als dat ding zoveel sneller dan gk104 is dat het zich loont om dat te doen.

En die verkoopargumenten, tja ik kan me toch ergens vaag herinneren dat er voor AMD ook genoeg argumenten waren/zijn. Altijd maar weer alles in eigen voordeel verdraaien/dingen verzinnen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
We willen feiten?

Feit: Jensen heeft zelf bij een financieel verslag aangegeven dat de yields van Kepler in het toilet liggen.
Feit: Er zijn documenten van nVidia boven komen drijven waarin duidelijk is dat nVidia nu per wafer moet betalen ipv per goede die. TSMC wil niet langer nVidia's slechte ontwerpkeuzes financieel blijven ondersteunen.
Feit: GTX680 is tot dus ver de enige desktop kaart op 28nm en van de Kepler lijn die nVidia op de markt heeft weten te brengen en is uitermate slecht verkrijgbaar (tenzij je woekerprijzen wilt betalen).

Of er veel waarheid zit in het artikel van zeer beroerde yields, blijft een open vraag. Die vraag kan eventueel deels beantwoord worden wanneer nVidia eindelijk eens met de GTX670 komt. Als deze in zeer grote getalen beschikbaar komt, dan kun je al weer wat meer zeggen over yields. Als blijkt dat de later op de markt komende GTX660 ook nog de GK104 als basis heeft en ruimschoots beschikbaar komt, dan kunnen we wel stellen dat nVidia niet in staat blijkt om fatsoenlijk yieldende chips te bouwen voor al een paar generaties (iets met Charlie en precies dat statement een aantal jaren terug).

De 'maar AMD had een paar maanden extra om voorraden op te bouwen' argument is ook zo'n dooddoener. AMD heeft zijn kop weer eens uitgestoken, het voor elkaar gekregen om een grotere chip op een nog veel minder rijp process veel beter te laten yielden (ze hebben altijd duidelijk te kennen gemaakt dat de yields zijn zoals ze verwachtten). AMD heeft simpelweg meer oog voor het yieldbaar maken van chips, het omhelzen van een nieuw process, een architectuur die wel te maken is.
Verwijderd schreef op woensdag 02 mei 2012 @ 17:59:
Maar nvdia heeft daar momenteel nog andere kaarten voor die er meer geschikt voor zijn en dus niet de geforce kaarten. Nvidia domineert nog altijd in die markt.

Nvidia kan beter die big die gevallen voor de bedrijven markt houden en de rest zoals GK104. Misschien gaat nvidia nu ook wel die richting op.
Die andere kaarten zijn nog altijd die grote, energieslurpende Fermi's, die wat betreft prestaties het onderspit aan het delven zijn ten opzichte van Intels Knights Corner. De geruchten gaan dat Fermi-Quaddro's en Tesla's het aan het afleggen zijn bij alle nieuwe aanbestedingen. De tijd zal ons moeten leren wat er van die geruchten waar is, maar dat zal duidelijk moeten worden bij ofwel nVidia's volgende financiele kwartaal presenaties of die van een kwartaal later. Het is de ruggegraat van nVidia's inkomsten, dus kunnen ze zich daar geen klappen veroorloven, terwijl GK110/112 nog gemakkelijk een half jaar weg is.

Acties:
  • 0 Henk 'm!

Verwijderd

nvt

[ Voor 100% gewijzigd door Verwijderd op 03-05-2012 10:12 ]


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 19-09 22:38

Racing_Reporter

Contentmaker

Verwijderd schreef op woensdag 02 mei 2012 @ 18:44:
Een feit is ook dat nvidia later zijn de yields op orde te hebben of goed zijn.
Da's geen feit, da's hoop op de toekomst. En wat is dit, Google Translate?

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op woensdag 02 mei 2012 @ 17:59:
[...]
Maar nvdia heeft daar momenteel nog andere kaarten voor die er meer geschikt voor zijn en dus niet de geforce kaarten. Nvidia domineert nog altijd in die markt.

Nvidia kan beter die big die gevallen voor de bedrijven markt houden en de rest zoals GK104. Misschien gaat nvidia nu ook wel die richting op.
Eh, daar zit je compleet mis. De Quadro's worden vooral anders aangedreven (firmware + drivers); er zijn wat hardware verschillen, maar dan kijk je met name naar dingen als ECC en geen extra GPGPU hardware of iets dergelijks. Het enige echte grote verschil is dat FP64 performance (double precision floats, als dat je iets zegt) op Quadro's niet gecastreerd is tot 1/8e van FP32 performance en gewoon op 1/2e FP32 performance draait.

In veel zaken zijn Quadro's zelfs veel trager dan hun GeForce tegenhangers, ook in GPGPU. Alleen als je heel sterk op FP64 leunt heb je er iets aan. De meeste GPGPU dingen gebeuren gewoon op GeForces, niet op Quadro's; je kunt een stuk of 7 580's aanschaffen voor de prijs van een enkele Quadro 6000 (wat dan ook nog eens GF100 en niet 110 is). GPGPU wordt meestal gebruikt vanwege de enorme parallelliteit, dus meestal werken enkele GeForces in tandem beter omdat je uiteraard meer SP's hebt :)

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Racing_Reporter schreef op woensdag 02 mei 2012 @ 19:34:
[...]

Da's geen feit, da's hoop op de toekomst. En wat is dit, Google Translate?
Moet jij zeggen ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op woensdag 02 mei 2012 @ 20:20:
[...]

Eh, daar zit je compleet mis. De Quadro's worden vooral anders aangedreven (firmware + drivers); er zijn wat hardware verschillen, maar dan kijk je met name naar dingen als ECC en geen extra GPGPU hardware of iets dergelijks. Het enige echte grote verschil is dat FP64 performance (double precision floats, als dat je iets zegt) op Quadro's niet gecastreerd is tot 1/8e van FP32 performance en gewoon op 1/2e FP32 performance draait.

In veel zaken zijn Quadro's zelfs veel trager dan hun GeForce tegenhangers, ook in GPGPU. Alleen als je heel sterk op FP64 leunt heb je er iets aan. De meeste GPGPU dingen gebeuren gewoon op GeForces, niet op Quadro's; je kunt een stuk of 7 580's aanschaffen voor de prijs van een enkele Quadro 6000 (wat dan ook nog eens GF100 en niet 110 is). GPGPU wordt meestal gebruikt vanwege de enorme parallelliteit, dus meestal werken enkele GeForces in tandem beter omdat je uiteraard meer SP's hebt :)
Wat dacht je van tesla
http://www.theinquirer.ne...-tesla-2090-gpgpu-servers
http://news.softpedia.com...PGPU-Platform-57855.shtml

Veel bedrijven hebben geeen geforce vanwege de software/drivers.

[ Voor 5% gewijzigd door Verwijderd op 02-05-2012 20:53 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ook Tesla heeft niet meer kracht buiten FP64. Tesla/Quadro zijn interessant vanwege ECC (hoewel ook dat voor een groot deel stierenpoep is, je mag rekenen op ~1 flipped bit per GiB data ofzo) en omdat ze met meer geheugen komen.

Acties:
  • 0 Henk 'm!

Verwijderd

Niet meer kracht nee maar die zelfde chips zijn er dus wel voor bedoeld als je er een beetje info over op haalt.
Ik zat er wat dat betreft dus helemaal niet naast zoals je wel zij.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Verwijderd schreef op woensdag 02 mei 2012 @ 18:44:
Een feit is ook dat nvidia later zijn de yields op orde te hebben of goed zijn.
Wat? Ik heb het 4 keer herlezen. Snap er geen drol van.

[ Voor 11% gewijzigd door Noel op 02-05-2012 22:00 ]

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

knipIk zie het zelf trouwens nu pas terug :X

[ Voor 83% gewijzigd door Edmin op 03-05-2012 11:05 ]


Acties:
  • 0 Henk 'm!

  • bertp1
  • Registratie: Maart 2011
  • Niet online
En we zijn vertrokken ...

@ Werelds: heb jij ergens een artikel dat goed het verschil uitlegt tussen standaard consument kaarten en de enterprise (quadro/tesla) kaarten?

[ Voor 74% gewijzigd door bertp1 op 02-05-2012 22:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

De gtx660 Ti gaat het niet redden voor 10 mei.
http://www.tomshardware.c...-Ti-Kepler-GPU,15506.html

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Information coming out of Overclockers.co.uk has Andrew Gibson (Overclockers.co.uk) quoted as "660Ti, you have zero chance, its approx 6 months away........"
Klinkt meer als Q4.
Werelds schreef op woensdag 02 mei 2012 @ 20:58:
Tesla/Quadro zijn interessant vanwege ECC (hoewel ook dat voor een groot deel stierenpoep is, je mag rekenen op ~1 flipped bit per GiB data ofzo)
Wat is daar BS aan?

[ Voor 42% gewijzigd door Olaf van der Spek op 02-05-2012 22:43 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Verwijderd schreef op woensdag 02 mei 2012 @ 18:44:
Een feit is ook dat nvidia later zijn de yields op orde te hebben of goed zijn.
Zin slaat nog steeds nergens op..

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
bertp1 schreef op woensdag 02 mei 2012 @ 22:11:
En we zijn vertrokken ...

@ Werelds: heb jij ergens een artikel dat goed het verschil uitlegt tussen standaard consument kaarten en de enterprise (quadro/tesla) kaarten?
Nee, helaas niet. Het verschilt ook elke (architectuur) generatie uiteraard. "Vroeger" hadden ze bijvoorbeeld ook meer outputs; tegenwoordig is dat ook niet het geval meer. Ik meen me te herinneren dat er bijvoorbeeld een G94 of G96 was die al een DP output had. De chips op zich zijn echter (en ik kan dit niet genoeg benadrukken) in principe dezelfde als op de GeForce kaarten.

Het grote verschil zit hem er in dat er voor gaming bepaalde stappen in de pipelines overgeslagen worden of niet 100% nauwkeurig worden uitgevoerd. Je zit immers met relatief snel bewegende beelden dus een klein foutje valt niet op. Dat kunnen gebruikers van bijvoorbeeld AutoCAD dus absoluut niet riskeren. Omdat de programma's waar Quadro's voor gebruikt worden (AutoCAD is slechts een voorbeeld) vaak ook veel meer gegevens door de kaart stouwen hebben Quadro's dus meer geheugen, grotere bus en dus meer bandbreedte. Daarnaast hoeft dit vaak niet real-time verwerkt te worden. Allemaal dingen waar de drivers en firmware op zijn afgestemd.

Wederom "vroeger" (geen idee of het nog steeds kan) kon je dan ook gewoon je GeForce naar Quadro flashen en vice versa. Een Quadro kaart zal met Quadro firmware/drivers meestal trager zijn in games, maar na zo'n flash presteren ze gewoon gelijk. Ook andersom werkte het deels; in bepaalde rendertaken is de Quadro firmware veel sneller. Uiteraard heb je niet ineens ECC en dergelijke op een GeForce na zo'n flash :P
Omdat een enkele kaart maar heel weinig fouten zal krijgen en dit in de meeste render pipelines nog steeds vrijwel niets uitmaakt. Even afgezien van het feit dat workstations meestal toch wel van aardige componenten zijn voorzien waardoor de kans nog kleiner wordt (zo'n flipped bit in het geheugen komt door statische ladingen of stroom instabiliteit). Intussen wordt er wel grof geld voor betaald.

Jouw videokaart (tenzij je een Quadro hebt natuurlijk, sorry :D) heeft geen ECC; hoe vaak zie jij willekeure artifacts tijdens normaal gebruik? 1 flipped bit per uur per gigabyte is wat men "schat" als de gemiddelde error rate. Je moet je Windows/OS X/Linux gebruik ook meetellen, want dat draait tegenwoordig ook allemaal op de GPU, dus een gigabyte aan data heb jij zo verstouwd. Al die flipped bits zorgen niet eens voor artifacts.

ECC wordt pas belangrijk bij farms waar zo'n enkele bit ineens invloed heeft op tig andere processen - die op hun beurt ook allemaal last van hun eigen flipped bits hebben. Maar voor een enkele kaart? Nee, sorry :)

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Zijn hier nog mensen die met 3d vision gamen? Zeker als je persee een GTX680 wilt oid...
1 tip : Sonic All Stars Racing xD.

Of metro 2033 :*)

[ Voor 27% gewijzigd door A87 op 03-05-2012 14:36 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

690 reviews komen binnen:

Anandtech: http://www.anandtech.com/...ive-ultra-rare-ultra-fast

[ Voor 6% gewijzigd door Help!!!! op 03-05-2012 15:05 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Beestige kaart, laat die HD7990 maar achterwegen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zeker dikke kaart. Ben benieuwd naar prijs in NL.

Zelf heb ik iha liever 2 aparte kaarten. Ook makkelijker later weer te verkopen denk ik.

[ Voor 7% gewijzigd door Help!!!! op 03-05-2012 15:27 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 20:29
Help!!!! schreef op donderdag 03 mei 2012 @ 15:27:
Zeker dikke kaart. Ben benieuwd naar prijs in NL.

Zelf heb ik iha liever 2 aparte kaarten. Ook makkelijker later weer te verkopen denk ik.
Jep geen echte reden om voor een 690 te gaan behalve als je voor quad sli wil gaan of je hebt niet genoeg ruimte tussen je PCI-e sloten waardoor 680 sli niet relaxt is! Verder wel een erg mooie kaart, maar voor dezelfde prijs zou ik altijd voor 2x 680 sli gaan :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Trouwens, verbruik tov de 590 en 580 SLI is wel fors achteruitgegaan.

Verschillen in microstuttering (alhoewel ik daar niet veel van lijk te merken bij mijn 6850CF set) zijn ook wel groot en interessant:

http://www.computerbase.d...8/#abschnitt_mikroruckler

[ Voor 64% gewijzigd door Help!!!! op 03-05-2012 16:28 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
madmaxnl schreef op donderdag 03 mei 2012 @ 15:16:
Beestige kaart, laat die HD7990 maar achterwegen.
Lijkt me wel ja.

Of de clocks van de HD7990 (in ieder geval hoger dan de standaard HD7970 clocks) moeten flink omhoog, óf de prijs dient een flink stuk onder die van de GTX690 komen te zitten.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Clocks zullen niet hoger zijn dan die van de HD7970, dat past gewoon niet in de strategie (en, let's face it, het verbruik) die AMD hanteerde bij voorgaande modellen. Verder verwacht ik zelf wel dat de HD 7990 minimaal $ 100.- goedkoper uit zal vallen dan deze GTX 690, en dat performance wisselend is (ook niets nieuws)

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Jasper 99 schreef op donderdag 03 mei 2012 @ 15:28:
Jep geen echte reden om voor een 690 te gaan behalve als je voor quad sli wil gaan of je hebt niet genoeg ruimte tussen je PCI-e sloten waardoor 680 sli niet relaxt is! Verder wel een erg mooie kaart, maar voor dezelfde prijs zou ik altijd voor 2x 680 sli gaan :)
Zijn stiller en een lager energieverbruik geen goede redenen?

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Wel LEIP. dat die 690 bijna zo snel is als letterlijk de 680 in SLI .. OMG fast

Metro 2033 98 fps very high DX11 ...... abnormaal :/. Kan je 3d vision gebruiken met very high! Damn! :9

[ Voor 42% gewijzigd door A87 op 03-05-2012 18:24 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Linkje van de benchmark/review?

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Lias schreef op donderdag 03 mei 2012 @ 18:20:
Wel LEIP. dat die 690 bijna zo snel is als letterlijk de 680 in SLI .. OMG fast

Metro 2033 98 fps very high DX11 ...... abnormaal :/. Kan je 3d vision gebruiken met very high! Damn! :9
Als je het alleen maar voor die game doet ben je beter af met een CF HD 7970 setje :w

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:41

XanderDrake

Build the future!

Ja, bijzonder. Ik ben geen fan van dual-GPU kaarten, maar de prestaties en hoge clocks in combinatie met die Advanced frame metering om micro-stutters tegen te gaan... Petje af nV!

prijs is er ook naar...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
XanderDrake schreef op donderdag 03 mei 2012 @ 18:57:
Ja, bijzonder. Ik ben geen fan van dual-GPU kaarten, maar de prestaties en hoge clocks in combinatie met die Advanced frame metering om micro-stutters tegen te gaan... Petje af nV!

prijs is er ook naar...
Wie zegt dat het werkt ? Laat ze dat eerst maar eens onderzoeken alvorens we micro-stuttering uitzwaaien. Het zou niet de eerste keer zijn dat nVidia iets beweert wat misschien maar voor de helft blijkt te kloppen.

Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 12:18

Phntm

Tlingelingeling

In Amerika is de nVidia Geforce GTX690 even duur als 2 GTX 680jes. Daar gaan ze namelijk nog voor 499 de winkels uit.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

In other news, de GTX 670 wordt een verdomd klein kaartje als we de geruchten mogen geloven:

Afbeeldingslocatie: http://content.hwigroup.net/images/news/colorful-gtx670c.jpg

De GTX 660Ti straks (wat zeg ik nou, straks..) wordt dan echt een klein kaartje.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 20:29
Olaf van der Spek schreef op donderdag 03 mei 2012 @ 18:02:
[...]

Zijn stiller en een lager energieverbruik geen goede redenen?
Fair enough, horen er ook nog bij. Toch spreekt het mij wat minder aan maar het zijn wel valide punten :)

Een 2 x 4 gb versie van deze kaart lijkt me trouwens nog wel een grappig idee, dan ben je wel een tijdje zoet!

Verder best opmerkelijk hoor die prestaties vergeleken 2x 680 sli!

[ Voor 23% gewijzigd door Jasper 99 op 03-05-2012 19:11 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
3XPER7 schreef op donderdag 03 mei 2012 @ 19:05:
In other news, de GTX 670 wordt een verdomd klein kaartje als we de geruchten mogen geloven:

[afbeelding]
nVidia kennende is dit gewoon een nep kaart, lol haha, wie verzint zoiets.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
Haha dan moet ik echt denken aan die GTX 480 mockup :')

[ Voor 29% gewijzigd door M4gick op 03-05-2012 19:13 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op donderdag 03 mei 2012 @ 18:57:
Ja, bijzonder. Ik ben geen fan van dual-GPU kaarten, maar de prestaties en hoge clocks in combinatie met die Advanced frame metering om micro-stutters tegen te gaan... Petje af nV!
Eerst zien, dan geloven wat hun "Advanced Frame Metering" betreft. Is nog altijd een software hack om een hardware probleem tegen te gaan.

Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10


Review van de GTX690. Best wel ziek. De GTX680 was al een beest voor een single PCB kaart en nu bijna 90% meer sneller op eenzelfde PCB.

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op donderdag 03 mei 2012 @ 18:57:
Ja, bijzonder. Ik ben geen fan van dual-GPU kaarten, maar de prestaties en hoge clocks in combinatie met die Advanced frame metering om micro-stutters tegen te gaan... Petje af nV!

prijs is er ook naar...
Dit is weer een mooie vooruitgang wat sli nog aantrekkelijker maakt. En dat het misschien iets softwarematigs is zou nog leuker zijn want dan kan het misschien ook toe worden gepast op sli met
2 losse kaarten.

Is die benchmarks van de gtx690 nu gelekt? Het is iig wel de snelste kaart die er is. Gezien wat de hd7970cf doet zie ik het somber in voor de 7990. Die zal daar niet over heen gaan, of hij moet hogere klocks krijgen dan de 7970 maar dat lijkt me niet mogelijk. :o

Nu moet wel de bechikbaarheid beter worden want anders heeft nvidia nog niets voor zich zelf en voor de consumenten.

[ Voor 21% gewijzigd door Verwijderd op 04-05-2012 09:47 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Jasper 99 schreef op donderdag 03 mei 2012 @ 15:28:
Jep geen echte reden om voor een 690 te gaan behalve als je voor quad sli wil gaan of je hebt niet genoeg ruimte tussen je PCI-e sloten waardoor 680 sli niet relaxt is! Verder wel een erg mooie kaart, maar voor dezelfde prijs zou ik altijd voor 2x 680 sli gaan :)
Ik kan gewoon 4 kaarten in mijn eVGA X58 4-Way SLI mobo proppen als ik dat wil dus daar hoef je niet de 690 voor te kopen als je de ruimte hebt :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 20:29
nero355 schreef op vrijdag 04 mei 2012 @ 11:55:
[...]

Ik kan gewoon 4 kaarten in mijn eVGA X58 4-Way SLI mobo proppen als ik dat wil dus daar hoef je niet de 690 voor te kopen als je de ruimte hebt :)
Oct sli?! Nee kidding :P jep das een mooi bordje daar heb je niet zo heel veel problemen echter heb je niet dat als je alle 4 de slots gebruikt je kaarten gaat chocken? Zit geen ruimte meer tussen dan toch? Of je moet watercooling erop gooien :D !

Advanced frame metering klinkt trouwens erg relaxt! Als dat microstutter e.d. zou tegen gaan is dat natuurlijk super chill. Maar wanneer wordt dit verwacht of is het er al?

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

madmaxnl schreef op donderdag 03 mei 2012 @ 18:59:
[...]


Wie zegt dat het werkt ? Laat ze dat eerst maar eens onderzoeken alvorens we micro-stuttering uitzwaaien. Het zou niet de eerste keer zijn dat nVidia iets beweert wat misschien maar voor de helft blijkt te kloppen.
Als je even opgelet had, had je een paar posts boven je comment een post van Help!! gezien met een review van computerbase.de, waar ze het o.a. over microstuttering hebben. Hier een plaatje:

Afbeeldingslocatie: http://pics.computerbase.de/4/0/9/5/0/diagramme/104.svgz

Ik hoef denk ik niet uit te leggen welke lijn in die grafiek beter is. 8)7

Hier de link van de review: http://www.computerbase.d...8/#abschnitt_mikroruckler

En daarnaast was er een tijdje terug al een gtx680 SLI review van Hocp, waar ze hier ook op in gingen. Conclusie was dat SLI een stuk "smoother" draait dan Crossfire en een betere "gaming experience" biedt, zelfs in situaties waar crossfire een hogere framerate had. Hier is de link: http://www.hardocp.com/ar...0_sli_video_card_review/9

Ik heb zelf precies dezelfde ervaring gehad, met verschillende SLI en Crossfire setjes.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Wel typisch dat ik dan deze ad te zien krijg :+

Afbeeldingslocatie: http://tweakers.net/ext/f/sOJmRLpmfSTy4EqU13lnpOcB/full.png

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

hahaha iedereen gaat nu massaal geld lenen :P

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Jasper 99 schreef op vrijdag 04 mei 2012 @ 12:27:
Oct sli?! Nee kidding :P jep das een mooi bordje daar heb je niet zo heel veel problemen echter heb je niet dat als je alle 4 de slots gebruikt je kaarten gaat chocken? Zit geen ruimte meer tussen dan toch? Of je moet watercooling erop gooien :D !
Als jij voor mij nog 2x de 5870 kan regelen dan kan ik je dat wel vertellen door middel van 4x 5870 te testen ;)

Maar ik geloof dat de meeste sites het al hebben gedaan en geen problemen hebben gevonden.

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • TheDeeGee
  • Registratie: Oktober 2005
  • Niet online
Kom op KFA2, stuur je kaarten eens naar de Shops :S

Als nVidia niet met die achterlijke PCI-E Connector was gekomen had ik nu al een 4GB GTX 680 met Arctic Cooler -_-

Echt...ik kan daar niet tegen :S

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Je kiest zelf voor een nVidia GTX680 4GB dus stop met klagen.

[ Voor 14% gewijzigd door madmaxnl op 04-05-2012 17:03 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Nog even over die microstuttering (MS) een paar puntjes voor de duidelijkheid voor degenen wiens Duits wat minder is...

In het artikel zegt men nog een paar belangrijke dingen.
  1. Het spel uit de grafiek is wat hun betreft er één waar MS het ergst is. Dus wel een redelijk worst case scenario qua MS.
  2. Waar nVidia de microstuttering in het verleden softwarermatig aanpakte, schijnt het nu (deels?) ook via hardware gedaan te worden. Echter het moet natuurlijk wel via de driver ondersteund worden. De technologie zou in alle keplers zitten, dus ook de 680.
  3. Echter omdat ze momenteel geen twee 680's hebben liggen kunnen ze niet testen of de 690 launchdriver een verbeterd MS patroon laat zien op 680SLI.
Verder zijn er een aantal artikelen bekend waarin wordt aangetoond dat nvidia op MS gebied voorligt.

Daarbij moet ik wel zeggen dat ik met mijn 6950CF eigenlijk geen MS ervaar. Het kan natuurlijk ook zijn dat ik het niet als zodanig herken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
Verwijderd schreef op vrijdag 04 mei 2012 @ 09:42:
[...]


Dit is weer een mooie vooruitgang wat sli nog aantrekkelijker maakt. En dat het misschien iets softwarematigs is zou nog leuker zijn want dan kan het misschien ook toe worden gepast op sli met
2 losse kaarten.

Is die benchmarks van de gtx690 nu gelekt? Het is iig wel de snelste kaart die er is. Gezien wat de hd7970cf doet zie ik het somber in voor de 7990. Die zal daar niet over heen gaan, of hij moet hogere klocks krijgen dan de 7970 maar dat lijkt me niet mogelijk. :o

Nu moet wel de bechikbaarheid beter worden want anders heeft nvidia nog niets voor zich zelf en voor de consumenten.
Denk nou eens verder. De "7990" gaat zeer waarschijnlijk geen 1000 euro kosten. Daarbij is de GTX690 een beperkte oplage. Een soort permium kaart as it may.

En waarom zouden de clocks niet hoger kunnen? De 7970 kan een flink eind omhoog. Als de koeling in orde is zou dit naar mijn inziens prima kunnen.

Ze zullen dus met de prijs moeten concurreren.

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

Verwijderd

Ik hoef daar niet over na te denken en heb het daar ook niet over gehad, ik heb het enkel over de performance gehad en wat daar mee mogelijk is. Als je hd7990 komt zal de gtx690 vast ook in prijs verlagen. Nvidia verkoopt zo niet genoeg dus ze zullen wal lager moeten gaan zitten als dat mogelijk is.

Klocks zouden indd wel verder omhoog kunnen maar hoe zit dat dan met de TDP?
Ik denk namelijk dat de TDP een probleem word.

Er valt verder niet zo veel te concurreren met dit soort kaarten. Dat hij sneller is is belangrijker voor marketing.
Het gaat dus meer om de technieken.

[ Voor 32% gewijzigd door Verwijderd op 04-05-2012 18:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Zo'n koeloplossing als die op de (vermeende) gtx670 is er al eerder geweest, lijkt mij wel een fijn kaartje zo, waterblock er op, neemt die nauwelijks ruimte in en toch respectabele performance. Voor die snelste single-gpu kaarten betaal je toch onevenredig veel.

Acties:
  • 0 Henk 'm!

Verwijderd

Er zijn ook benchmarks gelekt van de gtx570. Het pcb is indd erg kort maar de koeler zit er dan niet bij.
http://nl.hardware.info/n...eforce-gtx-670-verschenen

Afbeeldingslocatie: http://content.hwigroup.net/images/news/nVidia_GeForce_GTX670_01.jpg

Afbeeldingslocatie: http://content.hwigroup.net/images/news/nVidia_GeForce_GTX670_03.jpg

[ Voor 32% gewijzigd door Verwijderd op 05-05-2012 10:47 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

madmaxnl schreef op donderdag 03 mei 2012 @ 19:09:
[...]


nVidia kennende is dit gewoon een nep kaart, lol haha, wie verzint zoiets.
Afbeeldingslocatie: http://content.hwigroup.net/images/news/PoV_GeForce-GTX670_02.jpg

Afbeeldingslocatie: http://content.hwigroup.net/images/news/PoV_GeForce-GTX670_03.jpg

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 19:55

Tomas Hochstenbach

Redacteur componenten
Volledig speclijstje:
Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/05/Point-of-View-GeForce-GTX-670-VGA-670-A1.png

En eveneens:
Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/05/Gigabyte-GeForce-GTX-670-GV-N670OC-2GD-575x221.png

Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
Hier past waarschijnlijk geen Twin Frozr van MSI op ;( .

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

  • ErnieCool
  • Registratie: Juli 2010
  • Laatst online: 10-10-2023
Deze ziet er dan weer heel anders uit

Afbeeldingslocatie: https://fbcdn-sphotos-a.akamaihd.net/hphotos-ak-prn1/522994_10150784014892226_324571382225_9488434_148319551_n.jpg

voor meer foto's:
https://www.facebook.com/...30364.324571382225&type=1

Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben benieuwd hoe goed zo'n grote pcb koel blijft met custom koeler.

K|ngp|n overklokt GTX 680 naar 1,44 GHz met luchtkoeling

http://nl.hardware.info/n...-144-ghz-met-luchtkoeling

Afbeeldingslocatie: http://content.hwigroup.net/images/news/kpc-skin-EVGA-gtx680-air.jpg

[ Voor 69% gewijzigd door Verwijderd op 05-05-2012 14:04 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:25
Beetje nutteloos bericht. Dat luchtkoeling resultaat zal wel zijn met: raam open/zo laag mogelijke kamer temperatuur, 10 fans op de pcb/kaart gericht en uiteraard de koeler zelf op de maximale stand. Normale snelheden zullen wel gewoon bij de GTX680 liggen.

Acties:
  • 0 Henk 'm!

  • Cobaltos
  • Registratie: November 2009
  • Laatst online: 28-08 12:40
Iemand een idee wanneer de GTX670 uitkomt? Ik wacht al een tijdje op een kaart als dat, om eindelijk mijn computeronderdelen te kopen en te bouwen.

Acties:
  • 0 Henk 'm!

  • ErnieCool
  • Registratie: Juli 2010
  • Laatst online: 10-10-2023
De data die ik ben tegengekomen zijn 7 / 10 / 14 mei, maar er is nog niks bevestigd voor zover ik weet.

Was deze al langs gekomen?
http://www.tweaktown.com/...rmance_preview/index.html

Weet niet hoe betrouwbaar de resultaten zijn, maar in hun benchmarks verslaat de 670 zelfs de 7970 vaak.

[ Voor 54% gewijzigd door ErnieCool op 05-05-2012 14:38 ]


Acties:
  • 0 Henk 'm!

  • Cobaltos
  • Registratie: November 2009
  • Laatst online: 28-08 12:40
14 mei is nog steeds vrij dichtbij, zolang het maar geen Q3/Q4 ofzo is, want daar kan ik ondertussen echt niet meer op wachten.

edit: Ik kan ze zo niet vinden maar ik heb een aantal benchmarks en reviews gezien die zeiden dat hij beter kon zijn dan de 7970, zou wel fantastisch zijn. Ik heb helaas ook geen idee of deze beweringen betrouwbaar zijn.

[ Voor 46% gewijzigd door Cobaltos op 05-05-2012 14:41 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 19:55

Tomas Hochstenbach

Redacteur componenten
Het is tien mei ;).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Hij zal vast wel sneller kunnen zijn dan een HD7970, wanneer:

-Ze gebruik maken van heel erg specifieke resoluties
-Ze gebruik maken van heel erg specifieke settings
-Ze gebruik maken van heel erg specifieke features
-Ze gebruik maken van heel erg specifieke games

Een GXT670 die steevast sneller zou zijn dan een HD7970, zou praktisch even snel zijn als een GTX680. Nu is het niet zo dat ze erg veel 680's beschikbaar hebben over de wereld, maar om nu nog die laatsten die er wel zijn zo in de wielen te rijden, dat lijkt me zeer onlogisch.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
dahakon schreef op zaterdag 05 mei 2012 @ 14:55:
Een GXT670 die steevast sneller zou zijn dan een HD7970, zou praktisch even snel zijn als een GTX680. Nu is het niet zo dat ze erg veel 680's beschikbaar hebben over de wereld, maar om nu nog die laatsten die er wel zijn zo in de wielen te rijden, dat lijkt me zeer onlogisch.
Het lijkt mij juist zeer logisch.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

haarbal schreef op zaterdag 05 mei 2012 @ 14:59:
[...]


Het lijkt mij juist zeer logisch.
We zullen het zien als de reviews uitkomen ;). Gezien de gelekte "specs" verwacht ik de gtx670 ongeveer gelijk aan een 7970.. In games waar AMD het sowieso al goed deed zal de 7970 winnen en andersom de 670. Voor de rest zullen ze denk ik aardig gelijk opkomen. De GTX680 zit daar een niveau boven, wat performance maar ook prijs betreft.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 20:29
haarbal schreef op zaterdag 05 mei 2012 @ 14:59:
[...]


Het lijkt mij juist zeer logisch.
Verklaar u nader? Als hij inderdaad even snel is als een 7970 dan is hij dus 10% slomer dan een 680 zou het kunnen, maar lijkt me wel erg close worden. (denk namelijk niet dat ze de 680 uit de running willen halen behalve als ze er geen lekkere marges op halen maarja lijkt me alsnog raar)

[ Voor 18% gewijzigd door Jasper 99 op 05-05-2012 16:30 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tyranium schreef op zaterdag 05 mei 2012 @ 16:26:
Gezien de gelekte "specs" verwacht ik de gtx670 ongeveer gelijk aan een 7970...
Gezien de 'specs'... ~15% minder SPU's, 10% lagere baseclock. De GTX670 zou daarmee eerder zo'n 20% trager zijn dan een GTX680 en daarmee ook trager dan een HD7970, zelfs bij wat meer nVidia-centric games.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 18:25
Jasper 99 schreef op zaterdag 05 mei 2012 @ 16:27:
[...]
Verklaar u nader? Als hij inderdaad even snel is als een 7970 dan is hij dus 10% slomer dan een 680 zou het kunnen
Dat ligt dan toch heel sterk aan de website waar je de benchmarks van bekijkt,
http://ht4u.net/reviews/2...ga_zotac_test/index54.php

5%, misschien 7%, is nog wel te doen, maar 10%? Batman zeker? :/

[ Voor 7% gewijzigd door Paprika op 05-05-2012 16:39 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
Jasper 99 schreef op zaterdag 05 mei 2012 @ 16:27:
[...]


Verklaar u nader? Als hij inderdaad even snel is als een 7970 dan is hij dus 10% slomer dan een 680 zou het kunnen, maar lijkt me wel erg close worden. (denk namelijk niet dat ze de 680 uit de running willen halen behalve als ze er geen lekkere marges op halen maarja lijkt me alsnog raar)
Als nvidia minder 680's kan leveren dan ze kan verkopen en ze wel 670's hebben is het toch logisch dat ze die op de markt gooien? Een uitverkochte kaart zal niet zo snel in prijs dalen, bovendien kan de prijs van een 680 makkelijk zakken zonder dat nvidia daar iets van merkt, winkeliers en toeleveranciers verdienen flink aan die apparaten.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
haarbal schreef op zaterdag 05 mei 2012 @ 17:14:
bovendien kan de prijs van een 680 makkelijk zakken zonder dat nvidia daar iets van merkt, winkeliers en toeleveranciers verdienen flink aan die apparaten.
Waarom zou nV die winst niet zelf opstrijken?

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 20:29
Paprika schreef op zaterdag 05 mei 2012 @ 16:37:
[...]

Dat ligt dan toch heel sterk aan de website waar je de benchmarks van bekijkt,
http://ht4u.net/reviews/2...ga_zotac_test/index54.php

5%, misschien 7%, is nog wel te doen, maar 10%? Batman zeker? :/
Nou op full hd resoluties is het toch echt wel gemiddeld 10% bij hogere resoluties wordt dit verschil wat kleiner. Maar dit is gebasseerd op meerdere reviews niet 1 of 2. Destijds stond in dit topic een mooie lijst met bijna alle reviews als je daarvan het gemiddelde neemt dan kom je volgens mij op 10%.

Terug naar die review van de 670, ziet er wel goed uit hoor, als er inderdaad een prijs van 370 euro voor wordt gevraagd is dat een stuk beterer koop dan de 680 voor de huidige prijs (+/- 500)

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Dat Kingpin 1411 Mhz zegt natuurlijk niets, die kerel wordt gesponserd en er zijn een dozijn mensen die TIG GPU´s nagaan om te kijken wat de beste Cherry core is.

Zo kan ik ook wel 1400Mhz behalen.

[ Voor 37% gewijzigd door A87 op 05-05-2012 18:31 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 18:53
Olaf van der Spek schreef op zaterdag 05 mei 2012 @ 17:39:
[...]

Waarom zou nV die winst niet zelf opstrijken?
Ik bedoel dat er nu 680's in de pricewatch staan voor 460,- terwijl een 680 die op voorraad is eerder in de buurt van de 550,- komt.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 19:55

Tomas Hochstenbach

Redacteur componenten
Afbeeldingslocatie: http://i45.tinypic.com/2i0di75.gif
GPU-Z-screentje van de GTX 670 van MSI die we eerder al zagen.

Acties:
  • 0 Henk 'm!

Verwijderd

Waarschijnlijk is de gtx670 wel een beter uitgebalanceerde kaart dan de gtx680 icm die beschikbare bandbreedte.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Verwijderd schreef op zaterdag 05 mei 2012 @ 22:53:
Waarschijnlijk is de gtx670 wel een beter uitgebalanceerde kaart dan de gtx680 icm die beschikbare bandbreedte.
Wat is dan de sweetspot ? aka 680?

[ Voor 3% gewijzigd door A87 op 05-05-2012 23:35 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

Verwijderd

De sweatspot ligt lager dan de gtx680, welke in bepaalde situaties toch gebreken vertoont wat bandbreedte en geheugengrootte aangaat. Dat maakt het geen slechte kaart maar de gpu wordt dan gebottlenecked door de geheugenbus + geheugen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AMD zit juist met een omgekeerd probleem. Zij zitten met te veel bandbreedte en te veel geheugen voor de HD79xx kaarten. Dat de HD78xx zo dicht op de HD79xx kaarten zitten is daarvan het bewijs.

Acties:
  • 0 Henk 'm!

  • calyptus
  • Registratie: April 2012
  • Laatst online: 08-03 09:23
Verwijderd schreef op zondag 06 mei 2012 @ 22:46:
De sweatspot ligt lager dan de gtx680
ik denk dat de sweatspot de gtx480 is.

sorry, kon ik niet laten.

OT: ben benieuwd of er een prijswar gaat komen na de release van de 670.

[ Voor 18% gewijzigd door calyptus op 07-05-2012 01:03 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

^ Hoe is dat uberhaupt grappig?

Over het issue met Pitcairn bij de buren, a little bird told me:
Dat zou best leuk zijn ik gok met een verbeterde front end. Ik heb net namelijk de review van de HD78xx zitten lezen en dan zie je toch duidelijk dat de frontend van de 79xx te small is soms heeft die gewoon niet genoeg ROP power waardoor de 7870 sneller is dan een 7950.

Acties:
  • 0 Henk 'm!

  • Daaaaf
  • Registratie: Januari 2004
  • Laatst online: 19-08 10:55
3XPER7 schreef op maandag 07 mei 2012 @ 01:48:
^ Hoe is dat uberhaupt grappig?
[...]
sweatspot = zweetplek

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
3XPER7 schreef op maandag 07 mei 2012 @ 01:48:
^ Hoe is dat uberhaupt grappig?

Over het issue met Pitcairn bij de buren, a little bird told me:


[...]
Lijkt sterk op iets wat ik @ launch zij over de 7870 en 7950. Maar het is wel waar. De HD79xx kan niet alles optimaal benutten. Pitcairn is gewoon mooier in balans. In shader limited situaties of als memory bandbreedte echt een must wordt ga je wel verschil zien. Nu is het wel zo dat de prijzen ook erg dicht bij elkaar liggen.

Als je veel high res speelt (eyefinity of in ieder geval 2560x1600) gewoon voor de HD79xx gaan. Maar anders is Pitcairn een mooie oplossing.

Maar ik snap niet wat je met "het issue" bedoelt. Er is niets mis met Pitcairn. Eerder met de HD79xx. Nu klopt het uit het perspectief van GPGPU wel dat je frontend net wat lichter mag zijn want je bent dan shader limited. Maar games is een ander verhaal.

En @ Lupp. Ik vind het bs om nu te gaan zeggen dat het nVidia's bedoeling was weer een game kaart te maken want daar geloof ik niet in. Ze pushen zelf jaren lang cuda als troef kaart. na genoeg alle nVidia fans wilde perse geen ATi ook al was het sneller want CUDA was een must. En nu hebben ze dat dus niet op orde in de nieuwe GTX6xx serie en vind niemand het erg. Dus het was toen de tijd ook gewoon een hoop onzin. Ik heb het toen ook gevraagd hoeveel gebruik je het GPGPU nu dat het zo belangrijk is. Dus het klopt niet wat er toen gezegd werd met wat je nu ziet.

IMO heeft AMD er dus goed aan gedaan om dus later echt met GPGPU te beginnen. Want die zogenaamde grote markt voor GPGPU is er eigenlijk nog niet. Dat waren in mijn ogen veel excuses om toch nVidia te verkiezen boven iets anders ipv dat het echt oprecht was dat ze die features belangrijk vonden.

Het gaat me nu niet om AMD vs nVidia het gaat me om het feit dat mensen die GPGPU dus eigenlijk niet zo nodig vonden als ze eerst lieten blijken.

[ Voor 49% gewijzigd door Astennu op 07-05-2012 10:17 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

:+ 'nuff said
Astennu schreef op maandag 07 mei 2012 @ 10:10:
[...]


Lijkt sterk op iets wat ik @ launch zij over de 7870 en 7950. Maar het is wel waar. De HD79xx kan niet alles optimaal benutten. Pitcairn is gewoon mooier in balans. In shader limited situaties of als memory bandbreedte echt een must wordt ga je wel verschil zien. Nu is het wel zo dat de prijzen ook erg dicht bij elkaar liggen.
Het was precies wat jij toen hebt gezegd, heb er een half uur naar lopen zoeken.. :X En je, inderdaad, bedoelde Tahiti. Afijn, dat leek me wel duidelijk uit de rest.

[ Voor 68% gewijzigd door Fid3lity op 07-05-2012 11:55 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu. Het is ook onzin dat gpgpu gedoe maar toch heeft nvidia er minder in gebouwd voor gpgpu werk en ze hebben gezegd met de gk104 meer op gaming gericht ze zijn. Ik denk dus dat het gewoon wel de bedoeling was om die extra gpgpu power te moeten missen vanwege het richten op gaming. Lang geleden word er ook wel gezegd dat de focus meer op gaming zou zijn. Dit is ook wel een beetje terug te zien in de architectuur zelf en de nieuwe functies van de kaart. Ik vind het persoonlijk geen onzin als ik alles zo bij elkaar haal. Maar goed ieder zijn mening er over.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op maandag 07 mei 2012 @ 12:29:
Astennu. Het is ook onzin dat gpgpu gedoe maar toch heeft nvidia er minder in gebouwd voor gpgpu werk en ze hebben gezegd met de gk104 meer op gaming gericht ze zijn. Ik denk dus dat het gewoon wel de bedoeling was om die extra gpgpu power te moeten missen vanwege het richten op gaming. Lang geleden word er ook wel gezegd dat de focus meer op gaming zou zijn. Dit is ook wel een beetje terug te zien in de architectuur zelf en de nieuwe functies van de kaart. Ik vind het persoonlijk geen onzin als ik alles zo bij elkaar haal. Maar goed ieder zijn mening er over.
Ik ben het er mee eens. Ik heb zelf liever een gaming kaart. Die onzin waar ik het over had waren de nVidia fans die GPGPU heel belangrijk vonden in de tijd van de GTX480. Wat dus gewoon onzin was. Want nu hoor je niemand over het feit dat de GTX680 het niet goed doet met GPGPU. Alleen maar hoe geweldig hij niet is.

Zelf zou ik het niet erg vinden als de komende AMD en nVidia kaarten geen extra GPGPU performance krijgen. HD7970 heeft nu meer dan genoeg. Dus ben benieuwd wat beide bij de 28nm refresh uit de kast gaan halen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Richard P
  • Registratie: Oktober 2010
  • Laatst online: 07:10
Ook de GTX670 lijkt een beest van een kaart te zijn: http://www.tweaktown.com/...mance_preview/index1.html

Officiële launch is morgen al (10 mei), en ik ben echt heel erg benieuwd. De prestaties zijn in veel gevallen toch echt dichtbij de 680, en met een lagere prijs lijkt het me een hele veilige keuze als je bij Nvidia wil blijven maar een 680 te duur vindt.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Hij zal wel sub- 400 moeten zijn, anders is een 7970 een betere keuze. Helemaal als je die overklokt naar 1100Mhz.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Richard P
  • Registratie: Oktober 2010
  • Laatst online: 07:10
Format-C schreef op woensdag 09 mei 2012 @ 09:39:
Hij zal wel sub- 400 moeten zijn, anders is een 7970 een betere keuze. Helemaal als je die overklokt naar 1100Mhz.
Absoluut, maar zoals ik zei is het ook een belangrijke kaart voor Nvidia fans. Voor m'n nieuwe systeem twijfel ik namelijk nog, en misschien dat deze kaart me over de streep trekt. Hij zal inderdaad onder de 400 moeten zijn, want voor een paar tientjes verschil koop ik dan liever een 680.

Acties:
  • 0 Henk 'm!

Verwijderd

Volgens geruchten gaat de gtx670 tussen de £300 and £350 kosten. Maar goed eerst zien dan geloven.
De gtx680 gaat trouwens ook makkelijk naar de 1200mhz. Er zijn nu OC kaarten die daar standaard op staan zonder boost.

3DGURU GTX690 review
http://www.guru3d.com/article/geforce-gtx-690-review/

[ Voor 53% gewijzigd door Verwijderd op 09-05-2012 10:11 ]

Pagina: 1 ... 34 ... 43 Laatste