[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 23 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

madmaxnl schreef op dinsdag 20 maart 2012 @ 22:24:

Nog een GeForce GTX 680 review online

AMD gaat kklappen krijgen, als het klopt dat deze chip 300mm2 groot is en dusdanig presteert met bijbehorend verbruik...

G80 all over again en dan hopelijk zonder de gebreken ervan.

Charlie was right all along, take that nVidia fanboy...
Daar hebben we het hierboven al de hele tijd over :+

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
XanderDrake schreef op dinsdag 20 maart 2012 @ 20:43:
Rustig maar Werelds, ik bedoelde eerder dat we nu weer gaan schieten op de resultaten van een voor mij tot nu toe betrouwbare website.
Tomshardware is al jaren slecht in allerlei verschillende reviews, maakt niet uit waarvan gaan meestal toch nergens over.

En nee dat wordt niet net nu gezegd, ik (en ongetwijfeld ook anderen) hebben het al veel vaker gezegd en niet alleen bij videokaarten.

[ Voor 15% gewijzigd door -The_Mask- op 20-03-2012 22:51 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:57
Hmm ik vind het apart dat nu weer de games slecht zijn etc etc, veel kan er nu niet fout worden gedaan bij deze reviews, en je kan zeggen wat je wil maar ze hebben voor beide zijdes vaak genoeg positieve reviews geschreven. Los daarvan weet ik dat ze niet altijd even secuur zijn, maarja het lijkt mij dat deze cijfers erg logisch zijn gezien de verhalen die de ronde deden. 680 zit boven de 7970 maar niet super veel. Wat is er dan nu opeens dat iedereen hier loopt te roepen ?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
3XPER7 schreef op dinsdag 20 maart 2012 @ 22:29:
[...]


Daar hebben we het hierboven al de hele tijd over :+
Ik kon het niet zijn, jou avatar verblindde me.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jasper 99 schreef op dinsdag 20 maart 2012 @ 22:49:
Wat is er dan nu opeens dat iedereen hier loopt te roepen ?
Dan wordt nergens ontkend, gaat nu ergens anders over.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Nog 2 daagjes geduld en dan kunnen we reviews vergelijken en krijgen we een beter beeld, maar het is wel duidelijk dat Nvidia de strijd goed aan kan.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

madmaxnl schreef op dinsdag 20 maart 2012 @ 22:52:
[...]


Ik kon het niet zijn, jou avatar verblindde me.
Ja mooi is 'ie he :*)

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

3XPER7 schreef op dinsdag 20 maart 2012 @ 18:27:
[...]


Nouja, sowieso is de prijs eigenlijk de enige echte variabele. Als je kijkt naar releaseprijzen, met de aankondiging dat de GTX680 straks rond de 500 euro zal zitten, verliest AMD wel.

Gaat AMD daarna de prijzen omlaag gooien, krijgen we een heel ander verhaal natuurlijk. Voor nu hou ik dus even de launchprijzen aan, en AMD zette de HD7970 toch op $549 of $499..
Prijzen van 3 maanden geleden vergelijken met prijzen van nu is echter niet realistisch toch? Het zal me zeer verbazen als AMD niet gaat reageren op veranderingen die binnenkort op de markt gaan plaatsvinden.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
ok tomshardware heeft wat slechte games en niet correcte resultaten van de 580 of de 7950-7970.. (die verhoudingen zijn zo scheef...)

Maar wat kunnen we er wel uit leren:
gpgpu is een ramp voor GK104, zelfs minder dan de 7870. Dus duidelijk dat ze hier enorm op bespaard hebben. (the inquirer heeft er ook een mooi prentje van ter illustratie).
1080p is enorm goed.. grote hit bij AA en grote hit bij hogere resoluties.
Verbruik tussen de 7950 en 7970 (er van uitgaande dat die waarden juist zijn van tomshardware... gezien de fps tgv 580 te laag zijn is mogelijks ook het verbruik te laag).

Zeker mooie chip, maar zie op dit moment de meerwaarde niet in. Wanneer je quality omhoog crankt verliest hij veel van de veren die dan eigenlijk nodig zijn en worden de verschillen klein. (zelfs in nvidia games). gpgpu neemt de 680 een stap achteruit. Het idle verbruik van AMD is beter, dus kwa verbruik kosten gaan ze elkaar ook niet veel ontlopen.

Wat je nvidia wel moet meegeven is dat ze enorm veel laptop/desktop (geen gpgpu) prestaties hebben kunnen steken in een dergelijk kleine die. Beetje zoals pitcairn maar dan een latje hoger (performance, die size en verbruik). Maar ik zie, nqqr hetgeen we nu al gezien hebben, enkel een grote meerwaarde in de 680 als die goedkoper is. Voor hetzelfde geld zou ik die niet aanrade. (tenzij die beter overclocked en schaalt... wat ik absoluut niet geloof door de memory bottleneck).

[ Voor 9% gewijzigd door Devpartner op 20-03-2012 23:46 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:57
Devpartner schreef op dinsdag 20 maart 2012 @ 23:42:
ok tomshardware heeft wat slechte games en niet correcte resultaten van de 580 of de 7950-7970.. (die verhoudingen zijn zo scheef...)

Maar wat kunnen we er wel uit leren:
gpgpu is een ramp voor GK104, zelfs minder dan de 7870. Dus duidelijk dat ze hier enorm op bespaard hebben. (the inquirer heeft er ook een mooi prentje van ter illustratie).
1080p is enorm goed.. grote hit bij AA en grote hit bij hogere resoluties.
Verbruik tussen de 7950 en 7970 (er van uitgaande dat die waarden juist zijn van tomshardware... gezien de fps tgv 580 te laag zijn is mogelijks ook het verbruik te laag).

Zeker mooie chip, maar zie op dit moment de meerwaarde niet in. Wanneer je quality omhoog crankt verliest hij veel van de veren die dan eigenlijk nodig zijn en worden de verschillen klein. (zelfs in nvidia games). gpgpu neemt de 680 een stap achteruit. Het idle verbruik van AMD is beter, dus kwa verbruik kosten gaan ze elkaar ook niet veel ontlopen.

Wat je nvidia wel moet meegeven is dat ze enorm veel laptop/desktop (geen gpgpu) prestaties hebben kunnen steken in een dergelijk kleine die. Beetje zoals pitcairn maar dan een latje hoger (performance, die size en verbruik). Maar ik zie, nqqr hetgeen we nu al gezien hebben, enkel een grote meerwaarde in de 680 als die goedkoper is. Voor hetzelfde geld zou ik die niet aanrade. (tenzij die beter overclocked en schaalt... wat ik absoluut niet geloof door de memory bottleneck).
ik zie niet helemaal in hoe je dit kunt stellen, eigenlijk doet hij het op alles beter, als je een 7970 hebt ga je nu hem niet verkopen voor een 680 maar als je zo moet kiezen lijkt mij het een duidelijke keus vooral als we er nog best vanuit mogen gaan dat er meer uit te halen is met overclock verbeterde drivers, nieuwe FXAA etc etc. Je klinkt nogal biased in mijn oren, voor dezelfde prijs lijkt mij de 680 een veel betere keus. Als we zien dat load verbruik ok lager is e.d. Maarja laten we nog 2 dagen wachten voordat we deze war gaan voeren.

Acties:
  • 0 Henk 'm!

  • maarten12100
  • Registratie: April 2009
  • Laatst online: 03-08 14:10
Als ik niet een 6990 goedkoop op de kop kon tikken zou dit een goede tweede zijn.
En als we warmte en prestatie mogen geloven is dit een zeer goede kaart.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 15:17
Vergelijken met de eerste prijzen van de 7970 pakweg 3 maanden geleden is inderdaad niet realistisch, toen was er geen concurrentie (en konden ze dus hoog inzetten).
Mocht de gtx680 inderdaad duidelijk beter zijn dan de 7970 zal AMD simpelweg met de prijzen spelen tot een niveau waarop ze nog voldoende blijven verkopen (en dan is er echt nog wel genoeg winstmarge over).

Misschien was de 7970 sowieso al bedoeld als €400 kaart, echter toen bleek dat nvidia op zich liet wachten hebben ze hem (tijdelijk) op €500 gezet.

Daarnaast zegt men dat dit niet de 680 zou worden, echter met een vertraagde GK100 (vanwege problemen?) moesten ze deze kaart dusdanig 'overklokken' om toch de 79xx te kunnen verslaan dat er weinig ruimte meer inzit.
Ik vraag me sterk af in hoeverre deze kaart nog staande houdt na het overklokken van beide en het omhoog schroeven van resolutie en settings (zelfs nu lijkt het er al op dat ie 'inkakt').

Mijn visie op de 680 tot nu toe: leuke kaart voor de niet-tweaker met 1 scherm (en dan liever geen 1440/1600p), 'geen' optie voor overklokkers en gebruikers van meerdere schermen.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:57
mitsumark schreef op woensdag 21 maart 2012 @ 00:37:
Vergelijken met de eerste prijzen van de 7970 pakweg 3 maanden geleden is inderdaad niet realistisch, toen was er geen concurrentie (en konden ze dus hoog inzetten).
Mocht de gtx680 inderdaad duidelijk beter zijn dan de 7970 zal AMD simpelweg met de prijzen spelen tot een niveau waarop ze nog voldoende blijven verkopen (en dan is er echt nog wel genoeg winstmarge over).

Misschien was de 7970 sowieso al bedoeld als €400 kaart, echter toen bleek dat nvidia op zich liet wachten hebben ze hem (tijdelijk) op €500 gezet.

Daarnaast zegt men dat dit niet de 680 zou worden, echter met een vertraagde GK100 (vanwege problemen?) moesten ze deze kaart dusdanig 'overklokken' om toch de 79xx te kunnen verslaan dat er weinig ruimte meer inzit.
Ik vraag me sterk af in hoeverre deze kaart nog staande houdt na het overklokken van beide en het omhoog schroeven van resolutie en settings (zelfs nu lijkt het er al op dat ie 'inkakt').

Mijn visie op de 680 tot nu toe: leuke kaart voor de niet-tweaker met 1 scherm (en dan liever geen 1440/1600p), 'geen' optie voor overklokkers en gebruikers van meerdere schermen.
kort door de bocht... 1000 naar 1150 mhz op core is volgens mij redelijk. 2g vs 3g en bandwith zullen vast wat problemen geven maarja wachten op release en uitgebreide reviews maybe?

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

mitsumark schreef op woensdag 21 maart 2012 @ 00:37:
Misschien was de 7970 sowieso al bedoeld als €400 kaart, echter toen bleek dat nvidia op zich liet wachten hebben ze hem (tijdelijk) op €500 gezet.
Het idee is leuk, maar wat moet AMD dan met de 7950, die zit nu rond de 400 euro? Als AMD de prijs verlaagt zal dat over de hele linie 7xxx moeten, om te zorgen dat de kaarten niet onderling gaan concurreren. Dat betekend minder marge in de low- en mid-end range, en aangezien nvidia daar nog geen nieuwe kaarten heeft geïntroduceerd lijkt die kans me erg klein. Juist daar wordt geld verdient en zal AMD geen marge willen verliezen.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 15:17
Het prijsverschil tussen 7770-7850 en 7850-7870 is groot.
Volgens mij kunnen 7870, 7950 en 7970 prima bv 50 euro omlaag zonder iets anders in de weg te zitten.
Eventueel 7850 dan ook iets omlaag, er is ruimte zat in ieder geval.

Minder marge/winst is beter dan geen kaarten verkopen, maar ik vraag me dus nog af of de gtx680 wel zoiets teweeg kan brengen (om toch nog een beetje ontopic te blijven).

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Jasper 99 schreef op woensdag 21 maart 2012 @ 00:42:
[...]


kort door de bocht... 1000 naar 1150 mhz op core is volgens mij redelijk. 2g vs 3g en bandwith zullen vast wat problemen geven maarja wachten op release en uitgebreide reviews maybe?
als de 580 10% sneller uitkomt dan de 7950 dan kan je spreken van een TE selecte groep benchmarks of een paar grote fouten. Met launch drivers is de 7950 gemiddeld 6% sneller. en niet 10% trager.

In die review is de 680 gemiddeld een 23-24% sneller dan de 580 opp 1080p zonder AA? dat is volledig in lijn met gemiddelde voordeel van de 7970 op 2560* met AA met release drivers.

Ik zeg het de review toont aan dat de 680 veel beter is wanneer het er niet toe doet en zijn pluimen verliest wanneer het er meer en meer om te doen gaat.
Ik zou graag wel civ5, shogun2 zien evenals een resem andfere benches. (bf3 en metro geven al aan dat de verschillen zeer klein zijn.. ondanks de rare 580-7950-7970 verhoudingen)

Acties:
  • 0 Henk 'm!

Verwijderd

Damn, nog meer reviews. Nu kun je wel duidelijk stellen dat de gtx680 in alle opzichten sneller is in wat tot nu toe gelekt is. Dit ziet er goed uit voor nvidia. Sneller dan de hd7970 en ook nog een goedkoper al de prijs van 499dollar klopt. Geen redenen dus mee rom voor een hd7970 te kiesen.

Er word netjes veel AA gebruikt en AF dus we kunnen er wel van uit gaan dat dit beeste een geoptimallischerde bitbus heeft. Alleen de hoeveelheid geheugen kan een bottlenek gaan vormen op alleen de hele hoge resoluties waar amper iemand op gamed.

[ Voor 147% gewijzigd door Verwijderd op 21-03-2012 08:12 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Dan kijk je niet goed.... %-tueel hakt het af en toe behoorlijk in.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Verwijderd schreef op woensdag 21 maart 2012 @ 08:00:
[...]


In gpgpu is de gtx680 kaart 17% sneller dan de 7970, paar pagina's terug, staat dat ergens in review benchmarks. Ik snap dus niet hoe je hier bij komt.
En de performance hit met extra hogere instellingen zie ik ook nergens terug,
First over de resultaten van Tomshardware vergeleken met zijn eigen resultaten.
http://forum.beyond3d.com...?p=1630232&postcount=3146

2nd: gpgpu
Afbeeldingslocatie: http://www.vipeax.nl/gtx680/068b06e7733c457d3a0d61da9e1e272b3-t-330617-3.jpg
Afbeeldingslocatie: http://www.vipeax.nl/gtx680/615cc6f85273bebcc36a64b17cf94d943-s-330616-3.jpg
Afbeeldingslocatie: http://www.vipeax.nl/gtx680/63b6b6f4014670925b8289148b78b99d3-r-330615-3.jpg
Afbeeldingslocatie: http://www.vipeax.nl/gtx680/bf8439f45da4a70170a006b47b2a68dd3-l-330609-3.jpg
http://www.theinquirer.ne...adeon-hd-7870-gpu-compute

3rd;
Afbeeldingslocatie: http://www.vipeax.nl/gtx680/aec3a4b34cd3862bd98b7da66afb60fe3-o-330612-3.jpg
zonder AA 3fps sneller, met AA 8fps trager.

Afbeeldingslocatie: http://www.vipeax.nl/gtx680/a0df53aef26686cd578033da156d319a3-q-330614-3.jpg
van sneller in 1080p dan de 7970 zonder AA naar gelijk met de 7950 op 2560 met AA.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Devpartner schreef op woensdag 21 maart 2012 @ 07:02:
[...]


als de 580 10% sneller uitkomt dan de 7950 dan kan je spreken van een TE selecte groep benchmarks of een paar grote fouten. Met launch drivers is de 7950 gemiddeld 6% sneller. en niet 10% trager.

In die review is de 680 gemiddeld een 23-24% sneller dan de 580 opp 1080p zonder AA? dat is volledig in lijn met gemiddelde voordeel van de 7970 op 2560* met AA met release drivers.

Ik zeg het de review toont aan dat de 680 veel beter is wanneer het er niet toe doet en zijn pluimen verliest wanneer het er meer en meer om te doen gaat.
Ik zou graag wel civ5, shogun2 zien evenals een resem andfere benches. (bf3 en metro geven al aan dat de verschillen zeer klein zijn.. ondanks de rare 580-7950-7970 verhoudingen)
Dit plaatje maakt het snel duidelijk.

Afbeeldingslocatie: http://content.hwigroup.net/images/news/average-performance.png

Waar de 7950 bij anandtech sneller is als de GTX580: http://www.anandtech.com/...o-powercolor-pcs-hd7870/6

Kortom de AMD kaarten scoren te slecht in deze review. Maar goed het gaat hier ook over TomsHardware. Dat is al bijna 10 jaar geen betrouwbare site meer.

@ hierboven. Damm die GPGPU scores zijn echt slecht. GTX580 is regelmatig sneller. Nu zullen er vast mensen gaan roepen dat GPGPU en cuda niet boeit. Waar het eerst een argument was om een nVidia kaart te kopen.

Lijkt wel of er inderdaad iets van een bottelnek zit op lage resoluties. Opzich ook niet raar met hoe snel deze kaarten zijn. Het is ook bekend dat de HD79xx pas op hoge resoluties echt snel wordt. Dat zie je ook met HD7870 vs HD7950. Op hoge resoluties is de 7950 makkelijk sneller. Op lagere zonder AA en zo is dat niet altijd het geval.

[ Voor 17% gewijzigd door Astennu op 21-03-2012 08:18 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Ik was in de war ik doelde op compute power. Ben nog niet helemaal wakker.
Van dat AA op hoge resoluties kun je niet niet veel zeggen enkel speculeren. Ik zeg dat de gtx680 wel minder gaat presteren dan omdat het misschien word tegengehouden maar hij zal de hd7970 nog wel voor blijven.
Nvidia heeft wat dat betreft vast wel wat aan de bitbus gedaan. 1 game gaat dat namelijk nog niet gelijk bepalen.

Nu heeft nvidia dus wel zich aan zijn woord gehouden, dat de gk104 meer gericht is op gamers en dat de GK110 juist meer voor de prof markt zou worden.

[ Voor 87% gewijzigd door Verwijderd op 21-03-2012 08:24 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Verwijderd schreef op woensdag 21 maart 2012 @ 08:17:
Nvidia heeft wat dat betreft vast wel wat aan de bitbus gedaan.
Wat bedoel je daarmee?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ben ik ook wel benieuwd naar. ze kunnen weinig doen. Het is gewoon een Midrange chip alla HD78xx. de GK110 zal wel 384bit of misschien zelfs meer hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Zie de prijs van de GTX580 al hard naar beneden kelderen :) Over een paar maandjes maar eens toeslaan voor een tweede. Hoorde een paar maanden terug echter wel uit verschillende hoeken slechte geluiden over SLI (micro stuttering). Is daar nog enige verbetering in gekomen?

Acties:
  • 0 Henk 'm!

Verwijderd

Devpartner schreef op dinsdag 20 maart 2012 @ 23:42:
Maar wat kunnen we er wel uit leren:
gpgpu is een ramp voor GK104, zelfs minder dan de 7870. Dus duidelijk dat ze hier enorm op bespaard hebben. (the inquirer heeft er ook een mooi prentje van ter illustratie).
Dit is toch ook niet gek? De GK104 was initieel niet bedoeld als top-segment gpu en dus ook niet als een gpgpu topper. Dat moest vanaf het begin de GK110 worden. Die is vertraagd, dus dit komt nu ook op het bordje van de GK104.
Was ook wel heel apart geweest dat ze uit zo'n kleine chip én goede game-performance én goede gpgpu performance zouden kunnen halen. Degene die dat verwacht hadden, hebben in mijn ogen dan ook een te onrealistisch verwachtingspatroon gehad.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
yinx84 schreef op woensdag 21 maart 2012 @ 09:24:
Zie de prijs van de GTX580 al hard naar beneden kelderen :) Over een paar maandjes maar eens toeslaan voor een tweede. Hoorde een paar maanden terug echter wel uit verschillende hoeken slechte geluiden over SLI (micro stuttering). Is daar nog enige verbetering in gekomen?
Dat is een probleem wat je voorlopig met zowel SLI en CF zult houden. Ligt gewoon aan de techniek die gebruikt wordt.
Verwijderd schreef op woensdag 21 maart 2012 @ 10:17:
[...]

Dit is toch ook niet gek? De GK104 was initieel niet bedoeld als top-segment gpu en dus ook niet als een gpgpu topper. Dat moest vanaf het begin de GK110 worden. Die is vertraagd, dus dit komt nu ook op het bordje van de GK104.
Was ook wel heel apart geweest dat ze uit zo'n kleine chip én goede game-performance én goede gpgpu performance zouden kunnen halen. Degene die dat verwacht hadden, hebben in mijn ogen dan ook een te onrealistisch verwachtingspatroon gehad.
Nou vergeleken met een HD7870 is het wel erg. Want dat is ook een midrange kaart.

[ Voor 40% gewijzigd door Astennu op 21-03-2012 10:48 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Astennu schreef op woensdag 21 maart 2012 @ 10:47:
Nou vergeleken met een HD7870 is het wel erg. Want dat is ook een midrange kaart.
Een 'budget' midrange kaart nog wel, als je naar de die size kijkt. Zo'n 30% kleiner dan GK104, maar wel betere GPGPU prestaties en gane prestaties die ook binnen die 30% verschil kunnen vallen. het werkelijke verbruik zal interessant zijn in ieder geval. Wachten dus op de reviews van TPU en Hardware.fr en misschien Xbitlabs, waar ze in reviews ook vaker voor de voeding meten, ipv aan het stopcontact.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op woensdag 21 maart 2012 @ 10:17:
[...]

Dit is toch ook niet gek? De GK104 was initieel niet bedoeld als top-segment gpu en dus ook niet als een gpgpu topper. Dat moest vanaf het begin de GK110 worden. Die is vertraagd, dus dit komt nu ook op het bordje van de GK104.
Hoogstwaarschijnlijk had de topper gewoon GK100 moeten worden en is die geannuleerd. GK110 is niet vertraagd, eerder iets naar voren geschoven ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 21 maart 2012 @ 10:47:
[...]
Nou vergeleken met een HD7870 is het wel erg. Want dat is ook een midrange kaart.
Dan hebben we hier het zwakke punt van de nieuwe architectuur gevonden van Nvidia... :)
Werelds schreef op woensdag 21 maart 2012 @ 11:21:
[...]

Hoogstwaarschijnlijk had de topper gewoon GK100 moeten worden en is die geannuleerd. GK110 is niet vertraagd, eerder iets naar voren geschoven ;)
Tja, geef het beestje maar een naam... ;) Waar het op neer komt is dat het iig niet de bedoeling was van Nvidia dat de GK104 de kar alleen had moeten trekken. Of de topper dan een geannuleerde GK100 of een vervroegde of vertraagde GK110 moest zijn doet daar niet aan af.

[ Voor 49% gewijzigd door Verwijderd op 21-03-2012 12:29 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik vind niet dat je dat zomaar mag stellen eigenlijk. Het maakt weldegelijk iets uit als GK100 geannuleerd is. Dat geeft namelijk aan dat ze wederom problemen hadden met de gigantische chip.

Begrijp me niet verkeerd, alles wat we tot nu toe van GK104 hebben gezien is positief, ook al zijn Tom's benches zo slecht. Het belangrijkste punt vind ik echter dat ze qua density dus hoogstwaarschijnlijk AMD achterna zijn gegaan. Dat verschuift de hele strategie die Nvidia de afgelopen jaren heeft gevoerd en betekent dat je GK104 echt niet als een directe opvolger van GF1x4 kan zien. Die chips waren wellicht grofweg even groot als Cypress/Cayman, maar door de de lage density totaal niet competitief. Met deze verschuiving kunnen ze ineens met soortgelijke chips tegen AMD opboksen. Dat betekent ook dat GK110, als die dezelfde density haalt, voor het eerst sinds jaren een gigantische sprong kan betekenen en dat AMD iets anders uit hun hoed moet toveren om daar tegenop te kunnen. De enige reden dat Cypress zo goed was vergeleken met GF100 was het feit dat ze zo veel transistors in die kleine chip kregen gepropt; dat GF100 ook een deel compute logica had hielp ook niet natuurlijk, maar Tahiti laat zien dat dat niet ten koste hoeft te gaan van de rest.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19-09 15:00

XanderDrake

Build the future!

Ik zie GK104 als een tijdelijk afwijking van nVidia's normale insteek voor het maken van high-end GPU's (namelijk grote, lager geclockte GPU's, duurder te produceren maar vaak het snelst, die bijna altijd stevige GPGPU functionaliteit hebben), omdat de HD 7970 op game gebied verslagen kon worden door de sub-high-end GK104. Dat kwam nVidia goed uit, ze hadden een achterstand die ze nu kunnen inhalen door te concurreren op prijs, efficiency en temperatuur. Volgens mij was de GK104 bedoelt als opvolger van de GTX 560 Ti. Qua GPU strategie zijn AMD en nVidia's rollen omgedraaid.
De volgende high-end is volgens mij de GK110 die niet zo lang op zich laat wachten, veel groter is en betere GPGPU performance heeft.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 21 maart 2012 @ 12:27:
[...]

Dan hebben we hier het zwakke punt van de nieuwe architectuur gevonden van Nvidia... :)

[...]

Tja, geef het beestje maar een naam... ;) Waar het op neer komt is dat het iig niet de bedoeling was van Nvidia dat de GK104 de kar alleen had moeten trekken. Of de topper dan een geannuleerde GK100 of een vervroegde of vertraagde GK110 moest zijn doet daar niet aan af.
Ja maar dat zou mij verbazen als dat echt zo is want nVidia was altijd degene die inzette op GPGPU. En dan gaan ze met hun nieuwe kaart een stap terug doen. Voor de gamers mooi want die hebben in verhouding meer FPS maar raar tov de richting die nVidia opwilde. AMD heeft nu net de stap richting GPGPU gemaakt en dat zie je ook terug in de winst qua FPS tov de HD6xxx serie. Hadden ze niet zo veel aan GPGPU gedaan was die winst aanzienlijk groter geweest.

Nee dat is iets wat duidelijk is. Want dan hadden ze em ook qua verbruik wat lager gezet en niet op 200 watt. Maar wel knap dat ze zo'n performance neer zetten. Aan de andere kant een Pitcairn op 200 watt kan een 7950 ook prima verslaan. HD78xx is qua frontend wat beter in balans. HD79xx lijkt daar een bottelnek te hebben zitten. Maar de HD78xx heeft ook dezelfde frontend met 32 ROPs.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op woensdag 21 maart 2012 @ 12:39:
Ik vind niet dat je dat zomaar mag stellen eigenlijk. Het maakt weldegelijk iets uit als GK100 geannuleerd is. Dat geeft namelijk aan dat ze wederom problemen hadden met de gigantische chip.

Begrijp me niet verkeerd, alles wat we tot nu toe van GK104 hebben gezien is positief, ook al zijn Tom's benches zo slecht. Het belangrijkste punt vind ik echter dat ze qua density dus hoogstwaarschijnlijk AMD achterna zijn gegaan. Dat verschuift de hele strategie die Nvidia de afgelopen jaren heeft gevoerd en betekent dat je GK104 echt niet als een directe opvolger van GF1x4 kan zien. Die chips waren wellicht grofweg even groot als Cypress/Cayman, maar door de de lage density totaal niet competitief. Met deze verschuiving kunnen ze ineens met soortgelijke chips tegen AMD opboksen. Dat betekent ook dat GK110, als die dezelfde density haalt, voor het eerst sinds jaren een gigantische sprong kan betekenen en dat AMD iets anders uit hun hoed moet toveren om daar tegenop te kunnen. De enige reden dat Cypress zo goed was vergeleken met GF100 was het feit dat ze zo veel transistors in die kleine chip kregen gepropt; dat GF100 ook een deel compute logica had hielp ook niet natuurlijk, maar Tahiti laat zien dat dat niet ten koste hoeft te gaan van de rest.
De GK110 kan idd in potentie een dijk van een gpu worden. Met dezelfde density en met een grote van ~500mm² kom je dan op ~6 milj. transistors.

Maar het kan goed zijn dat Nvidia nu expliciet voor een tweedeling heeft gekozen m.b.t. doeleinde van de gpu en dus ook de architectuur. De GK104 puur game gericht en de GK110 dus veel meer voor gpgpu taken. Eerder liep dat nog samen, nu hebben ze dat misschien losgekoppeld.

Stel dat de GK110 ~500mm² meet, dan is ie ~70% groter dan de GK104. Wellicht gebruiken ze 50% daarvan voor gpgpu gerichte performance en 'maar' 20% voor daadwerkelijke 'game' gerichte performance. Dat kan resulteren in een kaart die op gpgpu gebied misschien wel 100-200% beter scoort dan de GK104, maar op game-gebied geen wereldschokkende stap laat zien.

Ga aub niet specifiek in op de gegeven cijfers, dit is hypothetisch gesteld en puur als hoe het zou kunnen gaan...

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 15:57

Arfman

Drome!

Verwijderd schreef op woensdag 21 maart 2012 @ 08:00:
Damn, nog meer reviews. Nu kun je wel duidelijk stellen dat de gtx680 in alle opzichten sneller is in wat tot nu toe gelekt is. Dit ziet er goed uit voor nvidia. Sneller dan de hd7970 en ook nog een goedkoper al de prijs van 499dollar klopt. Geen redenen dus mee rom voor een hd7970 te kiesen.

Er word netjes veel AA gebruikt en AF dus we kunnen er wel van uit gaan dat dit beeste een geoptimallischerde bitbus heeft. Alleen de hoeveelheid geheugen kan een bottlenek gaan vormen op alleen de hele hoge resoluties waar amper iemand op gamed.
Kort samengevat: ik heb de juiste keuze gemaakt met mijn triplescreen Eyefinity setup icm. een 7970 ;)
Bovendien moet ik nog maar zien hoe goed de nVidia versie van "Eyefinity" is, AMD heeft daar toch nog wel een voorsprong in denk ik (meer ervaring).

Maar goed nieuws deze kaart, concurrentie is altijd goed, we gaan weer terug naar de tijd dat je voor 350 euro de absolute topkaart kon kopen dankzij de hevige strijd tussen nVidia en AMD :)

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Een HD7870 is sneller dan een GTX680 op GPGPU gebied. Het lijkt me onwaarschijnlijk dat een GK110 over een HD7970 heen kan komen. Ik denk dat het verschil tussen HD7970 en GK110 even groot gaat zijn als HD7870 en GTX680 m.b.t. GPGPU.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op woensdag 21 maart 2012 @ 12:39:
Het belangrijkste punt vind ik echter dat ze qua density dus hoogstwaarschijnlijk AMD achterna zijn gegaan. Dat verschuift de hele strategie die Nvidia de afgelopen jaren heeft gevoerd en betekent dat je GK104 echt niet als een directe opvolger van GF1x4 kan zien.
Is dat zo? Of is AMD juist nV achterna gegaan, qua game performance/transistor?

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 21 maart 2012 @ 13:52:
Een HD7870 is sneller dan een GTX680 op GPGPU gebied. Het lijkt me onwaarschijnlijk dat een GK110 over een HD7970 heen kan komen. Ik denk dat het verschil tussen HD7970 en GK110 even groot gaat zijn als HD7870 en GTX680 m.b.t. GPGPU.
Ik verwacht dus dat de GK110 veel meer gpgpu functies gaat krijgen dan de GK104 en zich hierin echt zal distantiëren. Deze gpu zouden ze dan veel meer kunnen richten op Quadro/Tesla markt en de veel goedkoper te produceren GK104 op de game-markt.
Want hoezo zou de GK110 compleet dezelfde architectuur hebben als de GK104 met alleen meer cuda-cores en een grotere geheugenbus?

[ Voor 9% gewijzigd door Verwijderd op 21-03-2012 14:17 ]


Acties:
  • 0 Henk 'm!

Verwijderd

gpgpu is ook totaal niet de insteek van de gk104, en dat is zeker in het segment wat nvidia met die chip voor ogen heeft geen verkoopargument. Is het anders ook nooit geweest, wat heeft een gamer daar nu aan? Vreemd dat daar zo zwaar aan getild wordt atm, zeker als je bedenkt dat het voor gaming geen snars uitmaakt, en daar zijn die chips uiteindelijk voor bedoeld. Dat geldt zowel voor AMD als nVidia.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Olaf van der Spek schreef op woensdag 21 maart 2012 @ 13:54:
[...]

Is dat zo? Of is AMD juist nV achterna gegaan, qua game performance/transistor?
Ja, dat is zo :)

Als je AMD's "trackrecord" bekijkt zie je dat de stijging transistor density telkens "klopt" met de nodechange waar dat van toepassing is; zo af en toe zelfs binnen een node (Cayman propte er ~300000 meer in per mm^2 dan Cypress). Diezelfde sprong maken ze met Tahiti weer, de density winst zit zo goed als tegen het theoretische maximum aan. Ze gebruiken de transistors nu iets anders, er worden er iets meer voor compute gebruikt, maar ze zijn nog steeds even veel omhoog gegaan als altijd. Qua density is er dus niets veranderd (even snel uit het hoofd: 3.75 voor R700, 6.45 voor Cypress, 12.25 voor Tahiti - iets van 75% en 80% meer beide keren).

Nvidia daarentegen heeft altijd een flink stuk onder AMD gezeten qua density. Met GK104 (er van uitgaande dat de cijfers kloppen) zitten ze echter ineens net onder Tahiti; Pitcairn is overigens de chip met de hoogste density, 13.2m, Tahiti en CV zitten daar een miljoen onder en GK104 zou er volgens de huidige cijfers een dikke 300000 onder Tahiti zitten. Met GF110 zaten ze nog steeds ~680000 onder Cypress, laat staan Cayman waar ze een miljoen onder zaten. Ook bij Nvidia zijn de densities telkens "netjes" omhoog gegaan met zo'n 80% - behalve nu dus, waar ze ineens iets van 105% winst hebben geboekt. Ze hebben dus weldegelijk een hoop veranderd.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Ik heb het niet over transistor density, ik heb het over game performance per transistor.

[ Voor 4% gewijzigd door Olaf van der Spek op 21-03-2012 14:30 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op woensdag 21 maart 2012 @ 14:20:
gpgpu is ook totaal niet de insteek van de gk104, en dat is zeker in het segment wat nvidia met die chip voor ogen heeft geen verkoopargument. Is het anders ook nooit geweest, wat heeft een gamer daar nu aan? Vreemd dat daar zo zwaar aan getild wordt atm, zeker als je bedenkt dat het voor gaming geen snars uitmaakt, en daar zijn die chips uiteindelijk voor bedoeld. Dat geldt zowel voor AMD als nVidia.
Er werd eerder ook zwaar aan getild, in de vorm van Cuda verhalen. Maar goed, zeggen dat de gamer er helemaal niets aan heeft is een beetje kort door de bocht. Als meer games gebruik gaan maken van DX Compute, kon dat nog wel eens bijzondere beelden op gaan leveren. Als games meer gebruik gaan maken van OpenCL geaccelereerde physics, is dat eveneens in het voordeel van de kaart met meer GPGPU kracht. Juist nu er een tijdperk aan zit te komen dat GP compute verder gaat dan wat folding, komt nVidia met een kaart op de markt die erg in lijkt te boetten aan GPGPU kracht.

Maar eens goed opletten bij de verschillende Civ V benchmarks, aangezien deze wellicht eem beetje licht kunnem werpen op de toekomst.

Acties:
  • 0 Henk 'm!

Verwijderd

Het zal er zeer zeker aankomen, maar dat gaat niet van vandaag op morgen gebeuren. Tegen de tijd dat het zo ver is zitten we inmiddels 2 of meer generaties verder. Maar we hebben ook te maken met een nieuwe chip, met een sterk gewijzigd ontwerp. Voor hetzelfde geld gaat de gtx680 in een nieuwere sandra benchmark er met de prijs vandoor, in de zin van ondersteuning bieden voor gk104.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tsja, Tahiti heeft ook een sterk gewijzigd ontwerp. Ik zou zelfs zo ver willen gaan als stellen dat GCN een grotere wijziging is dan Kepler. Optimalisatie zal in beide kampen een rol spelen.

Acties:
  • 0 Henk 'm!

Verwijderd

Zeer zeker, ben het ergens ook wel met je eens dat GCN een grotere wijziging is dan Kepler, al valt dat op de eerste blik niet direct op. Je ziet ook vaker bij folding dat de paketten beter passen in de ene architectuur dan de andere, zelfs al zijn de wijzigingen klein. Ergens heeft AMD misschien wel geluk dat nVidia's high-end beestje er (nog) niet is, en kunnen ze op dat gebied voorsprongen boeken, is natuurlijk altijd goed voor de reputatie. In games zal er niet veel winst met nieuwere drivers komen, maar ik denk dat als je een toepassing goed optimaliseert voor een bepaalde architectuur er stukken meer uit te halen is. Natuurlijk komt het vaker voor dat er een middenweg gekozen wordt omdat het apart ontwikkelen voor twee verschillende architecturen te duur is, en dan zal er altijd iemand voordeel hebben. Maar dan nog heeft AMD de betere gpgpu prestaties, terugkomend op mijn eerdere stelling. Blijf wel van mening dat het voor het gros van de gamers weinig zal uitmaken, ben eens benieuwd naar de reviews.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 12:25

Tomas Hochstenbach

Redacteur componenten

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

van NV's eigen site:
http://download.nvidia.co...hVideo-R7-Alt-640x360.flv

youtube versie: YouTube: Nvidia GTX680 no fake

[ Voor 34% gewijzigd door neliz op 21-03-2012 20:22 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
VP Corporate Marketing --> When we built this, we wanted this to be the world's fastest GPU.
Uhu... GK100? :+

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 12:25

Tomas Hochstenbach

Redacteur componenten

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Een hard launch zou wel cool zijn.

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Een hard lunch betekent dat de kaarten per direct zijn? Papier lunch duurt een paar weken?

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Waarom maakt iedereen zich zo druk dat dit de "mid-range" chip is?

Zolang dit ding sneller is dan AMD's high-end, waarom zou je het dan nog een mid-range noemen?
Het gaat tenslotte om de performance, en als een mid-range chip hogere fps waardes haalt dan een high-end van de tegenpartij, so be it. Het zal Skyrim of BF3 echt niet uitmaken wat "mid-range" of 'high-end" is...

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42
Lijkt me ook Jeroen en als die mid range is hoe goed is dan de high range wel niet.

Acties:
  • 0 Henk 'm!

  • Giwe94
  • Registratie: Februari 2012
  • Laatst online: 11:21
Ik denk dat het er vooral om gaat dat de prestaties eigenlijk nog veel sneller zouden kunnen dan dit.

Acties:
  • 0 Henk 'm!

Verwijderd

Giwe94 schreef op woensdag 21 maart 2012 @ 22:17:
Ik denk dat het er vooral om gaat dat de prestaties eigenlijk nog veel sneller zouden kunnen dan dit.
Blijkbaar niet, want de problemen die er zijn zijn er niet voor niets; als een fantastische nieuwe chip ontwikkelen zo makkelijk was deed iedereen het wel ;)

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Jeroenneman schreef op woensdag 21 maart 2012 @ 22:14:
Zolang dit ding sneller is dan AMD's high-end, waarom zou je het dan nog een mid-range noemen?
Dat gezeur over mid-range etc duurt al maanden... Ze moeten zich toch ergens zoet mee houden?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Als je kijkt naar het prijskaartje is het juist uiterst relevant. Tenzij nVidia (mind you: I blame AMD i.v.m. HD7970 prijzen) van plan was om de echte GTX680 voor 900 euro op de markt te brengen, betaal je nu 200 euro meer (als het niet meer is dan dat) dan nVidia oorspronkelijk van plan was.
Dat vind ik als consument juist extreem belangrijk en zeker iets om me mee bezig te houden. Uiteraard mag je best 200 euro bijleggen bij mijn aankoop, dan is dat ook opgelost...

Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 21 maart 2012 @ 22:53:
Als je kijkt naar het prijskaartje is het juist uiterst relevant. Tenzij nVidia (mind you: I blame AMD i.v.m. HD7970 prijzen) van plan was om de echte GTX680 voor 900 euro op de markt te brengen, betaal je nu 200 euro meer (als het niet meer is dan dat) dan nVidia oorspronkelijk van plan was.
Dat vind ik als consument juist extreem belangrijk en zeker iets om me mee bezig te houden. Uiteraard mag je best 200 euro bijleggen bij mijn aankoop, dan is dat ook opgelost...
Dat is wel erg kort door de bocht, want Nvidia had die prijzen niet zo laag gemaakt als ze wel die ultieme chip hadden kunnen bouwen. Bovendien geldt ook wat ik hierboven al stel, het is niet voor niets dat er problemen zijn. Dat is niet omdat het toeval is, dat is omdat het gewoon verdomd moeilijk is dat goed te doen. Dit is dus plan B, maar het viel eigenlijk wel te verwachten dat er een plan B nodig was linksom of rechtsom.

Bovendien gaat AMD ook weer zakken met de prijzen als Nvidia wel een betere chip neerzet, dus dat verschuift het hele zooitje ook alweer.

[ Voor 6% gewijzigd door Verwijderd op 21-03-2012 22:59 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Dus jij gaat er wel vanuit dat een GTX680 ~900-1000 euro had gekost? En ik dacht dat een 8800 Ultra duur was...

[ Voor 24% gewijzigd door Paprika op 21-03-2012 22:58 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 21 maart 2012 @ 22:58:
Dus jij gaat er wel vanuit dat een GTX680 ~900-1000 euro had gekost? En ik dacht dat een 8800 Ultra duur was...
Nee, dat is ook, wederom, te kort door de bocht. Hij zou wel duur geworden zijn als hij inderdaad zoveel beter was, maar dan waren de AMD's vanzelf ook weer goedkoper geworden. Het is niet alsof die dure HD7970 een absolute waarheid is. Ik denk dat 600-800 euro een reëele prijs geweest was als het echt een killer chip was. Dan moet hij uiteraard wel echt goed zijn en een bak verschil maken.

[ Voor 14% gewijzigd door Verwijderd op 21-03-2012 23:04 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Dit had (zie o.a. Charlie zijn berichten) makkelijk een 8800GT kunnen zijn. En hoezo zouden de AMD kaarten goedkoper worden als de GTX680 beter was, maar ook 400 euro meer had gekost? Nee, het niet op de markt weten te brengen van de echte GTX680 schaadt je eigen portemonnee meer dan 20%. Dat is schijnbaar voor jou niet balen. Het is een leuke kaart, maar als consument zijnde valt er naar mijn mening weinig te vieren dit jaar (en dat is niet alleen nVidia schuld).

[ Voor 17% gewijzigd door Paprika op 21-03-2012 23:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 21 maart 2012 @ 23:04:
Dit had (zie o.a. Charlie zijn berichten) makkelijk een 8800GT kunnen zijn. En hoezo zouden de AMD kaarten goedkoper worden als de GTX680 beter was, maar ook 400 euro meer had gekost? Nee, het niet op de markt weten te brengen van de echte GTX680 schaadt je eigen portemonnee meer dan 20%. Dat is schijnbaar voor jou niet balen.
Je kan het wel blijven herhalen, maar dat maakt het nog niet waar :) Door het ontbreken van de echte GTX680 zijn andere dingen ook bijgesteld en zullen die zich bijstellen, waardoor het werkelijke verschil veel kleiner wordt.

[ Voor 13% gewijzigd door Verwijderd op 21-03-2012 23:06 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Verwijderd schreef op woensdag 21 maart 2012 @ 23:05:
[...]
Door het ontbreken van de echte GTX680 zijn andere dingen ook bijgesteld.
Klopt, de prijzen van de mid-range kaarten.
Verwijderd in "[Algemeen] nVidia Nieuwdiscussie Topic - Deel 54"
En hier laat ik het bij...

[ Voor 19% gewijzigd door Paprika op 21-03-2012 23:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Indien ik geen nieuwe argumenten zie is dat inderdaad beter.

Op zich vind ik het apart dat je de 'echte' GTX680 überhaupt kunt meenemen in je vergelijking, aangezien die kaart niet eens levensvatbaar genoeg is om uit te leveren.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er speelt wel wat meer mee hoor, dan het ontbreken van GK100, waardoor de prijzen van de kaarten nu (wat) hoger liggen.

Afzetmakrt wordt kleiner. Trager dan een HD7750 kun je straks haast niet meer verkopen in de desktop en de laptop-variant van Cape Verde en nVidia's tegenhanger hebben ook niet zo heel erg veel ruimte meer in de laptop markt. Daaronder is het ook gewoon praktisch over en uit.

Winst op consumentenkaarten staat al jaren onder druk. Men liep AMD altijd graag af te branden op lage winstcijfers op de consumentenkaarten, maar nVidia zelf heeft er ook amper winst op gemaakt het afgelopen financiele jaar.

De beschikbaarheid van 28nm wafers, de yields op die wafers en de prijs van die wafers tezamen zorgen ervoor dat een product van dergelijke wafers een stuk duurder uitvallen dan de 40nm producten. Tel er dan ook nog even bij op dat zowel nVidia als AMD meer geheugen op de kaarten hebben geprikt dan tot nog toe standaard was, wat ook weer wat extra kost en je kunt zo langzaamaan een trend zien ontstaan.

Kort gezegd, je hebt het geld er voor over of niet. Is 300-400 euro je budget, dan weet je waar je naar moet kijken.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Paprika schreef op woensdag 21 maart 2012 @ 22:53:
Als je kijkt naar het prijskaartje is het juist uiterst relevant.
Relevant waarvoor? Ja, goedkopere kaarten waren leuk geweest. Maar dat veranderd toch niks aan de huidige situatie?

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
Let wel even op dat die oude tabel met de gtx660 hardstikke vol fouten staat (ik doel op de tabel waaruit blijkt dat gk104 midrange is). Shader snelheden en cores etc klopt niks van. De enige waarheid die erin stond waren de codenamen.

Wie weet is het altijd wel de bedoeling geweest om deze chip 680 te noemen, want als dit werkelijk eigenlijk de gtx660 was dan maak je het jezelf wel erg moeilijk in de toekomst. Wat voor chip stop je dan namelijk in de 650 en de 660 (en de generatie daar onder)? De hele roadmap komt dan niet meer uit... Het is dan logischer om de kaart gewoon 660 te noemen en er alsnog 500 euro voor te vragen (ivm de prijs vd tegenhanger van amd), tot de gk110 er is en dan een prijsverlaging door te voeren.

Overigens wat minder positief leesvoer: http://www.theinquirer.ne...adeon-hd-7870-gpu-compute

Ik hoop dat we in ieder geval snel wat meer horen over de 660 want ik zou graag mijn 460 upgraden :).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
GK104 was bedoeld als midrange daar hoeft geen discussie over te komen, is een feit.

Maar welke tabel bedoel je? Zo'n zelf bedacht tabeltje van iemand die zich verveelde? Dat heeft er weinig mee te doen lijkt mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 09:47

mrc4nl

Procrastinatie expert

Verwijderd schreef op woensdag 21 maart 2012 @ 23:00:
[...]

Nee, dat is ook, wederom, te kort door de bocht. Hij zou wel duur geworden zijn als hij inderdaad zoveel beter was, maar dan waren de AMD's vanzelf ook weer goedkoper geworden. Het is niet alsof die dure HD7970 een absolute waarheid is. Ik denk dat 600-800 euro een reëele prijs geweest was als het echt een killer chip was. Dan moet hij uiteraard wel echt goed zijn en een bak verschil maken.
mhwaaa... gewoon de hoofdprijs vragen voor de topkaart is logish.
maar nvidia wil ook geld in het laatje hebben. als ze 800 voor de kaart willen koopt geen hond hem.
beter kunnen ze een bedrag doen dat een paar procent hoger ligt dan de beste van amd.

neem nou de huidige 580, leuk kaartje voor 380 euro. bij introductie was ie rond 500 euro.
de lagere geplaatste 560TI (superclock van 950mhz) gaat voor zon 220 euro de deur uit.

dat terwijl beide kaartten even goed presteren (na factory oc)
en soms zelfs beter :o

beter koop je geen topmodel, is gewoon voor patsers, en daar ligt voor nvidia ook niet de meeste winst (alhoewel met zo'n prijs tik dat wel lekker aan, ondanks de lage aantallen) de "iets mindere" variant van het topmodel is dan veel gunstiger, en die kun je in sli gooien voor de zelfde prijs. topkaarten zijn net rolexen, overpriced omdat ze "speciaal" zijn. een neprolex is nix waard omdat je aleen betaalt voor matieraa;+assemblage, niet voor het dure merkje

ora et labora


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Verwijderd schreef op woensdag 21 maart 2012 @ 23:10:
[...]
Indien ik geen nieuwe argumenten zie is dat inderdaad beter.
Zucht, het is geen beargumenteerbaar punt gezien ik mijn mening deelde over het feit dat het wel erin hakt als je meer dan een jaar op een bepaalde kaart hebt gewacht, om dan iets anders te krijgen (al heb ik ook geen argument gezien van de andere kant, maar dat is verder niet relevant want nogmaals, het betrof een mening).
Verwijderd schreef op woensdag 21 maart 2012 @ 23:10:
[...]

Op zich vind ik het apart dat je de 'echte' GTX680 überhaupt kunt meenemen in je vergelijking, aangezien die kaart niet eens levensvatbaar genoeg is om uit te leveren.
Moeten toch wat? Dat konden we bij de GTX480 ook al niet. De backup modellen zijn voor wat het is en tonen alleen maar aan dat er nog eens 6-9 maanden aan wachten bij gaan komen.
Olaf van der Spek schreef op woensdag 21 maart 2012 @ 23:21:
[...]

Relevant waarvoor? Ja, goedkopere kaarten waren leuk geweest. Maar dat veranderd toch niks aan de huidige situatie?
Voor benchmarks is het niet relevant, wel voor de term mid-range (dat was de quote). Dat nVidia erin is geslaagd de top kaart van AMD (bij de 6XXX en 5XXX waren de top single GPU kaarten toch wel boven mid-range) te evenaren/verslaan met een kaart die in principe (voor de specs, grootte etc) makkelijk de term mid-range kan krijgen, is leuk om te zien. Ik weet niet precies op wie Jeroen reageerde (ik heb niet alle posts gevolgd), maar als je kijkt naar de specs is dat wel de benaming ervoor. Het enige punt is dat we dus gewoon voorlopig geen high-end op de markt hebben (puur naar specs gekeken, prijs & performance wise is die er wel). Ik vind het gewoon zo jammer dat er geen grote kaart op de markt komt binnen nu en 2 maanden, omdat ik liever 1 grote koop, met de ruimte voor SLI later in het jaar. Nu is er eindelijk support voor 3 monitoren op 1 kaart (vanuit beide kampen) en dan blijkt dat de enige kaarten op de markt (die deze feature hebben) het allemaal nogal erg lastig krijgen in de huidige spellen (zowel de HD7970 en de GTX680 zullen het lastig krijgen met 3 maal een resolutie die hoger ligt dan 1080p). Het was dan ook meer een beetje een rant en niet echt nieuwswaardig (er is helaas nog geen prijzen-discussie-topic :P).

[ Voor 3% gewijzigd door Paprika op 21-03-2012 23:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op woensdag 21 maart 2012 @ 23:24:
Ik hoop dat we in ieder geval snel wat meer horen over de 660 want ik zou graag mijn 460 upgraden :).
Ik zit ook een beetje te wachten op die 660. Alles daarboven is veel te duur (en belangrijker, onzuinig), maar zo'n 660 of 660 ti zou wel eens een leuke opvolger van de GTS 450. Al moet ik eerlijk zeggen dat ik een nieuwe kaart vooral voor Skyrim zou kopen, want de rest gaat al uitstekend :')
mrc4nl schreef op woensdag 21 maart 2012 @ 23:30:
mhwaaa... gewoon de hoofdprijs vragen voor de topkaart is logish.
maar nvidia wil ook geld in het laatje hebben. als ze 800 voor de kaart willen koopt geen hond hem.
beter kunnen ze een bedrag doen dat een paar procent hoger ligt dan de beste van amd.
Mensen die 500 euro voor de snelste kaart neerleggen geven ook wel 800 euro uit voor eentje die opeens anderhalf keer zo snel is. Kijk maar naar vroeger, toen legden mensen ook met gemak veel grotere bedragen voor kleinere upgrades neer. Daarnaast, ik zei 600-800.
Paprika schreef op woensdag 21 maart 2012 @ 23:30:
Zucht, het is geen beargumenteerbaar punt gezien ik mijn mening deelde over het feit dat het wel erin hakt als je meer dan een jaar op een bepaalde kaart hebt gewacht, om dan iets anders te krijgen (al heb ik ook geen argument gezien van de andere kant, maar dat is verder niet relevant want nogmaals, het betrof een mening).
O, je wilde gewoon even miepen. Zeg dat dan :7

:>

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Paprika schreef op woensdag 21 maart 2012 @ 23:04:
Dit had (zie o.a. Charlie zijn berichten) makkelijk een 8800GT kunnen zijn. En hoezo zouden de AMD kaarten goedkoper worden als de GTX680 beter was, maar ook 400 euro meer had gekost? Nee, het niet op de markt weten te brengen van de echte GTX680 schaadt je eigen portemonnee meer dan 20%. Dat is schijnbaar voor jou niet balen. Het is een leuke kaart, maar als consument zijnde valt er naar mijn mening weinig te vieren dit jaar (en dat is niet alleen nVidia schuld).
Waarom zou nvidia zo dom zijn om consumenten te matsen ? Het zijn wel gewoon bedrijven hè. Als die winst kunnen maken doordat ze de snelste kaart hebben , ben je wel gek als je dat niet doet. Ik zou het dan ook niet meer dan logisch vinden als deze kaart meer kost dan een 7970, daar zijn de prestaties ook naar .

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
-The_Mask- schreef op woensdag 21 maart 2012 @ 23:29:
GK104 was bedoeld als midrange daar hoeft geen discussie over te komen, is een feit.

Maar welke tabel bedoel je? Zo'n zelf bedacht tabeltje van iemand die zich verveelde? Dat heeft er weinig mee te doen lijkt mij.
Hoezo feit?

De hele reden dat jij denkt dat de gk104 midrage is, is dat er een aantal keren een tabel opdook waarbij de gk104 de gtx660 naam werd geven.

Voorbeeld:
http://lenzfire.com/2012/...price-release-date-43823/

Mijn punt was dat er ondertussen is gebleken dat vrijwel niets van deze tabel klopt.

Rond dezelfde tijd waren er ook sites te vinden die de gk104 in het gtx580 segment van 300-400 dollar rekende...

[ Voor 8% gewijzigd door sdk1985 op 21-03-2012 23:54 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

sdk1985 schreef op woensdag 21 maart 2012 @ 23:52:
[...]

Hoezo feit?

De hele reden dat jij denkt dat de gk104 midrage is, is dat er een aantal keren een tabel opdook waarbij de gk104 de gtx660 naam werd geven.

Voorbeeld:
http://lenzfire.com/2012/...price-release-date-43823/

Rond dezelfde tijd waren er echter ook sites te vinden die de gk104 in het gtx580 segment van 300-400 dollar rekende...
IEdereen kan aan de specs zien dat dit een midrange chip is, dat nvidia niet kan of wil bevestigen dat de GK100 geschrapt is wil nog niet zeggen dat deze er nooit geweest is.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19-09 18:23
Jeroenneman schreef op woensdag 21 maart 2012 @ 23:48:
[...]
Waarom zou nvidia zo dom zijn om consumenten te matsen ? Het zijn wel gewoon bedrijven hè. Als die winst kunnen maken doordat ze de snelste kaart hebben , ben je wel gek als je dat niet doet. Ik zou het dan ook niet meer dan logisch vinden als deze kaart meer kost dan een 7970, daar zijn de prestaties ook naar .
Natuurlijk zijn het bedrijven, die winst willen, moeten en hopelijk ook zullen maken. Het gaat dan ook niet om de huidige prijs situatie, maar om hoe/waarom ie tot staan is gekomen (voornamelijk door technische tegenslagen) t.o.v. van wat het had kunnen zijn. Ik had gewoon graag in de lente een high-end kaart gekocht (met high-end specs). Het was een rant, laat het verder maar voor wat het is.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op woensdag 21 maart 2012 @ 23:52:
[...]
De hele reden dat jij denkt dat de gk104 midrage is, is dat er een aantal keren een tabel opdook waarbij de gk104 de gtx660 naam werd geven.

Voorbeeld:
http://lenzfire.com/2012/...price-release-date-43823/
Lenzfire is echt een onzin site. :')

Waarom zou ik mij daar iets van aan trekken, de GK104 is/was nVidia's midrange chip dat heeft niks met meningen nodig.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
neliz schreef op woensdag 21 maart 2012 @ 23:54:
[...]


IEdereen kan aan de specs zien dat dit een midrange chip is, dat nvidia niet kan of wil bevestigen dat de GK100 geschrapt is wil nog niet zeggen dat deze er nooit geweest is.
Je zal toch echt met een argument moeten komen. Ik zie genoeg aanwijzingen dat het om een highend kaart gaat. Ten eerst zitten er twee stroomaansluitingen op waar door het per defintie een high-end kaart is (net als dat de gtx 560 ook een high end kaart is). Daarnaast is 1536 cores gewoon veel.

Simpele rekensom (elke keer highend kaart met +- 220 euro gelaunched):
8800gt: 128 cores
gtx260: 192 cores (x1,5)
gtx 460 en 560: 336 cores (x1,75)


Als je dan even uitgaat van x1,75 dan kom je dus op 582 cores uit. Nu zijn de shaders op halve snelheid gaan werken dus dan verdubbel je dat en dan kom je op 1176. Dat zijn dus 360 onverklaarde cores.

Enige wat er op wijst op een midrange kaart is de 256bit bus. Echter een oude wijsheid die je vroeger vaak bij reviews tegenkwam (mijn eerste gpu was een 3dfx voodoo) is dat een kleinere bus de kaart simpeler en goedkoper maakt. Kritiek op Nvidia is jarenlang geweest dat de kaarten te complex waren, wie weet hebben ze het nu gewoon geprobeerd simpel en efficient te houden.

Wat mij betreft genoeg "reasonable doubt", te veel om zo stellig te beweren dat dit een mid-ranged kaart had moeten zijn.

Overigens ontken ik niet dat het niet mogelijk is dat deze kaart als 660 stond gepland en nu als 680 wordt verkocht, we weten het gewoon niet... Zoals ik in mijn eerst post al zei; Indien dit waar is dan had logischeer geweest als nvidia de kaart dan toch 660 had genoemd en alsnog voor 500 euro had verkocht tot de gk110 beschikbaar was. Al is het puur om de concurrent te stangen.Nu wordt het lastig om een 660 650 640 en 630 te maken, want waar tover je die chip dan vandaan? Ga je dan 75% van alle shaders uitschakelen? Of ga je de clocks zo ver terugdraaien dat iedereen met MSI Afterburner gratis kan upgraden. .
-The_Mask- schreef op woensdag 21 maart 2012 @ 23:56:
[...]
Waarom zou ik mij daar iets van aan trekken, de GK104 is/was nVidia's midrange chip dat heeft niks met meningen nodig.
Je hebt nog steeds niet aangeven waarom JIJ denkt dat het een midranged kaart is. Jammer hoor. Nogmaals posten dat je het ergens niet mee eens bent omdat het eenmaal zo is voegt niks toe. Dat had je al gepost. Wat mij betreft hoef je dan helemaal niet te posten.

Schijnt groot probleem van Nederlanders te zijn overigens, altijd een mening hebben maar vaak deze mening niet kunnen articuleren. Is ooit eens een boek over geschreven door een Duitse die in Nederland werkt :+ .

[ Voor 42% gewijzigd door sdk1985 op 22-03-2012 00:24 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
sdk1985 schreef op donderdag 22 maart 2012 @ 00:07:
[...]

Je zal toch echt met een argument moeten komen. Ik zie genoeg aanwijzingen dat het om een highend kaart gaat. Ten eerst zitten er twee stroomaansluitingen op waar door het per defintie een high-end kaart is (net als dat de gtx 560 ook een high end kaart is). Daarnaast is 1536 cores gewoon veel.

Simpele rekensom (elke keer highend kaart met +- 220 euro gelaunched):
8800gt: 128 cores
gtx260: 192 cores (x1,5)
gtx 460 en 560: 336 cores (x1,75)


Als je dan even uitgaat van x1,75 dan kom je dus op 582 cores uit. Nu zijn de shaders op halve snelheid gaan werken dus dan verdubbel je dat en dan kom je op 1176. Dat zijn dus 360 onverklaarde cores.

Enige wat er op wijst op een midrange kaart is de 256bit bus. Echter een oude wijsheid die je vroeger vaak bij reviews tegenkwam (mijn eerste gpu was een 3dfx voodoo) is dat een kleinere bus de kaart simpeler en goedkoper maakt. Kritiek op Nvidia is jarenlang geweest dat de kaarten te complex waren, wie weet hebben ze het nu gewoon geprobeerd simpel en efficient te houden.

Wat mij betreft genoeg "reasonable doubt", te veel om zo stellig te beweren dat dit een mid-ranged kaart had moeten zijn.

Overigens ontken ik niet dat het niet mogelijk is dat deze kaart als 660 stond gepland en nu als 680 wordt verkocht, we weten het gewoon niet... Zoals ik in mijn eerst post al zei; Indien dit waar is dan had logischeer geweest als nvidia de kaart dan toch 660 had genoemd en alsnog voor 500 euro had verkocht tot de gk110 beschikbaar was. Al is het puur om de concurrent te stangen.Nu wordt het lastig om een 660 650 640 en 630 te maken, want waar tover je die chip dan vandaan? Ga je dan 75% van alle shaders uitschakelen? Of ga je de clocks zo ver terugdraaien dat iedereen met MSI Afterburner gratis kan upgraden. .


[...]


Je hebt nog steeds niet aangeven waarom JIJ denkt dat het een midranged kaart is. Jammer hoor. Nogmaals posten dat je het ergens niet mee eens bent omdat het eenmaal zo is voegt niks toe. Dat had je al gepost. Wat mij betreft hoef je dan helemaal niet te posten.

Schijnt groot probleem van Nederlanders te zijn overigens, altijd een mening hebben maar vaak deze mening niet kunnen articuleren. Is ooit eens een boek over geschreven door een Duitse die in Nederland werkt :+ .
Als Nvidia het een GTX 660 had genoemd hadden ze het prijskaartje van 500 euro nooit kunnen verantwoorden, en dan zou de GTX 680 daar dus nog ruim boven komen...

Overigens hoeven The_Mask en neliz niks te onderbouwen aangezien het hier dus gewoon om een feit gaat, niet een mening maar goed..
Oorspronkelijk was het de bedoeling dat de GK100 (of hoe ze het ook wilden noemen) boven de GK104 zou staan, met andere woorden, de GK104 was niet bedoeld als de high-end.

Volgens mij verschilt jouw definitie van high-end met die van de meeste mensen hier, je noemt in je post een GTX 560 high-end en ik weet wel zeker dat er veel mensen zullen zijn die het daar niet mee eens zijn. ;)

[ Voor 6% gewijzigd door Redblader op 22-03-2012 00:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Redblader schreef op donderdag 22 maart 2012 @ 00:37:
Overigens hoeven The_Mask en neliz niks te onderbouwen aangezien het hier dus gewoon om een feit gaat, niet een mening.
Feiten worden zijn over het algemeen ook niet uit de lucht gegrepen, dus mogen ze wel degelijk onderbouwd worden.

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Verwijderd schreef op donderdag 22 maart 2012 @ 00:40:
[...]

Feiten worden zijn over het algemeen ook niet uit de lucht gegrepen, dus mogen ze wel degelijk onderbouwd worden.
Maar wat valt er aan te onderbouwen, het is toch gewoon een feit dat er oorspronkelijk een chip boven de GK104 stond oftewel; GK104 was niet als de high-end bedoeld.

Acties:
  • 0 Henk 'm!

Verwijderd

Redblader schreef op donderdag 22 maart 2012 @ 00:44:
Maar wat valt er aan te onderbouwen, het is toch gewoon een feit dat er oorspronkelijk een chip boven de GK104 stond oftewel; GK104 was niet als de high-end bedoeld.
Het is pas een feit als je dat aangetoond hebt, denk aan een linkje naar en roadmap o.i.d. Dat is ook onderbouwen.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Morgen weten we allemaal meer :Y

Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 13:22
Verwijderd schreef op donderdag 22 maart 2012 @ 00:46:
[...]

Het is pas een feit als je dat aangetoond hebt, denk aan een linkje naar en roadmap o.i.d. Dat is ook onderbouwen.
Die kon je er zelf ook wel bij zoeken, dit is gewoon mierenneuken.
Voor de vaste lezers van dit topic is het gewoon overduidelijk dat de GK104 als mid range geplanned stond.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Was dat niet het geval totdat AMD Tahiti lanceerde en nVidia reageerde met "we hadden wel wat meer verwacht"..?

Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op donderdag 22 maart 2012 @ 00:07:
[...]

Je zal toch echt met een argument moeten komen. Ik zie genoeg aanwijzingen dat het om een highend kaart gaat. Ten eerst zitten er twee stroomaansluitingen op waar door het per defintie een high-end kaart is (net als dat de gtx 560 ook een high end kaart is). Daarnaast is 1536 cores gewoon veel.
Uhm, de meesten zien de GTX560 dus niet als 'high'-end kaart, maar al meer als mid-end. En waar het topmodel van Nvidia al jaren een 6+8-pins aansluiting heeft (sinds GTX280), heeft deze 'opeens' weer 6+6-pins...
Simpele rekensom (elke keer highend kaart met +- 220 euro gelaunched):
8800gt: 128 cores
gtx260: 192 cores (x1,5)
gtx 460 en 560: 336 cores (x1,75)


Als je dan even uitgaat van x1,75 dan kom je dus op 582 cores uit. Nu zijn de shaders op halve snelheid gaan werken dus dan verdubbel je dat en dan kom je op 1176. Dat zijn dus 360 onverklaarde cores.
Alleen werking op 'halve' snelheid kan niet als argument aangedragen worden aangezien ze nu ook anders werken. Shader vergelijk kan gewoon niet.
Enige wat er op wijst op een midrange kaart is de 256bit bus. Echter een oude wijsheid die je vroeger vaak bij reviews tegenkwam (mijn eerste gpu was een 3dfx voodoo) is dat een kleinere bus de kaart simpeler en goedkoper maakt. Kritiek op Nvidia is jarenlang geweest dat de kaarten te complex waren, wie weet hebben ze het nu gewoon geprobeerd simpel en efficient te houden.
Kritiek de afgelopen jaren was dat ze bij hoge reso's eerder tegen een bottleneck aanliepen, dus is het juist behoorlijk vreemd dat men van een 'top-model' de memory bandwith niet vergroot.
Wat mij betreft genoeg "reasonable doubt", te veel om zo stellig te beweren dat dit een mid-ranged kaart had moeten zijn.
Voor vrijwel iedereen hier dus vrijwel geen twijfel... ;)

Daarbij gewoon ook de naam, GK104 is een behoorlijk vreemde keuze qua naam als dit vanaf het begin het topmodel had moeten zijn. Sinds de overstap naar GTX280 is het GT200, daarna GF100, GF110 en nu opeens GK104? Terwijl de GTX460 GF104 heette, en de GTX560 is een GF114.... :X

Acties:
  • 0 Henk 'm!

Verwijderd

Rutger Mulder schreef op donderdag 22 maart 2012 @ 00:48:
[...]

Die kon je er zelf ook wel bij zoeken, dit is gewoon mierenneuken.
Voor de vaste lezers van dit topic is het gewoon overduidelijk dat de GK104 als mid range geplanned stond.
Juist! :7

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik vind het een beetje jammer dat je nu videokaarten kunt krijgen welke verschillend presteren, volgens mij kan er straks wel tot 5% verschil in prestaties komen, aangezien de kloksnelheid afhangt van het verbruik. Zo kan je videokaarten die beter presteren naar reviewers sturen zonder dat het iemand opvalt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 09-07 02:45
Het kan ook iets minder zwart op wit: aangezien GK100 blijkbaar redelijk vroeg in de ontwikkelfase geschrapt is geweest is het niet ondenkbaar dat NV de GK104 nog wat extra getweaked heeft voor meer performance gezien GK10x dan plots geen highend meer had en GK110 nog een stuk langer op zich zou laten wachten. Maarja, we'll never know zeker :p.

[ Voor 16% gewijzigd door Hyperz op 22-03-2012 01:14 ]

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

Verwijderd

Rutger Mulder schreef op donderdag 22 maart 2012 @ 00:48:
Die kon je er zelf ook wel bij zoeken, dit is gewoon mierenneuken.
Voor de vaste lezers van dit topic is het gewoon overduidelijk dat de GK104 als mid range geplanned stond.
Wie beweert, bewijst, zo gaat dat altijd en hoort het ook te gaan. Maar goed, dat is wel weer erg op de theorie, het ging er meer om dat iets niet gelijk een feit wordt omdat het als dusdanig geponeerd wordt.

De vaste lezer heeft ook een hoop geruchten gelezen die per abuis voor waar opgevat kunnen zijn in de loop der tijd, et cetera.
Hyperz schreef op donderdag 22 maart 2012 @ 01:12:
Het kan ook iets minder zwart op wit: aangezien GK100 blijkbaar redelijk vroeg in de ontwikkelfase geschrapt is geweest is het niet ondenkbaar dat NV de GK104 nog wat extra getweaked heeft voor meer performance gezien GK10x dan plots geen highend meer had en GK110 nog een stuk langer op zich zou laten wachten. Maarja, we'll never know zeker :p.
Volgens mij ligt de waarheid inderdaad in deze richting.

[ Voor 7% gewijzigd door Verwijderd op 22-03-2012 01:25 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
GK104 is hoe je het went of keert de 'high midrange' werknaam voor nVidia. Het doet er verder ook weinig toe, want deze chip neemt het op tegen AMD's 'high midrange' chip. Ze zijn redelijk vergelijkbaar in omvang (in dit geval een beetje in het voordeel van nVidia in perf/mm2 zo het lijkt) en ze zijn allebij officieel niet bedoeld als de best presterende optie. NVidia zou normaal GK100 in stelling brengen en moet nu wachten tot GK110/112 klaar is, terwijl AMD New Zealand voor die taak in stelling brengt.

Maar goed, benchmark day als alles goed is. Zal wel weer een drukke dag worden.

Acties:
  • 0 Henk 'm!

Verwijderd

neliz schreef op woensdag 21 maart 2012 @ 23:54:
[...]


IEdereen kan aan de specs zien dat dit een midrange chip is, dat nvidia niet kan of wil bevestigen dat de GK100 geschrapt is wil nog niet zeggen dat deze er nooit geweest is.
Maar ik ben wel met hem eens. Geen harde bron is geen feit. Misschien is dit altijd al wel nvidia's bedoeling geweest zoals het nu gaat en klopten de eerdere geruchten gewoonweg niet.

En er zijn genoeg van die figuuren die het maar al te graag als feiten willen namaken om nvidia in een slecht daglicht te zetten voor de lezers. PR werk voor AMD want we weten helemaal niet wat de bedoeling is met die chip
Redblader schreef op donderdag 22 maart 2012 @ 00:44:
[...]


Maar wat valt er aan te onderbouwen, het is toch gewoon een feit dat er oorspronkelijk een chip boven de GK104 stond oftewel; GK104 was niet als de high-end bedoeld.
Ligt er aan of die roadmap ook is gemaakt door anderen of nvidia zelf. En of de GK100 wel eens bedoeld was als high end gaminig gpu. Maar misschien is het beter om dit te bevestigen als feit als de GK100/110 er is. Tot nu toe zijn het iig nog geen harde feiten.

Ik lees ook heel vaak dat het alleen maar om geruchten gaat wat een beetje aan elkaar geknuteslde specs zijn van een gpu. Dus dat zijn helemaal geen feiten. GK100/110 zou altijd nog een tot een andere serie kunnen behoren en ook zo bedoeld.
-The_Mask- schreef op donderdag 22 maart 2012 @ 01:10:
Ik vind het een beetje jammer dat je nu videokaarten kunt krijgen welke verschillend presteren, volgens mij kan er straks wel tot 5% verschil in prestaties komen, aangezien de kloksnelheid afhangt van het verbruik. Zo kan je videokaarten die beter presteren naar reviewers sturen zonder dat het iemand opvalt.
DIT IS GEEN FEIT
Dat is nog maar afwachten. Als die OC functie op temperaturen gaat reageren dan heb je gelijk. Word hij te heet dan klokt hij niet over. Verbruik lijkt mij gewoon het zelfde van de GK104 chips. En de TDP zal wel voor alle kaarten zo afgestemt zijn dat hij gewoon weg niet zo makkelijk tot doe max kan komen. Ik zit te denken aan 200-300watt.


Ik ben verder benieuwd naar de reviews van vandaag, vooral naar reviews op 1920x1080 en 3 schermen van 1920x1080. Met die turbomodus aan en uit, als die overklock functie ook uit kan?

[ Voor 76% gewijzigd door Verwijderd op 22-03-2012 08:49 ]


Acties:
  • 0 Henk 'm!

  • vinom
  • Registratie: Augustus 2009
  • Laatst online: 16:09
Vandaag komen er meer reviews dan?

Acties:
  • 0 Henk 'm!

  • vinom
  • Registratie: Augustus 2009
  • Laatst online: 16:09
Nice :)

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:57
-The_Mask- schreef op donderdag 22 maart 2012 @ 01:10:
Ik vind het een beetje jammer dat je nu videokaarten kunt krijgen welke verschillend presteren, volgens mij kan er straks wel tot 5% verschil in prestaties komen, aangezien de kloksnelheid afhangt van het verbruik. Zo kan je videokaarten die beter presteren naar reviewers sturen zonder dat het iemand opvalt.
hmm interessant punt, daar ben ik eigenlijk ook wel benieuwd naar eventueel zullen we dat ook uit verschillende reviews kunnen zien. Echter zou er toch wel een tooltje moeten zijn (eventueel msi afterburner) die bij houdt welke snelheid wordt gebruikt. En wat mij nog logischer lijkt is dat je gewoon de clockspeed vast kunt zetten op turbo modus ofzo zodat hij altijd max preformed (ook goed voor benchmarks anders gaan mensen zeggen kijk maar ze zijn maar 5 % sneller terwijl dat op turbo misschien 15% is)

We shall see :D

Acties:
  • 0 Henk 'm!

  • Giwe94
  • Registratie: Februari 2012
  • Laatst online: 11:21
En we hebben een review! http://www.tweaktown.com/...eo_card_review/index.html

Edit: Ik zie dat tweaktown nog niet echt bepaald snel is.

[ Voor 17% gewijzigd door Giwe94 op 22-03-2012 09:47 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:57
hmm ik ga hem lezen maar de eerste pagina zegt niet dat het veel soeps wordt, alleen maar gehuil en gehaat

en lezen gaat lastig jezus die site ligt plat joh :P

[ Voor 20% gewijzigd door Jasper 99 op 22-03-2012 09:56 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Godsamme, wat een gedoe allemaal, met een hoop gezeur om "onderbouwing" en "feiten".

Feitjes hebben? Nvidia heeft sinds het begin (wat 1995 is met de RIVA's, 1999 is met de GeForce) slechts twee benamingen gebruikt.
Voor G70 bestonden waren de "basis" chips telkens een veelvoud van 10 of van 5; NV20, 25, 30, 35, 40, 45. Alle overige nummers waren afgeleiden van de dichtsbijzijnde "hele" chip onder hen (dus NV38 van NV35).

Vanaf G70 is elke "top" chip de "0" in de betreffende reeks geweest: G70, G80, GT200, GF100, GF110. G70 is een vreemde eend in de bijt, omdat ze toen half in de "oude" benaming zaten, half in de nieuwe. Voor de rest is het echter wel allemaal heel standaard. Hoe hoger het nummer binnen een serie, hoe "slechter" de chip. G92 heet zo omdat er geen echte G90 bestond en Nvidia toch iets nieuws nodig had voor de marketing molen en benaming was op dat moment erg belangrijk voor ze. G92 is voor G80 wat GF110 voor GF100 is (nou ja, iets minder, want G80 was sowieso al een pracht chip),.

De eerste chip onder de top eindigt ook in 4: G84/G94 en GF104/GF114. GT200 kunnen we helaas niet meenemen, omdat die hele product serie sowieso nergens op sloeg. Er van uitgaande dat Kepler niet zo'n afgrijselijk slecht stukje werk als GT200 is (en op basis van de resultaten so far, is dat niet het geval), mag je er ook van uit gaan dat dezelfde benaming wordt behouden. Dat betekent dus dat GK104 de "eerste onder de top" is, met de top genomen als GK100. Tenzij ze hun hele systeem voor de derde keer op de schop gooien, is dit gewoon een feit. GK110 is gewoon de eerste van de refresh; of zijn er nog mensen die domweg geloven dat voor het eerst in de geschiedenis een dual-GPU kaart de naam van een chip mee krijgt? ;)

Het heeft allemaal geen donder met prestaties, specs, roadmaps of wat dan ook te maken, maar gewoon met simpele logica. Om dit nog even duidelijker te maken: nog NOOIT heeft Nvidia chips door twee tientallen laten lopen: GK100-109 en GK110-119 horen bij elkaar - GK110 kan per definitie niet uit dezelfde doos als GK104 komen. Zelfs in GT200 (waar dus geen mid-range chip bestond, alleen gecastreerde chips) zijn de 40nm chips in "het volgende tiental" gezet (GT215/216/218).


En wat betreft mijn haat jegens GT200: dat was gewoon een slechte chip. Grootste GPU ooit, gebouwd met knip- en plakwerk (makkelijk gezegd, maar G92 was vernieuwender dan GT200, 'nuff said), een product serie die het rebrand-to-infinity verhaal begon. Nee, niets indrukwekkends aan. Vond ik toen niet en nog steeds niet.

Acties:
  • 0 Henk 'm!

Verwijderd

Hierboven, geen FEIT van wat er nu gaande is. Dit zullen we af moeten wachten.We weten namelijk niet wat de bedoeling is van deze kaart of gpu
Giwe94 schreef op donderdag 22 maart 2012 @ 09:46:
En we hebben een review! http://www.tweaktown.com/...eo_card_review/index.html

Edit: Ik zie dat tweaktown nog niet echt bepaald snel is.
Mmm zo druk dat de site niet goed werkt?
Ik ga deze week iig één bestellen als het kan. :9

[ Voor 15% gewijzigd door Verwijderd op 22-03-2012 10:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Met moeite de review van tweaktown doorgebladerd en dan zien we een kaart die gemiddeld wel wat sneller is dan de HD7970, bij hoge AA functies meer inzakt en meer verbruikt dan de HD7970, idle lijkt we zelfs nog iets mis te zijn, want is een stuk hoger dan de GTX580. Temps zijn marginaal beter dan de GTX580, maar bij tweaktown een stuk hoger dan de HD7970. Beetje mixed feeling, maarja, tweaktown is nou niet echt dé review site....
Pagina: 1 ... 23 ... 43 Laatste