[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 18 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15:00

XanderDrake

Build the future!

Even wat anders, ik lees op Fudzilla dat nVidia eindelijk met de partners is gaan praten over de productie van GK104. Gezien de informatie over deze GPU nu met meerdere mensen buiten het bedrijf wordt gedeeld, worden de geruchten hopelijk nauwkeuriger :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16-09 15:35

edward2

Schieten op de beesten

Ik vind het maar een bijzondere rare situatie die nu geschetst wordt in de geruchtenmolen, een midrange die als eerste in het highend segment ingezet omdat het topmodel vertraagd/gewijzigd is. Ik heb dat sinds dat nVidia bestaat nog nooit eerder gezien.

Meestal komt eerst het highend model en worden daarna "mislukte" exemplaren als met uitgeschakelde onderdelen in het midend gezet.

Dat betekend dat er nu dus fundamentele verschillen zijn tussen de GK104 en het vlagge schip en van de laatste straks ook weer midend varianten komen.

Ik ben benieuwd hoelang het allemaal gaat duren voordat de grote jongen komt.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
edward2 schreef op zaterdag 25 februari 2012 @ 12:19:
Dat betekend dat er nu dus fundamentele verschillen zijn tussen de GK104 en het vlagge schip en van de laatste straks ook weer midend varianten komen.

Ik ben benieuwd hoelang het allemaal gaat duren voordat de grote jongen komt.
De fundamentele verschillen tussen GK104 en GK110/112(?) zullen waarschijnlijk van eenzelfde aard zijn als die tussen GF104/114 en GF100/110. De GF104/114 heeft een zwaar versimpelde crossbar ontwerp, waardoor de chip een stuk gemakkelijker te maken schijnt te zijn, maar wel als keerzijde veel minder geschikt is voor GP compute zaken.

Simpelgezegd, GF104/114 en GK104 zijn veel meer gamers-georienteerde chips dan de grote broer.

De enige informatie over een tape out van GK110/112 die er eigenlijk is, is dat deze plaats heeft gevonden ergens tussen mid januari en eind januari. De rekensom leert vervolgens dat de chip in kaartvorm niet eerder te verwachten is dan zo eind augustus, als alles in 1 keer goed gaat, maar dat oktober/november veel realistischer zijn.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nou de situatie die de geruchtenmolen momenteel schept is dat GK100 problemen gaf, net als GF100. Echter zou Nvidia deze keer deze dus niet in massa productie willen stoppen, juist vanwege wat er met GF100 gebeurde. In plaats daarvan zouden ze de succesvolle stappen juist herhalen: GF104 gevolgd door GF110 - nu dus GK104 gevolgd door GK110 (waarbij GK110 dus niet voor een dual GPU kaart staat, wat sowieso nooit ergens op sloeg).

Het is geen rare stap en zou aangeven dat ze hebben geleerd van de fouten twee jaar geleden. Qua productie tijden kan het ook wel kloppen; je mag sowieso de +- 3-4 maanden die Fermi nodig had om een eerste degelijke batch klaar te krijgen (de launch was dan wel in maart, maar toen waren ze nog lang niet beschikbaar met meer dan enkele tientallen). Er van uitgaande dat Kepler grofweg dezelfde tijd nodig heeft als GF100/GF110, zit je dan al naar begin augustus te kijken voor GK110. GF110 is in zowel A1 als A2 spins uitgekomen als ik me niet vergis, dus mocht A1 goed gaan voor GK100 kunnen we nog wel iets eerder een GK110 zien verschijnen.

Hetzelfde geldt voor GK104, als die alleen al de productie tijd van GF100 naar voren is geschoven, zit je al naar eind maart/begin april te kijken. Hierbij ga ik er wel van uit dat de verschillen tussen GK100/GK104 hetzelfde zijn als bij Fermi.

Persoonlijk zit ik er eerlijk gezegd niet mee. Als GK100 daadwerkelijk een GF100 was, laat ze die dan maar achterwege houden en meteen de goede chip presenteren. GF100 was gewoon geen mooi product, GF104 was een aangename verrassing en GF110 was gewoon een degelijke chip; groot, maar presteerde netjes en had ook een passend prijskaartje.

Hierdoor verschuiven de release schema's uiteraard wel, maar ook daar zit ik niet mee; betekent meer nieuws door het jaar heen voor ons :D

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Werelds schreef op zaterdag 25 februari 2012 @ 13:52:
Er van uitgaande dat Kepler grofweg dezelfde tijd nodig heeft als GF100/GF110, zit je dan al naar begin augustus te kijken voor GK110. GF110 is in zowel A1 als A2 spins uitgekomen als ik me niet vergis, dus mocht A1 goed gaan voor GK100 kunnen we nog wel iets eerder een GK110 zien verschijnen.
Er is 1 klein deeltje niet helemaal correct in de gedachtegang. GF110 A1 is eigenlijk een GF100 B1, waarbij de fixes ten opzichte van het process werden doorgevoerd in een verder 'werkende' A3 stepping van GF100. Je mag er dus van uit gaan dat A1 (of hoe de eerste stepping ook mag heten bij nVidia) niet de productie stepping zal zijn, dat is nagenoeg nooit zo. GK110/112 zal, zeker door zijn omvang, ongetwijfeld minimaal 1 respin nodig hebben, waarschijnlijker 2, zoals de meeste grotere chips al gauw 2 respins nodig hebben.

Overigens was het niet GF104 -> GF110. GF104 was rond dezelfde periode in ontwikkeling als GF100, met waarschijnlijk een iets latere tape out. Het had dan ook last van dezelfde problemen, al was het minder ernstig door het simpelere ontwerp. Dat het niet helemaal goed was, is echter terug te zien in het feit dat er geen desktop GF104 op de markt is gekomen die de volledige functionaliteit heeft.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
@ spins: GF110 is geen respin van GF100 A3 hoor. Het ontwerp is zeker aangepast naar aanleiding van die laatste, maar de chip op zich is een losstaand proces geweest.

Foto van Anand:
Afbeeldingslocatie: http://images.anandtech.com/doci/4008/GF110Die.jpg

@ GF104 -> GF100: een deel van de veranderingen in GF104 kwamen duidelijk voort uit de problemen die GF100 had. Ik ben er nog steeds vrij zeker van dat Kepler sterk op Fermi zal lijken, dus dezelfde oplossingen zullen voor een deel gewoon mogelijk zijn en ook gebruikt worden. Ik bedoelde ook niet dat GF110 uit GF104 is voortgekomen, ik had het meer over de productie cyclus. GF110 was al in ontwikkeling voordat GF100 zelfs uit was :)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16-09 15:35

edward2

Schieten op de beesten

Natuurlijk goed dat ze een volgende "GTX480" proberen te voorkomen, maar toch weer jammer dat het niet in één keer goed ging. Wat dat betreft lijkt AMD toch wat minder problemen te hebben, maar maar echt vergelijkbaar is het natuurlijk niet zomaar. (nV kiest toch vaak voor een wat grotere en complexere? chip met de daarmee samenhangende risico's).

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er is een wereld van verschil tussen GF104 en GF110. Crossbar, Cuda-clusters, ze zijn gewoon niet hetzelfde, terwijl deze wel hetzelfde zijn tussen GF110 en GF110. Ik snap dan ook niet helemaal hoe een printje op een heatspreader moet aantonen dat het een heel nieuw, losstaand process is. Dat het management en/of de marketing afdeling het verstandiger vond om het GF110 te noemen in plaats van GF100b, maakt het nog niet anders.

Je claimt dat GF110 al in ontwikkeling was voordat GF100 al uit was, maar is er ook ondersteunend bewijs daarvoor? Los van een base-layer respin die onderweg was voor GF100 eindelijk op de markt verscheen? Ik zou het namelijk verfrissend vinden dat te zien/lezen.

[ Voor 23% gewijzigd door dahakon op 25-02-2012 16:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op vrijdag 24 februari 2012 @ 00:06:
[...]
Niet echt voor in dit topic, maar met Brazos koop je zeer zeker geen kat in de zak. Als je voor Atom gaat, dan koop je een kat in de zak... Dus niet zo chargeren, het enige probleem dat Llano heeft is de beschikbaarheid van de betere modellen zoals de A8-3500m welke ik ook niet als een kat in de zak zou bestempelen. Ik ben het met je eens dat die andere Llano modellen aardig tegenvallen m.b.t. het verbruik en de prestatie die ze leveren. De prijs die eraan vast hangt maakt het nog wel oké. Fusion APUs zijn in mijn ogen daarom geen zak in de kat.
Het was misschien van mij uit dom om op je post in te gaan, maar dat verandert mijn mening niet, ik ga het niet helemaal uitkauwen omdat jij daar toch niet voor open staat, dat je intel er bij haalt bewijst dat nog meer eens.

als je zelf een discussie ontketent moet je niet gaan zitten jammeren als iemand er op in gaat. Die spreuken die kant nog wal raken hoeven er ook niet altijd bij, alles bij elkaar maakt dat miscchien dat je niet erg serieus genomen word. Blijf dan gewoon on-topic.

[ Voor 43% gewijzigd door Verwijderd op 26-02-2012 00:35 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Weet iemand of er nog verschil zit tussen A1 en A2 met de GTX580? Hogere overclock?

[ Voor 12% gewijzigd door A87 op 26-02-2012 11:18 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
dahakon schreef op zaterdag 25 februari 2012 @ 15:57:
Er is een wereld van verschil tussen GF104 en GF110. Crossbar, Cuda-clusters, ze zijn gewoon niet hetzelfde, terwijl deze wel hetzelfde zijn tussen GF110 en GF110. Ik snap dan ook niet helemaal hoe een printje op een heatspreader moet aantonen dat het een heel nieuw, losstaand process is. Dat het management en/of de marketing afdeling het verstandiger vond om het GF110 te noemen in plaats van GF100b, maakt het nog niet anders.

Je claimt dat GF110 al in ontwikkeling was voordat GF100 al uit was, maar is er ook ondersteunend bewijs daarvoor? Los van een base-layer respin die onderweg was voor GF100 eindelijk op de markt verscheen? Ik zou het namelijk verfrissend vinden dat te zien/lezen.
Elke GPU is al jaren in ontwikkeling voordat hij verschijnt, "refreshes" niet zo zeer, maar toch al maanden van tevoren. GF110 is echter geen respin zoals jij aangeeft, want er zitten verschillen in de architectuur tussen GF100 en GF110. Een simpel bewijs daarvan zie je in de texture filtering units. GF110 heeft die van GF104; GF110 kan 4 FP16 pixels/clock aan, GF100 maar 2. GF104 doet er dus ook 4. Een ander voorbeeld is het feit dat GF110 simpelweg iets kleiner is dan GF100. Ze kunnen een GPU niet op tijd van 7 maanden in elkaar flansen met zo'n aangepast ontwerp. Zelfs een die shrink vergt toch al aardig wat werk - en dat is dan niet eens werk in de architectuur, maar in het fysieke ontwerp :)

Er nog meer dingen van GF104 overgenomen. GF104 is inderdaad behoorlijk anders, maar GF110 is ook veel meer dan een "gefixte" GF100. Overigens zijn de CUDA cores bij mijn weten niet anders; de SMs en GPCs zijn wel anders opgebouwd in GF104, maar voor zover ik weet is er aan de daadwerkelijke shader units niets veranderd. GF110 is in elk geval meer dan een simpele respin van GF100; te veel wijzigingen en alleen al de die-size geeft het al weg.

Met dat plaatje doelde ik overigens niet zozeer op het GF110 gedeelte, maar op het A1 gedeelte; ze printen altijd de stepping van de chip erbij. Ter vergelijking even GF100 ernaast (even willekeurig van Google gepikt):
Afbeeldingslocatie: http://www.geeks3d.com/public/jegx/201003/gf100_gtx480_gpu.jpg

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Werelds schreef op zondag 26 februari 2012 @ 12:54:
[...]

Elke GPU is al jaren in ontwikkeling voordat hij verschijnt, "refreshes" niet zo zeer, maar toch al maanden van tevoren. GF110 is echter geen respin zoals jij aangeeft, want er zitten verschillen in de architectuur tussen GF100 en GF110. Een simpel bewijs daarvan zie je in de texture filtering units. GF110 heeft die van GF104; GF110 kan 4 FP16 pixels/clock aan, GF100 maar 2. GF104 doet er dus ook 4. Een ander voorbeeld is het feit dat GF110 simpelweg iets kleiner is dan GF100. Ze kunnen een GPU niet op tijd van 7 maanden in elkaar flansen met zo'n aangepast ontwerp. Zelfs een die shrink vergt toch al aardig wat werk - en dat is dan niet eens werk in de architectuur, maar in het fysieke ontwerp :)

Er nog meer dingen van GF104 overgenomen. GF104 is inderdaad behoorlijk anders, maar GF110 is ook veel meer dan een "gefixte" GF100. Overigens zijn de CUDA cores bij mijn weten niet anders; de SMs en GPCs zijn wel anders opgebouwd in GF104, maar voor zover ik weet is er aan de daadwerkelijke shader units niets veranderd. GF110 is in elk geval meer dan een simpele respin van GF100; te veel wijzigingen en alleen al de die-size geeft het al weg.

Met dat plaatje doelde ik overigens niet zozeer op het GF110 gedeelte, maar op het A1 gedeelte; ze printen altijd de stepping van de chip erbij. Ter vergelijking even GF100 ernaast (even willekeurig van Google gepikt):
[afbeelding]
Als de GF110 zo anders is, hoe komt het dan eigenlijk dat een GTX 570 precies even snel is als een GTX 480 op gelijke clockspeeds?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
De 570 is hoger geklokt (732/950 tegenover 700/924). Hij doet iets minder GP/s, iets meer GT/s (dat laatste komt dus door de updates van de GF104 texture units). Een 570 heeft dan ook 8 ROPs minder dan een 480, een kleinere bus (320 ipv 384), enzovoort. Nogmaals, GF110 is geen nieuwe architectuur, maar het is ook absoluut geen respin. De 570 is ook niet identiek aan een 480; hij heeft elementen van zowel de 470 als de 480, maar dan op de getweakte GF110 architectuur.

Edit: even wat cijfertjes op rij voor de goede orde:

580: 512 shader cores, 64 TU, 48 ROPs - Clocks op 772/1002
570: 480 shader cores, 60 TU, 40 ROPs - Clocks op 732/950
480: 480 shader cores, 60 TU, 48 ROPs - Clocks op 700/924
470: 448 shader cores, 56 TU, 40 ROPs - Clocks op 607/837

Let vooral op de verhoudingen, die liggen net even iets anders bij GF110 :)

[ Voor 28% gewijzigd door Werelds op 26-02-2012 15:20 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Maar kun je aantonen dat nVidia de ROPs niet onafhankelijk van de clusters kan activeren/deactiveren? Dit ligt namelijk nog wel eens anders dan met de TMU's. Voor de rest zou full-speed fp-16 texture filtering voort kunnen komen uit het feit dat GF100 gerepareerd is. Functionaliteit is op meerdere levels in en uit te schakelen, kijk voor de lol alleen al naar DP op de professionele GF100's en de consumer GF100's.

Maar goed, meningen kunnen wellicht verdeeld blijven en dat vind ik allemaal best. In mijn ogen/opinie, is de GF110 niet veel meer dan een gerepareerde GF100.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
dahakon schreef op zondag 26 februari 2012 @ 19:52:
Maar kun je aantonen dat nVidia de ROPs niet onafhankelijk van de clusters kan activeren/deactiveren? Dit ligt namelijk nog wel eens anders dan met de TMU's. Voor de rest zou full-speed fp-16 texture filtering voort kunnen komen uit het feit dat GF100 gerepareerd is. Functionaliteit is op meerdere levels in en uit te schakelen, kijk voor de lol alleen al naar DP op de professionele GF100's en de consumer GF100's.

Maar goed, meningen kunnen wellicht verdeeld blijven en dat vind ik allemaal best. In mijn ogen/opinie, is de GF110 niet veel meer dan een gerepareerde GF100.
Op papier staan de ROP's los van de GPC's, dus die kunnen ze inderdaad deactiveren als het nodig is. De TMU's zijn echter gewoon die van GF104, sowieso heeft GF110 er al 4 meer dan GF100. GF110 is inderdaad niet veel meer dan een "gerepareerde" GF100, maar het is wel iets meer dan dat (geef je zelf eigenlijk ook aan). Een respin gaat nooit gepaard met zulke veranderingen in de architectuur (ik gaf hierboven trouwens alleen wat voorbeelden, er is nog wel meer veranderd hier en daar). Metal respins zijn juist om fysieke problemen op te lossen in (you guessed it) de metaal lagen. Daar zitten de interconnects en dergelijke; fouten op die lagen zorgen voor fouten in de logica omdat er gewoon signalen niet door komen; je kunt het denk ik het beste vergelijken met de geëtste banen op een PCB. Is er daar een van verbroken doen de chips het nog wel, ze communiceren alleen niet met elkaar. Binnen de chip is dat niet zo heel erg anders; bij fouten in je metaal lagen werken bijvoorbeeld al je shader cores nog wel goed, maar komen hun resultaten niet goed naar buiten. Ik versimpel het geheel uiteraard behoorlijk, maar het komt er gewoon op neer dat een metal layer respin geen veranderingen in de architectuur..ik zou bijna zeggen "toestaat". Dan verandert namelijk het "floorplan" van de chip en moet er dus ook een nieuwe base layer, aangezien de metal layers daar afhankelijk van zijn.

Als ik het hier fout heb lees ik dat graag, want ik ben geen expert op dit gebied, maar dit is hoe ik het hele productie proces van onze geliefde stukjes zand en glas begrijp :P

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De TMU's van GF100 en GF110 zijn gewoon gelijk hoor, 4 per cluster. Dat kun je ook terug zien aan het aantal clusters dat is uitgeschakeld per kaart. 64 voor een volledig werkende chip, 60 voor een chip met 1 cluster uitgeschakeld, 56 voor een chip met 2 clusters uitgeschakeld.

GF104/114 heeft 8TMU's per cluster van 48 Cuda Cores. 7 clusters met 56 TMU's, Zoals je kunt zien, een heel andere verdeling. GF104/114 is dan ook veel meer op gaming gericht, net als GK104 dat waarschijnlijk zal zijn.

Overigens was GF100 niet op Metal-layer te fixen, aangezien de fouten in de Base-layer zaten (onregelmatige transistoren en, als je het Cypress verhaal van Anand ooit hebt gelezen weet je het, Via's die niet doen wat ze moeten doen). Het punt wat ik eerder probeerde te maken, is dat we moeilijk kunnen vaststellen of de full-speed fp-16 texture filtering niet aanwezig was in GF100, of gewoon niet 100% goed werkte en daarom dus niet full-speed draaide. Er was verder slechts 1 ander dingetje anders van wat ik heb kunnen lezen en dat waren wat tile-formats voor Z-cull efficientie.

Een base-layer respin kan dus wat verbeteringen aanbrengen om een architectuur te laten werken op een process. Daarbij hoeft een architectuur zelf niet te 'veranderen'. De baselayer is net zo goed een onderdeel van een architectuur als de metallayer en als er iets fout is in de baselayer, dan dien je die aan te passen. Het gebeurd regelmatig dat een baselayer respin wordt toegepast voordat een product productiewaardig is/wordt.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Excuseer over de TMU aantallen, verkeek me even. Als Fermi ooit full speed FP16 had moeten kunnen doen had dat wel ergens in een whitepaper gestaan en zouden de reviews hier ook wel melding van geven; elke Fermi review gaf duidelijk aan dat half-speed de bedoeling was (net als GT200 en Cypress overigens).

Als "wij" het echter over respin hebben, hebben we het over de metaal lagen - juist omdat deze heel veel voorkomen, base layer respins een stuk minder. Ik heb ook nooit gezegd dat een base layer met een architectuur verandering gepaard gaat, juist andersom. Een base layer respin zou ook wel heel erg krap zijn bij jouw mening dat GF110 van de productie-klare GF100 af komt, aangezien zoiets al rap een half jaar kan duren. Dan zit je tegen augustus te kijken voor de eerste tapeout met de nieuwe baselayer.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De White Papers voor GTX4xx zijn niet hetzelfde als de orginele White Papers voor GF100, maar of full speed wel of niet deel was van het orginele ontwerp, of het er in verwekt zit, maar niet gebruikt, durf ik niet met zekerheid te zeggen. In ieder geval zal een statement dat het de bedoeling was, op basis van White Papers van GTX480 weinig zeggend zijn.

Wie "jullie" verder zijn, weet ik niet, maar als ik het over een respin heb, kan dit om een metal-layer respin gaan, maar evengoed om een base-layer respin. Om eerlijk te zijn, is de laatstgenoemde interessanter vanuit technologisch perspectief, aangezien het veel meer over een process of en chip zegt, of een combinatie van de twee.

Voor de rest is het 'niet zo heel knap' om een base-layer respin te zijn. A3 stepping kwam terug zo rond 1 januari 2010. Naar 9 november 2010 heb je dus ruim 10 maanden. Meer dan genoeg zijn om het een en ander na te trekken (al zou tegen die tijd al lang duidelijk moeten zijn dat de base-layer niet goed is), verbeteringen aan te brengen en de boel weer naar de fab brengen. Na zo'n 3 maanden krijg je dan je spul terug en kun je gaan kijken wat er werkt en wat er niet werkt. Stepping eroverheen geeft nog eens 8 weken, veel testen, vervolgens, aangezien A1 (dus eerste metal-layer respin) goed genoeg was, productie starten en je hebt voldoende voorraad voor een launch in november. Ruim binnen het half jaar. Wellicht hebben ze de ruimte die ze hadden in tijd gebruikt voor kleine aanpassingen, maar zoals gezegd, Cuda-cores zijn hetzelfde, Clusters zijn gelijk aan die van GF100, evenals geheugencontroller etc.

Maar goed, deze discussie kunnen we eeuwig door blijven voeren en ik ben ondertussen uberhaupt alweer kwijt waarom hij uberhaupt begonnen is (uitgezonderd gebrek aan GK nieuws.)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15:00

XanderDrake

Build the future!

dahakon schreef op maandag 27 februari 2012 @ 20:05:
(uitgezonderd gebrek aan GK nieuws.)
Mja. Ik had gehoopt dat er vandaag wat meer bekend werd van GK104 en consorten. Maar blijkbaar is iedereen te druk bezig met MWC 2012...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik ben bang dat we voor nieuw nieuws mogen wachten tot CEBIT, wat nog een weekje weg is. Als nVidia echt voor april wil lanceren, hebben ze weinig tijd meer om met informatie op de proppen te komen. Helemaal als ze reviewers genoeg tijd willen geven om de reviews goed te doen.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15:00

XanderDrake

Build the future!

Ik had meer gehoopt op uitgelekte informatie ;) Gezien as-we-speak de producenten de GPU aan het bekijken zijn (als we Fuad mogen geloven) hebben meer mensen toegang tot de details.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Moah, dat is eigenlijk al haast 2 weken oud nieuws (SemiAccurate heeft een artikel op 10 februari met als boodschap dat verschillende AIBs GK104's in huis hebben om hun producten op te kunnen gaan ontwikkelen.)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15:00

XanderDrake

Build the future!

Des te meer reden dat er nu wel wat meer specifieke geruchten van goede bronnen zouden moeten komen, naja... :-(

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Die size is ongeveer 310mm2, afgeleid aan de hand van de PCI-e 6 pins connector die ongeveer 13,5mm breed is. Kan iemand dit bevestigen ?

[ Voor 3% gewijzigd door madmaxnl op 03-03-2012 19:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Klinkt plausibel, ziet er op het oog aardig gelijk uit als een g92, welke in de buurt van die oppervlakte zit. Vraag me wel af hoe je dat uit die foto afgeleid krijgt, ik kom op een veel kleiner getal uit, waarschijnlijk omdat de 6-pins connector door de foto vertekend uitvalt :p

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Charlie had hem gemeten op ~340-360mm2. Sindsdien zijn de verhalen van ~350mm2 voor GK104 rond gaan zingen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Tja het is heel moeilijk te zien op de foto want er zit veel te veel koelpasta op waardoor de randen van de chip niet helemaal duidelijk te indiceren zijn. Ongeveer 350mm2 lijkt mij te groot. Tahiti is duidelijk groter. Afbeeldingslocatie: http://content.hwigroup.net/images/products_larges/133573/34/amd-radeon-hd-7970.jpg

[ Voor 31% gewijzigd door madmaxnl op 03-03-2012 22:01 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op zaterdag 03 maart 2012 @ 21:59:
Tja het is heel moeilijk te zien op de foto want er zit veel te veel koelpasta op waardoor de randen van de chip niet helemaal duidelijk te indiceren zijn. Ongeveer 350mm2 lijkt mij te groot. Tahiti is duidelijk groter. [afbeelding]
Ik geef alleen aan wat Charlie heeft gemeten, direct van de chip, niet van een vage foto. Hoe zeer het bij de waarheid zit, zullen we later wel horen/zien/lezen, tenzij nVidia er weer een heatspreader overheen gooien.

Editje:na lang lang laden kon ik het artikel weer eens teruglezen. De meting was 18/19*18/19, wat een die-size geeft van 324 tot 361mm2, als we het middelen, 18.52, dan zit je op ~342mm2

.

Nvidia will ‘launch’ GK104/Kepler/GTX680 in a week

Het verbaast me dat dit niet eerder vandaag gelinked is, maar goed, dan nog maar een editje erbij. Blijkbaar heeft een lading reviewers een uitnodiging van nVidia mogen ontvangen om volgende week bij nVidia op kantoor te komen voor de 'launch' van de GTX680. Gezien de tape out van GK110/112, moet het wel om GK104 gaan. NVidia is zich aan het opmaken voor een launch van werkelijke kaarten zo te zien.

[ Voor 40% gewijzigd door dahakon op 05-03-2012 16:26 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik vraag me nou af of het nou 12 april wordt of 12 maart. (geruchten).
Heb mijn prijs al weer laten zakken van mijn 580..

Ik denk dat het wel snel gaat komen nu de 600 serie..

[ Voor 45% gewijzigd door A87 op 07-03-2012 16:16 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Lias schreef op woensdag 07 maart 2012 @ 16:15:
Ik vraag me nou af of het nou 12 april wordt of 12 maart. (geruchten).
Welke geruchten zeggen dan 12 april?

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

hardware info zei 12 april
http://nl.hardware.info/n...a-gtx-600-serie-uitgelekt.

Maar goed hier zeggen ze weer 12 maart.

http://nl.hardware.info/e...0-specifications-are-here
Dus het wordt of maart of april die hard launch.

Er is een maar.............. waarom is die geheugen bus 256 bit bij 6Ghz.. dat is nog stees 192Gbps :S.. wat moeten we hier mee, ik had liever 250Gbps gezien... dit merk je ook duidelijk bij hoge AA.
Besparen op de geheugencontroller is wel erg flauw. Ik hoop dat dit nog 512 Bit wordt...

[ Voor 157% gewijzigd door A87 op 07-03-2012 16:36 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Lias schreef op woensdag 07 maart 2012 @ 16:26:
hardware info zei 12 april
http://nl.hardware.info/n...a-gtx-600-serie-uitgelekt.

Maar goed hier zeggen ze weer 12 maart.

http://nl.hardware.info/e...0-specifications-are-here
Dus het wordt of maart of april die hard launch.

Er is een maar.............. waarom is die geheugen bus 256 bit bij 6Ghz.. dat is nog stees 192Gbps :S
Als je de berichten herleid naar de bronnen:
Semiaccurate en VR-zone VS Lenzfire(welke slechts april 2012 vermeld)

Ik zou voor die eerste twee gaan en dus de paperlaunch maandag en release de 23e.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Lets hope so en ook op 512bit =). Snel de 580 verkopen. Voordat iedereen op de 600 serie gaat wachten.

[ Voor 29% gewijzigd door A87 op 07-03-2012 16:38 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15:00

XanderDrake

Build the future!

Lias schreef op woensdag 07 maart 2012 @ 16:37:
Lets hope so en ook op 512bit =). Snel de 580 verkopen. Voordat iedereen op de 600 serie gaat wachten.
Yeah, ik zou NU inderdaad je GTX 580. Beetje sneu voor de dimwits die niets weten van de ophanden zijnde GTX 680 launch, maar goed voor jou ;)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Volgens mij komt de 670Ti eerst, de 680 laat nog even op zich wachten?

Acties:
  • 0 Henk 'm!

Verwijderd

Lias schreef op woensdag 07 maart 2012 @ 16:26:
. Ik hoop dat dit nog 512 Bit wordt...
512 Bit zie ik bij de GK104 niet snel gebeuren. Dat zal de kaart ook weer behoorlijk duur maken... Zal wel bij de top gpu gebeuren, maar daar moeten we nog lang op wachten.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
t!n0 schreef op woensdag 07 maart 2012 @ 17:13:
Volgens mij komt de 670Ti eerst, de 680 laat nog even op zich wachten?
Volgens mij gaat GK104 gewoon een GTX680 zijn en komt die dus als eerst.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Volgens Charlie noemt nVidia het de GTX680 in een uitnodiging inderdaad.

Of de kaart nog deze maand uit komt, is echter een ander verhaal en mocht het zo zijn, dan kon het wel eens een extreem kleine oplage zijn, daar TSMC het 28nm process ondertussen blijkbaar 3 weken totaal heeft stil liggen. In het gunstigste geval voor nVidia hebben ze al een paar weken productie binnengekregen voor die stop.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
Lias schreef op woensdag 07 maart 2012 @ 16:37:
Lets hope so en ook op 512bit =). Snel de 580 verkopen. Voordat iedereen op de 600 serie gaat wachten.
heheh ik ga maar binnenkort eens een 2de hands 580 kopen kijken of ze rond de 200 raken :P
Beter doet die 670 of 680 het goed :D

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
GK104 is niet oorspronkelijke bedoelde high-end GPU, dus ik zou niet te veel gaan verwachten.

[ Voor 16% gewijzigd door -The_Mask- op 07-03-2012 20:07 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
-The_Mask- schreef op woensdag 07 maart 2012 @ 20:06:
GK104 is niet oorspronkelijke bedoelde high-end GPU, dus ik zou niet te veel gaan verwachten.
In der daad, het eerste topmodel van nVidia met een 256-bit bus sinds de 7900GTX.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Maar ik betwijfel of nVidia het de GTX680 zal noemen als deze niet GTXx80 waardig presteert.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 16:06
Hij kan zomaar een stuk sneller zijn dan de gtx580.
De serie die later komt (gk100) kunnen ze dan gewoon gtx780 noemen (het lijkt erop dat we daar nog wel even op moeten gaan wachten).

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
vergeet niet dat nvidia in het verleden vrij inefficient geweest is met bandbreedte invergelijking met AMD. Misschien hebben ze nu gewoon zwaar geoptimaliseerd?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
mitsumark schreef op woensdag 07 maart 2012 @ 21:55:
De serie die later komt (gk100) kunnen ze dan gewoon gtx780 noemen (het lijkt erop dat we daar nog wel even op moeten gaan wachten).
Dit dus, de high-end lijkt nog niet echt te komen, misschien pas net voor/na de eerste HD8000 kaarten, dus kan nVidia ook weer naar de GTX700 serie. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
Zal me niet verbasen inderdaad, wel een beetje jammer vond 660 of 670 nog wel prima, maar 680 noemen en dan maar 780 gebruiken voor de high ends is een beetje sneaky

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 16:06
Waarom zou een gk104 met 7970 prestaties en verbruik niet high-end zijn?
(ik weet niet of hij zover komt, maar men spreekt er lovend over)

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
mitsumark schreef op woensdag 07 maart 2012 @ 23:31:
Waarom zou een gk104 met 7970 prestaties en verbruik niet high-end zijn?
(ik weet niet of hij zover komt, maar men spreekt er lovend over)
Al heeft hij HD7870 prestatie', als hij gemiddeld niet lager dan een GTX580 scoort vind ik het prima te verantwoorden.

Acties:
  • 0 Henk 'm!

Verwijderd

Toettoetdaan schreef op donderdag 08 maart 2012 @ 00:10:
[...]

Al heeft hij HD7870 prestatie', als hij gemiddeld niet lager dan een GTX580 scoort vind ik het prima te verantwoorden.
Vind je? Het zou toch van de zotte zijn als de 'opvolger' van de GTX580 straks opeens 5-10% sneller is? Dan zou ik het sowieso een GTXx80 naam onwaardig vinden.
Zou hetzelfde zijn als de HD7970 maar 10% sneller was geweest dan de HD6970, dan had iedereen toch ook hardop gelachen?
Nee, gewoon GTX670 noemen ofzo, kunnen ze daarna nog GTX670 Ti, GTX680, GTX690 erin gooien. Dat dat dan een half jaar later gebeurd zou ik (qua naamgeving) niet erg vinden (wel dat het erg lang gaat duren).

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is met de HD68XX/HD69XX ook gebeurd ten opzichte van een generatie eerder en daar miepten ook maar een paar mensen over :)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15:00

XanderDrake

Build the future!

^ zolang nVidia niet bewijst dat het ook anders kan, zullen er ook maar weinig mensen over miepen :)

Ik hoop ook echt dat de GK104 meer een GTX670 (non-Ti) of zelfs GTX660 Ti is. Waarom? Alleen maar logisch, met zijn kleinere formaat en 256bit bus valt ie veel meer in lijn als GTX 560 Ti vervanger dan vervanger van de GTX 570. Ik verwacht écht nog een grotere chip voor de ultra-high end.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

En ik denk dat die ook wel komt. (Glazenbol laat me dat zien :P)

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

  • Pykow
  • Registratie: Augustus 2007
  • Laatst online: 17-09 11:11

Pykow

Angelo OTR

ik wil binnen 3 maanden een nieuwe pc gaan bouwen en zit nu alleen nog maar te wachten op de GTX660ti
Momenteel heb ik een GTX460 en die draait uitstekend, alleen kan ik BF3 niet op ultra krijgen en high gaat maar net.

er is alleen nog niet veel bekend over de kaart.
prestaties/prijs verhouding vindt ik belangrijk.
ik ben zelf niet echt een grafisch gericht persoon, want ik ga liever voor een goede 60FPS dan een grafische mooie game. maar als ik een nieuwe pc ga samenstellen, dan moet ik er wel weer een tijd mee vooruit kunnen

Angelo NL / Global Cargo VTC


Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

Dan moet je goed nadenken over de componenten. Maar ik denk dat je zowel als performance als grafische met 660GTX wel goed zit. Hangende de specs of course!

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Verwijderd schreef op donderdag 08 maart 2012 @ 01:26:
[...]
Vind je? Het zou toch van de zotte zijn als de 'opvolger' van de GTX580 straks opeens 5-10% sneller is? Dan zou ik het sowieso een GTXx80 naam onwaardig vinden.
9800GTX?

Als ie 10% sneller is maar het verbruik is >30% minder, dan hebben ze nu even een kleine upgrade, maar zitten ze in de toekomst wel niet met hun high-end single-GPU kaart iedere keer aan het limiet van de PCI-E specs. Door de hoge verbruiksstandaard die met de GTX480 (en GTX580) is gezet, zitten ze nu met het probleem dat iedere high-end kaart zoveel moet verbruiken, want anders kunnen ze niet genoeg winst t.o.v. de vorige lijn te voorschijn toveren.

Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

Maar ze gaan toch die nieuwe 28NM toepassen???? Zuiniger en meer prestatie

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
En dus? Het is best lastig om 40% meer performance te halen met een daling van het verbruik van laten we zeggen 20% (240 vs 300W). Als ze weer een high-end met 300W aan verbruik zouden maken, ga je ook wel de 40-60% prestatie winst halen, maar als je niet iedere keer aan de PCI-E max wilt zitten, zul je ooit een keer bij een generatie switch aan performance winst moeten inleveren. Misschien willen ze dat wel niet, maar een hoog verbruik heeft meer gevolgen dan alleen een hogere energie rekening.

[ Voor 13% gewijzigd door Paprika op 08-03-2012 10:11 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Als het waar is dat de Hot clocks blijven en de shaders worden opgeschroefd naar 1536 wordt het een compleet gekkenhuis kan ik je vertellen... echt wel dik meer dan 60% t.o.v 580.

Dan heb je in feite 3x zo veel shaders op GTX 480 snelheid dan haal je echt wel extreem hoge fps.. met name in crysis 1 ga je dit merken.. daar haal ik nog steeds 35/50 fps gemiddeld met een GTX 580 op 930 ;) en 16xaa etc.

Hoe kom je aan 40/60%?....... met 1536 shaders kan je dat wel vergeten iig.
http://nl.hardware.info/e...0-specifications-are-here

[ Voor 58% gewijzigd door A87 op 08-03-2012 10:22 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Lias schreef op donderdag 08 maart 2012 @ 10:19:
Als het waar is dat de Hot clocks blijven en de shaders worden opgeschroefd naar 1536 wordt een een compleet gekkenhuis kan ik je vertellen... echt wel dik meer dan 60% t.o.v 580.

Dan heb je in feiet 3x zo veel shaders op GTX 480 snelheid dan haal je echt wel extreem hoge fps.. met name in crysis 1 ga je dit merken
Dus jij hoopt op 300% de shaders op 67% de die-size en afgaand op je eerdere posts ook met 150-200% de bandbreedte? Hate to burst your bubble, maar dat is technisch gezien simpelweg onmogelijk, tenzij Nvidia de shaders en memory controllers van de grond af heeft ontworpen en daarmij een technologische vernieuwing heeft doorgevoerd waardoor alles ineens half zo groot gemaakt kan worden. 1536 SP + hotclock is sowieso al niet mogelijk - zelfs op de GF110 die-size (dat hotclock gedeelte maakt de transistors iets groter), laat staan in combinatie met de rest. Daar moet Nvidia heel wat leuks uit de hoge hoed voor toveren, met name dat nieuwe ontwerp van de shaders (wat betekent dat je qua performance helemaal niets kunt afleiden uit de performance van eerdere kaarten).

Edit: ik heb het hierboven uiteraard over hetzelfde shader ontwerp als nu. 1536 stuks daarvan passen simpelweg niet.

[ Voor 10% gewijzigd door Werelds op 08-03-2012 10:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op donderdag 08 maart 2012 @ 09:38:
[...]

9800GTX?

Als ie 10% sneller is maar het verbruik is >30% minder, dan hebben ze nu even een kleine upgrade, maar zitten ze in de toekomst wel niet met hun high-end single-GPU kaart iedere keer aan het limiet van de PCI-E specs. Door de hoge verbruiksstandaard die met de GTX480 (en GTX580) is gezet, zitten ze nu met het probleem dat iedere high-end kaart zoveel moet verbruiken, want anders kunnen ze niet genoeg winst t.o.v. de vorige lijn te voorschijn toveren.
Tja, de 9800GTX was ook een zozo kaart naar mijn mening. En die werd ook niet ontvangen met superlatieven...

En tja, misschien moeten ze zich herpositioneren voor de grote van de chip, maar een GTX-x80 kaart die niet sneller is dan de snelste AMD zal denk ik niet top ontvangen worden.
Het is wel zo dat ze qua die-size t.o.v. performance wel een heeeel stuk effcienter worden, want van ~530mm² naar 340mm² en dan ~5-10% sneller is een grote stap voorwaats. Maar ik zou het gewoon erg apart vinden als ze 'm x80 noemen.

@Lias, de shaders zullen anders werken (simpeler) dan de vorige en je kan dus niet zeggen dat de shaders simpelweg verdrievoudigt zijn en dat de performance dus vergelijkbaar is met 3x GTX580.

Hele hotclocks verhaal was toch sowieso van de tafel? (volgens de geruchten dan...)

En zoals werelds al zegt, met een 256 bit geheugenbus gaat zo'n kaart dus nooit >60% sneller zijn. Onmogelijk, of ze hebben iets revolutionairs ontworpen.

[ Voor 8% gewijzigd door Verwijderd op 08-03-2012 10:27 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op donderdag 08 maart 2012 @ 10:25:
Maar ik zou het gewoon erg apart vinden als ze 'm x80 noemen.
Als de GF104 de meest snelle GPU is die je kan leveren en de snellere GPU nog een hele tijd op zich laat wachten is het een hele logische stap in nVidia's opzicht, als je kijkt naar het verleden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Verwijderd schreef op donderdag 08 maart 2012 @ 10:25:
[...]
Tja, de 9800GTX was ook een zozo kaart naar mijn mening. En die werd ook niet ontvangen met superlatieven...
Afbeeldingslocatie: http://tpucdn.com/reviews/Zotac/GeForce_9800_GTX/images/perfrel.gif

Zo erg zal het dit keer vast niet zijn.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
In Battlefield 3 soll die GeForce GTX 680 rund 10 Prozent schneller sein als die AMD Radeon HD 7970.
Van die Duitse website.

Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

Ja, daar staat meestal goede informatie op.
Ik kijk daar ook altijd

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
http://www.techpowerup.co...This-Month-etc.-etc..html
Korte vertaling voor zij die geen Duits kunnen (en als je beide niet kunt, dan moet je denk ik even terug naar school :P).
Lastly, GK110, the crown-jewel of the Kepler GPU family, will feature as many as 2,304 CUDA cores. There's absolutely no word on its whereabouts. The fact that NVIDIA is working on a dual-GK104 graphics card indicates that we won't see this chip very soon.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:59

Tomas Hochstenbach

Redacteur componenten
Jup, en onder die zin staat dat de 3DMark 11-score 10% lager is dan die van de HD 7970. Dat geeft dus aan dat ze qua prestaties ongeveer gelijk zijn (lees: niet overal 10% sneller), wat een totaal ander beeld geeft dan alleen citeren dat 'ie in Battlefield 3 10% sneller is. Dan kan Battlefield de slechtste benchmark zijn, terwijl de kaart gemiddeld misschien wel 20% sneller is. Dat is dus niet zo.

[ Voor 13% gewijzigd door Tomas Hochstenbach op 08-03-2012 17:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Tja als je enkel 3DMark draait kun je beter een AMD kaart kopen, daar die daar op het moment het sterkste zijn tegenover vergelijkbare nVidia kaarten.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
In Battlefield 3 is de 7970 geen held, vandaar dat ik juist die quote pakte... Al vind ik 3DMark waardeloos.

[ Voor 16% gewijzigd door Paprika op 08-03-2012 17:18 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:59

Tomas Hochstenbach

Redacteur componenten
Paprika schreef op donderdag 08 maart 2012 @ 17:17:
In Battlefield 3 is de 7970 geen held, vandaar dat ik juist die quote pakte... Al vind ik 3DMark waardeloos.
Het is geen gamebenchmark, maar geeft wel een idee van wat je zou kunnen verwachten. Wat ik nu verwacht:
+- zelfde prestaties
+- zelfde prijs (evt. na pricedrop AMD)
CUDA vs. Eyefinity
Leverproblemen NVIDIA, HD 7970 loopt inmiddels vlekkeloos

Twee goed aan elkaar gewaagde videokaarten, hoewel NVIDIA een paar maandjes later komt. Eindelijk weer eens wat vuurwerk in de high-endmarkt.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De vraag is wat de die size van de chip gebruikt op de GTX680 is. Dat die sneller is dan de HD7970 moet wel anders is nVidia echt slecht bezig.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Paprika schreef op donderdag 08 maart 2012 @ 17:17:
In Battlefield 3 is de 7970 geen held, vandaar dat ik juist die quote pakte... Al vind ik 3DMark waardeloos.
de 7970 is anders wel 25% sneller in Bf3 dande 580. Wat dus net op het gemiddelde prestatie verschil zit.


10% op wat? welke resolutie.? en op welke settings.

idd 3dmark is waardeloos.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:59

Tomas Hochstenbach

Redacteur componenten
madmaxnl schreef op donderdag 08 maart 2012 @ 18:41:
De vraag is wat de die size van de chip gebruikt op de GTX680 is. Dat die sneller is dan de HD7970 moet wel anders is nVidia echt slecht bezig.
320 tot 360 mm2. Is al vrij precies voor pre-launch.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
die unreal engine 4* op 1 kepler kaart tegenover 3 580...

dat is pas interessant ben daar toch wel benieuwd naar welke kaart dat dan is

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Dat heeft niets met de kracht te maken van Kepler, maar alles met het feit dat toen er 3 Fermi's gebruikt werden, de engine nog geheel geen optimalisaties had. Het gaat overigens ook over UE4 als ik me niet vergis. Vandaag de dag kan een GTX580 het ook een stuk beter dan toen het getoond werd met 3 580's.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
3 GTX580s t.o.v. 1 kaart zal inderdaad iets software-matigs zijn en echt niet komen door de hoeveelheid hardware-matige power die nVidia nu tot haar beschikking heeft.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Jasper 99 schreef op vrijdag 09 maart 2012 @ 00:17:
die unreal engine 3 op 1 kepler kaart tegenover 3 580...

dat is pas interessant ben daar toch wel benieuwd naar welke kaart dat dan is
Niet vergeten dat het een schowcase is en geen benchmark. Wat de niet gepubliceerde resultaten met niet gepubliceerde settigns onvergelijkbaar maakt.

Van wat ik eruit opmaakte draaide de 580 demo met MSAA en de kepler demo met FXAA wat een gigantisch verschil maakt in processing en memory verbruik (iets waar de 580 dan nog minder van heeft ook).

Het is alvast veel belovend! (vind wel dat de FXAA3 duidelijk slechter ogen dan de MSAA die zelfs ook ondermaats geimplementeerd is)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Devpartner schreef op donderdag 08 maart 2012 @ 18:53:
[...]


de 7970 is anders wel 25% sneller in Bf3 dande 580. Wat dus net op het gemiddelde prestatie verschil zit.


10% op wat? welke resolutie.? en op welke settings.

idd 3dmark is waardeloos.
Een game testen ook. Want het is overal bekend dat BF3 nog lang niet optimaal presteert op AMD kaarten. Het zou me niets verbazen als AMD nog 10-20% er bij krijgt met een driver update. Maar inderdaad 3DMark zegt ook weinig.

Desal niet te min is het een mooie prestatie. Zeker als de chip zuiniger en kleiner zou zijn. Maar dat moeten we ook nog afwachten. In dat geval heeft nVidia misschien geen GK110 nodig. Al zullen de nVidia fans dan wel teleurgesteld zijn met de performance winst van GTX580 -> GK104. En dat hij maar +- zo snel is als de HD7970.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Astennu schreef op vrijdag 09 maart 2012 @ 09:31:
[...]


Een game testen ook. Want het is overal bekend dat BF3 nog lang niet optimaal presteert op AMD kaarten. Het zou me niets verbazen als AMD nog 10-20% er bij krijgt met een driver update. Maar inderdaad 3DMark zegt ook weinig.
Serieus? Weer het driver verhaal. 20%... Ik denken dat AMD zijn drivers nu wel redelijk in orde heeft m.b.t. de performance.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
Paprika schreef op vrijdag 09 maart 2012 @ 08:10:
3 GTX580s t.o.v. 1 kaart zal inderdaad iets software-matigs zijn en echt niet komen door de hoeveelheid hardware-matige power die nVidia nu tot haar beschikking heeft.
True, ik snap natuurlijk dat een kaart niet de kracht van 3 x 580 gaat hebben. Echter lijkt het me ook apart dat het zo goed geoptimaliseerd is dat er opeens nog maar 1 kaart nodig zou zijn. MSAA vs FXAA maakt wel weer uit e.d. maar ik vond het toch wel redelijk interessant het blijkt dus wel dat een kepler kaart blijkbaar instaat is om zo'n high end engine te runnen, maar het is inderdaad nog maar afwachten!

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Jasper 99 schreef op vrijdag 09 maart 2012 @ 10:20:
[...]
True, ik snap natuurlijk dat een kaart niet de kracht van 3 x 580 gaat hebben. Echter lijkt het me ook apart dat het zo goed geoptimaliseerd is dat er opeens nog maar 1 kaart nodig zou zijn. MSAA vs FXAA maakt wel weer uit e.d. maar ik vond het toch wel redelijk interessant het blijkt dus wel dat een kepler kaart blijkbaar instaat is om zo'n high end engine te runnen, maar het is inderdaad nog maar afwachten!
FXAA alleen al kan een 40-50% winst betekenen afhankelijk van de situatie. Zeg dat ze verder nog een 15% uit optimalisaties hebben kunnen halen (dit is waarschijnlijk meer; waarschijnlijk zitten er gewoon aparte codepaths per architectuur in). Dan schiet het al aardig op.

Het grote punt is gewoon dat we geen flauw benul hebben met wat voor instellingen en assets beide demo's gemaakt zijn. For all we know draaide hij vorig jaar op 1080p60 en nu op 720p30 - met het blote oog zie je dat niet meteen, zeker niet in de omstandigheden op zo'n conventie. Niemand heeft ook maar iets van deze dingen kunnen zien of testen. Ze hebben wellicht ook andere textures gebruikt, andere reflection maps - ga zo maar door. Je zou beide demo's letterlijk naast elkaar moeten zetten om dit te kunnen zien.

Iedereen die op basis van deze demo zomaar aanneemt dat Kepler een superchip wordt is gewoon dom, je hebt namelijk geen enkel feit wat betreft performance.

Daarnaast geloof ik die hele 200W PSU claim voor geen seconde. Je zit dan al meteen naar een 35W CPU te kijken en een 150W GPU - nog meer bewijs dat deze demo *niet* dezelfde is als vorig jaar.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Jasper 99 schreef op vrijdag 09 maart 2012 @ 10:20:
het blijkt dus wel dat een kepler kaart blijkbaar instaat is om zo'n high end engine te runnen.
Daarvoor moet je Epic bedanken en niet nVidia. Ze werken al bijna 10 jaar aan die engine en het is hun taak om te zorgen dat het compatible is met de huidige standaarden (zowel hardware-matisch (CPU/GPU etc) als software-matisch (Frameworks etc). Als developer voor die engine ben ik eigenlijk ook meer geïnteresseerd in de performance van voorgaande series dan kaarten die nog moeten komen. We kunnen wel leuk tot de max gaan van de sterkste videokaarten die op 't moment van de release voor consumenten beschikbaar zijn, maar helaas blijkt dat meer dan 95% van de gebruikers alles behalve de meest recente hardware bezit met ingehakte performance als gevolg. Lang leve low en medium settings. :+
De echte grafische praal zullen we dan ook pas eind volgend jaar te zien krijgen ben ik bang. Tenzij iemand besluit Crysis 1 V2 te maken, waarbij alleen de meest extreme systemen gebruik weten te maken van de nieuwste features van de engine (op de manier waarop ze bedoelt zijn). Iets dat je veel geld kost, want je besteedt juist extra veel tijd in het verkennen van in z'n geheel nieuwe features en mogelijkheden en dan moet je ook nog met beperkte kennis van de toekomst iets weten te waarborgen dat toch echt met hardware uit de toekomst optimaal zal lopen en dan ook geoptimaliseerd is. Wat overigens best lastig is:
Sweeney gave a speech at PoPL06 (the Symposium on Principles of Programming Languages) that described aspects of how the Unreal Engine 3 worked at the time and "what we would like to write" in the future. He predicted the next generation of games consoles would arrive in 2009, at which time game designers would work with CPUs that had 20 or more cores, 80 or more hardware threads, and more than a teraflops of computing power
Mind you:
Samaritan isn't even hitting the limit of UE3.
Dus waarschijnlijk is UE5 alweer klaar voordat je de volledige power van UE4 te zien krijgt.

Ik dwaal te veel af voor dit topic :+.

[ Voor 27% gewijzigd door Paprika op 09-03-2012 10:45 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
Werelds schreef op vrijdag 09 maart 2012 @ 10:35:
[...]


Iedereen die op basis van deze demo zomaar aanneemt dat Kepler een superchip wordt is gewoon dom, je hebt namelijk geen enkel feit wat betreft performance.
Ik weet niet of dit direct aan mij gericht is ? Anyhoe ik heb niet gezegd dat het gelijk een superchip zou moeten worden, wel dat ik het een interessant gegeven vind, verder is niet duidelijk welke kepler kaart ze ervoor gebruiken uit het bericht. Maar een iets vriendelijkere toon kan je ook wel hebben.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, dat is niet naar jou gericht, jij neemt ook niet zomaar aan dat het zo is (excuses als dat zo overkwam). Er zijn er echter velen op allerlei fora die ik wel zulke dingen zie beweren :)

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
:) daar heb je inderdaad gelijk er zijn wel veel mensen die dingen klakkeloos aannemen en natuurlijk gewoon sowieso te hoge verwachtingen hebben. Maar we gaan het hopenlijk volgende maand zien wat de GK104 in huis heeft ik verwacht niet te veel maar rond de 7970 mag je toch wel hopen, maar het lijkt er ook een beetje op dat nvidia misschien op andere punten wil concureren voor de verandering op prijs en power consumptie misschien eens !

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
madmaxnl schreef op vrijdag 09 maart 2012 @ 10:08:
[...]


Serieus? Weer het driver verhaal. 20%... Ik denken dat AMD zijn drivers nu wel redelijk in orde heeft m.b.t. de performance.
Niet als je kijkt naar BF3. Daar lopen ze nog wel achter.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16-09 15:35

edward2

Schieten op de beesten

dahakon schreef op vrijdag 09 maart 2012 @ 05:51:
Dat heeft niets met de kracht te maken van Kepler, maar alles met het feit dat toen er 3 Fermi's gebruikt werden, de engine nog geheel geen optimalisaties had. Het gaat overigens ook over UE4 als ik me niet vergis. Vandaag de dag kan een GTX580 het ook een stuk beter dan toen het getoond werd met 3 580's.
Dit dus. Die GK104 is echt net 3 maal sneller iig. Verder ontbreken de settings etc.

Via de UDK zijn de laaste features van de UE3 in een demo te renderen en dat is alles behalve zwaar al is dat natuurlijk weer niet representatief voor die Samaritan demo. (kan iemand die eens lekken ;))

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 15:45
edward2 schreef op vrijdag 09 maart 2012 @ 15:54:
[...]


Dit dus. Die GK104 is echt net 3 maal sneller iig. Verder ontbreken de settings etc.

Via de UDK zijn de laaste features van de UE3 in een demo te renderen en dat is alles behalve zwaar al is dat natuurlijk weer niet representatief voor die Samaritan demo. (kan iemand die eens lekken ;))
Als het goed is wordt de gk104 dus niet eens zoveel sneller dan een 580, echter bij dit zeggen ze niet om welke nvidia kaart het gaat eventueel!! is dit dus een prototype van de hogere serie, maarja je moet inderdaad met van alles rekening houden!

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Waar je echter wel gewoon rekening mee moet houden is dat NVidia niet de high-end kaart uit gaat brengen die ze uit hadden willen brengen om met AMD te gaan concurreren. Als ze een kaart uitbrengen die de concurrentie met de HD7970 van AMD aankan zetten ze naar mijn idee een flinke prestatie neer.

Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

dcm360 schreef op vrijdag 09 maart 2012 @ 16:37:
Waar je echter wel gewoon rekening mee moet houden is dat NVidia niet de high-end kaart uit gaat brengen die ze uit hadden willen brengen om met AMD te gaan concurreren. Als ze een kaart uitbrengen die de concurrentie met de HD7970 van AMD aankan zetten ze naar mijn idee een flinke prestatie neer.
AMD is altijd net iets eerder. :Y

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

  • Pukker
  • Registratie: Mei 2008
  • Laatst online: 12-07-2024
Zal het niet een 670ti zijn die ongeveer gelijk is met de 7970 zodat de GTX680 2304 cuda cores heeft want de 670ti heeft er waarschijnlijk 1536

http://videocardz.com/309...force-gtx-670-ti-pictured

met twee 6-pin stroom connectors in ieder geval meer performance per watt vergeleken met de 7970

AMD :w

[ Voor 20% gewijzigd door Pukker op 09-03-2012 17:03 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 16:06
Pukker schreef op vrijdag 09 maart 2012 @ 16:59:
Zal het niet een 670ti zijn die ongeveer gelijk is met de 7970 zodat de GTX680 2304 cuda cores heeft want de 670ti heeft er waarschijnlijk 1536

http://videocardz.com/309...force-gtx-670-ti-pictured

met twee 6-pin stroom connectors in ieder geval meer performance per watt vergeleken met de 7970

AMD :w
Noemen ze dit tegenwoordig nieuws?
"What you see is probably the first Kepler graphics card pictured with a reference cooler. Picture suggest that what we see is GeForce GTX 670 Ti, most likely based on GK104 graphics processing unit. What it means, the first card to be released on Kepler gpu will be GTX 670 Ti, not GTX 680."


Voor de performance per watt moet je ook de performance weten 8)7

Daarnaast heeft de 7970 ook voldoende aan 2x 6pins aangezien deze minder dan 200W verbruikt (dus zeker minder dan 225W).
6+8 is dus niet nodig, maar komt de overklokbaarheid wel ten goede.

In het geval dat dit niet de high-end wordt, wordt het de 'tegenstander' van de 7850/70, waarvan de eerste zelfs maar 1x 6pins heeft (en de 2e zou er ook genoeg aan hebben).

Nvidia :w

[ Voor 32% gewijzigd door mitsumark op 09-03-2012 17:28 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Jammer, je slot toont aan dat je post nergens is op gebaseerd. 't Zou leuk zijn voor het eerst sinds jaren een nVidia kaart te zien in de top 5. Eindelijk de optie om 3 schermen aan te sturen zonder een 1000 watt (en dus eindelijk een reden weer "groen" te kopen).

[ Voor 7% gewijzigd door Paprika op 09-03-2012 17:24 ]


Acties:
  • 0 Henk 'm!

  • Pukker
  • Registratie: Mei 2008
  • Laatst online: 12-07-2024
Paprika schreef op vrijdag 09 maart 2012 @ 17:22:
[...]

Jammer, je slot toont aan dat je post nergens is op gebaseerd. 't Zou leuk zijn voor het eerst sinds jaren een nVidia kaart te zien in de top 5. Eindelijk de optie om 3 schermen aan te sturen zonder een 1000 watt voeding.
"je slot toont aan dat je post nergens is op gebaseerd" :+

de videokaart waar we het nu over hebben is waarschijnlijk de GTX670ti met ongeveer de zelfde performance als de 7970 maar 2 6-pin stroom connectors en een kleinere die size ->
dus waarschijnlijk meer performance per watt ;) ...

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 16:06
Heb je daar game benchmarks en power consumption resultaten bij?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Nu online
Pukker schreef op vrijdag 09 maart 2012 @ 17:28:
[...]


"je slot toont aan dat je post nergens is op gebaseerd" :+

de videokaart waar we het nu over hebben is waarschijnlijk de GTX670ti met ongeveer de zelfde performance als de 7970 maar 2 6-pin stroom connectors en een kleinere die size ->
dus waarschijnlijk meer performance per watt ;) ...
Je bevestigt mijn punt door daarmee aan te nemen dat p/w beter zal zijn.

Acties:
  • 0 Henk 'm!

  • Pukker
  • Registratie: Mei 2008
  • Laatst online: 12-07-2024
mitsumark schreef op vrijdag 09 maart 2012 @ 17:30:
Heb je daar game benchmarks en power consumption resultaten bij?
beetje naar boven scrollen... ;) staan nog een paar posts

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Pukker schreef op vrijdag 09 maart 2012 @ 17:35:
[...]


beetje naar boven scrollen... ;) staan nog een paar posts
Ja daar staan posts maar gamebenchmarks? die staan er niet, niemand weet namelijk precies de performance van GK104. :/
Ook het verbruik weet nog niemand, dat een prototype 2x 6-pins heeft zegt nog helemaal niks.

[ Voor 5% gewijzigd door Redblader op 09-03-2012 17:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@Pukker; Kom, niemand weet het verbruik en 2x 6-pins zegt niet dat de kaart per se zuiniger moet zijn dan een kaart met 6 + 8-pins. Het is misschien een logische aanname, maar zeker weten doen we het niet.

Daarbij weten we nog veel te weinig van de performance, dus uitspraken over performance/watt kunnen we nu gewoon nog niet doen.

Wat voor Nvidia wel een grote stap lijkt te worden is performance per mm² diesize. Laten we niet vergeten dat Nvidia met de GTX580 ~50% meer diesize nodig had om ~15% sneller te zijn. Dat ze nu een kaart kunnen maken met ~5% kleinere diesize (nog niet zeker) en misschien de performance van de HD7970 kunnen benaderen is voor Nvidia grote winst.

EDIT; Al blijf ik erbij dat een GTXx80 benaming dan niet top vind. Maar het ziet er nu dus naar uit dat dit toch een GTX670 Ti wordt.

[ Voor 9% gewijzigd door Verwijderd op 09-03-2012 17:43 ]

Pagina: 1 ... 18 ... 43 Laatste