Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Verwijderd
Ik denk niet echt dat het een probleem is. Waarom niet. Nou dat is omdat het meeste geld met goedkopere kaarten binnenkomt. De hoere modellen zullen veel minder opbrengen in korte tijd.Noel schreef op zondag 08 januari 2012 @ 11:21:
Hoera, entry level. Zit echt niemand op te wachten. Entry level troep genoeg op stock bij leveranciers en fabrikanten. Timing voor product gaat sowieso richting Q2.
Feit dat AMD een top to bottom launch doet (en ja, met voldoende launch voorraden) en nVidia bottom to top doet is echt een probleem. Voor nVidia dan.
Omdat er telkens onterecht negative dingen en oude dingen worden gezegd, die eingelijk al maanden achter elkaar worden gezegt. Op den duur gaan mensen zich daar aan ergeren en weten het wel,dahakon schreef op zondag 08 januari 2012 @ 10:15:
[...]
Totaal overbodige toevoeging die alleen maar kwaad bloed zet. Waarom moet dat nu?...
Ik ga ook niet 20 keer per week zeggen de de 7970 een paperlaunch is als voorbeeld.
[ Voor 33% gewijzigd door Verwijderd op 08-01-2012 12:15 ]
Verwijderd
Dus niet alle wij hebben daar een probleem mee
Verwijderd
[ Voor 9% gewijzigd door Verwijderd op 08-01-2012 12:31 ]
Er is dan toch echt 1 vraag die beantwoord moet worden. Hoe moet nVidia een twee keer zo snel product maken als de GTX580, zonder daarbij alle grenzen te overschrijden die er zijn? Als je met het antwoord G80 (8800Ultra) aankomt, dan kun je je beter inlezen in de materie omtrend die chip.Verwijderd schreef op zondag 08 januari 2012 @ 12:30:
Ik heb er trouwens sowiso geen probleem mee want ik wel een 2 keer zo snel product zien. Als dat dan ook langer moet duren so be it. Veel mensen hebben toch al wel spul wat sterk genoeg is, en de games van tegenwoordig gaat zo traag mee met de gpu ontwikkeling. Veel mensen kunnen dus nog makkelijk wachten, ons even niet meegerekend, want ons is maar een hele kleine groepje van 99,999% bewijze van.
De 8800Ultra was veel sneller dan de 7900GTX, zoveel is waar. MAAR, de 8800Ultra had een TDP die meer dan twee keer zo groot was (84Watt vs 177Watt), Had bijna 2.5 keer zoveel transistors (~278 vs 681 miljoen) nodig en was ook veel groter. Bijden zijn gemaakt op 90nm, dus kun je ook nog stellen dat nVidia al volledige ervaring had met het proces, zodat ze optimaal gebruik konden maken van dat proces.
Een GTX780 (of welk nummer het ook mag krijgen) zou daarmee richting de 7.5 miljard transistors gaan, een TDP krijgen van over de 550Watt (op 40nm) en een diesize van over de 1100mm2. Met een shrink naar 28nm kun je dan weer wat terug winnen, maar TDP en diesize blijven in de onrealistische gebieden hangen.
Verder is het eigenlijk helemaal niet echt handig om een budget chip als eerste op de markt te brengen met een nieuw proces. Je leert er minder van dan met grote chips, yields zijn sowieso nog altijd laag vergeleken met een volwassen proces, marges op dergelijke chips zijn laag, waardoor de veel hogere wafer-prijs en lagere yields veel moeilijker op zijn te vangen en je kunt nooit en te nimmer voldoen aan de vraag van dergelijke chips, omdat het aantal waferstarts veel te beperkt is. Er is nog wel veel meer te bedenken, maar bovenstaande is eigenlijk best al wel duidelijk.
Ik ga er wel van uit dat ze GF104/GF114 als basis nemen, aangezien dat toch hun meest succesvolle chip was (en naar mijn mening ook een betere dan GF100/GF110). Maar voor 100% winst op basis daarvan zie ik niet zo 1-2-3 zitten, maar wellicht krijgen we weer zo'n afgrijselijk monster als de GTX 280 op 576mm^2. Het zal in dat geval sowieso geen kleine chip worden
Mee eens ^^dahakon schreef op zondag 08 januari 2012 @ 12:42:
[...]
Er is dan toch echt 1 vraag die beantwoord moet worden. Hoe moet nVidia een twee keer zo snel product maken als de GTX580, zonder daarbij alle grenzen te overschrijden die er zijn? Als je met het antwoord G80 (8800Ultra) aankomt, dan kun je je beter inlezen in de materie omtrend die chip.
De 8800Ultra was veel sneller dan de 7900GTX, zoveel is waar. MAAR, de 8800Ultra had een TDP die meer dan twee keer zo groot was (84Watt vs 177Watt), Had bijna 2.5 keer zoveel transistors (~278 vs 681 miljoen) nodig en was ook veel groter. Bijden zijn gemaakt op 90nm, dus kun je ook nog stellen dat nVidia al volledige ervaring had met het proces, zodat ze optimaal gebruik konden maken van dat proces.
Een GTX780 (of welk nummer het ook mag krijgen) zou daarmee richting de 7.5 miljard transistors gaan, een TDP krijgen van over de 550Watt (op 40nm) en een diesize van over de 1100mm2. Met een shrink naar 28nm kun je dan weer wat terug winnen, maar TDP en diesize blijven in de onrealistische gebieden hangen.
Ik denk dat je een parallele verhouding gaat zien tussen HD 6970 --> HD 7970 en GTX 580 --> GTX 680, namelijk zo'n 30% winst. Alles wat daar boven ligt is bonus voor nVidia; alles wat er onder ligt is een probleem. Persoonlijk denk ik dat de winst voor nVidia iets groter gaat zijn, omdat zij hun coprocessor architectuur al met Fermi hebben ingevoerd en de relatieve performance verlies als GPU al hebben moeten nemen. Ik reken op zo'n 40% winst voor de GTX 680.
Tja, voor "leren" is het een beetje laat. Alle GPU's zouden al in hun uiteindelijke stepping moeten zitten. Wellicht kan TSMC een beetje de productietechnieken tweaken, maar voor echte verbeteringen, zoals die geprobeerd zijn door ATi met de RV740, zie ik niet gebeuren.Verder is het eigenlijk helemaal niet echt handig om een budget chip als eerste op de markt te brengen met een nieuw proces. Je leert er minder van dan met grote chips, yields zijn sowieso nog altijd laag vergeleken met een volwassen proces, marges op dergelijke chips zijn laag, waardoor de veel hogere wafer-prijs en lagere yields veel moeilijker op zijn te vangen en je kunt nooit en te nimmer voldoen aan de vraag van dergelijke chips, omdat het aantal waferstarts veel te beperkt is. Er is nog wel veel meer te bedenken, maar bovenstaande is eigenlijk best al wel duidelijk.
Ik denk dat het marketing-technisch nog steeds voordelig is je kanon eerst op de markt te zetten. Al het andere beschouw ik dus als een noodgreep. Ik snap het wel, ik denk dat het beter is je chips die klaar zijn maar beter op de markt kan zetten, als je concurrent je voor is geweest. Maar nog steeds, je maakt het je marketingafdeling wel lastig...
License to use this text for use in LLM-related products and services can be purchased for €1.000
Verwijderd
Die vraag kunnen wij niet weten, dat moeten we gaan zien van nvidia als het zo ver is.dahakon schreef op zondag 08 januari 2012 @ 12:42:
[...]
Er is dan toch echt 1 vraag die beantwoord moet worden. Hoe moet nVidia een twee keer zo snel product maken als de GTX580, zonder daarbij alle grenzen te overschrijden die er zijn? Als je met het antwoord G80 (8800Ultra) aankomt, dan kun je je beter inlezen in de materie omtrend die chip.
De 8800Ultra was veel sneller dan de 7900GTX, zoveel is waar. MAAR, de 8800Ultra had een TDP die meer dan twee keer zo groot was (84Watt vs 177Watt), Had bijna 2.5 keer zoveel transistors (~278 vs 681 miljoen) nodig en was ook veel groter. Bijden zijn gemaakt op 90nm, dus kun je ook nog stellen dat nVidia al volledige ervaring had met het proces, zodat ze optimaal gebruik konden maken van dat proces.
Een GTX780 (of welk nummer het ook mag krijgen) zou daarmee richting de 7.5 miljard transistors gaan, een TDP krijgen van over de 550Watt (op 40nm) en een diesize van over de 1100mm2. Met een shrink naar 28nm kun je dan weer wat terug winnen, maar TDP en diesize blijven in de onrealistische gebieden hangen.
Verder is het eigenlijk helemaal niet echt handig om een budget chip als eerste op de markt te brengen met een nieuw proces. Je leert er minder van dan met grote chips, yields zijn sowieso nog altijd laag vergeleken met een volwassen proces, marges op dergelijke chips zijn laag, waardoor de veel hogere wafer-prijs en lagere yields veel moeilijker op zijn te vangen en je kunt nooit en te nimmer voldoen aan de vraag van dergelijke chips, omdat het aantal waferstarts veel te beperkt is. Er is nog wel veel meer te bedenken, maar bovenstaande is eigenlijk best al wel duidelijk.
En andere architectuur zal ook infloed kunnen hebben net zoals een kleinere chip met meer transistors.
Ik geloof dat de niet moet gaan vergelijken met de gtx580. Die 2 keer sneller was ook meer als voorbeeld. 50% zou al mooi zijn.
We zitten u alleen maar te vergelijken met andere kaarten van wat wel en niet mogelijk is.
dahakon doelde erop dat een vooruitgang van 100% bijzonder lastig is en dat we performance winsten die in het verleden met nieuwe generatie's kwamen niet meer kunnen verwachten.Verwijderd schreef op zondag 08 januari 2012 @ 13:04:
[...]
Die vraag kunnen wij niet weten, dat moeten we gaan zien van nvidia als het zo ver is.
En andere architectuur zal ook infloed kunnen hebben net zoals een kleinere chip met meer transistors.
Ik geloof dat de niet moet gaan vergelijken met de gtx580. Die 2 keer sneller was ook meer als voorbeeld. 50% zou al mooi zijn.
We zitten u alleen maar te vergelijken met andere kaarten van wat wel en niet mogelijk is.
Dit omdat de laatste drie/vier generaties het verbruik enorm verhoogd hebben, maar verder dan dat mag niet volgens de PCI-e specificatie's.
Een winst zal dus zitten in de efficiëntie van de architectuur en de vooruitgang van een nieuw procedé.
Natuurlijk zullen we moeten afwachten wat nVidia gaat brengen, maar als je een theoretisch berekening wilt maken van wat mogelijk is, dan is de GTX580 wel een erg goed uitgang's punt.
De GTX580 is een tweede generatie Fermi architectuur en een tweede generatie 40nm chip dus de efficiëntie is optimaal. (GTX560 Ti is eigenlijk nog iets beter, maar wel weer een kleinere chip)
Met de gegevens van het aantal transistors en die-oppervlak van de HD7970 vs HD6970 en de TSMC gegevens aangaande verbruik, kun je zelfs een redelijke schatting maken van hoe een GTX580 er uit zou zien op 28nm.
Om gewoon puur theoretisch te berekenen wat mogelijk is, is dat een heel erg goed uitgangspunt
Verwijderd
[ Voor 36% gewijzigd door Verwijderd op 08-01-2012 14:10 ]
G200 duurde ook lang.Verwijderd schreef op zondag 08 januari 2012 @ 14:06:
Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.
In principe zou Kepler gewoon een doorontwikkeling van Fermi moeten zijn, met een nog sterkere nadruk op GP compute, dus meer DP performance, welke voor de game-wereld niets te bieden heeft. Het kan zijn dat de Hot Clocks gedropped worden, maar dat maakt de architectuur niet direct geheel anders. Het heeft echter wel consequenties. Er zijn vooralsnog weinig redenen om aan te nemen dat Kepler een geheel nieuwe architectuur is, temeer omdat het kostbaar is om elke nieuwe generatie kaarten (ja, GTX4xx en GTX5xx zijn samen slechts 1 generatie in zekere zin) een compleet nieuwe architectuur te maken.Verwijderd schreef op zondag 08 januari 2012 @ 14:06:
Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.
@ Tweaker: waarom? G80 is ook gewoon 3.5 jaar mee gegaan (november 2006, GF100 stamt uit maart 2010 - hoewel die laatste natuurlijk wel 6 maanden te laat was, dus zeg maar 3 jaar).
Wel een beetje saaie basis als je even door de bron links van site naar site springt tot je bij het hoofdartikel bent, zit je weer voor de 1000e keer hier:
http://www.4gamer.net/games/120/G012093/20111124085/
Dat zou betekenen dat die hele set berichten uiteindelijk weer op 't zelfde nieuwtje van november uitkomt (2011/11/26 is die online gezet).
Mind you, softpedia zegt:
Het zijn dus niet hun bronnen, maar gewoon wat bronnen op het internet... niets nieuws dus. Herhaling van oude koek.which according to some sources
[ Voor 14% gewijzigd door Paprika op 08-01-2012 14:49 ]
Dat lijkt zo omdat jij zo (onterecht) overdreven positief bent, de rest is wat realistischer.Verwijderd schreef op zondag 08 januari 2012 @ 12:11:
[...]
Omdat er telkens onterecht negative dingen en oude dingen worden gezegd, die eingelijk al maanden achter elkaar worden gezegt. Op den duur gaan mensen zich daar aan ergeren en weten het wel.
Klopt, maar Fermi is geen slechte architectuur, op papier vind ik het zelfs een erg goede architectuur, alleen komt het er niet zo uit.Verwijderd schreef op zondag 08 januari 2012 @ 14:06:
Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.
Het verbeteren van de zwakke punten van Fermi lijkt mij makkelijker dan een nieuwe architectuur maken en de goede onderdelen van Fermi daarin mee nemen. Aan de andere kant, zou nVidia een bottom-up realease doen als ze Fermi alleen verbeterde?
Zoals de slide's van nVidia aangeven vinden ze performance per watt belangrijk, verder is Fermi niet zo goed voor de yield's gebleken dus ik denk dat we die twee punten in het achterhoofd moeten houden als het gaat om verbeteringen.
Hot clock's komt nu redelijk vaak voorbij en is ook zeker een punt wat zou kunnen veranderen.
Het nut van 'hot clock's' is dat shaders tweemaal zo hard lopen dan de rest, hierdoor bespaar je ruimte en is je chip dus op papier goedkoper. In de praktijk maak je een chip van 1,5Ghz en dat kan wel een kleine hit op je verbruik en yields zijn.
Het kan daar twee kanten op, of ze houden 'Hot clock's' en we krijgen 2GHz chips
Wat performance voorspellen aan de hand van de GTX580 makkerlijker maakt.
Of zou gaan de hele shader structuur omgooien en dan kunnen we helemaal niets voorspellen
De ander mogelijkheid dat ze hot clock's dumpen en de shaders dubbel uitvoeren zie ik niet gebeuren, dan krijg je 500mm² chips in het GTX560 segment.
Gok de die-size van een GeForce GTX 560 Ti 448 maar eens (tip: GTX580 is even groot).Toettoetdaan schreef op zondag 08 januari 2012 @ 15:20:
[...]
De ander mogelijkheid dat ze hot clock's dumpen en de shaders dubbel uitvoeren zie ik niet gebeuren, dan krijg je 500mm² chips in het GTX560 segment.
Al merk je dat ook in de prijs (zeker als je de eerste GTX560 (@ dik gedrukte
GTX560 | GTX560 Ti | GTX560 Ti 448 | GTX570 |
$180 | $220 | $290 | $330 |
[ Voor 30% gewijzigd door Paprika op 08-01-2012 15:31 ]
Haha jah, maar dat is wel een uitzondering.Paprika schreef op zondag 08 januari 2012 @ 15:27:
[...]
Gok de die-size van een GeForce GTX 560 Ti 448 maar eens (tip: GTX580 is even groot).
Dat vind ik net zoiets als een HD6790~255mm² waar de HD[6/5]770~166mm² is.
EDIT: Dat zijn van die rommel-op-maak-kaarten die ze vroeger alleen in Azië verkochten
[ Voor 12% gewijzigd door Toettoetdaan op 08-01-2012 15:36 ]
Haha, ik denk niet dat het zo werkt. Ik denk dat ze de "uncore" gebieden laten meedraaien op shader snelheid, waardoor het begrip "hotclock" komt te vervallen.Toettoetdaan schreef op zondag 08 januari 2012 @ 15:20:
[...]
Het kan daar twee kanten op, of ze houden 'Hot clock's' en we krijgen 2GHz chips![]()
Wat performance voorspellen aan de hand van de GTX580 makkerlijker maakt
Of zou gaan de hele shader structuur omgooien en dan kunnen we helemaal niets voorspellen
De ander mogelijkheid dat ze hot clock's dumpen en de shaders dubbel uitvoeren zie ik niet gebeuren, dan krijg je 500mm² chips in het GTX560 segment.
Uiteraard heeft AMD laten zien dat je op 28 nm iets hogere kloksnelheden kan neerzetten dan op 40 nm. nVidia had altijd een architectuur die de kloksnelheid beperkte, waardoor er voor hen nog wel wat te halen valt op dat gebied. Wellicht hebben ze zich daar op gefocust met Kepler. 1Ghz is zeker haalbaar, daarboven zal het toch snel gaan met het TDP, vrees ik...
License to use this text for use in LLM-related products and services can be purchased for €1.000
Die optie had ik niet overwogen, maar lijkt me ook niet logisch, zolang de uncore(om het maar even zo te noemen) alle shaders bezich kan houden hoeft hij niet sneller te worden, ook gaat de computeperformance niet echt omhoog van een hoger geclockte uncore. (tenzij hij met de huidige clock's niet alle shaders weet bezich te houden)Helixes schreef op zondag 08 januari 2012 @ 15:37:
[...]
Haha, ik denk niet dat het zo werkt. Ik denk dat ze de "uncore" gebieden laten meedraaien op shader snelheid, waardoor het begrip "hotclock" komt te vervallen.
Uiteraard heeft AMD laten zien dat je op 28 nm iets hogere kloksnelheden kan neerzetten dan op 40 nm. nVidia had altijd een architectuur die de kloksnelheid beperkte, waardoor er voor hen nog wel wat te halen valt op dat gebied. Wellicht hebben ze zich daar op gefocust met Kepler. 1Ghz is zeker haalbaar, daarboven zal het toch snel gaan met het TDP, vrees ik...
Vergeet niet dat de shader's op dubbele snelheid lopen en dat die toch zeker 2/3 van de chip beslaan.
Eigenlijk loopt de huidige GTX580 dus op 1,5GHz ipv 0,7GHz. Met die 2Ghz doel ik op 1GHz op de uncore en 2GHz op de shaders.
Dan wordt het verschil met AMD ook wel duidelijk, die hoeven maar de helft van dat aantal kloktikken door een stukje gebakken zand te pompen. Wat voordelen kan hebben wat betreft verbruik en yield's.
EDIT: Even een bom droppen:

http://semiaccurate.com/2...ouse-but-not-the-big-one/
First off are the parts themselves, there are two, GK117 and GK107. GK117 was first, and sources describe it as a hybrid Fermi/Kepler part that doesn’t have a display controller. It isn’t a GPU, and it is, based on the code name, very small, so what it is useful for, if anything, is a mystery. This might just be a test chip with Kepler shaders and Fermi interconnects, but who knows?
GK107 is pretty obviously a small laptop part. If you recall, the GF108 and GF106 were the small and mid-range laptop parts in the Nvidia line, the GK107 looks to be a slightly above miserable performance chip. Where Nvidia hopes to sell it depends on performance, but that market is getting awfully thin because of Llano and Sandy Bridge. Either way, don’t expect much other than a price/performance volume laptop part.


Vind ik best kunnen met GK117 en GK107 maar dan mischien wel met behulp van een interposer
Bijvoorbeeld zo:

[ Voor 3% gewijzigd door Toettoetdaan op 08-01-2012 16:27 ]
Verwijderd

Die laatste benchmark slide schijnt wel redelijk te kloppen als ik veel forums zo lees.
Allen zijn dat geen kaarten die snel komen geloof ik. Ik neem dit nog even als zout,
[ Voor 30% gewijzigd door Verwijderd op 08-01-2012 18:59 ]
Uitleg:
#1: Absolute FPS waarde? Doen Nvidia en AMD niet aan. Ze laten relatieve waarden zien, want dat ziet er altijd beter uit.
#2: "GPU PhysX Enabled"? Gebruikt BF3 niet.
#3: 2560x1600 Ultra met 8xMSAA en dan zou een 570 over de 30 FPS halen, 580 pak 'm beet 37-38? Dacht het niet, 580 haalt met pijn en moeite 30 op die settings.
[ Voor 30% gewijzigd door Werelds op 08-01-2012 19:10 ]
Verwijderd
Op Uranus, ik heb zelfs een 790 momenteel te testen.-The_Mask- schreef op zondag 08 januari 2012 @ 19:07:
Waar zie jij een slide?
[ Voor 55% gewijzigd door Verwijderd op 08-01-2012 19:18 ]
Jij gelooft in die max FPS ondanks het feit dat geen *enkele* van de FPS waarden die daar voor de huidige kaarten staan kloppen? Misschien moet ik dan stoppen met jou te voeren, je hebt namelijk geen enkele interesse in een serieuze discussie lijkt het wel.
Verwijderd
Vandaar ook mijn sarcastische opmerking later. Ik heb zeker wel intresse, vooral intresse in dingen al waar zijn. Missien moet je eens leren wat minder op de persoon in te gaan.
Edit
Nvidia heeft binnenkort zo'n bijeenkomst, misschien komen er dan meer dingen naar voren over de kepler.
[ Voor 96% gewijzigd door Verwijderd op 08-01-2012 19:31 ]
Dit komt van dezelfde "bronnen" als de meldingen dat Kepler eind 2011 gereed zou zijn.
Die slide heb ik ook gezien maar alle fora met leden die wel wat posts hebben en niet die gasten met 2postsVerwijderd schreef op zondag 08 januari 2012 @ 18:59:
[afbeelding]
Die laatste benchmark slide schijnt wel redelijk te kloppen als ik veel forums zo lees.
Allen zijn dat geen kaarten die snel komen geloof ik. Ik neem dit nog even als zout,
zeggen dat die slide fake is hoor
En waar zou de logica in deze slide zijn moest het echt zijn
Maarja,
[ Voor 11% gewijzigd door yzx op 08-01-2012 20:00 ]
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Verwijderd schreef op zondag 08 januari 2012 @ 19:11:
ik heb zelfs een 790 momenteel te testen.
Beetje jammer al die nutteloze pushes in dit topic. Elke update van 't topic bijhouden is duidelijk tijdverspilling en aan het einde van de dag kijken zorgt voor een uur ergernis.eerst zien dan geloven
Nieuwdiscussie Topic
[ Voor 35% gewijzigd door Allubz op 08-01-2012 20:01 ]
Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design
Verwijderd
Redelijk betrouwbaar, gebasseerd op???Verwijderd schreef op zondag 08 januari 2012 @ 19:11:
Gelukkig ben ik iemand van eerst zien dan geloven. Veel sites en forums vinden die slide redelijk betrouwbaar maar goed ik wil dingen zien. Ik geloof ook niet in de slide maar wel in de performance die in die slide staat als max fps Roflol
En je gelooft niet in de slide, maar toch weer wel?
Kan het niet volgen, zoals ieder ander hier volgens mij. En je zegt constant dat je alleen feiten gelooft, waarom post je dan die grafiek voor de zoveelste keer? Wellicht dit topic maar voor een tijdje op slot gooien totdat er wel iets nuttigs gepost kan worden?

[ Voor 13% gewijzigd door Verwijderd op 08-01-2012 20:05 ]

Ik ben wel benieuwd wat nVidia op de CES laat zien, en aan wie. Een nep-kaart debacle zullen ze wel niet meer herhalen
Een performance van 50% boven de 580 lijkt me behoorlijk optimistisch, om boven genoemde redenen. Maar mij hoor je niet klagen als ze een konijn uit de hoge hoed weten te toveren
primusz schreef op zondag 08 januari 2012 @ 20:19:
Ik heb ook een slide gevonden, ik vind heb redelijk betrouwbaar:
[afbeelding]
Ik ben wel benieuwd wat nVidia op de CES laat zien, en aan wie. Een nep-kaart debacle zullen ze wel niet meer herhalen
Een performance van 50% boven de 580 lijkt me behoorlijk optimistisch, om boven genoemde redenen. Maar mij hoor je niet klagen als ze een konijn uit de hoge hoed weten te toveren



Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Verwijderd
Dit moet betrouwbaar zijn, anders weet ik het niet meer en is niets betrouwbaar..:P Hahahaprimusz schreef op zondag 08 januari 2012 @ 20:19:
Ik heb ook een slide gevonden, ik vind heb redelijk betrouwbaar:
[afbeelding]
Ik ben wel benieuwd wat nVidia op de CES laat zien, en aan wie. Een nep-kaart debacle zullen ze wel niet meer herhalen
Een performance van 50% boven de 580 lijkt me behoorlijk optimistisch, om boven genoemde redenen. Maar mij hoor je niet klagen als ze een konijn uit de hoge hoed weten te toveren

Nu ik die slide weer zie, zou die zomaar kunnen kloppen, in mijn vorige post schreef ik over de mogelijkheid van een multi-chip-module, ofterwijl een kaart met een basis chip GK107 en mogelijke uitbreidingen met meerdere reken chip's GK117.Verwijderd schreef op zondag 08 januari 2012 @ 18:59:
[afbeelding]
Die laatste benchmark slide schijnt wel redelijk te kloppen als ik veel forums zo lees.
Allen zijn dat geen kaarten die snel komen geloof ik. Ik neem dit nog even als zout,
In jouw grafiek zie je links duidelijk de basis chip en elke kaart krijgt telkens een reken chipje meer, zo zie je dat de GTX790 dus een GK107 heeft en 4x een GK117. De schaling van dat multi-chip-module design zie je ook erg goed terug komen.
Dit is ook de enige manier waarop nVidia de hele line-up al klaar heeft kunnen liggen, SemiAccurate heeft al bevestigd dat nVidia deze chips in huis heeft: http://semiaccurate.com/2...ouse-but-not-the-big-one/
Waar ze vertellen dat de GK107 duidelijk een basis chip is:
En de GK117 is dus een chip waar alleen rekenkracht in zit en geen onnodige zaken als display controles:GK107 is pretty obviously a small laptop part. If you recall, the GF108 and GF106 were the small and mid-range laptop parts in the Nvidia line, the GK107 looks to be a slightly above miserable performance chip.
Voorheen waren dit soort ontwerpen erg lastig doordat je veel data moet verplaatsen, maar nVidia heeft sinds de ontwikkeling van de PS3 de Rambus techniek FlexIO in huis waarmee genoeg bandbreedte gecrieerd kan worden om deze opstelling van chips te voorzien van data. (bijna 3maal sneller dan AMD's HyperTransport)GK117 was first, and sources describe it as a hybrid Fermi/Kepler part that doesn’t have a display controller. It isn’t a GPU, and it is, based on the code name, very small, so what it is useful for, if anything, is a mystery. This might just be a test chip with Kepler shaders and Fermi interconnects, but who knows?
http://www.rambus.com/in/...lutions/flexio/index.html
Moederbord van de PS3, waarvan die RSX chip dus door nVidia is ontwikkeld:

Doordat de GK107 en GK117 zulke kleine chip's zijn kan nVidia hele hoge yield's halen en de monsterkaarten die ze hiermee kunnen maken hebben daar dus ook profijt van. Normaal hebben grote chip's relatief lage yield's maar daar is hier dus helemaal geen spraken van.
De energie efficiëntie heeft er ook baat bij, nVidia heeft nu veel meer chip's waar ze de zuinigere modellen uit kunnen kiezen voor hun top kaarten.
Nu is ook duidelijk waarom nieuws van grotere nVidia chips uitbleef, die zijn er namelijk gewoon niet
Als nVidia dit gaat laten zien over twee dagen op de CES dan wordt dat de grootste verassing sinds de RV770!
Dat gaat een leuke bandwidth starvation hell worden, inclusief een sheduling hell. Want je gaat afzonderleijke caches moeten hebben in de chips die dan weer in juiste volgorde geplakt worden e.d.Toettoetdaan schreef op zondag 08 januari 2012 @ 21:07:
[...]
Nu ik die slide weer zie, zou die zomaar kunnen kloppen, in mijn vorige post schreef ik over de mogelijkheid van een multi-chip-module, ofterwijl een kaart met een basis chip GK107 en mogelijke uitbreidingen met meerdere reken chip's GK117.
In jouw grafiek zie je links duidelijk de basis chip en elke kaart krijgt telkens een reken chipje meer, zo zie je dat de GTX790 dus een GK107 heeft en 4x een GK117. De schaling van dat multi-chip-module design zie je ook erg goed terug komen.
Dit is ook de enige manier waarop nVidia de hele line-up al klaar heeft kunnen liggen, SemiAccurate heeft al bevestigd dat nVidia deze chips in huis heeft: http://semiaccurate.com/2...ouse-but-not-the-big-one/
Waar ze vertellen dat de GK107 duidelijk een basis chip is:
[...]
En de GK117 is dus een chip waar alleen rekenkracht in zit en geen onnodige zaken als display controles:
[...]
Voorheen waren dit soort ontwerpen erg lastig doordat je veel data moet verplaatsen, maar nVidia heeft sinds de ontwikkeling van de PS3 de Rambus techniek FlexIO in huis waarmee genoeg bandbreedte gecrieerd kan worden om deze opstelling van chips te voorzien van data. (bijna 3maal sneller dan AMD's HyperTransport)
http://www.rambus.com/in/...lutions/flexio/index.html
Moederbord van de PS3, waarvan die RSX chip dus door nVidia is ontwikkeld:
[afbeelding]
Doordat de GK107 en GK117 zulke kleine chip's zijn kan nVidia hele hoge yield's halen en de monsterkaarten die ze hiermee kunnen maken hebben daar dus ook profijt van. Normaal hebben grote chip's relatief lage yield's maar daar is hier dus helemaal geen spraken van.
De energie efficiëntie heeft er ook baat bij, nVidia heeft nu veel meer chip's waar ze de zuinigere modellen uit kunnen kiezen voor hun top kaarten.
Nu is ook duidelijk waarom nieuws van grotere nVidia chips uitbleef, die zijn er namelijk gewoon niet
Als nVidia dit gaat laten zien over twee dagen op de CES dan wordt dat de grootste verassing sinds de RV770!
Ik geloof dus niet dat ze zoiets gaan doen. Tevens zouden ze hun topmodel dan geen jaar op zich laten wachten. (wat met de GK112 volgens hun roadmap wel het geval gaat zijn).
Uiteindelijk is het doel van aMD gelijkaardig sinds de 58xx met als doel de 59xx. Meerdere kleine chips bij elkaar. Maar zelfs daar stuiten ze al op sync problemen terwijl elke chip per frame werkt. Dus als je dan nog meerdere afzonderlijke chips wil maken die op dezelfde frame werken ga je onherroepelijk meer tijd spenderen in hoe en wat dan in werkelijk nuttige berekeningen.
Momenteel heb je al iets gelijkaardig intern op de chip, waarbij je groepen shaders hebt die je kunt uitschakelen. Ik verwacht niet dat we snel externe chips gaan zien hiervoor... (We gaan zelfs naar meer en meer integratie in plaats van het omgekeerde.)
[ Voor 10% gewijzigd door Devpartner op 08-01-2012 21:42 ]

Thanks!
Een >500mm² chip is ook een hellDevpartner schreef op zondag 08 januari 2012 @ 21:35:
[...]
Dat gaat een leuke bandwidth starvation hell worden, inclusief een sheduling hell. Want je gaat afzonderleijke caches moeten hebben in de chips die dan weer in juiste volgorde geplakt worden e.d.
Ik geloof dus niet dat ze zoiets gaan doen. Tevens zouden ze hun topmodel dan geen jaar op zich laten wachten. (wat met de GK112 volgens hun roadmap wel het geval gaat zijn).
Uiteindelijk is het doel van aMD gelijkaardig sinds de 58xx met als doel de 59xx. Meerdere kleine chips bij elkaar. Maar zelfs daar stuiten ze al op sync problemen terwijl elke chip per frame werkt. Dus als je dan nog meerdere afzonderlijke chips wil maken die op dezelfde frame werken ga je onherroepelijk meer tijd spenderen in hoe en wat dan in werkelijk nuttige berekeningen.
Momenteel heb je al iets gelijkaardig intern op de chip, waarbij je groepen shaders hebt die je kunt uitschakelen. Ik verwacht niet dat we snel externe chips gaan zien hiervoor... (We gaan zelfs naar meer en meer integratie in plaats van het omgekeerde.)
Ze maken zich drukker om het verbruik van het verplaatsen van data:

Verwijderd
De slide is fake maar de perforamcne winst, daar geloof ik wel in tot een bepaalde hoogte. Dit omdat ik kijk wat er nu hegaald wrd in die gamen en wat mogelijk zou kunnen zijn. Lol die slide hier boven is niceVerwijderd schreef op zondag 08 januari 2012 @ 20:03:
[...]
Redelijk betrouwbaar, gebasseerd op???
En je gelooft niet in de slide, maar toch weer wel?
Kan het niet volgen, zoals ieder ander hier volgens mij. En je zegt constant dat je alleen feiten gelooft, waarom post je dan die grafiek voor de zoveelste keer? Wellicht dit topic maar voor een tijdje op slot gooien totdat er wel iets nuttigs gepost kan worden?
Waarom? Voor dat de 7970 kwam waren er ook allemaal fake grafiekjes.Devpartner schreef op zondag 08 januari 2012 @ 19:56:
Slide is fake as hell. GElieve die niet meer te posten. Is hier al meerdere keren voorbij gekomen en hetzelfde op verschillende foras. Zoals al aangehaald in voorgaande posts is zowat alles op die slide onjuist.
Maar hier je je tenminste prestatie winsten in die nvidia misschien waar kan maken.
[ Voor 26% gewijzigd door Verwijderd op 09-01-2012 09:24 ]
En je kijkt niet naar wat er nu gehaald wordt; ik gaf eerder al aan dat er helemaal niets klopt van de cijfers die daar gepresenteerd worden voor de huidige generatie.
Verwijderd
40 fps meer dan een gtx580 moet wel kunnen. Het kan ook goed 10 fps meer of minder zijn, afwachten dus.
En dan bedoel ik wel de opvolger voor de gtx580. Nu haald een enkele met ultra zo'n 50 fps gemiddeld.
[ Voor 56% gewijzigd door Verwijderd op 09-01-2012 09:46 ]
Daarom voorspelde ik al dat of nvidia een price drop kan toepassen als de 7970 prijs te dichtbij komt. Of eigenlijk nog helemaal niks doet, tot ze een goed product klaar hebben. Niet dat ik niet graag heel snel een mooie nieuwe generatie wil zien, maarja er zijn nog geen echte berichten van en waarschijnlijk dus bottom to top. Maar of dat een ramp is...
Ik denk dat het meer de imago schade is, de single-chip kroon is even weg en dan krijg je wat vreemde reacties af en toe.Jasper 99 schreef op maandag 09 januari 2012 @ 11:30:
Tweakers review van de 7970 gelezen ben nu toch wel benieuwd waarom iedereen doom en verderf voorspeld als nvidia niet snel met een alternatief komt. Ik persoonlijk vindt het een beetje een lachertje, de verschillen op 1920x1080 zijn te minimaal, en de max op vaak maar 20%.
Daarom voorspelde ik al dat of nvidia een price drop kan toepassen als de 7970 prijs te dichtbij komt. Of eigenlijk nog helemaal niks doet, tot ze een goed product klaar hebben. Niet dat ik niet graag heel snel een mooie nieuwe generatie wil zien, maarja er zijn nog geen echte berichten van en waarschijnlijk dus bottom to top. Maar of dat een ramp is...
Ik denk dat nVidia pas wat gaat doen als de HD7950 of HD7800 komen, afhankelijk van de prijs/prestatie zullen die wel in nVidia's vaarwater komen.
EDIT: Maximale vooruitgang:

[ Voor 4% gewijzigd door Toettoetdaan op 09-01-2012 12:47 ]
Dit is echt volledig tegen je voorgaande posts inVerwijderd schreef op maandag 09 januari 2012 @ 09:21:
De slide is fake maar de perforamcne winst, daar geloof ik wel in tot een bepaalde hoogte. Dit omdat ik kijk wat er nu hegaald wrd in die gamen en wat mogelijk zou kunnen zijn.
Maar hier je je tenminste prestatie winsten in die nvidia misschien waar kan maken.

Hoe zit het met je feiten standpunt? Of propageer je dat alleen wanneer het je uitkomt?
Als je jezelf nu al tegen gaat spreken, hoe kunnen we dan ooit inhoudelijk ingaan op je posts

Pas alsjeblieft je manier van posten/denken aan, want hier kunnen we echt niks mee.
Verwijderd
Kunnen jullie daar dan wel wat mee? Kijk precies het zelfde, want het is maar niet wie het zegt of hoe je het bekijkt
Je hoeft hier verder ook niet mee te doen, zelf geldt voor de posts dus wat geen feiten zijn. Maar omdat ik wat zeg is het niet goed merk ik. Maar dat maakt me niets uit.
[ Voor 31% gewijzigd door Verwijderd op 09-01-2012 13:19 ]
Nee hoor, alles wat ik zeg is een feit!Verwijderd schreef op maandag 09 januari 2012 @ 13:11:
Nee hoor ik zij precies het zelfde over de performance echter zeg ik het niet als feit. Ik wacht daarom nog maar af. Jullie zeggen toch ook dingen die jullie denken maar niet als feit nemen.
Kunnen jullie daar dan wel wat mee? Kijk precies het zelfde, want het is maar niet wie het zegt of hoe je het belijkt
Je kijkt naar wat er nu gehaald wordt?
Verwijderd
Daarom zeg ik eerst zien dan geloven want het kan zo maar mogelijk kunnen zijn net zoals dat het niet mogelijk kan zijn.
[ Voor 52% gewijzigd door Verwijderd op 09-01-2012 13:21 ]
De echte vraag is: Zou je het geloven als je het zou zien?Verwijderd schreef op maandag 09 januari 2012 @ 13:19:
Waar baseer je dan het tegendeel op als er geen feiten zijn?
Daarom zeg ik eerst zien dan geloven want het kan zo maar mogelijk kunnen zijn net zoals dat het niet mogelijk kan zijn.
Verwijderd
[ Voor 38% gewijzigd door Edmin op 09-01-2012 13:36 ]
Dit slaat nergens op..Verwijderd schreef op maandag 09 januari 2012 @ 13:19:
Waar baseer je dan het tegendeel op als er geen feiten zijn?
Daarom zeg ik eerst zien dan geloven want het kan zo maar mogelijk kunnen zijn net zoals dat het niet mogelijk kan zijn.
Gewoon door logisch nadenken en het rekening houden met technische beperkingen is het wel duidelijk dat geen 1 videokaartfabrikant nog gigantische snelheidswinsten gaat halen, Nvidia niet maar ook AMD niet.
Jij roept gewoon maar wat terwijl veel anderen hun mening onderbouwen met feiten, het is niet erg om te speculeren maar beargumenteer dan ook alsjeblieft waarom je iets denkt en als je er geen argumenten voor kan bedenken, zeg dan niks.
Verwijderd
vandaar. Vergeten of zo, want ik ga niet dingen zeggen die al vaker hier langs zijn gekomen?
Lees terug en je hebt je andwoord want die slide laat die percentage's ongeveer zien. Maar ik neem dat nog niet als feit. Waar slaat dan uiteindelijk die reacties tegen mij op, juist ja nergens op als je terug leest?
Vinden jullie mij serieus vervelend? Waarom want ik reageer niet heel anders dan de rest geloof ik?
Ik ben alleen wat meer positief, als dat vervelend is dan kom ik hier ook nooit weer wat posten, mant je mag je eigen bedenkingen en meningen niet eens posten enderen mogen dat wel blijkbaar.
Ik wacht de modbreak wel af, zal wel weer zijnomdat mensen mij vervelend vinden wat nergens op slaat. Ik vind zo vaak post vervelend maar ik mods ze niet omdat ik iedereen zijn meining en bedenkingen moet kunnen posten.
[ Voor 43% gewijzigd door Verwijderd op 09-01-2012 13:47 ]
Als ze hotclocks dumpen mag je er van uit gaan dat shader count omhoog moet. Voor 100% winst zullen ze ook in de buurt van het dubbele aantal shaders moeten zitten (of ze moeten de grootste sprong in GPU technologie ooit maken en ineens het dubbele aan performance uit hun shaders persen). Met andere woorden, voor zulke resultaten kijk je al snel naar 3, zoniet 4 keer het huidige aantal shaders (ongeacht welke kaart je neemt). Zelfs op 28nm gaat dat gewoon niet passen.
Verwijderd
Sorry je hebt helemaal gelijk. Ik nam dat als 50%. Ik zelf haal ongeveer met ultra zonder msaa 60 fps avg vandaar eigenlijk.Werelds schreef op maandag 09 januari 2012 @ 13:44:
50% sneller kan best. Die afbeelding laat 100+% zien, geen 50% zoals je nu beweert.
Als ze hotclocks dumpen mag je er van uit gaan dat shader count omhoog moet. Voor 100% winst zullen ze ook in de buurt van het dubbele aantal shaders moeten zitten (of ze moeten de grootste sprong in GPU technologie ooit maken en ineens het dubbele aan performance uit hun shaders persen). Met andere woorden, voor zulke resultaten kijk je al snel naar 3, zoniet 4 keer het huidige aantal shaders (ongeacht welke kaart je neemt). Zelfs op 28nm gaat dat gewoon niet passen.

Dus zijn dit wel of geen 4 GK117's in netwerk?Verwijderd schreef op maandag 09 januari 2012 @ 13:37:
Nou hier werd al vaker door jullie gezeg dat 50% sneller dan een gtx580 mogelijk was,
vandaar. Vergeten of zo, want ik ga niet dingen zeggen die al vaker hier langs zijn gekomen?
Lees terug en je hebt je andwoord want die slide laat die percentage's ongeveer zien. Maar ik neem dat nog niet als feit. Waar slaat dan uiteindelijk die reacties tegen mij op, juist ja nergens op als je terug leest?


Maakt niet uit, maar neem gewoon even de tijd om te lezen wat sommigen van ons hier zeggen. Ik heb eerder ook al aangegeven dat de cijfers voor de huidige kaarten daar niet eens kloppen. Wat voor setup heb je zelf? Je geeft nu aan dat je Ultra zonder MSAA bijna 60 haalt; geloof je dan werkelijk dat een 580 op 2560x1600 met 8xAA bijna 60 FPS haalt zoals op die afbeelding staat? En dan zou de "780" zomaar 100% *daar* bovenop doen.Verwijderd schreef op maandag 09 januari 2012 @ 13:46:
[...]
Sorry je hebt helemaal gelijk. Ik nam dat als 50%. Ik zelf haal ongeveer met ultra zonder msaa 60 fps avg vandaar eigenlijk.
Nee, lijkt me niet
de 560TI is de efficiëntste van nvidia.
van andere kaarten moet ik helaas handmatig 3dmarks vergelijken met charts van toms hardware
mooie grafieken heb ik nog niet gezien.
ora et labora
Verwijderd
Oei dat van die resolutie is mij helemaal bij langs gegaan. Ik zie het ook niet staan overgens zo klein zijn die letters (keratoconus). Oke laten we dan die performance sowiso vergeten wat dat is niet mogelijk op die resolutie.Werelds schreef op maandag 09 januari 2012 @ 13:51:
[...]
Maakt niet uit, maar neem gewoon even de tijd om te lezen wat sommigen van ons hier zeggen. Ik heb eerder ook al aangegeven dat de cijfers voor de huidige kaarten daar niet eens kloppen. Wat voor setup heb je zelf? Je geeft nu aan dat je Ultra zonder MSAA bijna 60 haalt; geloof je dan werkelijk dat een 580 op 2560x1600 met 8xAA bijna 60 FPS haalt zoals op die afbeelding staat? En dan zou de "780" zomaar 100% *daar* bovenop doen.
Nee, lijkt me niet
Daar ben ik het helemaal mee eens. Biienkort lrijg ik ritalin en dan zal ik ook beter op letten en minder inpulsief reageren. Dus dat komt helemaal goed.
Hier onder. Het is zo dat ik altijd een storm in mijn kop heb, ik ben van buiten heel rustig maar in mijn kop gaan er wel tig dingen tegelijk gebeuren, daar door raak ik de macht kwijt op mijn denken en doen, Het is de bedoeling dat ik er rustiger van word en mij beter kan concentreren op dingen waar ik normaal weinig aandacht aan kan geven of dingen die ik niet leuk vind om te doen. Ik heb Zwaar ADD.
[ Voor 61% gewijzigd door Verwijderd op 09-01-2012 14:07 ]
t zal je concentratie verhogen maar impulsief reageren gaat dat pilletje niet veranderenVerwijderd schreef op maandag 09 januari 2012 @ 13:56:
Oei dat van die resolutie is mij helemaal bij langs gegaan. Ik zie het ook niet staan overgens zo klein zijn die letter. Oke laten we dan die performance sowiso vergeten wat dat is niet mogelijk op die resolutie.
Daar ben ik het helemaal mee eens. Biienkort lrijg ik ritalin en dan zal ik ook beter op letten en minder inpulsief reageren. Dus dat komt helemaal goed.
[hopelijk komt hier nog een stukje text dat deze post niet 100% offtopic maakt]
ora et labora
-Asus gaat een 7" tablet met Tegra3 verkopen voor 250dollar.
-Tegra3 gaat gebruikt worden in auto's (audi en lamborgini worden genoemd)
-Er komt nog een extra aankondiging van audi en nVidia samen.
Wat software betreft: gaat ook alleen over tablet's,
-Wat media bewerking enz.
-Met Tegra3 en Splashtop(een remote desktop app) kunt gamen over remote desktop.
(eigenlijk kun je er alles mee op je desktop, maar gamen is natuurlijk wel het tofst
Als laatste noemenswaardige aankondiging hebben ze de techniek 'DirectTouch' waarbij de 5e core op de Tegra3 zich bezig houd met de touch-input waardoor de sample rate, en daarmee de responsivietijd 3maal hoger komt te liggen. (Win8 zal ook gebruik maken van de 5e core als je je Tegra3/Win tablet in stand-by modes hebt staan)
[ Voor 6% gewijzigd door Toettoetdaan op 10-01-2012 02:11 ]
Lijkt erop dat ze hun Keynote PDF van november wel heel letterlijk gaan nemen?
http://puu.sh/cVDj
http://www.chiphell.com/thread-342744-1-1.html
Volgens die geruchten gaat de 104 een die shrink zijn van de 580 met meer shaders en vooral meer clockspeed.
Hierbij halen ze 25% meer flops en dus een 15% meer performance.
Dat zou de 104 iets trager maken dan de 7970, bij een iets hoger verbruik en iets grotere die size. Dus min of meer de initiele geruchten.
Nvidia gaat volgens deze geruchten geen 30% additioneel kunnen bijsmijten (allesinds toch niet binnen de 300W specification). AMD kan hier wel nog een 18% bijsmijten vooraleer ze aan de TDP van de bovenvermelde geruchten van de 104 komen (volgens waarden hardOcp en als de TDP verhouding tussen 104 en 580 hetzelfde zijn gebleven).
(tevens zou de hot clock behouden zijn volgens die transitorcount/flops/units)
Met een richtprijs van 400$ zetten wel hun eigen 570-580 uit de markt.
anyway ik geloof alvast niets van die gegevens, maar het is nieuws/geruchten zodus
[ Voor 4% gewijzigd door Devpartner op 10-01-2012 11:10 ]
Verwijderd
Trouwens, de worst die op de achtergrond van het tabelletje staat is ook apart...
Verwijderd
Als je dan die 50% meer shaders neemt, met een algemeen hogere klok, maar zonder de hotclock (N/A staat normaal voor not available, dus ga ik er vanuit dat er geen hotclock is, want dan had er eigenlijk unknown moeten staan, plus het TDP zou er van door het dak schieten). dan is een ~30% verbetering ten opzichte van GTX560(Ti) wellicht wel te halen, waarmee het zo ongeveer gelijk zit met de GTX580, wellicht er net iets boven.
Wellicht komen er binnenkort wat meer realistische leaks naar buiten, want het is al veel te lang veel te stil geweest (niet alleen vanuit nVidia zelf wat dat aangaat).
Verwijderd
Die dingen dragen natuurlijk ook bij aan het totaalverbruik (negatief gezien, verbruik stijgt), als een gtx580 op dezelfde manier was opgebouwd als de gtx560ti bv., zou hij een lager tdp hebben gehad. Ligt echter aan de keuze die nV gemaakt heeft, quadro's gebruiken ook die chips.
@dahakon: Klinkt idd stukken geloofwaardiger
CES 2012: Be patient Fudzilla
n the last year, if not even longer, Nvidia has talked more about Tegra than any of their other products. This is despite the fact that anyone who has seen at their balance sheets knows that they make money mostly on Geforce and Quadro products.After the keynote, we managed to ask Jen Hsun Huang, Nvidia CEO, a single question. We asked, where is Kepler? The answer we got was that we have to be "patient" about it.

Furthermore, we discovered that there was an internal discussion to showcase Kepler at this keynote but Nvidia decided not to. As far as we know, it was a business decision to wait, and Kepler is production scheduled to launch at a later date. Current estimates are that it will launch in first half of 2012, possibly sometime late in Q1.
bron: http://www.fudzilla.com/c...em/25503-jensen-on-kepler
Verwijderd
Als dat ding in maart in de winkels moet liggen is het toch vreemd dat ze hem nu niet kunnen laten zien, aangezien hij dan binnenkort in productie zou moeten gaan. Persoonlijk verbaast het me toch dat ze nu niks hebben laten zien. Ik ben benieuwd of ze maart gaan halen.Current estimates are that it will launch in first half of 2012, possibly sometime late in Q1.

Verwijderd
madmaxnl; de posts van je worden erg vermoeiend... Ga je nu elke week oude koeien uit de sloot halen? ->madmaxnl schreef op donderdag 12 januari 2012 @ 07:19:
Ik denk dat het beter is dat ze niks laten zien, want er is waarschijnlijk ook niks om te laten zien. Als ze dan iets willen laten zien krijgen we dit:
[afbeelding]
madmaxnl in "[Algemeen] nVidia Nieuwdiscussie Topic - Deel 54"
Verwijderd

Wat we wel hebben, is een claim van Fud dat Kepler 31 januari zou 'kunnen' komen en een bericht van Kyle (HardOCP) dat Kepler pas juni te verwachten is (waarbij aannemelijk dat het om GK104 ging).
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
[ Voor 5% gewijzigd door Tomas Hochstenbach op 12-01-2012 14:56 ]
[ Voor 7% gewijzigd door madmaxnl op 12-01-2012 15:14 ]
Verwijderd
Prima, maar dat zijn er 1 of 2 en die mogen zeer waarschijnlijk niks van hun werkgever zeggen... Daarnaast zal een release datum van welke gpu er ook niet inzitten ook al mochten ze wel wat zeggen.TomasH schreef op donderdag 12 januari 2012 @ 14:56:
Niemand weet dingen zeker? Er zijn genoeg mensen die dingen over Kepler zeker weten. Ook hier.
Het kan niet lang duren voordat we daar wat van horen.
Laptop is wel een haal ander segment. Tevens denk ik dat er iemand warm loopt als Kepler in februari komt onder de vorm van gk106-107.Toettoetdaan schreef op donderdag 12 januari 2012 @ 16:12:
De laptop fabrikanten moeten nu toch wel over Kepler ES chips beschikken om een product te maken voor eind Q1.
Het kan niet lang duren voordat we daar wat van horen.
Juist wel, nVidia scoort zo veel design wins voor notebooks omdat AMD nog geen alternatief heeft.Devpartner schreef op donderdag 12 januari 2012 @ 16:16:
Tevens denk ik dat er iemand warm loopt als Kepler in februari komt onder de vorm van gk106-107.
Volgens dit bericht zou Asus in april laptops op de markt brengen met een Kepler GPU, welke hoogstwaarschijnlijk de GK107 zal zijn. Dat zou dan ook weer prima passen in de tijdslijnen die we eerder voorbij hebben zien komen, waarin GK107 ergens eind maart, begin april beschikbaar zou moeten zijn.
Ik bekijk performance segment desktop natuurlijk. en daar zouden de 106/107 weinig bijbrengen.madmaxnl schreef op donderdag 12 januari 2012 @ 16:19:
[...]
Juist wel, nVidia scoort zo veel design wins voor notebooks omdat AMD nog geen alternatief heeft.
Nvidia heeft typisch zeer veel design wins bij laptops. Maar dit is uitsluitend op intel based laptops natuurlijk. Volgens mij was 1 van de eerste demonstraties van AMD en hun 28nm produkten laptop gebaseerd? Geen id wat AMD hun losse kaartplannen zijn in het laptopsegment though, heb zowel van nvidia als van AMD geen specs gehoord van hun laptopkaarten.

Op het eerste oog rare cijfers, totdat je met GF114 in plaats van GF110 vergelijkt. Dan zit je precies op 50% meer shaders; het ligt voor de hand dat dit bewerkstelligd wordt door 6 SMs in beide GPC's te stoppen in plaats van 4 (of 4 GPC's met 3 SM's elk; of zelfs 3 GPC's met 4 SM's natuurlijk, maar die laatste is onlogisch voor het "floorplan"). Dan klopt ook het aantal texture units, geometry engines. Bandbreedte komt ook perfect overeen: (384 / 8 * 4800e6) / 1e9 = 230.4 GB/s.
Snelle schatting van die-size op basis van transistors/mm^2 voor GF114 gecombineerd met de schaling zoals we die op Tahiti hebben gezien (~80%): pak 'm beet ~328mm^2? Qua TDP komt dat niet 100% uit, maar met wat winst op andere delen moet dat ook wel kunnen. Aantal transistors zit me niet helemaal lekker, dat getal lijkt me eigenlijk te laag voor wat er bij komt (of zou moeten komen).
Klopt allemaal weer erg mooi
Meer SM's in een GPC stoppen hebben we eerder gezien; GT200 had er 3, G92 had er 2 (alleen heetten ze toen nog TPC's

Of het waar is weten we natuurlijk niet. Mocht het echter waar blijken te zijn is dit een verdomd mooie chip, dat zou Tahiti toch flink op de hielen zitten.
[ Voor 4% gewijzigd door Werelds op 13-01-2012 16:29 ]
Ziet er trouwens naar uit ze nu gewoon een halve GF114 aan een GF114 plakken om vervolgens een GK104 te krijgen. Hoezo niet twee GF114s aan elkaar plakken ?
[ Voor 65% gewijzigd door madmaxnl op 13-01-2012 16:36 ]
3 miljard, 1,95 voor GF104/114
Dat is ook wat ik enigzins vreemd vind, het zijn 65% meer transistors voor 50% meer "POWAH" - ik weet niet precies hoeveel van de die gebruikt wordt voor de GPC's, maar naar mijn gevoel is dat in verhouding meer dan voor de MC's, outputs en dergelijk. Kan/durft iemand daar iets meer over te zeggen?