[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 13 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Tja, als de voorraden entry level troep (excuse the word) al groot zijn, is het misschien niet zo handig om er nu nog extra (zij het nieuwere generatie) van te maken? :) Want voorraad is er echt genoeg van, volgens wat ik gehoord heb.

Sowieso is de die shrink vooral nuttig voor de high performance producten. Want die zaten tegen de limiet van 40nm. Beetje jammer om daar dan niet direct gebruik van te (kunnen) maken.

Nu goed, we weten nog niets over de prestaties. Misschien is de entry level wel beter dan de huidige high end. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

Noel schreef op zondag 08 januari 2012 @ 11:21:
Hoera, entry level. Zit echt niemand op te wachten. Entry level troep genoeg op stock bij leveranciers en fabrikanten. Timing voor product gaat sowieso richting Q2.

Feit dat AMD een top to bottom launch doet (en ja, met voldoende launch voorraden) en nVidia bottom to top doet is echt een probleem. Voor nVidia dan.
Ik denk niet echt dat het een probleem is. Waarom niet. Nou dat is omdat het meeste geld met goedkopere kaarten binnenkomt. De hoere modellen zullen veel minder opbrengen in korte tijd.
dahakon schreef op zondag 08 januari 2012 @ 10:15:
[...]


Totaal overbodige toevoeging die alleen maar kwaad bloed zet. Waarom moet dat nu?...
Omdat er telkens onterecht negative dingen en oude dingen worden gezegd, die eingelijk al maanden achter elkaar worden gezegt. Op den duur gaan mensen zich daar aan ergeren en weten het wel,
Ik ga ook niet 20 keer per week zeggen de de 7970 een paperlaunch is als voorbeeld.

[ Voor 33% gewijzigd door Verwijderd op 08-01-2012 12:15 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Voor Nvidia geen probleem, voor ons wel ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Voor een paar zal het een probleem zijn. Zoals de mensen die alleen maar high end spul willen hebben.
Dus niet alle wij hebben daar een probleem mee

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Bottom too top launch is wel goed voor de OEM deals.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb er trouwens sowiso geen probleem mee want ik wel een 2 keer zo snel product zien. Als dat dan ook langer moet duren so be it. Veel mensen hebben toch al wel spul wat sterk genoeg is, en de games van tegenwoordig gaat zo traag mee met de gpu ontwikkeling. Veel mensen kunnen dus nog makkelijk wachten, ons even niet meegerekend, want ons is maar een hele kleine groepje van 99,999% bewijze van.

[ Voor 9% gewijzigd door Verwijderd op 08-01-2012 12:31 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 08 januari 2012 @ 12:30:
Ik heb er trouwens sowiso geen probleem mee want ik wel een 2 keer zo snel product zien. Als dat dan ook langer moet duren so be it. Veel mensen hebben toch al wel spul wat sterk genoeg is, en de games van tegenwoordig gaat zo traag mee met de gpu ontwikkeling. Veel mensen kunnen dus nog makkelijk wachten, ons even niet meegerekend, want ons is maar een hele kleine groepje van 99,999% bewijze van.
Er is dan toch echt 1 vraag die beantwoord moet worden. Hoe moet nVidia een twee keer zo snel product maken als de GTX580, zonder daarbij alle grenzen te overschrijden die er zijn? Als je met het antwoord G80 (8800Ultra) aankomt, dan kun je je beter inlezen in de materie omtrend die chip.

De 8800Ultra was veel sneller dan de 7900GTX, zoveel is waar. MAAR, de 8800Ultra had een TDP die meer dan twee keer zo groot was (84Watt vs 177Watt), Had bijna 2.5 keer zoveel transistors (~278 vs 681 miljoen) nodig en was ook veel groter. Bijden zijn gemaakt op 90nm, dus kun je ook nog stellen dat nVidia al volledige ervaring had met het proces, zodat ze optimaal gebruik konden maken van dat proces.

Een GTX780 (of welk nummer het ook mag krijgen) zou daarmee richting de 7.5 miljard transistors gaan, een TDP krijgen van over de 550Watt (op 40nm) en een diesize van over de 1100mm2. Met een shrink naar 28nm kun je dan weer wat terug winnen, maar TDP en diesize blijven in de onrealistische gebieden hangen.


Verder is het eigenlijk helemaal niet echt handig om een budget chip als eerste op de markt te brengen met een nieuw proces. Je leert er minder van dan met grote chips, yields zijn sowieso nog altijd laag vergeleken met een volwassen proces, marges op dergelijke chips zijn laag, waardoor de veel hogere wafer-prijs en lagere yields veel moeilijker op zijn te vangen en je kunt nooit en te nimmer voldoen aan de vraag van dergelijke chips, omdat het aantal waferstarts veel te beperkt is. Er is nog wel veel meer te bedenken, maar bovenstaande is eigenlijk best al wel duidelijk.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ze hebben sowieso al een stuk meer transistors nodig om het hotclock verlies te compenseren. In het geval van GF114 zou dat neerkomen op zo'n 540mm^2 met 2.9 miljard transistors? Zelfde scaling naar 28nm als Tahiti zou dan op pakweg 300mm^2 uitkomen? Dan mag je wel wat winst verwachten vanwege het proces en hogere clocks, maar om dan voor de 100% performance winst te gaan zou zelfs een GF114 afgeleide toch al ruim boven de 400mm^2 zitten, laat staan een GF110 afgeleide.

Ik ga er wel van uit dat ze GF104/GF114 als basis nemen, aangezien dat toch hun meest succesvolle chip was (en naar mijn mening ook een betere dan GF100/GF110). Maar voor 100% winst op basis daarvan zie ik niet zo 1-2-3 zitten, maar wellicht krijgen we weer zo'n afgrijselijk monster als de GTX 280 op 576mm^2. Het zal in dat geval sowieso geen kleine chip worden :)

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 13:19
dahakon schreef op zondag 08 januari 2012 @ 12:42:
[...]


Er is dan toch echt 1 vraag die beantwoord moet worden. Hoe moet nVidia een twee keer zo snel product maken als de GTX580, zonder daarbij alle grenzen te overschrijden die er zijn? Als je met het antwoord G80 (8800Ultra) aankomt, dan kun je je beter inlezen in de materie omtrend die chip.

De 8800Ultra was veel sneller dan de 7900GTX, zoveel is waar. MAAR, de 8800Ultra had een TDP die meer dan twee keer zo groot was (84Watt vs 177Watt), Had bijna 2.5 keer zoveel transistors (~278 vs 681 miljoen) nodig en was ook veel groter. Bijden zijn gemaakt op 90nm, dus kun je ook nog stellen dat nVidia al volledige ervaring had met het proces, zodat ze optimaal gebruik konden maken van dat proces.

Een GTX780 (of welk nummer het ook mag krijgen) zou daarmee richting de 7.5 miljard transistors gaan, een TDP krijgen van over de 550Watt (op 40nm) en een diesize van over de 1100mm2. Met een shrink naar 28nm kun je dan weer wat terug winnen, maar TDP en diesize blijven in de onrealistische gebieden hangen.
Mee eens ^^

Ik denk dat je een parallele verhouding gaat zien tussen HD 6970 --> HD 7970 en GTX 580 --> GTX 680, namelijk zo'n 30% winst. Alles wat daar boven ligt is bonus voor nVidia; alles wat er onder ligt is een probleem. Persoonlijk denk ik dat de winst voor nVidia iets groter gaat zijn, omdat zij hun coprocessor architectuur al met Fermi hebben ingevoerd en de relatieve performance verlies als GPU al hebben moeten nemen. Ik reken op zo'n 40% winst voor de GTX 680.
Verder is het eigenlijk helemaal niet echt handig om een budget chip als eerste op de markt te brengen met een nieuw proces. Je leert er minder van dan met grote chips, yields zijn sowieso nog altijd laag vergeleken met een volwassen proces, marges op dergelijke chips zijn laag, waardoor de veel hogere wafer-prijs en lagere yields veel moeilijker op zijn te vangen en je kunt nooit en te nimmer voldoen aan de vraag van dergelijke chips, omdat het aantal waferstarts veel te beperkt is. Er is nog wel veel meer te bedenken, maar bovenstaande is eigenlijk best al wel duidelijk.
Tja, voor "leren" is het een beetje laat. Alle GPU's zouden al in hun uiteindelijke stepping moeten zitten. Wellicht kan TSMC een beetje de productietechnieken tweaken, maar voor echte verbeteringen, zoals die geprobeerd zijn door ATi met de RV740, zie ik niet gebeuren.

Ik denk dat het marketing-technisch nog steeds voordelig is je kanon eerst op de markt te zetten. Al het andere beschouw ik dus als een noodgreep. Ik snap het wel, ik denk dat het beter is je chips die klaar zijn maar beter op de markt kan zetten, als je concurrent je voor is geweest. Maar nog steeds, je maakt het je marketingafdeling wel lastig...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zondag 08 januari 2012 @ 12:42:
[...]


Er is dan toch echt 1 vraag die beantwoord moet worden. Hoe moet nVidia een twee keer zo snel product maken als de GTX580, zonder daarbij alle grenzen te overschrijden die er zijn? Als je met het antwoord G80 (8800Ultra) aankomt, dan kun je je beter inlezen in de materie omtrend die chip.

De 8800Ultra was veel sneller dan de 7900GTX, zoveel is waar. MAAR, de 8800Ultra had een TDP die meer dan twee keer zo groot was (84Watt vs 177Watt), Had bijna 2.5 keer zoveel transistors (~278 vs 681 miljoen) nodig en was ook veel groter. Bijden zijn gemaakt op 90nm, dus kun je ook nog stellen dat nVidia al volledige ervaring had met het proces, zodat ze optimaal gebruik konden maken van dat proces.

Een GTX780 (of welk nummer het ook mag krijgen) zou daarmee richting de 7.5 miljard transistors gaan, een TDP krijgen van over de 550Watt (op 40nm) en een diesize van over de 1100mm2. Met een shrink naar 28nm kun je dan weer wat terug winnen, maar TDP en diesize blijven in de onrealistische gebieden hangen.


Verder is het eigenlijk helemaal niet echt handig om een budget chip als eerste op de markt te brengen met een nieuw proces. Je leert er minder van dan met grote chips, yields zijn sowieso nog altijd laag vergeleken met een volwassen proces, marges op dergelijke chips zijn laag, waardoor de veel hogere wafer-prijs en lagere yields veel moeilijker op zijn te vangen en je kunt nooit en te nimmer voldoen aan de vraag van dergelijke chips, omdat het aantal waferstarts veel te beperkt is. Er is nog wel veel meer te bedenken, maar bovenstaande is eigenlijk best al wel duidelijk.
Die vraag kunnen wij niet weten, dat moeten we gaan zien van nvidia als het zo ver is.
En andere architectuur zal ook infloed kunnen hebben net zoals een kleinere chip met meer transistors.
Ik geloof dat de niet moet gaan vergelijken met de gtx580. Die 2 keer sneller was ook meer als voorbeeld. 50% zou al mooi zijn.

We zitten u alleen maar te vergelijken met andere kaarten van wat wel en niet mogelijk is.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op zondag 08 januari 2012 @ 13:04:
[...]


Die vraag kunnen wij niet weten, dat moeten we gaan zien van nvidia als het zo ver is.
En andere architectuur zal ook infloed kunnen hebben net zoals een kleinere chip met meer transistors.
Ik geloof dat de niet moet gaan vergelijken met de gtx580. Die 2 keer sneller was ook meer als voorbeeld. 50% zou al mooi zijn.

We zitten u alleen maar te vergelijken met andere kaarten van wat wel en niet mogelijk is.
dahakon doelde erop dat een vooruitgang van 100% bijzonder lastig is en dat we performance winsten die in het verleden met nieuwe generatie's kwamen niet meer kunnen verwachten.
Dit omdat de laatste drie/vier generaties het verbruik enorm verhoogd hebben, maar verder dan dat mag niet volgens de PCI-e specificatie's.
Een winst zal dus zitten in de efficiëntie van de architectuur en de vooruitgang van een nieuw procedé.

Natuurlijk zullen we moeten afwachten wat nVidia gaat brengen, maar als je een theoretisch berekening wilt maken van wat mogelijk is, dan is de GTX580 wel een erg goed uitgang's punt.
De GTX580 is een tweede generatie Fermi architectuur en een tweede generatie 40nm chip dus de efficiëntie is optimaal. (GTX560 Ti is eigenlijk nog iets beter, maar wel weer een kleinere chip)

Met de gegevens van het aantal transistors en die-oppervlak van de HD7970 vs HD6970 en de TSMC gegevens aangaande verbruik, kun je zelfs een redelijke schatting maken van hoe een GTX580 er uit zou zien op 28nm.
Om gewoon puur theoretisch te berekenen wat mogelijk is, is dat een heel erg goed uitgangspunt :)

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.

[ Voor 36% gewijzigd door Verwijderd op 08-01-2012 14:10 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op zondag 08 januari 2012 @ 14:06:
Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.
G200 duurde ook lang.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 08 januari 2012 @ 14:06:
Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.
In principe zou Kepler gewoon een doorontwikkeling van Fermi moeten zijn, met een nog sterkere nadruk op GP compute, dus meer DP performance, welke voor de game-wereld niets te bieden heeft. Het kan zijn dat de Hot Clocks gedropped worden, maar dat maakt de architectuur niet direct geheel anders. Het heeft echter wel consequenties. Er zijn vooralsnog weinig redenen om aan te nemen dat Kepler een geheel nieuwe architectuur is, temeer omdat het kostbaar is om elke nieuwe generatie kaarten (ja, GTX4xx en GTX5xx zijn samen slechts 1 generatie in zekere zin) een compleet nieuwe architectuur te maken.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
@ madmaxnl: GT200 was geen nieuwe architectuur (vergeet de T in de naam trouwens niet ;)). G92 -> GT200 is net zo'n grote (of kleine) stap als van G80 naar G92. G92 bracht het aantal texture address units op peil met het aantal filters (8/8 ipv 4/8), GT200 propte er een extra SM per TPC en voegde wat TPC's toe. Shaders en dergelijke waren niet veranderd in GT200, dat is ook de reden dat hij zo belachelijk groot was (van 324 naar 576). Fermi is de eerste echt nieuwe architectuur sinds G80.

@ Tweaker: waarom? G80 is ook gewoon 3.5 jaar mee gegaan (november 2006, GF100 stamt uit maart 2010 - hoewel die laatste natuurlijk wel 6 maanden te laat was, dus zeg maar 3 jaar).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
Wel een beetje saaie basis als je even door de bron links van site naar site springt tot je bij het hoofdartikel bent, zit je weer voor de 1000e keer hier:
http://www.4gamer.net/games/120/G012093/20111124085/
Dat zou betekenen dat die hele set berichten uiteindelijk weer op 't zelfde nieuwtje van november uitkomt (2011/11/26 is die online gezet).

Mind you, softpedia zegt:
which according to some sources
Het zijn dus niet hun bronnen, maar gewoon wat bronnen op het internet... niets nieuws dus. Herhaling van oude koek.

[ Voor 14% gewijzigd door Paprika op 08-01-2012 14:49 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Verwijderd schreef op zondag 08 januari 2012 @ 12:11:
[...]
Omdat er telkens onterecht negative dingen en oude dingen worden gezegd, die eingelijk al maanden achter elkaar worden gezegt. Op den duur gaan mensen zich daar aan ergeren en weten het wel.
Dat lijkt zo omdat jij zo (onterecht) overdreven positief bent, de rest is wat realistischer.

Acties:
  • 0 Henk 'm!

Verwijderd

Moet het daarom maar iedere 20 post weer tevoorschijn komen.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op zondag 08 januari 2012 @ 14:06:
Dat is zo maar het is geen gtx580 architectuur dus het kan heel anders uitpakken dan men hier denkt. En dat bedoel ik er mee. Niemand weet of de oude architectuur met deze nieuwe achritectuur ook maar wat te maken heeft. Lijkt mij eigenlijk niet want het duurt zo lang.
Klopt, maar Fermi is geen slechte architectuur, op papier vind ik het zelfs een erg goede architectuur, alleen komt het er niet zo uit.
Het verbeteren van de zwakke punten van Fermi lijkt mij makkelijker dan een nieuwe architectuur maken en de goede onderdelen van Fermi daarin mee nemen. Aan de andere kant, zou nVidia een bottom-up realease doen als ze Fermi alleen verbeterde?

Zoals de slide's van nVidia aangeven vinden ze performance per watt belangrijk, verder is Fermi niet zo goed voor de yield's gebleken dus ik denk dat we die twee punten in het achterhoofd moeten houden als het gaat om verbeteringen.

Hot clock's komt nu redelijk vaak voorbij en is ook zeker een punt wat zou kunnen veranderen.
Het nut van 'hot clock's' is dat shaders tweemaal zo hard lopen dan de rest, hierdoor bespaar je ruimte en is je chip dus op papier goedkoper. In de praktijk maak je een chip van 1,5Ghz en dat kan wel een kleine hit op je verbruik en yields zijn.

Het kan daar twee kanten op, of ze houden 'Hot clock's' en we krijgen 2GHz chips :9~
Wat performance voorspellen aan de hand van de GTX580 makkerlijker maakt.
Of zou gaan de hele shader structuur omgooien en dan kunnen we helemaal niets voorspellen :'(

De ander mogelijkheid dat ze hot clock's dumpen en de shaders dubbel uitvoeren zie ik niet gebeuren, dan krijg je 500mm² chips in het GTX560 segment.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
Toettoetdaan schreef op zondag 08 januari 2012 @ 15:20:
[...]
De ander mogelijkheid dat ze hot clock's dumpen en de shaders dubbel uitvoeren zie ik niet gebeuren, dan krijg je 500mm² chips in het GTX560 segment.
Gok de die-size van een GeForce GTX 560 Ti 448 maar eens (tip: GTX580 is even groot).

Al merk je dat ook in de prijs (zeker als je de eerste GTX560 (@ dik gedrukte :+) als basis neemt):
GTX560GTX560 TiGTX560 Ti 448GTX570
$180$220$290$330

[ Voor 30% gewijzigd door Paprika op 08-01-2012 15:31 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Paprika schreef op zondag 08 januari 2012 @ 15:27:
[...]

Gok de die-size van een GeForce GTX 560 Ti 448 maar eens (tip: GTX580 is even groot).
Haha jah, maar dat is wel een uitzondering. :9
Dat vind ik net zoiets als een HD6790~255mm² waar de HD[6/5]770~166mm² is.

EDIT: Dat zijn van die rommel-op-maak-kaarten die ze vroeger alleen in Azië verkochten :+

[ Voor 12% gewijzigd door Toettoetdaan op 08-01-2012 15:36 ]


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 13:19
Toettoetdaan schreef op zondag 08 januari 2012 @ 15:20:
[...]
Het kan daar twee kanten op, of ze houden 'Hot clock's' en we krijgen 2GHz chips :9~
Wat performance voorspellen aan de hand van de GTX580 makkerlijker maakt
Of zou gaan de hele shader structuur omgooien en dan kunnen we helemaal niets voorspellen :'(

De ander mogelijkheid dat ze hot clock's dumpen en de shaders dubbel uitvoeren zie ik niet gebeuren, dan krijg je 500mm² chips in het GTX560 segment.
Haha, ik denk niet dat het zo werkt. Ik denk dat ze de "uncore" gebieden laten meedraaien op shader snelheid, waardoor het begrip "hotclock" komt te vervallen.

Uiteraard heeft AMD laten zien dat je op 28 nm iets hogere kloksnelheden kan neerzetten dan op 40 nm. nVidia had altijd een architectuur die de kloksnelheid beperkte, waardoor er voor hen nog wel wat te halen valt op dat gebied. Wellicht hebben ze zich daar op gefocust met Kepler. 1Ghz is zeker haalbaar, daarboven zal het toch snel gaan met het TDP, vrees ik...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Helixes schreef op zondag 08 januari 2012 @ 15:37:
[...]

Haha, ik denk niet dat het zo werkt. Ik denk dat ze de "uncore" gebieden laten meedraaien op shader snelheid, waardoor het begrip "hotclock" komt te vervallen.

Uiteraard heeft AMD laten zien dat je op 28 nm iets hogere kloksnelheden kan neerzetten dan op 40 nm. nVidia had altijd een architectuur die de kloksnelheid beperkte, waardoor er voor hen nog wel wat te halen valt op dat gebied. Wellicht hebben ze zich daar op gefocust met Kepler. 1Ghz is zeker haalbaar, daarboven zal het toch snel gaan met het TDP, vrees ik...
Die optie had ik niet overwogen, maar lijkt me ook niet logisch, zolang de uncore(om het maar even zo te noemen) alle shaders bezich kan houden hoeft hij niet sneller te worden, ook gaat de computeperformance niet echt omhoog van een hoger geclockte uncore. (tenzij hij met de huidige clock's niet alle shaders weet bezich te houden)

Vergeet niet dat de shader's op dubbele snelheid lopen en dat die toch zeker 2/3 van de chip beslaan.
Eigenlijk loopt de huidige GTX580 dus op 1,5GHz ipv 0,7GHz. Met die 2Ghz doel ik op 1GHz op de uncore en 2GHz op de shaders.

Dan wordt het verschil met AMD ook wel duidelijk, die hoeven maar de helft van dat aantal kloktikken door een stukje gebakken zand te pompen. Wat voordelen kan hebben wat betreft verbruik en yield's.

EDIT: Even een bom droppen: O-)
http://semiaccurate.com/2...ouse-but-not-the-big-one/
First off are the parts themselves, there are two, GK117 and GK107. GK117 was first, and sources describe it as a hybrid Fermi/Kepler part that doesn’t have a display controller. It isn’t a GPU, and it is, based on the code name, very small, so what it is useful for, if anything, is a mystery. This might just be a test chip with Kepler shaders and Fermi interconnects, but who knows?

GK107 is pretty obviously a small laptop part. If you recall, the GF108 and GF106 were the small and mid-range laptop parts in the Nvidia line, the GK107 looks to be a slightly above miserable performance chip. Where Nvidia hopes to sell it depends on performance, but that market is getting awfully thin because of Llano and Sandy Bridge. Either way, don’t expect much other than a price/performance volume laptop part.
Afbeeldingslocatie: http://i114.photobucket.com/albums/n273/Wirmish/ATi5870Concept.png

Afbeeldingslocatie: http://i114.photobucket.com/albums/n273/Wirmish/ATi5000Series.png
Vind ik best kunnen met GK117 en GK107 maar dan mischien wel met behulp van een interposer ;)

Bijvoorbeeld zo:
Afbeeldingslocatie: http://semiaccurate.com/assets/uploads/2011/10/AMD_Interposer_SemiAccurate.jpg

[ Voor 3% gewijzigd door Toettoetdaan op 08-01-2012 16:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Afbeeldingslocatie: http://content.hwigroup.net/images/extcontent/messages_normal/22202944.jpg

Die laatste benchmark slide schijnt wel redelijk te kloppen als ik veel forums zo lees.
Allen zijn dat geen kaarten die snel komen geloof ik. Ik neem dit nog even als zout,

[ Voor 30% gewijzigd door Verwijderd op 08-01-2012 18:59 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Die is al tig keer langs gekomen en is fake.

Uitleg:
#1: Absolute FPS waarde? Doen Nvidia en AMD niet aan. Ze laten relatieve waarden zien, want dat ziet er altijd beter uit.
#2: "GPU PhysX Enabled"? Gebruikt BF3 niet.
#3: 2560x1600 Ultra met 8xMSAA en dan zou een 570 over de 30 FPS halen, 580 pak 'm beet 37-38? Dacht het niet, 580 haalt met pijn en moeite 30 op die settings.

[ Voor 30% gewijzigd door Werelds op 08-01-2012 19:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Gelukkig ben ik iemand van eerst zien dan geloven. Veel sites en forums vinden die slide redelijk betrouwbaar maar goed ik wil dingen zien. Ik geloof ook niet in de slide maar wel in de performance die in die slide staat als max fps Roflol
Op Uranus, ik heb zelfs een 790 momenteel te testen.

[ Voor 55% gewijzigd door Verwijderd op 08-01-2012 19:18 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Welke sites en fora dan? Want hier hebben we die "slide" al meerdere malen als vals bestempeld en op Beyond3D is hij ook als vals bestempeld.

Jij gelooft in die max FPS ondanks het feit dat geen *enkele* van de FPS waarden die daar voor de huidige kaarten staan kloppen? Misschien moet ik dan stoppen met jou te voeren, je hebt namelijk geen enkele interesse in een serieuze discussie lijkt het wel.

Acties:
  • 0 Henk 'm!

Verwijderd

Goolgle maar een op nvidia kepler afgelopen 24 uur. Als het goed ik kom je meerdere fora tegen.
Vandaar ook mijn sarcastische opmerking later. Ik heb zeker wel intresse, vooral intresse in dingen al waar zijn. Missien moet je eens leren wat minder op de persoon in te gaan.

Edit

Nvidia heeft binnenkort zo'n bijeenkomst, misschien komen er dan meer dingen naar voren over de kepler.

[ Voor 96% gewijzigd door Verwijderd op 08-01-2012 19:31 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik kom Overclock3d tegen waar ze ook denken dat hij fake is. Vervolgens vind ik Overclockers, waar ze er wederom niet in geloven. Of PCGH, waar wederom geen hond er iets van gelooft. Ik kan verder klikken, maar ik betwijfel of ik er een vind waar men er in gelooft.

Dit komt van dezelfde "bronnen" als de meldingen dat Kepler eind 2011 gereed zou zijn.

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 10-09 13:50

yzx

Verwijderd schreef op zondag 08 januari 2012 @ 18:59:
[afbeelding]

Die laatste benchmark slide schijnt wel redelijk te kloppen als ik veel forums zo lees.
Allen zijn dat geen kaarten die snel komen geloof ik. Ik neem dit nog even als zout,
Die slide heb ik ook gezien maar alle fora met leden die wel wat posts hebben en niet die gasten met 2posts
zeggen dat die slide fake is hoor

En waar zou de logica in deze slide zijn moest het echt zijn

Maarja, :+

[ Voor 11% gewijzigd door yzx op 08-01-2012 20:00 ]

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Slide is fake as hell. GElieve die niet meer te posten. Is hier al meerdere keren voorbij gekomen en hetzelfde op verschillende foras. Zoals al aangehaald in voorgaande posts is zowat alles op die slide onjuist.

Acties:
  • 0 Henk 'm!

  • Allubz
  • Registratie: Februari 2006
  • Laatst online: 02-09 13:43
Verwijderd schreef op zondag 08 januari 2012 @ 19:11:
ik heb zelfs een 790 momenteel te testen.
eerst zien dan geloven
Beetje jammer al die nutteloze pushes in dit topic. Elke update van 't topic bijhouden is duidelijk tijdverspilling en aan het einde van de dag kijken zorgt voor een uur ergernis.

Nieuwdiscussie Topic

[ Voor 35% gewijzigd door Allubz op 08-01-2012 20:01 ]

Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 08 januari 2012 @ 19:11:
Gelukkig ben ik iemand van eerst zien dan geloven. Veel sites en forums vinden die slide redelijk betrouwbaar maar goed ik wil dingen zien. Ik geloof ook niet in de slide maar wel in de performance die in die slide staat als max fps Roflol
Redelijk betrouwbaar, gebasseerd op???

En je gelooft niet in de slide, maar toch weer wel?

Kan het niet volgen, zoals ieder ander hier volgens mij. En je zegt constant dat je alleen feiten gelooft, waarom post je dan die grafiek voor de zoveelste keer? Wellicht dit topic maar voor een tijdje op slot gooien totdat er wel iets nuttigs gepost kan worden? :/

[ Voor 13% gewijzigd door Verwijderd op 08-01-2012 20:05 ]


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Nu online

Cheezus

Luiaard

Ik heb ook een slide gevonden, ik vind heb redelijk betrouwbaar:
Afbeeldingslocatie: http://tweakers.net/ext/f/bhJAl1ph4NZIgnDJBPSaWYfa/full.jpg

Ik ben wel benieuwd wat nVidia op de CES laat zien, en aan wie. Een nep-kaart debacle zullen ze wel niet meer herhalen :P
Een performance van 50% boven de 580 lijkt me behoorlijk optimistisch, om boven genoemde redenen. Maar mij hoor je niet klagen als ze een konijn uit de hoge hoed weten te toveren :9

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 10-09 13:50

yzx

primusz schreef op zondag 08 januari 2012 @ 20:19:
Ik heb ook een slide gevonden, ik vind heb redelijk betrouwbaar:
[afbeelding]

Ik ben wel benieuwd wat nVidia op de CES laat zien, en aan wie. Een nep-kaart debacle zullen ze wel niet meer herhalen :P
Een performance van 50% boven de 580 lijkt me behoorlijk optimistisch, om boven genoemde redenen. Maar mij hoor je niet klagen als ze een konijn uit de hoge hoed weten te toveren :9
:+ :+ :+ 7(8)7 7(8)7 _O- you sir made my day :7

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

Verwijderd

primusz schreef op zondag 08 januari 2012 @ 20:19:
Ik heb ook een slide gevonden, ik vind heb redelijk betrouwbaar:
[afbeelding]

Ik ben wel benieuwd wat nVidia op de CES laat zien, en aan wie. Een nep-kaart debacle zullen ze wel niet meer herhalen :P
Een performance van 50% boven de 580 lijkt me behoorlijk optimistisch, om boven genoemde redenen. Maar mij hoor je niet klagen als ze een konijn uit de hoge hoed weten te toveren :9
Dit moet betrouwbaar zijn, anders weet ik het niet meer en is niets betrouwbaar..:P Hahaha 8)7

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op zondag 08 januari 2012 @ 18:59:
[afbeelding]

Die laatste benchmark slide schijnt wel redelijk te kloppen als ik veel forums zo lees.
Allen zijn dat geen kaarten die snel komen geloof ik. Ik neem dit nog even als zout,
Nu ik die slide weer zie, zou die zomaar kunnen kloppen, in mijn vorige post schreef ik over de mogelijkheid van een multi-chip-module, ofterwijl een kaart met een basis chip GK107 en mogelijke uitbreidingen met meerdere reken chip's GK117.

In jouw grafiek zie je links duidelijk de basis chip en elke kaart krijgt telkens een reken chipje meer, zo zie je dat de GTX790 dus een GK107 heeft en 4x een GK117. De schaling van dat multi-chip-module design zie je ook erg goed terug komen.

Dit is ook de enige manier waarop nVidia de hele line-up al klaar heeft kunnen liggen, SemiAccurate heeft al bevestigd dat nVidia deze chips in huis heeft: http://semiaccurate.com/2...ouse-but-not-the-big-one/
Waar ze vertellen dat de GK107 duidelijk een basis chip is:
GK107 is pretty obviously a small laptop part. If you recall, the GF108 and GF106 were the small and mid-range laptop parts in the Nvidia line, the GK107 looks to be a slightly above miserable performance chip.
En de GK117 is dus een chip waar alleen rekenkracht in zit en geen onnodige zaken als display controles:
GK117 was first, and sources describe it as a hybrid Fermi/Kepler part that doesn’t have a display controller. It isn’t a GPU, and it is, based on the code name, very small, so what it is useful for, if anything, is a mystery. This might just be a test chip with Kepler shaders and Fermi interconnects, but who knows?
Voorheen waren dit soort ontwerpen erg lastig doordat je veel data moet verplaatsen, maar nVidia heeft sinds de ontwikkeling van de PS3 de Rambus techniek FlexIO in huis waarmee genoeg bandbreedte gecrieerd kan worden om deze opstelling van chips te voorzien van data. (bijna 3maal sneller dan AMD's HyperTransport)
http://www.rambus.com/in/...lutions/flexio/index.html

Moederbord van de PS3, waarvan die RSX chip dus door nVidia is ontwikkeld:
Afbeeldingslocatie: http://bellitta.com/wp-content/uploads/2011/05/ps3_board.jpg

Doordat de GK107 en GK117 zulke kleine chip's zijn kan nVidia hele hoge yield's halen en de monsterkaarten die ze hiermee kunnen maken hebben daar dus ook profijt van. Normaal hebben grote chip's relatief lage yield's maar daar is hier dus helemaal geen spraken van.
De energie efficiëntie heeft er ook baat bij, nVidia heeft nu veel meer chip's waar ze de zuinigere modellen uit kunnen kiezen voor hun top kaarten.

Nu is ook duidelijk waarom nieuws van grotere nVidia chips uitbleef, die zijn er namelijk gewoon niet :9
Als nVidia dit gaat laten zien over twee dagen op de CES dan wordt dat de grootste verassing sinds de RV770!

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Toettoetdaan schreef op zondag 08 januari 2012 @ 21:07:
[...]

Nu ik die slide weer zie, zou die zomaar kunnen kloppen, in mijn vorige post schreef ik over de mogelijkheid van een multi-chip-module, ofterwijl een kaart met een basis chip GK107 en mogelijke uitbreidingen met meerdere reken chip's GK117.

In jouw grafiek zie je links duidelijk de basis chip en elke kaart krijgt telkens een reken chipje meer, zo zie je dat de GTX790 dus een GK107 heeft en 4x een GK117. De schaling van dat multi-chip-module design zie je ook erg goed terug komen.

Dit is ook de enige manier waarop nVidia de hele line-up al klaar heeft kunnen liggen, SemiAccurate heeft al bevestigd dat nVidia deze chips in huis heeft: http://semiaccurate.com/2...ouse-but-not-the-big-one/
Waar ze vertellen dat de GK107 duidelijk een basis chip is:

[...]

En de GK117 is dus een chip waar alleen rekenkracht in zit en geen onnodige zaken als display controles:

[...]


Voorheen waren dit soort ontwerpen erg lastig doordat je veel data moet verplaatsen, maar nVidia heeft sinds de ontwikkeling van de PS3 de Rambus techniek FlexIO in huis waarmee genoeg bandbreedte gecrieerd kan worden om deze opstelling van chips te voorzien van data. (bijna 3maal sneller dan AMD's HyperTransport)
http://www.rambus.com/in/...lutions/flexio/index.html

Moederbord van de PS3, waarvan die RSX chip dus door nVidia is ontwikkeld:
[afbeelding]

Doordat de GK107 en GK117 zulke kleine chip's zijn kan nVidia hele hoge yield's halen en de monsterkaarten die ze hiermee kunnen maken hebben daar dus ook profijt van. Normaal hebben grote chip's relatief lage yield's maar daar is hier dus helemaal geen spraken van.
De energie efficiëntie heeft er ook baat bij, nVidia heeft nu veel meer chip's waar ze de zuinigere modellen uit kunnen kiezen voor hun top kaarten.

Nu is ook duidelijk waarom nieuws van grotere nVidia chips uitbleef, die zijn er namelijk gewoon niet :9
Als nVidia dit gaat laten zien over twee dagen op de CES dan wordt dat de grootste verassing sinds de RV770!
Dat gaat een leuke bandwidth starvation hell worden, inclusief een sheduling hell. Want je gaat afzonderleijke caches moeten hebben in de chips die dan weer in juiste volgorde geplakt worden e.d.

Ik geloof dus niet dat ze zoiets gaan doen. Tevens zouden ze hun topmodel dan geen jaar op zich laten wachten. (wat met de GK112 volgens hun roadmap wel het geval gaat zijn).

Uiteindelijk is het doel van aMD gelijkaardig sinds de 58xx met als doel de 59xx. Meerdere kleine chips bij elkaar. Maar zelfs daar stuiten ze al op sync problemen terwijl elke chip per frame werkt. Dus als je dan nog meerdere afzonderlijke chips wil maken die op dezelfde frame werken ga je onherroepelijk meer tijd spenderen in hoe en wat dan in werkelijk nuttige berekeningen.

Momenteel heb je al iets gelijkaardig intern op de chip, waarbij je groepen shaders hebt die je kunt uitschakelen. Ik verwacht niet dat we snel externe chips gaan zien hiervoor... (We gaan zelfs naar meer en meer integratie in plaats van het omgekeerde.)

[ Voor 10% gewijzigd door Devpartner op 08-01-2012 21:42 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
Kunnen we overigens het woord "Slide" niet gebruiken voor een Excel plaatje en dus liever even het woord "Grafiek" (of synoniemen) gebruiken. "Slide" laat alles zo presentatief uitzien terwijl dit gewoon een paste in paint is vanuit een programma dat de meesten (of een vergelijkbaar alternatief) op hun PC hebben.

Afbeeldingslocatie: http://88.198.39.57/700/ChartSmall.png

Thanks!

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Devpartner schreef op zondag 08 januari 2012 @ 21:35:
[...]


Dat gaat een leuke bandwidth starvation hell worden, inclusief een sheduling hell. Want je gaat afzonderleijke caches moeten hebben in de chips die dan weer in juiste volgorde geplakt worden e.d.

Ik geloof dus niet dat ze zoiets gaan doen. Tevens zouden ze hun topmodel dan geen jaar op zich laten wachten. (wat met de GK112 volgens hun roadmap wel het geval gaat zijn).

Uiteindelijk is het doel van aMD gelijkaardig sinds de 58xx met als doel de 59xx. Meerdere kleine chips bij elkaar. Maar zelfs daar stuiten ze al op sync problemen terwijl elke chip per frame werkt. Dus als je dan nog meerdere afzonderlijke chips wil maken die op dezelfde frame werken ga je onherroepelijk meer tijd spenderen in hoe en wat dan in werkelijk nuttige berekeningen.

Momenteel heb je al iets gelijkaardig intern op de chip, waarbij je groepen shaders hebt die je kunt uitschakelen. Ik verwacht niet dat we snel externe chips gaan zien hiervoor... (We gaan zelfs naar meer en meer integratie in plaats van het omgekeerde.)
Een >500mm² chip is ook een hell ;)

Ze maken zich drukker om het verbruik van het verplaatsen van data:
Afbeeldingslocatie: http://img441.imageshack.us/img441/8682/nvdm.png

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 08 januari 2012 @ 20:03:
[...]

Redelijk betrouwbaar, gebasseerd op???

En je gelooft niet in de slide, maar toch weer wel?

Kan het niet volgen, zoals ieder ander hier volgens mij. En je zegt constant dat je alleen feiten gelooft, waarom post je dan die grafiek voor de zoveelste keer? Wellicht dit topic maar voor een tijdje op slot gooien totdat er wel iets nuttigs gepost kan worden? :/
De slide is fake maar de perforamcne winst, daar geloof ik wel in tot een bepaalde hoogte. Dit omdat ik kijk wat er nu hegaald wrd in die gamen en wat mogelijk zou kunnen zijn. Lol die slide hier boven is nice :+
Devpartner schreef op zondag 08 januari 2012 @ 19:56:
Slide is fake as hell. GElieve die niet meer te posten. Is hier al meerdere keren voorbij gekomen en hetzelfde op verschillende foras. Zoals al aangehaald in voorgaande posts is zowat alles op die slide onjuist.
Waarom? Voor dat de 7970 kwam waren er ook allemaal fake grafiekjes.
Maar hier je je tenminste prestatie winsten in die nvidia misschien waar kan maken.

[ Voor 26% gewijzigd door Verwijderd op 09-01-2012 09:24 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Oh? En hoe dat dan?

En je kijkt niet naar wat er nu gehaald wordt; ik gaf eerder al aan dat er helemaal niets klopt van de cijfers die daar gepresenteerd worden voor de huidige generatie.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat kun je nu nog niet weten. Want er zijn nog geen kaarten uit die prestaties neer zetten.
40 fps meer dan een gtx580 moet wel kunnen. Het kan ook goed 10 fps meer of minder zijn, afwachten dus.
En dan bedoel ik wel de opvolger voor de gtx580. Nu haald een enkele met ultra zo'n 50 fps gemiddeld.

[ Voor 56% gewijzigd door Verwijderd op 09-01-2012 09:46 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Dit topic op slot moet ook kunnen. Laten we de discussie vooral inhoudelijk en interessant houden. Dit slaat nergens meer op.

Acties:
  • 0 Henk 'm!

Verwijderd

Morgen is er geloof ik een persconferentie hopelijk is er dan echt nieuws.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 10:04
Tweakers review van de 7970 gelezen ben nu toch wel benieuwd waarom iedereen doom en verderf voorspeld als nvidia niet snel met een alternatief komt. Ik persoonlijk vindt het een beetje een lachertje, de verschillen op 1920x1080 zijn te minimaal, en de max op vaak maar 20%.

Daarom voorspelde ik al dat of nvidia een price drop kan toepassen als de 7970 prijs te dichtbij komt. Of eigenlijk nog helemaal niks doet, tot ze een goed product klaar hebben. Niet dat ik niet graag heel snel een mooie nieuwe generatie wil zien, maarja er zijn nog geen echte berichten van en waarschijnlijk dus bottom to top. Maar of dat een ramp is...

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Jasper 99 schreef op maandag 09 januari 2012 @ 11:30:
Tweakers review van de 7970 gelezen ben nu toch wel benieuwd waarom iedereen doom en verderf voorspeld als nvidia niet snel met een alternatief komt. Ik persoonlijk vindt het een beetje een lachertje, de verschillen op 1920x1080 zijn te minimaal, en de max op vaak maar 20%.

Daarom voorspelde ik al dat of nvidia een price drop kan toepassen als de 7970 prijs te dichtbij komt. Of eigenlijk nog helemaal niks doet, tot ze een goed product klaar hebben. Niet dat ik niet graag heel snel een mooie nieuwe generatie wil zien, maarja er zijn nog geen echte berichten van en waarschijnlijk dus bottom to top. Maar of dat een ramp is...
Ik denk dat het meer de imago schade is, de single-chip kroon is even weg en dan krijg je wat vreemde reacties af en toe.

Ik denk dat nVidia pas wat gaat doen als de HD7950 of HD7800 komen, afhankelijk van de prijs/prestatie zullen die wel in nVidia's vaarwater komen.

EDIT: Maximale vooruitgang:
Afbeeldingslocatie: http://h10.abload.de/img/pcgaming_nv01pym.jpg

[ Voor 4% gewijzigd door Toettoetdaan op 09-01-2012 12:47 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Verwijderd schreef op maandag 09 januari 2012 @ 09:21:
De slide is fake maar de perforamcne winst, daar geloof ik wel in tot een bepaalde hoogte. Dit omdat ik kijk wat er nu hegaald wrd in die gamen en wat mogelijk zou kunnen zijn.

Maar hier je je tenminste prestatie winsten in die nvidia misschien waar kan maken.
Dit is echt volledig tegen je voorgaande posts in 8)7
Hoe zit het met je feiten standpunt? Of propageer je dat alleen wanneer het je uitkomt?

Als je jezelf nu al tegen gaat spreken, hoe kunnen we dan ooit inhoudelijk ingaan op je posts :X

Pas alsjeblieft je manier van posten/denken aan, want hier kunnen we echt niks mee.

Acties:
  • 0 Henk 'm!

Verwijderd

Nee hoor ik zij precies het zelfde over de performance echter zeg ik het niet als feit. Ik wacht daarom nog maar af. Jullie zeggen toch ook dingen die jullie denken maar niet als feit nemen.
Kunnen jullie daar dan wel wat mee? Kijk precies het zelfde, want het is maar niet wie het zegt of hoe je het bekijkt :P

Je hoeft hier verder ook niet mee te doen, zelf geldt voor de posts dus wat geen feiten zijn. Maar omdat ik wat zeg is het niet goed merk ik. Maar dat maakt me niets uit. :)

[ Voor 31% gewijzigd door Verwijderd op 09-01-2012 13:19 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op maandag 09 januari 2012 @ 13:11:
Nee hoor ik zij precies het zelfde over de performance echter zeg ik het niet als feit. Ik wacht daarom nog maar af. Jullie zeggen toch ook dingen die jullie denken maar niet als feit nemen.
Kunnen jullie daar dan wel wat mee? Kijk precies het zelfde, want het is maar niet wie het zegt of hoe je het belijkt :P
Nee hoor, alles wat ik zeg is een feit! :+

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Waar baseer je je geloof op dat nvidia dit soort prestatiewinsten kan waarmaken?
Je kijkt naar wat er nu gehaald wordt?

Acties:
  • 0 Henk 'm!

Verwijderd

Waar baseer je dan het tegendeel op als er geen feiten zijn?
Daarom zeg ik eerst zien dan geloven want het kan zo maar mogelijk kunnen zijn net zoals dat het niet mogelijk kan zijn. :+

[ Voor 52% gewijzigd door Verwijderd op 09-01-2012 13:21 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op maandag 09 januari 2012 @ 13:19:
Waar baseer je dan het tegendeel op als er geen feiten zijn?
Daarom zeg ik eerst zien dan geloven want het kan zo maar mogelijk kunnen zijn net zoals dat het niet mogelijk kan zijn. :+
De echte vraag is: Zou je het geloven als je het zou zien?

Acties:
  • 0 Henk 'm!

Verwijderd

Ja dan moet ik een werkende hebben gezien of een ruwe schatting van specs die echt zijn. Geruchten en speculaties kan ik weinig mee helaas.
Modbreak:Je hebt een PM... over twee minuten

[ Voor 38% gewijzigd door Edmin op 09-01-2012 13:36 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Verwijderd schreef op maandag 09 januari 2012 @ 13:19:
Waar baseer je dan het tegendeel op als er geen feiten zijn?
Daarom zeg ik eerst zien dan geloven want het kan zo maar mogelijk kunnen zijn net zoals dat het niet mogelijk kan zijn. :+
Dit slaat nergens op..
Gewoon door logisch nadenken en het rekening houden met technische beperkingen is het wel duidelijk dat geen 1 videokaartfabrikant nog gigantische snelheidswinsten gaat halen, Nvidia niet maar ook AMD niet.

Jij roept gewoon maar wat terwijl veel anderen hun mening onderbouwen met feiten, het is niet erg om te speculeren maar beargumenteer dan ook alsjeblieft waarom je iets denkt en als je er geen argumenten voor kan bedenken, zeg dan niks.

Acties:
  • 0 Henk 'm!

Verwijderd

Nou hier werd al vaker door jullie gezeg dat 50% sneller dan een gtx580 mogelijk was,
vandaar. Vergeten of zo, want ik ga niet dingen zeggen die al vaker hier langs zijn gekomen?
Lees terug en je hebt je andwoord want die slide laat die percentage's ongeveer zien. Maar ik neem dat nog niet als feit. Waar slaat dan uiteindelijk die reacties tegen mij op, juist ja nergens op als je terug leest?

Vinden jullie mij serieus vervelend? Waarom want ik reageer niet heel anders dan de rest geloof ik?
Ik ben alleen wat meer positief, als dat vervelend is dan kom ik hier ook nooit weer wat posten, mant je mag je eigen bedenkingen en meningen niet eens posten enderen mogen dat wel blijkbaar.
Ik wacht de modbreak wel af, zal wel weer zijnomdat mensen mij vervelend vinden wat nergens op slaat. Ik vind zo vaak post vervelend maar ik mods ze niet omdat ik iedereen zijn meining en bedenkingen moet kunnen posten.

[ Voor 43% gewijzigd door Verwijderd op 09-01-2012 13:47 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
50% sneller kan best. Die afbeelding laat 100+% zien, geen 50% zoals je nu beweert.

Als ze hotclocks dumpen mag je er van uit gaan dat shader count omhoog moet. Voor 100% winst zullen ze ook in de buurt van het dubbele aantal shaders moeten zitten (of ze moeten de grootste sprong in GPU technologie ooit maken en ineens het dubbele aan performance uit hun shaders persen). Met andere woorden, voor zulke resultaten kijk je al snel naar 3, zoniet 4 keer het huidige aantal shaders (ongeacht welke kaart je neemt). Zelfs op 28nm gaat dat gewoon niet passen.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 09 januari 2012 @ 13:44:
50% sneller kan best. Die afbeelding laat 100+% zien, geen 50% zoals je nu beweert.

Als ze hotclocks dumpen mag je er van uit gaan dat shader count omhoog moet. Voor 100% winst zullen ze ook in de buurt van het dubbele aantal shaders moeten zitten (of ze moeten de grootste sprong in GPU technologie ooit maken en ineens het dubbele aan performance uit hun shaders persen). Met andere woorden, voor zulke resultaten kijk je al snel naar 3, zoniet 4 keer het huidige aantal shaders (ongeacht welke kaart je neemt). Zelfs op 28nm gaat dat gewoon niet passen.
Sorry je hebt helemaal gelijk. Ik nam dat als 50%. Ik zelf haal ongeveer met ultra zonder msaa 60 fps avg vandaar eigenlijk. 8)7

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op maandag 09 januari 2012 @ 13:37:
Nou hier werd al vaker door jullie gezeg dat 50% sneller dan een gtx580 mogelijk was,
vandaar. Vergeten of zo, want ik ga niet dingen zeggen die al vaker hier langs zijn gekomen?
Lees terug en je hebt je andwoord want die slide laat die percentage's ongeveer zien. Maar ik neem dat nog niet als feit. Waar slaat dan uiteindelijk die reacties tegen mij op, juist ja nergens op als je terug leest?
Dus zijn dit wel of geen 4 GK117's in netwerk? O-)
Afbeeldingslocatie: http://img7.imageshack.us/img7/3366/gk117x4.png

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op maandag 09 januari 2012 @ 13:46:
[...]

Sorry je hebt helemaal gelijk. Ik nam dat als 50%. Ik zelf haal ongeveer met ultra zonder msaa 60 fps avg vandaar eigenlijk. 8)7
Maakt niet uit, maar neem gewoon even de tijd om te lezen wat sommigen van ons hier zeggen. Ik heb eerder ook al aangegeven dat de cijfers voor de huidige kaarten daar niet eens kloppen. Wat voor setup heb je zelf? Je geeft nu aan dat je Ultra zonder MSAA bijna 60 haalt; geloof je dan werkelijk dat een 580 op 2560x1600 met 8xAA bijna 60 FPS haalt zoals op die afbeelding staat? En dan zou de "780" zomaar 100% *daar* bovenop doen.

Nee, lijkt me niet :+

Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 13:19

mrc4nl

Procrastinatie expert

ben benieuwd of de volgende generatie ook veel zuiniger is.
de 560TI is de efficiëntste van nvidia.

van andere kaarten moet ik helaas handmatig 3dmarks vergelijken met charts van toms hardware
mooie grafieken heb ik nog niet gezien.

ora et labora


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 09 januari 2012 @ 13:51:
[...]

Maakt niet uit, maar neem gewoon even de tijd om te lezen wat sommigen van ons hier zeggen. Ik heb eerder ook al aangegeven dat de cijfers voor de huidige kaarten daar niet eens kloppen. Wat voor setup heb je zelf? Je geeft nu aan dat je Ultra zonder MSAA bijna 60 haalt; geloof je dan werkelijk dat een 580 op 2560x1600 met 8xAA bijna 60 FPS haalt zoals op die afbeelding staat? En dan zou de "780" zomaar 100% *daar* bovenop doen.

Nee, lijkt me niet :+
Oei dat van die resolutie is mij helemaal bij langs gegaan. Ik zie het ook niet staan overgens zo klein zijn die letters (keratoconus). Oke laten we dan die performance sowiso vergeten wat dat is niet mogelijk op die resolutie.
Daar ben ik het helemaal mee eens. Biienkort lrijg ik ritalin en dan zal ik ook beter op letten en minder inpulsief reageren. Dus dat komt helemaal goed.

Hier onder. Het is zo dat ik altijd een storm in mijn kop heb, ik ben van buiten heel rustig maar in mijn kop gaan er wel tig dingen tegelijk gebeuren, daar door raak ik de macht kwijt op mijn denken en doen, Het is de bedoeling dat ik er rustiger van word en mij beter kan concentreren op dingen waar ik normaal weinig aandacht aan kan geven of dingen die ik niet leuk vind om te doen. Ik heb Zwaar ADD.

[ Voor 61% gewijzigd door Verwijderd op 09-01-2012 14:07 ]


Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 13:19

mrc4nl

Procrastinatie expert

Verwijderd schreef op maandag 09 januari 2012 @ 13:56:
Oei dat van die resolutie is mij helemaal bij langs gegaan. Ik zie het ook niet staan overgens zo klein zijn die letter. Oke laten we dan die performance sowiso vergeten wat dat is niet mogelijk op die resolutie.
Daar ben ik het helemaal mee eens. Biienkort lrijg ik ritalin en dan zal ik ook beter op letten en minder inpulsief reageren. Dus dat komt helemaal goed.
t zal je concentratie verhogen maar impulsief reageren gaat dat pilletje niet veranderen

[hopelijk komt hier nog een stukje text dat deze post niet 100% offtopic maakt]

ora et labora


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Het hardware nieuws van de nVidia pers conferentie:
-Asus gaat een 7" tablet met Tegra3 verkopen voor 250dollar.
-Tegra3 gaat gebruikt worden in auto's (audi en lamborgini worden genoemd)
-Er komt nog een extra aankondiging van audi en nVidia samen.

Wat software betreft: gaat ook alleen over tablet's,
-Wat media bewerking enz.
-Met Tegra3 en Splashtop(een remote desktop app) kunt gamen over remote desktop.
(eigenlijk kun je er alles mee op je desktop, maar gamen is natuurlijk wel het tofst ;) )

Als laatste noemenswaardige aankondiging hebben ze de techniek 'DirectTouch' waarbij de 5e core op de Tegra3 zich bezig houd met de touch-input waardoor de sample rate, en daarmee de responsivietijd 3maal hoger komt te liggen. (Win8 zal ook gebruik maken van de 5e core als je je Tegra3/Win tablet in stand-by modes hebt staan)

[ Voor 6% gewijzigd door Toettoetdaan op 10-01-2012 02:11 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
Ik vond het ook beetje onverwacht, maar echt helemaal NIETS over Kepler, of desktops in het algemeen.

Lijkt erop dat ze hun Keynote PDF van november wel heel letterlijk gaan nemen?
http://puu.sh/cVDj

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het uitblijven van Kepler nieuws/presentatie is geen goed teken. Ze blijven maar Tegra propaganda spuien.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
Afbeeldingslocatie: http://puu.sh/cXoY

Ze weten wel waar hun markt zit.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Inderdaad, Basic PC's kunnen ze wel van hun lijstje afhalen aangezien ze geen kans maken tegen de APUs die dit gedeelte van de markt vullen.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
De geruchten beginnen terug opnieuw (met dank aan OBr.... :rolleyes:)

http://www.chiphell.com/thread-342744-1-1.html

Volgens die geruchten gaat de 104 een die shrink zijn van de 580 met meer shaders en vooral meer clockspeed.
Hierbij halen ze 25% meer flops en dus een 15% meer performance.

Dat zou de 104 iets trager maken dan de 7970, bij een iets hoger verbruik en iets grotere die size. Dus min of meer de initiele geruchten.
Nvidia gaat volgens deze geruchten geen 30% additioneel kunnen bijsmijten (allesinds toch niet binnen de 300W specification). AMD kan hier wel nog een 18% bijsmijten vooraleer ze aan de TDP van de bovenvermelde geruchten van de 104 komen (volgens waarden hardOcp en als de TDP verhouding tussen 104 en 580 hetzelfde zijn gebleven).

(tevens zou de hot clock behouden zijn volgens die transitorcount/flops/units)

Met een richtprijs van 400$ zetten wel hun eigen 570-580 uit de markt.

anyway ik geloof alvast niets van die gegevens, maar het is nieuws/geruchten zodus :)

[ Voor 4% gewijzigd door Devpartner op 10-01-2012 11:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik vind het een beetje vaag nieuws, want een opvolger van de GTX560 Ti die al op een TDP van 220watt zit is wel vreemd gezien de TDP van de GTX560 Ti 170 watt is. Nu weet ik dat TDP niet veel zegt, maar vreemd is het wel...
Trouwens, de worst die op de achtergrond van het tabelletje staat is ook apart... ;)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Volgens dat bericht veranderen ze hun naamgeving wederom, dus dan is dit geen opvolger van GF104/114 maar van GF100/110.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het zal me een worst wezen, lol.

Acties:
  • 0 Henk 'm!

Verwijderd

Waarom nemen ze de gf110 en breiden ze die uit? Is toch logischer om een zuinigere chip als de gf114 te pakken en deze te verdubbelen in specs oid, als dit al klopt. Het is bekend dat er voor game pc's veel overtollige onderdelen in de gf110 zitten. Maarja ik werk niet bij nVidia haha :P

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Eerlijk gezegd lijkt het ook eerder op een uitbreiding van GF104/114. Om precies te zijn, 50% clusters. GF104/114 is inderdaad veel meer op gaming gericht dan GF100/110. Bovendien is de constructie van de chip iets eenvoudiger (minder crossbars o.a.).

Als je dan die 50% meer shaders neemt, met een algemeen hogere klok, maar zonder de hotclock (N/A staat normaal voor not available, dus ga ik er vanuit dat er geen hotclock is, want dan had er eigenlijk unknown moeten staan, plus het TDP zou er van door het dak schieten). dan is een ~30% verbetering ten opzichte van GTX560(Ti) wellicht wel te halen, waarmee het zo ongeveer gelijk zit met de GTX580, wellicht er net iets boven.

Wellicht komen er binnenkort wat meer realistische leaks naar buiten, want het is al veel te lang veel te stil geweest (niet alleen vanuit nVidia zelf wat dat aangaat).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
Omdat die maar 360nm is. De GF110 is 520nm. Waarom ie meer verbruikt? Nou, hij is ook een stuk groter (en sneller).

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is logica, maar gf110 bevat extra's die gf114 niet heeft, waar een normale gebruiker totaal niks aan heeft.
Die dingen dragen natuurlijk ook bij aan het totaalverbruik (negatief gezien, verbruik stijgt), als een gtx580 op dezelfde manier was opgebouwd als de gtx560ti bv., zou hij een lager tdp hebben gehad. Ligt echter aan de keuze die nV gemaakt heeft, quadro's gebruiken ook die chips.

@dahakon: Klinkt idd stukken geloofwaardiger :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55

CES 2012: Be patient Fudzilla

n the last year, if not even longer, Nvidia has talked more about Tegra than any of their other products. This is despite the fact that anyone who has seen at their balance sheets knows that they make money mostly on Geforce and Quadro products.

After the keynote, we managed to ask Jen Hsun Huang, Nvidia CEO, a single question. We asked, where is Kepler? The answer we got was that we have to be "patient" about it.

Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2012/January/ces2012/jensen_press_ces2012.jpg

Furthermore, we discovered that there was an internal discussion to showcase Kepler at this keynote but Nvidia decided not to. As far as we know, it was a business decision to wait, and Kepler is production scheduled to launch at a later date. Current estimates are that it will launch in first half of 2012, possibly sometime late in Q1.
bron: http://www.fudzilla.com/c...em/25503-jensen-on-kepler

Acties:
  • 0 Henk 'm!

Verwijderd

Current estimates are that it will launch in first half of 2012, possibly sometime late in Q1.
Als dat ding in maart in de winkels moet liggen is het toch vreemd dat ze hem nu niet kunnen laten zien, aangezien hij dan binnenkort in productie zou moeten gaan. Persoonlijk verbaast het me toch dat ze nu niks hebben laten zien. Ik ben benieuwd of ze maart gaan halen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik denk dat het beter is dat ze niks laten zien, want er is waarschijnlijk ook niks om te laten zien. Als ze dan iets willen laten zien krijgen we dit:
Afbeeldingslocatie: http://www.maximumpc.com/files/u69/Fermi_Huang.png

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 12 januari 2012 @ 07:19:
Ik denk dat het beter is dat ze niks laten zien, want er is waarschijnlijk ook niks om te laten zien. Als ze dan iets willen laten zien krijgen we dit:
[afbeelding]
madmaxnl; de posts van je worden erg vermoeiend... Ga je nu elke week oude koeien uit de sloot halen? ->
madmaxnl in "[Algemeen] nVidia Nieuwdiscussie Topic - Deel 54"

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Hoezo oude koeien, situatie is anders bijna net als toen. Alleen dat ze nu misschien geen mock-up laten zien.

Acties:
  • 0 Henk 'm!

Verwijderd

Nee, situatie is toch totaal anders... zucht... Ze zeggen nu toch niet dat ze klaar zijn, er wordt gezegd 'patient', wat in mijn ogen een heeeeel normale reactie is. Jij gaat wederom een afbeelding laten zien van iets wat nu totaal niet aan de orde is. Ga lekker ergens anders trollen/flamen, want dat is wat je met die afbeelding aan het doen bent. En het erge is dat je 'm vorige week ook al gepost hebt. Nou, nou, wat een bijdrage in dit topic hoor... ;w

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Weet je, door er zo op in te hakken, gun je hem juist alleen maar meer plezier. Voor de rest is de situatie nu in die zin anders, dat nVidia geleerd lijkt te hebben dat voorliegen niet echt werkt. Of hetchuidige helemaal stil zijn de juiste keuze is, moet nog blijken.

Wat we wel hebben, is een claim van Fud dat Kepler 31 januari zou 'kunnen' komen en een bericht van Kyle (HardOCP) dat Kepler pas juni te verwachten is (waarbij aannemelijk dat het om GK104 ging).

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Fu(a)d zijn claims hebben meestal weinig waarde. Maar de ene persoon heeft het over low-end de andere over mid/high-end.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Tja, niemand weet dingen zeker, dat kan twee dingen betekenen; Nvidia weet de tent goed dicht te houden en kan straks (binnen nu en ~3 maanden) enigzins verrassen, óf er valt niks te lekken omdat er nog te weinig is. Dat laatste is natuurlijk niet best en zou betekenen dat we nog lang moeten wachten.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Klinkt niet echt als nVidia. Alhoewel de launch van bottom too top launch ook niet echt iets voor hun is. Normaal doen ze top too bottom launches.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17-09 07:38

Tomas Hochstenbach

Redacteur componenten
Niemand weet dingen zeker? Er zijn genoeg mensen die dingen over Kepler zeker weten. Ook hier.

[ Voor 5% gewijzigd door Tomas Hochstenbach op 12-01-2012 14:56 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De MSI man kan moeilijk nVidia in een slecht daglicht gaan zetten door te melden dat ze nog niks van Kepler what so ever hebben vernomen. Als ze namelijk nog niks hebben vernomen dan kan Kepler nog wel eens heel lang op zich gaan laten wachten.

[ Voor 7% gewijzigd door madmaxnl op 12-01-2012 15:14 ]


Acties:
  • 0 Henk 'm!

Verwijderd

TomasH schreef op donderdag 12 januari 2012 @ 14:56:
Niemand weet dingen zeker? Er zijn genoeg mensen die dingen over Kepler zeker weten. Ook hier.
Prima, maar dat zijn er 1 of 2 en die mogen zeer waarschijnlijk niks van hun werkgever zeggen... Daarnaast zal een release datum van welke gpu er ook niet inzitten ook al mochten ze wel wat zeggen.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
De laptop fabrikanten moeten nu toch wel over Kepler ES chips beschikken om een product te maken voor eind Q1.

Het kan niet lang duren voordat we daar wat van horen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat is het hem nu juist, wat als de OEMs en AIBs nog helemaal niet over een Kepler ES chip beschikken ?

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Toettoetdaan schreef op donderdag 12 januari 2012 @ 16:12:
De laptop fabrikanten moeten nu toch wel over Kepler ES chips beschikken om een product te maken voor eind Q1.

Het kan niet lang duren voordat we daar wat van horen.
Laptop is wel een haal ander segment. Tevens denk ik dat er iemand warm loopt als Kepler in februari komt onder de vorm van gk106-107.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Devpartner schreef op donderdag 12 januari 2012 @ 16:16:
Tevens denk ik dat er iemand warm loopt als Kepler in februari komt onder de vorm van gk106-107.
Juist wel, nVidia scoort zo veel design wins voor notebooks omdat AMD nog geen alternatief heeft.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
http://translate.google.c...vidias-kepler-ab-april%2F

Volgens dit bericht zou Asus in april laptops op de markt brengen met een Kepler GPU, welke hoogstwaarschijnlijk de GK107 zal zijn. Dat zou dan ook weer prima passen in de tijdslijnen die we eerder voorbij hebben zien komen, waarin GK107 ergens eind maart, begin april beschikbaar zou moeten zijn.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
madmaxnl schreef op donderdag 12 januari 2012 @ 16:19:
[...]


Juist wel, nVidia scoort zo veel design wins voor notebooks omdat AMD nog geen alternatief heeft.
Ik bekijk performance segment desktop natuurlijk. en daar zouden de 106/107 weinig bijbrengen.

Nvidia heeft typisch zeer veel design wins bij laptops. Maar dit is uitsluitend op intel based laptops natuurlijk. Volgens mij was 1 van de eerste demonstraties van AMD en hun 28nm produkten laptop gebaseerd? Geen id wat AMD hun losse kaartplannen zijn in het laptopsegment though, heb zowel van nvidia als van AMD geen specs gehoord van hun laptopkaarten.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Om even de afbeelding van OBR er bij te nemen, laten we eens even lekker speculeren :P

Afbeeldingslocatie: http://3.bp.blogspot.com/-WqdeDEiTOw4/Tws-VzMmgVI/AAAAAAAABpQ/00F80ve1b3c/s400/exclusive.png

Op het eerste oog rare cijfers, totdat je met GF114 in plaats van GF110 vergelijkt. Dan zit je precies op 50% meer shaders; het ligt voor de hand dat dit bewerkstelligd wordt door 6 SMs in beide GPC's te stoppen in plaats van 4 (of 4 GPC's met 3 SM's elk; of zelfs 3 GPC's met 4 SM's natuurlijk, maar die laatste is onlogisch voor het "floorplan"). Dan klopt ook het aantal texture units, geometry engines. Bandbreedte komt ook perfect overeen: (384 / 8 * 4800e6) / 1e9 = 230.4 GB/s.
Snelle schatting van die-size op basis van transistors/mm^2 voor GF114 gecombineerd met de schaling zoals we die op Tahiti hebben gezien (~80%): pak 'm beet ~328mm^2? Qua TDP komt dat niet 100% uit, maar met wat winst op andere delen moet dat ook wel kunnen. Aantal transistors zit me niet helemaal lekker, dat getal lijkt me eigenlijk te laag voor wat er bij komt (of zou moeten komen).

Klopt allemaal weer erg mooi ;)
Meer SM's in een GPC stoppen hebben we eerder gezien; GT200 had er 3, G92 had er 2 (alleen heetten ze toen nog TPC's :X).


Of het waar is weten we natuurlijk niet. Mocht het echter waar blijken te zijn is dit een verdomd mooie chip, dat zou Tahiti toch flink op de hielen zitten.

[ Voor 4% gewijzigd door Werelds op 13-01-2012 16:29 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De GF110 had toch 3,2 miljard transistors ?

Ziet er trouwens naar uit ze nu gewoon een halve GF114 aan een GF114 plakken om vervolgens een GK104 te krijgen. Hoezo niet twee GF114s aan elkaar plakken ?

[ Voor 65% gewijzigd door madmaxnl op 13-01-2012 16:36 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
http://www.anandtech.com/show/4008/nvidias-geforce-gtx-580/1
3 miljard, 1,95 voor GF104/114 :)

Dat is ook wat ik enigzins vreemd vind, het zijn 65% meer transistors voor 50% meer "POWAH" - ik weet niet precies hoeveel van de die gebruikt wordt voor de GPC's, maar naar mijn gevoel is dat in verhouding meer dan voor de MC's, outputs en dergelijk. Kan/durft iemand daar iets meer over te zeggen? :p

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:55
3.2 was een foutje van GPU-Z.
Pagina: 1 ... 13 ... 43 Laatste