[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 17 ... 43 Laatste
Acties:

  • Paprika
  • Registratie: September 2007
  • Nu online
mrc4nl schreef op woensdag 15 februari 2012 @ 23:57:
ik hoop dat nvidia weer grote verbeteringen aanbrengt, en dat het niet zo zal verlopen als de 8800/9800.
mijn verwachte preformance winst voor de 600 serie 20-30 procent tov fermi, maar met welk verbruik kan het alle kanten op :/ ik zou het echt niet weten
Ik reken toch wel op meer dan 20-30%, als ze het goed doen. Gezien ie toch weer huge zal zijn, met een groot verbruik, zal 40 a 50% ook nog wel te doen zijn. Yields (en prijzen) is dan weer een ander verhaal.

Dat is dan ook meteen weer het nadeel. De ultimate high-end van de vorige lijn is moeilijk goed (>25%) te verslaan, met een stuk lager verbruik (en eventueel kleinere die-size), omdat de vorige high-end een zuipend beest was. Een GTX580 kan verslagen worden door een chip die minder verbruikt (en een kleinere die-size heeft, door kleinere procedes), zie bv de HD7970, maar dan zit je meteen met een geringe performance-gain. Dus blijf je eigenlijk vast zitten aan een huge die-size met een, zeker t.o.v. 5 a 10 jaar terug, hoog verbruik. Hoe groot de die is boeit eigenlijk als consument nog niet zo, al zul je er wel altijd een deel van terug zien in de prijzen (maar kleinere kaarten kunnen ook duur gepositioneerd worden :z). Verbruik daarintegen lijkt me toch altijd wel relevant. Vaak wordt er dan al iets gezegd van:
Ja, als je zoiets koopt moet je niet naar de energie kijken. Dan ga je voor de kracht.
Maar er zijn toch zeker ook mensen die liever 225-250W verbruik zien (250 t.o.v. 300 is nog altijd een toename van 20%) en toch graag gamen met veel FPS/hogere resoluties. Er wordt de laatste tijd wel al meer gekeken naar het idle verbruik (zie bv 2 7970s in Crossfire in idle), wat natuurlijk al aardige verbeteringen zijn, maar eigenlijk is het best absurd dat de high-end kaarten echt aan de edge van PCI-E specs zitten. Mocht die limiet niet gesteld zijn, zouden we misschien 'single-GPU'-kaarten hebben met 500Watt. Performance is all, right?
Time will tell. Normaal gesproken had ik nog wel eens willen zien hoe een GTX670 het doet in performance/watt t.o.v. de GTX680, maar als je dan naar de GTX570 kijkt (http://www.techpowerup.co...S/GeForce_GTX_570/28.html), dan boeit die 3% ook geen bal meer. Hopelijk krijgen we dan i.i.g. 3-monitor support op 1 kaart. Anders zit je alweer met de opties om 2 GTX660s te kopen (en zit je meteen aan je maximale performance met maar 2 sloten), of 2 GTX680s, maar dat is dan meteen weer een behoorlijk dure grap. 't Zou leuker zijn als je 1 GTX680 kunt kopen, daarop een 3-monitor setup kunt draaien en dan later in het jaar een 2e erbij doen.

The Way It's Meant To Be Hoped. O-)

Morgen maar weer eens 2 weken op wintersport. Misschien dat er al iets nieuws bekend is na 2 weken te leven als een kluizenaar. :+

[ Voor 67% gewijzigd door Paprika op 16-02-2012 07:37 ]


Verwijderd

madmaxnl schreef op woensdag 15 februari 2012 @ 21:06:
offtopic:
[quote]Verwijderd schreef op woensdag 15 februari 2012 @ 16:05:
niet onzuinger
[/quote]

Is dus zuiniger. Ik heb niks tegen verkeerde spelling, omdat ik het ook meer dan vaak verkloot, maar zodra het cryptisch wordt...
offtopic:
niet onzuiniger kan nog altijd ook even zuinig zijn en niet per se zuiniger... Maar deze discussie wordt wel heel onzinnig...

[ Voor 6% gewijzigd door Verwijderd op 16-02-2012 12:45 ]


  • Lt. Big Mack
  • Registratie: Augustus 2010
  • Laatst online: 15-07 13:28
Ik dacht ik drop dit even hier :+
http://vr-zone.com/articl...specifications/14823.html

Dit klinkt een stuk geloofwaardiger w.b.t. GK104. Geen hotclock meer, maar wel meer shaders.
Nu eens zien wat hier van waar is...

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
NVIDIA Prepares GeForce GTX 560 SE to Thwart Radeon HD 7770
  • Based on 40 nm GF114 ASIC
  • 288 CUDA cores
  • 48 TMUs, 24 ROPs
  • 192-bit wide GDDR5 memory interface
  • 1 GB standard memory amount (asymmetric memory chip arrangement à la GTX 550 Ti)
  • Clock speeds: 776 MHz core; 1553 MHz CUDA cores; 952 MHz (3.828 GHz effective) memory, 92 GB/s memory bandwidth

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
-The_Mask- schreef op donderdag 16 februari 2012 @ 19:41:
NVIDIA Prepares GeForce GTX 560 SE to Thwart Radeon HD 7770
  • Based on 40 nm GF114 ASIC
  • 288 CUDA cores
  • 48 TMUs, 24 ROPs
  • 192-bit wide GDDR5 memory interface
  • 1 GB standard memory amount (asymmetric memory chip arrangement à la GTX 550 Ti)
  • Clock speeds: 776 MHz core; 1553 MHz CUDA cores; 952 MHz (3.828 GHz effective) memory, 92 GB/s memory bandwidth
Goed nieuws :)
Misschien wat concurrentie zodat de prijzen omlaag kunnen gaan, de 7750/7770 zijn nu nog gewoon te duur voor wat je er voor terug krijgt.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het is maar wat je goed nieuws noemt. Een verder afgeknepen GF114? Om een nieuw 'goedkoop' mainstream kaartje te bestrijden? Waar is GK106/107 dan, die dat feitenlijk zouden moeten doen? Het feit dat de een nieuwe Fermi SKU in stelling brengen, in plaats van een Kepler releasen, noem ik niet bepaald 'goed nieuws'.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Mag duidelijk zijn dat het dus toch echt nog wel even duurt voordat zelfs een mainstream Kepler chip z'n snoet laat zien :)

Verwijderd

En in hoeverre weet men al zeker dat dit waar is? Lijkt me slimmer om de GTX560 gewoon 10/20 euro in prijs te verlagen, dan heb je iig nog een kaart die een flink stuk sneller is dan de HD7770 en compenseer je het nadeel van meer verbruik. De chip die men gebruikt is dan immers toch hetzelfde. (GTX560 vs GTX560 SE)

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
-The_Mask- schreef op donderdag 16 februari 2012 @ 19:41:
NVIDIA Prepares GeForce GTX 560 SE to Thwart Radeon HD 7770
  • Based on 40 nm GF114 ASIC
  • 288 CUDA cores
  • 48 TMUs, 24 ROPs
  • 192-bit wide GDDR5 memory interface
  • 1 GB standard memory amount (asymmetric memory chip arrangement à la GTX 550 Ti)
  • Clock speeds: 776 MHz core; 1553 MHz CUDA cores; 952 MHz (3.828 GHz effective) memory, 92 GB/s memory bandwidth
Ik weet niet op ik moet huilen of blij zijn... Joepie concurrentie voor de 7770 vanuit nvidia oogpunt. Maar AMD bekampt zichzelf daar nog veel sterker op... maar ok lagere prijzen zijn altijd goed... (zeker in het geval van de 7770)

Maar even serieus... ze gaan een 123mm2 chip bekampen met een 360mm2 chip?

460SE 288Cuda cores @ 650MHz en die zou 10% minder presteren dan de 7770

Die 560SE gaat ~5%meer presteren dan een normale 7770...

Enfin snap niet dat ze zoiets doen, met de komst van de 7770 zitten ze zeker niet slechter in het segment, daar is de 6850-6870 heer en meester (en dat was al het geval). Dus zolang AMD de prijzen van de 7770niet omlaag smijt of de fabrikanten die kaarten niet ocen zonder de prijs te verhogen heeft nvidia geen enkel extra nadeel atrm.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 13:10
Veel te laat, alle potentiële kopers hebben al een 6850...
(veel meer ruimte is er ook niet tussen 550ti en 560 non ti)

Ik weet niet hoeveel moeite/energie dit ze gekost heeft, maar ze hadden het imo beter kunnen besteden door asap een kepler mainstream kaart uit te brengen.

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 12-08 15:23
Als dat ding flashbaar wordt :9~

God does not play dice


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
mitsumark schreef op donderdag 16 februari 2012 @ 22:12:

Ik weet niet hoeveel moeite/energie dit ze gekost heeft, maar ze hadden het imo beter kunnen besteden door asap een kepler mainstream kaart uit te brengen.
Niet meer dan het nog even snel kwijtraken van GPU's die ander weggooit kunnen worden lijkt mij.
Welke videokaart is niet flashbaar dan?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 13:10
-The_Mask- schreef op donderdag 16 februari 2012 @ 22:25:
[...]
Niet meer dan het nog even snel kwijtraken van GPU's die ander weggooit kunnen worden lijkt mij.
Sorry, het was me ontgaan dat het mislukte 560's? zijn.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 13:10
Die dingen weet ik niet allemaal uit mn hoofd, ik ben weer eens te lui geweest om het op te zoeken.

Acties:
  • 0 Henk 'm!

Verwijderd

unlockbaar ;) ,zullen wel lasercut afval gpu's zijn die zo nog in de schappen komen.

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
dahakon schreef op donderdag 16 februari 2012 @ 20:57:
Het is maar wat je goed nieuws noemt. Een verder afgeknepen GF114? Om een nieuw 'goedkoop' mainstream kaartje te bestrijden? Waar is GK106/107 dan, die dat feitenlijk zouden moeten doen? Het feit dat de een nieuwe Fermi SKU in stelling brengen, in plaats van een Kepler releasen, noem ik niet bepaald 'goed nieuws'.
Keppler verwacht ik sowieso voorlopig nog niet maar het is toch nog goed nieuws voor de consument dit, aangezien een GTX 560 SE de prijs van de 7750/7770 nog een beetje omlaag kan drukken.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik las op Hardwareinfo http://nl.hardware.info/n...tratie-aanstaande-vrijdag over de mogelijke 12 april release date....... Nou zit ik sterk te twijfelen om mijn 580 Lightning te verkopen omdat het nu nog wat opbrengt...

vraag me af of dat in de buurt komt van betrouwbaar, heb ook geen zin om mijn 580 voor 200 euro te verkopen als ik er nu 400 voor krijgt bij wijze van. Het is net een beetje als met aandelen.

[ Voor 47% gewijzigd door A87 op 17-02-2012 11:22 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Ik denk dat het beste moment voor het verkopen van je 580 vóór de introductie van de HD7970 was. Dus ik weet niet of het veel uitmaakt.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Lias schreef op vrijdag 17 februari 2012 @ 11:16:
Ik las op Hardwareinfo http://nl.hardware.info/n...tratie-aanstaande-vrijdag over de mogelijke 12 april release date....... Nou zit ik sterk te twijfelen om mijn 580 Lightning te verkopen omdat het nu nog wat opbrengt...

vraag me af of dat in de buurt komt van betrouwbaar, heb ook geen zin om mijn 580 voor 200 euro te verkopen als ik er nu 400 voor krijgt bij wijze van. Het is net een beetje als met aandelen.
Ik zou dat maar niet doen op basis van zulke vroege geruchten. Of je moet amper games spelen en genoeg hebben aaneen 2e hands GTX560 of vergelijkbare kaart. En zeker met de beschikbaarheid van tegenwoordig. Die is in het begin altijd ruk of je betaald veel te veel :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Lias schreef op vrijdag 17 februari 2012 @ 11:16:
Ik las op Hardwareinfo http://nl.hardware.info/n...tratie-aanstaande-vrijdag over de mogelijke 12 april release date....... Nou zit ik sterk te twijfelen om mijn 580 Lightning te verkopen omdat het nu nog wat opbrengt...

vraag me af of dat in de buurt komt van betrouwbaar, heb ook geen zin om mijn 580 voor 200 euro te verkopen als ik er nu 400 voor krijgt bij wijze van. Het is net een beetje als met aandelen.
400 krijg je er nu ook al niet voor lijkt me, daar heb je al een nieuwe 7950 voor. ;)

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Gelukkig zijn er Nvidia fans die blijven toch wel :P, vooral de mensen met 3d vision kits . Prijs kan altijd nog lager als niemand er interesse in heeft na een paar dagen.
de 7950 heeft bij lange na niet zon fijne koeler. Twinfroz3 (30x12cm) is pure kwaliteit bied al een meerwaarde van 50 euro.

Ach, toch maar online gezet voor 380.

Op de gok maar dat de 680 rond mei bestelbaar is.

[ Voor 100% gewijzigd door A87 op 17-02-2012 12:08 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
GK104 zou begin april wel gelanceerd kunnen worden als nVidia de A2 stepping productiewaardig vindt. Als ze toch voor A3 gaan, zou dat met 6 weken extra zo mid mei moeten worden. Uitgaande van de informatie van Charlie. De kink in die informatie zou kunnen zijn de herhaaldelijke statements van Jensen tijdens nVidia's financiele presentatie deze week, dat hun 28nm yields nog steeds niet goed zijn, iets wat tot daarvoor tijd werd ontkend.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 13:08
ach ik haal lekker een 2de 580 denk ik als de nieuwe kaarten worden geintroduceerd. Dan mooi sli.

Je kan ze nu nog wel voor 3-- nog iets verkopen als die nieuwe kaarten inderdaad zo goed zijn dan gaat dat snel naar 200 denk ik ja :P

Acties:
  • 0 Henk 'm!

Verwijderd

Lias schreef op vrijdag 17 februari 2012 @ 11:53:
Gelukkig zijn er Nvidia fans die blijven toch wel :P, vooral de mensen met 3d vision kits . Prijs kan altijd nog lager als niemand er interesse in heeft na een paar dagen.
de 7950 heeft bij lange na niet zon fijne koeler. Twinfroz3 (30x12cm) is pure kwaliteit bied al een meerwaarde van 50 euro.

Ach, toch maar online gezet voor 380.

Op de gok maar dat de 680 rond mei bestelbaar is.
Ik zou die koeler nog voor geen goud willen hebben, maximale wat ik voor dat ding zou bijbetalen is 25 euro.

Wat die verkoopprijs van de gtx580 aangaat: die gaan al tijden voor rond de 300 euro, af en toe biedt iemand eentje goedkoper aan, vaker voor onredelijk hoge prijzen. Tegenover de hd7970/hd7950 zal er niet zo gek veel afgaan, omdat die kaarten behoorlijk duur zijn op dit moment. Al kan AMD die prijs verantwoorden aangezien nVidia nog geen concurrent heeft. Maar als ik een gtx580 had liet ik die mooi zitten, heb je altijd met die high-end kaarten, je betaalt per % performance stukken meer tov bv een gtx570, dan kun je laatsgenoemde net zo goed overclocken om dezelfde performance te krijgen (al is dat atm niet meer relevant, AMD heeft de beste kaarten in handen).

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 17 februari 2012 @ 12:29:
dat hun 28nm yields nog steeds niet goed zijn, iets wat tot daarvoor tijd werd ontkend.
Heeft Nvidia daar eigenlijk uberhaupt zelf eerder wel iets over gezegd in een officiële statement, ik meen dat het nu voor het eerst vanuit Nvidia zelf komt. Wat dat betreft is het zeer stil geweest voor Nvidia begrippen...

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 17 februari 2012 @ 16:05:
[...]

Heeft Nvidia daar eigenlijk uberhaupt zelf eerder wel iets over gezegd in een officiële statement, ik meen dat het nu voor het eerst vanuit Nvidia zelf komt. Wat dat betreft is het zeer stil geweest voor Nvidia begrippen...
http://www.xbitlabs.com/n...m_Process_Technology.html

Statements van Jensen opgenomen in dit artikel, over hoe veel beter 28nm is voor nVidia. Zal vast nog wel meer te vinden zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Tja, maar dan nog, het is misschien lager dan verwacht, maar het zullen niet dezelfde (grote) problemen zijn die ze met Fermi hadden. Wat dat betreft vind ik dat je de boel een beetje uit z'n verband trekt. Ook omdat er altijd ontwikkelingen zijn die ervoor gezorgd hebben dat ze nu tegen wat problemen zijn aangelopen die ze eerder niet hadden en ook niet voorzien konden.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op vrijdag 17 februari 2012 @ 23:11:
Ook omdat er altijd ontwikkelingen zijn die ervoor gezorgd hebben dat ze nu tegen wat problemen zijn aangelopen die ze eerder niet hadden en ook niet voorzien konden.
Zoals? Fermi was niet NVIDIA's eerste 40nm GPU en de Kepler GPU die iedereen als eerste verwachte ligt ook al een tijdje in het mortuarium.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 17 februari 2012 @ 23:11:
Tja, maar dan nog, het is misschien lager dan verwacht, maar het zullen niet dezelfde (grote) problemen zijn die ze met Fermi hadden. Wat dat betreft vind ik dat je de boel een beetje uit z'n verband trekt. Ook omdat er altijd ontwikkelingen zijn die ervoor gezorgd hebben dat ze nu tegen wat problemen zijn aangelopen die ze eerder niet hadden en ook niet voorzien konden.
Vooronderzoek, testwafers, testchips, steppings, ze zijn er allemaal om de eventuele ontwikkelingen die yields verlagend kunnen werken tegen te gaan. Je vroeg of nVidia had gezegd dat alles goed was en er is een statement waarin naar voren komt dat nVidia goed bekend is met het 28nm process en dat problemen als die bij 40nm niet bestaan. Verder is het Jensen zelf die het over problemen met 28nm had bij de reportage van de financiele cijfers eerder deze week, niemand anders. Wat de reden voor de 'slechte' yields is, doet weinig terzake.
Wat terzake doet, is dat AMD ondertussen al anderhalve maand nieuwe kaarten op de markt heeft en het nog wel gauw anderhalve maand gaat duren voor nVidia nieuwe kaarten met 28nm chips op de markt kan zetten. Dan heeft AMD zijn hele line-up al in de winkel liggen. Als er al ontwikkelingen waren die ervoor zorgden dat er nu wat problemen zijn, waarom kan de concurrent dan wel leveren?

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
dahakon schreef op vrijdag 17 februari 2012 @ 23:38:
[...]

Dan heeft AMD zijn hele line-up al in de winkel liggen. Als er al ontwikkelingen waren die ervoor zorgden dat er nu wat problemen zijn, waarom kan de concurrent dan wel leveren?
Omdat amd wellicht te weinig tijd heeft genomen om goede producten neer te zetten? Hetgeen amd nu gelanceerd heeft stelt immers niet veel voor. De 7970 is amper sneller dan de 580. De 7950 is ongeveer net zo snel en net zo duur als de 580. Vergeet niet dat de 580 al tijden op de markt is. De 77xx kaarten stellen al helemaal niks voor. Bij dergelijke kaarten gaat het om prijs/prestatie en als die slecht is, is de kaart slecht. Er is een kans dat op het moment dat nVidia met nieuwe kaarten op de markt komt dat de 7xxx serie gewoon totaal obsoleet is en het meer dan een paar maanden gaat duren voor amd een echt antwoord gaat hebben. Lijkt me namelijk best plausibel dat nVidia tijdens het ontwikkelingsproces de lat hoger had gelegd dan waar amd hem nu legt met de 7xxx serie.

[ Voor 11% gewijzigd door Springstof op 18-02-2012 07:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

20-40% vind jij amper sneller? Je maakt jezelf wel heel ongeloofwaardig op deze manier. Net zo snel is natuurlijk onzin, maar dat weet je zelf ook wel.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Net alsof je een product dat meer dan drie jaar in ontwikkeling is nog even snel in de laatste paar weken helemaal kan aanpassen zodat de prestaties een stuk hoger liggen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Wie zegt dat het betreffende nodig is? Ga er daarom maar vanuit dat het niet in lijn der verwachting van nVidia ligt/lag om Kepler slechts 20-25% sneller te maken dan Fermi.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Springstof schreef op zaterdag 18 februari 2012 @ 11:45:
Wie zegt dat het betreffende nodig is? Ga er daarom maar vanuit dat het niet in lijn der verwachting van nVidia ligt/lag om Kepler slechts 20-25% sneller te maken dan Fermi.
Maar Tahiti is 40-50% sneller than Cayman. Dat de afstand tot GF110 kleiner is, doet daar niets aan af. De producten van AMD, met in acht neming dat er behoorlijk wat GPGPU randzaken zijn toegevoegd, voldoet prima aan wat je mag verwachten van de overgang van 40nm naar 28nm. Daarnaast zijn de kaarten te koop en heeft AMD gesteld dat yields naar verwachting zijn, een ander geluid dan Jensens 'TSMC screws us again' die we eerder hebben gehoord.

Daarnaast, als GK104 ~40% sneller zou moeten worden dan GF114, dan zit je nog ergens rond GTX580, ofwel Tahiti Pro. Niets mis mee natuurlijk, maar wat zegt dat over het commentaar over de prestatiewinst die AMD heeft bewerkstelligd?

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Springstof schreef op zaterdag 18 februari 2012 @ 11:45:
Wie zegt dat het betreffende nodig is? Ga er daarom maar vanuit dat het niet in lijn der verwachting van nVidia ligt/lag om Kepler slechts 20-25% sneller te maken dan Fermi.
ik denk dat de nieuw serie 120% sneller wordt dan de 580.
met eventueel 1024 shaders en optimalisatie + 300/350GBPS mem is het zeer goed mogelijk.
1024 shaders is sowieso goed mogelijk op 6.4M transistors met een oppervlak van 5x5 en een verbruik van 250w.

Eerst liep AMD voor, grote kans dat het nu weer Nvidia wordt.

[ Voor 27% gewijzigd door A87 op 18-02-2012 14:51 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
120%? Dus waar een GF110 60 FPS doet gaat Kepler er 132 doen? :P

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

jup, zal me niets verbazen. En het mag ook wel weer is na al die jaren.
Bijna alle games draaien zowieso slecht op de hardware (port gaming).

Mijn 580 heeft nog moeite met sonic 3d. Overkill aan hardware is altijd wel fijn.
Skyrim stottert bij mij op Ultra, moet je nagaan.

overkill bestaat niet in PC land.

8800 GTX vs 280 280VS 480... allemaal abnormaal groot verschil. Hoe groot is de kans dat de 680 gehakt maakt van de 580.. met 120%... nou ik denk toch wel aanzienlijk.

Dan kan je zeggen dat het 20/40% wordt maar dat lijkt mij volstrekt onlogisch als je het objectief bekijkt.
Komt nog eens bij dat het op 28NM is en er flink wat speling is op kloksnelheden.

[ Voor 244% gewijzigd door A87 op 18-02-2012 15:06 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Lias schreef op zaterdag 18 februari 2012 @ 14:51:
jup, zal me niets verbazen. En het mag ook wel weer is na al die jaren.
Bijna alle games draaien zowieso slecht op de hardware (port gaming).

Mijn 580 heeft nog moeite met sonic 3d. Overkill aan hardware is altijd wel fijn.
Skyrim stottert bij mij op Ultra, moet je nagaan.

overkill bestaat niet in PC land.

8800 GTX vs 280 280VS 480... allemaal abnormaal groot verschil. Hoe groot is de kans dat de 680 gehakt maakt van de 580.. met 120%... nou ik denk toch wel aanzienlijk.

Dan kan je zeggen dat het 20/40% wordt maar dat lijkt mij volstrekt onlogisch als je het objectief bekijkt.
Komt nog eens bij dat het op 28NM is en er flink wat speling is op kloksnelheden.
De GTX 480 was ook maar ~50% sneller dan de GTX 280 en verbruikte ook nog is veel meer dus 120% sneller? droom verder.
Dat de nieuwe generatie 120% sneller is dan de vorige komt vrijwel nooit voor, de afgelopen jaren sowieso al niet meer.

Het verschil tussen de 8800GTX en de GTX280 was zelfs nog kleiner.

[ Voor 3% gewijzigd door Redblader op 18-02-2012 15:23 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

je haalt wel meer 50% is bepaalde games die er echt aan trekken.
Max settings en een load AA.
Extra hoge reso´s

[ Voor 29% gewijzigd door A87 op 18-02-2012 15:19 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Lias schreef op zaterdag 18 februari 2012 @ 14:48:
[...]


ik denk dat de nieuw serie 120% sneller wordt dan de 580.
met eventueel 1024 shaders en optimalisatie + 300/350GBPS mem is het zeer goed mogelijk.
1024 shaders is sowieso goed mogelijk op 6.4M transistors met een oppervlak van 5x5 en een verbruik van 250w.

Eerst liep AMD voor, grote kans dat het nu weer Nvidia wordt.
Nvidia liep voor... de laatste jaren heeft nvidia altijd de beste single gpu peformance gehad. Dus dat zal nu ook niet veranderen denk ik. Waar nvidia wel een probleem mee gehad heeft is verbruik en die size+ yields... en dat lijkt ook nu weer niet te veranderen.

28 is gewoon een node shrink zoals elke voorgaande node schrinks, ook toen haalden de fabrikanten maar 40% extra tegenover hun vorig design zonder TDP drastisch te verhogen.

Ow ja gezien top kepler 384bit memory bus krijgt ziet het ernaar uit dat ook die minder bandbreedte krijgt dan de 7950/7970. en 1024 shaders? tuurlijk kan best, maar dan heb je geen clockingruimte meer, terug een grote die size, terug slechte yields... en zit je boven de 300W TDP. Dus dan veranderd de situatie niet tegenover de laatste jaren.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ja, AMD liep voor bij 5000 toen Nvidia met 480 Nu weer AMD straks weer Nvidia

[ Voor 5% gewijzigd door A87 op 18-02-2012 15:21 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Lias schreef op zaterdag 18 februari 2012 @ 15:20:
Ja, AMD liep voor bij 5000 toen Nvidia met 480 Nu weer AMD straks weer Nvidia
Ik zou niet echt zeggen dat Nvidia voor liep met de GTX4xx kaarten, in absolute performance wel maar als je dan keek naar prijs/performance en performance/watt dan was alleen de GTX460 een goede kaart en deed AMD het met de rest veel beter.

Maar je kan hoe dan ook niet zeggen hoe de toekomst zal zijn omdat het in het verleden eerder zo is geweest, er kunnen altijd dingen anders lopen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sorry Lias, maar 120% is toch echt veel te ambitieus. Zo veel valt er niet te halen uit 28nm; G80 naar GT200(a) was ook een grote sprong (90nm naar 65nm). Een GTX 280 is in het allergunstigste geval zo'n 70% sneller dan een oude 8800 GTX; gemiddeld mag je eerder op hooguit zo'n 50% rekenen. De grote grap is echter dat GT200 ook nog eens zo'n 90mm^2 groter dan G80 was (heb het deze keer maar even opgezocht; WP zegt ~484mm^2 voor G80, ~576mm^2 voor GT200). Overigens was het juist in zwaardere games waar het verschil kleiner was; in Crysis kwam je niet eens aan die 50% vooruitgang.

Die ruimte hebben ze nu niet. Ze kunnen de chip simpelweg niet nog groter gaan maken. Er kan wel het een en ander veranderd worden qua architectuur, maar ik betwijfel ten zeerste of Kepler daadwerkelijk zo veel anders zal zijn als sommigen denken. GT200 was niets meer dan een uitgebouwde G80; de veranderingen die ze maakten zaten met name richting het geheugen en de ROP's. De SM's waren hetzelfde, de TPC's nagenoeg ook, er zat alleen een extra SM in. All-in-all, GT200 had 87.5% meer kracht in theorie puur op SP's - daarnaast was hij ook nog eens hoger geklokt. Met andere woorden, G80 kleiner gemaakt en vervolgens uitgebouwd. Ik gok dat Kepler wellicht iets meer dingen zal veranderen, maar niets schokkends - het zal nog steeds grotendeels Fermi zijn en dan iets verder uitgebouwd. Ze hebben echter gewoon minder ruimte, omdat hun basis chip al groter is.

Dus nee, 120% vooruitgang (dus 220% performance) zou ik niet op rekenen. 50% mogen we al heel erg tevreden mee zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Achja de een wil kostte wat kost de beste prestaties, waar de andere op enkele tientallen watts verschil let.

Al vind ik zelf 200-250watt tussen twee kaarten nog wel te overzien, dan klik ik wel een lampje uit welke 75watt verbruikt. En met led-spots zit je bijna in het duister, of je moet er al hebben die ook enkele tientallen watts verstoken, waar het voordeel dan wegvalt.

Lang verhaal kort, het is maar net hoe een ieder er tegenaan kijkt, ik ben zelf ook iemand die liever voor de performance gaat, als ik nu met mijn gtx460 20fps haal ga ik niet denken van: 'owyeahhh wat ben ik blij met mijn kaart die stukken zuiniger is dan een gtx480!'. Dat ik op dit moment geen 600 euro voor een videokaart ga uitgeven, en mijn gtx460 ruim voldoet voor mijn doen doet daar niets aan af.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 17 februari 2012 @ 23:38:
[...]
Wat terzake doet, is dat AMD ondertussen al anderhalve maand nieuwe kaarten op de markt heeft en het nog wel gauw anderhalve maand gaat duren voor nVidia nieuwe kaarten met 28nm chips op de markt kan zetten. Dan heeft AMD zijn hele line-up al in de winkel liggen. Als er al ontwikkelingen waren die ervoor zorgden dat er nu wat problemen zijn, waarom kan de concurrent dan wel leveren?
Wellicht omdat Nvidia een een ander chip ontwerp heeft en die makkelijker voor meer problemen kan zorgen. Wellicht omdat het ontwerp slecht is en die van AMD goed? Werk ik daar? Tjongejonge, het is toch altijd hetzelfde hier, ik vraag me gewoon wat af en gelijk is het weer 'AMD heeft z'n spullen al af en Nvidia niet'. Volgens mij ging het hier niet over AMD, wel? Ik vind het prima dat je AMD fan bent (ojee, ik neem het woordje 'fan' in de mond), maar wat heeft dat voor een zin hier?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

MW1F, je somt perfect op waarom ik eigenlijk al maanden niets meer post in beide GPU topics. Ik zie niets in het zure toon van de dialoog die maar niet ophoudt.

Ja. We weten dat AMD eerder is. Je hoeft bestaan niet te valideren door dit eindeloos te herhalen. We gaan over een tijdje weten of het wachten het waard was of niet. Dan zien we wel weer verder.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Devpartner schreef op zaterdag 18 februari 2012 @ 15:19:
Nvidia liep voor... de laatste jaren heeft nvidia altijd de beste single gpu peformance gehad.
Sinds wanneer is dat? De laatste jaren is het toch wel aardig stuivertje wisselen. Of bedoel je generaties kaarten op hetzelfde proces?

Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op zaterdag 18 februari 2012 @ 18:57:
MW1F, je somt perfect op waarom ik eigenlijk al maanden niets meer post in beide GPU topics. Ik zie niets in het zure toon van de dialoog die maar niet ophoudt.

Ja. We weten dat AMD eerder is. Je hoeft bestaan niet te valideren door dit eindeloos te herhalen. We gaan over een tijdje weten of het wachten het waard was of niet. Dan zien we wel weer verder.
Tja, je praat hier vaak tegen een bolwerk op dat van alles op de hoogte is wat bij AMD en Nvidia speelt, toch knap aangezien niemand hier voor één van beide werkt.
De toon is hier te vaak van negatieve aard, ofwel moet er weer iets bij betrokken worden waarom de ene goed is (vaak AMD) en de ander slecht. Dit is helemaal nergens voor nodig.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zaterdag 18 februari 2012 @ 18:49:
Wellicht omdat Nvidia een een ander chip ontwerp heeft en die makkelijker voor meer problemen kan zorgen. Wellicht omdat het ontwerp slecht is en die van AMD goed? Werk ik daar? Tjongejonge, het is toch altijd hetzelfde hier, ik vraag me gewoon wat af en gelijk is het weer 'AMD heeft z'n spullen al af en Nvidia niet'. Volgens mij ging het hier niet over AMD, wel? Ik vind het prima dat je AMD fan bent (ojee, ik neem het woordje 'fan' in de mond), maar wat heeft dat voor een zin hier?
Sorry, maar ik gaf toch een heel normaal antwoord. Je vroeg op de stelling dat nVidia een ander geluid liet horen of ze eerder uberhaupt iets over yields hadden gezegd. Dat hebben ze en dat geef ik aan, zonder enig waardeoordeel of lofzang naar een andere ontwerper, is het weer niet goed.

Dan kom je met de stelling 'misschien is het lager dan verwacht', maar als CEO ga je op een financiele presentatie niet over slechte yields praten als het lager dan verwacht is, dat doe je als ze slecht zijn. Hoe hoog de verwachtingen waren, dat weet niemand. Normaal gesproken beginnen ze ergens rond de 60% yield met ramp-up en dan gaat het daarvandaan nog behoorlijk omhoog. Het aanhalen van AMD was ter ondersteuning dat het process dus al wel productierijp is, niets meer, niets minder. Het had ook een andere ontwerper kunnen zijn.

Vervolgens doet iemand anders even alsof de HD7k een copy-paste werkje was, waardoor ze zoveel eerder zouden kunnen zijn, maar dat is ook te kort door de bocht. Bottomline zal inderdaad zijn dat het ontwerp dat nVidia in gedachten had niet helemaal uit de verf komt zoals gedacht/gehoopt. Dat zegt verder nog helemaal niets over prestaties.

Dat dit nieuws, dat de yields niet goed zijn, wat door Jensen zelf naar buiten wordt gebracht op een belangrijk event, hier niet genoemd mag worden zonder dat dit tot scheve ogen lijdt, zegt niet zo heel veel over mij. Het is geen roddel, geen nVidia-bashen, het is geen opgeblazen verhaaltje, het is gewoon wat Jensen zelf meldt aan investeerders, analysten en reporters. Neem het zoals het is, het wordt er toch niet anders van.

Groetjes,

Fan...

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Redblader schreef op zaterdag 18 februari 2012 @ 15:15:
[...]


De GTX 480 was ook maar ~50% sneller dan de GTX 280 en verbruikte ook nog is veel meerr?
http://www.hwcompare.com/...x-280-vs-geforce-gtx-480/

GTX 280 vs GTX 480 = 82%. Ik zat dus wel in de buurt van 2x zo snel als de 280
Hier is dus absoluut niets 'maar' aan

En verbruikt meer? nou wel 16 watt.

Ik ga er dan ook van uit dat de 680 flink sneller wordt dan de 580, flink meer dan 40%.
Ik gok 120% Maar we zullen zien.

[ Voor 34% gewijzigd door A87 op 18-02-2012 20:47 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

Verwijderd

Lias schreef op zaterdag 18 februari 2012 @ 20:41:
Ik ga er dan ook van uit dat de 680 flink sneller wordt dan de 580, flink meer dan 40%.
Ik gok 120% Maar we zullen zien.
Ik denk dat je hier leuk vanuit kunt gaan, maar ik denk in dat geval ook dat je jezelf gouden bergen aan het beloven bent en flink teleurgesteld zal zijn. Onrealistische verwachtingen hebben is niet um... realistisch.

[ Voor 198% gewijzigd door Verwijderd op 18-02-2012 21:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Goed bezig -_-'

[ Voor 96% gewijzigd door Verwijderd op 18-02-2012 21:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zaterdag 18 februari 2012 @ 20:19:
[...]
Dat dit nieuws, dat de yields niet goed zijn, wat door Jensen zelf naar buiten wordt gebracht op een belangrijk event, hier niet genoemd mag worden zonder dat dit tot scheve ogen lijdt, zegt niet zo heel veel over mij.
Wie zegt dat dit hier niet genoemd mag worden? Maar het wordt wel weer zo gebracht alsof er eerder over gelogen werd terwijl we echt niet weten wat er allemaal speelt. Ik ga ook niet zeggen dat Nvidia gelijk heeft dat het de schuld van TSMC is, maar je kan ook niet zonder informatie zeggen dat het per se de schuld is van Nvidia. Weet jij welke problemen ze zijn tegengekomen waardoor de yields toch tegenvallen? Het is vaak veel te zwart/wit hier, zonder dat men eigenlijk echte informatie heeft om er uitspraken over te doen.

Misschien is het logischer om te zeggen dat het jammer/vervelend is dat de yields van nvidia lager liggen dan gehoopt, want het kan er wellicht voor zorgen dat er minder kaarten beschikbaar zijn en dat de prijs hoger kan liggen en dat het dus gevolgen kan hebben op de concurrentie t.o.v. AMD. iets waar iedereen eigenlijk op zit te wachten om wat druk op de hoge prijzen van AMD te zetten.

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Lias schreef op zaterdag 18 februari 2012 @ 20:41:
[...]


http://www.hwcompare.com/...x-280-vs-geforce-gtx-480/

GTX 280 vs GTX 480 = 82%. Ik zat dus wel in de buurt van 2x zo snel als de 280
Hier is dus absoluut niets 'maar' aan

En verbruikt meer? nou wel 16 watt.

Ik ga er dan ook van uit dat de 680 flink sneller wordt dan de 580, flink meer dan 40%.
Ik gok 120% Maar we zullen zien.
Mijn informatie komt van een echte review site, namelijk Techpowerup en niet zo'n brakke "review" site als hwcompare. ;)
Mocht je twijfelen of ik wel de waarheid spreek, wees vrij om de GTX 480 review op Techpowerup te bekijken en dan bij de performance summary te kijken.

Acties:
  • 0 Henk 'm!

Verwijderd

Redblader schreef op zaterdag 18 februari 2012 @ 22:32:
[...]


Mijn informatie komt van een echte review site, namelijk Techpowerup en niet zo'n brakke "review" site als hwcompare. ;)
Mocht je twijfelen of ik wel de waarheid spreek, wees vrij om de GTX 480 review op Techpowerup te bekijken en dan bij de performance summary te kijken.
Uit die review blijkt dat op 1200p de GTX480 ~54% sneller is dan de GTX280 en ~41% sneller dan de GTX285. Ga je het vergelijken met de GTX580 (volledig werkende chip, dus ware potentie), dan is de GTX580 ~78% sneller dan de GTX280 en 64% sneller dan de GTX285.
Gebasseerd op;
- http://www.techpowerup.co...rce_GTX_480_Fermi/32.html
- http://www.techpowerup.co...A/GeForce_GTX_580/27.html

Wat dat betreft zou een gain van 50-60% wel mogelijk moeten zijn voor het top model. Of dit zo zal zijn moet de tijd uitwijzen... ;)

Acties:
  • 0 Henk 'm!

Verwijderd

HW compare is echt dé site die wat mij betreft niet in mijn zoekopdrachten returned hoeft te worden. Beetje resultaten berekenen en verder is het ook niet veel soeps.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Nou, top review site heb je daar gevonden.... Wat een onzin.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Verwijderd schreef op zaterdag 18 februari 2012 @ 22:42:
[...]

Uit die review blijkt dat op 1200p de GTX480 ~54% sneller is dan de GTX280 en ~41% sneller dan de GTX285. Ga je het vergelijken met de GTX580 (volledig werkende chip, dus ware potentie), dan is de GTX580 ~78% sneller dan de GTX280 en 64% sneller dan de GTX285.
Gebasseerd op;
- http://www.techpowerup.co...rce_GTX_480_Fermi/32.html
- http://www.techpowerup.co...A/GeForce_GTX_580/27.html

Wat dat betreft zou een gain van 50-60% wel mogelijk moeten zijn voor het top model. Of dit zo zal zijn moet de tijd uitwijzen... ;)
Als je dan voor de lol de verbruik cijfers erbij haalt dan weet je dat het vermogen om die 60% te halen drastisch gestegen is.

De 580 doet het 7%!! beter in performance/w dan de 285 terwijl ze wel 60% meer performance leveren op 1920.

Dit si trouwens al ontelbare keren aangehaald geweest. In alle vorige generaties hebben de grote performance jumps gelijk opgegaan met grotere die soze of/en met hoger verbruik. Volgens die cijfers zou je voor 60% extra performance mogen rekenen op 360W TDP. Zelfs als je daar 60w kunt recuperen omdat fermi brak was op dat vlak, dan nog zit je met een 300W TDP (60W hoger dan hun huidig topmodel)

[ Voor 9% gewijzigd door Devpartner op 18-02-2012 23:53 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Noel schreef op zaterdag 18 februari 2012 @ 23:15:
[...]


Nou, top review site heb je daar gevonden.... Wat een onzin.
ik schreef geen wtf

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

De wtf slaat op de slechte review site die je had gevonden, de review site pakt namelijk maar een handjevol games en ook nog eens de cijfers van tomshardware. Tomshardware vind ik zelf nou niet een topsite als het om videokaart reviews gaat.

Ik ben het met devpartner eens dat een veel (100%) snellere gtx680 ook meer stroom pakt als je de situatie van de vorige generaties kaarten doortrekt. Ook zal die de die size moeten groeien.
Als Nvidia een nieuwe architectuur heeft dan zou het misschien beter kunnen, maar Kepler was toch volgens mij nog steeds een vergelijkbare architectuur?
neliz schreef op vrijdag 17 februari 2012 @ 23:13:
[...]
Zoals? Fermi was niet NVIDIA's eerste 40nm GPU en de Kepler GPU die iedereen als eerste verwachte ligt ook al een tijdje in het mortuarium.
Neliz wat bedoel je met dat de eerder geplande Kepler niet dezelfde is als we nu te zien krijgen?
Dat zou betekenen dat hun vorige ontwerp heeft gefaald, dat verklaard waarschijnlijk ook de vertraging die ze hebben opgelopen.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:59

Tomas Hochstenbach

Redacteur componenten
GK100 had de nieuwe high-end GPU moeten zijn, maar is door stroomverbruik flink verlaat en wordt ergens in Q3 uitgebracht als GK112. Geen GK110 omdat die naam al bezet was. Nu zien we de 'mid-range' GK104 dus eerst, terwijl GK100 nu al uit had moeten zijn.

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Nu online
TomasH schreef op zondag 19 februari 2012 @ 14:30:
GK100 had de nieuwe high-end GPU moeten zijn, maar is door stroomverbruik flink verlaat en wordt ergens in Q3 uitgebracht als GK112. Geen GK110 omdat die naam al bezet was. Nu zien we de 'mid-range' GK104 dus eerst, terwijl GK100 nu al uit had moeten zijn.
Volgens geluiden was er sprake van een GK100, en dat die zou zijn geschrapt. Er wordt nu vooral gesproken over een GK110 (Q4), waarbij GK104 (Q2) voorlopig het topmodel blijft. GK110 zou dan al vast in de GTX 7xx serie kunnen vallen. GK104 zou zelfs de naam GTX 680 meekrijgen.

De geluiden zijn ook dat GK104 sneller is dan Tahiti.....

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Huh, ik vind het niets voor nVidia om een relatief kleine GPU als highest-end uit te brengen. Dan voorzag ik eerder een GTX 480-oid graphics card.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
XanderDrake schreef op zondag 19 februari 2012 @ 18:01:
Huh, ik vind het niets voor nVidia om een relatief kleine GPU als highest-end uit te brengen. Dan voorzag ik eerder een GTX 480-oid graphics card.
Tja, als ze niet anders kunnen.
Maar voor ATI pakte dat ooit heel aardig uit -> HD4870.

En als ik SA zo een beetje lees komt het er op neer dat de GK104 kleiner is dan Tahiti(goedkoper), 256-bit (minder lagen PCB nodig dus goedkoper dan Tahiti), zuiniger en toch de prestaties benaderd.

Als dat zo is en ze plakken er GTX680 op, dan vind ik dat nog niet eens zo gek.

EDIT: Nope, digitimes zegt GTX660 http://www.digitimes.com/news/a20120215PD219.html

[ Voor 6% gewijzigd door Toettoetdaan op 19-02-2012 18:55 ]


Acties:
  • 0 Henk 'm!

  • Jack77
  • Registratie: Juni 2003
  • Laatst online: 08-08 18:06
Zeer interessante "discussie" over die-size en business model in de comments bij dit artikel.

(Al deel ik niet de mening dat AMD pas recent aan CGPU aan het DENKEN is. Gans het Fusion-verhaal is CGPU gebaseerd. Alleen was er nog geen product dat er echt op gericht was sinds de 7xxxx-reeks (CGN).
VLIW-4 (Cayman) was volgens mij ook maar een stopgap solution en een veiligheidsoplossing voor in het geval de CGN architectuur tegen viel en doorontwikkeld moest worden voordat er effectief producten op de markt konden worden gebracht.)

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:59

Tomas Hochstenbach

Redacteur componenten
The GK100 'Kepler' and its GK110 follow on were supposed to wrest that lead back to Nvidia, just a month or two from now. However, right now it looks a gone case, at least for the next half year. For whatever reasons, the GK104 upper mid-range part, a follow on to the GeForce 560 family, is now the top-end part to launch, and it can't - I mean can't - win over the HD7970 in any meaningful use. That role was reserved for the GK100 and follow ons.
Komt van het artikel van Nebojsa Novakovic (ex-The Inquirer) op VR-Zone. Leuke is dat Charlie ook van The Inquirer kwam.

Dit is eigenlijk een beetje wat iedereen verwachtte van GK104, toch? Iedereen vond de eerste geruchten over een super-performance GK104 niets meer dan NVIDIA-fanboypraat. Door de bevestigingen van Charlie zijn we het gaan geloven. Wie zegt dat het zo is?

Dat NVIDIA problemen had met GK100/GK112 is duidelijk. NVIDIA gaat zo'n kaart echt niet voor de lol uitstellen tot het derde kwartaal. Ben benieuwd welke van de weggelopen Inquirers gelijk heeft.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
TomasH schreef op maandag 20 februari 2012 @ 11:27:
[...]
Dit is eigenlijk een beetje wat iedereen verwachtte van GK104, toch? Iedereen vond de eerste geruchten over een super-performance GK104 niets meer dan NVIDIA-fanboypraat. Door de bevestigingen van Charlie zijn we het gaan geloven. Wie zegt dat het zo is?
Waar zegt Charlie dat GK104 super-performance heeft/de HD7970 voorbij loopt?

Tot zo ver ik weet heeft hij alleen gezegd dat de architectuur van GK beter is dan die van GCN.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:59

Tomas Hochstenbach

Redacteur componenten
Toettoetdaan schreef op maandag 20 februari 2012 @ 11:33:
[...]

Waar zegt Charlie dat GK104 super-performance heeft/de HD7970 voorbij loopt?

Tot zo ver ik weet heeft hij alleen gezegd dat de architectuur van GK beter is dan die van GCN.
The short story is that Nvidia (NASDAQ:NVDA) will win this round on just about every metric, some more than others.
Later werd het al weer wat minder positief:
All of the benchmark numbers shown by Nvidia, and later to SemiAccurate, were overwhelmingly positive. How overwhelmingly positive? Far faster than an AMD HD7970/Tahiti for a chip with far less die area and power use, and it blew an overclocked 580GTX out of the water by unbelievable margins. That is why we wrote this article. Before you take that as a backpedal, we still think those numbers are real, the card will achieve that level of performance in the real world on some programs.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Toettoetdaan schreef op zondag 19 februari 2012 @ 18:32:
En als ik SA zo een beetje lees komt het er op neer dat de GK104 kleiner is dan Tahiti(goedkoper), 256-bit (minder lagen PCB nodig dus goedkoper dan Tahiti), zuiniger en toch de prestaties benaderd.
De situatie zoals die t.t.v. de HD48xx, HD58xx en HD68xx serie voor AMD was, maar nu gaan ze dus stuivertje wisselen ?

Acties:
  • 0 Henk 'm!

Verwijderd

Dat zou wel betekenen dat ze van het verleden geleerd hebben :)

Meer hoopvol; goedkopere Nvidia-kaarten :Y

Acties:
  • 0 Henk 'm!

Verwijderd

En nu gaat het de GTX670 Ti worden;
http://vr-zone.com/articl...rce-gtx-670-ti/14952.html

En nog steeds tussen de HD7950 en HD7970 in. De opvolger van de GTX580 dus in Q3 en misschien zelfs Q4... Dat schiet op.... :F

Das goed nieuws voor AMD, de HD7970 en straks ook de HD7990 zullen in het top-segment dus zeker nog een half jaar de dienst uit maken.

[ Voor 8% gewijzigd door Verwijderd op 20-02-2012 21:26 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op maandag 20 februari 2012 @ 19:09:
Dat zou wel betekenen dat ze van het verleden geleerd hebben :)

Meer hoopvol; goedkopere Nvidia-kaarten :Y
nVidia zou voor het eerste de prijs eens kunnen dicteren i.p.v. achter AMD aan te lopen. Tot nu toe had AMD altijd beter prijs/prestatie verhoudingen en kon nVidia daar vrij weinig aan doen omdat AMD goedkoper kon produceren (die size en PCB). Enfin, als de GK104 ongeveer zo snel als een HD7950 gaat zijn hebben ze drie voordelen; kleinere die size, kleinere memory controller en 1GB geheugen minder (dus lagere kosten voor de chip en de PCB). De laatste twee hebben waarschijnlijk een minimale impact op de performance waardoor hij toch nog goed mee zou kunnen met de HD7950.

Ik moet wel zeggen dat de AMD een erg mooie klassering/indeling heeft:
HD79xx: ~365mm2 groot, 384bits geheugenbus en 3GB geheugen.
HD78xx: ~244mm2 groot, 256bits geheugenbus en 2GB geheugen.
HD77xx: ~123mm2 groot, 128bits geheugenbus en 1GB geheugen.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Eens ander nVidia nieuws buiten videokaarten in (myeah thoort misschien niet in Videokaarten en beeldschermen). Je moet het vooral kaderen in de aquisitie en uitbreiding van de portefolio:

Frontpage: ZTE brengt eerste smartphone uit met 3g-chip van Nvidia

Werkende en concurrentiele 3/4g chips zijn fundamenteel voor hun tegra platform wat dus te vervanging dient van de verloren gegaande geldkoe: chipsets voor moederborden. Hoe geïntigreerder nVidia soc's zijn hoe beter, al is het maar omdat de concurrentie ook verre van stilstaat >:)

PS: Persoonlijk vind ik het een late lancering daar de Tegra2 chip nu toch wel al voorbij gestreefd geraakt, tis Tegra3 waarmee ze moeten afkomen + promotie maken (tlijkt wel hun gpu afdeling, veel geruchten en publiciteit maar vooral lang wachten ;) )

Specs


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
TomasH schreef op maandag 20 februari 2012 @ 11:27:
[...]

Komt van het artikel van Nebojsa Novakovic (ex-The Inquirer) op VR-Zone. Leuke is dat Charlie ook van The Inquirer kwam.

Dit is eigenlijk een beetje wat iedereen verwachtte van GK104, toch? Iedereen vond de eerste geruchten over een super-performance GK104 niets meer dan NVIDIA-fanboypraat. Door de bevestigingen van Charlie zijn we het gaan geloven. Wie zegt dat het zo is?

Dat NVIDIA problemen had met GK100/GK112 is duidelijk. NVIDIA gaat zo'n kaart echt niet voor de lol uitstellen tot het derde kwartaal. Ben benieuwd welke van de weggelopen Inquirers gelijk heeft.
In het eerste artikel ja. Maar in het tweede heeft hij het er over dat die winst wordt veroorzaakt door hele specifieke optimalisaties zoals nVidia dat al jaren doet. En ten koste van performance op andere GPU's zoals die van Intel, S3 en AMD. Alleen Keppler zou er in specifieke gevallen meer baat bij hebben dan Fermi. Waardoor hij denk dat je in bepaalde apps uber performance zult zien. En in andere doet hij het in verhouding heel slecht.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

lightdestroyer schreef op dinsdag 21 februari 2012 @ 10:01:
Eens ander nVidia nieuws buiten videokaarten in (myeah thoort misschien niet in Videokaarten en beeldschermen). Je moet het vooral kaderen in de aquisitie en uitbreiding van de portefolio:

Frontpage: ZTE brengt eerste smartphone uit met 3g-chip van Nvidia

Werkende en concurrentiele 3/4g chips zijn fundamenteel voor hun tegra platform wat dus te vervanging dient van de verloren gegaande geldkoe: chipsets voor moederborden. Hoe geïntigreerder nVidia soc's zijn hoe beter, al is het maar omdat de concurrentie ook verre van stilstaat >:)

PS: Persoonlijk vind ik het een late lancering daar de Tegra2 chip nu toch wel al voorbij gestreefd geraakt, tis Tegra3 waarmee ze moeten afkomen + promotie maken (tlijkt wel hun gpu afdeling, veel geruchten en publiciteit maar vooral lang wachten ;) )
Waar ik vooral op hoop is vergaande integratie van de 3G/4G chip in de SoC of zelfs het silicon van toekomstige Tegra chips. Op dit moment verbruikt de HSDPA chip onmetelijk veel stroom, getuigen van als ik mijn Tegra 2 phone (LG O2X) op 2G stand zet dat ik dan dagen aan standby tijd win!
Zwaar internetten/streamen verbruikt nu net zo veel als zwaar gamen, terwijl voor internetten je toch echt geen vol gebruik van de dual-core en de gpu maakt.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
XanderDrake schreef op dinsdag 21 februari 2012 @ 12:22:
[...]

Waar ik vooral op hoop is vergaande integratie van de 3G/4G chip in de SoC of zelfs het silicon van toekomstige Tegra chips. Op dit moment verbruikt de HSDPA chip onmetelijk veel stroom, getuigen van als ik mijn Tegra 2 phone (LG O2X) op 2G stand zet dat ik dan dagen aan standby tijd win!
Zwaar internetten/streamen verbruikt nu net zo veel als zwaar gamen, terwijl voor internetten je toch echt geen vol gebruik van de dual-core en de gpu maakt.
Dan denk ik dat je toch naar een Qualcomm Krait (S4) telefoon moet gaan kijken. Die heeft 4G er in gebakken zitten op 28nm. Ik denk dat dat een van de zuinigste chips zal zijn als het gaat over 4G. Tot dat de concurrentie ook met zo iets komt. Maar dat kan nog even duren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Astennu schreef op dinsdag 21 februari 2012 @ 13:47:
Dan denk ik dat je toch naar een Qualcomm Krait (S4) telefoon moet gaan kijken. Die heeft 4G er in gebakken zitten op 28nm. Ik denk dat dat een van de zuinigste chips zal zijn als het gaat over 4G. Tot dat de concurrentie ook met zo iets komt. Maar dat kan nog even duren.
Er zijn nog niet zo veel smartphones die zijn aangekondigd met die chipset, volgens mij één. Ik wil dit zien in álle chipsets. Plus, tot nu toe is er volgens mij één chipset van alle productie chipsets (ook qualcomm) die 3G en LTE kan combineren. Dat soort technologie is ook nodig, anders hebben we losse chips nodig voor 3G en 4G, daar gaat weer een hap uit de accutijd....

Maar goed, nu weer over GPU's. 8)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Jeldert
  • Registratie: Juni 2001
  • Niet online

Jeldert

Rozijntjes

Juist


Acties:
  • 0 Henk 'm!

  • k1978
  • Registratie: Januari 2010
  • Laatst online: 07:11
En hoe zijn de ervaringen met deze driver ?

Acties:
  • 0 Henk 'm!

Verwijderd

k1978 schreef op woensdag 22 februari 2012 @ 11:29:
En hoe zijn de ervaringen met deze driver ?
Bij mij is hij er weer af, youtube filmpjes waren 1 a 2 seconden groen voordat ze de normale kleuren kregen en ik had in 10 minuten tijd 3 keer een crash van de driver.

De vorige versie werkte prima, die staat er nu weer op bij mij.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

k1978 schreef op woensdag 22 februari 2012 @ 11:29:
En hoe zijn de ervaringen met deze driver ?
Skyrim is speelbaar

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • k1978
  • Registratie: Januari 2010
  • Laatst online: 07:11
speelbaar toe maar... Dat was die voor de driver update ook hoor bij mij :)

[ Voor 8% gewijzigd door k1978 op 22-02-2012 13:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Crap, nu loopt Skyrim binnen tien seconden vast -_-'

Edit: ligt mogelijk aan de combinatie met één van de mods, nu draait het wel.

[ Voor 111% gewijzigd door Verwijderd op 22-02-2012 15:35 ]


  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
toch weer wat 'nieuws' over de 'GK107' als het niet gefaked is: (note lijkt fake -> overclockte 460 dus neem dit met een grof korreltje zeezout).

post vanuit semiaccurate;
http://semiaccurate.com/f...p?p=153959&postcount=1222
Supposedly GK107 benchmarks. CPU was a 3960X@stock

3DMarks 11,06,05, Vantage:
http://www.youtube.com/watch?v=2GLcG5RPX-c
http://www.youtube.com/watch?v=NekA62118Yg
http://www.youtube.com/watch?v=241n8nVdq8E
http://www.youtube.com/watch?v=_G57UcN2sjA

3DMark11: P3818
3DMark06: 23893 (720p, noAA)
3DMark05: 31734 (1024x768, noAA)
3DMarkVantage: P16079

RE5
http://www.youtube.com/watch?v=pqHaY...eature=related
Voor 3dmarkachtiging zit die vrij in lijn met de 7770. Dus als die net zo zuinig zou zijn zou nvidia toch serieus terugkomen in die low end markt.

[ Voor 19% gewijzigd door Devpartner op 23-02-2012 09:30 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

AMD wint marktaandeel GPU's in vierde kwartaal 2011

En nVidia verliest aandeel.

[ Voor 8% gewijzigd door madmaxnl op 23-02-2012 19:55 ]


Verwijderd

'AMD dankt de groei van het aantal GPU's voornamelijk aan de verschillende Fusion processors waar al een GPU in verwerkt zit'

Dan nog een mooie trend voor AMD, al ben ik nog steeds van mening dat je met zo'n fusion apu een kat in de zak koopt.

[ Voor 32% gewijzigd door Verwijderd op 23-02-2012 22:34 ]


  • harmlangwerden
  • Registratie: Augustus 2011
  • Laatst online: 17-05-2023
Wel een kromme vergelijking daar. De (dure) kaarten van nvidea en worden wel erg simpel vergeleken met elke sandy bridge igp.

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
dankzij fusion heb ik een laptop van 500 euro waar ik goed op kan gamen...

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op donderdag 23 februari 2012 @ 22:31:
'AMD dankt de groei van het aantal GPU's voornamelijk aan de verschillende Fusion processors waar al een GPU in verwerkt zit'

Dan nog een mooie trend voor AMD, al ben ik nog steeds van mening dat je met zo'n fusion apu een kat in de zak koopt.
Niet echt voor in dit topic, maar met Brazos koop je zeer zeker geen kat in de zak. Als je voor Atom gaat, dan koop je een kat in de zak... Dus niet zo chargeren, het enige probleem dat Llano heeft is de beschikbaarheid van de betere modellen zoals de A8-3500m welke ik ook niet als een kat in de zak zou bestempelen. Ik ben het met je eens dat die andere Llano modellen aardig tegenvallen m.b.t. het verbruik en de prestatie die ze leveren. De prijs die eraan vast hangt maakt het nog wel oké. Fusion APUs zijn in mijn ogen daarom geen zak in de kat.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Devpartner schreef op donderdag 23 februari 2012 @ 08:37:
toch weer wat 'nieuws' over de 'GK107' als het niet gefaked is: (note lijkt fake -> overclockte 460 dus neem dit met een grof korreltje zeezout).

post vanuit semiaccurate;
http://semiaccurate.com/f...p?p=153959&postcount=1222

[...]


Voor 3dmarkachtiging zit die vrij in lijn met de 7770. Dus als die net zo zuinig zou zijn zou nvidia toch serieus terugkomen in die low end markt.
Alles is dood. Account beëindigd. Brilliant.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Tjah ... eigenlijk weet ik niet of je voor zo'n post een topic report moet aanmaken of niet ..
Het wordt al jaren gezegd (ook in dit topic) dat door het niet meer kunnen aanbieden van igp's je enkel een topsegment kunt bedienen. Een segment dat altijk kleiner wordt.
(Vandaar dus de overgang naar bv tegra-socs)
Het vermelden van zo'n cijfers en dan het "toevallig" weglaten dat hiermee igp's zijn inberekend vind ik nogal laag ... (temeer ik me posts herriner in een ander topic dat dit nadrukkelijk vermeld werd toen AMD minder kaarten verkocht door bv een groter marktaandeel van nVidia .. :+ )
Anyway het toont aan waarom er geen nieuw topicstart is, zo'n sfeer hier in GoT ...
Want wil je alles in context plaatsen dan zie je dat vooral Intel wint en AMD eigenlijk niets kan profiteren van het afbrokkelen van het nVidia aandeel --> conclusie is dat ze in feite een deel van de mensen die nu dus naar igp grijpen ipv discrete kaarten kwijt geraken. Blijkbaar zijn die fusions dus geen super succes, maar mag dit zelfs in een nVidia! topic ook al niet meer vermeld worden tjah sommige fora vallen diep ..

--> Oproep indien iemand zich geroepen voelt om eens wat andere info in de TopicStart te plaatsen mag deze dit altijd doen (gewoon nieuw deeltje openen of mij contacteren indien je gewoon wat wilt aanbrengen zonder alles te doen :p)

Mijn excuses voor de zoveelste off-topic post van mij een rij..
Al is dat maar omdat het nog een tijdje zal duren tegen de eerste 28nm nVidia gpu's de revu zullen passeren. Hopelijk zullen deze wel dan de voordelen tonen van 2 die-shrinks in 1 stap.

Specs


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Nvidia mag de prijzen wel eens een keer omlaag knallen van de 580 :S.. kunnen we mischien nog eens een 2e kaart bijpakken. Zijn de productie kosten van de 580 nou zo extreem hoog? :S.

Als ik alles zo lees weet ik wel zeker dat het q3/q4 wordt voor de 680/780.
Dat verhaal van Hardware info was ook niet echt duidelijk.

[ Voor 28% gewijzigd door A87 op 24-02-2012 12:34 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 12:00

mrc4nl

Procrastinatie expert

Lias schreef op vrijdag 24 februari 2012 @ 12:32:
Nvidia mag de prijzen wel eens een keer omlaag knallen van de 580 :S.. kunnen we mischien nog eens een 2e kaart bijpakken. Zijn de productie kosten van de 580 nou zo extreem hoog? :S.
kunstmatig hoog. vaak hebben de iets lagere klassen gewoon dezelfde gpu, maar lager geklocked.

t is gewoon het topmodel, en er zullen altijd gamers zijn die het snelste van het snelste willen, ongeacht het budget. Zie het als een rolex, stervensduur maar niet stukkken beter.

prijsverschil kan 100 euro zijn, terwijl de productiekosten niet veel meer zijn.
dan heb ik het over reference design, somme fabrikanten gooien er exta OC mogelijkheden op. (meer fasen, meer voltage etc)

[ Voor 13% gewijzigd door mrc4nl op 24-02-2012 13:10 ]

ora et labora


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Tsja, madmaxnl is niet altijd even genuanceerd, maar daar zou je natuurlijk ook mee om moeten kunnen gaan.

De cijfers komen in ieder geval van JPR, een bureau dat toch heel wat ervaring heeft in dergelijke marktcijfer analyses. SemiAccurate gaat er dan ook iets dieper op in. Dan kun je ook teruglezen dat een deel van AMD's marketshare toch vooral te danken is aan de aantrekkende verkoop van APU's (waarschijnlijk door betere beschikbaarheid). Het marktaandeel voor discrete videokaarten van nVidia is namelijk met 3.7% toegenomen, terwijl het af nam voor AMD.

Al met al neemt discreet toch wat af en wint 'IGP' markt, wat ook niet zo gek is nu Llano meer beschikbaar raakt en Intel met Sandybridge in ieder geval de allerlaagste discrete kaarten min of meer overbodig maakte. Discreet zal een minder groot marktaandeel overhouden in de komende jaren en er gaan zelfs stemmen op dat het wel eens helemaal kan verdwijnen in de toekomst.

Dat maakt ook duidelijk waarom nVidia zo druk bezig is met Tegra en Project Denver, waarom ze GPGPU zo aan het pushen waren in de afgelopen jaren. Alleen gaat niet alles helemaal zoals je zou wensen. Uit de laatste kwartaalcijfers is naar voren gekomen dat Tegra2 een verliespost van 150 miljoen dollar voor FY2012 heeft en Tegra2 is aan het einde van zijn loopbaan. De vraag zal zijn of Tegra3 het allemaal wat beter maakt voor nVidia.

De vraag die hier echter wat meer naar voren kwam, is hoe het zit met de winstgevendheid van de GPU's van nVidia. Wederom een artikel van SemiAccurate, wederom op basis van informatie die gewoon van nVidia komt, toont het volgende.

In een raport (10K filing) gaf nVidia aan dat de discrete GPU business 30 miljoen operationele winst hebben gecreeerd, terwijl het om de bulk van de inkomsten gaat. Quadro/Tesla bracht een totaal van 818 miljoen dollar in het laatje (minder dan een kwart van de totale omzet), maar gaf nVidia een operationele winst van 321 miljoen dollar. Hierin komt toch duidelijk naar voren dat de GForce lijn van nVidia niet heel erg winstgevend is en dat ze het vooral van de workstation/HPC klanten moeten hebben.

Al met al heeft nVidia dus niet al te veel ruimte om de prijzen van zijn videokaarten te verlagen. Verder moeten ze hard blijven pushen in hun plannen met Tegra en Denver, zeker als je bedenkt dat Haswell ongeveer HD5570 prestaties zou moeten kunnen behalen en Kaveri (opvolger van Trinity) qua ruwe performance ongeveer HD7750 moet kunnen halen. De onderkant van de discrete videokaart markt wordt in 2012/2013 compleet weggeslagen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op vrijdag 24 februari 2012 @ 17:05:
Tsja, madmaxnl is niet altijd even genuanceerd, maar daar zou je natuurlijk ook mee om moeten kunnen gaan.
offtopic:
Ik post nieuws en vat het erg heel kort samen, AMD krijgt meer marktaandeel en nVidia verliest marktaandeel. Waarom dat een topic report waard zou zijn of zou kunnen leiden tot commotie is mij een raadsel. Blijkbaar mag ik alleen positief nieuws posten. Als ik daar dan weer een kanttekening bij maak is het ook niet goed. Maakt vrij weinig uit wat ik zeg. Als het iets positief is wordt het waarschijnlijk sarcastisch opgevat en als ik negatief ben dan zeggen ze weer 'zie je wel, hij is anti-nVidia/AMD fanboy'. Don't hate the player, hate the game.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op vrijdag 24 februari 2012 @ 19:52:
[...]


offtopic:
Ik post nieuws en vat het erg heel kort samen, AMD krijgt meer marktaandeel en nVidia verliest marktaandeel.
offtopic:
Tsja, het is hetzelfde als dat mensen artikels van Charlie niet willen zien, lezen of links ernaartoe hier niet goedkeuren, omdat het bericht doorgaans negatief is. Daar kun je weinig aan veranderen. Als men nuance wil, kan men die zelf aanbrengen in de discussie. Helaas gaat men doorgaans liever over op kruistochten en vingerwijzen.

Acties:
  • 0 Henk 'm!

Verwijderd

Mag ik u danken voor deze nuttige bijdrage aan dit onderwerp. Goede post! :)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Ik lees hier boven dat ik niet alleen ben als het gaat over de vergalde sfeer hiero... Misschien moeten we ons allemaal maar een beetje moeten distantiëren van 'the game'? Zou wereldvrede goed doen ;)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca

Pagina: 1 ... 17 ... 43 Laatste