[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Maar gezien nVidia's algemene 'ervaring' met nieuwe nodes en het verschil tussen HD6970 en GTX580, is het dan reeeel om een 20% of meer verschil te verwachten tussen GTX6(7?)80 en HD7970?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Waar was het dan nog zo'n drama buiten Fermi & 40nm? Met o.a. de G80 hebben ze laten zien dat ze wel wat kunnen (al was 90nm voor hen niet nieuw i.v.m. deze kaartjes):
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/nvidia/7950gx2/7950compared.png

Om nu te stellen dat nVidia altijd flopt door een serie welke gewoon te groot was voor 40nm (TSMC zuigde gewoon erg) is wel erg overdreven.

[ Voor 77% gewijzigd door Paprika op 28-12-2011 19:35 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Een groot drama zoals 40nm hadden ze nog niet eerder gezien, maar het duurt bij nVidia wel wat langer voor ze een nieuw proces goed onder de knie hebben voor hun grote chips. Daarnaast zijn er natuurlijk de verhalen van Charlie over het succes van nVidia op 28nm tot dus ver, als we daar waarde aan zouden mogen hechten.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Dat is een iffy iets ja. Van de ene kant lees ik graag zijn nieuwsberichten en zit er altijd wel iets van waarheid in, van de andere kant kun je stellen dat ie er bij de GTX580 wel flink naast zat (zou laat komen, paper launch en hij was er aardig snel en goed leverbaar).

Dan bedoel ik overigens dit artikel:
http://semiaccurate.com/2...-paper-launch-next-month/

Waarbij dit natuurlijk niet klopte:
The plan is simple, in November when DAAMIT launches Cayman, the top single chip Northern Islands family, Nvidia will ‘launch’ the GTX580 as a ‘spoiler’. Tame sites will tout the wonderfullness of this paper part, and a few loyal Nvidia ‘partner sites’ may even get a card.
If you are a buyer, you will be waiting until 2011. GF110/GTX580 is not expected to hit the shelves until the very end of January, likely early February. Given that Nvidia has yet to release a single GF1xx part on time, and hasn’t released a single desktop Fermi chip that is fully working, don’t hold your breath for a timely launch.
Datum: Oct 18, 2010
Release: Nov 09, 2010

[ Voor 61% gewijzigd door Paprika op 28-12-2011 19:43 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 06:39
50% sneller dan de 7970 lijkt me ook wel een beetje lastig dan zou hij sneller dan de 590 en 6990 moeten zijn geloof ik. Dat lijkt me wat overdreven volgens mij is er nog geen geval geweest waar de nieuwe generatie sneller was dan de dualkaart van de vorige generatie. Zou het wel zo zijn waar komt de 590 en de 6990 dan? Dan moet hij dus rond de 550-600 euro kosten lijkt mij niet wenselijk. Maar we gaan het zien over een tijd.

We kunnen natuurlijk hopen dat het weer een nieuwe wondertje wordt :D !

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
De 5870 was wel extreem close bij de 4870X2 bij de GTX480 launch. (http://www.techpowerup.co...rce_GTX_480_Fermi/32.html).
Met de huidige drivers zal ie er wel overheen gaan.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Lijkt mij stug in the end, maar goed :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Wat lijkt je stug? Dat van die 4870X2 vs 5870?
http://puu.sh/bMfV --> http://ht4u.net/reviews/2...n_island_test/index45.php

Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 09:04
dahakon schreef op woensdag 28 december 2011 @ 18:53:
40-50% groter dan 550mm2? Of bedoel je 40-50% groter, wanneer GK112 ook op 40nm zou zijn gemaakt? Zoals ik hierboven ook al aangaf, is GF110 namelijk ~17,5% groter dan GT200b, wanneer er naar werkelijke maten gekeken wordt, 470mm2 vs ~552mm2 (de maat die werkelijk gemeten is met apparatuur, niet de maat die afkomstig is uit de PR-koker).

Als we dan ook bedenken dat er erg veel nadruk lag op DP FP rekenkracht voor GK112, dan is het maar de vraag hoeveel ruimte er over blijft voor echte prestatie-winst in games.
Wellicht kan je ook een bron vermelden bij die metingen tov de pr-koker. Dat doemscenario van je is wel extreem overdreven, gezien bijv de gpgpu-kant die ook in Fermi zit maar minder in de GT200b en dat je zo even 30 mm2 bovenop de diesize van de gtx580 plakt.

Gezien Ati een inhaalslag heeft te maken qua gpgpu in deze generatie is een prestatieverhoging gelijkwaardig aan die van Ati voor Nvidia niet onwaarschijnlijk.

erutangiS


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
http://www.beyond3d.com/resources/chip/145
http://semiaccurate.com/2...gf110-bigger-gtx480gf100/

Er is ook wel een logische verklaring voor te geven overigens. 1 van de problemen van GF100 is dat er geen rekening was gehouden met de probleempjes van het 40nm proces. Deze problemen (de VIA's die niet geheel naar behoren werk(t)en, waardoor je ze dubbel uit moe(s)t voeren om het juiste resultaat te krijgen en transistors die iets meer variatie hebben/hadden dan werd vermeld) zorgen er voor dat, om de chip beter te laten werken (iets wat GF110 duidelijk doet), je meer ruimte nodig hebt voor je chip, met name dankzij de dubbele VIA's.

Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.

AMD had verder nog wel een inhaalslag te gaan inderdaad aangaande delen van gpgpu. De manier waarop ze het doen is echter anders en het moet nog blijken hoe dit zich verhoudt in zowel gpgpu prestaties alswel gameprestaties. Maar dat staat eigenlijk los van een 'verwachting van hoeveel sneller een GTX6(7)80 'gemakkelijk' kan zijn dan de GTX580.

Acties:
  • 0 Henk 'm!

  • MrOleo
  • Registratie: Augustus 2006
  • Laatst online: 09:04
dahakon schreef op woensdag 28 december 2011 @ 22:17:
http://www.beyond3d.com/resources/chip/145
http://semiaccurate.com/2...gf110-bigger-gtx480gf100/

Er is ook wel een logische verklaring voor te geven overigens. 1 van de problemen van GF100 is dat er geen rekening was gehouden met de probleempjes van het 40nm proces. Deze problemen (de VIA's die niet geheel naar behoren werk(t)en, waardoor je ze dubbel uit moe(s)t voeren om het juiste resultaat te krijgen en transistors die iets meer variatie hebben/hadden dan werd vermeld) zorgen er voor dat, om de chip beter te laten werken (iets wat GF110 duidelijk doet), je meer ruimte nodig hebt voor je chip, met name dankzij de dubbele VIA's.

Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.

AMD had verder nog wel een inhaalslag te gaan inderdaad aangaande delen van gpgpu. De manier waarop ze het doen is echter anders en het moet nog blijken hoe dit zich verhoudt in zowel gpgpu prestaties alswel gameprestaties. Maar dat staat eigenlijk los van een 'verwachting van hoeveel sneller een GTX6(7)80 'gemakkelijk' kan zijn dan de GTX580.
:| Never mind.

erutangiS


Verwijderd

dahakon schreef op woensdag 28 december 2011 @ 22:17:
Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.
Wie zegt dan dat de die-size wederom 11% groter zal zijn dan deGF110? Het is niet een vast gegeven dat ze dezelfde stap gaan maken als bij de GTX285 -> GTX480. Ik geloof niet dat nvidia richting de 600 mm2 zal gaan. Met puur een shrink (40 -> 28 nm, waardoor ze meer shaders kwijt kunnen, misschien 25% ofzo) en wat hogere clocks zou 30% echt makkelijk mogelijk moeten zijn, tel daar het één en ander aan optimalisaties bij op en ze komen wel tot ~ >40% winst uit t.o.v de GTX580. Gemakkelijk 50% of meer hoor je mij iig zeker niet zeggen en geloof ik ook niet in.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Dan denken we er zo te zien redelijk hetzelfde over. Namelijk dat een ~40% winst wel haalbaar moet zijn (ook zonder die die-increase, het GTX285->GTX580 verhaal is slechts ter illustratie dat het allemaal niet zomaar even gedaan wordt) maar dat meer dan 50% winst niet vanzelfsprekend is, laat staan 100% winst.

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
dahakon schreef op donderdag 29 december 2011 @ 05:54:
Dan denken we er zo te zien redelijk hetzelfde over. Namelijk dat een ~40% winst wel haalbaar moet zijn (ook zonder die die-increase, het GTX285->GTX580 verhaal is slechts ter illustratie dat het allemaal niet zomaar even gedaan wordt) maar dat meer dan 50% winst niet vanzelfsprekend is, laat staan 100% winst.
Ik denk wel meer, gezien het bottom-up release schema kunnen ze wel eens net dat ene beetje meer efficiëntie uit de transistors halen :)

Waar je nu her en der wat mensen ziet praten over een HD7980oid, zul je dat bij de GTX680 niet hebben, deze kaart zou namelijk de laatste kaart uit de reeksn zijn waarbij dus de meeste bugs er al uit zijn en zelfs optimalisaties er al in zitten. Ook zou hij pas tegen 2013 uitkomen, dus de performance increase die een HD8970 met zich mee neemt moet eigenlijk ook even mee.

Ik ga uit van minimaal 50% maar 70% lijkt mij een beetje de richtlijn.

Verwijderd

Het is wel verdacht stil aan nvidia's kant. En ik weet wat ik nog zij over stil. Da waren ze ook redelijk met de laatste release.

[ Voor 23% gewijzigd door Verwijderd op 29-12-2011 11:33 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 29 december 2011 @ 11:32:
Het is wel verdacht stil aan nvidia's kant. En ik weet wat ik nog zij over stil. Da waren ze ook redelijk met de laatste release.
Oké, dus morgen kan ik de GTX680XXX+ kopen die 200% sneller is dan een HD7970?

Geintje, ik probeer maar aan te geven dat we ons niet moeten blindstaren op dingen die er niet zijn.
Denk meer alsof je nVidia en AMD aandelen hebt.

Zou je nu AMD andelen verkopen en nVidia aankopen of zou je nog even wachten tot je meer weet?
Er, voor het gemak, vanuit gaand dat je geen AMD en nVidia aandelen tegelijkertijd wilt en we alleen de GPU activiteiten meenemen in deze gedachten gang.

Verwijderd

Nee ik bedoel er mee te zeggen dat je normaal allerlei rotzooi ziet zoals bij amd het geval ook was.
En ik blijf juist wel die dingen denken omdat ik het verleden ken. Ik heb zo'n gevoel ook dat nvidia deze keer met iets komt waar de meeste tweakers van schrikken, vooral de mensen die hier altijd het meest negatief zijn. Ze komen niet voor niets wat later. Maar nu gaan natuurlijk weer de meeste negatieve zeggen dat het proces slecht is en nog mer van die dingen, maar silicon hebben ze. Echter geloof ik daar niet meer in, ik blijf wat dat betreft bij mijn eigen gdachten gang, die ik niet laat verzieken door anderen, dat mag nvidia doen. Ik blijf gewoon positief en dat praat niemand mij hier af. Sommigen zullen ook wel weer zeggen dat ik in een waas leef of iets in die zin maar laat mij maar daar zitten, die keuze maak ik zelf wel.

[ Voor 98% gewijzigd door Verwijderd op 29-12-2011 11:57 ]


  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Dan wordt het misschien toch tijd voor het NV en AMD emotopic :/

Ik heb een aardig idee waarom het zo stil is: er is niets te melden! Als NV iets te melden zou hebben over Kepler, dan kwam dat wel zsm naar buiten. Waarom? Alles wat er nu op zou wijzen dat Kepler snel zou komen en SI zou verpletteren, zou voor een afname in de verkopen van SI zorgen omdat kopers dan gaan wachten. Wmb zegt Wikipedia: Occam's razor dat het stil is, omdat er niets is.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ze zullen de prijzen binnenkort wel verlagen. En dan met name die van de 570 en 580.

Zou mooi zijn. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Verwijderd

Edmin schreef op donderdag 29 december 2011 @ 12:01:
Dan wordt het misschien toch tijd voor het NV en AMD emotopic :/

Ik heb een aardig idee waarom het zo stil is: er is niets te melden! Als NV iets te melden zou hebben over Kepler, dan kwam dat wel zsm naar buiten. Waarom? Alles wat er nu op zou wijzen dat Kepler snel zou komen en SI zou verpletteren, zou voor een afname in de verkopen van SI zorgen omdat kopers dan gaan wachten. Wmb zegt Wikipedia: Occam's razor dat het stil is, omdat er niets is.
Nee van dat soort feiten ga ik niet gelijk uit. Verleden bied geen garantie voor de toekomst punt.
Ik blijf een optimist. Nvidia had al lang meer naar buiten kunnen brengen ook al is het negatief.
Ze zijn gewoon deze keer stil over alles want is is al wel wat want dat hebben we al wel gezien,
over die dingen kan er misschien wel genoeg verteld worden.

[ Voor 13% gewijzigd door Verwijderd op 29-12-2011 12:06 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 29 december 2011 @ 11:47:
Nee ik bedoel er mee te zeggen dat je normaal allerlei rotzooi ziet zoals bij amd het geval ook was.
Ja, van die foute speculatie's met betrekking tot performance en specificatie's.
Maar meestal zit je dan al dicht tegen de release aan te kijken.

Wat je nu hebt is dat er echt geen bericht is, en dan geen stilte voor de storm maar gewoon niets.
Stilte voor de strom gaat bij nVidia meestal gepaard met continue counter berichten op positief ATI/AMD nieuws.
Een verassing is leuker dan een tegenvaller ;)

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Verwijderd schreef op donderdag 29 december 2011 @ 12:04:
[...]

Nee van dat soort feiten ga ik niet gelijk uit. Verleden bied geen garantie voor de toekomst punt.
Ik blijf een optimist. Nvidia had al lang meer naar buiten kunnen brengen ook al is het negatief.
Ze zijn gewoon deze keer stil over alles want is is al wel wat wat dat hebben we al wel gezien.
Over die dingen kan er misschien wel genoeg verteld worden.
Er zijn drie tactieken die je kan volgen.

1. Alles zo goed mogelijk stilhouden en iedereen blitzen.
2. Er ruchtbaarheid aan geven rond de release van de concurrent.
3. Dingen laten lekken om verkopen in de weg te zitten.

1. Niet nVidia's stijl.
2. Gebeurde amper tot niet.
3. Really? Ook niet.

Zegt mij maar 1 ding, nVidia is hard aan het werk en we moeten er de eerste tijd niet teveel van verwachten qua voorsprong, in ieder geval geen blitzkrieg warrior. AMD zit ook niet stil, trouwens. Look at the signs bro.

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Verwijderd schreef op donderdag 29 december 2011 @ 12:04:
[...]
Nvidia had al lang meer naar buiten kunnen brengen ook al is het negatief.
Waarom zou NV negatief nieuws willen brengen over toekomstige producten?
Ze zijn gewoon deze keer stil over alles want is is al wel wat want dat hebben we al wel gezien,
over die dingen kan er misschien wel genoeg verteld worden.
Hier kan ik even geen touw aan vastknopen...

Verwijderd

Je vraagt mij dingen die je aan nvdia kunt vragen want ik kan niet voor hun een andwoord geven want ik ben nvidia niet. Ik kan er wel over speculeren.

Ik geloof trouwens dat nvidia het ook druk zat heeft met dier ARM gedoe. Daar komt momenteel het grote geld weg geloof ik.

[ Voor 29% gewijzigd door Verwijderd op 29-12-2011 12:17 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Je speculeert over niets zonder enige valide onderbouwing of aanwijzingen. Mijn brainwavesessies vijf seconden na het wakker worden zijn nog nuttiger, excuse my French.

Verwijderd

Ach ja dat ik jou'n probleem.

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Verwijderd schreef op donderdag 29 december 2011 @ 12:16:
Je vraagt mij dingen die je aan nvdia kunt vragen want ik kan niet voor hun een andwoord geven want ik ben nvidia niet. Ik kan er wel over speculeren.

Ik geloof trouwens dat nvidia het ook druk zat heeft met dier ARM gedoe. Daar komt momenteel het grote geld weg geloof ik.
Doe dat dan eens? Speculeer eens waarom NV het pad zou bewandelen dat jij jezelf hebt voorgehouden? Wat voor voordeel zou het ze brengen?

Verwijderd

Ik weet niet wat voor voordelen dat zou brengen. Ik kan helaas niet in de toekomt kijken als dat zo zou zijn.

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

* Jejking denkt dat het antwoord 'Geen' gaat zijn.

Negatieve PR is ook PR, gaat hier niet op. En nVidia heeft al genoeg problemen gehad, inclusief de nepkaartdemo. Dat soort geintjes vinden aandeelhouders niet heel leuk, kan ik je vertellen.

Verwijderd

Verleden bied geen garantie voor de toekomt.
Ik word gewoon een beetje ziek over dat negatief gedoe over nvidia hier op tweakers.

[ Voor 50% gewijzigd door Verwijderd op 29-12-2011 12:22 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Seriously, you need a break...

Als er iets te melden is, dan komt dat vanzelf wel. Tot die tijd kan je het nVidia en/of omstandigheden aanrekenen dat er nog geen GTX600 is, waarbij ik niet expliciet zeg dat het allemaal de schuld is van nVidia. Technologie en designbeslissingen kunnen heel goed gaan maar ook enorm tegenzitten.

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Goed, dan geen onderbouwing. Wat jij wil. Maar als je niet in staat bent om dat soort uitspraken te onderbouwen, kun je ze in het verleden beter gewoon niet meer plaatsen. Ik lees met alle liefde de nieuwsberichten die je vindt en jouw interpretatie daarvan, maar op dit soort nonsens (en ja, dat meen ik van harte) zit niemand te wachten. Als we het niveau hier nog een beetje hoog willen houden, dan komen we met intelligente analyses op bekende en/of mogelijk bekende informatie. Niet met onderbuikgeleuter.

Verwijderd

GTX580 was er ook zo in eens. Ik bedoel gewoon er mee te zeggen dat nvidia stil kan zijn over bepaalde dingen. Zeg maar er komt een vervanger voor de gtx580 in q2 dan is het nu aardig stil en had nvidia met van alles kunnen komen. Waarom ze dit eventueel zullen doen moet je dan aan nvidia vragen want daar op kan ik geen andwoord kijken want ik kan niet bij hun in hun hoofd kijken. Ik zie het gewoon anders. En ik vind dat ik dat ook mag uiten op mijn manier.

[ Voor 33% gewijzigd door Verwijderd op 29-12-2011 12:32 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Had. Punt is, jij weet het niet, ik weet het niet, er is geen enkele aanwijzing voor en dat steekt want meestal is dat geen goed nieuws. Maar dat kan zo veranderen.

PS: even gekeken bij Anand. Het laatste nVidia-nieuws wat de FP haalde daar stamt van 1.5 maand geleden over een GeForce 560GTX Ti Enhanced Edition. There you go.

Verwijderd

Nee er is ook geen enkele aanwijzing waarom het alleen maar negatief uit kan pakken. Waarom dan wel altijd die negatieve rommel bijna als feiten aan nemen? Ik word een beetje kwaard nu voel ik ook.

[ Voor 13% gewijzigd door Verwijderd op 29-12-2011 12:34 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Omdat het een feit is? Zodra je als bedrijf niet direct kan counteren (om wat voor reden dan ook) als een concurrent iets nieuws op de markt gooit, dan heb je onherroepelijk een nadeel. Of het nu klein of groot is. Elke dag dat nVidia niets nieuws heeft of doet nu, gaat het ze geld kosten.

PS: dat is niet per se meteen het einde van nVidia hoor, AMD/ATi hebben ook de nodige stormen overleefd.

Edit: met hierboven, Anand, bedoelde ik Xbitlabs. Anandtech ligt plat. [/Noobfout].

[ Voor 9% gewijzigd door Jejking op 29-12-2011 12:36 ]


Verwijderd

Nee er is geen feit dat nvidia niet met een goed product kan komen ergens dit jaar nog voor de zomer.
Dat is een gedachten gang van iemand wat hij denkt dat er gaat gebeuren.

[ Voor 26% gewijzigd door Verwijderd op 29-12-2011 12:39 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 29 december 2011 @ 12:30:
GTX580 was er ook zo in eens. Ik bedoel gewoon er mee te zeggen dat nvidia stil kan zijn over bepaalde dingen. Zeg maar er komt een vervanger voor de gtx580 in q2 dan is het nu aardig stil en had nvidia met van alles kunnen komen. Waarom ze dit eventueel zullen doen moet je dan aan nvidia vragen want daar op kan ik geen andwoord kijken want ik kan niet bij hun in hun hoofd kijken.
Wat dat betreft vergelijk ik de GTX580 met wat de HD4890, dat was ze maar de verbeterde verzie van de HD4870, en de GTX580 dus de verbeterde verzie van de GTX480, GTX485 als naam was misschien wel terechter geweest.
Niet echt een nieuwe generatie dus ;)

Ik verwacht wel dat de GK114/GTX660 verrassend uit de hoek kan komen, denk aan HD4870 oid, maar dat is afhankelijk of het nVidia mee of tegen zit op dit procedé.

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Helemaal eens met hierboven.

AMD heeft goed werk geleverd, daar plukken ze de vruchten van, van die designbeslissing van een jaar of 4 geleden. Aan nVidia om hetzelfde te doen.

O ja, agreed met GTX485. Het was min of meer een gebugfixte GTX480 die iets harder kon. Leuk product maar nog steeds te hongerig en duur wat mij betreft.

Verwijderd

En toch was dat een product die bij veel mensen goed over kwam. Het was voor velen toch wel een tegemoet komend pareltje en je las ook in veel review terug hoe zo'n geweldige prestaties de gtx580 gaf, en dat men dit niet had verwacht blablabla.
Wat jij er persoonlijk van vind, dit zie je totaal niet terug bij heel veel mensen.

[ Voor 24% gewijzigd door Verwijderd op 29-12-2011 12:43 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ik kijk ook iets verder dan m'n neus lang is ;) Je weet op welke site we zitten, he?

Het is geen slechte kaart, maar er is 1 probleem: de GPU zelf. We zagen hier al eerder met plaatjes dat de GPU gewoon erg groot is en dus in verhouding weinig druk kan zetten op de concurrentie, de winstmarges zijn een stuk kleiner. Dat is overigens al zo sinds GT200(b), GF100 en ook GF110. Je ziet het in elk segment, nVidia presteert met een grotere chip iets beter dan AMD maar is (iets) duurder en verbruikt meer stroom. Dat is een trend die nvidia moet proberen te doorbreken.

Verwijderd

Ja maar hoe wij de kaart graag zien zal nvidia een worst zijn, die chip moet ook worden gebruikt voor de zakelijke, medische en nasa markt en daarom moet het zo'n groot duur ding zijn. Ik denk dat als nvidia zich alleen op ons gamers had gericht dat het dan ook een totaal ander geval was geweest, met minder winst voor hun. Het was in die tijd ook de bedoeling op gpgpu te focussen, ja dan moet je wel iets maken waar veel
in kan.

[ Voor 20% gewijzigd door Verwijderd op 29-12-2011 13:00 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 29 december 2011 @ 12:41:
En toch was dat een product die bij veel mensen goed over kwam. Het was voor velen toch wel een tegemoet komend pareltje en je las ook in veel review terug hoe zo'n geweldige prestaties de gtx580 gaf, en dat men dit niet had verwacht blablabla.
Wat jij er persoonlijk van vind, dit zie je totaal niet terug bij heel veel mensen.
Ja dat was het ook zeker, maar dat zijden ze ook over de HD4890 of maak het gekker, PhenomII vs PhenomI.

De echter klapper van de 500serie vond ik de GTX560ti die kaart deed het op perfromance, prijs en verbruik erg goed. Dat nVidia nu met dat bottom-up release schema lijkt te komen brengt de GTXx60 positie wel in gevaar denk ik...
Normaal zijn de bug's die in het GTXx80 model zitten er deels uitgehaald in het GTXx60 model, nu bestaat er de kans dat bug's die optreden in grotere chips niet gevonden worden.

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Verwijderd schreef op donderdag 29 december 2011 @ 12:52:
Ja maar hoe wij de kaart graag zien zal nvidia een worst zijn, die chip moet ook worden gebruikt voor de zakelijke, medische en nasa markt en daarom moet het zo'n groot duur ding zijn. Ik denk dat als nvidia zich alleen op ons gamers had gericht dat het dan ook een totaal ander geval was geweest, met minder winst voor hun. Het was in die tijd ook de bedoeling op gpgpu te focussen, ja dan moet je wel iets maken waar veel
in kan.
Kleiner = beter, end of story. Dan kan je meer uit een wafer halen.

De AMD HD6970 is ook sterk gegroeid tov de 5870 voor GPGPU maar desondanks nog steeds veel kleiner dan nVidia's counterparts => meer winst.

Edit: je posts zijn een zootje. Typ eerst eens wat je wilt en post dan. Al die edits ga ik echt niet bijhouden hoor.

[ Voor 7% gewijzigd door Jejking op 29-12-2011 13:02 ]


Verwijderd

Kleiner is blijkbaar niet beter voor nvidia gezien ze op de zakelijke markten richten met die chips.
Kleiner zou dan slechter zij want er past minder in, wat weer ten koste gaat van de performance wat belangrijker is voor bedrijven. Als het beter was hadden ze de chip ook wel kleiner gemaakt.

[ Voor 31% gewijzigd door Verwijderd op 29-12-2011 13:09 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ja, doei.

AMD haalt met kleinere chips bijna dezelfde performance. Dat zegt iets over de efficientie van de GPU. Dat nVidia niet aan kleinere GPUs wilt is natuurlijk onzin. Overigens, AMD biedt al jaren goede weerstand met haar FireGL-kaarten voor een lagere prijs en ook met DPC en coinmining staan de kaarten hoog aangeschreven. nVidia is niet slecht maar ze lopen domweg een stapje achter.

Verwijderd

Jejking schreef op donderdag 29 december 2011 @ 13:10:
Ja, doei.

AMD haalt met kleinere chips bijna dezelfde performance. Dat zegt iets over de efficientie van de GPU. Dat nVidia niet aan kleinere GPUs wilt is natuurlijk onzin. Overigens, AMD biedt al jaren goede weerstand met haar FireGL-kaarten voor een lagere prijs en ook met DPC en coinmining staan de kaarten hoog aangeschreven. nVidia is niet slecht maar ze lopen domweg een stapje achter.
Maar nvidia wil met die chip meerdere markten voorzien, jij kijkt nu enkel naar ons gamers. Dat had ik al gezegt. Voor die dingen die niet voor ons zo belangrijk zijn zijn al die transistors en poes pas nodig. Als dit niet zo was had nvidia echt niet onnodig veel van die poespas hoeven te gebruiken. Kijk jij wil dan graag iets wat kleiner is en bij jou past en ons gamers maar dan is er niets meer over voor de anderen die ook een gpu nodig zijn voor in die nasa computers env waar het grote geld weg komt voor voor die grote chips.

[ Voor 7% gewijzigd door Verwijderd op 29-12-2011 13:19 ]


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Je wou zeggen dat AMD niet meerdere markten voorziet?

Verwijderd

Ja zeker wel maar nvidia richt zich daar wat meer op. Dat hadden ze ook wel gezegt dat dit meer bedoeld was voor gpgpu, cuda enzv. Ze zijn daar in ook een stuk sterker dan AMD.

Edit

Wat dit betreft had nvidia gewoon 2 aparte chips moeten maken. Ik weet niet of dat ook mogelijk was?

[ Voor 39% gewijzigd door Verwijderd op 29-12-2011 13:30 ]


  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 06:39
AMD fanboy detected....

Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)... Waar hebben we het hier dan over, we zullen moeten afwachten speculeren van beide kanten is net zo dom, kan je op hem lopen bashen dat hij positief kijkt jij loopt alleen maar negatief te kijken, waarom doe je dat dan niet lekker in het AMD forum daar krijg je vast meer steun. Zo vermoeiend dit soort teksten elke keer weer te lezen. Dat een 580 positief werdt en is ontvangen mag duidelijk zijn uit alle berichten.

Zwaar offtopic dit, laten we gewoon wachten op nieuw NIEUWS waar deze topic volgens mij voor is.

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Doe eens even normaal...
Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)... Waar hebben we het hier dan over,
Wat dacht je van prijs vs. die-size? Wafers zijn allemaal van dezelfde grootte. Hoe kleiner je chip, des te meer chips uit één wafer. De marktprijs is vervolgens een resultaat van relatieve prestaties t.o.v. de concurrentie. Volgens mij haal jij nu marktprijs en waferprijs door de war.
we zullen moeten afwachten speculeren van beide kanten is net zo dom, kan je op hem lopen bashen dat hij positief kijkt jij loopt alleen maar negatief te kijken, waarom doe je dat dan niet lekker in het AMD forum daar krijg je vast meer steun. Zo vermoeiend dit soort teksten elke keer weer te lezen.
Twee keer iemand bashen op een gefundeerde mening, zonder tegenargumentatie maakt je argument niet sterker. Kom met argumenten of blijf weg. Iemand naar een ander topic verwijzen omdat zijn mening je niet aanstaat mag je gewoon laten.

Verwijderd

Edmin schreef op donderdag 29 december 2011 @ 13:42:
[...]
Hoe kleiner je chip, des te meer chips uit één wafer.
En minder performance voor de zakelijke en nasa markt waar deze chip ook op gericht is.

[ Voor 6% gewijzigd door Verwijderd op 29-12-2011 13:47 ]


  • Springstof
  • Registratie: Juli 2010
  • Niet online
Ach, nVidia heeft dan ook geen nieuwe producten nodig. De 7970 is een leuk en aardig kaartje, maar is slechts marginaal sneller dan de GTX 580. De GTX 580 is op zijn beurt marginaal sneller dan de 6970 en diens tegenhanger, de GTX 570. Stellen dat nVidia nu snel nieuwe producten nodig heeft is equivalent aan stellen dat AMD sinds de release van de GTX 580 nieuwe producten heeft. Dat is wat mij betreft gewoon een ridicuul standpunt. Het gaat om paar procentjes hier en daar. Weinig revolutionairs dus. Het valt wat mij betreft zelfs te verdedigen om nu niet snel met nieuwe kaarten te komen, want dat brengt immers ook kosten met zich mee. Of denk je nou echt dat productlijnen vernieuwen een kosteloze bezigheid is.
Wellicht zien we pas nieuwe nVidia high end kaarten op het moment dat AMD ook met nieuwe high end kaarten komt. Dat is geen ramp en wellicht vanuit winstoptimaliseringsinvalshoek niet een al te slechte strategie.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Jasper 99 schreef op donderdag 29 december 2011 @ 13:25:


Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)...

Zwaar offtopic dit, laten we gewoon wachten op nieuw NIEUWS waar deze topic volgens mij voor is.
Je hebt helemaal gelijk. Ik vind de HD7970 zo tenenkrommend duur dat zelfs een
GTX580 nog een goede optie blijft. De GTX580 vs HD7970 is qua verhouding ongeveer hetzelfde als HD6970 vs GTX580. Als AMD een mokerslag had willen uitdelen hadden ze de 7970 400 a 430 euro moeten maken. (Er even vanuitgaand dat ie nu zo'n €500 gaat kosten) Dan had nV hun GTX580 goedkoper moeten maken, en er zelfs misschien wel verlies op geleden. Ik weet niet wat een 7950 doet qua performance, misschien dat die hier alsnog voor gaat zorgen (als die bijvoorbeeld 5% sneller is dan een 580) voor ongeveer 350 euro, maar ik denk dat die kaart ook zo'n 399 zal gaat kosten. En zelfs dan blijft een 580 Met zijn huidige prijs nog interessant vind ik.

De naam die AMD had dat ze bang for buck geven is met de hoge prijsstelling van de 7970 :D iig weg imho.
En als ik dan zou moeten kiezen zou ik nog liever een 5% tragere 580 hebben dan een 7950.

[ Voor 10% gewijzigd door Format-C op 29-12-2011 13:49 . Reden: Getikt met mijn iphone. Wilde nog wat editten, maar lukt niet meer. ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Verwijderd schreef op donderdag 29 december 2011 @ 13:46:
[...]


En minder performance voor de zakelijke en nasa markt waar deze chip ook op gericht is.
Wat is de nasa markt? Die ken ik niet. En de zakelijke markt? Kom dan eens met voorbeelden waaruit blijkt dat de chip daar dan beter voor geschikt is? Welke progs draaien ze dan in die markt?

Kleinere chips betekenen over het algemeen minder transistors, ja. Maar de manier waarop die ingezet worden bepaalt de efficientie.

Springstof schreef op donderdag 29 december 2011 @ 13:48:
Ach, nVidia heeft dan ook geen nieuwe producten nodig.
We hebben slechts één kaart uit de SI line-up gezien. Het is nog wat al te vroeg om nu al te concluderen dat NV deze generatie wel kan overslaan. Bovendien zullen we pas over een paar weken weten wat de verkoopresultaten van deze ene kaart zijn.

[ Voor 28% gewijzigd door Edmin op 29-12-2011 13:51 ]


Verwijderd

Wetenschap enzv. gpgpu en cuda. Daar voor zijn toch al die transitors nodig en al die ongein.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
Die progamma's die een ruimte schip moet laten werken om berekeningen te doen en weet ik veel wat meer in die zin, supercomputers, telescopen, ruimte oren blablabla

Dingen die voor ons SF zijn.

[ Voor 35% gewijzigd door Verwijderd op 29-12-2011 13:56 ]


  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Verwijderd schreef op donderdag 29 december 2011 @ 13:52:
Wetenschap enzv. gpgpu en cuda. Daar voor zijn toch al die transitors nodig en al die ongein.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
Oh, kom op... ik wist niet dat aluminium hoedjes ook al in gpu-land werden verkocht... Ja, er wordt gebruik gemaakt van in-house ontwikkelde prorgramma's. Nee, de opbouw daarvan is nou niet bepaald een groot geheim.

GPGPU is een algemene term. CUDA valt onder die paraplu. Vergelijken op CUDA performance is onmogelijl, want het draait alleen op NV hardware. Als je GPGPU wil vergelijken, kun je beter OpenCL nemen.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Springstof schreef op donderdag 29 december 2011 @ 13:48:
Ach, nVidia heeft dan ook geen nieuwe producten nodig. De 7970 is een leuk en aardig kaartje, maar is slechts marginaal sneller dan de GTX 580. De GTX 580 is op zijn beurt marginaal sneller dan de 6970 en diens tegenhanger, de GTX 570. Stellen dat nVidia nu snel nieuwe producten nodig heeft is equivalent aan stellen dat AMD sinds de release van de GTX 580 nieuwe producten heeft. Dat is wat mij betreft gewoon een ridicuul standpunt. Het gaat om paar procentjes hier en daar. Weinig revolutionairs dus. Het valt wat mij betreft zelfs te verdedigen om nu niet snel met nieuwe kaarten te komen, want dat brengt immers ook kosten met zich mee. Of denk je nou echt dat productlijnen vernieuwen een kosteloze bezigheid is.
Wellicht zien we pas nieuwe nVidia high end kaarten op het moment dat AMD ook met nieuwe high end kaarten komt. Dat is geen ramp en wellicht vanuit winstoptimaliseringsinvalshoek niet een al te slechte strategie.
Grotendeels denk ik er (op dit moment) ook zo over.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Verwijderd

Edmin schreef op donderdag 29 december 2011 @ 13:56:
[...]

Oh, kom op... ik wist niet dat aluminium hoedjes ook al in gpu-land werden verkocht... Ja, er wordt gebruik gemaakt van in-house ontwikkelde prorgramma's. Nee, de opbouw daarvan is nou niet bepaald een groot geheim.

GPGPU is een algemene term. CUDA valt onder die paraplu. Vergelijken op CUDA performance is onmogelijl, want het draait alleen op NV hardware. Als je GPGPU wil vergelijken, kun je beter OpenCL nemen.
Er zijn vast wel dingen die wij niet kunnen en mogen weten. :o
Nvidia domineert in deze markten.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 05:41
Dus bij nasa hebben ze allemaal nvidia kaarten?

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Maar goed dat ze bij nasa dan niet de 8800 versie hebben in satalieten LOL.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Verwijderd

http://www.nvidia.com/object/marsrover_success.html

En er is nog zo veel meer.

[ Voor 22% gewijzigd door Verwijderd op 29-12-2011 14:09 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 29 december 2011 @ 13:46:
[...]


En minder performance voor de zakelijke en nasa markt waar deze chip ook op gericht is.
Meer geduld met posten, minder editen ;)
Niet perse, wel is het zo dat dat de G80 een grote stap zette voor GPGPU doeleinden en daarmee hebben ze zeker wat zakelijke mark gepakt, maar ik denk dat dat ook grotendeels met software ondersteuning te maken heeft.

De tegendruk van AMD in deze markt is goed genoeg, en zeker omdat in server parken het stroomverbruik erg belangrijk is, zijn die grote chips ook niet altijd even geschikt.
Nasa lijkt me een beetje een non argument, alleen de console markt is al groter. Gok ik.
Verwijderd schreef op donderdag 29 december 2011 @ 13:52:
Wetenschap enzv. gpgpu en cuda. Daar voor zijn toch al die transitors nodig en al die ongein.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
Machines voor de wetenschap worden vaak gesubsidieerd en daardoor komt meestal wel in een persbericht naar vooren waarvoor deze machienes worden gebruikt. Een soort publiek belang is het dan.

Veel GPGPU performance is erg fijn voor het berekenen van van natuurkundige scenario's denk aan wateroverlast, weersverwachting, aardbeving's gevolgen. Maar ook celdeling's berekeningen.
Eingelijk alle dingen die veel variabelen hebben.
Natuurlijk worden er ook gebruikt voor militaire doeleinden, maar daar weten we inderdaad weinig van.

Al denk ik dat het gros van de zakelijker markt de autoCAT, PS, enz. gebruikers zijn die een zakelijker GPU erin hebben hangen, ik denk dat die marges en die aantallen wel nog weleens meer kunnen opleveren dan grote rekencentra's waarvan er naar verhouding natuurlijk niet zoveel zijn.
Misschien is er iemand met cijfers hierover?

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
het verschil tussen 6970 en 580 is de helft van het verschil tussen de 580 en de 7970...

Het verschil in prijs is onbekend want de 7970 komt pas 9januari uit en dan pas weet je de officieleaanschaf prijs.

De flow van AMD gaat pas op gang komen bij de 7870, 7850 en de 7950. Zoals bovenstaand grafiekje al aangaf (positionering) wat NIETS met performance te maken heeft, maar wel met prijs... gaat de 78xx onder de 69xx serie vallen in prijs.

Laten we gezamelijk nog wat wenen over een de hoge richtprijs van de 7970 terwijl die nog niet gereleased is.... en waarvan we de aanschafprijs nog niet weten....

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Toettoetdaan schreef op donderdag 29 december 2011 @ 11:22:
[...]

Ik denk wel meer, gezien het bottom-up release schema kunnen ze wel eens net dat ene beetje meer efficiëntie uit de transistors halen :)

Waar je nu her en der wat mensen ziet praten over een HD7980oid, zul je dat bij de GTX680 niet hebben, deze kaart zou namelijk de laatste kaart uit de reeksn zijn waarbij dus de meeste bugs er al uit zijn en zelfs optimalisaties er al in zitten. Ook zou hij pas tegen 2013 uitkomen, dus de performance increase die een HD8970 met zich mee neemt moet eigenlijk ook even mee.

Ik ga uit van minimaal 50% maar 70% lijkt mij een beetje de richtlijn.
Je vergeet alleen even dat nVidia bij de launch van GTX480 ook al een jaar ervaring hadden met 40nm. Een jaar ervaring die niets geholpen heeft met het wegwerken van bugs. Dat waren de G210 en GT220, die welliswaar een andere architectuur hadden, maar de problemen in GTX480 die zinn verholpen in GTX580 waren geen architectuur problemen maar proces problemen. Laat GK107 nou net zo'n soort chip zijn als G210. Veel zal afhangen van GK104 en wat ze daar van kunnen leren voordat GK112 in de tape-out fase zit.


Mensen speculeren verder maar al te graag over HD4890 herhalingen, maar AMD zou dat niet eens nodig moeten hebben, omdat HD7990 moet concurreren met de absolute top.

Verwijderd

Toettoetdaan schreef op donderdag 29 december 2011 @ 14:09:
[...]

Meer geduld met posten, minder editen ;)
Niet perse, wel is het zo dat dat de G80 een grote stap zette voor GPGPU doeleinden en daarmee hebben ze zeker wat zakelijke mark gepakt, maar ik denk dat dat ook grotendeels met software ondersteuning te maken heeft.

De tegendruk van AMD in deze markt is goed genoeg, en zeker omdat in server parken het stroomverbruik erg belangrijk is, zijn die grote chips ook niet altijd even geschikt.
Nasa lijkt me een beetje een non argument, alleen de console markt is al groter. Gok ik.


[...]

Machines voor de wetenschap worden vaak gesubsidieerd en daardoor komt meestal wel in een persbericht naar vooren waarvoor deze machienes worden gebruikt. Een soort publiek belang is het dan.

Veel GPGPU performance is erg fijn voor het berekenen van van natuurkundige scenario's denk aan wateroverlast, weersverwachting, aardbeving's gevolgen. Maar ook celdeling's berekeningen.
Eingelijk alle dingen die veel variabelen hebben.
Natuurlijk worden er ook gebruikt voor militaire doeleinden, maar daar weten we inderdaad weinig van.

Al denk ik dat het gros van de zakelijker markt de autoCAT, PS, enz. gebruikers zijn die een zakelijker GPU erin hebben hangen, ik denk dat die marges en die aantallen wel nog weleens meer kunnen opleveren dan grote rekencentra's waarvan er naar verhouding natuurlijk niet zoveel zijn.
Misschien is er iemand met cijfers hierover?
Precies en voor veel van die dingen, daar door moest nvidia veel transistors gebruiken en dus een grote chip maken. Als het nu alleen voor de gaming markt bedoeld das dan was die chip ook echt niet vol gepropt met onnodige dingen. Dit scheelde nvidia nog een extra chip te maken. Maar daar voor moeten ze dan wel vaker gaan bakken.
dahakon schreef op donderdag 29 december 2011 @ 14:14:
[...]


Je vergeet alleen even dat nVidia bij de launch van GTX480 ook al een jaar ervaring hadden met 40nm. Een jaar ervaring die niets geholpen heeft met het wegwerken van bugs. Dat waren de G210 en GT220, die welliswaar een andere architectuur hadden, maar de problemen in GTX480 die zinn verholpen in GTX580 waren geen architectuur problemen maar proces problemen. Laat GK107 nou net zo'n soort chip zijn als G210. Veel zal afhangen van GK104 en wat ze daar van kunnen leren voordat GK112 in de tape-out fase zit.
En jij vergeet nu even dat je iets als een feit brenkt wat je helemaal niet eens kan weten. Dit is net zo iets als zeggen dat de aarde plat is ipv rond en dat dan brengt als feit.

[ Voor 17% gewijzigd door Verwijderd op 29-12-2011 14:23 ]


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 29 december 2011 @ 14:16:
[...]


Precies en voor veel van die dingen, daar door moest nvidia veel transistors gebruiken en dus een grote chip maken. Als het nu alleen voor de gaming markt bedoeld das dan was die chip ook echt niet vol gepropt met onnodige dingen. Dit scheelde nvidia nog een extra chip te maken. Maar daar voor moeten ze dan wel vaker gaan bakken.
Het bakken is niet het probleem, het ontwikkelen, dat kost het meeste geld.
Tevens wouden ze twee chip's maken, maar de ontwikkeling van de G80/GT200 opvolger ging zo slecht dat ze de zakelijke architectuur naar de consumenten markt verplaats hebben. Wat resulteerde in fermi.

Het gebeurt wel vaker dat chip bedrijven stoppen met de architectuur waar ze mee bezien waren en overstappen op plan B, denk aan wat er tussen Phenom en Athlon hoorde, de vertraagde BD en Llano, HD6900 op 40nm, en dus ook de GTX480.
Het lijkt soms dat ze op hun gat hebben gezeten, maar achter de schermen is er gewoon iets niet volgens plan verlopen.
Verwijderd schreef op donderdag 29 december 2011 @ 14:16:
[...]


En jij vergeet nu even dat je iets als een feit brenkt wat je helemaal niet eens kan weten. Dit is net zo iets als zeggen dat de aarde plat is ipv rond en dat dan brengt als feit.
Helaas heeft hij naar alle waarschijnlijkheid gelijk...
http://www.anandtech.com/show/2937/9 (Helemaal interessant)
http://semiaccurate.com/2...480-broken-and-unfixable/ (Alinea 10,11,12)

Volgens de geruchten zou nVidia een hoop problemen niet zijn tegen gekomen omdat de 40nm 'test'-chip's kleiner waren dan 100mm² terwijl de HD4770/RV740 137mm² was, op 55nm zou die bijna net zo groot zijn als de HD4870/RV770. Op die manier kwam AMD's chip dichter bij een, voor AMD, real-world scenario.
De RV740 was eigenlijk een enorme flop, hij haalde het gestelde doel totaal niet. Maar deed het toch nog steeds best goed.

nVidia had het natuurlijk ook niet mee dat de GT210, GT220 en GT240 een andere argitectuur waren dan de GTX480, waardoor problemen die optreden bij architectuur icm procedé niet naar voren komen. Ook met de grote en het verbruik hadden zo nog niet veel kunnen experimenteren.

Deze keer hebben ze in ieder geval telkens dezelfde architectuur dus dat maakt het toekomstperspectief voor mij positief :)

Verwijderd

Fermi en kepler is toch verschillend?
Nvidia zou en half fermi/kepler maken en een kompleet kepler geloof ik?

[ Voor 49% gewijzigd door Verwijderd op 29-12-2011 15:24 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Format-C schreef op donderdag 29 december 2011 @ 13:57:
[...]
Grotendeels denk ik er (op dit moment) ook zo over.
Halo-effect.
Afbeeldingslocatie: http://puu.sh/bQRX
:+
Verwijderd schreef op donderdag 29 december 2011 @ 11:47:
die ik niet laat verzieken door anderen, dat mag nvidia doen.
Gezien ik weer eens tot 5 uur in de avond geslapen heb, heb ik de hele discussie gemist, maar kunnen ze dat wel? Stel ze komen pas mid juli met een kaart en hij is 6% sneller dan een 7970 (ik reken eerder op 15-25%, afhankelijk van de spellen en hoe drivers voor zowel de GTX680 als 7970 zijn, maar even als voorbeeld) zou je image dan wel verziekt zijn?

Overigens, als iedereen nou even naar de tatoeëer gaat (stemming in het topic is zo... :X):
Afbeeldingslocatie: http://www.isavealot.com/wp-content/uploads/2010/09/nvidia-tattoo-09242010-298x300.jpg
Oh sure, NVIDIA might not have had any physical chips to show off at the GPU Technology Conference earlier this week, but CEO Jen-Hsun Huang did have one very, very special exhibit up his sleeve.

Paul: "And below the logo is a picture of all the shipping devices running Tegra 2."
Don: "Here are the new logo designs we've been working on, Mr. Huang."
Ross: "Take a cue from Peter Moore and go with temporary. You never know where you'll be in even just a few years' time."
Chris: "Huang's Boxee Box tramp stamp, of course, would remain a secret."
Joanna: "And this is why I hate gun, er GPU shows."
Darren: "Whatever. At least it's not a Zune tattoo."
Richard Lai: "Yo Intel, this is how embedded is done."
Vlad: "Jen-Hsun's displays of support for Notion Ink are starting to get out of hand..."
:+

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 06:39
Edmin schreef op donderdag 29 december 2011 @ 13:42:
[...]

Doe eens even normaal...

[...]

Wat dacht je van prijs vs. die-size? Wafers zijn allemaal van dezelfde grootte. Hoe kleiner je chip, des te meer chips uit één wafer. De marktprijs is vervolgens een resultaat van relatieve prestaties t.o.v. de concurrentie. Volgens mij haal jij nu marktprijs en waferprijs door de war.

[...]

Twee keer iemand bashen op een gefundeerde mening, zonder tegenargumentatie maakt je argument niet sterker. Kom met argumenten of blijf weg. Iemand naar een ander topic verwijzen omdat zijn mening je niet aanstaat mag je gewoon laten.
Wow ... ik loop te bashen... kijk even je eigen posts terug en die van jejking, als we het over bashen hebben zeg. Er valt hier weinig over te argumenteren we hebben het interessante al gelezen en er wordt alleen maar gespeculeerd dus ja

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Dan maar weer eens wat 'nieuws'. Of meer een aankondiging van nieuws.

Op mijn vraag of Charlie nog wat had gevonden in zijn verdere mol-uithoor acties, kwam het volgende antwoord :

Nvidia GPU news incoming tomorrow.

http://semiaccurate.com/f...hp?p=146554&postcount=280

Gepost door de administrator van S|A. Met andere woorden, morgen waarschijnlijk in ieder geval een artikel aangaande nVidia op de FP van S|A. Het zou meer zijn dan we de afgelopen weken hebben gezien in ieder geval.

Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op donderdag 29 december 2011 @ 16:54:
[...]

-effect.
[afbeelding]
:+


[...]

Gezien ik weer eens tot 5 uur in de avond geslapen heb, heb ik de hele discussie gemist, maar kunnen ze dat wel? Stel ze komen pas mid juli met een kaart en hij is 6% sneller dan een 7970 (ik reken eerder op 15-25%, afhankelijk van de spellen en hoe drivers voor zowel de GTX680 als 7970 zijn, maar even als voorbeeld) zou je image dan wel verziekt zijn?

Overigens, als iedereen nou even naar de tatoeëer gaat (stemming in het topic is zo... :X):
[afbeelding]


[...]

:+
Ja zeker dan heeft nvidia het met die serie het goed verziekt voor mij. Als dit dan nog wat series achter elkaar gebeurd dan is mijn vertrouwen er in ook weg tot er een wonder gebeurd. Kijk ik heb best wel een liefde voor nvidia maar dat gaat dan puur om de prestaties die ik er voor krijg. Als dit met single gpu's weg blijft dan gaat mijn liefde naar AMD toe, als AMD wel goede winsten boekt over nvidia heen. Dit komt ook omdat ik graag één snelle single gpu heb en dat moet voor dat moment dan ook de snelste zijn die er te krijgen is van een merk. En wat ook mee speelt is dat ik dan ook dat ik aan een upgrade toe ben. Daar voor heb ik al gespaard maar er is nog niet iets waarom ik zou moeten upgraden. Stel dat dat over een dik jaar nog niet hoeft dan zit ik nog met wat ik nu heb of het moet kapot gaan. Als mijn 2 kaarten nu per direct kapot zouden gaan wacht ik ook echt niet pas tot nvidia met wat komt, nee dan ga ik voor een 7970 cf. Physx dan maar inleveren :-( .

Nvidia introduces a Frame Rate Limiter in its latest ForceWare drivers
http://www.dsogaming.com/...latest-forceware-drivers/

Typisch iets waar ik op zat te wachten. FPS locken om gpu gebruik te beperken. V-sync is geen optie voor veel online shooters. Ik kan hem mooi op 60fps zetten en heb dan geen input lag meer. + het voordeel dat de gpu 25% minder in gebruik is _/-\o_

[ Voor 10% gewijzigd door Verwijderd op 30-12-2011 00:20 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 06:39
Kijk dat is nou even mooi nieuws :) V-sync is ruk ja een limiter klinkt wel nice!
Eigenlijk gek dat het nu pas komt maarja :D

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:06
Opzich voor sommige spellen wel een handige feature (Skyrim anyone?), maar de meeste spellen/engines (en dan vooral dus non-console meuk (Skyrim anyone?) komen er standaard al mee tegenwoordig, denk aan Frostbite engine, Crysis engine, Unreal engine, IW engine en nog wel een paar (en dus ook de games erop).

PS:
http://forums.guru3d.com/...hp?p=4192523&postcount=78
A few examples for settings:

[Framerate]
Limit = 0
LimitCapture = 0

= Framerate is not limited either during gameplay or during video capture.

[Framerate]
Limit = 100
LimitCapture = 0

= Framerate is limited to 100 FPS during gameplay and video capture

[Framerate]
Limit = 0
LimitCapture = 2

= Framerate is not limited during gameplay but limited to double video framerate (e.g. 60 FPS if video is being captured at 30 FPS) during video capture

[Framerate]
Limit = 100
LimitCapture = 2

= Framerate is limited to 100 FPS during gameplay and limited to double video framerate (e.g. 60 FPS if video is being captured at 30 FPS) during video capture
Deze vind ik eigenlijk leuker. Op 30 FPS recorden en toch met 60 FPS spelen is wel iets dat ik altijd al wilde. Doet dus 't het zelfde + meer (en zowel red & green).

[ Voor 88% gewijzigd door Paprika op 30-12-2011 01:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Jejking schreef op donderdag 29 december 2011 @ 12:39:
O ja, agreed met GTX485. Het was min of meer een gebugfixte GTX480 die iets harder kon. Leuk product maar nog steeds te hongerig en duur wat mij betreft.
Te hongerig? ja, de kaart verbruikt redelijk veel stroom. Duur? Ook, maar dan is de HD7970 ook duur voor wat ie mogelijk gaat kosten. (misschien vind jij dat ook wel...) Prijs/performance ratio zou namelijk met een prijs van ~500,- niet eens veel beter zijn dan een GTX580 (uitgaande van huidige min. prijs van ~420,-).
Wafer-size/prijs en marge die ze op de chips hebben heb ik als consument geen drol mee te maken... Snap eerlijk gezegd niet echt wat Ed_L hier eerder mee bedoelde?

Hele gebazel over wat Kepler gaat doen voegt niet veel toe, niemand die het weet... Eindeloos gespeculeer kunnen we idd beter mee stoppen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
HD7970 heeft wel meer features en is zuiniger(ondanks dat die sneller is).

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Wel minder instelmogelijkheden qua driversettings/ forcen.

En ja, voor 500 mag je natuurlijk ook wel wat features verwachten he, aangezien de prijs- performance nu niet echt so so is. Zoals het met eerdere AMD kaartjes wel was. :)

[ Voor 30% gewijzigd door Format-C op 30-12-2011 06:55 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Verwijderd schreef op vrijdag 30 december 2011 @ 01:30:
[...]

Wafer-size/prijs en marge die ze op de chips hebben heb ik als consument geen drol mee te maken... Snap eerlijk gezegd niet echt wat Ed_L hier eerder mee bedoelde?
Ik haalde het aan omdat te laten zien dat de marktprijs van een videokaart weliswaar gebaseerd is op de relatieve prestatieverhouding, maar dat de marges bepaald worden door de die-size. Kleinere die = meer winst.
Iets wat hier al jaren besproken wordt, maar door een enkeling hier nog niet wordt begrepen. Dat je er als consument er niets me hebt mag dan zo zijn, maar hier kijken we hopelijk verder dan dat. :)

Acties:
  • 0 Henk 'm!

Verwijderd

Ed_L ik snap wel dat kleier beter is, maar dat is niet voor alles zo met die chip. Maar als je wilt concureren met snelheid dan is iets grotere chip wel nodig, helemaal als je veel transistors nodig bent daar voor. Je blijft dan op 28nm maar de chip zelf is groter om dat er meer snelheid uit moet worden gehaald.
Dit is nvidia zijn weg of je het mu beter vind of niet. Jij vind het niet beter omdat hij te duur word en omdat
er minder op een waffer passen. Nvidia ziet er geld in omdat het ook bedoeld is voor de zakelijke en wetenschapelijke makrt. Het is niet alleen een gamings kaart die wel genoeg heeft aan een
minder grote chip.
Ik had zelf liever ook wel een kleiner chipje willen hebben die enkel heel goed is voor het gamen maar nvidia wil met deze chips nu eenmaal ook andere markten domineren. Sins cuda en gpgpu is de chip alleen maar groter geworden.
Ik denk dus dat jij het niet snapt waarom zo'n grote chip nodig is

[ Voor 18% gewijzigd door Verwijderd op 30-12-2011 11:07 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Edmin schreef op vrijdag 30 december 2011 @ 10:49:
Dat je er als consument er niets me hebt mag dan zo zijn, maar hier kijken we hopelijk verder dan dat.
Het interesseert mij echt helemaal niet hoeveel winst een GPU bakker op zijn chips maakt. Het enige wat mij interesseert is wat ik ervoor betaal. En dan betaal ik het liefst zo weinig mogelijk voor zoveel mogelijk performance.

Dat mensen met aandelen het interessant vinden kan ik me voorstellen, maar anders niet. Dit soort dingen is meer voor een economie forum. :)

We zijn toch allemaal consumenten hier? :)

[ Voor 8% gewijzigd door Format-C op 30-12-2011 11:11 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 22-08 14:03
Dit is nvidia zijn weg of je het mu beter vind of niet. Jij vind het niet beter omdat hij te duur word en omdat
er minder op een waffer passen. Nvidia ziet er geld in omdat het ook bedoeld is voor de zakelijke en wetenschapelijke makrt.
Heb je hier een bron voor? GPGPU wordt steeds belangrijker, maar kun je laten zien dat de grotere chip van Nvidia hier ook echt voordeel bij heeft?

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Paprika schreef op vrijdag 30 december 2011 @ 01:25:
Opzich voor sommige spellen wel een handige feature [...]
Dan vergeet je even compleet de notebook-markt. Ik kan me heel goed voorstellen dat je die fps-limiter op 30-45fps instel op een notebook, zeker als je zonder stopcontact zit, maar ook gewoon omdat dat een hoop in temperatuur en noise scheelt.

Daarnaast is er nogsteeds een wildgroei aan spellen, die wel vsync ingame ondersteunen, maar zodra je een menu in ga, krijg je alsnog 200fps voor je kiezen, wat uiteraard volledig onnodig is.

Nee, prima verbetering wat mij betreft.

[ Voor 8% gewijzigd door SirNobax op 30-12-2011 11:17 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Format-C schreef op vrijdag 30 december 2011 @ 11:03:
[...]

Het interesseert mij echt helemaal niet hoeveel winst een GPU bakker op zijn chips maakt. Het enige wat mij interesseert is wat ik ervoor betaal. En dan betaal ik het liefst zo weinig mogelijk voor zoveel mogelijk performance.

Dat mensen met aandelen het interessant vinden kan ik me voorstellen, maar anders niet.
Daarom hoop ik ook dat tweakers een vergelijkbaar grafiekje in de volgende review meenemen:
http://www.techpowerup.com/reviews/AMD/HD_7970/30.html

Bedrijfsstrategie is wel interessant, maar uiteindelijk is er maar één ding waar het om gaat bij de consument ;)

[ Voor 4% gewijzigd door Toettoetdaan op 30-12-2011 11:17 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Max Hunt schreef op vrijdag 30 december 2011 @ 11:13:
[...]
Heb je hier een bron voor? GPGPU wordt steeds belangrijker, maar kun je laten zien dat de grotere chip van Nvidia hier ook echt voordeel bij heeft?
http://translate.google.n...6bih%3D654%26prmd%3Dimvns

Geen bronnen met prestaties. Hier word wel het een en ander uitgeleg van waarom.

[ Voor 4% gewijzigd door Verwijderd op 30-12-2011 11:19 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

SirNobax schreef op vrijdag 30 december 2011 @ 11:15:
[...]


Dan vergeet je even compleet de notebook-markt. Ik kan me heel goed voorstellen dat je die fps-limiter op 30-45fps instel op een notebook, zeker als je zonder stopcontact zit, maar ook gewoon omdat dat een hoop in temperatuur en noise scheelt.

Daarnaast is er nogsteeds een wildgroei aan spellen, die wel vsync ingame ondersteunen, maar zodra je een menu in ga, krijg je alsnog 200fps voor je kiezen, wat uiteraard volledig onnodig is.

Nee, prima verbetering wat mij betreft.
Kan je nu ook v-sync @ 30FPS gebruiken dan? Dus vsync aan, met een FPS cap op 30?

Voor sommige games lijkt mij dat wel leuk om eens te "voelen".

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Verwijderd schreef op vrijdag 30 december 2011 @ 11:00:
Ik denk dus dat jij het niet snapt waarom zo'n grote chip nodig is
En ik hoop al pagina's lang dat jij me gaat uitleggen waarom het dan wel nodig is, maar meer dan 'dat is nu eenmaal de keuze van NV' komt er niet uit en dat is te gemakkelijk.

We vergelijken in deze topics alles wat los en vast zit aan de twee hoofrolspelers op de GPU-markt. Productieprocessen worden onder de loep genomen, problemen worden op een niveau uitgezocht waar niemand in de praktijk echt iets aan heeft (underfill, anyone?), architectuur wordt uitgeplozen.... maar als het over ontwerpkeuzes gaat moeten we maar doen alsof het grote groene oog in de lucht wel weet wat goed voor ons is en zijn keuzes als ondoorgrondbare waarheid accpeteren? Not my style. En dat geldt voor meer mensen hier.

Format-C schreef op vrijdag 30 december 2011 @ 11:03:
[...]

Het interesseert mij echt helemaal niet hoeveel winst een GPU bakker op zijn chips maakt. Het enige wat mij interesseert is wat ik ervoor betaal. En dan betaal ik het liefst zo weinig mogelijk voor zoveel mogelijk performance.

Dat mensen met aandelen het interessant vinden kan ik me voorstellen, maar anders niet. Dit soort dingen is meer voor een economie forum. :)

We zijn toch allemaal consumenten hier? :)
Newsflash: het is de economie die de techniek drijft. Het zou je weldegelijk als consument moeten interesseren, want een verschil in die-size zorgt voor een verschil in concurrentiepositie. En in de zwaar onperfecte markt die we hier beschouwen zorgt dat verschil in positie voor een tekort aan concurrentie en dus voor hogere prijzen.

[ Voor 33% gewijzigd door Edmin op 30-12-2011 11:24 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 22-08 14:03
Verwijderd schreef op vrijdag 30 december 2011 @ 11:19:
[...]
http://translate.google.n...6bih%3D654%26prmd%3Dimvns

Geen bronnen met prestaties. Hier word wel het een en ander uitgeleg van waarom.
Daar wordt helemaal niks uitgelegd waarom Nvidia een grotere chip nodig heeft. Er wordt ook niks gezegd over de mogelijke voorkeur die Nvidia zou hebben voor grotere chips.

Acties:
  • 0 Henk 'm!

Verwijderd

Maar wel waar voor ze bedoeld zijn, denk je nu echt dat er meer prestaties uit een kleinere chip gaat komen bij nvidia? Nvidia iet hier toch hun toekomst in tot nu toe en dat heeft gewerkt, shit happens als dat met een grote chip beter werkt dn met een kleinere.

[ Voor 37% gewijzigd door Verwijderd op 30-12-2011 11:27 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Resulteert die grotere chip in meer prestaties voor ons als consument? Nee.

Dus waarom mag Nvidia wel game performance inleveren voor GPGPU doeleinden? Want daar begint het inmiddels op te lijken.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op vrijdag 30 december 2011 @ 11:19:
[...]

http://translate.google.n...6bih%3D654%26prmd%3Dimvns

Geen bronnen met prestaties. Hier word wel het een en ander uitgeleg van waarom.
En sinds de release van Fermi is het markt aandeel in de professionele markt alleen maar gedaald. ;)

Oke, maar met 4% van het massieve aandeel wat ze daar hebben. Professioneel aandeel en consumenten aandeel liepen eerst gelijk. Maar na de G80/GTX8800 is het consumenten aandeel weer sterk gedaald terwijl dat in de professioneel markt wat langer lijkt te duren.
Werelds schreef op vrijdag 30 december 2011 @ 11:27:
Resulteert die grotere chip in meer prestaties voor ons als consument? Nee.

Dus waarom mag Nvidia wel game performance inleveren voor GPGPU doeleinden? Want daar begint het inmiddels op te lijken.
Zolang de prijs voor ons goed is maakt het toch niets uit?

[ Voor 17% gewijzigd door Toettoetdaan op 30-12-2011 11:29 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15-09 07:18
Verwijderd schreef op vrijdag 30 december 2011 @ 11:25:
Maar wel waar voor ze bedoeld zijn, denk je nu echt dat er meer prestaties uit een kleinere chip gaat komen bij nvidia? Nvidia iet hier toch hun toekomst in tot nu toe en dat heeft gewerkt, shit happens als dat met een grote chip beter werkt dn met een kleinere.
AMD lukt het ook met een kleine chip dus waarom moet NVidia dan een grote chip maken?
Zoveel heeft die big-die strategie ze niet geholpen de afgelopen jaren..

Acties:
  • 0 Henk 'm!

Verwijderd

Redblader schreef op vrijdag 30 december 2011 @ 11:29:
[...]


AMD lukt het ook met een kleine chip dus waarom moet NVidia dan een grote chip maken?
Zoveel heeft die big-die strategie ze niet geholpen de afgelopen jaren..
Ja tuurlijk lukt dat met een kleiere chip. Maar dan krijg je ook minder prestaties. Nvidia is nog al iemand die voor prestaties gaat.

Kijk wil je meer prestaties dan word iets duurder en groter. Met andere gevolgen van dien zoals een hoger verbruik en meer warmte. Als de prestaties zeer belangrijk zijn is de rest maar bijzaak.

[ Voor 18% gewijzigd door Verwijderd op 30-12-2011 11:32 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op vrijdag 30 december 2011 @ 11:30:
[...]

Ja tuurlijk lukt dat met een kleiere chip. Maar dan krijg je ook minder prestaties. Nvidia is nog al iemand die voor prestaties gaat.
Umz??? een grotere chip staat niet garant voor meer prestatie's.

Acties:
  • 0 Henk 'm!

Verwijderd

Als je hem leeg laat niet nee. Op gpgpu en cuda gebied zie je die snelheid dus wel terug, zoek maar op.
Voor mij houd deze eindeloze discussie over de grote van de chip op want het is nooit goed bij nvidia.

[ Voor 85% gewijzigd door Verwijderd op 30-12-2011 11:35 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Ow kom op kijk eens naar de CPU markt voor de gein dan:
Bulldozer: 315mm²
Sandy-bridge: 216mm²

En maak eens een keer je post's af voordat je ze post....

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op vrijdag 30 december 2011 @ 11:32:
Als je hem leeg laat niet nee.
Voor mij houd deze eindeloze discussie over de grote van de chip op want het is nooit goed bij nvidia.
Ben je nu aan het trollen of snap je het gewoon niet..?

AMD gebruikt een andere architectuur dan Nvidia. Blijkbaar kan AMD met hun architectuur een snelle chip maken op een kleine chip, en Nvidia zal dit vast ook kunnen maar hebben ze niet voor gekozen.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Toettoetdaan schreef op vrijdag 30 december 2011 @ 11:36:
[...]

Ow kom op kijk eens naar de CPU markt voor de gein dan:
Bulldozer: 315mm²
Sandy-bridge: 216mm²

En maak eens een keer je post's af voordat je ze post....
Nee ik maak mijn posts niet af. Ik heb moeite met die dingen.
Niet zo op de man in gaan graag wil je
Xenomorphh schreef op vrijdag 30 december 2011 @ 11:36:
[...]

Ben je nu aan het trollen of snap je het gewoon niet..?

AMD gebruikt een andere architectuur dan Nvidia. Blijkbaar kan AMD met hun architectuur een snelle chip maken op een kleine chip, en Nvidia zal dit vast ook kunnen maar hebben ze niet voor gekozen.
Dat ook maar er zijn ook veel transitors en degelijke nodig. Dat past ja niet in een kleinere chip?
Als je dan meer prestaties nodig bent dan laat je die chip toch niet kleiner? nvidia is niet voor niets wat sneller met zijn grotere chip. Ik blijf bij mijn punt en kap er mee, en nee niet voor ons games. Aan allen Doe maar weer nieuws ipv nvidia bashen, valt erg op hier op tweakers.

[ Voor 50% gewijzigd door Verwijderd op 30-12-2011 11:51 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op vrijdag 30 december 2011 @ 11:40:
Dat ook maar er zijn ook veel transitors en degelijke nodig.
Hij geeft net een vergelijking waaruit blijkt dat dit dus onzin is. AMD doet het met minder transistors. Niet dat ik nou een statement wil maken met deze discussie maar met deze manier van argumenteren schiet het hier sowieso niet op.

En @discussie: ik vind het niet echt nieuwswaardig, kunnen we niet accepteren dat er een tijdje even geen nieuws is en dan niet dit topic omhoog schoppen met nutteloze discussies en ongefundeerde speculaties? :P

[ Voor 11% gewijzigd door bwerg op 30-12-2011 11:55 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Ben je nu aan het trollen? Je snapt toch wel dat je met minder ook iets minder prestaties krijgt he?
Tuurlijk het werkt ook goed met minder maar als je iets meer er in doet krijg je ook meer performance.
Dat is wat nvidia toch ook wil Iets meer prestaties en dat geeft ook weer nadelen met zich mee.

[ Voor 19% gewijzigd door Verwijderd op 30-12-2011 11:55 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op vrijdag 30 december 2011 @ 11:54:
Ben je nu aan het trollen? Je snapt toch wel dat je met minder ook iets minder prestaties krijgt he?
Lezen...

Niet persoonlijk maar dit gaat nergens meer over.

offtopic:
Excusez moi voor onnodig hoofdlettergebruik net, maar ik ben ook maar mens :P

[ Voor 26% gewijzigd door bwerg op 30-12-2011 12:07 ]

Heeft geen speciale krachten en is daar erg boos over.

Pagina: 1 ... 10 ... 43 Laatste