Maar gezien nVidia's algemene 'ervaring' met nieuwe nodes en het verschil tussen HD6970 en GTX580, is het dan reeeel om een 20% of meer verschil te verwachten tussen GTX6(7?)80 en HD7970?
Waar was het dan nog zo'n drama buiten Fermi & 40nm? Met o.a. de G80 hebben ze laten zien dat ze wel wat kunnen (al was 90nm voor hen niet nieuw i.v.m. deze kaartjes):

Om nu te stellen dat nVidia altijd flopt door een serie welke gewoon te groot was voor 40nm (TSMC zuigde gewoon erg) is wel erg overdreven.

Om nu te stellen dat nVidia altijd flopt door een serie welke gewoon te groot was voor 40nm (TSMC zuigde gewoon erg) is wel erg overdreven.
[ Voor 77% gewijzigd door Paprika op 28-12-2011 19:35 ]
Een groot drama zoals 40nm hadden ze nog niet eerder gezien, maar het duurt bij nVidia wel wat langer voor ze een nieuw proces goed onder de knie hebben voor hun grote chips. Daarnaast zijn er natuurlijk de verhalen van Charlie over het succes van nVidia op 28nm tot dus ver, als we daar waarde aan zouden mogen hechten.
Dat is een iffy iets ja. Van de ene kant lees ik graag zijn nieuwsberichten en zit er altijd wel iets van waarheid in, van de andere kant kun je stellen dat ie er bij de GTX580 wel flink naast zat (zou laat komen, paper launch en hij was er aardig snel en goed leverbaar).
Dan bedoel ik overigens dit artikel:
http://semiaccurate.com/2...-paper-launch-next-month/
Waarbij dit natuurlijk niet klopte:
Release: Nov 09, 2010
Dan bedoel ik overigens dit artikel:
http://semiaccurate.com/2...-paper-launch-next-month/
Waarbij dit natuurlijk niet klopte:
Datum: Oct 18, 2010The plan is simple, in November when DAAMIT launches Cayman, the top single chip Northern Islands family, Nvidia will ‘launch’ the GTX580 as a ‘spoiler’. Tame sites will tout the wonderfullness of this paper part, and a few loyal Nvidia ‘partner sites’ may even get a card.
If you are a buyer, you will be waiting until 2011. GF110/GTX580 is not expected to hit the shelves until the very end of January, likely early February. Given that Nvidia has yet to release a single GF1xx part on time, and hasn’t released a single desktop Fermi chip that is fully working, don’t hold your breath for a timely launch.
Release: Nov 09, 2010
[ Voor 61% gewijzigd door Paprika op 28-12-2011 19:43 ]
50% sneller dan de 7970 lijkt me ook wel een beetje lastig dan zou hij sneller dan de 590 en 6990 moeten zijn geloof ik. Dat lijkt me wat overdreven volgens mij is er nog geen geval geweest waar de nieuwe generatie sneller was dan de dualkaart van de vorige generatie. Zou het wel zo zijn waar komt de 590 en de 6990 dan? Dan moet hij dus rond de 550-600 euro kosten lijkt mij niet wenselijk. Maar we gaan het zien over een tijd.
We kunnen natuurlijk hopen dat het weer een nieuwe wondertje wordt
!
We kunnen natuurlijk hopen dat het weer een nieuwe wondertje wordt
De 5870 was wel extreem close bij de 4870X2 bij de GTX480 launch. (http://www.techpowerup.co...rce_GTX_480_Fermi/32.html).
Met de huidige drivers zal ie er wel overheen gaan.
Met de huidige drivers zal ie er wel overheen gaan.
Lijkt mij stug in the end, maar goed
Wat lijkt je stug? Dat van die 4870X2 vs 5870?
http://puu.sh/bMfV --> http://ht4u.net/reviews/2...n_island_test/index45.php
http://puu.sh/bMfV --> http://ht4u.net/reviews/2...n_island_test/index45.php
Wellicht kan je ook een bron vermelden bij die metingen tov de pr-koker. Dat doemscenario van je is wel extreem overdreven, gezien bijv de gpgpu-kant die ook in Fermi zit maar minder in de GT200b en dat je zo even 30 mm2 bovenop de diesize van de gtx580 plakt.dahakon schreef op woensdag 28 december 2011 @ 18:53:
40-50% groter dan 550mm2? Of bedoel je 40-50% groter, wanneer GK112 ook op 40nm zou zijn gemaakt? Zoals ik hierboven ook al aangaf, is GF110 namelijk ~17,5% groter dan GT200b, wanneer er naar werkelijke maten gekeken wordt, 470mm2 vs ~552mm2 (de maat die werkelijk gemeten is met apparatuur, niet de maat die afkomstig is uit de PR-koker).
Als we dan ook bedenken dat er erg veel nadruk lag op DP FP rekenkracht voor GK112, dan is het maar de vraag hoeveel ruimte er over blijft voor echte prestatie-winst in games.
Gezien Ati een inhaalslag heeft te maken qua gpgpu in deze generatie is een prestatieverhoging gelijkwaardig aan die van Ati voor Nvidia niet onwaarschijnlijk.
erutangiS
http://www.beyond3d.com/resources/chip/145
http://semiaccurate.com/2...gf110-bigger-gtx480gf100/
Er is ook wel een logische verklaring voor te geven overigens. 1 van de problemen van GF100 is dat er geen rekening was gehouden met de probleempjes van het 40nm proces. Deze problemen (de VIA's die niet geheel naar behoren werk(t)en, waardoor je ze dubbel uit moe(s)t voeren om het juiste resultaat te krijgen en transistors die iets meer variatie hebben/hadden dan werd vermeld) zorgen er voor dat, om de chip beter te laten werken (iets wat GF110 duidelijk doet), je meer ruimte nodig hebt voor je chip, met name dankzij de dubbele VIA's.
Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.
AMD had verder nog wel een inhaalslag te gaan inderdaad aangaande delen van gpgpu. De manier waarop ze het doen is echter anders en het moet nog blijken hoe dit zich verhoudt in zowel gpgpu prestaties alswel gameprestaties. Maar dat staat eigenlijk los van een 'verwachting van hoeveel sneller een GTX6(7)80 'gemakkelijk' kan zijn dan de GTX580.
http://semiaccurate.com/2...gf110-bigger-gtx480gf100/
Er is ook wel een logische verklaring voor te geven overigens. 1 van de problemen van GF100 is dat er geen rekening was gehouden met de probleempjes van het 40nm proces. Deze problemen (de VIA's die niet geheel naar behoren werk(t)en, waardoor je ze dubbel uit moe(s)t voeren om het juiste resultaat te krijgen en transistors die iets meer variatie hebben/hadden dan werd vermeld) zorgen er voor dat, om de chip beter te laten werken (iets wat GF110 duidelijk doet), je meer ruimte nodig hebt voor je chip, met name dankzij de dubbele VIA's.
Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.
AMD had verder nog wel een inhaalslag te gaan inderdaad aangaande delen van gpgpu. De manier waarop ze het doen is echter anders en het moet nog blijken hoe dit zich verhoudt in zowel gpgpu prestaties alswel gameprestaties. Maar dat staat eigenlijk los van een 'verwachting van hoeveel sneller een GTX6(7)80 'gemakkelijk' kan zijn dan de GTX580.
dahakon schreef op woensdag 28 december 2011 @ 22:17:
http://www.beyond3d.com/resources/chip/145
http://semiaccurate.com/2...gf110-bigger-gtx480gf100/
Er is ook wel een logische verklaring voor te geven overigens. 1 van de problemen van GF100 is dat er geen rekening was gehouden met de probleempjes van het 40nm proces. Deze problemen (de VIA's die niet geheel naar behoren werk(t)en, waardoor je ze dubbel uit moe(s)t voeren om het juiste resultaat te krijgen en transistors die iets meer variatie hebben/hadden dan werd vermeld) zorgen er voor dat, om de chip beter te laten werken (iets wat GF110 duidelijk doet), je meer ruimte nodig hebt voor je chip, met name dankzij de dubbele VIA's.
Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.
AMD had verder nog wel een inhaalslag te gaan inderdaad aangaande delen van gpgpu. De manier waarop ze het doen is echter anders en het moet nog blijken hoe dit zich verhoudt in zowel gpgpu prestaties alswel gameprestaties. Maar dat staat eigenlijk los van een 'verwachting van hoeveel sneller een GTX6(7)80 'gemakkelijk' kan zijn dan de GTX580.
erutangiS
Verwijderd
Wie zegt dan dat de die-size wederom 11% groter zal zijn dan deGF110? Het is niet een vast gegeven dat ze dezelfde stap gaan maken als bij de GTX285 -> GTX480. Ik geloof niet dat nvidia richting de 600 mm2 zal gaan. Met puur een shrink (40 -> 28 nm, waardoor ze meer shaders kwijt kunnen, misschien 25% ofzo) en wat hogere clocks zou 30% echt makkelijk mogelijk moeten zijn, tel daar het één en ander aan optimalisaties bij op en ze komen wel tot ~ >40% winst uit t.o.v de GTX580. Gemakkelijk 50% of meer hoor je mij iig zeker niet zeggen en geloof ik ook niet in.dahakon schreef op woensdag 28 december 2011 @ 22:17:
Maar goed, al zou je vast houden aan de gegeven 520mm2, dan nog heb je 11% meer diespace dan de GTX285. Het punt van gpgpu is niet geheel irrelevant, maar zoals gezegd, ligt de nadruk bij GK112 nog veel sterker op gpgpu dan het bij GF100 al deed. Een 11% grotere die dan 520mm2 is ~580mm2, de architectuur wordt verder toegespitst op DP FP en gpgpu in zijn algemeen. Die 40% zal vast wel gehaald kunnen worden, maar dat is wat anders dan 'gemakkelijk 50% of meer'. Het heeft niet zoveel met doemscenario's te maken, maar meer met het een beetje realistisch kijken wat 'gemakkelijk' mogenlijk is.
Dan denken we er zo te zien redelijk hetzelfde over. Namelijk dat een ~40% winst wel haalbaar moet zijn (ook zonder die die-increase, het GTX285->GTX580 verhaal is slechts ter illustratie dat het allemaal niet zomaar even gedaan wordt) maar dat meer dan 50% winst niet vanzelfsprekend is, laat staan 100% winst.
Ik denk wel meer, gezien het bottom-up release schema kunnen ze wel eens net dat ene beetje meer efficiëntie uit de transistors halendahakon schreef op donderdag 29 december 2011 @ 05:54:
Dan denken we er zo te zien redelijk hetzelfde over. Namelijk dat een ~40% winst wel haalbaar moet zijn (ook zonder die die-increase, het GTX285->GTX580 verhaal is slechts ter illustratie dat het allemaal niet zomaar even gedaan wordt) maar dat meer dan 50% winst niet vanzelfsprekend is, laat staan 100% winst.
Waar je nu her en der wat mensen ziet praten over een HD7980oid, zul je dat bij de GTX680 niet hebben, deze kaart zou namelijk de laatste kaart uit de reeksn zijn waarbij dus de meeste bugs er al uit zijn en zelfs optimalisaties er al in zitten. Ook zou hij pas tegen 2013 uitkomen, dus de performance increase die een HD8970 met zich mee neemt moet eigenlijk ook even mee.
Ik ga uit van minimaal 50% maar 70% lijkt mij een beetje de richtlijn.
Verwijderd
Het is wel verdacht stil aan nvidia's kant. En ik weet wat ik nog zij over stil. Da waren ze ook redelijk met de laatste release.
[ Voor 23% gewijzigd door Verwijderd op 29-12-2011 11:33 ]
Oké, dus morgen kan ik de GTX680XXX+ kopen die 200% sneller is dan een HD7970?Verwijderd schreef op donderdag 29 december 2011 @ 11:32:
Het is wel verdacht stil aan nvidia's kant. En ik weet wat ik nog zij over stil. Da waren ze ook redelijk met de laatste release.
Geintje, ik probeer maar aan te geven dat we ons niet moeten blindstaren op dingen die er niet zijn.
Denk meer alsof je nVidia en AMD aandelen hebt.
Zou je nu AMD andelen verkopen en nVidia aankopen of zou je nog even wachten tot je meer weet?
Er, voor het gemak, vanuit gaand dat je geen AMD en nVidia aandelen tegelijkertijd wilt en we alleen de GPU activiteiten meenemen in deze gedachten gang.
Verwijderd
Nee ik bedoel er mee te zeggen dat je normaal allerlei rotzooi ziet zoals bij amd het geval ook was.
En ik blijf juist wel die dingen denken omdat ik het verleden ken. Ik heb zo'n gevoel ook dat nvidia deze keer met iets komt waar de meeste tweakers van schrikken, vooral de mensen die hier altijd het meest negatief zijn. Ze komen niet voor niets wat later. Maar nu gaan natuurlijk weer de meeste negatieve zeggen dat het proces slecht is en nog mer van die dingen, maar silicon hebben ze. Echter geloof ik daar niet meer in, ik blijf wat dat betreft bij mijn eigen gdachten gang, die ik niet laat verzieken door anderen, dat mag nvidia doen. Ik blijf gewoon positief en dat praat niemand mij hier af. Sommigen zullen ook wel weer zeggen dat ik in een waas leef of iets in die zin maar laat mij maar daar zitten, die keuze maak ik zelf wel.
En ik blijf juist wel die dingen denken omdat ik het verleden ken. Ik heb zo'n gevoel ook dat nvidia deze keer met iets komt waar de meeste tweakers van schrikken, vooral de mensen die hier altijd het meest negatief zijn. Ze komen niet voor niets wat later. Maar nu gaan natuurlijk weer de meeste negatieve zeggen dat het proces slecht is en nog mer van die dingen, maar silicon hebben ze. Echter geloof ik daar niet meer in, ik blijf wat dat betreft bij mijn eigen gdachten gang, die ik niet laat verzieken door anderen, dat mag nvidia doen. Ik blijf gewoon positief en dat praat niemand mij hier af. Sommigen zullen ook wel weer zeggen dat ik in een waas leef of iets in die zin maar laat mij maar daar zitten, die keuze maak ik zelf wel.
[ Voor 98% gewijzigd door Verwijderd op 29-12-2011 11:57 ]
Dan wordt het misschien toch tijd voor het NV en AMD emotopic 
Ik heb een aardig idee waarom het zo stil is: er is niets te melden! Als NV iets te melden zou hebben over Kepler, dan kwam dat wel zsm naar buiten. Waarom? Alles wat er nu op zou wijzen dat Kepler snel zou komen en SI zou verpletteren, zou voor een afname in de verkopen van SI zorgen omdat kopers dan gaan wachten. Wmb zegt Wikipedia: Occam's razor dat het stil is, omdat er niets is.

Ik heb een aardig idee waarom het zo stil is: er is niets te melden! Als NV iets te melden zou hebben over Kepler, dan kwam dat wel zsm naar buiten. Waarom? Alles wat er nu op zou wijzen dat Kepler snel zou komen en SI zou verpletteren, zou voor een afname in de verkopen van SI zorgen omdat kopers dan gaan wachten. Wmb zegt Wikipedia: Occam's razor dat het stil is, omdat er niets is.
Ze zullen de prijzen binnenkort wel verlagen. En dan met name die van de 570 en 580.
Zou mooi zijn.
Zou mooi zijn.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Nee van dat soort feiten ga ik niet gelijk uit. Verleden bied geen garantie voor de toekomst punt.Edmin schreef op donderdag 29 december 2011 @ 12:01:
Dan wordt het misschien toch tijd voor het NV en AMD emotopic
Ik heb een aardig idee waarom het zo stil is: er is niets te melden! Als NV iets te melden zou hebben over Kepler, dan kwam dat wel zsm naar buiten. Waarom? Alles wat er nu op zou wijzen dat Kepler snel zou komen en SI zou verpletteren, zou voor een afname in de verkopen van SI zorgen omdat kopers dan gaan wachten. Wmb zegt Wikipedia: Occam's razor dat het stil is, omdat er niets is.
Ik blijf een optimist. Nvidia had al lang meer naar buiten kunnen brengen ook al is het negatief.
Ze zijn gewoon deze keer stil over alles want is is al wel wat want dat hebben we al wel gezien,
over die dingen kan er misschien wel genoeg verteld worden.
[ Voor 13% gewijzigd door Verwijderd op 29-12-2011 12:06 ]
Ja, van die foute speculatie's met betrekking tot performance en specificatie's.Verwijderd schreef op donderdag 29 december 2011 @ 11:47:
Nee ik bedoel er mee te zeggen dat je normaal allerlei rotzooi ziet zoals bij amd het geval ook was.
Maar meestal zit je dan al dicht tegen de release aan te kijken.
Wat je nu hebt is dat er echt geen bericht is, en dan geen stilte voor de storm maar gewoon niets.
Stilte voor de strom gaat bij nVidia meestal gepaard met continue counter berichten op positief ATI/AMD nieuws.
Een verassing is leuker dan een tegenvaller
Er zijn drie tactieken die je kan volgen.Verwijderd schreef op donderdag 29 december 2011 @ 12:04:
[...]
Nee van dat soort feiten ga ik niet gelijk uit. Verleden bied geen garantie voor de toekomst punt.
Ik blijf een optimist. Nvidia had al lang meer naar buiten kunnen brengen ook al is het negatief.
Ze zijn gewoon deze keer stil over alles want is is al wel wat wat dat hebben we al wel gezien.
Over die dingen kan er misschien wel genoeg verteld worden.
1. Alles zo goed mogelijk stilhouden en iedereen blitzen.
2. Er ruchtbaarheid aan geven rond de release van de concurrent.
3. Dingen laten lekken om verkopen in de weg te zitten.
1. Niet nVidia's stijl.
2. Gebeurde amper tot niet.
3. Really? Ook niet.
Zegt mij maar 1 ding, nVidia is hard aan het werk en we moeten er de eerste tijd niet teveel van verwachten qua voorsprong, in ieder geval geen blitzkrieg warrior. AMD zit ook niet stil, trouwens. Look at the signs bro.
Waarom zou NV negatief nieuws willen brengen over toekomstige producten?Verwijderd schreef op donderdag 29 december 2011 @ 12:04:
[...]
Nvidia had al lang meer naar buiten kunnen brengen ook al is het negatief.
Hier kan ik even geen touw aan vastknopen...Ze zijn gewoon deze keer stil over alles want is is al wel wat want dat hebben we al wel gezien,
over die dingen kan er misschien wel genoeg verteld worden.
Verwijderd
Je vraagt mij dingen die je aan nvdia kunt vragen want ik kan niet voor hun een andwoord geven want ik ben nvidia niet. Ik kan er wel over speculeren.
Ik geloof trouwens dat nvidia het ook druk zat heeft met dier ARM gedoe. Daar komt momenteel het grote geld weg geloof ik.
Ik geloof trouwens dat nvidia het ook druk zat heeft met dier ARM gedoe. Daar komt momenteel het grote geld weg geloof ik.
[ Voor 29% gewijzigd door Verwijderd op 29-12-2011 12:17 ]
Je speculeert over niets zonder enige valide onderbouwing of aanwijzingen. Mijn brainwavesessies vijf seconden na het wakker worden zijn nog nuttiger, excuse my French.
Doe dat dan eens? Speculeer eens waarom NV het pad zou bewandelen dat jij jezelf hebt voorgehouden? Wat voor voordeel zou het ze brengen?Verwijderd schreef op donderdag 29 december 2011 @ 12:16:
Je vraagt mij dingen die je aan nvdia kunt vragen want ik kan niet voor hun een andwoord geven want ik ben nvidia niet. Ik kan er wel over speculeren.
Ik geloof trouwens dat nvidia het ook druk zat heeft met dier ARM gedoe. Daar komt momenteel het grote geld weg geloof ik.
Verwijderd
Ik weet niet wat voor voordelen dat zou brengen. Ik kan helaas niet in de toekomt kijken als dat zo zou zijn.
* Jejking denkt dat het antwoord 'Geen' gaat zijn.
Negatieve PR is ook PR, gaat hier niet op. En nVidia heeft al genoeg problemen gehad, inclusief de nepkaartdemo. Dat soort geintjes vinden aandeelhouders niet heel leuk, kan ik je vertellen.
Negatieve PR is ook PR, gaat hier niet op. En nVidia heeft al genoeg problemen gehad, inclusief de nepkaartdemo. Dat soort geintjes vinden aandeelhouders niet heel leuk, kan ik je vertellen.
Verwijderd
Verleden bied geen garantie voor de toekomt.
Ik word gewoon een beetje ziek over dat negatief gedoe over nvidia hier op tweakers.
Ik word gewoon een beetje ziek over dat negatief gedoe over nvidia hier op tweakers.
[ Voor 50% gewijzigd door Verwijderd op 29-12-2011 12:22 ]
Seriously, you need a break...
Als er iets te melden is, dan komt dat vanzelf wel. Tot die tijd kan je het nVidia en/of omstandigheden aanrekenen dat er nog geen GTX600 is, waarbij ik niet expliciet zeg dat het allemaal de schuld is van nVidia. Technologie en designbeslissingen kunnen heel goed gaan maar ook enorm tegenzitten.
Als er iets te melden is, dan komt dat vanzelf wel. Tot die tijd kan je het nVidia en/of omstandigheden aanrekenen dat er nog geen GTX600 is, waarbij ik niet expliciet zeg dat het allemaal de schuld is van nVidia. Technologie en designbeslissingen kunnen heel goed gaan maar ook enorm tegenzitten.
Goed, dan geen onderbouwing. Wat jij wil. Maar als je niet in staat bent om dat soort uitspraken te onderbouwen, kun je ze in het verleden beter gewoon niet meer plaatsen. Ik lees met alle liefde de nieuwsberichten die je vindt en jouw interpretatie daarvan, maar op dit soort nonsens (en ja, dat meen ik van harte) zit niemand te wachten. Als we het niveau hier nog een beetje hoog willen houden, dan komen we met intelligente analyses op bekende en/of mogelijk bekende informatie. Niet met onderbuikgeleuter.
Verwijderd
GTX580 was er ook zo in eens. Ik bedoel gewoon er mee te zeggen dat nvidia stil kan zijn over bepaalde dingen. Zeg maar er komt een vervanger voor de gtx580 in q2 dan is het nu aardig stil en had nvidia met van alles kunnen komen. Waarom ze dit eventueel zullen doen moet je dan aan nvidia vragen want daar op kan ik geen andwoord kijken want ik kan niet bij hun in hun hoofd kijken. Ik zie het gewoon anders. En ik vind dat ik dat ook mag uiten op mijn manier.
[ Voor 33% gewijzigd door Verwijderd op 29-12-2011 12:32 ]
Had. Punt is, jij weet het niet, ik weet het niet, er is geen enkele aanwijzing voor en dat steekt want meestal is dat geen goed nieuws. Maar dat kan zo veranderen.
PS: even gekeken bij Anand. Het laatste nVidia-nieuws wat de FP haalde daar stamt van 1.5 maand geleden over een GeForce 560GTX Ti Enhanced Edition. There you go.
PS: even gekeken bij Anand. Het laatste nVidia-nieuws wat de FP haalde daar stamt van 1.5 maand geleden over een GeForce 560GTX Ti Enhanced Edition. There you go.
Verwijderd
Nee er is ook geen enkele aanwijzing waarom het alleen maar negatief uit kan pakken. Waarom dan wel altijd die negatieve rommel bijna als feiten aan nemen? Ik word een beetje kwaard nu voel ik ook.
[ Voor 13% gewijzigd door Verwijderd op 29-12-2011 12:34 ]
Omdat het een feit is? Zodra je als bedrijf niet direct kan counteren (om wat voor reden dan ook) als een concurrent iets nieuws op de markt gooit, dan heb je onherroepelijk een nadeel. Of het nu klein of groot is. Elke dag dat nVidia niets nieuws heeft of doet nu, gaat het ze geld kosten.
PS: dat is niet per se meteen het einde van nVidia hoor, AMD/ATi hebben ook de nodige stormen overleefd.
Edit: met hierboven, Anand, bedoelde ik Xbitlabs. Anandtech ligt plat. [/Noobfout].
PS: dat is niet per se meteen het einde van nVidia hoor, AMD/ATi hebben ook de nodige stormen overleefd.
Edit: met hierboven, Anand, bedoelde ik Xbitlabs. Anandtech ligt plat. [/Noobfout].
[ Voor 9% gewijzigd door Jejking op 29-12-2011 12:36 ]
Verwijderd
Nee er is geen feit dat nvidia niet met een goed product kan komen ergens dit jaar nog voor de zomer.
Dat is een gedachten gang van iemand wat hij denkt dat er gaat gebeuren.
Dat is een gedachten gang van iemand wat hij denkt dat er gaat gebeuren.
[ Voor 26% gewijzigd door Verwijderd op 29-12-2011 12:39 ]
Wat dat betreft vergelijk ik de GTX580 met wat de HD4890, dat was ze maar de verbeterde verzie van de HD4870, en de GTX580 dus de verbeterde verzie van de GTX480, GTX485 als naam was misschien wel terechter geweest.Verwijderd schreef op donderdag 29 december 2011 @ 12:30:
GTX580 was er ook zo in eens. Ik bedoel gewoon er mee te zeggen dat nvidia stil kan zijn over bepaalde dingen. Zeg maar er komt een vervanger voor de gtx580 in q2 dan is het nu aardig stil en had nvidia met van alles kunnen komen. Waarom ze dit eventueel zullen doen moet je dan aan nvidia vragen want daar op kan ik geen andwoord kijken want ik kan niet bij hun in hun hoofd kijken.
Niet echt een nieuwe generatie dus
Ik verwacht wel dat de GK114/GTX660 verrassend uit de hoek kan komen, denk aan HD4870 oid, maar dat is afhankelijk of het nVidia mee of tegen zit op dit procedé.
Helemaal eens met hierboven.
AMD heeft goed werk geleverd, daar plukken ze de vruchten van, van die designbeslissing van een jaar of 4 geleden. Aan nVidia om hetzelfde te doen.
O ja, agreed met GTX485. Het was min of meer een gebugfixte GTX480 die iets harder kon. Leuk product maar nog steeds te hongerig en duur wat mij betreft.
AMD heeft goed werk geleverd, daar plukken ze de vruchten van, van die designbeslissing van een jaar of 4 geleden. Aan nVidia om hetzelfde te doen.
O ja, agreed met GTX485. Het was min of meer een gebugfixte GTX480 die iets harder kon. Leuk product maar nog steeds te hongerig en duur wat mij betreft.
Verwijderd
En toch was dat een product die bij veel mensen goed over kwam. Het was voor velen toch wel een tegemoet komend pareltje en je las ook in veel review terug hoe zo'n geweldige prestaties de gtx580 gaf, en dat men dit niet had verwacht blablabla.
Wat jij er persoonlijk van vind, dit zie je totaal niet terug bij heel veel mensen.
Wat jij er persoonlijk van vind, dit zie je totaal niet terug bij heel veel mensen.
[ Voor 24% gewijzigd door Verwijderd op 29-12-2011 12:43 ]
Ik kijk ook iets verder dan m'n neus lang is
Je weet op welke site we zitten, he?
Het is geen slechte kaart, maar er is 1 probleem: de GPU zelf. We zagen hier al eerder met plaatjes dat de GPU gewoon erg groot is en dus in verhouding weinig druk kan zetten op de concurrentie, de winstmarges zijn een stuk kleiner. Dat is overigens al zo sinds GT200(b), GF100 en ook GF110. Je ziet het in elk segment, nVidia presteert met een grotere chip iets beter dan AMD maar is (iets) duurder en verbruikt meer stroom. Dat is een trend die nvidia moet proberen te doorbreken.
Het is geen slechte kaart, maar er is 1 probleem: de GPU zelf. We zagen hier al eerder met plaatjes dat de GPU gewoon erg groot is en dus in verhouding weinig druk kan zetten op de concurrentie, de winstmarges zijn een stuk kleiner. Dat is overigens al zo sinds GT200(b), GF100 en ook GF110. Je ziet het in elk segment, nVidia presteert met een grotere chip iets beter dan AMD maar is (iets) duurder en verbruikt meer stroom. Dat is een trend die nvidia moet proberen te doorbreken.
Verwijderd
Ja maar hoe wij de kaart graag zien zal nvidia een worst zijn, die chip moet ook worden gebruikt voor de zakelijke, medische en nasa markt en daarom moet het zo'n groot duur ding zijn. Ik denk dat als nvidia zich alleen op ons gamers had gericht dat het dan ook een totaal ander geval was geweest, met minder winst voor hun. Het was in die tijd ook de bedoeling op gpgpu te focussen, ja dan moet je wel iets maken waar veel
in kan.
in kan.
[ Voor 20% gewijzigd door Verwijderd op 29-12-2011 13:00 ]
Ja dat was het ook zeker, maar dat zijden ze ook over de HD4890 of maak het gekker, PhenomII vs PhenomI.Verwijderd schreef op donderdag 29 december 2011 @ 12:41:
En toch was dat een product die bij veel mensen goed over kwam. Het was voor velen toch wel een tegemoet komend pareltje en je las ook in veel review terug hoe zo'n geweldige prestaties de gtx580 gaf, en dat men dit niet had verwacht blablabla.
Wat jij er persoonlijk van vind, dit zie je totaal niet terug bij heel veel mensen.
De echter klapper van de 500serie vond ik de GTX560ti die kaart deed het op perfromance, prijs en verbruik erg goed. Dat nVidia nu met dat bottom-up release schema lijkt te komen brengt de GTXx60 positie wel in gevaar denk ik...
Normaal zijn de bug's die in het GTXx80 model zitten er deels uitgehaald in het GTXx60 model, nu bestaat er de kans dat bug's die optreden in grotere chips niet gevonden worden.
Kleiner = beter, end of story. Dan kan je meer uit een wafer halen.Verwijderd schreef op donderdag 29 december 2011 @ 12:52:
Ja maar hoe wij de kaart graag zien zal nvidia een worst zijn, die chip moet ook worden gebruikt voor de zakelijke, medische en nasa markt en daarom moet het zo'n groot duur ding zijn. Ik denk dat als nvidia zich alleen op ons gamers had gericht dat het dan ook een totaal ander geval was geweest, met minder winst voor hun. Het was in die tijd ook de bedoeling op gpgpu te focussen, ja dan moet je wel iets maken waar veel
in kan.
De AMD HD6970 is ook sterk gegroeid tov de 5870 voor GPGPU maar desondanks nog steeds veel kleiner dan nVidia's counterparts => meer winst.
Edit: je posts zijn een zootje. Typ eerst eens wat je wilt en post dan. Al die edits ga ik echt niet bijhouden hoor.
[ Voor 7% gewijzigd door Jejking op 29-12-2011 13:02 ]
Verwijderd
Kleiner is blijkbaar niet beter voor nvidia gezien ze op de zakelijke markten richten met die chips.
Kleiner zou dan slechter zij want er past minder in, wat weer ten koste gaat van de performance wat belangrijker is voor bedrijven. Als het beter was hadden ze de chip ook wel kleiner gemaakt.
Kleiner zou dan slechter zij want er past minder in, wat weer ten koste gaat van de performance wat belangrijker is voor bedrijven. Als het beter was hadden ze de chip ook wel kleiner gemaakt.
[ Voor 31% gewijzigd door Verwijderd op 29-12-2011 13:09 ]
Ja, doei.
AMD haalt met kleinere chips bijna dezelfde performance. Dat zegt iets over de efficientie van de GPU. Dat nVidia niet aan kleinere GPUs wilt is natuurlijk onzin. Overigens, AMD biedt al jaren goede weerstand met haar FireGL-kaarten voor een lagere prijs en ook met DPC en coinmining staan de kaarten hoog aangeschreven. nVidia is niet slecht maar ze lopen domweg een stapje achter.
AMD haalt met kleinere chips bijna dezelfde performance. Dat zegt iets over de efficientie van de GPU. Dat nVidia niet aan kleinere GPUs wilt is natuurlijk onzin. Overigens, AMD biedt al jaren goede weerstand met haar FireGL-kaarten voor een lagere prijs en ook met DPC en coinmining staan de kaarten hoog aangeschreven. nVidia is niet slecht maar ze lopen domweg een stapje achter.
Verwijderd
Maar nvidia wil met die chip meerdere markten voorzien, jij kijkt nu enkel naar ons gamers. Dat had ik al gezegt. Voor die dingen die niet voor ons zo belangrijk zijn zijn al die transistors en poes pas nodig. Als dit niet zo was had nvidia echt niet onnodig veel van die poespas hoeven te gebruiken. Kijk jij wil dan graag iets wat kleiner is en bij jou past en ons gamers maar dan is er niets meer over voor de anderen die ook een gpu nodig zijn voor in die nasa computers env waar het grote geld weg komt voor voor die grote chips.Jejking schreef op donderdag 29 december 2011 @ 13:10:
Ja, doei.
AMD haalt met kleinere chips bijna dezelfde performance. Dat zegt iets over de efficientie van de GPU. Dat nVidia niet aan kleinere GPUs wilt is natuurlijk onzin. Overigens, AMD biedt al jaren goede weerstand met haar FireGL-kaarten voor een lagere prijs en ook met DPC en coinmining staan de kaarten hoog aangeschreven. nVidia is niet slecht maar ze lopen domweg een stapje achter.
[ Voor 7% gewijzigd door Verwijderd op 29-12-2011 13:19 ]
Je wou zeggen dat AMD niet meerdere markten voorziet?
Verwijderd
Ja zeker wel maar nvidia richt zich daar wat meer op. Dat hadden ze ook wel gezegt dat dit meer bedoeld was voor gpgpu, cuda enzv. Ze zijn daar in ook een stuk sterker dan AMD.
Edit
Wat dit betreft had nvidia gewoon 2 aparte chips moeten maken. Ik weet niet of dat ook mogelijk was?
Edit
Wat dit betreft had nvidia gewoon 2 aparte chips moeten maken. Ik weet niet of dat ook mogelijk was?
[ Voor 39% gewijzigd door Verwijderd op 29-12-2011 13:30 ]
AMD fanboy detected....
Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)... Waar hebben we het hier dan over, we zullen moeten afwachten speculeren van beide kanten is net zo dom, kan je op hem lopen bashen dat hij positief kijkt jij loopt alleen maar negatief te kijken, waarom doe je dat dan niet lekker in het AMD forum daar krijg je vast meer steun. Zo vermoeiend dit soort teksten elke keer weer te lezen. Dat een 580 positief werdt en is ontvangen mag duidelijk zijn uit alle berichten.
Zwaar offtopic dit, laten we gewoon wachten op nieuw NIEUWS waar deze topic volgens mij voor is.
Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)... Waar hebben we het hier dan over, we zullen moeten afwachten speculeren van beide kanten is net zo dom, kan je op hem lopen bashen dat hij positief kijkt jij loopt alleen maar negatief te kijken, waarom doe je dat dan niet lekker in het AMD forum daar krijg je vast meer steun. Zo vermoeiend dit soort teksten elke keer weer te lezen. Dat een 580 positief werdt en is ontvangen mag duidelijk zijn uit alle berichten.
Zwaar offtopic dit, laten we gewoon wachten op nieuw NIEUWS waar deze topic volgens mij voor is.
Doe eens even normaal...Jasper 99 schreef op donderdag 29 december 2011 @ 13:25:
AMD fanboy detected....
Wat dacht je van prijs vs. die-size? Wafers zijn allemaal van dezelfde grootte. Hoe kleiner je chip, des te meer chips uit één wafer. De marktprijs is vervolgens een resultaat van relatieve prestaties t.o.v. de concurrentie. Volgens mij haal jij nu marktprijs en waferprijs door de war.Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)... Waar hebben we het hier dan over,
Twee keer iemand bashen op een gefundeerde mening, zonder tegenargumentatie maakt je argument niet sterker. Kom met argumenten of blijf weg. Iemand naar een ander topic verwijzen omdat zijn mening je niet aanstaat mag je gewoon laten.we zullen moeten afwachten speculeren van beide kanten is net zo dom, kan je op hem lopen bashen dat hij positief kijkt jij loopt alleen maar negatief te kijken, waarom doe je dat dan niet lekker in het AMD forum daar krijg je vast meer steun. Zo vermoeiend dit soort teksten elke keer weer te lezen.
Verwijderd
En minder performance voor de zakelijke en nasa markt waar deze chip ook op gericht is.Edmin schreef op donderdag 29 december 2011 @ 13:42:
[...]
Hoe kleiner je chip, des te meer chips uit één wafer.
[ Voor 6% gewijzigd door Verwijderd op 29-12-2011 13:47 ]
Ach, nVidia heeft dan ook geen nieuwe producten nodig. De 7970 is een leuk en aardig kaartje, maar is slechts marginaal sneller dan de GTX 580. De GTX 580 is op zijn beurt marginaal sneller dan de 6970 en diens tegenhanger, de GTX 570. Stellen dat nVidia nu snel nieuwe producten nodig heeft is equivalent aan stellen dat AMD sinds de release van de GTX 580 nieuwe producten heeft. Dat is wat mij betreft gewoon een ridicuul standpunt. Het gaat om paar procentjes hier en daar. Weinig revolutionairs dus. Het valt wat mij betreft zelfs te verdedigen om nu niet snel met nieuwe kaarten te komen, want dat brengt immers ook kosten met zich mee. Of denk je nou echt dat productlijnen vernieuwen een kosteloze bezigheid is.
Wellicht zien we pas nieuwe nVidia high end kaarten op het moment dat AMD ook met nieuwe high end kaarten komt. Dat is geen ramp en wellicht vanuit winstoptimaliseringsinvalshoek niet een al te slechte strategie.
Wellicht zien we pas nieuwe nVidia high end kaarten op het moment dat AMD ook met nieuwe high end kaarten komt. Dat is geen ramp en wellicht vanuit winstoptimaliseringsinvalshoek niet een al te slechte strategie.
Je hebt helemaal gelijk. Ik vind de HD7970 zo tenenkrommend duur dat zelfs eenJasper 99 schreef op donderdag 29 december 2011 @ 13:25:
Ik zie het probleem niet zo, zelfs als ze met lagere kaarten beginnen de 580 (400euro) zit gewoon op zijn plek als je hem vergelijkt met de 7970 (500)...
Zwaar offtopic dit, laten we gewoon wachten op nieuw NIEUWS waar deze topic volgens mij voor is.
GTX580 nog een goede optie blijft. De GTX580 vs HD7970 is qua verhouding ongeveer hetzelfde als HD6970 vs GTX580. Als AMD een mokerslag had willen uitdelen hadden ze de 7970 400 a 430 euro moeten maken. (Er even vanuitgaand dat ie nu zo'n €500 gaat kosten) Dan had nV hun GTX580 goedkoper moeten maken, en er zelfs misschien wel verlies op geleden. Ik weet niet wat een 7950 doet qua performance, misschien dat die hier alsnog voor gaat zorgen (als die bijvoorbeeld 5% sneller is dan een 580) voor ongeveer 350 euro, maar ik denk dat die kaart ook zo'n 399 zal gaat kosten. En zelfs dan blijft een 580 Met zijn huidige prijs nog interessant vind ik.
De naam die AMD had dat ze bang for buck geven is met de hoge prijsstelling van de 7970
En als ik dan zou moeten kiezen zou ik nog liever een 5% tragere 580 hebben dan een 7950.
[ Voor 10% gewijzigd door Format-C op 29-12-2011 13:49 . Reden: Getikt met mijn iphone. Wilde nog wat editten, maar lukt niet meer. ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Wat is de nasa markt? Die ken ik niet. En de zakelijke markt? Kom dan eens met voorbeelden waaruit blijkt dat de chip daar dan beter voor geschikt is? Welke progs draaien ze dan in die markt?Verwijderd schreef op donderdag 29 december 2011 @ 13:46:
[...]
En minder performance voor de zakelijke en nasa markt waar deze chip ook op gericht is.
Kleinere chips betekenen over het algemeen minder transistors, ja. Maar de manier waarop die ingezet worden bepaalt de efficientie.
We hebben slechts één kaart uit de SI line-up gezien. Het is nog wat al te vroeg om nu al te concluderen dat NV deze generatie wel kan overslaan. Bovendien zullen we pas over een paar weken weten wat de verkoopresultaten van deze ene kaart zijn.Springstof schreef op donderdag 29 december 2011 @ 13:48:
Ach, nVidia heeft dan ook geen nieuwe producten nodig.
[ Voor 28% gewijzigd door Edmin op 29-12-2011 13:51 ]
Verwijderd
Wetenschap enzv. gpgpu en cuda. Daar voor zijn toch al die transitors nodig en al die ongein.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
Die progamma's die een ruimte schip moet laten werken om berekeningen te doen en weet ik veel wat meer in die zin, supercomputers, telescopen, ruimte oren blablabla
Dingen die voor ons SF zijn.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
Die progamma's die een ruimte schip moet laten werken om berekeningen te doen en weet ik veel wat meer in die zin, supercomputers, telescopen, ruimte oren blablabla
Dingen die voor ons SF zijn.
[ Voor 35% gewijzigd door Verwijderd op 29-12-2011 13:56 ]
Oh, kom op... ik wist niet dat aluminium hoedjes ook al in gpu-land werden verkocht... Ja, er wordt gebruik gemaakt van in-house ontwikkelde prorgramma's. Nee, de opbouw daarvan is nou niet bepaald een groot geheim.Verwijderd schreef op donderdag 29 december 2011 @ 13:52:
Wetenschap enzv. gpgpu en cuda. Daar voor zijn toch al die transitors nodig en al die ongein.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
GPGPU is een algemene term. CUDA valt onder die paraplu. Vergelijken op CUDA performance is onmogelijl, want het draait alleen op NV hardware. Als je GPGPU wil vergelijken, kun je beter OpenCL nemen.
Grotendeels denk ik er (op dit moment) ook zo over.Springstof schreef op donderdag 29 december 2011 @ 13:48:
Ach, nVidia heeft dan ook geen nieuwe producten nodig. De 7970 is een leuk en aardig kaartje, maar is slechts marginaal sneller dan de GTX 580. De GTX 580 is op zijn beurt marginaal sneller dan de 6970 en diens tegenhanger, de GTX 570. Stellen dat nVidia nu snel nieuwe producten nodig heeft is equivalent aan stellen dat AMD sinds de release van de GTX 580 nieuwe producten heeft. Dat is wat mij betreft gewoon een ridicuul standpunt. Het gaat om paar procentjes hier en daar. Weinig revolutionairs dus. Het valt wat mij betreft zelfs te verdedigen om nu niet snel met nieuwe kaarten te komen, want dat brengt immers ook kosten met zich mee. Of denk je nou echt dat productlijnen vernieuwen een kosteloze bezigheid is.
Wellicht zien we pas nieuwe nVidia high end kaarten op het moment dat AMD ook met nieuwe high end kaarten komt. Dat is geen ramp en wellicht vanuit winstoptimaliseringsinvalshoek niet een al te slechte strategie.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Er zijn vast wel dingen die wij niet kunnen en mogen weten.Edmin schreef op donderdag 29 december 2011 @ 13:56:
[...]
Oh, kom op... ik wist niet dat aluminium hoedjes ook al in gpu-land werden verkocht... Ja, er wordt gebruik gemaakt van in-house ontwikkelde prorgramma's. Nee, de opbouw daarvan is nou niet bepaald een groot geheim.
GPGPU is een algemene term. CUDA valt onder die paraplu. Vergelijken op CUDA performance is onmogelijl, want het draait alleen op NV hardware. Als je GPGPU wil vergelijken, kun je beter OpenCL nemen.
Nvidia domineert in deze markten.
Dus bij nasa hebben ze allemaal nvidia kaarten?
Maar goed dat ze bij nasa dan niet de 8800 versie hebben in satalieten LOL.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Verwijderd
http://www.nvidia.com/object/marsrover_success.html
En er is nog zo veel meer.
En er is nog zo veel meer.
[ Voor 22% gewijzigd door Verwijderd op 29-12-2011 14:09 ]
Meer geduld met posten, minder editenVerwijderd schreef op donderdag 29 december 2011 @ 13:46:
[...]
En minder performance voor de zakelijke en nasa markt waar deze chip ook op gericht is.
Niet perse, wel is het zo dat dat de G80 een grote stap zette voor GPGPU doeleinden en daarmee hebben ze zeker wat zakelijke mark gepakt, maar ik denk dat dat ook grotendeels met software ondersteuning te maken heeft.
De tegendruk van AMD in deze markt is goed genoeg, en zeker omdat in server parken het stroomverbruik erg belangrijk is, zijn die grote chips ook niet altijd even geschikt.
Nasa lijkt me een beetje een non argument, alleen de console markt is al groter. Gok ik.
Machines voor de wetenschap worden vaak gesubsidieerd en daardoor komt meestal wel in een persbericht naar vooren waarvoor deze machienes worden gebruikt. Een soort publiek belang is het dan.Verwijderd schreef op donderdag 29 december 2011 @ 13:52:
Wetenschap enzv. gpgpu en cuda. Daar voor zijn toch al die transitors nodig en al die ongein.
Dat gaat vast om progamma's waar wij geen weet van hebben. En misschien wel geheim moeten blijven.
Veel GPGPU performance is erg fijn voor het berekenen van van natuurkundige scenario's denk aan wateroverlast, weersverwachting, aardbeving's gevolgen. Maar ook celdeling's berekeningen.
Eingelijk alle dingen die veel variabelen hebben.
Natuurlijk worden er ook gebruikt voor militaire doeleinden, maar daar weten we inderdaad weinig van.
Al denk ik dat het gros van de zakelijker markt de autoCAT, PS, enz. gebruikers zijn die een zakelijker GPU erin hebben hangen, ik denk dat die marges en die aantallen wel nog weleens meer kunnen opleveren dan grote rekencentra's waarvan er naar verhouding natuurlijk niet zoveel zijn.
Misschien is er iemand met cijfers hierover?
het verschil tussen 6970 en 580 is de helft van het verschil tussen de 580 en de 7970...
Het verschil in prijs is onbekend want de 7970 komt pas 9januari uit en dan pas weet je de officieleaanschaf prijs.
De flow van AMD gaat pas op gang komen bij de 7870, 7850 en de 7950. Zoals bovenstaand grafiekje al aangaf (positionering) wat NIETS met performance te maken heeft, maar wel met prijs... gaat de 78xx onder de 69xx serie vallen in prijs.
Laten we gezamelijk nog wat wenen over een de hoge richtprijs van de 7970 terwijl die nog niet gereleased is.... en waarvan we de aanschafprijs nog niet weten....
Het verschil in prijs is onbekend want de 7970 komt pas 9januari uit en dan pas weet je de officieleaanschaf prijs.
De flow van AMD gaat pas op gang komen bij de 7870, 7850 en de 7950. Zoals bovenstaand grafiekje al aangaf (positionering) wat NIETS met performance te maken heeft, maar wel met prijs... gaat de 78xx onder de 69xx serie vallen in prijs.
Laten we gezamelijk nog wat wenen over een de hoge richtprijs van de 7970 terwijl die nog niet gereleased is.... en waarvan we de aanschafprijs nog niet weten....
Je vergeet alleen even dat nVidia bij de launch van GTX480 ook al een jaar ervaring hadden met 40nm. Een jaar ervaring die niets geholpen heeft met het wegwerken van bugs. Dat waren de G210 en GT220, die welliswaar een andere architectuur hadden, maar de problemen in GTX480 die zinn verholpen in GTX580 waren geen architectuur problemen maar proces problemen. Laat GK107 nou net zo'n soort chip zijn als G210. Veel zal afhangen van GK104 en wat ze daar van kunnen leren voordat GK112 in de tape-out fase zit.Toettoetdaan schreef op donderdag 29 december 2011 @ 11:22:
[...]
Ik denk wel meer, gezien het bottom-up release schema kunnen ze wel eens net dat ene beetje meer efficiëntie uit de transistors halen
Waar je nu her en der wat mensen ziet praten over een HD7980oid, zul je dat bij de GTX680 niet hebben, deze kaart zou namelijk de laatste kaart uit de reeksn zijn waarbij dus de meeste bugs er al uit zijn en zelfs optimalisaties er al in zitten. Ook zou hij pas tegen 2013 uitkomen, dus de performance increase die een HD8970 met zich mee neemt moet eigenlijk ook even mee.
Ik ga uit van minimaal 50% maar 70% lijkt mij een beetje de richtlijn.
Mensen speculeren verder maar al te graag over HD4890 herhalingen, maar AMD zou dat niet eens nodig moeten hebben, omdat HD7990 moet concurreren met de absolute top.
Verwijderd
Precies en voor veel van die dingen, daar door moest nvidia veel transistors gebruiken en dus een grote chip maken. Als het nu alleen voor de gaming markt bedoeld das dan was die chip ook echt niet vol gepropt met onnodige dingen. Dit scheelde nvidia nog een extra chip te maken. Maar daar voor moeten ze dan wel vaker gaan bakken.Toettoetdaan schreef op donderdag 29 december 2011 @ 14:09:
[...]
Meer geduld met posten, minder editen
Niet perse, wel is het zo dat dat de G80 een grote stap zette voor GPGPU doeleinden en daarmee hebben ze zeker wat zakelijke mark gepakt, maar ik denk dat dat ook grotendeels met software ondersteuning te maken heeft.
De tegendruk van AMD in deze markt is goed genoeg, en zeker omdat in server parken het stroomverbruik erg belangrijk is, zijn die grote chips ook niet altijd even geschikt.
Nasa lijkt me een beetje een non argument, alleen de console markt is al groter. Gok ik.
[...]
Machines voor de wetenschap worden vaak gesubsidieerd en daardoor komt meestal wel in een persbericht naar vooren waarvoor deze machienes worden gebruikt. Een soort publiek belang is het dan.
Veel GPGPU performance is erg fijn voor het berekenen van van natuurkundige scenario's denk aan wateroverlast, weersverwachting, aardbeving's gevolgen. Maar ook celdeling's berekeningen.
Eingelijk alle dingen die veel variabelen hebben.
Natuurlijk worden er ook gebruikt voor militaire doeleinden, maar daar weten we inderdaad weinig van.
Al denk ik dat het gros van de zakelijker markt de autoCAT, PS, enz. gebruikers zijn die een zakelijker GPU erin hebben hangen, ik denk dat die marges en die aantallen wel nog weleens meer kunnen opleveren dan grote rekencentra's waarvan er naar verhouding natuurlijk niet zoveel zijn.
Misschien is er iemand met cijfers hierover?
En jij vergeet nu even dat je iets als een feit brenkt wat je helemaal niet eens kan weten. Dit is net zo iets als zeggen dat de aarde plat is ipv rond en dat dan brengt als feit.dahakon schreef op donderdag 29 december 2011 @ 14:14:
[...]
Je vergeet alleen even dat nVidia bij de launch van GTX480 ook al een jaar ervaring hadden met 40nm. Een jaar ervaring die niets geholpen heeft met het wegwerken van bugs. Dat waren de G210 en GT220, die welliswaar een andere architectuur hadden, maar de problemen in GTX480 die zinn verholpen in GTX580 waren geen architectuur problemen maar proces problemen. Laat GK107 nou net zo'n soort chip zijn als G210. Veel zal afhangen van GK104 en wat ze daar van kunnen leren voordat GK112 in de tape-out fase zit.
[ Voor 17% gewijzigd door Verwijderd op 29-12-2011 14:23 ]
Het bakken is niet het probleem, het ontwikkelen, dat kost het meeste geld.Verwijderd schreef op donderdag 29 december 2011 @ 14:16:
[...]
Precies en voor veel van die dingen, daar door moest nvidia veel transistors gebruiken en dus een grote chip maken. Als het nu alleen voor de gaming markt bedoeld das dan was die chip ook echt niet vol gepropt met onnodige dingen. Dit scheelde nvidia nog een extra chip te maken. Maar daar voor moeten ze dan wel vaker gaan bakken.
Tevens wouden ze twee chip's maken, maar de ontwikkeling van de G80/GT200 opvolger ging zo slecht dat ze de zakelijke architectuur naar de consumenten markt verplaats hebben. Wat resulteerde in fermi.
Het gebeurt wel vaker dat chip bedrijven stoppen met de architectuur waar ze mee bezien waren en overstappen op plan B, denk aan wat er tussen Phenom en Athlon hoorde, de vertraagde BD en Llano, HD6900 op 40nm, en dus ook de GTX480.
Het lijkt soms dat ze op hun gat hebben gezeten, maar achter de schermen is er gewoon iets niet volgens plan verlopen.
Helaas heeft hij naar alle waarschijnlijkheid gelijk...Verwijderd schreef op donderdag 29 december 2011 @ 14:16:
[...]
En jij vergeet nu even dat je iets als een feit brenkt wat je helemaal niet eens kan weten. Dit is net zo iets als zeggen dat de aarde plat is ipv rond en dat dan brengt als feit.
http://www.anandtech.com/show/2937/9 (Helemaal interessant)
http://semiaccurate.com/2...480-broken-and-unfixable/ (Alinea 10,11,12)
Volgens de geruchten zou nVidia een hoop problemen niet zijn tegen gekomen omdat de 40nm 'test'-chip's kleiner waren dan 100mm² terwijl de HD4770/RV740 137mm² was, op 55nm zou die bijna net zo groot zijn als de HD4870/RV770. Op die manier kwam AMD's chip dichter bij een, voor AMD, real-world scenario.
De RV740 was eigenlijk een enorme flop, hij haalde het gestelde doel totaal niet. Maar deed het toch nog steeds best goed.
nVidia had het natuurlijk ook niet mee dat de GT210, GT220 en GT240 een andere argitectuur waren dan de GTX480, waardoor problemen die optreden bij architectuur icm procedé niet naar voren komen. Ook met de grote en het verbruik hadden zo nog niet veel kunnen experimenteren.
Deze keer hebben ze in ieder geval telkens dezelfde architectuur dus dat maakt het toekomstperspectief voor mij positief
Verwijderd
Fermi en kepler is toch verschillend?
Nvidia zou en half fermi/kepler maken en een kompleet kepler geloof ik?
Nvidia zou en half fermi/kepler maken en een kompleet kepler geloof ik?
[ Voor 49% gewijzigd door Verwijderd op 29-12-2011 15:24 ]
Halo-effect.Format-C schreef op donderdag 29 december 2011 @ 13:57:
[...]
Grotendeels denk ik er (op dit moment) ook zo over.
Gezien ik weer eens tot 5 uur in de avond geslapen heb, heb ik de hele discussie gemist, maar kunnen ze dat wel? Stel ze komen pas mid juli met een kaart en hij is 6% sneller dan een 7970 (ik reken eerder op 15-25%, afhankelijk van de spellen en hoe drivers voor zowel de GTX680 als 7970 zijn, maar even als voorbeeld) zou je image dan wel verziekt zijn?Verwijderd schreef op donderdag 29 december 2011 @ 11:47:
die ik niet laat verzieken door anderen, dat mag nvidia doen.
Overigens, als iedereen nou even naar de tatoeëer gaat (stemming in het topic is zo...


Oh sure, NVIDIA might not have had any physical chips to show off at the GPU Technology Conference earlier this week, but CEO Jen-Hsun Huang did have one very, very special exhibit up his sleeve.
Paul: "And below the logo is a picture of all the shipping devices running Tegra 2."
Don: "Here are the new logo designs we've been working on, Mr. Huang."
Ross: "Take a cue from Peter Moore and go with temporary. You never know where you'll be in even just a few years' time."
Chris: "Huang's Boxee Box tramp stamp, of course, would remain a secret."
Joanna: "And this is why I hate gun, er GPU shows."
Darren: "Whatever. At least it's not a Zune tattoo."
Richard Lai: "Yo Intel, this is how embedded is done."
Vlad: "Jen-Hsun's displays of support for Notion Ink are starting to get out of hand..."
Wow ... ik loop te bashen... kijk even je eigen posts terug en die van jejking, als we het over bashen hebben zeg. Er valt hier weinig over te argumenteren we hebben het interessante al gelezen en er wordt alleen maar gespeculeerd dus jaEdmin schreef op donderdag 29 december 2011 @ 13:42:
[...]
Doe eens even normaal...
[...]
Wat dacht je van prijs vs. die-size? Wafers zijn allemaal van dezelfde grootte. Hoe kleiner je chip, des te meer chips uit één wafer. De marktprijs is vervolgens een resultaat van relatieve prestaties t.o.v. de concurrentie. Volgens mij haal jij nu marktprijs en waferprijs door de war.
[...]
Twee keer iemand bashen op een gefundeerde mening, zonder tegenargumentatie maakt je argument niet sterker. Kom met argumenten of blijf weg. Iemand naar een ander topic verwijzen omdat zijn mening je niet aanstaat mag je gewoon laten.
Dan maar weer eens wat 'nieuws'. Of meer een aankondiging van nieuws.
Op mijn vraag of Charlie nog wat had gevonden in zijn verdere mol-uithoor acties, kwam het volgende antwoord :
Nvidia GPU news incoming tomorrow.
http://semiaccurate.com/f...hp?p=146554&postcount=280
Gepost door de administrator van S|A. Met andere woorden, morgen waarschijnlijk in ieder geval een artikel aangaande nVidia op de FP van S|A. Het zou meer zijn dan we de afgelopen weken hebben gezien in ieder geval.
Op mijn vraag of Charlie nog wat had gevonden in zijn verdere mol-uithoor acties, kwam het volgende antwoord :
Nvidia GPU news incoming tomorrow.
http://semiaccurate.com/f...hp?p=146554&postcount=280
Gepost door de administrator van S|A. Met andere woorden, morgen waarschijnlijk in ieder geval een artikel aangaande nVidia op de FP van S|A. Het zou meer zijn dan we de afgelopen weken hebben gezien in ieder geval.
Verwijderd
Ja zeker dan heeft nvidia het met die serie het goed verziekt voor mij. Als dit dan nog wat series achter elkaar gebeurd dan is mijn vertrouwen er in ook weg tot er een wonder gebeurd. Kijk ik heb best wel een liefde voor nvidia maar dat gaat dan puur om de prestaties die ik er voor krijg. Als dit met single gpu's weg blijft dan gaat mijn liefde naar AMD toe, als AMD wel goede winsten boekt over nvidia heen. Dit komt ook omdat ik graag één snelle single gpu heb en dat moet voor dat moment dan ook de snelste zijn die er te krijgen is van een merk. En wat ook mee speelt is dat ik dan ook dat ik aan een upgrade toe ben. Daar voor heb ik al gespaard maar er is nog niet iets waarom ik zou moeten upgraden. Stel dat dat over een dik jaar nog niet hoeft dan zit ik nog met wat ik nu heb of het moet kapot gaan. Als mijn 2 kaarten nu per direct kapot zouden gaan wacht ik ook echt niet pas tot nvidia met wat komt, nee dan ga ik voor een 7970 cf. Physx dan maar inleverenPaprika schreef op donderdag 29 december 2011 @ 16:54:
[...]
-effect.
[afbeelding]
[...]
Gezien ik weer eens tot 5 uur in de avond geslapen heb, heb ik de hele discussie gemist, maar kunnen ze dat wel? Stel ze komen pas mid juli met een kaart en hij is 6% sneller dan een 7970 (ik reken eerder op 15-25%, afhankelijk van de spellen en hoe drivers voor zowel de GTX680 als 7970 zijn, maar even als voorbeeld) zou je image dan wel verziekt zijn?
Overigens, als iedereen nou even naar de tatoeëer gaat (stemming in het topic is zo...):
[afbeelding]
[...]
Nvidia introduces a Frame Rate Limiter in its latest ForceWare drivers
http://www.dsogaming.com/...latest-forceware-drivers/
Typisch iets waar ik op zat te wachten. FPS locken om gpu gebruik te beperken. V-sync is geen optie voor veel online shooters. Ik kan hem mooi op 60fps zetten en heb dan geen input lag meer. + het voordeel dat de gpu 25% minder in gebruik is
[ Voor 10% gewijzigd door Verwijderd op 30-12-2011 00:20 ]
Kijk dat is nou even mooi nieuws
V-sync is ruk ja een limiter klinkt wel nice!
Eigenlijk gek dat het nu pas komt maarja
Eigenlijk gek dat het nu pas komt maarja
Opzich voor sommige spellen wel een handige feature (Skyrim anyone?), maar de meeste spellen/engines (en dan vooral dus non-console meuk (Skyrim anyone?) komen er standaard al mee tegenwoordig, denk aan Frostbite engine, Crysis engine, Unreal engine, IW engine en nog wel een paar (en dus ook de games erop).
PS:
http://forums.guru3d.com/...hp?p=4192523&postcount=78
PS:
http://forums.guru3d.com/...hp?p=4192523&postcount=78
Deze vind ik eigenlijk leuker. Op 30 FPS recorden en toch met 60 FPS spelen is wel iets dat ik altijd al wilde. Doet dus 't het zelfde + meer (en zowel red & green).A few examples for settings:
[Framerate]
Limit = 0
LimitCapture = 0
= Framerate is not limited either during gameplay or during video capture.
[Framerate]
Limit = 100
LimitCapture = 0
= Framerate is limited to 100 FPS during gameplay and video capture
[Framerate]
Limit = 0
LimitCapture = 2
= Framerate is not limited during gameplay but limited to double video framerate (e.g. 60 FPS if video is being captured at 30 FPS) during video capture
[Framerate]
Limit = 100
LimitCapture = 2
= Framerate is limited to 100 FPS during gameplay and limited to double video framerate (e.g. 60 FPS if video is being captured at 30 FPS) during video capture
[ Voor 88% gewijzigd door Paprika op 30-12-2011 01:34 ]
Verwijderd
Te hongerig? ja, de kaart verbruikt redelijk veel stroom. Duur? Ook, maar dan is de HD7970 ook duur voor wat ie mogelijk gaat kosten. (misschien vind jij dat ook wel...) Prijs/performance ratio zou namelijk met een prijs van ~500,- niet eens veel beter zijn dan een GTX580 (uitgaande van huidige min. prijs van ~420,-).Jejking schreef op donderdag 29 december 2011 @ 12:39:
O ja, agreed met GTX485. Het was min of meer een gebugfixte GTX480 die iets harder kon. Leuk product maar nog steeds te hongerig en duur wat mij betreft.
Wafer-size/prijs en marge die ze op de chips hebben heb ik als consument geen drol mee te maken... Snap eerlijk gezegd niet echt wat Ed_L hier eerder mee bedoelde?
Hele gebazel over wat Kepler gaat doen voegt niet veel toe, niemand die het weet... Eindeloos gespeculeer kunnen we idd beter mee stoppen.
HD7970 heeft wel meer features en is zuiniger(ondanks dat die sneller is).
Wel minder instelmogelijkheden qua driversettings/ forcen.
En ja, voor 500 mag je natuurlijk ook wel wat features verwachten he, aangezien de prijs- performance nu niet echt so so is. Zoals het met eerdere AMD kaartjes wel was.
En ja, voor 500 mag je natuurlijk ook wel wat features verwachten he, aangezien de prijs- performance nu niet echt so so is. Zoals het met eerdere AMD kaartjes wel was.
[ Voor 30% gewijzigd door Format-C op 30-12-2011 06:55 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik haalde het aan omdat te laten zien dat de marktprijs van een videokaart weliswaar gebaseerd is op de relatieve prestatieverhouding, maar dat de marges bepaald worden door de die-size. Kleinere die = meer winst.Verwijderd schreef op vrijdag 30 december 2011 @ 01:30:
[...]
Wafer-size/prijs en marge die ze op de chips hebben heb ik als consument geen drol mee te maken... Snap eerlijk gezegd niet echt wat Ed_L hier eerder mee bedoelde?
Iets wat hier al jaren besproken wordt, maar door een enkeling hier nog niet wordt begrepen. Dat je er als consument er niets me hebt mag dan zo zijn, maar hier kijken we hopelijk verder dan dat.
Verwijderd
Ed_L ik snap wel dat kleier beter is, maar dat is niet voor alles zo met die chip. Maar als je wilt concureren met snelheid dan is iets grotere chip wel nodig, helemaal als je veel transistors nodig bent daar voor. Je blijft dan op 28nm maar de chip zelf is groter om dat er meer snelheid uit moet worden gehaald.
Dit is nvidia zijn weg of je het mu beter vind of niet. Jij vind het niet beter omdat hij te duur word en omdat
er minder op een waffer passen. Nvidia ziet er geld in omdat het ook bedoeld is voor de zakelijke en wetenschapelijke makrt. Het is niet alleen een gamings kaart die wel genoeg heeft aan een
minder grote chip.
Ik had zelf liever ook wel een kleiner chipje willen hebben die enkel heel goed is voor het gamen maar nvidia wil met deze chips nu eenmaal ook andere markten domineren. Sins cuda en gpgpu is de chip alleen maar groter geworden.
Ik denk dus dat jij het niet snapt waarom zo'n grote chip nodig is
Dit is nvidia zijn weg of je het mu beter vind of niet. Jij vind het niet beter omdat hij te duur word en omdat
er minder op een waffer passen. Nvidia ziet er geld in omdat het ook bedoeld is voor de zakelijke en wetenschapelijke makrt. Het is niet alleen een gamings kaart die wel genoeg heeft aan een
minder grote chip.
Ik had zelf liever ook wel een kleiner chipje willen hebben die enkel heel goed is voor het gamen maar nvidia wil met deze chips nu eenmaal ook andere markten domineren. Sins cuda en gpgpu is de chip alleen maar groter geworden.
Ik denk dus dat jij het niet snapt waarom zo'n grote chip nodig is
[ Voor 18% gewijzigd door Verwijderd op 30-12-2011 11:07 ]
Het interesseert mij echt helemaal niet hoeveel winst een GPU bakker op zijn chips maakt. Het enige wat mij interesseert is wat ik ervoor betaal. En dan betaal ik het liefst zo weinig mogelijk voor zoveel mogelijk performance.Edmin schreef op vrijdag 30 december 2011 @ 10:49:
Dat je er als consument er niets me hebt mag dan zo zijn, maar hier kijken we hopelijk verder dan dat.
Dat mensen met aandelen het interessant vinden kan ik me voorstellen, maar anders niet. Dit soort dingen is meer voor een economie forum.
We zijn toch allemaal consumenten hier?
[ Voor 8% gewijzigd door Format-C op 30-12-2011 11:11 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Heb je hier een bron voor? GPGPU wordt steeds belangrijker, maar kun je laten zien dat de grotere chip van Nvidia hier ook echt voordeel bij heeft?Dit is nvidia zijn weg of je het mu beter vind of niet. Jij vind het niet beter omdat hij te duur word en omdat
er minder op een waffer passen. Nvidia ziet er geld in omdat het ook bedoeld is voor de zakelijke en wetenschapelijke makrt.
Dan vergeet je even compleet de notebook-markt. Ik kan me heel goed voorstellen dat je die fps-limiter op 30-45fps instel op een notebook, zeker als je zonder stopcontact zit, maar ook gewoon omdat dat een hoop in temperatuur en noise scheelt.Paprika schreef op vrijdag 30 december 2011 @ 01:25:
Opzich voor sommige spellen wel een handige feature [...]
Daarnaast is er nogsteeds een wildgroei aan spellen, die wel vsync ingame ondersteunen, maar zodra je een menu in ga, krijg je alsnog 200fps voor je kiezen, wat uiteraard volledig onnodig is.
Nee, prima verbetering wat mij betreft.
[ Voor 8% gewijzigd door SirNobax op 30-12-2011 11:17 ]
Pentaxiaan
Daarom hoop ik ook dat tweakers een vergelijkbaar grafiekje in de volgende review meenemen:Format-C schreef op vrijdag 30 december 2011 @ 11:03:
[...]
Het interesseert mij echt helemaal niet hoeveel winst een GPU bakker op zijn chips maakt. Het enige wat mij interesseert is wat ik ervoor betaal. En dan betaal ik het liefst zo weinig mogelijk voor zoveel mogelijk performance.
Dat mensen met aandelen het interessant vinden kan ik me voorstellen, maar anders niet.
http://www.techpowerup.com/reviews/AMD/HD_7970/30.html
Bedrijfsstrategie is wel interessant, maar uiteindelijk is er maar één ding waar het om gaat bij de consument
[ Voor 4% gewijzigd door Toettoetdaan op 30-12-2011 11:17 ]
Verwijderd
http://translate.google.n...6bih%3D654%26prmd%3DimvnsMax Hunt schreef op vrijdag 30 december 2011 @ 11:13:
[...]
Heb je hier een bron voor? GPGPU wordt steeds belangrijker, maar kun je laten zien dat de grotere chip van Nvidia hier ook echt voordeel bij heeft?
Geen bronnen met prestaties. Hier word wel het een en ander uitgeleg van waarom.
[ Voor 4% gewijzigd door Verwijderd op 30-12-2011 11:19 ]
Kan je nu ook v-sync @ 30FPS gebruiken dan? Dus vsync aan, met een FPS cap op 30?SirNobax schreef op vrijdag 30 december 2011 @ 11:15:
[...]
Dan vergeet je even compleet de notebook-markt. Ik kan me heel goed voorstellen dat je die fps-limiter op 30-45fps instel op een notebook, zeker als je zonder stopcontact zit, maar ook gewoon omdat dat een hoop in temperatuur en noise scheelt.
Daarnaast is er nogsteeds een wildgroei aan spellen, die wel vsync ingame ondersteunen, maar zodra je een menu in ga, krijg je alsnog 200fps voor je kiezen, wat uiteraard volledig onnodig is.
Nee, prima verbetering wat mij betreft.
Voor sommige games lijkt mij dat wel leuk om eens te "voelen".
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
En ik hoop al pagina's lang dat jij me gaat uitleggen waarom het dan wel nodig is, maar meer dan 'dat is nu eenmaal de keuze van NV' komt er niet uit en dat is te gemakkelijk.Verwijderd schreef op vrijdag 30 december 2011 @ 11:00:
Ik denk dus dat jij het niet snapt waarom zo'n grote chip nodig is
We vergelijken in deze topics alles wat los en vast zit aan de twee hoofrolspelers op de GPU-markt. Productieprocessen worden onder de loep genomen, problemen worden op een niveau uitgezocht waar niemand in de praktijk echt iets aan heeft (underfill, anyone?), architectuur wordt uitgeplozen.... maar als het over ontwerpkeuzes gaat moeten we maar doen alsof het grote groene oog in de lucht wel weet wat goed voor ons is en zijn keuzes als ondoorgrondbare waarheid accpeteren? Not my style. En dat geldt voor meer mensen hier.
Newsflash: het is de economie die de techniek drijft. Het zou je weldegelijk als consument moeten interesseren, want een verschil in die-size zorgt voor een verschil in concurrentiepositie. En in de zwaar onperfecte markt die we hier beschouwen zorgt dat verschil in positie voor een tekort aan concurrentie en dus voor hogere prijzen.Format-C schreef op vrijdag 30 december 2011 @ 11:03:
[...]
Het interesseert mij echt helemaal niet hoeveel winst een GPU bakker op zijn chips maakt. Het enige wat mij interesseert is wat ik ervoor betaal. En dan betaal ik het liefst zo weinig mogelijk voor zoveel mogelijk performance.
Dat mensen met aandelen het interessant vinden kan ik me voorstellen, maar anders niet. Dit soort dingen is meer voor een economie forum.
We zijn toch allemaal consumenten hier?
[ Voor 33% gewijzigd door Edmin op 30-12-2011 11:24 ]
Daar wordt helemaal niks uitgelegd waarom Nvidia een grotere chip nodig heeft. Er wordt ook niks gezegd over de mogelijke voorkeur die Nvidia zou hebben voor grotere chips.Verwijderd schreef op vrijdag 30 december 2011 @ 11:19:
[...]
http://translate.google.n...6bih%3D654%26prmd%3Dimvns
Geen bronnen met prestaties. Hier word wel het een en ander uitgeleg van waarom.
Verwijderd
Maar wel waar voor ze bedoeld zijn, denk je nu echt dat er meer prestaties uit een kleinere chip gaat komen bij nvidia? Nvidia iet hier toch hun toekomst in tot nu toe en dat heeft gewerkt, shit happens als dat met een grote chip beter werkt dn met een kleinere.
[ Voor 37% gewijzigd door Verwijderd op 30-12-2011 11:27 ]
Resulteert die grotere chip in meer prestaties voor ons als consument? Nee.
Dus waarom mag Nvidia wel game performance inleveren voor GPGPU doeleinden? Want daar begint het inmiddels op te lijken.
Dus waarom mag Nvidia wel game performance inleveren voor GPGPU doeleinden? Want daar begint het inmiddels op te lijken.
En sinds de release van Fermi is het markt aandeel in de professionele markt alleen maar gedaald.Verwijderd schreef op vrijdag 30 december 2011 @ 11:19:
[...]
http://translate.google.n...6bih%3D654%26prmd%3Dimvns
Geen bronnen met prestaties. Hier word wel het een en ander uitgeleg van waarom.
Oke, maar met 4% van het massieve aandeel wat ze daar hebben. Professioneel aandeel en consumenten aandeel liepen eerst gelijk. Maar na de G80/GTX8800 is het consumenten aandeel weer sterk gedaald terwijl dat in de professioneel markt wat langer lijkt te duren.
Zolang de prijs voor ons goed is maakt het toch niets uit?Werelds schreef op vrijdag 30 december 2011 @ 11:27:
Resulteert die grotere chip in meer prestaties voor ons als consument? Nee.
Dus waarom mag Nvidia wel game performance inleveren voor GPGPU doeleinden? Want daar begint het inmiddels op te lijken.
[ Voor 17% gewijzigd door Toettoetdaan op 30-12-2011 11:29 ]
AMD lukt het ook met een kleine chip dus waarom moet NVidia dan een grote chip maken?Verwijderd schreef op vrijdag 30 december 2011 @ 11:25:
Maar wel waar voor ze bedoeld zijn, denk je nu echt dat er meer prestaties uit een kleinere chip gaat komen bij nvidia? Nvidia iet hier toch hun toekomst in tot nu toe en dat heeft gewerkt, shit happens als dat met een grote chip beter werkt dn met een kleinere.
Zoveel heeft die big-die strategie ze niet geholpen de afgelopen jaren..
Verwijderd
Ja tuurlijk lukt dat met een kleiere chip. Maar dan krijg je ook minder prestaties. Nvidia is nog al iemand die voor prestaties gaat.Redblader schreef op vrijdag 30 december 2011 @ 11:29:
[...]
AMD lukt het ook met een kleine chip dus waarom moet NVidia dan een grote chip maken?
Zoveel heeft die big-die strategie ze niet geholpen de afgelopen jaren..
Kijk wil je meer prestaties dan word iets duurder en groter. Met andere gevolgen van dien zoals een hoger verbruik en meer warmte. Als de prestaties zeer belangrijk zijn is de rest maar bijzaak.
[ Voor 18% gewijzigd door Verwijderd op 30-12-2011 11:32 ]
Umz??? een grotere chip staat niet garant voor meer prestatie's.Verwijderd schreef op vrijdag 30 december 2011 @ 11:30:
[...]
Ja tuurlijk lukt dat met een kleiere chip. Maar dan krijg je ook minder prestaties. Nvidia is nog al iemand die voor prestaties gaat.
Verwijderd
Als je hem leeg laat niet nee. Op gpgpu en cuda gebied zie je die snelheid dus wel terug, zoek maar op.
Voor mij houd deze eindeloze discussie over de grote van de chip op want het is nooit goed bij nvidia.
Voor mij houd deze eindeloze discussie over de grote van de chip op want het is nooit goed bij nvidia.
[ Voor 85% gewijzigd door Verwijderd op 30-12-2011 11:35 ]
Ow kom op kijk eens naar de CPU markt voor de gein dan:Verwijderd schreef op vrijdag 30 december 2011 @ 11:32:
Als je hem leeg laat niet nee
Bulldozer: 315mm²
Sandy-bridge: 216mm²
En maak eens een keer je post's af voordat je ze post....
Ben je nu aan het trollen of snap je het gewoon niet..?Verwijderd schreef op vrijdag 30 december 2011 @ 11:32:
Als je hem leeg laat niet nee.
Voor mij houd deze eindeloze discussie over de grote van de chip op want het is nooit goed bij nvidia.
AMD gebruikt een andere architectuur dan Nvidia. Blijkbaar kan AMD met hun architectuur een snelle chip maken op een kleine chip, en Nvidia zal dit vast ook kunnen maar hebben ze niet voor gekozen.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Verwijderd
Nee ik maak mijn posts niet af. Ik heb moeite met die dingen.Toettoetdaan schreef op vrijdag 30 december 2011 @ 11:36:
[...]
Ow kom op kijk eens naar de CPU markt voor de gein dan:
Bulldozer: 315mm²
Sandy-bridge: 216mm²
En maak eens een keer je post's af voordat je ze post....
Niet zo op de man in gaan graag wil je
Dat ook maar er zijn ook veel transitors en degelijke nodig. Dat past ja niet in een kleinere chip?Xenomorphh schreef op vrijdag 30 december 2011 @ 11:36:
[...]
Ben je nu aan het trollen of snap je het gewoon niet..?
AMD gebruikt een andere architectuur dan Nvidia. Blijkbaar kan AMD met hun architectuur een snelle chip maken op een kleine chip, en Nvidia zal dit vast ook kunnen maar hebben ze niet voor gekozen.
Als je dan meer prestaties nodig bent dan laat je die chip toch niet kleiner? nvidia is niet voor niets wat sneller met zijn grotere chip. Ik blijf bij mijn punt en kap er mee, en nee niet voor ons games. Aan allen Doe maar weer nieuws ipv nvidia bashen, valt erg op hier op tweakers.
[ Voor 50% gewijzigd door Verwijderd op 30-12-2011 11:51 ]
Hij geeft net een vergelijking waaruit blijkt dat dit dus onzin is. AMD doet het met minder transistors. Niet dat ik nou een statement wil maken met deze discussie maar met deze manier van argumenteren schiet het hier sowieso niet op.Verwijderd schreef op vrijdag 30 december 2011 @ 11:40:
Dat ook maar er zijn ook veel transitors en degelijke nodig.
En @discussie: ik vind het niet echt nieuwswaardig, kunnen we niet accepteren dat er een tijdje even geen nieuws is en dan niet dit topic omhoog schoppen met nutteloze discussies en ongefundeerde speculaties?
[ Voor 11% gewijzigd door bwerg op 30-12-2011 11:55 ]
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
Ben je nu aan het trollen? Je snapt toch wel dat je met minder ook iets minder prestaties krijgt he?
Tuurlijk het werkt ook goed met minder maar als je iets meer er in doet krijg je ook meer performance.
Dat is wat nvidia toch ook wil Iets meer prestaties en dat geeft ook weer nadelen met zich mee.
Tuurlijk het werkt ook goed met minder maar als je iets meer er in doet krijg je ook meer performance.
Dat is wat nvidia toch ook wil Iets meer prestaties en dat geeft ook weer nadelen met zich mee.
[ Voor 19% gewijzigd door Verwijderd op 30-12-2011 11:55 ]
Lezen...Verwijderd schreef op vrijdag 30 december 2011 @ 11:54:
Ben je nu aan het trollen? Je snapt toch wel dat je met minder ook iets minder prestaties krijgt he?
Niet persoonlijk maar dit gaat nergens meer over.
offtopic:
Excusez moi voor onnodig hoofdlettergebruik net, maar ik ben ook maar mens
Excusez moi voor onnodig hoofdlettergebruik net, maar ik ben ook maar mens
[ Voor 26% gewijzigd door bwerg op 30-12-2011 12:07 ]
Heeft geen speciale krachten en is daar erg boos over.