[Algemeen] nVidia Nieuwdiscussie Topic - Deel 49 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 26.644 views

Acties:
  • 0 Henk 'm!

Anoniem: 263719

Anoniem: 381187 schreef op zondag 31 oktober 2010 @ 10:28:
Die Charlie toch hé ... wat eigenlijk positief nieuws is laat ie uitschijnen als iets negatiefs.
Mja, ik herinner me nog de "positieve" nieuwsberichten over GF100 :O die hij ook allemaal zogezegd "negatief" liet uitschijnen... :9 oh, hij had gewoon gelijk :o :P
Hun site staat overigens vol met ATI banners ... u begrijpt :*)
Dat maakt hem natuurlijk automatisch een leugenaar...? :/
Paper launch tot daar toe, dat hadden we allemaal wel verwacht denk ik maar de GTX580 is dus wel degelijk een serieuze stap voorwaarts in vergelijking met de 480,
en dat weet jij omdat...? :?

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Springstof schreef op zondag 31 oktober 2010 @ 11:09:
Volgens mij was het iets in de trant van.. Dat de prestaties van de 580 nog beter zouden zijn dan de 40% sneller dan de 480 in 3dmark vantage, die eerder in dit topic is geplaatst en dat de 580 dat voorelkaar gaat krijgen met ongeveer 80% van het stroomverbruik van de 480.
Zoiets was het inderdaad. En aangezien dat best flinke beweringen zijn, zou ik het graag wat beter onderbouwd hebben. :)

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Which is not going to happen, gezien de post history en de typstijl en de hoeveelheid inside info die op het moment gewoon *amper tot niet* bekend is.

Maar goed, on the other hand... convince me, try it ;)

Acties:
  • 0 Henk 'm!

Anoniem: 381187

Allé vooruit maar ik ga ze niet allemaal uit de doeken doen, enkelen die mijn verwachtingen hebben doen posten, ter convincie :

- http://futuremark.yougame...p?p=1468602&postcount=102
QuadDamage knows more performance-wise :*)

- PHK @ expreview
PHK heeft al laten weten dat de TDP rond de ~80-85% van GTX480 zal liggen.

Ik wou dat ik betere referenties kon voorleggen maar dan zou iedereen het al weten omdat het op elke nieuwssite stond uiteraard :) Feit is dat de algemene indruk betreffende GTX580 vele hoger is dan toen GTX480 ging verschijnen. De Cayman ligt natuurlijk te wachten om de hoek ... All I can say, het wordt een epic battle deze winter en mocht de GTX580 evenwaardig zijn aan de 6970, kudos voor nvidia mijn gedacht :*) !

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Lol, heb je ook wel eens naar z'n post history gekeken bijvoorbeeld? Koosjer no.

PHK, wie kent 'm? :)

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Fijn, binnen één dag meer dan een pagina lang Nvidia is beter vs. AMD is beter, jammer...

Is er al wat meer bekend over evt. kleine veranderingen in de architectuur? Want het lijkt me vrij logisch dat een overclock van 10% en 32 extra shaders niet voldoende gaat zijn om de GTX580 genoeg competitief te maken in het high-end segment.
Er stond trouwens elders ook dat de winst in Vantage niet representatief zou zijn t.o.v. game speed, wat meer rond de 20% zou liggen. (die 20% die ook door SA wordt aangehouden, in trouwens een vervelend bericht met een veel te negatieve ondertoon, jammer dat ie z'n nieuwsberichten niet op een meer professionele en minder bevooroordeelde manier kan typen).
Maargoed, ik denk dat Nvidia met Fermi (ook de verbeterde versie) een lastige strijd moet voeren en ik hoop voor ze dat Kepler ze weer beter in het spoor krijgt.

EDIT; In dit artikel op Tweaktown -> http://www.tweaktown.com/..._under_4_weeks/index.html
Staat wel iets over het schrappen van transistor's die voor gamen toch niet nodig zijn;
The 480 has 3 billion transistors - the target toward gaming can lead NVIDIA to cut as many as 300 million transistors from the GPU - it will not be as efficient in GPGPU applications, but there are only a few users (compared to the many gamers and benchers) who care for that.

[ Voor 38% gewijzigd door Anoniem: 245699 op 31-10-2010 14:04 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
Springstof schreef op zaterdag 30 oktober 2010 @ 17:24:
Wat een absurd hoge score. Zou de naamsverandering naar 580 geheel rechtvaardigen en hopelijk wordt het een 6900 serie killer :*)
Happy you!

http://www.nordichardware...-mystery-is-clearing.html
According to our sources the higher clock frequencies and the increased number of CUDA cores enable NVIDIA not just to increase performance compared to its own flagship, but also be enough to keep AMD Radeon HD 6970 in second place.
:+

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Dat wordt dan hoe dan ook verdraaid lastig voor Charlie, als GTX580 echt slechts een nieuwe GF100 blijkt te zijn. Hoe vaak heeft hij immers niet geroepen dat die chip 'unmanufacturable' en 'unfixable' is?
En als het iets anders dan een GF100b wordt zit hij er dus ook weer naast. :)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Het maakt me verder vrij weinig uit of Charlie gelijk heeft of niet, hij heeft best vaak bewezen dicht bij de waarheid te zitten. Wat me vooral stoort in zijn verhaaltjes is dat ie zichtbaar geniet van het falen van Nvidia. Leuk voor zijn rancune jegens Nvidia, maar ik wordt er niet vrolijk van, net zo min als de situatie omgedraaid zou zijn en we weer prijzen van >700,- voor een high-end Nvidia kaart moeten neerleggen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op zondag 31 oktober 2010 @ 14:09:
Dat wordt dan hoe dan ook verdraaid lastig voor Charlie, als GTX580 echt slechts een nieuwe GF100 blijkt te zijn. Hoe vaak heeft hij immers niet geroepen dat die chip 'unmanufacturable' en 'unfixable' is?
En als het iets anders dan een GF100b wordt zit hij er dus ook weer naast. :)
Hij heeft altijd gezegd dat er een base layer respin nodig was om ergens te komen. Laat dat nu net zijn wat er geopperd wordt, een baselayer respin. Als die 10% minder transistors waarheid zijn, en er aanpassingen gemaakt zijn opdat het wel werkt op 40nm, dan zal de omvang waarschijnlijk vrij gelijk blijven aan de huidige GF100, maar dan in een vorm die wel beter doet wat het moet doen. Het unfixable ging voornamelijk over de metallayer respins die nVidia er tegenaan gooide om yields etc omhoog te krijgen. Dat was dus niet echt mogelijk, gezien het ontbreken van een 512 cuda core rijke kaart.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zondag 31 oktober 2010 @ 14:29:
[...]


Hij heeft altijd gezegd dat er een base layer respin nodig was om ergens te komen. Laat dat nu net zijn wat er geopperd wordt, een baselayer respin. Als die 10% minder transistors waarheid zijn, en er aanpassingen gemaakt zijn opdat het wel werkt op 40nm, dan zal de omvang waarschijnlijk vrij gelijk blijven aan de huidige GF100, maar dan in een vorm die wel beter doet wat het moet doen. Het unfixable ging voornamelijk over de metallayer respins die nVidia er tegenaan gooide om yields etc omhoog te krijgen. Dat was dus niet echt mogelijk, gezien het ontbreken van een 512 cuda core rijke kaart.
Uh huh. Ach, ik laat Charlie zelf maar even aan het woord dan:
The changes needed to fix the first Fermi are basically not doable until the chip is shrunk to 28nm, the size is just too big.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op zondag 31 oktober 2010 @ 14:41:
Uh huh. Ach, ik laat Charlie zelf maar even aan het woord dan:
Het is maar hoe je er tegen aan kijkt. Feitenlijk krijg je momenteel amper meer prestaties van de GTX480, ten opzichte van de HD6870, maar daarvoor heeft nVidia ruim twee keer zoveel oppervlak en dubbel het vermogen nodig. Als GTX580 daar dan nog eens 20% bij op gooit, heb je een redelijk goede prestatie, maar het is de vraag of het genoeg is ten opzichte van Cayman.

Wanneer je GF100 op 28nm zou bakken, zou je een aanzienlijk kleinere chip krijgen, die waarschijnlijk ook nog eens een stukje hoger geclocked kan worden, waardoor de prestaties wel zouden kunnen brengen wat nodig is.

Natuurlijk is het prachtig voor de consument dat je een GTX470 voor 180 euro kunt kopen, maar voor nVidia is een dergelijke prijsstelling niet zo best met een chip van dergelijke omvang. Het produceren van de chip en het verkopen voor de prijzen die nodig zijn voor een gezonde bedrijfsvoering is dus nagenoeg onmogelijk op dit moment. Als consument kunnen we alleen maar hopen dat de GF110 een betere concurrentiepositie kan bekleden voor nVidia, omdat het anders uiteindelijk ten koste gaat van nVidia zelf.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Het grote deel van de winst ligt bij de 'normale' videokaarten nog steeds in het low-end en mid-end segment, toen ik nog bij de media markt werkte heb ik een hele tijd een gtx280 in het schap zien liggen, de doos was aardig versleten, de consument kijkt meer naar het prijskaartje dan naar de performance.

Het is natuurlijk minder voor nv dat die gf100 chip op geforce kaarten met negatieve marge verkocht worden (als dat al zo is), maar hou ook in je achterhoofd dat deze chip ook in quadro en tesla kaarten dienst doet, en daar draait men juist een flinke positieve marge, waardoor het geheel, ondanks de voor gamers enigzins negatieve eigenschappen, voor nvidia toch winst oplevert.

Ten tijde van de hd5xxx introductie konden ze echter niet anders dan de g200(b) chip EOL te verklaren, de doelgroep, consumenten die zich in de materie verdiepen, kozen natuurlijk massaal voor de nieuwe generatie ati kaarten omdat het als een paal boven water stond dat deze op dat moment onomstotelijk de beste keus waren. Natuurlijk enkele mensen daargelaten die voor een stuntprijsje nog een gtx2xx kaart op de kop tikten, imo geen slechte besluit omdat die kaarten in de meeste gevallen nog steeds ruim genoeg prestaties bieden.
Ik reken mezelf ook tot die groep, het perfecte moment om eens een dual-gpu kaart te proberen. :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
offtopic:
Uh, media markt prijzen zijn 400% die van een echte winkel zoals Azerty... Dus daar zou ik ook alles laten liggen. :+

[ Voor 30% gewijzigd door Paprika op 31-10-2010 18:28 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op zondag 31 oktober 2010 @ 15:26:
[...]
Natuurlijk is het prachtig voor de consument dat je een GTX470 voor 180 euro kunt kopen, maar voor nVidia is een dergelijke prijsstelling niet zo best met een chip van dergelijke omvang. Het produceren van de chip en het verkopen voor de prijzen die nodig zijn voor een gezonde bedrijfsvoering is dus nagenoeg onmogelijk op dit moment. Als consument kunnen we alleen maar hopen dat de GF110 een betere concurrentiepositie kan bekleden voor nVidia, omdat het anders uiteindelijk ten koste gaat van nVidia zelf.
215 euro voor GTX470 ondertussen. HD6870 de onberispelijke winnaar en dus betere keus.
Anoniem: 263922 schreef op zondag 31 oktober 2010 @ 18:22:
Het grote deel van de winst ligt bij de 'normale' videokaarten nog steeds in het low-end en mid-end segment, toen ik nog bij de media markt werkte heb ik een hele tijd een gtx280 in het schap zien liggen, de doos was aardig versleten, de consument kijkt meer naar het prijskaartje dan naar de performance.

Het is natuurlijk minder voor nv dat die gf100 chip op geforce kaarten met negatieve marge verkocht worden (als dat al zo is), maar hou ook in je achterhoofd dat deze chip ook in quadro en tesla kaarten dienst doet, en daar draait men juist een flinke positieve marge, waardoor het geheel, ondanks de voor gamers enigzins negatieve eigenschappen, voor nvidia toch winst oplevert.
Natuurlijk ligt een groot deel van de winst bij OEM videokaarten markt. Daar was nVidia sinds de G80 t/m de GT200b de leider. Maar met het verdwijnen van de chipset afzet op zowel het Intel als AMD platvorm en het verliezen van de GPU oorlog met ATI sinds de HD4xxx/HD5xxx serie is AMD de leider op het gebied van OEM videokaarten. Ook is AMD heel erg sterk op de console markt en het ziet er naar uit dat dit bij de volgende generaties alleen maar toe zal nemen.

Het is inderdaad onwaarschijnlijk dat de GF100 kaarten met (veel) winst worden verkocht, maar dat geld voor alle Gxx4xx kaarten want ze hebben allemaal grotere die sizes dan hun ATI tegenhanger(prijs) terwijl ATI(met een zelfde prijs(die size) betere performance levert met vaak nog minder stroomverbruik).

Ondanks dit alles haalt nVidia toch nog een hogere omzet dan AMD op het gebied van GPUs. nVidia heeft ongeveer 2,5 keer zoveel omzet(2009). Het wordt afwachten wat 2010 gaat brengen. 2012 zal wel een ramp worden voor nVidia want dan is elke OEM pc uitgerust met een APU van Intel of AMD. nVidia zal zich dus moeten gaan focussen op high en mid-end GPUs, Terga, Consoles en GPGPU(Tesla en Quadro).

Want hun omzet zal er anders niet beter op worden.
Momenteel gaat het alleen op het gebied van GPGPU goed met nVidia.

Acties:
  • 0 Henk 'm!

Anoniem: 126513

nVidia zit tegenwoordig toch ook veel in handhelds tegenwoordig?
Volgens mij hadden ze ook al aanbieding gekregen om voor nieuwe console te ontwikkelen, weet niet welke overigens. :D

[ Voor 3% gewijzigd door Anoniem: 126513 op 31-10-2010 20:21 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

madmaxnl schreef op zondag 31 oktober 2010 @ 19:42:
Ondanks dit alles haalt nVidia toch nog een hogere omzet dan AMD op het gebied van GPUs. nVidia heeft ongeveer 2,5 keer zoveel omzet(2009).
Het woordje "ondanks" lijkt mij daar niet helemaal te kloppen, die extra kosten van de grotere GPU's zie je toch helemaal niet terug in de omzet?

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

De omzet niet nee ;)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AMD heeft in 2007 een omzet gedraaid van 992 miljoen dollar op het gebied van GPUs.
AMD heeft in 2008 een omzet gedraaid van 1,17 miljard dollar op het gebied van GPUs.
AMD heeft in 2009 een omzet gedraaid van 1,21 miljard dollar op het gebied van GPUs.

nVidia heeft in 2007 een omzet gedraaid van 3,1 miljard dollar.
nVidia heeft in 2008 een omzet gedraaid van 4,1 miljard dollar.
nVidia heeft in 2009 een omzet gedraaid van 3,4 miljard dollar.
nVidia heeft in 2010 een omzet gedraaid van 3.3 miljard dollar.

PS nVidia gebruikt andere termijnen als AMD er zit volgens mij een kwartaal tussen...

Bij nVidia is de omzet de hele business en bij AMD alleen GPU. Bij nVidia zie je een afnamen en bij AMD een toenamen in omzet. In beiden gevallen rapporteren de bedrijven een lager ASP. Ook heeft de financiële crisis veel invloed gehad. Ondanks dit alles weet AMD wel een hogere omzet te genereren dan nVidia.
bwerg schreef op zondag 31 oktober 2010 @ 20:27:
[...]

Het woordje "ondanks" lijkt mij daar niet helemaal te kloppen, die extra kosten van de grotere GPU's zie je toch helemaal niet terug in de omzet?
De ASP is omlaag gegaan. nVidia zijn die size niet, 1+1=3 in dit geval. Dit is vooral aan de winst te zien.
Zo draait nVidia in 2009 en 2010 verlies terwijl AMD(GPU) winst maakt alhoewel de winst van AMD(GPU) ook niet om over naar huis te schrijven is. Maar in verhouding is het wel heel erg goed.

@Hieronder
offtopic:
[quote]Anoniem: 263922 schreef op zondag 31 oktober 2010 @ 23:13:
[...]


Als overdrijven een vak was :+ , maargoed ben het verder wel met je eens, ben vaste klant bij azerty wat pc-spullen aangaat
[/quote]

Als je bij de Mediamarkt ook nog eens de voorrijkosten(benzine), tijd(is geld) en slechte RMA rekent is 400% helemaal zo gek nog niet ;) Altijd gewoon alles online bestellen wat online besteld kan worden. Is altijd goedkoper, je hoeft je kot niet uit en je bespaard tijd en benzine.

[ Voor 39% gewijzigd door madmaxnl op 31-10-2010 23:25 ]


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Paprika schreef op zondag 31 oktober 2010 @ 18:27:
offtopic:
Uh, media markt prijzen zijn 400% die van een echte winkel zoals Azerty... Dus daar zou ik ook alles laten liggen. :+
Als overdrijven een vak was :+ , maargoed ben het verder wel met je eens, ben vaste klant bij azerty wat pc-spullen aangaat

[ Voor 21% gewijzigd door Anoniem: 263922 op 31-10-2010 23:16 ]


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 17:50
Wat een prachtig Charlie-esqe betoog, madmax :)

Als we naar de toekomst van nVidia kijken, dan denk ik niet dat we ons blind moeten staren op het GF100 debacle. Hoewel nVidia uiteindelijk wel de snelste GPU wist neer te zetten in de eerste generatie DX11 kaarten, was die chip grotendeels een fiasco. Er is veel over te zeggen, en er is al veel over gezegd - maar die kaart was gewoon te laat. GF104 laat zien dat nVidia nog steeds zeer goede GPU's kan bouwen en dat de oorlog nog lang niet voorbij is. Maar de slag om de eerste generatie DX11 kaarten was op dat moment al voor ATi, door een technisch knock-out.

Dat zegt niets over de toekomst. GF110 lijkt niet het wondermedicijn te worden - eigenlijk de kaart die nVidia ongeveer een jaar geleden had willen uitbrengen. Maar met een volgende generatie GPU's (laten we eerlijk zijn, de komende generatie is een soort van tussenpaus, nu de 32nm node is weg gevallen) kunnen de kaarten weer geheel anders worden geschud.

Over die fameuze die-size.... het is lastig de situatie bij AMD en nVidia te vergelijken. nVidia mag dan wel grotere chips gebruiken, het heeft relatief weinig last van fouten op een platter door deactivatie; zelfs bij de topuitvoeringen van de verschillende chips. Bovendien *schijnt* nVidia een voordeliger deal te hebben met TSMC. Uitendelijk kun je alleen iets over de winstgevendheid zeggen als je de fault rate per platter kent. Als die hoog is - en daar heeft het lange tijd op geleken - dan kon nVidia nog wel eens aan het langste eind trekken. In ieder geval een stuk langer dan dat wij steeds aannemen...

Intussen laat nVidia zich wel van zijn slechte kant zien, het lijkt zich soms een monopolist te wanen, die krampachtig vast probeert te houden aan die positie. Dat siert ze niet, en ik denk ook dat het ze reputatie, klanten en/of omzet kost.

Kijkend naar het grotere plaatje, dan moet men zich afvragen of - met de krimpende markt voor discrete GPU's en de sterkere concurrentie van AMD - nVidia op de lange termijn wel kan blijven opereren als een zelfstandige onderneming. Ambities op andere markten resulteren in wisselende resultaten. Het Tegra platform blijft achter op de concurrentie - en het krijgt de x86 ambities maar niet van de grond. Het lijkt wel vrij aardig te gaan in de Tesla markt - maar ik vermoed toch dat dat een niche markt zal blijven. Ik vermoed binnen 3 jaar een bod, gesteund door Jen-Hsun himself :)

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Helixes schreef op zondag 31 oktober 2010 @ 23:32:
Wat een prachtig Charlie-esqe betoog, madmax :)

1) Als we naar de toekomst van nVidia kijken, dan denk ik niet dat we ons blind moeten staren op het GF100 debacle. Hoewel nVidia uiteindelijk wel de snelste GPU wist neer te zetten in de eerste generatie DX11 kaarten, was die chip grotendeels een fiasco. Er is veel over te zeggen, en er is al veel over gezegd - maar die kaart was gewoon te laat. GF104 laat zien dat nVidia nog steeds zeer goede GPU's kan bouwen en dat de oorlog nog lang niet voorbij is. Maar de slag om de eerste generatie DX11 kaarten was op dat moment al voor ATi, door een technisch knock-out.

2) Dat zegt niets over de toekomst. GF110 lijkt niet het wondermedicijn te worden - eigenlijk de kaart die nVidia ongeveer een jaar geleden had willen uitbrengen. Maar met een volgende generatie GPU's (laten we eerlijk zijn, de komende generatie is een soort van tussenpaus, nu de 32nm node is weg gevallen) kunnen de kaarten weer geheel anders worden geschud.

3) Over die fameuze die-size.... het is lastig de situatie bij AMD en nVidia te vergelijken. nVidia mag dan wel grotere chips gebruiken, het heeft relatief weinig last van fouten op een platter door deactivatie; zelfs bij de topuitvoeringen van de verschillende chips. Bovendien *schijnt* nVidia een voordeliger deal te hebben met TSMC. Uitendelijk kun je alleen iets over de winstgevendheid zeggen als je de fault rate per platter kent. Als die hoog is - en daar heeft het lange tijd op geleken - dan kon nVidia nog wel eens aan het langste eind trekken. In ieder geval een stuk langer dan dat wij steeds aannemen...

4) Intussen laat nVidia zich wel van zijn slechte kant zien, het lijkt zich soms een monopolist te wanen, die krampachtig vast probeert te houden aan die positie. Dat siert ze niet, en ik denk ook dat het ze reputatie, klanten en/of omzet kost.

5) Kijkend naar het grotere plaatje, dan moet men zich afvragen of - met de krimpende markt voor discrete GPU's en de sterkere concurrentie van AMD - nVidia op de lange termijn wel kan blijven opereren als een zelfstandige onderneming. Ambities op andere markten resulteren in wisselende resultaten. Het Tegra platform blijft achter op de concurrentie - en het krijgt de x86 ambities maar niet van de grond. Het lijkt wel vrij aardig te gaan in de Tesla markt - maar ik vermoed toch dat dat een niche markt zal blijven. Ik vermoed binnen 3 jaar een bod, gesteund door Jen-Hsun himself :)
1) GT200(b) was anders ook niet echt om over naar huis te schrijven, was een zelfde verhaal qua die size t.o.v. ATI als nu. De GT200(b) heeft wel goed verkocht omdat ATI toen zijn comeback had en veel mensen de kat even uit de boom keken en dus toch voor een nVidia kaart zijn gegaan. De reputatie die de HD4xxx heeft opgebouwd heeft de HD5xxx serie veel goeds gedaan :)

2) Zoals je weet gaat een GPU ontwerp en ontwikkeling niet over één nacht ijs. nVidia heeft zijn zinnen vooral gezet op GPGPU en dat zullen Kepler en -"hoe heten de daaropvolgende GPU ook alweer ?"- laten zien. Terwijl ATI zijn zinnen vooral heeft gezet op een sweet spot strategie. Een zo goed mogelijk prijs(die)/prestatie/power leveren. Dit heeft ATI ergens in 2005/2006 besloten en is pas in 2008 pas uit de bus gekomen in de vorm van de HD4xxx. nVidia was hierdoor zwaar verrast en het was dan ook meteen de comeback van ATI. nVidia kan dus pas in 2011/2012 komen met een soortgelijke oplossing. Omdat ze toen pas hiervoor zouden kunnen gaan ontwerpen etc. Maar zoals ik al zei heeft nVidia zijn tanden in GPGPU gezet. Dus wat nVidia gaat brengen in de toekomst is onduidelijk maar het mag duidelijk zijn dat ze pas ergens begin 2012 eind 2013 een degelijk antwoord zullen kunnen geven op AMD. AMD zal met zijn sweet spot strategie de gamers markt zoveel mogelijk willen bereiken iets wat dus goed lukt momenteel. Terwijl nVidia met zijn GPGPU oplossing juist de developers, servers etc zal willen bereiken.

3) Behalve de fameuze die size is er ook nog de fameuze PCB die bij nVidia ook al veel duurder is. nVidia mag dan wel een grote klant zijn van TSMC waardoor ze dus bulk korting hebben maar vergeet niet dat AMD wellicht hier allang iets op heeft gevonden. Ze laten namelijk niet voor niks hun 40Nm Bobcat APUs bij TSMC produceren. Ook all chipsets worden bij TSMC gemaakt. AMD heeft dus ook wellicht een dealtje met TSMC. Daarbij komt ook nog eens dat TSMC niet moeilijk moet gaan doen want anders is AMD binnen no time weg. Ze hebben immers zelf fabrieken die ze hebben ondergebracht in een joint venture(GlobalFoundries, GF). Of de 28Nm GPUs van AMD nog bij TSMC gebakken zullen worden is nog maar de vraag. GF is momenteel op UMC en TSMC na de grootste Foundry. GF zal en kan dus met AMD ook mooie deals maken die waarschijnlijk beter uit pakken als wat TSMC nVidia nu te bieden heeft. Immers heeft AMD direct en indirect profijt als ze hun chips bij GF bakken. Want het is immers een joint venture/dochteronderneming. AMD zal op den duur wel alleen bij GF gaan afnemen mits de capaciteit dit toelaat, dus chipsets, APU, GPUs en CPUs allemaal bij GF dat kan niet anders dan dat dit leuke bulk korting oplevert. nVidia heeft dus nog maar een heel klein stukje touw om aan te trekken, bij wijzen van...

4) nVidia laat niet echt zijn slechten kant zien, niet bewust i.g.g. Ze willen gewoon kosten wat kost hun huidige positie verbeteren en of handhaven. Dat nemen wij ze wel eens kwalijk, want ze komen soms op de proppen met niet echt klant en of markt(vooral markt) vriendelijke dingen zoals:
TWIMTBP,
Closed Standars, CUDA/PhysX.
Rebranden,
Marketing en
Arrogantie

5) nVidia zal waarschijnlijk op een gegeven moment wel worden overgenomen maar door wie ? De kans dat AMD overgenomen wordt is bijna even groot. AMD heeft namelijk een gelijken marktwaarde. Daarbij zal het eerder worden toegelaten dat AMD wordt overgenomen vanwege Intel. Terwijl nVidia niet altijd zal mogen worden overgenomen vanwege AMD zijn positie. Zo zal Intel nVidia zeker niet mogen overnemen. Het kan dus ook net zo goed dat nVidia lekker doorgroeit in de GPGPU markt en wel eens een grote speler wordt immers is het een nieuwe en vrij open markt.

PS Je doet Charlie te kort door mijn betoog ook maar enigszins met de zijnen de vergelijken.
Go Charlie Go Charlie *O* Was trouwens wel een flauwe opmerking -O-

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Charlie fans moeten semiaccurate.com in de gaten houden voor een erg leuk artikel deze week.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Ik ben een charliefan, dus dan is het logisch gevolg dat ik ook semiaccurate in den gaten moet houden?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
MSPR van de GTX580 is gezet op $499, naar verwachting zal die prijs hard omlaag gaan na de introductie van Cayman.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
neliz schreef op maandag 01 november 2010 @ 00:34:
Charlie fans moeten semiaccurate.com in de gaten houden voor een erg leuk artikel deze week.
Aha, komt er een epic Nvidia bash aan of kunnen we wat interessant nieuw verwachten? In het laatste geval check ik het ook ff. ;)

anathema


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Anoniem: 357365 schreef op maandag 01 november 2010 @ 01:08:
Ik ben een charliefan, dus dan is het logisch gevolg dat ik ook semiaccurate in den gaten moet houden?
Ja. 8)7

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

madmaxnl schreef op maandag 01 november 2010 @ 00:21:
[...]
3) Behalve de fameuze die size is er ook nog de fameuze PCB die bij nVidia ook al veel duurder is. nVidia mag dan wel een grote klant zijn van TSMC waardoor ze dus bulk korting hebben maar vergeet niet dat AMD wellicht hier allang iets op heeft gevonden. Ze laten namelijk niet voor niks hun 40Nm Bobcat APUs bij TSMC produceren. Ook all chipsets worden bij TSMC gemaakt. AMD heeft dus ook wellicht een dealtje met TSMC. Daarbij komt ook nog eens dat TSMC niet moeilijk moet gaan doen want anders is AMD binnen no time weg. Ze hebben immers zelf fabrieken die ze hebben ondergebracht in een joint venture(GlobalFoundries, GF). Of de 28Nm GPUs van AMD nog bij TSMC gebakken zullen worden is nog maar de vraag. GF is momenteel op UMC en TSMC na de grootste Foundry. GF zal en kan dus met AMD ook mooie deals maken die waarschijnlijk beter uit pakken als wat TSMC nVidia nu te bieden heeft. Immers heeft AMD direct en indirect profijt als ze hun chips bij GF bakken. Want het is immers een joint venture/dochteronderneming. AMD zal op den duur wel alleen bij GF gaan afnemen mits de capaciteit dit toelaat, dus chipsets, APU, GPUs en CPUs allemaal bij GF dat kan niet anders dan dat dit leuke bulk korting oplevert. nVidia heeft dus nog maar een heel klein stukje touw om aan te trekken, bij wijzen van...
Wellicht blijft AMD in de toekomst ook gewoon (deels) bij TSMC om risico te spreiden?
4) nVidia laat niet echt zijn slechten kant zien, niet bewust i.g.g. Ze willen gewoon kosten wat kost hun huidige positie verbeteren en of handhaven. Dat nemen wij ze wel eens kwalijk, want ze komen soms op de proppen met niet echt klant en of markt(vooral markt) vriendelijke dingen zoals:
TWIMTBP,
Closed Standars, CUDA/PhysX.
Rebranden,
Marketing en
Arrogantie
Er zijn uiteraard heel veel factoren op basis waarvan een keus voor een kaart van 1 van beide merken gemaakt kan worden:
- In-game Prestaties
- Beeldkwaliteit
- Features
- Drivers (updates)
- Prijs
- Stroom verbruik
- Lawaai
- Hitte
- Videoencoding
- Duurzaamheid/garantie
- Kwaliteit Koeler
- enz

Maar ook de factoren die jij noemt. En juist om deze factoren (vooral: Closed Standards, AA praktijken Batman AA, PhysX praktijken) zal ik bij een min of meer gelijke propositie van beide merken altijd voor AMD kiezen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
anathema schreef op maandag 01 november 2010 @ 07:59:
[...]

Aha, komt er een epic Nvidia bash aan of kunnen we wat interessant nieuw verwachten? In het laatste geval check ik het ook ff. ;)
Ligt er ook aan wat je interessant vindt... bij Fermi waren zijn berichten een stuk nauwkeuriger dan de alternatieven en het kan toch echt niet zo moeilijk zijn om de rest gewoon van zo'n artikel gewoon te negeren.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Anoniem: 245699 schreef op zondag 31 oktober 2010 @ 13:54:
EDIT; In dit artikel op Tweaktown -> http://www.tweaktown.com/..._under_4_weeks/index.html
Staat wel iets over het schrappen van transistor's die voor gamen toch niet nodig zijn;

[...]
Weet je, ik geloof niet zoveel van die mythische "onnodige GPGPU transistoren". Ik vind vooral de analyse van Beyond3D op dat punt erg sterk:
GF100 is fully DirectX 11 compliant, and one of the consequences of that is that it's quite different from its DirectX 10 predecessors. Moreover, in its quest to preempt Intel's perennial paper tiger, Larrabee, NVIDIA's architects made a number of design choices that serve to further differentiate Fermi (and here we're talking about implementation details rather than feature set, since the feature set is quite tightly matched to what DirectX 11 mandates).

Whilst we won't espouse any nonsense about GF100 sacrificing graphics in favour of compute (and that is nonsense, one does not sacrifice its core market and prime income driver for a fledgling and still emerging one, sorry), we do think that Fermi would've looked a bit differently had NVIDIA not underestimated ATI's competitiveness (an easy error to make; at the time Fermi was being laid out ATI seemed quite incapable of competing), whilst at the same time realising LRB1 would maintain its semi-comatose state well beyond any reasonable expectation. Which is not to say that they'd not have eventually materialised, but it's probable that'd have happened at a later date.
Ik vraag me dan ook heel sterk af wat NVIDIA er eigenlijk uit zou kunnen slopen zonder de halve chip opnieuw te hoeven ontwerpen.

DP? Dat betekent de complete shader core opnieuw ontwerpen en opzetten, terwijl de hoeveelheid transistoren die aan DP gewijd zijn waarschijnlijk zelfs heel laag ligt. Daarnaast is het ook goed mogelijk dat de DP logica voor een deel hergebruikt wordt voor de Int berekeningen (zie ook Beyond3D Fermi Architecture Analysis)

ECC memory misschien, hoewel ik zwaar twijfel of daar uberhaupt speciale logica voor is, laat staan 300 miljoen transistoren. Is ECC niet iets dat gewoon door de ALUs zelf berekend wordt? Lijkt me toch niet dat NVIDIA op elk niveau in de chip gespecialiseerde hardware voor ECC checks heeft.

Wat hebben we nog meer? Cache? Lijkt me best handig voor je GFX performance. Fermi is op dat vlak zelfs achteruit gegaan tov G200 en heeft volgens mij ook minder cache dan Cypress, dus daar wil je echt niet in gaan snijden lijkt me.

Dus tenzij iemand anders nog suggesties heeft van wat er weg te halen valt lijkt me dat we het hele 300 miljoen GPGPU-transistors verhaal in de prullenbak kunnen gooien, toch?

Acties:
  • 0 Henk 'm!

Anoniem: 366114

Wow, die nieuwsdiscussie topics gaan snel hier :)

Geërgerd wat ik hier lees overigens, Charlie artikels ... You should know better. Sommigen reeds vergeten dat hij 100% de mist is ingegaan bij zijn GF104 artikel !? We weten allen hoe goed de GTX460 wel niet is voor gamers onder ons. GTX580 kan niet anders dan een mooi product worden, would be very unlogical van nvidia if otherwise, de ingenieurs zullen wel met de zweep overuren gemaakt hebben om een "GF100 hot, late" review herhaling uit te sluiten. Hij is niets meer dan een flame-stoker en hij kan mijn ****** kussen eerlijk gezegd :) Het enige waar Charlie op uit is, is negativiteit uitstralen richting nvidia en dat is gewoon zielig maar dat beseffen de meesten wel, zonde dat hij desondanks toch veel aandacht krijgt. Sorry voor deze offtopic post heren maar dit wou ik toch even zeggen.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Dat Charlie het niet zo op heeft met NV weten we inmiddels allemaal wel. Dat mag geen nieuws meer zijn. NV heeft wat dat betreft ook zo'n maatje in Fuad, dus de balans is er iig.
Wat 'we' zeker niet moeten vergeten is hoe accuraat zijn voorspelling voor de GF100 waren. Die voorspellingen gaven toch behoorlijk aan hoe betrouwbaar zijn bronnen zijn geweest. Wat dat betreft heb ik geen enkele reden om hem niet serieus te nemen. Kwestie van tussen de trolls door lezen.

Wat dat betreft mist jouw post enige onderbouwing. Met zwepen maak je imho nog steeds geen gpu's.

Acties:
  • 0 Henk 'm!

Anoniem: 366114

Ik vind dat wat Charlie doet verkeerd is want het zet 'Pc-gamers' op tegen elkaar ... je krijgt een soort infantiele Xbox versus PS3 bashing als je begrijpt wat ik wil zeggen en dat kan de PC-gaming community missen want onze echte PC-games zijn al schaars aan het worden.

Zijn voorspellingen ivm GF100 waren inderdaad accuraat maar geef toe, de manier waarop, komaan ...

Met zwepen maak je inderdaad geen GPU's maar de GTX580 kan niet anders dan een serieuze verbetering zijn tov GTX480, anders heeft nvidia toch wel mijn respect verloren.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 366114 schreef op maandag 01 november 2010 @ 15:03:maar de GTX580 kan niet anders dan een serieuze verbetering zijn tov GTX480, anders heeft nvidia toch wel mijn respect verloren.
De kans dat een GTX580 een serieuze verbetering is vrij klein.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 366114

If that's the case dan zakt het respect niveau voor nvidia toch wel wat lager. Ik hoop allesinds dat hun nieuwe kaart beter zal worden onthaald dan toen de 480 initieel uitkwam. Het zou tof zijn mocht hij ook kunnen opboksen tegen AMD's Caymans kaarten maar dat valt dus nog te bezien aangezien deze laatste zeer snel zullen zijn.

Acties:
  • 0 Henk 'm!

Anoniem: 366114

Hmm niet slecht maar als ik het zo snel even bekijkt lijkt me performance-wise de 580 naam toch niet echt gerechtvaardigd. Nu, tenzij deze kaart vele minder verbruikt en warm is tov 480 dan kan ik er nog wel inkomen dat ze het de 580 serie noemen maar based upon deze cijfers alleen vind ik 485 precies meer toepasselijk :)

Acties:
  • 0 Henk 'm!

  • Zeus
  • Registratie: Juni 2003
  • Laatst online: 17:00
Tussen de 10 en 20 procent sneller dan de GTX480 zal niet genoeg zijn om Cayman bij te houden. Toch benieuwd waar die Vantage score vandaan kwam!

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
Enig idee wat voor resolutie dat dit is (en settings)?
Ik zie bv die 1.58x 5870 performance van de GTX 480 bij Metro nergens terug:
http://www.techspot.com/r...md-radeon-6870/page8.html
http://www.anandtech.com/...in-the-midrange-market/11

Zou nogal droog zijn als de 5870 daar 3 fps had en de GTX 480 5 fps.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Paprika schreef op maandag 01 november 2010 @ 15:47:
Enig idee wat voor resolutie dat dit is (en settings)?
Nee

TDP zou trouwens 244 Watt zijn, niet dat het veel zegt als je kijkt naar de TDP van een GTX480 die op 250 Watt zit als je bedenkt dat de kaart tot zo'n 300 Watt kon verbruiken.

[ Voor 21% gewijzigd door -The_Mask- op 01-11-2010 15:57 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Een serieuze bron melde net dat de GTX580 ongeveer even snel is als een Cayman Pro.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 17-06 16:49
Als dat echt zo is heeft NV weer een zwaar jaar voor de boeg.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 366114 schreef op maandag 01 november 2010 @ 14:38:
... You should know better. Sommigen reeds vergeten dat hij 100% de mist is ingegaan bij zijn GF104 artikel !? We weten allen hoe goed de GTX460 wel niet is voor gamers onder ons...
Charlie heeft zelf ook duidelijk toegegeven dat voor de consument de GTX460 een prachtproduct is, omdat nVidia het in een prijssegment heeft gemieterd die gewoonweg onverwacht was, uitgaande van de omvang van de chip etc.
GTX580 kan niet anders dan een mooi product worden, would be very unlogical van nvidia if otherwise, de ingenieurs zullen wel met de zweep overuren gemaakt hebben om een "GF100 hot, late" review herhaling uit te sluiten.
Als consument kunnen we alleen maar hopen dat het wat moois wordt, iets waarmee ze op fatsoenlijke manier met AMD kunnen concurreren. Het zou goed zijn voor de balans van de markt en daarmee goed voor de keuzevrijheid en het kostplaatje van de consument.
Hij is niets meer dan een flame-stoker en hij kan mijn ****** kussen eerlijk gezegd :) Het enige waar Charlie op uit is, is negativiteit uitstralen richting nvidia en dat is gewoon zielig maar dat beseffen de meesten wel, zonde dat hij desondanks toch veel aandacht krijgt. Sorry voor deze offtopic post heren maar dit wou ik toch even zeggen.
Hij krijgt veel aandacht omdat hij ook veel wel goed heeft gehad, daarmee bouw je een zekere waardering en respect op. De manier waarop hij dingen brengt, zal de doorsnee liefhebber van nVidia zeker tegen de borst stuiten, maar het is echt niet onmogelijk om tussen de regels door de werkelijke informatie te filteren.

Wat dat aangaat is het te hopen dat hij ongelijk heeft met zijn GTX580 artikelen, maar als ik zo naar Neliz zijn post hierboven kijk, dan vrees ik dat GTX580 inderdaad wel eens een gerepareerde GF100 kan zijn. Wanneer deze op de markt te vinden is blijft dan nog een grote vraag. Logischerwijze zou ook nVidia liever kaarten op de markt hebben voor Black Friday, maar dat is kort dag. Gezien de ervaring van alle andere Fermi-derivaten, zou zijn voorspelling van 2011 helaas ook nog wel eens waar kunnen zijn. Ze zijn tot nog toe steevast te laat op de markt gekomen.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

neliz schreef op maandag 01 november 2010 @ 17:11:
Een serieuze bron melde net dat de GTX580 ongeveer even snel is als een Cayman Pro.
Als dat zo is dan is het voor deze generatie zwaai zwaai nV.

Ze moeten echt met iets beters komen...

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Had al zo'n vermoeden, al dacht ik dat mbt de XT :D
Gelukkig, ik vond de 580 GTX niet interessant genoeg en nu heeft ATI een mooie chip in de pipelijn. CF6970 here I come.

[ Voor 56% gewijzigd door edward2 op 01-11-2010 17:41 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Als ze de Cayman XT niet kunnen bij benen met hun snelste kaart wordt het wel een dramatisch verhaal eigenlijk. Misschien nog wel erger als de GTX480, want die was iig nog sneller dan de snelste single gpu kaart van ATI... Pfff, hoop toch echt dat het iets beter wordt, want zo kan AMD de prijzen van hun kaarten lekker hoog houden. Met wat meer concurrentie zou het fijn zijn als je over een half jaartje een Cayman XT voor ~30% minder kan kopen (voor mezelf interessant). Nu lijkt het een herhaling te worden als wat er met de HD5870 gebeurde, die werd zelfs duurder!

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
Eigenlijk werd de 5870 nooit duurder. Nederlandse winkels speelde in op de vraag en trokken de prijs zelf omhoog voor mega winsten ;).

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Paprika schreef op maandag 01 november 2010 @ 19:34:
Eigenlijk werd de 5870 nooit duurder. Nederlandse winkels speelde in op de vraag en trokken de prijs zelf omhoog voor mega winsten ;).
Weinig van terug te zien in de kwartaal cijfers van AMD...

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dat zegt hij toch?

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Paprika schreef op maandag 01 november 2010 @ 19:34:
Eigenlijk werd de 5870 nooit duurder. Nederlandse winkels speelde in op de vraag en trokken de prijs zelf omhoog voor mega winsten ;).
Dan werd ie toch duurder voor mij als ik 'm wilde kopen? Kon 'm immers niet rechtstreeks bij AMD bestellen... ;)

[ Voor 11% gewijzigd door Anoniem: 245699 op 01-11-2010 20:11 ]


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Plaatje hierin was al gepost maar tekst nog niet dacht ik:
http://vr-zone.com/articl...chmarks-leaked/10202.html

Toch 128 TMU's? De performance in dat plaatje suggereert nou niet dat dat heel veel scheelt...

anathema


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Paprika schreef op maandag 01 november 2010 @ 19:34:
Eigenlijk werd de 5870 nooit duurder. Nederlandse winkels speelde in op de vraag en trokken de prijs zelf omhoog voor mega winsten ;).
De 5850 werd wel duurder, daar heeft AMD gewoon de prijzen 20 dollar omhoog gegooid, gewoon omdat ze er mee weg konden komen omdat de componenten duurder werden "door de grote vraag naar de kaarten" :+

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Snoitkever schreef op dinsdag 02 november 2010 @ 12:31:
[...]

De 5850 werd wel duurder, daar heeft AMD gewoon de prijzen 20 dollar omhoog gegooid, gewoon omdat ze er mee weg konden komen omdat de componenten duurder werden "door de grote vraag naar de kaarten" :+
wat dacht je van de verzendkosten?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Volgens mij heeft AMD zelfs tot 2x toe de prijzen verhoogd van de HD58xx.

Edit; 1 keer met een tientje ofzo, en later nog eens met 20. Of andersom.

[ Voor 34% gewijzigd door Format-C op 02-11-2010 14:59 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Lijkt me wel weer genoeg AMD zo. :)

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
@hierboven in der daad, we vergeten bijna het Nvidia nieuws, dit is al twee dagen oud :
http://www.fudzilla.com/g...-nvidias-gtx-580-detailed
According to a new leak, Nvidia's GF110 based GTX 580 should launch next Tuesday, November 9th. Although the specs have been rumoured for quite some time, we can now be pretty sure that the card will end up with 512 SPs, 128 TMUs and should work at clocks that are significantly higher than on the GF100-based GTX 480.

The card should end up clocked at 772MHz for the GPU, 1544MHz for Shaders and 4.0Gbps for 1536MB of GDDR5 memory paired up with a 384-bit interface. Another interesting piece of information is the actual TDP of the new card. Although it has more CUDA Cores and a higher GPU clock, the card has a slightly lower TDP of 244W. We still don't know if Nvidia is still talking about typical load power, as the GTX 480 or GF100 had 250W TDP, which was actualy a bit closer to 300W under full load.

In addition to these specs, Chinese site PCOnline leaked, what appears to be, a Nvidia performance summary slide that puts the upcoming GTX 580 against GTX 480 and AMD's Radeon HD 5870 card. Of course, these slide should be taken with a grain of salt as these are still to be confirmed. In any case, the situation should be quite clear once Nvidia officially launches this card on November 9th.
http://www.fudzilla.com/g...h-on-9th-nov-sampling-now
We got a few confirmations of recently leaked specs and facts about Geforce GTX 580 posted here.

The new card is sampling to journalists right now. It should launch on Tuesday 9th but it's unclear at what time. It looks like it will be the morning hours of Tuesday, November 9th.

A few important facts are that the card works at 772MHz core, has 512 shaders and 2200MHz memory. It should also be somewhat quieter than the previous GTX 480.

Our sources are also claiming that the mini shader cores got slightly improved and that the card works and performance just as it was intended for original Fermi GF100, Geforce GTX 480 card.

You can look at this card as Fermi done right and we can also confirm that the card is scheduled to launch before AMD's Cayman-based Radeon HD 6950 and HD 6970 parts.

The fun in the graphics world is just about to start, as there are still a few more interesting cards to launch until the end of 2010.
http://www.fudzilla.com/g...x-580-has-a-better-cooler
Nvidia's new Geforce GTX 580 is going to be cooler and a bit quieter than the Geforce GTX 480, a.k.a. original Fermi. From what we have managed to find out, the new card has similar TDP to Geforce GTX 480, but its cooler is redesigned and works more efficiently than the previous one.

Don’t get carried away, as the card will be hot, with a TDP of slightly under 250W. It has to be hot, but at least it will be heavy and fancy looking.

Naturally someone will develop a water block for this card as it simply makes sense to water cool it, as you can gain some more performance when overclocking this already hot card. Of course, the water cooler will come at a hefty price, as it always costs significantly more due to the small numbers of coolers that people buy for €500 cards.

Many people don’t go along with Geforce GTX 580 name as the card should end up with Geforce GTX 490 or similar, but as you know Nvidia ups the numbers every year, sometimes even by simply renaming products. Geforce 200 became Geforce 300 without any significant change, but the Geforce 400 series have deserved its name.

Geforce 500 cards are a tweak, a real kicker so you will be able to tell the difference, especially with GTX 560 parts that should bring a lot of performance in sub $ (€)200 market.

As for the rumous that this is a paper launch, we can definitely tell you that people have cards as we speak, the big names are testing them now and they should get available on the November 9th, after the official launch.
Dus:
GPU: 772Mhz, 512SP's, 128TMU's
Mem: 2200Mhz, 1,5GB, 384-bit
TDP: 244 watt
Stillere koeler :)

Ow en de GTX560 komt dus in de 200euro sweet spot :D

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Toettoetdaan schreef op dinsdag 02 november 2010 @ 15:44:
Ow en de GTX560 komt dus in de 200euro sweet spot :D
Dat komt niet als een verassing aangezien de GTX460 dat ook is/was...

Als ik de specs en de gelekte info over de snelheid zo moet plaatsen en de kaart werkelijk gemiddeld 20% sneller is dan de GTX480 lijkt het me toch wat weinig om AMD van voldoende weerstand te voorzien. Mede omdat ik denk dat de HD6970 wel meer dan 30-40% sneller gaat zijn als z'n voorganger (HD5870), zou deze de GTX580 toch echt voorbij streven.
Een pluspuntje is dat de GTX580 iig wat zuiniger gaat worden dan de 480 (als die 244watt beter klopt dan de vorige 250 (->300) watt van de 480) en de HD6970 minder zuinig dan de 5870, dus daar komt het wellicht iets dichter bij elkaar te liggen, maar genoeg zal het niet zijn vrees ik.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

En, zal Tweakers al druk aan het benchmarken zijn voor de review bij de release? Het is toch weer een nieuwe serie! :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
anathema schreef op vrijdag 29 oktober 2010 @ 16:18:
[...]

Volgens mij is daar juist nogal wat onduidelijkheid over. Ik heb mensen zien suggereren dat Nvidia nu alsnog de chip met 120 TMU's uitbrengen die ze in eerste instantie hadden willen maken (GF110). De laatste posts suggereren weer meer enkel een shader cluster unlock en hogere clocks (GF100b). En er zijn idd nog minder waarschijnlijk opties met 512 bits bus. Maar wat het nou wordt.., of heb ik een zeer betrouwbare bron met de te verwachten specs gemist?
Om hier even op terug te komen, het is nu toch wel duidelijk. :p

Wat nou als een GTX580 een GF100b is met 128TMU's? :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
-The_Mask- schreef op dinsdag 02 november 2010 @ 16:23:
[...]

Om hier even op terug te komen, het is nu toch wel duidelijk. :p

Wat nou als een GTX580 een GF100b is met 128TMU's? :)
Nu lijkt dat een stuk duidelijker dan toen idd ;) Het is in ieder geval niet zo dat ze door betere yields simpel volledig werkende GF100 cores gaan verkopen als GTX580. Maar of die extra TMU's een generatie-verandering wel verantwoorden valt te betwijfelen...

anathema


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
Na de 9-serie mag alles wel een nieuwe serie worden... :p

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Dat is meer een psychologisch effect bij de consument, ergens zet een 'nieuwe' serie sneller aan tot aanschaffen dan een 'nieuwe' kaart in een oude serie. Maargoed er is altijd wel iets waar mensen zich aan storen, met de 8800gt was het niet goed omdat hij de 8800gts versloeg, de 8800gts 512 was ook weer niet goed omdat deze stukken sneller dan de g80 gts was, en kort bij de 8800gtx in de buurt kwam (op lage reso's zelfs versloeg). Toen men bij nvidia een beetje wakker werd gingen ze overdrijven en werd het meteen de geforce 9 serie (waarom geen 8850gt gts en gtx?). Alom verwarring :P

Bij ati was de overgang van hd2 naar hd3 serie ook niet zo wereldschokkend, er was niet bizar veel verschil in performance, de chip is veelal sterk in transistors bekort wegens dat dx10 verhaal waarbij nvidia een grote rol speelde en die 512bits ringbus die voor die tijd overbemeten was.

Nvidia is er nog altijd heer en meester in, ze lopen constant wat te klungelen met die namen, voor een groot deel de geforce 9 serie, kaarten uit de 200 serie, de hele 300(M) serie, en nu beginnen ze na een cleane 400 serie wat rebadging betreft direct lekker vers met rebadgen bij de gtx580 :+

Al denk ik dat het niet echt een ramp is als die kaart goede prestaties gaat leveren

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
anathema schreef op dinsdag 02 november 2010 @ 17:26:
Het is in ieder geval niet zo dat ze door betere yields simpel volledig werkende GF100 cores gaan verkopen als GTX580.
Lees mijn post nog eens. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Gedaan, tot vijf keer toe. Of bedoel je dat er 64 disabled TMU's zaten op GF100 die nu tot leven zijn gewekt met GF100b?

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Idd, geruchten gingen altijd al uit van 128 TMU's voor de GTX380 toentertijd.

[ Voor 78% gewijzigd door -The_Mask- op 02-11-2010 19:35 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Op die manier, maar wat noem je dan nog een re-spin van dezelfde chip (GF100b) of een nieuwe chip GF110?
Ik dacht dat meestal gedisable-de delen van chips wel bekend waren via architectuur beschouwingen etc.
Straks blijken er ooit bij GF100c ook nog eens 256 verborgen shaders en 24 ROPS's te voorschijn te komen ;) Kom maar op met die re-spins dan! ;)

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zijn zoveel redenen te bedenken. Misschien omdat GF110 nieuwer klinkt waardoor GTX580 ook beter te rechtvaardigen is. :p Of misschien omdat nVidia niet wil dat iedereen weet dat de helft van de TMU's bij de huidige GF100 kaarten uit staat.

Het lijkt mij sowieso sterk dat ze zo maar een nieuwe GPU maken met als enige verschil dubbel zoveel TMU's dat lijkt mij een beetje weinig. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Met een verdubbeleing van het aantal TMU's (mits op dezelfde kloksnelheid, (waren deze nu gekoppeld aan de shaderklok?) en perf./TMU) zou je toch wel een grotere vooruitgang in perf. verwachten dan 20%?
Iig in situaties met ultra res. en AA en zeker met de heilige graal (SG)SSAA
Tenzij fillrate met de huidige games icm met de architectuur van Fermi) vrijwel geen botleneck meer is maar shaderload/geometrie wel.

[ Voor 4% gewijzigd door edward2 op 02-11-2010 20:02 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Misschien is de bottleneck idd niet heel groot, maar misschien is de prestatie ook wel wat groter, maar het zal sowieso wel game afhankelijk zijn. Overigens nog 10% extra en je zit al weer rond het niveau van de HD5970 waar Fermi eigenlijk ook tegenover hoorde te staan.

[ Voor 12% gewijzigd door -The_Mask- op 02-11-2010 19:59 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
-The_Mask- schreef op dinsdag 02 november 2010 @ 19:53:

Het lijkt mij sowieso sterk dat ze zo maar een nieuwe GPU maken met als enige verschil dubbel zoveel TMU's dat lijkt mij een beetje weinig. :p
Daar heb je idd een punt, in dat geval zijn die dan goed verborgen gebleven.
Ben wel benieuwd naar de reviews, bij voorgaande generaties waren er meer dan genoeg TMU's want een shader overclock hielp veel meer voor extra performance dan een core (TMU's, ROPs etc.) overclock.

Ik dacht dat dit bij de GTX480 wel es meer beperkend kon zijn. (wat dat gelekte plaatje dus niet echt laat zien, maar misscihen klopt die niet..).

anathema


Acties:
  • 0 Henk 'm!

  • faust2016
  • Registratie: April 2009
  • Laatst online: 20-06 02:41

faust2016

You yes have my shirt

Alleen bij deze serie (GTX 4xx) is de core clock toch niet meer onafhankelijk van de shader clock te veranderen? Is toch altijd 1:2 :p?
Dus dat de core het zwaarder heeft dan de shaders is helaas niet te controleren..

[ Voor 5% gewijzigd door faust2016 op 02-11-2010 21:55 ]


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Klopt, dat is jammer idd. Anders had ik dat wel es getest.

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toettoetdaan schreef op dinsdag 02 november 2010 @ 15:44:
Dus:
GPU: 772Mhz, 512SP's, 128TMU's
Mem: 2200Mhz, 1,5GB, 384-bit
TDP: 244 watt
Stillere koeler :)

Ow en de GTX560 komt dus in de 200euro sweet spot :D
Dus uitgebreid ;)

Afbeeldingslocatie: http://tweakers.net/ext/f/8w1paNQ8luglUEqJa5kZK6Gi/full.png

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Waarom zou de GTX570 een GTX480 rebrand zijn? Ik neem aan dat ze de chip in die vorm niet meer gaan maken, dus het lijkt me onlogisch dat er een kaart komt met exact dezelfde specs als de GTX480. Zou ik eerder denken dat er een kaart komt met 96 TMU's bijvoorbeeld of andere clocks.

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Als het klopt, waarom hadden ze dan de helft van de TMU's uit staan? Waren dezen misschien zo gevoelig voor fouten? Dan is er misschien nog steeds een probleem. Maar sowieso 96 TMU's lijkt mij niet te kunnen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Het punt is dat er (bij mij) nu niet echt meer een beeld is van de architectuur. Ik dacht dat 1 shadercluster van 32 4 TMU's bevatte. Zijn dat er dan eigenlijk 8 waarvan 4 disabled in GF100 en zou een 480 shader part van GF100b dan dus 112 TMU's bevatten. Of moet je de TMU's los zien van de shaderclusters? Ik denk dat behalve Nvidia niemand dat weet..

anathema


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
anathema schreef op woensdag 03 november 2010 @ 10:19:
Het punt is dat er (bij mij) nu niet echt meer een beeld is van de architectuur. Ik dacht dat 1 shadercluster van 32 4 TMU's bevatte. Zijn dat er dan eigenlijk 8 waarvan 4 disabled in GF100 en zou een 480 shader part van GF100b dan dus 112 TMU's bevatten. Of moet je de TMU's los zien van de shaderclusters? Ik denk dat behalve Nvidia niemand dat weet..
Ik denk dat je ze los moet zien, bij gpu's zit alles behoorlijk modulair in elkaar.
Wat natuurlijk wel vreemd was bij de GX480 is dat hij minder TMU's had dan zijn GF200 voorganger, wat natuurlijk vreemd is gezien de enorme vergroting van de GPU.

EDIT:
http://fudzilla.com/graph...al-5x0-card-comes-in-2010
Nvidia's dual 5x0 card comes in 2010
We got a fresh update on what happens after GTX 580 eventually launches. There should be a faster card, coming most likely in December 2010.

The new card is based on two GF100-derived cores, probably similar to the GF104, so we can only imagine the TDP of that card. Our educated guess for this time is at least 400W card, something that will get very hot indeed. It would appear that we are almost at the verge of a new era, where water cooling will be a must.

AMD also plans Antilles, Radeon HD 6970 dual Cayman card, and this one also looks to be quite a hot one. A GF100GX2 was on the roadmap for quite some time, but Nvidia never decided to release the card. We guess that chose to drop it because of its enormous TDP, courtesy of two GF100 chips.

So the launch is this year, which usually means December, but we know that super high end enthusiasts will wait to see who wins this round Radeon HD 6970 or Geforce GTX 5x0 GX2, before they make the buying decision.

[ Voor 43% gewijzigd door Toettoetdaan op 03-11-2010 10:49 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Toettoetdaan schreef op woensdag 03 november 2010 @ 10:33:
[...]

Ik denk dat je ze los moet zien, bij gpu's zit alles behoorlijk modulair in elkaar.
Wat natuurlijk wel vreemd was bij de GX480 is dat hij minder TMU's had dan zijn GF200 voorganger, wat natuurlijk vreemd is gezien de enorme vergroting van de GPU.

EDIT:
http://fudzilla.com/graph...al-5x0-card-comes-in-2010
Nvidia's dual 5x0 card comes in 2010

[...]
400 Watt |:( Wordt geleverd met 3 jaar LN2 en een LN2 pot ofzo? :o

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 17-06 16:49
een GTX480 gebruikt zo'n bijna 300 watt, hoe zou een dual versie daarvan "maar" 400 watt gaan verbruiken?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
Eigenlijk is het niet zo simpel, maar het kan wel. Als deze TDP hetzelfde inhoud als bij de GTX 480:
De GTX 580 werkt gemiddeld op 240 W bij load (games), piekt af en toe naar 275 W en bij bv Furmark zit je op de +/- 325W.

Ik weet niet precies hoe die verdelingen zijn, maar laten we zeggen dat de GPU 150 Watt verbruikt en de overige 100 Watt door de rest van de kaart. Dan zou je dus 1 PCB kunnen maken die ongeveer 100 Watt verbuikt met 2 GPUs die ieder 150 Watt verbruiken. Echter tijdens Furmark zit je dan wel op een verbruik van over de 500 watt.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Paprika schreef op woensdag 03 november 2010 @ 13:27:
Eigenlijk is het niet zo simpel, maar het kan wel. Als deze TDP hetzelfde inhoud als bij de GTX 480:
De GTX 580 werkt gemiddeld op 240 W bij load (games), piekt af en toe naar 275 W en bij bv Furmark zit je op de +/- 325W.

Ik weet niet precies hoe die verdelingen zijn, maar laten we zeggen dat de GPU 150 Watt verbruikt en de overige 100 Watt door de rest van de kaart. Dan zou je dus 1 PCB kunnen maken die ongeveer 100 Watt verbuikt met 2 GPUs die ieder 150 Watt verbruiken. Echter tijdens Furmark zit je dan wel op een verbruik van over de 500 watt.
Laten we er sowieso vanuit gaan dat het een GTX560X2 word, dan is het nog mogelijk binnen het stroomverbruik.

Die verdeling zou je eens moeten natrekken, probeer het eens met de HD4870(160watt) en de HD4870X2(270watt)...

Acties:
  • 0 Henk 'm!

Anoniem: 245699

anathema schreef op woensdag 03 november 2010 @ 09:53:
Waarom zou de GTX570 een GTX480 rebrand zijn? Ik neem aan dat ze de chip in die vorm niet meer gaan maken, dus het lijkt me onlogisch dat er een kaart komt met exact dezelfde specs als de GTX480. Zou ik eerder denken dat er een kaart komt met 96 TMU's bijvoorbeeld of andere clocks.
Lijkt me idd zeer onwaarschijnlijk dat ze de huidige GTX480 chip gaan gebruiken voor de GTX570... Dan zou het stroomverbruik van de 570 ook hoger uitvallen als die van de 580, lijkt me nogal vreemd.
Ik denk eerder dat ze de 'geoptimaliseerde' 580 chip gebruiken en hier wat vanaf halen, dan zou je kunnen komen op bijv. 480 shaders/120 TMU's, maar dan een clock van ~675Mhz. En wellicht gewoon nog de 320 bit memory bus gebruiken (van de 470) met een hogere clock van de memory.

Wel een interessante discussie over dat de oude GF100 ook al gewoon 128TMU's had, want dat zou betekenen dat in reviews van de GTX470/480 toendertijd dit soort plaatjes niet kloppen;
Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-6.jpg

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 20-06 16:12
4799 yuan is 510 euro of 720 dollar :o

[ Voor 39% gewijzigd door Stefanovic45 op 03-11-2010 17:03 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:41
Een GTX 470 kost 2199 yuan -> 235 euro. Kost hier rond de 220 euro. Dus dan zal je uitkomen op ongeveer 480 euro. Zelfde als de GTX 480 bij launch.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

Als dat waar is kennen we in ieder geval al de bovengrens van de GTX580. Hij is schijnbaar iig trager dan GTX460SLi. :P

Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
It would appear that we are almost at the verge of a new era, where water cooling will be a must.
Daar moet je toch eigenlijk niet aan denken? Ok, in dit geval zou het gaan gelden voor een top of the line kaart maar dan nog.

Videokaarten gaan niet alleen absoluut maar ook relatief absurd veel energie verbruiken. Alle andere elektronica wordt zo'n beetje zuiniger en videokaarten verbruiken nog net geen stofzuiger-hoeveelheden :')

Specs


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Nu online

epo

Naluh! schreef op woensdag 03 november 2010 @ 17:31:
[...]

Daar moet je toch eigenlijk niet aan denken? Ok, in dit geval zou het gaan gelden voor een top of the line kaart maar dan nog.

Videokaarten gaan niet alleen absoluut maar ook relatief absurd veel energie verbruiken. Alle andere elektronica wordt zo'n beetje zuiniger en videokaarten verbruiken nog net geen stofzuiger-hoeveelheden :')
Ja en dat heeft een reden, als de nieuwe series op 22mm gebakken zou worden, zouden die juist
energie efficiënter worden. Dat was ook de planning bij nVidia en ATI, helaas ging dat dus niet
goed vanwege TMSC en moesten ze de nieuwe gen wederom op 40mm bakken. En ook dat heeft
in beide kampen eigenljik niet voor meer verbruik geleverd, alleen de 69xx serie schijnt dat wel te gaan
doen, echter met een flinke performance boost.
En je quote iets wat betrekking heeft op een dual kaart, iets waar nVidia gewoon een performance kroon
mee wil winnen. Dus wat je zegt klopt niet, en kunnen die flauwe grappen van setjes met LN2 achterwege gelaten worden. Ik zie echt niet in wat daar grappig aan is.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 18-06 13:05
Edmin schreef op woensdag 03 november 2010 @ 17:00:
[...]

Als dat waar is kennen we in ieder geval al de bovengrens van de GTX580. Hij is schijnbaar iig trager dan GTX460SLi. :P
Dat zou me wel erg verbazen aangezien de de GTX460 SLI 10-20% sneller is dan de GTX480 en dat zal de GTX580 toch zeker ook wel zijn. Wellicht een full 384 shader dual GF104? Dat zou wel stukje sneller zijn weer. (waarschijnlijk weer teniet gedaan door micro-stuttering en nieuwe games met niet werkende profielen, maar dat terzijde)

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het lijkt mij niet dat nVidia een dual GF104 gaat uitbrengen, die gaat namelijk zoals gezegd niet/amper sneller zijn dan een GTX580.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
-The_Mask- schreef op woensdag 03 november 2010 @ 18:20:
Het lijkt mij niet dat nVidia een dual GF104 gaat uitbrengen, die gaat namelijk zoals gezegd niet/amper sneller zijn dan een GTX580.
Een volledig geünlockte GF104 wel, toch ?

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
madmaxnl schreef op woensdag 03 november 2010 @ 18:41:
Een volledig geünlockte GF104 wel, toch ?
Als ze konden, hadden ze dat al lang gedaan. Lijkt me een betere concurrent voor 5850/6850/6870 dan een GTX470 met verlies verkopen. Maar dingen als lage yields, concurrentie voor eigen GTX470 en te hoog verbruik voor dat marktsegment flitsen door mijn gedachten. :) Net zoals ze ook geen fully functional GTX480 hebben uitgebracht.
epo schreef op woensdag 03 november 2010 @ 17:49:
Ja en dat heeft een reden, als de nieuwe series op 22mm gebakken zou worden, zouden die juist
energie efficiënter worden.
Die shrinks zijn niet zaligmakend. Bij Fermi ging men er ook van uit dat het verbruik wel mee ging vallen op het nieuwe 40nm. En Intel zat ook te knoeien toen ze van Northwood naar Prescott gingen. Verder is het alleen nVidia dat last heeft van hoog verbruik op 40nm. Van de 69xx weet niemand wat ie exact verbruikt. Iets als <=300W op een slide kan vanalles betekenen. Van 200W met OC ruimte tot 300W. Als er <=225W bij de 6950 staat, zal het voor de grote broer zeker geen 300W zijn.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op woensdag 03 november 2010 @ 18:41:
[...]


Een volledig geünlockte GF104 wel, toch ?
Twee volledig unlockte GF104's zullen echt amper sneller zijn dan een GTX580 als ze ook binnen de 300 Watt moeten blijven.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Die 'Dual-Fermi' kaart zitten we ondertussen al meer dan een jaar op te wachten. Hij zou in eerste instantie tegelijkertijd komen met de single GF100 kaarten. Alles geheel volgens de betrouwbare bronnen van Fuad, ruim een jaar terug.

Vooralsnog zal nVidia eerst maar moeten laten zien dat GTX580 beduidend minder dorstig is dan de GTX480. Tot die tijd zie ik weinig realiteit in een dual-Fermi kaart, tenzij PCI-E compliancy de deur uit wordt gegooid.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 20-06 21:01

Edmin

Crew Council

get on my horse!

-The_Mask- schreef op woensdag 03 november 2010 @ 19:03:
[...]

Twee volledig unlockte GF104's zullen echt amper sneller zijn dan een GTX580 als ze ook binnen de 300 Watt moeten blijven.
Dat is het nou net. Volgens Fud loopt het tdp wel een stukje verder op dan dat.

Als we gewoon voor de lol eens aan zouden nemen dat dit artikel de waarheid behoorlijk benadert, dan zou dit inderdaad een volledig unlockte GF104 duo moeten zijn en ook nog eens overklokt. Ik heb daar een hard hoofd in, maar goed...

Acties:
  • 0 Henk 'm!

  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 27-02-2024
Dat zou toch totaal niet competitief zijn zo'n hoge prijs voor iets dat vermoedelijk maar 20% sneller is dan de GTX 480 :? ? Zeker moest de concurrentie een sneller, goedkoper, zuiniger én stiller alternatief hebben (HD6970 ?).

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Het zijn natuurlijk nog veelal speculaties maar als het allemaal mocht kloppen heeft ati nog minder weerstand te vrezen deze "ronde"

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Met als gevolg dat ze kunnen vragen wat ze willen voor de HD69xx. En ik denk dat ze dat ook wel zullen doen.

[ Voor 24% gewijzigd door Format-C op 04-11-2010 07:07 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
epo schreef op woensdag 03 november 2010 @ 17:49:
[...]


Ja en dat heeft een reden, als de nieuwe series op 22mm gebakken zou worden, zouden die juist
energie efficiënter worden. Dat was ook de planning bij nVidia en ATI, helaas ging dat dus niet
goed vanwege TMSC en moesten ze de nieuwe gen wederom op 40mm bakken. En ook dat heeft
in beide kampen eigenljik niet voor meer verbruik geleverd, alleen de 69xx serie schijnt dat wel te gaan
doen, echter met een flinke performance boost.
En je quote iets wat betrekking heeft op een dual kaart, iets waar nVidia gewoon een performance kroon
mee wil winnen. Dus wat je zegt klopt niet, en kunnen die flauwe grappen van setjes met LN2 achterwege gelaten worden. Ik zie echt niet in wat daar grappig aan is.
Energie-efficiency is een enorm probleem bij GPUs en gaat alleen nog maar groter worden. Er zijn drie problemen die er samen voor zorgen dat verbruik in de toekomst echt niet omlaag gaat:

1 - Hoge performance kost veel energie. Dit werkt vaak ook niet lineair, 10% extra performance kost 25% meer stroom.
2 - Verbruik is de zwakste schakel bij nieuwe procedee's. Stroomverbruik schaalt lang niet altijd netjes lineair mee met de verkleining van transistoren. Dit zorgt er voor dat er veel meer werk bij komt kijken, als het al mogelijk is, om een twee keer zuiniger chip te maken dan om een twee keer kleinere chip.
3 - De consument wil eigenlijk maar 1 ding, namelijk performance. Ja, iedereen roept wel heel hard dat ze het stroomverbruik van nieuwe GPUs zo idioot vinden, maar op het moment dat AMD of NVIDIA achter loopt op de ander qua performance hoor je niemand meer over verbruik. Als iedereen verbruik zo belangrijk zou vinden zou iedereen gewoon een low-end GPU kopen, want die zijn veel efficienter en zuiniger dan de high-end chips.

Waar dit voor gaat zorgen, met name punt 2, is dat we binnen een aantal jaar tegen een flinke muur aan gaan lopen, waar de gebruikelijke performance verhogingen van de afgelopen jaren gewoon niet meer mogelijk zijn omdat energieverbruik niet meeschaalt en 300 Watt de max is die een GPU mag gebruiken.

De bewering dat de nieuwe GPUs op 28nm efficienter zouden worden is dan ook technisch gezien wel waar, perf/watt zou beter zijn, maar de high-end kaarten zouden nog steeds gewoon 200-300 Watt verbruiken, vanwege een combinatie van punt 1 en 3. Consumenten willen veel performance, en performance kost energie. De GPU fabriekanten willen de winnaar in de performancerace zijn en zullen daarom verbruik opofferen. We hebben al jaren steeds kleinere en efficientere procedees gehad, maar verbruik van high-end kaarten blijft niet alleen hoog, het wordt zelf steeds iets hoger (bewijs van punt 2). Reken er maar niet op dat GPUs de eerste paar jaar ook maar iets zuiniger worden.
Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.