Zwaar weer voor NVIDIA, GT200 doodverklaard?

Pagina: 1
Acties:
  • 975 views

  • goakiller900
  • Registratie: Maart 2009
  • Laatst online: 16-07-2025
Gepubliceerd door Jeroen Moolenaar op woensdag 7 oktober 2009 06:50 Op Techzine.nl

Ik kwam dit even tegen op techzine.nl kon jammer genoeg de schrijver niet contacteren om het hier te mogen posten mag dit toch niet verwijder deze post dan svp


Uit de diepste kelders van 2701 San Tomas Expressway, één van de hoofdkantoren van NVIDIA, borrelen de geruchten naar boven dat er een eind lijkt te komen aan de GPU-markt zoals we die nu kennen. Het einde van de lange strijd tussen de twee grootmachten, NVIDIA en AMD-ATI, lijkt nabij.

Op het moment van schrijven zijn de geruchten bevestigd dat de productie van de GT200 geheel zal worden gestaakt. De GTX285 wordt vanaf nu al niet meer geproduceerd, de GTX260 zal binnen twee maanden niet meer gemaakt worden en de GTX275 al binnen twee weken. De reden van het EOL (End Of Life) verklaren van de GT200-serie heeft maar één belangrijke reden: NVIDIA kan niet meer concurreren met AMD-ATI en de Evergreen-serie ofwel de HD5xxx. Alle OEM-fabrikanten zijn hier gisteren op 6 oktober van verwittigd. Kortom, NVIDIA heeft geen product meer om te concurreren in zowel de highend en mid-end sectie op de markt.

Hoe heeft het zover kunnen komen? Productiefout op productiefout met onder andere het GT212- en GT214-fiasco, slechte keuzes van het management en problemen met de productie van de nieuwe GT300 hebben er voor gezorgd dat het bedrijf financieel aan de grond zit. Managers leveren (volgens NVIDIA traditie) op het moment al hun salaris in tot 1$ per maand. Mismanagement is hier het juiste woord. En zoals vaak bij problemen met het management kan dat maar één ding betekenen: het opstappen van dat zelfde management. Dat dat gaat gebeuren lijkt zeer onwaarschijnlijk; Laat het nu net zo zijn dat 'het management' het zelfde groepje mensen is dat grootaandeelhouder is van NVIDIA.

Zoals het er nu naar uitziet zal er het komende half jaar simpelweg geen concurrentie zijn met het almaar groeiende ATI. Of de GT300, 'Fermi' genaamd, de positie van NVIDIA kan redden is nog maar de vraag. Met een 'die-size' grofweg twee keer zo groot als die van de concurrent 'de evergreen' kunnen de nieuwe kaarten van NVIDIA qua prestaties misschien wel matchen of overtreffen, maar met de moeite die er gepaard gaat met het produceren van de 40nm chip zal die ruim twee keer zo duur zijn en dus netto veel minder in het laatje brengen. Het nu gaande GT200-probleem ligt dus in het verschiet.

Ik begon dit bericht met 'Het einde van de lange strijd tussen de twee grootmachten lijkt voorbij'. En dat heb ik niet zomaar gedaan: Zoals zo vaak de laatste tijd blijven er geruchten opduiken over NVIDIA die door datzelfde 'groene kamp' in andere berichten weer tegen gesproken worden. Zie daarvoor het bericht 'Lancering GT300 dichterbij dan gedacht'. NVIDIA doet in elk geval erg haar best om te laten geloven dat de chip bestaat en binnen afzienbare tijd op de markt zal verschijnen. Wij beginnen sterk te neigen naar 'waar rook is is vuur'. Aan NVIDIA de taak om om te laten zien dat er geen vuur is. We kunnen het er in ieder geval over eens zijn dat de situatie van NVIDIA slecht is voor de concurrentiestrijd en de daarbij behorende marktwerking, prijzen en innovatiedrang.

  • gambieter
  • Registratie: Oktober 2006
  • Niet online

gambieter

Just me & my cat

Is dit niet meer wat voor een Frontpage Nieuws submit? Je zit nu in Wetenschap & Levensbeschouwing, terwijl je tekst helemaal niets met deze onderwerpen te maken heeft (meer Videokaarten & Beeldschermen) :) .

Confusion :w

[ Voor 3% gewijzigd door gambieter op 07-10-2009 16:27 ]

I had a decent lunch, and I'm feeling quite amiable. That's why you're still alive.


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Dit lijkt me meer geschikt voor VB, dus -> VB

Wie trösten wir uns, die Mörder aller Mörder?


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Hier, om precies te zijn :)

En ja, NVidia geeft zelf geen redenen om nìet aan te geven dat het klopt. Hun geshowde "fermi" is nep, producenten geven aan dat er een tekort is aan GT200 chips en de prijzen gingen niet omlaag na de komst van de HD5000-serie. Hiermee zeg ik niet dat dit een feit is maar dat het in ieder geval aannemelijk is, en NVidia in de shit zit ;).

Het probleem zit hem in de te hoge kosten van het de GT200 en GT300. Dit is misschien op te lossen met een nieuwer design maar dat zou betekenen dat NVidia jaren uit de (high-end) markt kan liggen.

[ Voor 75% gewijzigd door bwerg op 07-10-2009 16:35 ]

Heeft geen speciale krachten en is daar erg boos over.


  • Iekozz
  • Registratie: December 2007
  • Laatst online: 08-05 20:08
Dit is een kopie van een niewsbericht op techzine.nl En wel deze: klik

Edit: Oh dat was al gepost...

[ Voor 13% gewijzigd door Iekozz op 07-10-2009 17:04 ]

"Computers are like Old Testament gods: lots of rules and no mercy." --Joseph Campbell


  • .Sjoerd
  • Registratie: November 2008
  • Laatst online: 07-07-2025
Volgens mij is dit gewoon geschreven door iemand die nogal ati minded is.
Hun geshowde "fermi" is nep
Bronnen?

Stel dat het klopt, dan haal ik snel een 5850 voordat ati de monopolie positie neemt en de kaart 800 euro kost...

[ Voor 31% gewijzigd door .Sjoerd op 07-10-2009 17:46 ]

specs


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

.Sjoerd schreef op woensdag 07 oktober 2009 @ 17:43:
Volgens mij is dit gewoon geschreven door iemand die nogal ati minded is.


[...]

Bronnen?
Heeft NVidia zelf toegegeven... 7(8)7

Hier, het bericht van de meest NVidia-minded site van het universum. Het enige wat er niet klopt aan dat artikel is dat het nergens op zou slaan dat de echte kaart vol met draadjes zou hangen en daarom niet aan het publiek werd geshowed. Er is in ieder geval geen reden om aan te nemen waarom het wèl zo is. Niemand heeft de fermi immers gezien (behalve de mensen die toevallig voor NVidia werken ja). In de nieuwsdiscussie-topics werd uitgelegd dat een kaart niet "vol met draadjes hangt", ook niet als het een handmade kaart zou zijn, en dat het daarom onwaarschijnlijk is.

[ Voor 58% gewijzigd door bwerg op 07-10-2009 17:51 ]

Heeft geen speciale krachten en is daar erg boos over.


  • .Sjoerd
  • Registratie: November 2008
  • Laatst online: 07-07-2025
Linkje dan, dat wil ik ook is lezen

specs


  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 12-03 15:40
.Sjoerd schreef op woensdag 07 oktober 2009 @ 17:46:
Linkje dan, dat wil ik ook is lezen
http://www.google.nl/sear...official&client=firefox-a


Dat GT200 EOL is lijkt me overigens logisch als ze echt GT300 nog begin 2010 / eind 2009 eruit willen poepen.

  • Fismeister
  • Registratie: Mei 2009
  • Laatst online: 21-01-2025
zonder concurrentie zullen de prijzen wel flink omhoog vliegen :S geef ze is ongelijk...

Verwijderd

Er moet concurentie zijn. En ik kgeef ze idd ongelijk als ati al flink kan verdienen.
Verder is nvidia helemaal niet jaren uit de high end markt ze komen dit jaar of volgend jaar wel met wat high ends

Gooi hier maar een slotje op want dit word weer zo'n idiote nv bash topic

[ Voor 16% gewijzigd door Verwijderd op 07-10-2009 17:54 ]


  • DaMarcus
  • Registratie: Juli 2005
  • Laatst online: 20:57

DaMarcus

Admin Harde Waren / Consumentenelektronica

Powered by

Hardware.Info heeft een soortgelijk artikel geplaatst.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 20:18

Pixeltje

Woo-woohoo!

Zou goed ruk zijn. Als AMD geen concurrentie heeft kunnen niet alleen de prijzen omhoog gaan (hoewel daar met de introductie van de 58xx serie nog niet zoveel van blijkt) maar de innovatie kan ook terugvallen.

Ik hoop toch een beetje dat dit niet helemaal waard is.

And if this doesn't make us motionless, I do not know what can.


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op woensdag 07 oktober 2009 @ 17:53:
Er moet concurentie zijn. En ik kgeef ze idd ongelijk als ati al flink kan verdienen.
Verder is nvidia helemaal niet jaren uit de high end markt ze komen dit jaar of volgend jaar wel met wat high ends

Gooi hier maar een slotje op want dit word weer zo'n idiote nv bash topic
Zou inderdaad een slotje op mogen maar alleen omdat het in het NVidia-nieuws/discussie-topic hoort ;) En er is hier op geen enkele manier gebasht. Dit zijn geruchten met een redelijk geloofwaardige basis (procucenten hebben al aangegeven dat de GTX275 en GTX285 niet/nauwelijks meer te verkrijgen zijn, dat is nieuws, daar is toch niks bashen aan?)

Je stelling dat ze volgend jaar wel met iets nieuws komen is ongegrond. Het ontwikkelen van een chip duurt jaren. De GT400 zal dus waarschijnlijk al (lang) in ontwikkeling zijn. Als dat ook weer een GT200/GT300-variant wordt betwijfel ik of ze binnen enkele jaren met een serieus product voor de high-end markt komen.

@hieronder: Zelfs fudzilla gelooft niet dat NVidia dit jaar nog met fermi komt. Als fudzilla zegt dat het nog drie maanden duurt, dan zal het nog wel zes maanden duren (wat weer overeenkomt met de meldingen van Charlie dat het nog een jaar duurt ofzo :X)

[ Voor 10% gewijzigd door bwerg op 07-10-2009 18:05 ]

Heeft geen speciale krachten en is daar erg boos over.


  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 13:51

SECURITEH

Man of legend.

Dan post ik hierbij nog even de bron waar dit nieuws is begonnen.
SemiAccurate

  • EvilWhiteDragon
  • Registratie: Februari 2003
  • Laatst online: 28-04 14:45
Aan de andere kant, als Ati nu de prijzen om hoog gooit, dan red het nVidia als het ware, want die kunnen dan weer boven kostprijs hun GT200 chips verkopen. Dus ik denk niet dat Ati (veel) om hoog gaat met de prijs. Misschien iets, maar nooit zoveel dat de GT200 weer een interessante chip wordt.
http://www.fudzilla.com/content/view/15831/1/

LinkedIn
BlackIntel


Verwijderd

En terecht. Ik geloof dat AMD/Ati nog een poos geleden had gezegd dat zij juist de innovatieve GPU-bakker waren, en nvidia laks is geweest met o.a DX10.1, rebranding van verschillende bestaande chips, de prijs met vooral high-end kaarten ontzettend hoog houden. Dankzij Ati ligt nvidia wel op de knienen met een belachelijk groot ontwerp van een Chip. Dont get me wrong, dit is verder geen bash, maar Nvidia is in vele opzichten, laks geweest, en dit is de prijs die ervoor betaald moet worden.

Waar vind je elders bijna zoveel rekenkracht voor zoveel weinig geld? Dat is dankzij de grote strijd tussen beide partijen geweest.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 01:22

Format-C

Tracing Rays

Reken er maar niet op dat ATi de prijzen verlaagd.

Dit is voor ATi de uitgelezen mogelijkheid om high end users van nV af te pakken, mits ze de prijzen zo laten als ze zijn.

De HD5800 serie vliegt de winkels uit. Ze zullen gek zijn de prijs te veranderen. Dat hoeft ook niet.

Zodra er voorraad is zijn ze alweer verkocht.

En ik ben niet bang dat nV gewoon keihard terugkomt. Mits de GT300 niet te duur is om te maken, hij een klap sneller is dan de HD5000 serie, en voor een redelijke concurrerende prijs verkocht kan worden.

Dat laatste, dat is het belangrijkst denk ik.

Kunnen ze hem met winst verkopen, EN concurreren met ATi.
:| Volgens mij gooit een mod hem vanzelf op slot indien nodig. Maak dan een Topic report aan. (Links bovenin)

--> Afbeeldingslocatie: http://tweakimg.net/g/forum/images/icons/icon_hand.gif

[ Voor 51% gewijzigd door Format-C op 07-10-2009 18:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


Verwijderd

slotje

Ik gun nvidia het niet dat het zo slecht gaat bij nvidia
Zonder concurentie zijn wij straks nergens meer

[ Voor 90% gewijzigd door Verwijderd op 07-10-2009 18:28 ]


  • Umbrah
  • Registratie: Mei 2006
  • Laatst online: 22:34

Umbrah

The Incredible MapMan

Vanuit een bedrijfskundig oogpunt gezien denk ik dat nVidia één cruciele fout heeft gemaakt. Met de ondergang van 3DFX zijn ze een tijd 'monopolist' geweest (totdat ATI met de Radeon kwam, en zelfs een tijd daarna totdat ATI hun drivers op orde had, eigenlijk tot de Radeon 9000 serie), en hoewel het langzaam gebeurde, hebben ze de fout gemaakt om daar aan vast te houden.

Ik denk dat de geschiedenis ons gaat leren dat zowel de overname van Physx en het 'pushen' van Cuda grote fouten waren. Hoewel beide als idee goed leken, zijn ze er vanuit gegaan in hun marketing- en bedrijfsmodel dat ze monopolist zijn. Met als gevolg dat ze het 'exclusief' hebben gehouden, en koppelden aan hun 'the way it's meant to be played' programma, wat ze ook klauwen met geld heeft gekost.

Game developers hadden echter wel door dat Physx geen 'must' moest zijn, omdat je dan je markt limiteerd. Daarnaast kennen de consoles natuurlijk geen Cuda, of hebben die een OS met upgradebare drivers. Dus voor multiplatform ook een slecht idee om Cuda/Physx verplicht te stellen.

Uiteindelijk zagen ontwikkelaars, OS bouwers, en tal van belangengroepen wel in dat Cuda, Physx, en X86 tegenover GPU's voordelen hadden. Een beetje het coprocessor verhaal van mid-jaren 90; een andere losse CPU (of GPU) kan bepaalde taken sneller. ATI, sneaky bastards dat ze zijn, hebben goedkoop 'stream' ontwikkeld, en het een beetje verwerkt als een simpele API waar onder andere DXVA gebruik van maakt (een ATI kaart kan met wat moeite meer formaten hardware decoden dan een nVidia kaart, want nVidia was niet zo snugger door CUDA niet als taaltje voor alles toe te passen). Daarnaast heeft ATI stream een beetje als de basis van hun drivers gemaakt, en dmv. vertaal routines heel handig ondersteuning voor DX10.1 toegevoegd, en DX11 'vertaling', waardoor sommige dingen ook nog op oude kaarten werken. Ondertussen waren de losse vriendjes microsoft, Intel, Apple, en nog een paar van die consortium mensen lekker bezig met een wat meer universele standaard, wat OpenCL is geworden, en het Microsoft-eigen dialect DirectCompute, wat gebruik maakt van Compute-shaders in DirectX 11 kaarten. Vooral dit truukje liet zich door stream-drivers makkelijk toepassen op 'oude' kaarten, waardoor zelfs de HD3000-serie nog wat nieuwigheidjes heeft geleerd, om over de simpele maar effectieve HD4000 serie nog maar te zwijgen (waar de HD5000 serie eigenlijk meer een evolutie op is in plaats van een revolutie wat de HD4000 serie was). ATI heeft goed gegokt door niet enorm met Physx te gaan showen, en leuke (maar indirect dure, nutteloze) real-time raytracing demo's te bouwen.

Het verhaal doet me heel erg denken aan GM (en dan vooral de werknemers) tegenover Toyota. Toyota is vanaf het begin 'lean' gegaan, en heeft alles duidelijk, maar simpel gehouden, terwijl ze heel erg op de ideën en inovativiteit van werknemers bouwen, terwijl GM 'good old' vakbondsauto's is blijven bouwen. Terwijl ze 3x langer voorraad houden, 2x langer over een auto bezig zijn, en 4x meer fouten maken. 3x raden welke fabrikant nu bijna failliet is, en welke fabrikant net zijn nieuwe evolutie naar CO2-vrije auto's introduceert, en hele culturen het woord 'efficiency' leert. Raad nou eens waar de canadezen van ATI zich mee meten, en waar nVidia zich mee vergelijkt (denk even na over de simpele HD4000 architectuur, en de grote GT200 architectuur die zo complex was dat de GT80 een paar dure die shrinks moest ondergaan en relabels).

Ik denk dat dit verhaal zo erg mooi in de bedrijfskunde/informatica boeken zal staan. Mogelijk mooier dan de Toyota verhalen waar onze boeken nu vol mee staan!

  • aarondk1
  • Registratie: November 2007
  • Laatst online: 09-10-2024
Ik denk dat Nvidia niet wou beseffen dat ze niet verder kunnen. Ze hebben op de één of andere manier de echte eisen voor DirectX 10 niet kunnen voldoen.
En daardoor was DirectX 10 een kleine tegenvaller, maar ze konden nog wel mee DirectX 10 kaarten verkopen niet zoals ATI.

Als ik nVidia was geweest, was dan zeker beginnen te investeren om onderzoek te doen, naar wat DirectX 10 had moeten zijn, etc.
Want wat ze nu doen kan elk klein kind, je ontwerpt een zeer goede en populaire chip (G92/G80, waar met die laatste overigens ook al bekende problemen mee zijn, waar ze wel van op de hoogte zijn volgens mij)
En dan maken ze de 9XXX serie, die gewoon hetzelfde is als de 8XXX serie.
Vervolgens maken ze de GT200, wat een betere G92/G80 is, en nog steeds hebben ze niks gewonnen.
Ze hebben het zolang mogelijk proberen uit te stellen, maar ze kunnen niet meer mee.

En dan gaan ze valse berichten publiceren over hun fermi, en dat GGPU de toekomst is.
Ik denk dat veel mensen het hebben zien aankomen, en ik vind het zeer spijtig voor Nvidia.
Maar ik denk dat ze er ongetwijfeld wel door raken, ze hebben genoeg kapitaal om dit te overleven.
AMD/ATI stond er ook niet goed voor (en op cpu gebied momenteel ook niet echt in de high-end klasse) en dit hebben ze ook overleefd.
En nu draait ATI weer goed, misschien is het over een half jaar weer helemaal anders...

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 07-05 15:57

Ultraman

Moderator Harde Waren

Boefje

Dit soort discussies kunnen plaatsvinden in het desbetreffende Nieuwsdiscussie topic, waar het ook al was langsgekomen. Maar schaf aub wel de nodige pakken zout en 10 secondentellers aan, want dit zijn en blijven geruchten.

Een apart topic heeft het volgens mij nog niet verdiend.

[ Voor 6% gewijzigd door Ultraman op 07-10-2009 18:29 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1

Dit topic is gesloten.