Cheetah schreef op dinsdag 20 oktober 2009 @ 01:35:
[...]
Ok, we gaan nu een bijna 1 jaar oude prev-gen 55nm GTX285 vergelijken met een 40nm ATi 5870 die net 3 weken uit is en daaruit conclusies trekken over die-sizes en CUDA en kosten die nV al dan niet doorrekent aan de consument. Ach ja, why not, we hebben al meer scheve vergelijkingen gezien, dus deze kan er ook wel bij... anders vergelijk je de HD5870 meteen met de 110nm 7800GTX, is je punt nog duidelijker... belachelijk grote chip tegen slechts 10% van de prestaties van de 5870
[...]
Nou... ik denk dat het er meer mee te maken heeft dat het ontwerp waar hij op gebaseerd is (GT200) al 16 maanden op de markt is, en het ontwerp waarmee je vergelijkt net 3 weken.
Maargoed, waarom probeer ik het ook eigenlijk...
[...]
Het gevoel dat de consument
krijgt, of het gevoel dat de consument middels
desinformatie wordt gegeven? Zoals al toegelicht in de laatste alinea van de post waar ik naar linkte.
[...]
Dus als Microsoft Visual Studio DotNet market aan developpers krijgt de consument de indruk dat ze daarvoor betalen als ze Windows kopen, omdat Windows ook met Visual Studio ontwikkelde apps kan draaien?
Of, beter voorbeeld: als ze Windows Server 2010 aan de business gaan marketen krijgt de consument het idee dat zij daarvoor betalen als ze Windows7 Home Premium aanschaffen? Want hun Home Premium kan immers ook voor 98% dezelfde apps draaien als Server 2010
[...]
Dus als de consument een Intel Core processor koopt heeft hij de indruk voor de professionele Xeon lijn de kosten te betalen? Of als hij een Athlon koopt heeft hij de indruk voor de professionele Opteron lijn de kosten te betalen?
Betreffende die strikte scheiding tussen zakelijke en consumentenproducten hoor ik gek genoeg niemand klagen dat Intel & AMD met hun microprocessors precies hetzelfde doen. Namelijk een consumentenlijn (Core, Athlon/Phenom) en een business-lijn (Xeon, Opteron) gebaseerd op exact hetzelfde ontwerp, zelfs met exact dezelfde processor-die's. Hoor je niemand over.
Neemt nV exact datzelfde businessmodel over dan begint men plotseling te stuiteren. Wonderlijk weer...
[...]
Hoe komt die gamer toch op het vreemde idee dat
hij daarvoor betaald, en niet die professionele afnemers?
[...]
Gek genoeg snapt iedereen het probleemloos als de casus om Intel of AMD of Microsoft of etc draait. Ik begrijp niet waarom men het plots niet meer snapt wanneer het om nV gaat. Overigens kan ik het wel verklaren... zoals ik al schreef:
Als je het mij vraagt heeft het gekerm over die-sizes en CUDA die dramatisch veel invloed zouden moeten hebben op de pricing van nV's game-line meer met FUD (desinformatie) van de tegenpartij te maken dan met realiteit... exact deze zelfde verhalen waren er ook bij achtereenvolgens G80, G92 en GT200. De gamer krijgt vooralsnog CUDA feitelijk kado, meeliftend met de zakelijke markt. Totdat ik zie dat nV qua pricing een totaal andere weg in slaat zie ik geen enkele reden om aan te nemen dat ze dat gaan doen
[...]
nV heeft al onderscheidende namen voor hun consumentenlijn en professionele lijnen: Geforce (consumenten), Quadro (professioneel) en Tesla (GPGPU specific).
Persoonlijk vind ik het ronduit verbijsterend dat mensen het feit dat nV CUDA/GPGPU ook ter beschikking stelt voor de consumentenlijn in plaats van het te limiteren tot de professionele lijnen als
negatief ervaren. Prachtige casus om te laten zien hoe effectief desinformatie in werkelijkheid is: iets positiefs in de geest van de doelgroep effectief 180 graden gedraaid krijgen naar een negatieve perceptie.
NEE, een consument heeft helemaal niets aan CUDA omdat het vrijwel niet geïmplementeerd gaat worden in spellen en daar koopt een consument een kaart voor, daar ontkom je gewoon op geen enkele manier aan. Je hebt het keer op keer over desinformatie en gebruikt andere rare termen om mensen op hun plaats te zetten maar dat vind ik helemaal niet nodig, er worden zat valide argumenten gegeven ook al passen die niet in jouw straatje.
M4gick maakt overigens helemaal geen scheve vergelijking want ook de 48xx serie had al een 40nm die-size, wellicht een van de redenen waarom zij nog wel kunnen leveren aan de consument in de komende maanden.
Met je rare vergelijking met Windows Server editie onderstreep je mijn argument alleen maar, op een met CUDA uitgeruste kaart kun je ook alles draaien alleen aan CUDA als extra heeft een consument gewoon weinig, ik heb echt zat argumenten gegeven om die bewering kracht bij te zetten, daar ga je een beetje aan voorbij. Een server editie van een OS bevat dan ook wel wat de desktop versie bevat, maar bevat ook features die simpelweg gebruikt worden in een veeleisende server omgeving, net zoals CUDA in de professionele markt wèl nut heeft. Mensen liften niet gratis mee op de professionele sector als ze features krijgen die ze als normale consument niet kunnen inzetten buiten hier en daar een demo'tje, features die ook aan de normale consument worden gepresenteerd. Mensen weten inmiddels het verschil tussen een desktop en een server, die weten aan de naam te zien exact dat ze de server editie thuis niet nodig hebben. Bij nVidia hebben ze vooralsnog geen keus, als je een flagship wilt dan doe je het er maar mee, maar dan wordt de kaart wel groter en verbruikt wellicht meer stroom dan nodig is en daar is ook het prijskaartje nog eens naar.
Als Corsair besluit vanaf nu hun DDR3 producten alleen nog maar uit te rusten met ECC zodat mensen dan kunnen meeliften op de professionele markt maar het geheugen daarmee wel iets duurder maken dan stapt iedereen gewoon massaal over op XMS of GEiL, easy as pie.
Met Visual Studio sla je de plank helemaal mis, het kunnen developen op een platform en het gebruik kunnen maken van de producten die uit zo´n platform rollen zijn twee totaal verschillende zaken, het developen kost geld, het gebruiken is gratis. Als Microsoft Visual Studio standaard in Windows had geïmplementeerd en Windows 200 Euro duurder had gemaakt dan had deze vergelijking misschien opgegaan.
Dat mensen het wel bij Intel en AMD snappen is omdat dat een hele andere sector is. Je moet mij ook het verschil tussen een V6 of V8 motor niet vragen, maar als ik een goedkopere V6 met gelijke PK's en vergelijkbare topsnelheid voor een lagere prijs kan kopen dan doe ik dat wellicht. Wat moet ik dan met een V8, da's toch allemaal marketing (zo denkt een consument) ? Als ik met een Ati kaart 150fps haal en met een nVidia kaart ook maar die is duurder, waarom dan voor de nVidia gaan ? CUDA is dan hetzelfde als de V8, de motor is groter, zuipt meer maar levert uiteindelijk dezelfde prestaties.
En daarbij heeft een consument in een normale computerwinkel (Computerland, Mycom, de Dixons wat mij betreft, zaken waar een normale consument komt om z'n spulletjes te halen) vaak helemaal geen keus om een Xeon of Opteron te kopen en worden helemaal niet geconfronteerd met dat soort zaken. En gek hè dat een server editie van een processor dezelfde features heeft als een desktop processor, het draait namelijk allemaal op dezelfde x86 architectuur, je geeft zelf al aan dat een Windows Server Editie in de kern helemaal niet verschilt met een desktop versie, compatibiliteit is dan het sleutelwoord.
Jij zegt dat mensen het kado krijgen, het spijt me maar het gros van de consumenten is het met je oneens omdat in het verleden is gebleken dat nVidia hele dure kaarten op de markt brengt. Als men dan nutteloze features meekrijgt dan vind men dat verdacht en of het nu desinformatie is of iets anders, als de consument de indruk krijgt dat ze betalen voor nutteloze features dan kijken ze verder. Desinformatie uit het andere kamp is overigens een beschuldiging die helemaal nergens naar gestaafd is volgens mij, want Ati juicht CUDA en vooral de PhysX kant daarvan alleen maar toe, ze hebben zelfs aangeboden het in een standaard implementatie te gieten, maar dat wil nVidia vooralsnog exclusief voor zichzelf houden.
Je doet net alsof het volgende flagship van nVidia 3 tientjes gaat kosten, maar je kunt minimaal op 300 tot 400 Euro rekenen, daar gaat het Jan Modaal om. Jij hebt echt een totaal verkeerd beeld van de normale consument. Een gamer wil rauwe snelheid, als de nieuwe nVidia kaart wat fps betreft 'maar' gelijk scoort vergeleken met een Ati kaart die goedkoper is dan weet de gamer tegenwoordig echt wel een keus te maken. We zitten ons niet meer te vergapen aan Dawn en kubusjes die met de snelheid van het licht op elkaar reageren, we willen Crysis op insane settings spelen met minimaal 4xAA en 16xAF. En Crysis draait op Havok volgens mij, dus aan CUDA heb je dan niets om maar een simpel voorbeeld te noemen.
Het gaat hier om de toekomst van nVidia, die-sizes, yields en dat soort zaken zijn dan wel belangrijk omdat je met hoge kosten zit als je die zaken meerekent. Een grotere die kost nVidia meer, zo simpel is het. Dat jij het gekerm noemt onderstreept alleen maar dat je je heel erg in een hoekje gedreven voelt. Dat hoeft helemaal niet, wij vallen je niet aan op je persoonlijkheid maar in mijn geval wel op je argumenten die naar mijn mening niet helemaal steek houden. Je reageert alsof ik en anderen aan het bashen zijn op nVidia, da's helemaal niet waar en helemaal mijn intentie niet, ik hoop zelfs dat nVidia met een oplossing komt die minstens net zo goed presteert als de huidige HD5870 en met implementatie van CUDA voor hetzelfde prijskaartje de deur uitgaat, maar da´s gewoon niet reëel om te verwachten. Als je je hoofd boven water wilt houden in de huidige economie dan moet je met klantgerichte oplossingen komen, Ati doet dat naar mijn mening op het moment veel beter want die zegt, hier heb je een kaart die twee keer zo snel is als de voorloper (5870 vs 4870 in dit geval) en die stop ik vol met features die je aan het eind van dit jaar al kunt gebruiken (DirectX 11). Oh ja, wil je meer dan 1 monitor aansluiten dan kan dat met de standaard editie, als je ook nog eens wilt gamen op meerdere monitoren dan hebben we ook nog een Eyefinity versie. Oh ja, en nog wat hardwareversnelling voor je HD fimlpjes. DIt alles bakken we op een proces die in het verleden al heeft uitgewezen dat die makkelijk leverbaar blijft. nVidia's antwoord is, hier, een kaart met veel teveel features on-die die we er niet uit kunnen slopen en waar nog geen duidelijk plan voor is maar waar wel toekomst in zit, dat beloven we, en dat gaan we voor het eerst doen op een lager procedé ! Innovatie is belangrijk maar niet zonder duidelijk plan om die innovatie uiteindelijk te gaan gebruiken. En nogmaals, je zult uiteindelijk mee moeten doen met de standaard, iets exclusief voor jezelf houden werkt niet in deze markt omdat je dan gewoonweg geen ondersteuning krijg vanuit productie studio´s omdat die zoveel mogelijk spellen willen verkopen en zeker niet vast willen zitten aan geavanceerde features die maar een paar procent van de bevolking kan gebruiken. Dan kom je niet meer weg met een TWIMTBP programma, dan kom je met een The Way It Will Exclusively Run On Our Hardware programma en daar heeft niemand iets aan.
En je slaat de huidige problemen ook gewoon nog steeds over, want mede door die die-size, de yields en andere zaken is nVidia niet eens meer in staat om op normaal niveau GPU's te kunnen leveren aan de consument. Ik zei het al eerder, ook de komende maanden zijn belangrijk als je op het punt staat iets te lanceren, als je consumenten nu moet teleurstellen door alleen nog videokaarten in een complete pc te bieden dan zakt het vertrouwen in en zijn mensen nog minder geneigd te gaan betalen voor iets wat zich nog moet bewijzen en waarvan ze het nut misschien helemaal niet inzien.
Het zou overigens wel prettig zijn als je niet in elke twee posts woorden gebruikt waarvan je de indruk hebt dat je die moet benadrukken met Wiki links
[
Voor 4% gewijzigd door
KneoK op 20-10-2009 04:17
]