There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Verwijderd
Ik ga hier niet Discussieren over hoe geweldig CUDA wel niet is. Alleen als jij mijn vroge posts had gelezen had je geweten wat ik bedoel met ''geen grote stoot in de rug''.Cheetah schreef op maandag 19 oktober 2009 @ 05:45:
[...]
Ik heb al eerder in de thread uitgelegd waarom het volslagen logisch is dat nV niet toestaat dat CUDA wordt geport naar OpenCL --> MS (vgl nV) staat uiteraard ook niet toe dat Office2010 (vgl CUDA) wordt geport naar OpenOffice (vgl OpenCL) omdat een concurrent (vgl AMD) alleen onder die voorwaarde het ".doc" (vgl PhysX) formaat wil ondersteunen.
Het voorstel van AMD daaromtrent is gewoonweg absurd, en dat snapt David Hoff zelf ook wel, maar hij moet de weigering van AMD om CUDA (en daarmee dus PhysX) te supporten verkopen aan zijn achterban en dat probeert hij door te doen alsof nV de 'schuldige' is hieraan. En blijkbaar lukt dat ook nog...
Als AMD PhysX wil supporten moeten ze CUDA gaan supporten. Dat was de deal, en die weigert AMD.
nV gaat uiteraard de broncode van een volledig door hun ontwikkeld - en bekostigd - marktleidend GPGPU platform niet zomaar gratis en voor niks weggeven en laten omzetten naar een open standaard die jan en alleman gratis en voor niks kan gebruiken. Duh... geen enkel commercieel bedrijf dat beschikt over een enigzins rationeel denkende CEO zou onder dergelijke omstandigheden zo'n beslissing nemen
[...]
Want?
[...]
Zij stellen middels CUDA hardware, en een compleet ontwikkelplatform om deze hardware aan te boren, met een enorm potentieel aan rekenkracht ter beschikking aan de commerciele markt. Rekenkracht die in single presicion de snelste desktopprocessors (Core i7) met een factor 10x voorbijschiet... waardoor een bedrijf in plaats van kapitalen aan multi-cpu workstations uit te geven toekan met een veel goedkopere single CPU+CUDA-engine oplossing, die daarbij nog meer rekenkracht oplevert ook.
Klinkt dat jou niet in de oren als iets wat enorm veel geld kan opleveren dan?
[...]
Waaruit concludeer je dit? Als ik het goed begrijp: Omdat ze innoveren en met CUDA een nieuwe markt aanboren 'denken ze zomaar over de concurrentie heen te kunnen lopen'![]()
Dat moet je me eens uitleggen, want ik snap die conclusie - sterker nog, het hele verband - niet?
Ik zeg dat CUDA niet zo'n grote afzetmarkt heeft als men denkt. Zelfs in de professionele richting heeft bijna niemand zo'n immense rekenkracht nodig. Denk aan beurshandelaars etc. Die hebben meer aan eyefinity dan CUDA.
De overmoedige positie die nvidia denkt te hebben concludeer ik uit mijn hele verhaal uit mijn vorige post (dus 2 posts terug) Ik heb geen zin om dat hele verhaal weer te herhalen. Jij denkt dat ik CUDA zelf aanval. Ik val alleen de econmische aspecten aan het verhaal aan.
Kijk nou maar eens dat zelfs na de HD4xxx reeks nvidia nog steeds door gaat met hun oh zo geweldige strategie die de vorige keer ook zo goed heeft gewerkt. Ik weet dat die ontwerpen van te voren vast stonden maar nvidia is alleen maar bezig met het versterken van hun monopolie in plaats van serieus winst te maken.
Verwijderd
Klopt maar de high end markt telt niet super veel klanten tegenover de rest.-The_Mask- schreef op maandag 19 oktober 2009 @ 12:02:
[...]
Dat vast wel, maar het gaat hun wel veel klanten kosten.
Maar goed nvidia stopt verder niet met de high end markt ook al valt hier niet het
meeste in te verdienen. Ik vind het verder wel goed dat nvidia het op dit gebied een keer wat minder er
voor staat, is alleen maar goed om sterker trug te komen
geld verdienen aan ons en dus meer prijs prestatie gaan toepassen. Dit is voor nvidia goed en voor hun klanten.
Die van AMD wel (en in vergelijking waren de laatste verliezen niet eens zó hoog (als consument is het bedrag veel, echter met de sjeiks die zoiets per maand binnen halen samen met de daling in het verlies kan dit binnenkort toch wel een + worden hoor)), het onderdeel ATi zal het met de 4 serie en nu met de 5 serie niet slecht doen hoorXenomorphh schreef op maandag 19 oktober 2009 @ 12:06:
[...]
nja makkelijk redden... kijk de verliezen van AMD/ATI die zijn torenhoog..
Dit topic stinkt, on-topic posts zijn er niet te vinden... misschien dat Videokaarten i.p.v. nVidia beter in de topictitel zou passen...
[ Voor 12% gewijzigd door Paprika op 19-10-2009 12:29 ]
Minder dan de mensen die nu de mediamarkt in stappen en een computer kopen omdat er een logo "graphics by nVidia" op staat...-The_Mask- schreef op maandag 19 oktober 2009 @ 12:02:
[...]
Dat vast wel, maar het gaat hun wel veel klanten kosten.
Even een voorbeeld:
Een kind van 14 stapt met zijn moeder/vader de mediamarkt binnen, zoekend naar een nieuwe computer, met een budget van zeg maar 1000 euro. Meteen zien ze 2 computers van 1000:
Een Core 2 Duo op 2.4 Ghz (voorbeeld voorbeeld) met een 9600 GT 1 Gb
Een Phenom II op 3 Ghz met een ati radeon hd 4850 512 MB
Nou ik weet zeker dat 9 op de 10 mensen de intel nemen, waarom? Ik zag dat in de voorfilmpjes...
Dit is even een zwaar voorbeeld hoor, maar mensen zullen eerder een Intel + Nvidia nemen dan een AMD + Ati. Waarom? Ik weet het niet, ik denk eigenlijk ook dat het aan de namen ligt van de processors, intel heeft Core 2 Duo, Core 2 Quad en nu ook i7, en Amd heeft van die rare namen zoals Athlon, Sempron, Phenom..
Daar hebben ze momenteel het sterretjes systeem voor, die ik overigens nog steeds niet snap.. Bij de ene computer is een Core 2 Quad 5 sterren, bij de andere 4..Paprika schreef op maandag 19 oktober 2009 @ 12:36:
i7 vind je dan weer niet raar? Je verhaal klopt verder wel, maar hey diezelfde mensen gaan naar de mediamarkt omdat ze nog altijd voor de Mediamarkt, ik ben toch niet gek marketing vallen... Terwijl mediamarkt nou net zeker niet 't goedkoopste is.... dat zij daar intrappen daar zit je nu eenmaal mee als bedrijf dat minder aan marketing doet.
Verwijderd
Dan is het ook niet zo goed dat ati amd bij elkaar zitten of niet?pino22 schreef op maandag 19 oktober 2009 @ 11:59:
Voor intel zou het niet beter zijn, denkt aan aankomende monopolie en bijhorende problemen die een bedrijf kan krijgen.'
Voor de consument zal het ook niet beter zijn.
Daarnaast is er nogal een verschil als je AMD/ATI bekijkt en mocht NVIDIA/INTEL samen gaan of Intel hun overkopen oid, dan denk ik dat AMD/ATI er op een iets langere termijn erg slecht voor zal komen te staan
Denk dat zo goed als niemand hier beter van gaat worden, en NVIDIA tja , ik verwacht niet dat ze snel een fusie zouden doen of een overkoop, zie zoiets ook niet zo maar goed gekeurd worden door bepaalde autoriteiten( of hebben die geen macht)?
Beetje bull shit dus. Ik denk namelijk dat nvidia en intel zamen leuke dingen kunnen gaan maken
net zoals amd en ati ook kunnen
Daar gaat het mij niet om dat geloof ik direct of beter gezegd dat weet ik wel zeker, mij gaat het er om of het voor de markt goed zou zijn en uiteindelijk voor de consument als er zo'n sterke combi zou komen te ontstaan, en dat denk ik niet, denk namelijk dat de schaal dan helemaal scheef raakt en door gaat slaan naar deze genoemde combi
Dat is mijn mening en dat jij er niet mee eens bent tja dat mag he, dat respecteer ik gewoon maar zal mijn mening niet veranderen
[ Voor 11% gewijzigd door pino85 op 19-10-2009 13:41 ]
Liefhebber van Tweakers
In die post ervoor negeer je waarom er in de professionele markt veel specialisatie is: omdat er vele specifieke behoeften zijn die door slechts 1 of enkele bedrijven kunnen worden ingevuld. De markt voor veel rekenkracht is zoals je zelf al stelt in die post niet de gemiddelde consument, maar de professionele markt. En die richt zich dus niet op de consument met een ATi of nV videokaart, maar heeft dedicated hardware en software - aka een platform - om hetgeen zij doen te ondersteunen.
Mensen maken hier vaker de denkfout dat CUDA primair gericht is op de consumentenmarkt. Het zal de NASA en de filmstudio's en ...etc worst wezen wat de consument voor grakamerk in z'n PCeetje heeft.
3D rendering, wetenschappelijk onderzoek, natuurkundige berekeningen, voorspellende modellen, 3D modellen, videobewerking, video-optimalisatie, encoding/decoding (in allerlij soorten en maten), encryptie/decrytpie, CAD/CAM etc.Ik zeg dat CUDA niet zo'n grote afzetmarkt heeft als men denkt. Zelfs in de professionele richting heeft bijna niemand zo'n immense rekenkracht nodig. Denk aan beurshandelaars etc. Die hebben meer aan eyefinity dan CUDA.
Er zijn honderdduizenden zo niet miljoenen bedrijven die zich wereldwijd met hieraan gerelateerde zaken bezighouden en een bijna onstilbare honger voor rekenkracht hebben. Om er een paar te noemen: filmstudio's (3D rendering, videorendering/bewerking/optimalisatie, physics, realistische effects etc), renderfarms, ontwerpers, architecten, gamestudio's, wetenschappers en aan wetenschappelijk onderzoek gerelateerde bedrijven, etc.
Maar als jij echt gelooft dat dergelijke rekenkracht niet nodig is en er geen vraag naar is dan vraag ik me af wat je denkt dat bijv. IBM (Cell) en Intel (Larrabee) allemaal aan het doen zijn. Nog afgezien van natuurlijk de 'normale' Intel en AMD microprocessors die ook steeds een stuk krachtiger worden. Allemaal onzin?
Voor Eyefinity in de vorm van simpel multi-monitor zijn er trouwens andere professionele alternatieven (Matrox bijv). ATi heeft het nu naar de consumentenmarkt gebracht, maar dit concept bestaat op de professionele markt al vele jaren.
Heb ik iets gemist over wat er precies niet goed was aan nV's strategie rond de HD4xxx reeks?Kijk nou maar eens dat zelfs na de HD4xxx reeks nvidia nog steeds door gaat met hun oh zo geweldige strategie die de vorige keer ook zo goed heeft gewerkt. Ik weet dat die ontwerpen van te voren vast stonden maar nvidia is alleen maar bezig met het versterken van hun monopolie in plaats van serieus winst te maken.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Dat er misschien meer dan ooit tevoor mensen zijn overgestapt? Lijkt me een goeie indicatie.Cheetah schreef op maandag 19 oktober 2009 @ 13:31:
Heb ik iets gemist over wat er precies niet goed was aan nV's strategie rond de HD4xxx reeks?
Daarbij heeft NVIDIA helemaal niet zo'n voorsprong op GPGPU, enkel bij CUDA. NVIDIA is een laatkomer waar de concurrent ATI al jaren ervoor met die zaken experimenteerde. Dit heeft NVIDIA proberen te sluiten naar hun eigen zaken maar nu met een open standaard OpenCL en een gesloten standaard DxCompute zal het hun niet meer zo makkelijk vergaan. Als marktleider kunnen ze benchmarks vervalsen of FUD versprijden, who cares. Maar als ze underdog worden gaan we terug sterk staaltje NVIDIA design zien, ze hebben al bewezen dat ze het kunnen
Kijk even naar Apple die even terug 2maand productie van HD4xxx hebben opgekocht voor de opkomende systemen. Laat het nu net Apple zijn die als grote promotors van OpenCL werken. Blijkbaar vindt Apple dat ook consumenten die gebruik maken van GPGPU voor videobewerking en dergelijke, dat NVIDIA niet de beste oplossing is op dit ogenblik.
Dat NVIDIA nogal problemen had met falende gpu's, heeft hen ook niet populair gemaakt bij de fabrikanten.
Laat ze gewoon een jaartje bezinnen en pas dan kunnen we zien of ze nog iets om hun grote markt geven, of dat ze liever de grootte van Matrox willen worden.
Nou nou nou.. vergeet niet dat bij Apple elk fucking apparaat een GeForce aan boord heeft. MacBooks, MacPro's etc. alles met on-board nV graphics.Verwijderd schreef op maandag 19 oktober 2009 @ 14:53:
Kijk even naar Apple die even terug 2maand productie van HD4xxx hebben opgekocht voor de opkomende systemen. Laat het nu net Apple zijn die als grote promotors van OpenCL werken. Blijkbaar vindt Apple dat ook consumenten die gebruik maken van GPGPU voor videobewerking en dergelijke, dat NVIDIA niet de beste oplossing is op dit ogenblik.
de HD48XX wordt slechts als (zeer duur) betaalde upgrade aangeboden. OpenCL = nVidia op het OSX Platform.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Toch wel hoor, DP performance, ECC geheugen, een CPU-achtige cache hierarchie. cGPU geeft echt een flinke overhead. Voor een goede analyse van Fermi ( en van Cypress ) raad ik iedereen trouwens aan om eens naar beyond3d.com te kijken.Verwijderd schreef op vrijdag 16 oktober 2009 @ 15:18:
[...]
De stelling dat Fermi te duur zou worden voor consumenten begrijp ik niet helemaal. Er komt (naar verwachting) gewoon een GT310 en een GT330 voor de consument die z'n PC bij de Dixons of de Mediamarkt koopt. Deze gaan naar verwachting 49$ resp. 79$ dollar kosten. Als ze na de lange bootreis in Europa aan zijn gekomen en aan de Europa inflatie onderhevig zijn geweest dan zullen ze ongeveer 49€ resp. 79€ gaan kosten. Zoveel meer dan de low-end G200 of de ATI kaarten is dat nu ook weer niet.
[...]
Dat is niet helemaal correct. NVIDIA maakt gebruik van een 'unified shader architecture'. Een multiprocessor kan in een gpgpu applicatie dienst doen als streamprocessor. In een 3D game kan diezelfde multiprocessor dienst doen als vertex-, fragment-, of geometry shader. Er zit helemaal niets onnodigs in die kaart.
Buiten de "bewoording" heb jij ook die cijfers gezien die een tanende marketshare laat zien voor nV. AMD had een stijging van ~88% in hun discrete mobile producten, ~37% meer marketshare.Cheetah schreef op maandag 19 oktober 2009 @ 15:08:
[...]
Meer dan ooit tevoor mensen overgestapt?
Interessant... heb je de verkoopcijfers om dit te staven, want daar ben ik wel benieuwd naar?
in het afgelopen kwartaal 20% meer omzet ondanks lagere APS's
in Q2 won AMD weer 1% ten opzichte van een verval van 0.3% in het kwartaal daarvoor.
http://jonpeddie.com/pres...ia-also-show-great-gains/
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Je beschuldigt veel mensen van negeren van feiten, maar jij negeert naar mijn mening telkens 1 groot feit, ik wil als gamer de snelste videokaart voor de scherpste prijs. Ik wil niet betalen voor R&D kosten van een product dat in de game industrie gewoonweg niet gebruikt wordt en hoef geen dikke GPU die ook andere dingen kan die gewoonweg niet ondersteund worden. Ik vind het hartstikke opwindend om te lezen dat nVidia wellicht de raytrace kant op gaat, maar als dat niet binnen nu en een half jaar in spellen wordt opgenomen hebben we er in de huidige generatie videokaarten helemaal niets aan. PhysX is leuk maar wordt maar weinig ondersteund, zolang nVidia dit exclusief voor zichzelf houden blijft dit zo. PhysX werkt alleen op een redelijk highend product, hoeveel procent van de consumenten koopt een highend product ? En hoeveel van dat percentage gaat alsnog voor een Ati ? Dan zit je dus met een hele kleine club mensen die zoiets kunnen draaien en is het naar mijn mening voor een ontwikkelstudio gewoon een gimmick om samenwerking met nVidia te onderstrepen, niet om je als gamer enthousiast voor te maken.Cheetah schreef op maandag 19 oktober 2009 @ 13:31:
[...]
In die post ervoor negeer je waarom er in de professionele markt veel specialisatie is: omdat er vele specifieke behoeften zijn die door slechts 1 of enkele bedrijven kunnen worden ingevuld. De markt voor veel rekenkracht is zoals je zelf al stelt in die post niet de gemiddelde consument, maar de professionele markt. En die richt zich dus niet op de consument met een ATi of nV videokaart, maar heeft dedicated hardware en software - aka een platform - om hetgeen zij doen te ondersteunen.
Mensen maken hier vaker de denkfout dat CUDA primair gericht is op de consumentenmarkt. Het zal de NASA en de filmstudio's en ...etc worst wezen wat de consument voor grakamerk in z'n PCeetje heeft.
[...]
3D rendering, wetenschappelijk onderzoek, natuurkundige berekeningen, voorspellende modellen, 3D modellen, videobewerking, video-optimalisatie, encoding/decoding (in allerlij soorten en maten), encryptie/decrytpie, CAD/CAM etc.
Er zijn honderdduizenden zo niet miljoenen bedrijven die zich wereldwijd met hieraan gerelateerde zaken bezighouden en een bijna onstilbare honger voor rekenkracht hebben. Om er een paar te noemen: filmstudio's (3D rendering, videorendering/bewerking/optimalisatie, physics, realistische effects etc), renderfarms, ontwerpers, architecten, gamestudio's, wetenschappers en aan wetenschappelijk onderzoek gerelateerde bedrijven, etc.
Maar als jij echt gelooft dat dergelijke rekenkracht niet nodig is en er geen vraag naar is dan vraag ik me af wat je denkt dat bijv. IBM (Cell) en Intel (Larrabee) allemaal aan het doen zijn. Nog afgezien van natuurlijk de 'normale' Intel en AMD microprocessors die ook steeds een stuk krachtiger worden. Allemaal onzin?
Voor Eyefinity in de vorm van simpel multi-monitor zijn er trouwens andere professionele alternatieven (Matrox bijv). ATi heeft het nu naar de consumentenmarkt gebracht, maar dit concept bestaat op de professionele markt al vele jaren.
[...]
Heb ik iets gemist over wat er precies niet goed was aan nV's strategie rond de HD4xxx reeks?
Je hebt helemaal gelijk dat er andere markten zijn die heel veel aan bijvoorbeeld CUDA kunnen hebben maar dan sla je de plank wat mij betreft mis als je dat de consument gaat opdringen want de consument gaat niet renderen met een renderfarm, de leken die dat wel doen kopen een quadcore en nemen daar genoegen mee. Wetenschappelijk onderzoek is voor de witte jassen, ik wil gamen. Je ziet ook dat men veel innovatiever wordt in die sectoren, hoe vaak zie je niet al clusters van PS3's die voor wat voor onderzoek dan ook aan elkaar gekoppeld worden ? Als dat interessanter is dan een lading nVidia producten kopen dan gebeurt dat, hoe erg je ook je best doen om een numbercruncher te produceren. Als je geld wilt verdienen en jezelf in de gameindustrie wilt begeven zul je gewoon een goeie scheiding moeten maken tussen je producten die gemaakt zijn voor de professionele markt en voor de gamesmarkt. Hoe meer je die zaken samensmelt hoe meer je als consument voor een kaart gaat betalen en hoe kleiner je aandeel in die markt zal worden. Mensen worden steeds prijsbewuster, het is tof dat producten van nVidia na verloop van tijd goedkoper worden, maar er zijn zat kaarten geweest die in dezelfde prestatieklasse zaten (ik ga niet muggeziften over 10fps als we het over 60+ hebben, dat wordt veel teveel gedaan, prijs/prestatie bestaat niet alleen meer uit het behalen van de hoogste fps maar ook uit het op acceptabel niveau kunnen doen van wat je wilt voor de scherpste prijs) die anderhalf tot twee keer zoveel kostten bij de launch dan een Ati kaart bij launch. Afgezien van de eventuele leverproblemen betaal ik nu al minder voor een 5870 bijvoorbeeld dan dat ik betaald heb voor mijn 8800GTS512 die ik in de week van de launch heb gekocht, dat vind ik een prestatie voor een kaart die misschien wel drie tot vier keer zoveel presteert als het om fps gaat.
Je hebt erg de neiging om alles wat nVidia doet de hemel in te prijzen, hoe nutteloos voor de consument ook en daarbij dan ook vooral te refereren naar de nutteloze functies van bijvoorbeeld een Ati kaart, maar Eyefinity is geen simpel multi-monitor management zoals Matrox dat doet en wordt zo ook niet in de markt gezet volgens mij. Eyefinity maakt het voor de consument mogelijk om op goeie fps met drie of zes monitoren tegelijk te kunnen gamen voor een hele scherpe prijs, jij weet net zo goed als ik dat je dat met een Matrox kaart niet kunt maar juist dat is belangrijk voor de verkoop van je producten, wat de doorsnee consument wil. Er komt een tijd dat ook nVidia afgerekend gaat worden door de consument en niet meer alleen gekocht wordt 'omdat het nVidia is'. Datzelfde zie je naar mijn mening ook met AMD gebeuren, steeds meer mensen die voorheen blind voor een Intel vanwege de naam gingen zie je budgetsystemen kopen met een AMD CPU. Ook de normale consument wordt steeds wijzer of heeft meer mensen in de omgeving die wel verstand hebben van prijs/prestatie. nVidia zal zich weer goed in de gamesmarkt moeten plaatsen met een goed product, mensen zullen niet blind een nVidia kaart kopen omdat het middel tegen de Mexicaanse griep is samengesteld op een computer die berekeningen deed met een nVidia kaart of omdat Shrek 4 gerendered is met een cluster van nVidia draaiende pc's.
Wie zegt dat de DP performance van GT300 beter is dan RV870? neem nVidia's 8x performancecijfer (fermi presentatie) en vermenigvuldig dat met de cijfers van GT200 en kijk eens waar je uitkomt
Miss you CJ....:'( en nee... ik kan niet aan samples komen
AmenKneoK schreef op maandag 19 oktober 2009 @ 15:20:
[...]
Je beschuldigt veel mensen van negeren van feiten, maar jij negeert naar mijn mening telkens 1 groot feit, ik wil als gamer de snelste videokaart voor de scherpste prijs. Ik wil niet betalen voor R&D kosten van een product dat in de game industrie gewoonweg niet gebruikt wordt en hoef geen dikke GPU die ook andere dingen kan die gewoonweg niet ondersteund worden. Ik vind het hartstikke opwindend om te lezen dat nVidia wellicht de raytrace kant op gaat, maar als dat niet binnen nu en een half jaar in spellen wordt opgenomen hebben we er in de huidige generatie videokaarten helemaal niets aan. PhysX is leuk maar wordt maar weinig ondersteund, zolang nVidia dit exclusief voor zichzelf houden blijft dit zo. PhysX werkt alleen op een redelijk highend product, hoeveel procent van de consumenten koopt een highend product ? En hoeveel van dat percentage gaat alsnog voor een Ati ? Dan zit je dus met een hele kleine club mensen die zoiets kunnen draaien en is het naar mijn mening voor een ontwikkelstudio gewoon een gimmick om samenwerking met nVidia te onderstrepen, niet om je als gamer enthousiast voor te maken.
Je hebt helemaal gelijk dat er andere markten zijn die heel veel aan bijvoorbeeld CUDA kunnen hebben maar dan sla je de plank wat mij betreft mis als je dat de consument gaat opdringen want de consument gaat niet renderen met een renderfarm, de leken die dat wel doen kopen een quadcore en nemen daar genoegen mee. Wetenschappelijk onderzoek is voor de witte jassen, ik wil gamen. Je ziet ook dat men veel innovatiever wordt in die sectoren, hoe vaak zie je niet al clusters van PS3's die voor wat voor onderzoek dan ook aan elkaar gekoppeld worden ? Als dat interessanter is dan een lading nVidia producten kopen dan gebeurt dat, hoe erg je ook je best doen om een numbercruncher te produceren. Als je geld wilt verdienen en jezelf in de gameindustrie wilt begeven zul je gewoon een goeie scheiding moeten maken tussen je producten die gemaakt zijn voor de professionele markt en voor de gamesmarkt. Hoe meer je die zaken samensmelt hoe meer je als consument voor een kaart gaat betalen en hoe kleiner je aandeel in die markt zal worden. Mensen worden steeds prijsbewuster, het is tof dat producten van nVidia na verloop van tijd goedkoper worden, maar er zijn zat kaarten geweest die in dezelfde prestatieklasse zaten (ik ga niet muggeziften over 10fps als we het over 60+ hebben, dat wordt veel teveel gedaan, prijs/prestatie bestaat niet alleen meer uit het behalen van de hoogste fps maar ook uit het op acceptabel niveau kunnen doen van wat je wilt voor de scherpste prijs) die anderhalf tot twee keer zoveel kostten bij de launch dan een Ati kaart bij launch. Afgezien van de eventuele leverproblemen betaal ik nu al minder voor een 5870 bijvoorbeeld dan dat ik betaald heb voor mijn 8800GTS512 die ik in de week van de launch heb gekocht, dat vind ik een prestatie voor een kaart die misschien wel drie tot vier keer zoveel presteert als het om fps gaat.
Je hebt erg de neiging om alles wat nVidia doet de hemel in te prijzen, hoe nutteloos voor de consument ook en daarbij dan ook vooral te refereren naar de nutteloze functies van bijvoorbeeld een Ati kaart, maar Eyefinity is geen simpel multi-monitor management zoals Matrox dat doet en wordt zo ook niet in de markt gezet volgens mij. Eyefinity maakt het voor de consument mogelijk om op goeie fps met drie of zes monitoren tegelijk te kunnen gamen voor een hele scherpe prijs, jij weet net zo goed als ik dat je dat met een Matrox kaart niet kunt maar juist dat is belangrijk voor de verkoop van je producten, wat de doorsnee consument wil. Er komt een tijd dat ook nVidia afgerekend gaat worden door de consument en niet meer alleen gekocht wordt 'omdat het nVidia is'. Datzelfde zie je naar mijn mening ook met AMD gebeuren, steeds meer mensen die voorheen blind voor een Intel vanwege de naam gingen zie je budgetsystemen kopen met een AMD CPU. Ook de normale consument wordt steeds wijzer of heeft meer mensen in de omgeving die wel verstand hebben van prijs/prestatie. nVidia zal zich weer goed in de gamesmarkt moeten plaatsen met een goed product, mensen zullen niet blind een nVidia kaart kopen omdat het middel tegen de Mexicaanse griep is samengesteld op een computer die berekeningen deed met een nVidia kaart of omdat Shrek 4 gerendered is met een cluster van nVidia draaiende pc's.
Verwijderd
en maken winst of geen winst. Er is geen betere of slechtere daar ben ik nu wel achter.
Voor iedereen is er wat en daar moeten wij het maar mee doen. En gelukkig is er keuze zat.
Vergeet niet dat wij maar een klein deel zijn en andere bedrijven het meeste geld gaat opleveren voor
dit soort bedrijven. En jah bij die bedrijven gaat het meestal om berekeningen en gebruiken niet eens een high en gaming kaart
[ Voor 47% gewijzigd door Verwijderd op 19-10-2009 15:36 ]
Verwijderd
Ik heb dat in ieder geval niet gezegd?neliz schreef op maandag 19 oktober 2009 @ 15:21:
[...]
Wie zegt dat de DP performance van GT300 beter is dan RV870? neem nVidia's 8x performancecijfer (fermi presentatie) en vermenigvuldig dat met de cijfers van GT200 en kijk eens waar je uitkomt
Maar de DP performance/ SP performance neemt wel flink toe voor Fermi tov GT200. Dat kost wel degelijk meer transistoren. Daar ging het om. De cGPU overhead is wel degelijk een belangrijke factor.
De beweging van Nvidia naar de HPC markt is al een paar jaar aan de gang. Nu leggen ze zo ontzettend de nadruk daarop ( in de presentatie is volgens mij geen enkele keer gesproken over games ). Ik heb mijn twijfels of je zowel de HPC als de gamemarkt met één ontwerp kunt bedienen.
[ Voor 20% gewijzigd door Verwijderd op 19-10-2009 15:46 ]
Zie Cheetah in "[nieuws] Nvidia en de toekomst" 2e deel.KneoK schreef op maandag 19 oktober 2009 @ 15:20:
Je beschuldigt veel mensen van negeren van feiten, maar jij negeert naar mijn mening telkens 1 groot feit, ik wil als gamer de snelste videokaart voor de scherpste prijs. Ik wil niet betalen voor R&D kosten van een product dat in de game industrie gewoonweg niet gebruikt wordt [...etc, etc...]
[ Voor 43% gewijzigd door Cheetah op 19-10-2009 15:45 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Vanavond heb ik de tijd om het op te ruimen en discussies af te splitsen, dus tot die tijd moeten jullie even wachten. Dit topic is enkel bedoelt om de situatie met betrekking tot Nvidia te bespreken, niet in te gaan op CUDA en andere technische zaken.
Het is de bedoeling om de grote topics te vervangen door individuele discussietopics, zodat niet alles door elkaar loopt. Helaas is de constatering dat dit topic het grote nvidia discussietopic aan het vervangen is, en dat is per definitie niet de bedoeling.
Discussies over algemene nvidia zaken mogen verder in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 40.
Discussies over Nvidia CUDA mogen in een nieuw topic. Als iemand bereid is dat te openen, dan mag hij (of zij
Wie wil er een CUDA topic openen? Dan lopen de discussies niet meer door elkaar
Aangezien je terug linkt, zie ik de vraag of ik als gamer het gevoel heb dat ik voor CUDA betaal, en mijn antwoord is: JA, want Hoe groot is een GTX 285? En hoe groot is een Ati 5870 (zelfde prijs klasse)? Nou als ik naar dat verschil kijk vind ik de nvidia kaart veeeelste groot... Hoe komt dat? Door verschillende structuren, maar waarom is de nVidia kaart nou zo groot, terwijl hij 30% langzamer is? Nou omdat ze ook stukken voor CUDA erin hebben gestopt, en als gamer verwaarloos je dat zwaar, en als je begint over PhysX, bijna geen enkel spel ondersteunt het (Ja ik weet dat als een nVidia kaart gebruiker), en dan in Batman.. Wie wil nou vliegend papier zien... Joehoee

Maar even weer ontopic: hopelijk komt nVidia met 2 structuren, een game kaart en een kaart voor CUDA, dan worden de kaarten sneller, efficienter, en hopelijk ook goedkoper... Met zo'n strategie zullen ze weer ijzersterk staan die nieuwe Fermi chips zijn naar mijn mening teveel op Cuda etc gericht.. De shaders heten zelfs Cuda cores nu..
Verder denk ik dat de high end fermi chips sneller zijn dan de 5870, maar dat nVidia dat weer op haar manier gaat aanpakken: Wij hebben preformance crown, doe maar even 100 euro erboven op....

[ Voor 22% gewijzigd door M4gick op 19-10-2009 19:30 ]
Dat denk ik niet, voor Fermi denk ik nog wel een HD5970 te zien.M4gick schreef op maandag 19 oktober 2009 @ 19:24:
Wij hebben preformance crown, doe maar even 100 euro erboven op....
Denk overigens wel dat Fermi sneller zal zijn dan Cypress XT, maar ben bang dat het prijs kaartje wat te hoog gaat zijn als je kijkt naar de game prestaties.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Ik herhaal het graag nog een keerVerwijderd schreef op maandag 19 oktober 2009 @ 15:13:
Toch wel hoor, DP performance, ECC geheugen, een CPU-achtige cache hierarchie. cGPU geeft echt een flinke overhead. Voor een goede analyse van Fermi ( en van Cypress ) raad ik iedereen trouwens aan om eens naar beyond3d.com te kijken.
Grappig detail zijn de benchmarks, dit is een door Nvidia uitgebrachte demo.
Een andere toepassingen van gpgpu is global illumination voor 3D games, dat wel degelijk enorm van een cache, concurrent kernel scheduling, en een sterkt toename van het aantal stream processoren profiteren kan.
ECC gaat Tesla only worden, dus daar betaalt de consument die een Geforce koopt niet voor.
Het gaat niet alleen om wat er daadwerkelijk aan kosten in zo'n kaart zitten, het gaat ook om het gevoel dat de consument daarbij krijgt. Als je van de toren blaast dat jouw kaart geweldig is omdat er zoveel toepassingen voor zijn dan krijgt de consument zonder meer de indruk dat ze daarvoor betalen, of het nu geïmplementeerd is in de gamesversie of niet. Ik heb me niet genoeg verdiept in de komende generatie nVidia kaarten, maar voorheen was een hele dure Quadro kaart gebaseerd op dezelfde core en werd daarmee ook geadverteerd. Een GT200 core in de Quadro en een GT200 in de GTX285 wekt voor de doorsnee consument de indruk dat beide kaarten dezelfde features hebben en dat de consument daar dus voor betaalt. Stel daartegenover dat concurrenten er minder over reppen en ook goeie resultaten boeken wat snelheid betreft voor wellicht een minder hoge prijs en je bent jezelf effectief uit de markt aan het prijzen. Jouw voorbeelden over renderfarmen en wetenschappelijke onderzoeken onderstrepen dat alleen maar, wie wil er nu betalen voor zoiets als ze alleen willen gamen ? Wie behalve een paar enthousiastelingen hebben het inzicht dat je verder moet kijken dan dat ? Een mogelijke oplossing is simpel, noem de één een GT200 en de ander een GQ200Pro of noem het in de ene kaart Hardware PhysX en in de professionele kaart CUDA.
Maar dit alles doet ook nog weinig af aan de huidige positie waarin nVidia zich begeeft, partners die zich in het andere kamp gaan begeven, te dure dies, lage yields, GPU leverproblemen. De consument bestaat niet alleen meer uit de mensen die een Dell of HP kopen, die zijn erachter dat je niet meer een compleet nieuwe pc hoeft te kopen voor zoonlief als die een nieuw spelletje wil spelen, die verwachten tegenwoordig dat ze zonder problemen een videokaart kunnen kopen en lezen zich in op internet, als ze wat doorklikken komen ze ook uit op artikelen die dit soort problemen aan de kaak stellen. Als je dan in de winkel komt en je kunt geen GTX285 kopen maar wel een Dell systeempje met dezelfde kaart dan voel je je genaaid en dat geeft weinig vertrouwen. Men komt thuis, leest nog wat meer, komt erachter dat er ook andere fabrikanten zijn die tegenwoordig voor een leuke prijs heel wat prestatie neerzetten, niet adverteren met allerlei ingewikkelde functies en nVidia is weer een klant armer.
Een zakelijke partner raak je minder snel kwijt, daar kun je je technische specs kwijt, die heeft wat aan al die mooie implementaties en daar zal vast meer winst zitten, maar als je daarmee de doorsnee consument verliest dan verlies je gewoon een substantieel marktaandeel. En dat zal zich uiteindelijk ook weer terugkoppelen naar je zakelijke markt, als de normale consument niets meer in een merk ziet dat jarenlang een dijk van een merk is geweest dan zal men in de zakelijke markt ook verder gaan kijken. Die hebben thuis ook een zoontje of dochtertje die zich wellicht interesseert in waar wij ons hier allemaal in interesseren, die komt met verhalen thuis waar de big chief van Chem Company X of Render Heroes Y naar luistert en zal in al zijn onwetendheid eens aan de kaak stellen wat hij op zijn bedrijf gebruikt aan hardware.
Overigens toch nog iets over bijvoorbeeld GI en raytracing, geen enkele maatschappij zal zich wagen aan spellen die alleen optimaal draaien op nVidia hardware, het zal allemaal DirectX compliant blijven, elk spel tot nu toe heeft dat bewezen, ook de TWIMTBP titels.
Je hebt ook een generatie consoles waar je rekening mee moet houden en iedereen schreeuwt moord en brand als een spel er op de ene console ietjses mooier uitziet, maar met toevoeging van GI en raytracing heb je zelfs twee totaal verschillend ogende games. Op de pc zal de verkoop van een spel halveren als je een nVidia kaart moet hebben voor dit soort implementaties, dit zijn zaken die een spel vele en vele malen realistischer kunnen maken, zo'n verschil kun je niet verantwoorden tegenover gebruikers van een ander merk videokaart en zal vrijwel niemand overhalen om dan maar voor nVidia te gaan, mensen voelen zich niet graag gedwongen iets aan te schaffen, die willen keus, kijk maar eens naar de hoeveelheid mensen die nu nog steeds schoppen tegen het breedbeeld principe of erger nog, HD, terwijl voor velen het nut daarvan zeker al bewezen is.
PhysX voegt in de huidige spellen zo weinig toe dat het gewoon een gimmick is, niemand heeft het idee echt iets te missen en zonder PhysX zien spellen er al wonderschoon uit, met geavanceerde rendertechnieken als GI en raytracing sla je een gigantisch gat als het om beeldkwaliteit gaat dus dit zal door alle grote spelers ondersteund moeten worden voordat een spelontwerper zich daaraan gaat wagen. Maar dan nog zitten we minstens twee generaties verder naar mijn mening voordat dit überhaupt geïmplementeerd zal gaan worden in nieuwe spellen. Dus feitelijk zit je dan met een nutteloze GPGPU implementatie waar de consument weer voor betaalt want ondanks al die mooie verhalen over wat er mogelijk zou kunnen zijn komt het er voor de consument thuis op neer dat hij in twee of drie titels per jaar iets meer rook of wat meer ronddwarrelende blaadjes ziet. Ik heb zelf een poos lang getwijfeld of ik een PhysX kaart van Ageia zou aanschaffen want UT3 had twee PhysX levels, heb eventjes gespeeld met de PhysX demo's van nVidia op mijn 8800GTS512 en later zelfs overwogen een nVidia kaart naast mijn Ati's te zetten puur voor de PhysX maar waarvoor ? Voor een demo met blokjes ? Voor Batman of een spel wat me totaal niet interesseert zoals Mirrors Edge ? Dat is me het geld gewoon niet waard.
De wat meer ingelezen consument ziet termen als DirectX 11 ondersteuning en titels die wellicht aan het eind van dit jaar al ondersteuning bieden daarvoor, die ziet rode kaarten die hetzelfde kosten als een GTX285 met hogere prestaties én DX11 ondersteuning, dáár moet nVidia z'n energie bijvoorbeeld in steken.
[ Voor 39% gewijzigd door KneoK op 19-10-2009 20:43 ]
Verwijderd
ATI heeft in zware tijden met HD2900 een makkelijk te produceren hd2600 en hd2400 gehad op 65nm. Hiermee hebben de veel OEM's deals gewonnen.Verwijderd schreef op maandag 19 oktober 2009 @ 11:46:
Dus ze kunnen zich niet redden zonder de snelste te zijn ? Ati heeft zich daarom ook nog makkelijk kunnen redden eerder er is dus helemaal geen nood voor nvidia mischien wel voor ons maar dat maakt niets uit. Geld zat ze zijn rijker dan amd ati lijkt mij?
nVidia heeft tot nu toe geen enkele 40nm product boven de 100mm2. GDDR5 nergens te bekennen.
Blijkbaar heeft ATI besloten HD57xx reeks te gebruiken om zelf te cashen, hiermee blijft de bestaansrecht van GTS 250 nog enigszins bestaan. Op het moment de HD5750 onder de 100 dollar wordt aangeboden gaan ook de huidige GTS250/240 kopje onder, in ieder gaval alle 55nm /GDDR3 modellen met 256bit bus.
Als nVidia op midrange nog een rol wil spelen moet het op zeer korte termijn op 40nm + GDDR5.
Op middel-lange termijn gaan zaken als CUDA e.d. pas een rol spelen.
GPGPU zal voor een enorme rekenkracht en stroombesparing in de HPC markt zorgen, deze markt is jaarlijks ongeveer 5 Miljard waard. Bekijk deze libary met toepassingen ook eens: http://www.nvidia.com/object/cuda_home.html# Cuda gaat over risk mangement, naar olie zoeken, weer modellen, etc, etc. Op dit moment wordt de HPC markt verdeelt door:
Intel x86 -> ~78%
Intel Itanium -> ~1%
AMD x86 -> ~8%
Power PC -> ~11%
(http://www.top500.org/)
Dat GPGPU de toekomst is weet Intel ook want daarom wordt Larrabee voornamelijk voor ontwikkeld, om niets prijs te hoeven geven aan de VGA fabrikanten van deze zeer interessante markt.
Bij Nvidia gaan er de laatste jaren erg veel resoures naar Cuda. Fermi is hiervan het resultaat als een product. Maar er zijn veel en veel meer dingen achter de schermen bezig. Nvidia is bezig een complete infra structuur om Cuda heen te bouwen. Er wordt op een leuk aantal universiteiten les in gegeven (http://maps.google.com/ma...161.641612,284.765625&z=2) wat wil zeggen dat de nieuwe generaties programmeurs vloeiend CUDA spreken. Deze generatie zal denken dat Cuda gelijk is aan GPGPU, zij weten niet dat er zoiets als OpenCL bestaat (kort door de bocht). NVidia heeft hetzelfde gedaan met de game developers, die maken nu allemaal deel uit van het TWISMTBP (of zoiets) en een soortgelijk truukje is nVidia aan het uithalen met alle GPGPU developers.
Elke keer als nVIdia over Cuda spreekt bedoelen ze eigenlijk Tesla: http://www.nvidia.com/object/tesla_computing_solutions.html. Dat elke programmeur het thuis op een GeForce kaart kan leren is leuk meegenomen.
[edit]
Overigens ik heb even de financiele jaar resultaten met NV (Q2) met AMD (Q3) vergelijken. NV komt volgende week met haar Q3 resultaten uit, kunnen we een eerlijke en up-to-date vergelijking maken.
AMD Q3: 1396 Miljoen turnover
waarvan:
- VGA 21% = 306 Miljoen turnover (22% up)
- Rest (CPU / Chipset) ... moet ik nog even uitsplitsen...
NVDA Q2: 777 Miljoen turnover
waarvan:
- VGA GeForce 48% = 372 Miljoen turnover (5% up)
- Chipset 31% =240 miljoen turnover (27% up)
- Tegra 6% = 46 miljoen turnover (300% up)
- Professional (Quadro + Tesla) 15% = 117 miljoen turnover (10% up)
ben cijfers nog even aan het dubbel checken, zelf even uit conf call transcript gehaald..
[edit2]
AMD segmenteert haar cijfers niet
http://seekingalpha.com/a...gs-call-transcript?page=1
Algemeen mag aangenomen worden dat de chipset business bij de Computing Solutions (CPU's) gerekend zal worden.

[ Voor 30% gewijzigd door The Source op 19-10-2009 22:16 ]
Ben ook benieuwd naar AMD's cijfers, overigens.
Verwijderd
Tja mijn ervaring als gamer is dat wat je ook koop ook wel iets is wat niet helemaal is wat het is .
Nvidia heeft cuda maar men vergeet zonder iets nieuws te proberen is er geen vooruit gang.
Doet me denk aan matrox die extra functie had in zijn kaart die verder geen enkele ati of nvidia kaart hadden .
Ik praat dus over de matrox g400 die echt leer maar ook goud en zilver via zijn hardware kon na maken .
De Environment Mapped Bump Mapping praten we hier over .
Dit was een geweldige techniek
Helaas niet iets wat standaard was.
Nu naar jaren word het wel gebruikt in games (max pain was zo geweldige game in die tijd)
Stukje tekst van wiki
The G400 chip supports, in hardware, a texture-based surface detailing method called Environment Mapped Bump Mapping (EMBM). EMBM was actually created by BitBoys Oy and licensed to Matrox. EMBM was not supported by several competitors such as NVIDIA's GeForce 256 through GeForce 2, which only supported the simpler Dot-3 BM, but was available on the ATI Radeon 7200. Due to this lack of industry-wide support, and its toll on the limited graphics hardware of the time, EMBM only saw limited use during G400's time. Only a few games supported the feature, such as Dungeon Keeper 2 and Millennium Soldier: Expendable. EMBM requires either specialized hardware within the chip for its calculations or a more flexible and programmable graphics pipeline, such as later DirectX 8.0 accelerators like the GeForce 3 and Radeon 8500.
Dus tja ook nvidia wil zijn techniek door drukken zodat het gebruik word.
En de enige manier is het door heen te drukken , douwen of zelfs support via hun hulp ondersteuning aan game ontwikkelaars .
Ik geloof ook dat cuda een stuk sterk techniek is waar wij maar topje van ijsberg zien .
Dus als nvidia slim is zorgen ze er voor dat cuda via de nvidia hardware ook blijft werken met een ati kaart er naast.
Ook moeten ze er voor zorgen dat er meer te zien is door gewoon de cpu nog meer te ontlasten .
Dat je dus met een lichte cpu met cuda gewoon een zware game kan gaan spelen.
Soms zijn de beste vrienden de vijand .
Op de universiteit Gent waren er vele gpgpu thesisonderwerpen die van OpenCL of CUDA of CS (naar de keuze van de student) gebruik zullen maken. Ik verwacht dus dat men in de vakgroep kennis van alle frameworks zal opbouwen, en misschien wordt dat in de toekomst omgezet in een keuzevak.
Ik kan me niet inbeelden dat het op andere universiteiten anders is. Cuda 2 lijkt trouwens zeer sterk op OpenCL, die kernels zijn dus makkelijk over te zetten. Aangezien OpenCL amd & nvidia & intel cpus en gpus ondersteunt is zullen veel onderzoekers hun programma's op alle hardware testen & evalueren, dat verbeterd zeker de kwaliteit van het onderzoek.
Momenteel zijn CPU-GPU vergelijkingen zeer moeilijk te maken. Veelal worden de wordt een slecht geoptimaliseerd single threaded cpu implementatie vergeleken met een volledig uitgeoptimaliseerd gpgpu implementatie, niet bepaald eerlijk, met OpenCL is dit geen probleem meer.
Ok, we gaan nu een bijna 1 jaar oude prev-gen 55nm GTX285 vergelijken met een 40nm ATi 5870 die net 3 weken uit is en daaruit conclusies trekken over die-sizes en CUDA en kosten die nV al dan niet doorrekent aan de consument. Ach ja, why not, we hebben al meer scheve vergelijkingen gezien, dus deze kan er ook wel bij... anders vergelijk je de HD5870 meteen met de 110nm 7800GTX, is je punt nog duidelijker... belachelijk grote chip tegen slechts 10% van de prestaties van de 5870M4gick schreef op maandag 19 oktober 2009 @ 19:24:
Aangezien je terug linkt, zie ik de vraag of ik als gamer het gevoel heb dat ik voor CUDA betaal, en mijn antwoord is: JA, want Hoe groot is een GTX 285? En hoe groot is een Ati 5870 (zelfde prijs klasse)?
Nou... ik denk dat het er meer mee te maken heeft dat het ontwerp waar hij op gebaseerd is (GT200) al 16 maanden op de markt is, en het ontwerp waarmee je vergelijkt net 3 weken. Maargoed, waarom probeer ik het ook eigenlijk...Nou als ik naar dat verschil kijk vind ik de nvidia kaart veeeelste groot... Hoe komt dat? Door verschillende structuren, maar waarom is de nVidia kaart nou zo groot, terwijl hij 30% langzamer is?
Het gevoel dat de consument krijgt, of het gevoel dat de consument middels desinformatie wordt gegeven? Zoals al toegelicht in de laatste alinea van de post waar ik naar linkte.KneoK schreef op maandag 19 oktober 2009 @ 20:05:
Het gaat niet alleen om wat er daadwerkelijk aan kosten in zo'n kaart zitten, het gaat ook om het gevoel dat de consument daarbij krijgt.
Dus als Microsoft Visual Studio DotNet market aan developpers krijgt de consument de indruk dat ze daarvoor betalen als ze Windows kopen, omdat Windows ook met Visual Studio ontwikkelde apps kan draaien?Als je van de toren blaast dat jouw kaart geweldig is omdat er zoveel toepassingen voor zijn dan krijgt de consument zonder meer de indruk dat ze daarvoor betalen, of het nu geïmplementeerd is in de gamesversie of niet.
Of, beter voorbeeld: als ze Windows Server 2010 aan de business gaan marketen krijgt de consument het idee dat zij daarvoor betalen als ze Windows7 Home Premium aanschaffen? Want hun Home Premium kan immers ook voor 98% dezelfde apps draaien als Server 2010
Dus als de consument een Intel Core processor koopt heeft hij de indruk voor de professionele Xeon lijn de kosten te betalen? Of als hij een Athlon koopt heeft hij de indruk voor de professionele Opteron lijn de kosten te betalen?Ik heb me niet genoeg verdiept in de komende generatie nVidia kaarten, maar voorheen was een hele dure Quadro kaart gebaseerd op dezelfde core en werd daarmee ook geadverteerd. Een GT200 core in de Quadro en een GT200 in de GTX285 wekt voor de doorsnee consument de indruk dat beide kaarten dezelfde features hebben en dat de consument daar dus voor betaalt.
Betreffende die strikte scheiding tussen zakelijke en consumentenproducten hoor ik gek genoeg niemand klagen dat Intel & AMD met hun microprocessors precies hetzelfde doen. Namelijk een consumentenlijn (Core, Athlon/Phenom) en een business-lijn (Xeon, Opteron) gebaseerd op exact hetzelfde ontwerp, zelfs met exact dezelfde processor-die's. Hoor je niemand over.
Neemt nV exact datzelfde businessmodel over dan begint men plotseling te stuiteren. Wonderlijk weer...
Hoe komt die gamer toch op het vreemde idee dat hij daarvoor betaald, en niet die professionele afnemers?Jouw voorbeelden over renderfarmen en wetenschappelijke onderzoeken onderstrepen dat alleen maar, wie wil er nu betalen voor zoiets als ze alleen willen gamen?
Gek genoeg snapt iedereen het probleemloos als de casus om Intel of AMD of Microsoft of etc draait. Ik begrijp niet waarom men het plots niet meer snapt wanneer het om nV gaat. Overigens kan ik het wel verklaren... zoals ik al schreef: Als je het mij vraagt heeft het gekerm over die-sizes en CUDA die dramatisch veel invloed zouden moeten hebben op de pricing van nV's game-line meer met FUD (desinformatie) van de tegenpartij te maken dan met realiteit... exact deze zelfde verhalen waren er ook bij achtereenvolgens G80, G92 en GT200. De gamer krijgt vooralsnog CUDA feitelijk kado, meeliftend met de zakelijke markt. Totdat ik zie dat nV qua pricing een totaal andere weg in slaat zie ik geen enkele reden om aan te nemen dat ze dat gaan doenWie behalve een paar enthousiastelingen hebben het inzicht dat je verder moet kijken dan dat ?
nV heeft al onderscheidende namen voor hun consumentenlijn en professionele lijnen: Geforce (consumenten), Quadro (professioneel) en Tesla (GPGPU specific).Een mogelijke oplossing is simpel, noem de één een GT200 en de ander een GQ200Pro of noem het in de ene kaart Hardware PhysX en in de professionele kaart CUDA.
Persoonlijk vind ik het ronduit verbijsterend dat mensen het feit dat nV CUDA/GPGPU ook ter beschikking stelt voor de consumentenlijn in plaats van het te limiteren tot de professionele lijnen als negatief ervaren. Prachtige casus om te laten zien hoe effectief desinformatie in werkelijkheid is: iets positiefs in de geest van de doelgroep effectief 180 graden gedraaid krijgen naar een negatieve perceptie.
[ Voor 6% gewijzigd door Cheetah op 20-10-2009 02:01 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
gelooft je nu echt dat de gt 380 voor 300 euro over de toog gaat?Cheetah schreef op dinsdag 20 oktober 2009 @ 01:35:
[...]
Ok, we gaan nu een bijna 1 jaar oude prev-gen 55nm GTX285 vergelijken met een 40nm ATi 5870 die net 3 weken uit is en daaruit conclusies trekken over die-sizes en CUDA en kosten die nV al dan niet doorrekent aan de consument. Ach ja, why not, we hebben al meer scheve vergelijkingen gezien, dus deze kan er ook wel bij... anders vergelijk je de HD5870 meteen met de 110nm 7800GTX, is je punt nog duidelijker... belachelijk grote chip tegen slechts 10% van de prestaties van de 5870
tja wie zijn schuld is het nu dat de G212, G214, G215 mislukt zijn xD[...]
Nou... ik denk dat het er meer mee te maken heeft dat het ontwerp waar hij op gebaseerd is (GT200) al 16 maanden op de markt is, en het ontwerp waarmee je vergelijkt net 3 weken. Maargoed, waarom probeer ik het ook eigenlijk...
de G216 en G218 zijn ook geen succes formule
Chewbacca defense?[...]
Het gevoel dat de consument krijgt, of het gevoel dat de consument middels desinformatie wordt gegeven? Zoals al toegelicht in de laatste alinea van de post waar ik naar linkte.
normale consumenten worden niet ge-adverteert over de professionele markt.[...]
Dus als Microsoft Visual Studio DotNet market aan developpers krijgt de consument de indruk dat ze daarvoor betalen als ze Windows kopen, omdat Windows ook met Visual Studio ontwikkelde apps kan draaien?
Of, beter voorbeeld: als ze Windows Server 2010 aan de business gaan marketen krijgt de consument het idee dat zij daarvoor betalen als ze Windows7 Home Premium aanschaffen? Want hun Home Premium kan immers ook voor 98% dezelfde apps draaien als Server 2010
Als je ECC, meerdere instructiesets, extra geheugenbandbreedte , technologie om meerdere cpu 's te gebruiken op 1 mobo etc... vergeet hebt ge gelijk. Je kan een desktop variant niet zomaar veranderen terwijl je nV kaarten makkelijk kan flashen.[...]
Dus als de consument een Intel Core processor koopt heeft hij de indruk voor de professionele Xeon lijn de kosten te betalen? Of als hij een Athlon koopt heeft hij de indruk voor de professionele Opteron lijn de kosten te betalen?
Betreffende die strikte scheiding tussen zakelijke en consumentenproducten hoor ik gek genoeg niemand klagen dat Intel & AMD met hun microprocessors precies hetzelfde doen. Namelijk een consumentenlijn (Core, Athlon/Phenom) en een business-lijn (Xeon, Opteron) gebaseerd op exact hetzelfde ontwerp, zelfs met exact dezelfde processor-die's. Hoor je niemand over.
Neemt nV exact datzelfde businessmodel over dan begint men plotseling te stuiteren. Wonderlijk weer...
nV zal natuurlijk de kostprijs van die "cuda cores" doorrekenen aan de consument ook al wordt die nooit gebruik/overbodig is.[...]
Hoe komt die gamer toch op het vreemde idee dat hij daarvoor betaald, en niet die professionele afnemers?
Echt ik ben zeker dat nV gelukkig zal zijn om alle kaarten met verlies te verkopen.[...]
Gek genoeg snapt iedereen het probleemloos als de casus om Intel of AMD of Microsoft of etc draait. Ik begrijp niet waarom men het plots niet meer snapt wanneer het om nV gaat. Overigens kan ik het wel verklaren... zoals ik al schreef: Als je het mij vraagt heeft het gekerm over die-sizes en CUDA die dramatisch veel invloed zouden moeten hebben op de pricing van nV's game-line meer met FUD (desinformatie) van de tegenpartij te maken dan met realiteit... exact deze zelfde verhalen waren er ook bij achtereenvolgens G80, G92 en GT200. De gamer krijgt vooralsnog CUDA feitelijk kado, meeliftend met de zakelijke markt. Totdat ik zie dat nV qua pricing een totaal andere weg in slaat zie ik geen enkele reden om aan te nemen dat ze dat gaan doen
btw je weet toch hoe wafers en yields werken?
Het probleem is dat je ook perfect GPGPU kan toepassen zonder de helft van je die op te offeren voor cuda cores[...]
nV heeft al onderscheidende namen voor hun consumentenlijn en professionele lijnen: Geforce (consumenten), Quadro (professioneel) en Tesla (GPGPU specific).
Persoonlijk vind ik het ronduit verbijsterend dat mensen het feit dat nV CUDA/GPGPU ook ter beschikking stelt voor de consumentenlijn in plaats van het te limiteren tot de professionele lijnen als negatief ervaren. Prachtige casus om te laten zien hoe effectief desinformatie in werkelijkheid is: iets positiefs in de geest van de doelgroep effectief 180 graden gedraaid krijgen naar een negatieve perceptie.
NEE, een consument heeft helemaal niets aan CUDA omdat het vrijwel niet geïmplementeerd gaat worden in spellen en daar koopt een consument een kaart voor, daar ontkom je gewoon op geen enkele manier aan. Je hebt het keer op keer over desinformatie en gebruikt andere rare termen om mensen op hun plaats te zetten maar dat vind ik helemaal niet nodig, er worden zat valide argumenten gegeven ook al passen die niet in jouw straatje.Cheetah schreef op dinsdag 20 oktober 2009 @ 01:35:
[...]
Ok, we gaan nu een bijna 1 jaar oude prev-gen 55nm GTX285 vergelijken met een 40nm ATi 5870 die net 3 weken uit is en daaruit conclusies trekken over die-sizes en CUDA en kosten die nV al dan niet doorrekent aan de consument. Ach ja, why not, we hebben al meer scheve vergelijkingen gezien, dus deze kan er ook wel bij... anders vergelijk je de HD5870 meteen met de 110nm 7800GTX, is je punt nog duidelijker... belachelijk grote chip tegen slechts 10% van de prestaties van de 5870
[...]
Nou... ik denk dat het er meer mee te maken heeft dat het ontwerp waar hij op gebaseerd is (GT200) al 16 maanden op de markt is, en het ontwerp waarmee je vergelijkt net 3 weken. Maargoed, waarom probeer ik het ook eigenlijk...
[...]
Het gevoel dat de consument krijgt, of het gevoel dat de consument middels desinformatie wordt gegeven? Zoals al toegelicht in de laatste alinea van de post waar ik naar linkte.
[...]
Dus als Microsoft Visual Studio DotNet market aan developpers krijgt de consument de indruk dat ze daarvoor betalen als ze Windows kopen, omdat Windows ook met Visual Studio ontwikkelde apps kan draaien?
Of, beter voorbeeld: als ze Windows Server 2010 aan de business gaan marketen krijgt de consument het idee dat zij daarvoor betalen als ze Windows7 Home Premium aanschaffen? Want hun Home Premium kan immers ook voor 98% dezelfde apps draaien als Server 2010![]()
[...]
Dus als de consument een Intel Core processor koopt heeft hij de indruk voor de professionele Xeon lijn de kosten te betalen? Of als hij een Athlon koopt heeft hij de indruk voor de professionele Opteron lijn de kosten te betalen?
Betreffende die strikte scheiding tussen zakelijke en consumentenproducten hoor ik gek genoeg niemand klagen dat Intel & AMD met hun microprocessors precies hetzelfde doen. Namelijk een consumentenlijn (Core, Athlon/Phenom) en een business-lijn (Xeon, Opteron) gebaseerd op exact hetzelfde ontwerp, zelfs met exact dezelfde processor-die's. Hoor je niemand over.
Neemt nV exact datzelfde businessmodel over dan begint men plotseling te stuiteren. Wonderlijk weer...
[...]
Hoe komt die gamer toch op het vreemde idee dat hij daarvoor betaald, en niet die professionele afnemers?
[...]
Gek genoeg snapt iedereen het probleemloos als de casus om Intel of AMD of Microsoft of etc draait. Ik begrijp niet waarom men het plots niet meer snapt wanneer het om nV gaat. Overigens kan ik het wel verklaren... zoals ik al schreef: Als je het mij vraagt heeft het gekerm over die-sizes en CUDA die dramatisch veel invloed zouden moeten hebben op de pricing van nV's game-line meer met FUD (desinformatie) van de tegenpartij te maken dan met realiteit... exact deze zelfde verhalen waren er ook bij achtereenvolgens G80, G92 en GT200. De gamer krijgt vooralsnog CUDA feitelijk kado, meeliftend met de zakelijke markt. Totdat ik zie dat nV qua pricing een totaal andere weg in slaat zie ik geen enkele reden om aan te nemen dat ze dat gaan doen
[...]
nV heeft al onderscheidende namen voor hun consumentenlijn en professionele lijnen: Geforce (consumenten), Quadro (professioneel) en Tesla (GPGPU specific).
Persoonlijk vind ik het ronduit verbijsterend dat mensen het feit dat nV CUDA/GPGPU ook ter beschikking stelt voor de consumentenlijn in plaats van het te limiteren tot de professionele lijnen als negatief ervaren. Prachtige casus om te laten zien hoe effectief desinformatie in werkelijkheid is: iets positiefs in de geest van de doelgroep effectief 180 graden gedraaid krijgen naar een negatieve perceptie.
M4gick maakt overigens helemaal geen scheve vergelijking want ook de 48xx serie had al een 40nm die-size, wellicht een van de redenen waarom zij nog wel kunnen leveren aan de consument in de komende maanden.
Met je rare vergelijking met Windows Server editie onderstreep je mijn argument alleen maar, op een met CUDA uitgeruste kaart kun je ook alles draaien alleen aan CUDA als extra heeft een consument gewoon weinig, ik heb echt zat argumenten gegeven om die bewering kracht bij te zetten, daar ga je een beetje aan voorbij. Een server editie van een OS bevat dan ook wel wat de desktop versie bevat, maar bevat ook features die simpelweg gebruikt worden in een veeleisende server omgeving, net zoals CUDA in de professionele markt wèl nut heeft. Mensen liften niet gratis mee op de professionele sector als ze features krijgen die ze als normale consument niet kunnen inzetten buiten hier en daar een demo'tje, features die ook aan de normale consument worden gepresenteerd. Mensen weten inmiddels het verschil tussen een desktop en een server, die weten aan de naam te zien exact dat ze de server editie thuis niet nodig hebben. Bij nVidia hebben ze vooralsnog geen keus, als je een flagship wilt dan doe je het er maar mee, maar dan wordt de kaart wel groter en verbruikt wellicht meer stroom dan nodig is en daar is ook het prijskaartje nog eens naar.
Als Corsair besluit vanaf nu hun DDR3 producten alleen nog maar uit te rusten met ECC zodat mensen dan kunnen meeliften op de professionele markt maar het geheugen daarmee wel iets duurder maken dan stapt iedereen gewoon massaal over op XMS of GEiL, easy as pie.
Met Visual Studio sla je de plank helemaal mis, het kunnen developen op een platform en het gebruik kunnen maken van de producten die uit zo´n platform rollen zijn twee totaal verschillende zaken, het developen kost geld, het gebruiken is gratis. Als Microsoft Visual Studio standaard in Windows had geïmplementeerd en Windows 200 Euro duurder had gemaakt dan had deze vergelijking misschien opgegaan.
Dat mensen het wel bij Intel en AMD snappen is omdat dat een hele andere sector is. Je moet mij ook het verschil tussen een V6 of V8 motor niet vragen, maar als ik een goedkopere V6 met gelijke PK's en vergelijkbare topsnelheid voor een lagere prijs kan kopen dan doe ik dat wellicht. Wat moet ik dan met een V8, da's toch allemaal marketing (zo denkt een consument) ? Als ik met een Ati kaart 150fps haal en met een nVidia kaart ook maar die is duurder, waarom dan voor de nVidia gaan ? CUDA is dan hetzelfde als de V8, de motor is groter, zuipt meer maar levert uiteindelijk dezelfde prestaties.
En daarbij heeft een consument in een normale computerwinkel (Computerland, Mycom, de Dixons wat mij betreft, zaken waar een normale consument komt om z'n spulletjes te halen) vaak helemaal geen keus om een Xeon of Opteron te kopen en worden helemaal niet geconfronteerd met dat soort zaken. En gek hè dat een server editie van een processor dezelfde features heeft als een desktop processor, het draait namelijk allemaal op dezelfde x86 architectuur, je geeft zelf al aan dat een Windows Server Editie in de kern helemaal niet verschilt met een desktop versie, compatibiliteit is dan het sleutelwoord.
Jij zegt dat mensen het kado krijgen, het spijt me maar het gros van de consumenten is het met je oneens omdat in het verleden is gebleken dat nVidia hele dure kaarten op de markt brengt. Als men dan nutteloze features meekrijgt dan vind men dat verdacht en of het nu desinformatie is of iets anders, als de consument de indruk krijgt dat ze betalen voor nutteloze features dan kijken ze verder. Desinformatie uit het andere kamp is overigens een beschuldiging die helemaal nergens naar gestaafd is volgens mij, want Ati juicht CUDA en vooral de PhysX kant daarvan alleen maar toe, ze hebben zelfs aangeboden het in een standaard implementatie te gieten, maar dat wil nVidia vooralsnog exclusief voor zichzelf houden.
Je doet net alsof het volgende flagship van nVidia 3 tientjes gaat kosten, maar je kunt minimaal op 300 tot 400 Euro rekenen, daar gaat het Jan Modaal om. Jij hebt echt een totaal verkeerd beeld van de normale consument. Een gamer wil rauwe snelheid, als de nieuwe nVidia kaart wat fps betreft 'maar' gelijk scoort vergeleken met een Ati kaart die goedkoper is dan weet de gamer tegenwoordig echt wel een keus te maken. We zitten ons niet meer te vergapen aan Dawn en kubusjes die met de snelheid van het licht op elkaar reageren, we willen Crysis op insane settings spelen met minimaal 4xAA en 16xAF. En Crysis draait op Havok volgens mij, dus aan CUDA heb je dan niets om maar een simpel voorbeeld te noemen.
Het gaat hier om de toekomst van nVidia, die-sizes, yields en dat soort zaken zijn dan wel belangrijk omdat je met hoge kosten zit als je die zaken meerekent. Een grotere die kost nVidia meer, zo simpel is het. Dat jij het gekerm noemt onderstreept alleen maar dat je je heel erg in een hoekje gedreven voelt. Dat hoeft helemaal niet, wij vallen je niet aan op je persoonlijkheid maar in mijn geval wel op je argumenten die naar mijn mening niet helemaal steek houden. Je reageert alsof ik en anderen aan het bashen zijn op nVidia, da's helemaal niet waar en helemaal mijn intentie niet, ik hoop zelfs dat nVidia met een oplossing komt die minstens net zo goed presteert als de huidige HD5870 en met implementatie van CUDA voor hetzelfde prijskaartje de deur uitgaat, maar da´s gewoon niet reëel om te verwachten. Als je je hoofd boven water wilt houden in de huidige economie dan moet je met klantgerichte oplossingen komen, Ati doet dat naar mijn mening op het moment veel beter want die zegt, hier heb je een kaart die twee keer zo snel is als de voorloper (5870 vs 4870 in dit geval) en die stop ik vol met features die je aan het eind van dit jaar al kunt gebruiken (DirectX 11). Oh ja, wil je meer dan 1 monitor aansluiten dan kan dat met de standaard editie, als je ook nog eens wilt gamen op meerdere monitoren dan hebben we ook nog een Eyefinity versie. Oh ja, en nog wat hardwareversnelling voor je HD fimlpjes. DIt alles bakken we op een proces die in het verleden al heeft uitgewezen dat die makkelijk leverbaar blijft. nVidia's antwoord is, hier, een kaart met veel teveel features on-die die we er niet uit kunnen slopen en waar nog geen duidelijk plan voor is maar waar wel toekomst in zit, dat beloven we, en dat gaan we voor het eerst doen op een lager procedé ! Innovatie is belangrijk maar niet zonder duidelijk plan om die innovatie uiteindelijk te gaan gebruiken. En nogmaals, je zult uiteindelijk mee moeten doen met de standaard, iets exclusief voor jezelf houden werkt niet in deze markt omdat je dan gewoonweg geen ondersteuning krijg vanuit productie studio´s omdat die zoveel mogelijk spellen willen verkopen en zeker niet vast willen zitten aan geavanceerde features die maar een paar procent van de bevolking kan gebruiken. Dan kom je niet meer weg met een TWIMTBP programma, dan kom je met een The Way It Will Exclusively Run On Our Hardware programma en daar heeft niemand iets aan.
En je slaat de huidige problemen ook gewoon nog steeds over, want mede door die die-size, de yields en andere zaken is nVidia niet eens meer in staat om op normaal niveau GPU's te kunnen leveren aan de consument. Ik zei het al eerder, ook de komende maanden zijn belangrijk als je op het punt staat iets te lanceren, als je consumenten nu moet teleurstellen door alleen nog videokaarten in een complete pc te bieden dan zakt het vertrouwen in en zijn mensen nog minder geneigd te gaan betalen voor iets wat zich nog moet bewijzen en waarvan ze het nut misschien helemaal niet inzien.
Het zou overigens wel prettig zijn als je niet in elke twee posts woorden gebruikt waarvan je de indruk hebt dat je die moet benadrukken met Wiki links
[ Voor 4% gewijzigd door KneoK op 20-10-2009 04:17 ]
Maakt dat iets uit? Zolang je niks weet van de real life perfomance is de hele discussie hierover totaal nutteloos.Verwijderd schreef op dinsdag 20 oktober 2009 @ 02:17:
[...]
gelooft je nu echt dat de gt 380 voor 300 euro over de toog gaat?
Cuda cores? Die ga je toch echt wel nodig hebben hoor cuda cores=stream processors, hetgeen overbodig isnV zal natuurlijk de kostprijs van die "cuda cores" doorrekenen aan de consument ook al wordt die nooit gebruik/overbodig is.
het vermogen om FP64 te doen in games en het feit dat die cores hun eigen cache L1/L2 cache krijgen, dat neemt véél meer ruimte in denk ik zo.
Wie spreekt er over verkopen met verlies? Enkel hun marges gaan lager liggen/zelfde niveau als met de GT200, blijkbaar is het rendabel om minder te verdienen op graphics vlak en wordt dat gecompenseerd zoals The Source aangeeft door nieuwe inkomsten uit hun nieuwe platform. Inkomsten die in de toekomst nog enorm kunnen toenemen als er een marktpoteniteel is van 5miljardEcht ik ben zeker dat nV gelukkig zal zijn om alle kaarten met verlies te verkopen.
btw je weet toch hoe wafers en yields werken?
Interessant, leg eens uit hoe jij dat zou aanpakken?Het probleem is dat je ook perfect GPGPU kan toepassen zonder de helft van je die op te offeren voor cuda cores
God does not play dice
En de cirkel is weer rond bij het punt dat ik opnieuw kan gaan uitleggen dat nV's Geforces qua pricing gelijk liggen aan gelijk performende ATi Radeon kaarten, iets wat al jaren het geval is. Weet je nog... HD4890 vs GTX275 en HD4870 1GB vs GTX260 c216? Die discussie gaan we wat mij (en de mods) betreft niet nogmaals overdoen.
Ik ben hier grondig klaar mee. Geloof wat je wilt geloven. Mijn voorbeelden rond business en consumer differentiatie waren glashelder, en zijn ook heel duidelijk toegepast. Als je denkt dat nV's business producten 100% identiek zijn aan hun consumer producten dan moet je je er eens wat beter in verdiepen. En ja, bij een redelijk deel ervan is dat - hardwaretechnisch! - vermoedelijk inderdaad zo, maar exact hetzelfde geldt voor AMD en Intel met hun Opterons en Xeons... en ATi met hun FireGL's... en WesternDigital met hun RE-lijn harddisks... En een hele rits andere bedrijven die zowel consumenten als professionele versies van hun producten leveren.
Verder blijf ik me verbazen over de gigantische ophef rond het feit dat nV wat die-size heeft ingeruimd om hun GPU's beter geschikt te maken voor GPGPU. Koopt iemand een nieuwe high-end gamepc dan gaat daar vrm een Core i7 in, waarvan 7 van de 8 threaths gedurende 75% van de tijd dat het ding aan staat liggen te slapen, en 4 van de 8 vermoedelijk zelfs gedurende 95% (of meer) van de tijd. In de business wordt veel beter gebruik gemaakt van die CPU, maar daar maakt niemand op de consumentenmarkt zich druk om.
Maar gebeurt er net zoiets (in mindere mate!) met een nV GPU dan worden de messen geslepen en de speren klaargezet voor all-out total war. Ik blijf me verbazen in deze threaths.
Maargoed, als je wilt geloven dat nV qua consumer en business differentiatie de gigantisch grote uitzondering is op de hele PC markt dan moet je dat gewoon doen...
De Geforce variant van de GT100 gaat vast en zeker 600 Euro kosten en levert daartegen slechts de helft van de gameprestaties van een HD5870. Da's namelijk precies wat we al jaren van nV gewend zijn nietwaar?

En wat betreft dat geklaag over die-sizes: voordat ATi's marketing daar een vergrootglas op legde en suggereerde dat nV consumenten meer moet rekenen voor een grotere die hoorde je er niemand over. Zie jij consumenten zich druk maken over of een Phenom II nou groter of kleiner is dan een Core i7? Waar ze zich druk om maken zijn 1.) prijs/performance en 2.) verbruik.
Wij hebben totaal geen inzicht in wat ATi en nV aan marges op hun chips pakken en wat zij exact voor prijsdeals met TSMC hebben. Daarnaast schuift nV zoals ik eerder al zei een grotere kwantiteit aan chips als ATi, en levert dezelfde chip op de zakelijke markt ze 5-10x zo veel geld op, waardoor we al helemaal geen inzicht hebben in wat er netto onder de streep gebeurd. Speculatie over of en hoe een die-size aan jou als consument doorgerekend wordt is dus gewoon zinloos.
[ Voor 16% gewijzigd door Cheetah op 20-10-2009 09:28 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
NV's toekomst ziet er niet slecht uit. De focus verschuift, maar ze zullen echt niet gek zijn om de userbase (gamers) te vergeten waardoor ze zo succesvol geworden zijn. Of de keuze om zo veel mogelijk markten te bestrijken met een enorme GPU de juiste is, zullen we pas over een tijdje weten. NV heeft zelf al aangegeven dat ze de RV770 erg onderschat hebben en dat de small-die strategie die AMD heeft toegepast erg slim is geweest. Ik zou er iig niet vreemd van op kijken als ze in de toekomst dezelfde kant op gaan, ondanks dat ze nu voor de buitenwereld blijven volhouden dat huge monolithic dies 'the way to go' zijn. In het verleden hebben ze immers ook altijd volgehouden dat een unified shader architecture niet nodig was en dat ze het zouden doen als de tijd rijp was.... en toen ineens was daar G80.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En daarbij gebruik ik wel enorm veel cuda
(Hoewel CUDA nog steeds niet echt support wordt bij filters .. as it should be ipv 6 uur lang werken op je cpu zou dat enorm gereduceerd kunnen worden, oude gpu filters dateren nog van het FX tijdperk en zijn daadwerkelijk trager dan gethreade cpu filters die werken op je zware quad core ;p)
--> Apart CUDA topic:: Ik wil het TS ook wel maken (begint een gewoonte te worden

Ten tweede vind ik persoonlijk (let op persoonlijk mening) dat alles samenhangt met elkaar .. playback, cuda, hybrid sli (stroombesparing) .. directX versie (yeah je gebruikt dat ook bij playback) enzoverder .. omdat allemaal op te splitsen is gelijk het signaal geven dat het allemaal los staat van elkaar wat in mijn ogen dus niet zo is.
Recentelijk voorbeeld, wss zullen verschillende functies van DirectX11 gewoon softwarematig uitgevoerd worden (wss door CUDA calls?) ipv hardware matig geïmplementeerd, of dit goede resultaten zal geven valt nog af te wachten wat wel al vast staat dat zo'n implementatie de flexibiliteit verhoogt maar ook de ontwikkelaar zal laten dwingen keuzees te maken. Het voordeel dat ik hierin zie dat je de gpu in principe altijd voor de volledige 100% kan benutten daar er geen onderdelen zijn die enkel bruikbaar zijn voor bepaalde functies.
Maar nu on-topic:
(Ik heb dit bericht nog niet zien gepost worden .. indien dat wel het geval is mijn excuses hiervoor..)
Dus voor de recente toekomst kan nVidia toch volgend jaar op genoeg inkomen rekenen in het begin van het jaar (voornamelijk door partners die nVidia-only zijn en dus weinig andere keuze hebben .. maar tochquote: Written by Fuad Abazovic Wednesday, 14 October 2009 09:46Nvidia partners order huge quantities of Fermi chips
Partners anticipate high success rate
Nvidia partners have high hopes that the company's GF100 / "GT300" / Fermi chip will end up as the excellent seller many enthusiasts have been hoping for and have already ordered some huge quantities of it.
The reasons behind such risky decisions is quite clear. The GT200 family is not as widely available anymore and it seems probable that someone at Nvidia messed up with 55nm wafer orders. We assume this mainly because Nvidia didn’t expect to have such strong demand in Q3 and Q4 and therefore partners are hoping that Fermi can remedy the situation.
On another note, supply partners have to be the early birds with their orders because once Nvidia shows its Fermi supply to the entire seller market, the waiting line to get chips might already be too long. It is not that Nvidia partners have much of a choice though, as the GT200 series is slowly being discontinued and Fermi is supposed to fill the gap.
Nvidia and its partners believe that Fermi should destroy Radeon HD 5870 and HD 5850 sales, but this is only after it starts shipping. Not to mention, this strongly depends on the supply quantities that Nvidia can deliver. Until then, ATI will be making quite a lot of money on its 58x0 and 57x0 series.
Ook qua toetkomst van nVidia toe is dit wel intressant: Een andere mogelijkheid om het probleem van het niet hebben van een x84 licentie op te lossen:
Opnieuw mijn excuses indien het al eerder is gepost geweest(maar opnieuw ik heb het niet zien passeren)
In de toekomst hele pc's/kleine laptops hebben die draaien op een nVidia GPU/geëmuleerde cpu solution zou ook wel nice zijn .. hebben we 3 concurrenten op de markt ipv 2 (Hoewel in mijn ogen het al gebleken is dat meer dan 2 niet goed afloopt in de cpu markt)quote: Written by Fuad Abazovic Tuesday, 13 October 2009 13:22Fermi could run an OS
Highly optimised one
Tony Tamasi, Senior Vice President for Content and Technology at Nvidia and the man responsible for the strategic direction of the company’s graphics processors has told Fudzilla that Fermi could run an OS.
Don’t get all that excited you cannot really run Windows on Fermi GT300-based GPU, but if you would make a heavily optimised Linux it could potentially run on Fermi. So tweakers, this will be a fun task for you.
This answer the question what is going on with Nvidia’s CPU as Fermi is a GPU that starts to get a lot of interesting features of a CPU which will surely help it in the computing world. Fermi won't replace a CPU as “you will need a CPU to run an OS” and this is what Jensen said more than once at Nvidia's GPU technology conference.
With this in mind, GT300 - Fermi is definitely something more than just a gaming chip called GPU, it’s a CGPU where C in our opinion should be stand for computation. We are sure that the new architecture that comes in roughly two years will get even more CPU features, if necessary.
Nu hij zegt natuurlijk wel dat er een cpu nodig is... maar als de gpu enorm veel cpu taken zou kunnen overnemen is bijvoorbeeld een VIA cpu meer dan genoeg genoeg
Allemaal speculaties natuurlijk maar daarvoor dient dit topic dan ook, behalve als iemand zijn glazen bol wil afstoffen natuurlijk
Verwijderd
Nee klopt allemaal wel maar wedden dat deze kaartjes gewoon verkocht worden van nvidia.Verwijderd schreef op maandag 19 oktober 2009 @ 20:29:
[...]
ATI heeft in zware tijden met HD2900 een makkelijk te produceren hd2600 en hd2400 gehad op 65nm. Hiermee hebben de veel OEM's deals gewonnen.
nVidia heeft tot nu toe geen enkele 40nm product boven de 100mm2. GDDR5 nergens te bekennen.
Blijkbaar heeft ATI besloten HD57xx reeks te gebruiken om zelf te cashen, hiermee blijft de bestaansrecht van GTS 250 nog enigszins bestaan. Op het moment de HD5750 onder de 100 dollar wordt aangeboden gaan ook de huidige GTS250/240 kopje onder, in ieder gaval alle 55nm /GDDR3 modellen met 256bit bus.
Als nVidia op midrange nog een rol wil spelen moet het op zeer korte termijn op 40nm + GDDR5.
Op middel-lange termijn gaan zaken als CUDA e.d. pas een rol spelen.
Ik weet zeker dat er heel wat kant en klare pc deze zogennaamde kloten kaarten krijgen waarom?
Precies het draag de naam nvidia. Nvidia is gewoon een marking naam
Gddr5 is trouwens helemaal geen must als je kijkt na nvidia die tot nu toe altijd nog de snelste kaart heeft geleverd of er iig in de buurt is van de snelste kaart. Gddr5 word nu pas ongeveer belangrijk omdat er nu ook hogere resolutie's worden gebruikt en zwaardere grafics. Maar het wil ook nog prima zonder gddr5 om de snelste kaart te maken.
Cuda/physx speeld nu al een rol in de bedrijven wereld dus iedereen die zegt dat het niets is hebben het bij het verkeerde eind. Wij als gamers hebben er mischien niets aan maar bedrijven wel die veel rekenkracht nodig zijn.
Zoals ziekenhuizen enzv wel weer. En deze markt is wel een stukje groter dan de gaming markt.
Verder kijkt de gemiddelde consument niet eens naar verkleinde chips en gddr.
Het zal de consument een worst zijn, iig het grootsdte gedeelte. Ze kijken wel naar de prestaties
meestal
[ Voor 10% gewijzigd door Verwijderd op 20-10-2009 09:53 ]
Do surprise me...?CJ schreef op dinsdag 20 oktober 2009 @ 09:45:
Speculatie hoeft niet zinloos te zijn. Er zijn hier genoeg mensen die enig inzicht zouden kunnen hebben op de marges en prijsdeals. Niet iedereen is completely clueless zoals je dat graag doet overkomen.
Als er hier al mensen zijn die concreet inzicht hebben in de prijsdeals van ATi en nV met TSMC, de exacte marges van ATi en nV op hun chips, kostprijzen, en de exacte kwantiteiten aan chips die geschoven worden dan zijn die mensen onderdeel van een zeer selecte groep werkzaam bij ATi of nV en wacht ze op staande voet ontslag als ze die info zomaar ff een forum op knallen.
In troebel water is het goed vissen. Vooral als allerlei FUD over nV die zogenaamd z'n consumerlijn 'te duur' zou pricen om de businesslijn te financieren de wereld in geslingerd wordt. Ik heb lang gedacht dat nV van de twee de sterkste was in marketing en propaganda, maar inmiddels ben ik danig aan het twijfelen...En speculatie houdt juist de discussie leuk op gang, alleen wordt die discussie de kiem in gesmoord doordat bepaalde meningen aan anderen worden opgedrongen alsof het the only truth is.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Deze viel me nog even op. Je geeft juist weer een perfect voorbeeld van desinformatie: de regendans van AMD rond CUDA en PhysX.KneoK schreef op dinsdag 20 oktober 2009 @ 04:02:
Desinformatie uit het andere kamp is overigens een beschuldiging die helemaal nergens naar gestaafd is volgens mij, want Ati juicht CUDA en vooral de PhysX kant daarvan alleen maar toe, ze hebben zelfs aangeboden het in een standaard implementatie te gieten, maar dat wil nVidia vooralsnog exclusief voor zichzelf houden.
AMD juicht het toe en nV is de grote boze boosdoener want die willen het alleen voor zichzelf houden, terwijl AMD heel grootmoedig heeft aangeboden om CUDA op hun kosten te porten naar OpenCL? Right, sure... wat hebben ze dat idee toch weer mooi weten over te brengen
AMD weigert in werkelijkheid CUDA te supporten, maar weet - in plaats van daar upfront voor uit te komen - het zo te draaien dat nV daar niet alleen de schuld van krijgt, maar tevens overkomt als De Grote Egoist. Da's nou precies desinformatie at work. Hoe het zit heb ik hier al uitgebreid uitgelegd, inclusief voorbeeld: Cheetah in "[nieuws] Nvidia en de toekomst".
[ Voor 13% gewijzigd door Cheetah op 20-10-2009 11:07 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Desinformatie werkt verder eigenlijk alleen als de doelgroep er open voor staat. En volgens mij is dat het geval als ik de forums zo scan. Het imago van NV heeft de afgelopen tijd een deuk opgelopen en dat is echt niet alleen aan AMD's aggressiever geworden PR/marketing strategie te wijten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Roepen mag, alleen dan hoor wel ik graag de feitelijke argumenten waarom mijn redenatie niet klopt, inclusief voorbeelden meegeroepenCJ schreef op dinsdag 20 oktober 2009 @ 11:21:
Deze discussie is al zo oud als dat er IHVs zijn die videokaarten op de markt brengen. Daar waar jij zegt dat AMD de boeman is, zouden anderen net zo goed kunnen gaan roepen dat jij succesvol gebrainwashed bent door NV's desinformatie campagnes (en dat NV erg sterk is op dat gebied weten we allemaal wel).
Ikke? Door een kleurloze volledig transparante als 't even kan...Het is maar net door welke kleur bril je het wilt bekijken.
Dat ben ik grotendeels wel met je eens. Mensen geloven wat ze willen geloven. Desinformatie werkt echter ook uitstekend door in informatieverstrekking bewust feiten achter te houden terwijl je weet dat de doelgroep niet op de hoogte is van alle feiten en (mede) daardoor slecht kan relativeren. En dat geldt nou net voor de gemiddelde consument. Da's exact hoe je hetze's kweekt. Zoals ik al schreef: in troebel water is het goed vissen.Desinformatie werkt verder eigenlijk alleen als de doelgroep er open voor staat. En volgens mij is dat het geval als ik de forums zo scan.
Charlie Demerjian c.s. timmert inderdaad ook weer flink aan de wegHet imago van NV heeft de afgelopen tijd een deuk opgelopen en dat is echt niet alleen aan AMD's aggressiever geworden PR/marketing strategie te wijten.
Waar gehakt wordt vallen er spaanders: aan beide kanten... je kunt deze echter ook van 1 partij onder een vergrootglas leggen en daar dan een wereldschokkend drama van maken... hangt er net van af wat je bedoelingen zijn.
[ Voor 11% gewijzigd door Cheetah op 20-10-2009 11:54 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Het grootste verschil is toch de busbreedte. GDDR3 vereist bij gelijke frequentie de dubbele busbreedte om dezelfde bandbreedte te halen. En die dubbele breedte moet je maar weg zien te krijgen in je GPU & PCB.Verwijderd schreef op dinsdag 20 oktober 2009 @ 09:46:
[...]
Gddr5 is trouwens helemaal geen must als je kijkt na nvidia die tot nu toe altijd nog de snelste kaart heeft geleverd of er iig in de buurt is van de snelste kaart. Gddr5 word nu pas ongeveer belangrijk omdat er nu ook hogere resolutie's worden gebruikt en zwaardere grafics. Maar het wil ook nog prima zonder gddr5 om de snelste kaart te maken.
Het verschil tussen 3 & 5 zie je dus niet zozeer prestaties, maar eerder in de prijs. Als nVidia kan besparen door er GDDR5 op te gooien, gaan ze dat asap doen.
Stel dat ze per se 512bit GDDR5 op Fermi willen gooien, zal dat niet bijdragen aan de betaalbaarheid. En het is nog maar de vraag of dat de beoogde prestatiewinst oplevert tov de kosten die daar voor nodig zijn in GPU & PCB. Je moet al die bandbreedte immers nog zinvol kunnen benutten.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Ik waag jouw standpunt in deze in twijfel te trekken.Cheetah schreef op dinsdag 20 oktober 2009 @ 10:52:
AMD weigert in werkelijkheid CUDA te supporten, maar weet - in plaats van daar upfront voor uit te komen - het zo te draaien dat nV daar niet alleen de schuld van krijgt, maar tevens overkomt als De Grote Egoist. Da's nou precies desinformatie at work. Hoe het zit heb ik hier al uitgebreid uitgelegd, inclusief voorbeeld: Cheetah in "[nieuws] Nvidia en de toekomst".
Iedereen weet dat voor het gebruik van CUDA een licentie afgenomen moet worden bij nVidia. Deze licentie is verre van gratis en ik denk dat er zelfs gerekend moet worden met dezelfde fee's als die voor SLI afgetikt moeten worden, een paar dollar per CUDA capabel apparaat.
Het hele standpunt dat AMD weigert CUDA/PhysX is een anekdotisch residu van dat verhaal over mensen die PhysX op ATI hardware hadden draaien. Niemand is daar ooit met 1 bit aan bewijs mee gekomen, maar NV marketing heeft dit wel netjes opgepikt en via diverse pionnen verspreid op het internet.
nVidia is geenszins van plan PhysX te ondersteunen op iets anders dan hun eigen GPU/PPU gezien de volgende officiële reacties:
http://www.rage3d.com/rev...ire_hd5770/index.php?p=10
http://www.rage3d.com/pre...nce_preview/index.php?p=4
Reputedly, nVidia posted in a public forum that they would welcome AMD to negotiate with them for a PhysX license. Here is a comment from AMD's Director of Advanced Technology Initiatives, Dave Hoff about this:
Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.
Recently an email purportedly from an nVidia customer care agent named 'Tory' has been doing the rounds , supposedly stating that 'PhysX is an open software standard that any company can freely develop hardware or software that supports it'. This is at odds to what has previously been heard, and Dave Hoff agrees:
I don't know if this e-mail is real or not, but itss certainly not correct. The PhysX license (anyone can download and see) specifically excludes development and running on anything other than nVidia GPUs, CPUs and consoles. And we've all read about the recent change in their drivers for anyone using ATI cards even for rendering.
So if their post on the forum for us to be able to now use PhysX is real, that seems like a substantial position change. It's interesting they didn't contact us directly and only posted this in a forum.
They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely.
Wie op dit moment met droge ogen kan beweren dat AMD zich weigert in te zetten om PhysX te ondersteunen op recente hardware van ATI, in samenwerking met nVidia zou echt eens bij zichzelf ten rade moeten gaan. nVidia maakt het zichzelf moeilijk. Wil je PhysX in de toekomst nog steeds een redelijk marktaandeel laten hebben, dan transporteer je dit naar een open platform (OCL) in plaats van het krampachtig in een gesloten platform te houden.While it would be easy to convert PhysX from CUDA to OpenCL so it could run on our cards, and I've offered our assistance to do this, I can just imagine PhysX will remain that one app that doesn't ever become open.
En dat is waar nVidia voor mij op dit moment de fout maakt. Het beperken van nut van PhysX op Alles wat niet nVidia is (lees, CPU op dit moment.) Dit is gewoon iets wat je achteraf naar in de kont kan bijten.
[ Voor 4% gewijzigd door dion_b op 20-10-2009 17:23 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Over die statement van AMD's Dave Hoff betreffende het voorstel om CUDA te porten naar OpenCL, waarvan ik al heb uitgelegd waarom nV dat uiteraard niet gaat toestaan, hebben we het eerder gehad.
Dave Hoff omzeilt trouwens het idee dat AMD CUDA gaat supporten.
Wat betreft AMD's weigering tot support voor CUDA: klik
http://www.tomsguide.com/us/AMD-PhysX-Havok,news-1950.html
In de conclusie Eran Badit's verhaal over het totaal gebrek aan medewerking van AMD bij het private initiatief (NGOHQ) tot enabelen van CUDA op ATi hardware, terwijl hij wel support kreeg van nV hiervoor.
En vrij recentelijk nog: klik
Daar staat trouwens nog een zeer duidelijke negatieve statement getekend AMD's Gary Silcott onder.
http://www.xbitlabs.com/n...ia_s_CUDA_Technology.html
http://www.theinquirer.ne...-won-nvidia-cuda-run-gpus
Er lijkt vooralsnog geen krul op AMD's hoofd dat denkt over CUDA support, en daarmee dus automatisch PhysX support. Dave Hoff ontwijkt het onderwerp door te gaan babbelen over ports naar OpenCL (die nV natuurlijk niet toestaat), en Gary Silcott komt er straight out voor uit dat ze bij AMD absoluut niet van plan zijn om CUDA op hun hardware te laten runnen (en dat dit dus de keuze/het standpunt van AMD hieromtrent is). Die is tenminste eerlijk, dat mag ik wel.AMD won't let Nvidia's CUDA run on its GPUs
Cuda is generally believed to be a fair bit better than Stream - although, obviously AMD begs to differ - with a multitude of developers having already put it to the test on hundreds of applications, which are already available. AMD, on the other hand, ‘boasts' a paltry five ISVs, two of which are also working with Cuda, and says a development driver for OCL will be out "Very soon". Nvidia's has already been released.
Still, for Cuda to be able to work on AMD GPUs, Nvidia would absolutely need AMD's support. Without it, Nvidia wouldn't be able to get low-level programming access to the GPU to develop the API. Even Nvidia admits that AMD would probably never allow this to happen. As for AMD, the company's point man on Stream seemed amazed we'd even asked.
AMD's Gary Silcott told the INQ "they [Nvidia] would intentionally damage performance to make Nvidia GPUs run the same app better." Then, perhaps thinking better of accusing Nvidia of hypothetical, yet outright, sabotage, Silcott added "Even if it wasn't intentional, it would not be optimized for our instruction set architecture like our own SDK."
[ Voor 4% gewijzigd door dion_b op 20-10-2009 17:20 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Hoewel ik het met je eens ben dat zo'n discussie te ver kan gaan vraag ik me af in hoeverre je dit kunt handhaven. Als de toekomst en strategie van een grote partij ter discussie staat ontkom je er niet aan om te kunnen en mogen refereren naar andere partijen die in jouw ogen een betere strategie hanteren.dion_b schreef op dinsdag 20 oktober 2009 @ 12:10:
[modbreak]**GENOEG**
Lees de topicwaarschuwing:
[...]
Als jullie niet in staat blijken om hier gehoor aan te geven gaat dit topic dicht en gaan de betrokkenen consequenties krijgen. Laat het aub niet zover komen :o[/modbreak]
@Cheetah >>> Je hebt gelijk, ik zal mijn volgende brainwash sessie met Ati cancellen
Je geeft hier denk ik zelf goed aan waar de scheidslijn te vinden is. Relevante vergelijkingen zijn prima. Doordrammen met een mening totdat anderen met opmerkingen als jouw laatste zin komen is dat zeer nadrukkelijk niet. Dat onderscheid is prima te maken en voor jou zo te zien ook duidelijkKneoK schreef op dinsdag 20 oktober 2009 @ 17:10:
[...]
Hoewel ik het met je eens ben dat zo'n discussie te ver kan gaan vraag ik me af in hoeverre je dit kunt handhaven. Als de toekomst en strategie van een grote partij ter discussie staat ontkom je er niet aan om te kunnen en mogen refereren naar andere partijen die in jouw ogen een betere strategie hanteren.
@Cheetah >>> Je hebt gelijk, ik zal mijn volgende brainwash sessie met Ati cancellen

Oslik blyat! Oslik!
Het monetaire gewin voor nVidia (AMD moet per GPU betalen) of het feit dat nVidia niet van plan is zijn broncodes openbaar te maken?
Dit alles kan herleid worden naar de onwil om hun grootste middleware publiekstrekker niet te converteren naar het OpenCL platform.
AMD zou niet verantwoordelijk moeten zijn voor een conversie naar OpenCL, dit zou door nVidia moeten gebeuren. Zelfs mensen met een intel GMA zouden voordeel kunnen gaan hebben als nVidia besluit PhsyX over te hevelen naar OpenCL.
Al met al vertraagd nVidia op dit moment innovatie door PhsyX te koppelen aan CUDA.
Zolang geld verlangd wordt voor CUDA zal dit niet op andere platformen draaien. Zolang PhsyX gekoppeld zit aan CUDA zal het niet op andere platformen draaien. Wat zou de publieke perceptie zijn van nVidia als zij PhysX beschikbaar stellen via OCL?
Dus AMD's standpunt hierin is compleet onbelangrijk, zolang nVidia de beide middlewares niet los van elkaar kan zien heeft geen andere partij hier invloed op. Of het nu AMD of INTEL, S3, SGX, ImageTech of god weet wie zou zijn, niemand kan PhysX of CUDA ondersteunen zonder een licentie te nemen en Fee's af te dragen voor iets wat binnenkort gratis beschikbaar is.
Op welke termijn denken jullie dat PhysX op OpenCL beschikbaar komt? Ik ben van mening dat dit toch gaat gebeuren ondanks de starre houding van nVidia op dit moment en dan weten we wie uiteindelijk gelijk heeft. Tot die tijd is de zwarte piet op de juiste plaats.
[ Voor 9% gewijzigd door neliz op 20-10-2009 17:27 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik denk dat het niet snel zal gebeuren, zolang ze er nog reclame mee kunnen maken... (PhysX by nVidia). Maar PhysX heeft geen toekomst zonder OpenCL, tenzij nVidia de developers een zak geld geven, zoals bij Batman (verbeter me als ik het mis heb), want waarom zou je extra werk in een game stoppen, als maar een deel ervan gebruik kan maken?neliz schreef op dinsdag 20 oktober 2009 @ 17:25:
Waar zou dit "gebrek aan medewerking" precies door komen?
Het monetaire gewin voor nVidia (AMD moet per GPU betalen) of het feit dat nVidia niet van plan is zijn broncodes openbaar te maken?
Dit alles kan herleid worden naar de onwil om hun grootste middleware publiekstrekker niet te converteren naar het OpenCL platform.
AMD zou niet verantwoordelijk moeten zijn voor een conversie naar OpenCL, dit zou door nVidia moeten gebeuren. Zelfs mensen met een intel GMA zouden voordeel kunnen gaan hebben als nVidia besluit PhsyX over te hevelen naar OpenCL.
Al met al vertraagd nVidia op dit moment innovatie door PhsyX te koppelen aan CUDA.
Zolang geld verlangd wordt voor CUDA zal dit niet op andere platformen draaien. Zolang PhsyX gekoppeld zit aan CUDA zal het niet op andere platformen draaien. Wat zou de publieke perceptie zijn van nVidia als zij PhysX beschikbaar stellen via OCL?
Dus AMD's standpunt hierin is compleet onbelangrijk, zolang nVidia de beide middlewares niet los van elkaar kan zien heeft geen andere partij hier invloed op. Of het nu AMD of INTEL, S3, SGX, ImageTech of god weet wie zou zijn, niemand kan PhysX of CUDA ondersteunen zonder een licentie te nemen en Fee's af te dragen voor iets wat binnenkort gratis beschikbaar is.
Op welke termijn denken jullie dat PhysX op OpenCL beschikbaar komt? Ik ben van mening dat dit toch gaat gebeuren ondanks de starre houding van nVidia op dit moment en dan weten we wie uiteindelijk gelijk heeft. Tot die tijd is de zwarte piet op de juiste plaats.
En nog even over CUDA, als Ati Cuda neemt, dan zal dat zeker wat kosten, zoals eerder gesuggereerd is, een paar euro (ik denk zelf aan 5-10) per kaart, het is dan wel logisch dat Ati dit niet accepteerd...
Ik weet niet of PhysX in die vorm beschikbaar gesteld zal worden in het OpenCL formaat, maar physics ondersteuning zal er komen. Je hebt nu al engines die het in mindere mate gewoon op de CPU doen zoals Havok, het voordeel van OpenCL is dat daar ook ruimte is om andere hardware in te zetten voor dit soort taken, dus dan zou je theoretisch een aantal cores van je toekomstige octacore kunnen inzetten voor deels physics gerelateerde zaken, wellicht kun je straks gewoon uniform shaders gaan inzetten daarvoor en is een complete engine in de die zoals CUDA overbodig.neliz schreef op dinsdag 20 oktober 2009 @ 17:25:
Waar zou dit "gebrek aan medewerking" precies door komen?
Het monetaire gewin voor nVidia (AMD moet per GPU betalen) of het feit dat nVidia niet van plan is zijn broncodes openbaar te maken?
Dit alles kan herleid worden naar de onwil om hun grootste middleware publiekstrekker niet te converteren naar het OpenCL platform.
AMD zou niet verantwoordelijk moeten zijn voor een conversie naar OpenCL, dit zou door nVidia moeten gebeuren. Zelfs mensen met een intel GMA zouden voordeel kunnen gaan hebben als nVidia besluit PhsyX over te hevelen naar OpenCL.
Al met al vertraagd nVidia op dit moment innovatie door PhsyX te koppelen aan CUDA.
Zolang geld verlangd wordt voor CUDA zal dit niet op andere platformen draaien. Zolang PhsyX gekoppeld zit aan CUDA zal het niet op andere platformen draaien. Wat zou de publieke perceptie zijn van nVidia als zij PhysX beschikbaar stellen via OCL?
Dus AMD's standpunt hierin is compleet onbelangrijk, zolang nVidia de beide middlewares niet los van elkaar kan zien heeft geen andere partij hier invloed op. Of het nu AMD of INTEL, S3, SGX, ImageTech of god weet wie zou zijn, niemand kan PhysX of CUDA ondersteunen zonder een licentie te nemen en Fee's af te dragen voor iets wat binnenkort gratis beschikbaar is.
Op welke termijn denken jullie dat PhysX op OpenCL beschikbaar komt? Ik ben van mening dat dit toch gaat gebeuren ondanks de starre houding van nVidia op dit moment en dan weten we wie uiteindelijk gelijk heeft. Tot die tijd is de zwarte piet op de juiste plaats.
In welke vorm dan ook denk ik dat het uiteindelijk voor de consument zelf alleen maar nadelig is dat nVidia deze techniek exclusief voor zichzelf houdt en ik blijf ook van mening dat je je producten dan duurder maakt dan nodig omdat er features opzitten die nu niet gebruikt worden en waarvan ook nog helemaal niet duidelijk is of dat in de toekomst wel zo zal zijn. Het is toch van de zotte dat je adverteert met zaken als het kunnen draaien van een OS op je GPU met de kanttekening dat het eigenlijk niet gaat zonder een enthousiaste groep tweakers ? Daarmee wek je bij je doelgroep alleen maar meer de indruk dat ze betalen voor iets wat nutteloos is, daar hej ik tog een pentiejum voor ?
Juist het kunnen draaien op diverse platformen haalt developers over dit soort zaken te implementeren zodat ze voor redelijk generieke hardware en voor elke generatie consoles kunnen developpen, als je die techniek voor jezelf houdt duurt het voor ons in onze huiskamer (of computerkamertje) veel langer voordat we het terug gaan zien in spellen terwijl de techniek al bestaat. Het doel van een spel is nog steeds om zoveel mogelijk verkocht te worden, als je functies implementeert die een aanzienlijk deel van je doelgroep niet kan gebruiken dan kun je rekenen op piraterij of andere vormen van verkoop ondermijning, waarom betalen voor een crippled product dat niet volledig op mijn Ati hardware tot zijn recht komt ?
Het is wat mij betreft nog steeds veel belangrijker voor nVidia om maatregelen te nemen tegen wat er op dit moment aan de hand is, de chipbakker die zijn chips niet meer kan leveren. Neem een stap terug, ga het proces na en zorg dat je met een chip komt die je kunt blijven leveren, zorg dat je daarmee vertrouwen wint bij je doelgroep en probeer de indruk te wekken dat je de beste bang for the buck wilt leveren en dring het publiek geen features op. Sla de innovatie dan een generatie over, Ati kaarten zijn op het moment razendpopulair vanwege de goeie prijs-prestatie verhouding en er zijn zelfs hier op GoT topics waar mensen elkaar tips geven om maar aan een nieuwe 58xx kaart te kunnen komen zonder ook maar enig uitzicht op echte physics onboard, ze hanteren naar mijn mening op het moment een veel betere strategie door zaken als Eyefinity als extra te kunnen leveren en de consument de keus te geven een kaart te kopen zonder Eyefinity en met Eyefinity in verschillende gradaties (3 of 6 monitor varianten). Wellicht moet nVidia terug naar de basis van Ageia en een add-on CUDA kaart produceren zodat mensen een nieuwe GTxxxx met en een GTxxxx zonder CUDA kunnen kopen met later de keus alsnog voor een zachte prijs CUDA ondersteuning te geven en op die manier kun je ook nog eens geld verdienen aan de Ati aanhang, want als CUDA zich wel heeft bewezen zal iemand die net 300 Euro voor een 5890 (ik noem maar iets) toch nog even wachten weer datzelfde bedrag neer te tikken voor een volledige videokaart maar wellicht kun je die mensen wel 100Euro afhandig maken met een add-on kaartje. Dan kun je in de add-on kaart een hoop professionele features uitschakelen om je zakelijke markt toch over te halen een full-fledged CUDA Quadro te kopen in plaats van met een IGP´tje en add-on CUDA kaart te prutsen.
In veel nieuwsberichten lees ik ook dat de nieuwe GF100 weer een grote die wordt, dan loop je het risico weer dezelfde problemen als nu te krijgen op termijn. Ook lees ik veel dat de nieuwe kaart weer een echte stroomvreter gaat worden (geen idee of het waar is maar over 300Watt of meer wordt gesproken). Dat is ook iets waarmee ze achterlopen op concurrenten die proberen met elke generatie weer wat Watts te besparen. Ook zeer belangrijk in deze tijden.
[ Voor 6% gewijzigd door KneoK op 20-10-2009 18:47 ]
Verwijderd
Merknaam is een groot goed, dat zal nVidia de komende tijd ook vol inzetten als "damage-control". Merknaam is daarnaast een psychologische kwestie, dat houd dus ook in dat het z'n effect kan verliezen. Als nVidia te lang afwezig is in de high-end kan het snel afbrokkelen. Vooral aangezien de naam word geassocieerd met "snelheid".Verwijderd schreef op dinsdag 20 oktober 2009 @ 09:46:
[...]
Nee klopt allemaal wel maar wedden dat deze kaartjes gewoon verkocht worden van nvidia.
Ik weet zeker dat er heel wat kant en klare pc deze zogennaamde kloten kaarten krijgen waarom?
Precies het draag de naam nvidia. Nvidia is gewoon een marking naam
Gddr5 is trouwens helemaal geen must als je kijkt na nvidia die tot nu toe altijd nog de snelste kaart heeft geleverd of er iig in de buurt is van de snelste kaart. Gddr5 word nu pas ongeveer belangrijk omdat er nu ook hogere resolutie's worden gebruikt en zwaardere grafics. Maar het wil ook nog prima zonder gddr5 om de snelste kaart te maken.
Cuda/physx speeld nu al een rol in de bedrijven wereld dus iedereen die zegt dat het niets is hebben het bij het verkeerde eind. Wij als gamers hebben er mischien niets aan maar bedrijven wel die veel rekenkracht nodig zijn.
Zoals ziekenhuizen enzv wel weer. En deze markt is wel een stukje groter dan de gaming markt.
Verder kijkt de gemiddelde consument niet eens naar verkleinde chips en gddr.
Het zal de consument een worst zijn, iig het grootsdte gedeelte. Ze kijken wel naar de prestaties
meestal
Een gerenommeerd bedrijf als nVidia weet dit donders goed, en zal ook weten dat merknaam geen blijvend fundament is op bedrijfsvoering. Het is een hoog technologisch bedrijf dat 100% afhankelijk is van hun technologische staat. Voor een blijvend succes zullen ze hoe dan ook waar moeten maken, anders eindigt het in hetzelfde rijtje als Voodoo, wat overigens ook ooit een grote naam was...
M.b.t. GDDR5 is het heel simpel; of dezelfde bandbreedte voor de helft van de prijs, of dubbelde bandbreedte voor dezelfde prijs.
Ik geloof dat op dit moment een 1Ghz Gddr5 (4GHz effectief) chip ongeveer hetzelfde kost als één chip van 1Ghz Gddr3 (2Ghz effectief). Bedenk goed dat elke chip maximaal 32 bit bandbreedte kan bieden, voor een 256bits bus zijn 8 chips minimaal vereist, een 512bit bus minimaal 16 chips.
Dat een HD5870 met 256bit GDDR5 50% sneller is dan GTX285 met 512 bits GDDR3 zegt genoeg over de power van GDDR5. En waarschijnlijk is de HD5870 ook nog goedkoper te produceren.
Sterker nog; 128bits HD5770 kan zich meten met met een 448 bits GTX260, geen wonder dat nVidia deze moet terugtrekken. (om even te zwijgen over die-size verschillen

Verwijderd
Er zou wel wat aan de hand zijn als nvidia het alleen met high end kaarten alleen voor gaming moesten gaan doen.
Maar goed de grootste markt zit in berekeningen dus no problemo. Gewoon nuchter denken en niet alleen aan gaming en ons. Kijk maar over 6 maanden weer, nvidia is een steerk bedrijf en het kan hiet eens zo diep zakken als voodoo zelfs niet als het nog eens 50% slechter gaat over een half jaar
[ Voor 48% gewijzigd door Verwijderd op 20-10-2009 21:08 ]
Verwijderd
Je gaf eerder zelf aan dat de naam nVidia vooral is gevormd door high-end. En bedenk goed dat technologische achterstand in budget en mainstream net zo schadelijk is dan in high end. Misschien zelf schadelijker omdat daar normaliter de marges wat krapper zijn.Verwijderd schreef op dinsdag 20 oktober 2009 @ 21:02:
Klopt allemaal wel voor ons die er mee bezig zijn maar 98% is daar gewoon niet mee bezig wat wel en wat niet word gebruikt. Ik weet zeker dat nvidia geen schade zal oplopen en dat er in de hw wereld te veel vooruit word gedenkt als consumenten die er wel mee bezig zijn. Voor nvidia zelf is er niets aan het handje qwa inkomen.
Er zou wel wat aan de hand zijn als nvidia het alleen met high end kaarten alleen voor gaming moesten gaan doen.
Maar goed de grootste markt zit in berekeningen dus no problemo. Gewoon nuchter denken en niet alleen aan gaming en ons. Kijk maar over 6 maanden weer, nvidia is een steerk bedrijf en het kan hiet eens zo diep zakken als voodoo zelfs niet als het nog eens 50% slechter gaat over een half jaar
M.b.t. berekeningen zou het idd kunnen dat deze markt zeer groot is, neemt niet weg dat ze eerst een kaart moeten produceren voordat deze verkocht kan worden. En buiten het feit dat CUDA / OCL strijd nog lang niet beslecht is, zullen de 5+ Tflops van Hemlock mits geoptimaliseerd toch ook ergens naar buiten moeten treden.
Ik vind dat nVidia hoe dan ook zeer grote risico's neemt met de huidige strategie, en zoals je al zei, over 6 maanden zien we wel weer.
Ati heeft al een tijd het voordeel gehad dat zij op een kleiner procedé produceren en gddr5 icm goedkoper pcb hadden t.o.v. nvidia die met een groter productie procedé zit, duurder pcb vanwege gddr3 en er ook nog eens CUDA bij inbakten. Nvidia zou dus een drie dubbel nadeel hebben (yields en chip design even buiten beschouwing gelaten), maar toch wist nvidia de gpu's redelijk vergelijkbaar te prijzen met ati. Dit bewijst al dat er nog andere factoren een rol spelen bij de prijs voor de consument want nvidia verkocht haar kaarten echt niet met verlies.
En hoeveel 'te groot' zijn de nvidia chips dan werkelijk door bepaalde extra features? Ik krijg namelijk het idee dat dit nogal erg opgeblazen is door de media/ati. De ati kaart is dan ook 'te groot' door eye finity want dat gebruiken de meeste mensen ook niet.
Verder kan men hier wel claimen dat nvidia CUDA eruit moet slopen voor de consumenten, maar het is misschien kosten technisch helemaal niet interessant om je producten gamma te verdubbelen door niet cuda en wel cuda producten te maken. Als ik een auto koop krijg ik er ook bijvoorbeeld een asbak bij terwijl ik helemaal niet rook. Betaal ik dan te veel? Qua materiaal misschien wel, maar qua andere kosten zou een auto zonder die extra features misschien wel 1000 euro duurder worden omdat men een veel ingewikkeldere productieplanning, materiaal voorraad etc. nodig heeft om een auto te maken zonder de extra's die ik niet wil.
CUDA is een beetje de kip met de gouden eieren voor nvidia omdat de zakelijke markt veel meer bereid is te betalen voor een gpu en potentieel een enorm grote markt is. CUDA gratis via opencl aan ati geven is hetzelfde als de kip met de gouden eieren slachten. Nvidia heeft veel R&D geld in CUDA zitten en dat hoeft ati dan niet meer uit te geven, dus het is ook niet meer dan logisch dat nvidia licentie gelden voor CUDA vraagt. Je kunt dus niet stellen dat nvidia ati er van weerhoudt om CUDA te gaan gebruiken. Enige waar je over kunt vallen is de hoogte van de licentie kosten en de duur daarvan, maar daar kun je over onderhandelen. Echter ati wil daar helemaal niet aan mee doen! Ja sorry maar dan moet je ook niet zeuren en zelf snel met iets komen en niet de schuld bij nvidia leggen. Want van welke wereld ben je wel niet als je denkt dat nvidia het gratis via opencl gaat vrij geven. Een gesloten techniek zoals CUDA hoeft niet per se nadelig te zijn voor de consument. Een bedrijf steekt geld in R&D en zal dit ook willen terug verdienen. Als de concurrent er zo mee vandoor kan gaan is het ook niet meer interessant om geld in R&D te stoppen en houdt de ontwikkeling helemaal op. Licenties op bepaalde technologie tussen bedrijven zijn heel normaal, kijk bijvoorbeeld maar naar intel vs amd. Ati en nvidia zouden elkaar ook kunnen 'betalen' door bepaalde technologie uit te wisselen in plaats van geld.
Bedenk ook dat het niet alleen om CUDA als techniek gaat maar ook als netwerk/klantenbestand en wat er allemaal al niet voor ontwikkeld is de afgelopen jaren. Dit vertegenwoordigd ook een grote waarde buiten de techniek zelf om. Ati kan wel een eigen variant op CUDA maken maar zonder dat netwerk etc. heeft het lang niet zoveel waarde.
Hypothetisch zou je kunnen stellen dat de prijs van de gpu's van zowel nvidia als ati naar beneden kunnen als ati een licentie op CUDA/Physics neemt. Er wordt dan immers maar eenmaal R&D geld uitgegeven (en gedeeld over meer gpu's) in plaats van dat beide spelers een eigen implementatie ontwikkelen. Ati hoeft het wiel niet nog eens opnieuw uit te vinden. Misschien is het wel slim om CUDA en physics te scheiden en zo de kosten van een licentie te verlagen voor ati als ze verder niks in CUDA zien.
Je hebt wel een beetje gelijk, maar met die asbak, zo mag je dat niet vergelijken, een asbak is een klein en niet essentieel deel van een auto, terwijl CUDA voor nVidia best groot is, betere vergelijking is een auto, zonder achterbank, want je hebt geen kinderen. Je gebruikt de achterbank toch niet, en het scheelt in de kosten, omdat je een kleinere auto kan krijgen, als je een achterbank hebt, zul je die soms gebruiken (PhysX), maar dat is niet heel vaak.Rutger Mulder schreef op dinsdag 20 oktober 2009 @ 22:16:
Ik denk dat een aantal mensen hier nodig een cursus kostprijs berekenen nodig hebben, want de variabele kosten aan o.a. materiaal (de die-size) is niet het enige wat de prijs bepaald. De vaste kosten van bijvoorbeeld R&D kunnen namelijk over een veel groter aantal producten verspreid worden als nvidia ook de zeer grote zakelijke markt erbij trekt met CUDA. Het is gewoon een gecompliceerd verhaal wat je niet simpel kunt af doen door te stellen dat een grotere die-size de consument qua prijs benadeeld.
Ati heeft al een tijd het voordeel gehad dat zij op een kleiner procedé produceren en gddr5 icm goedkoper pcb hadden t.o.v. nvidia die met een groter productie procedé zit, duurder pcb vanwege gddr3 en er ook nog eens CUDA bij inbakten. Nvidia zou dus een drie dubbel nadeel hebben (yields en chip design even buiten beschouwing gelaten), maar toch wist nvidia de gpu's redelijk vergelijkbaar te prijzen met ati. Dit bewijst al dat er nog andere factoren een rol spelen bij de prijs voor de consument want nvidia verkocht haar kaarten echt niet met verlies.
En hoeveel 'te groot' zijn de nvidia chips dan werkelijk door bepaalde extra features? Ik krijg namelijk het idee dat dit nogal erg opgeblazen is door de media/ati. De ati kaart is dan ook 'te groot' door eye finity want dat gebruiken de meeste mensen ook niet.
Verder kan men hier wel claimen dat nvidia CUDA eruit moet slopen voor de consumenten, maar het is misschien kosten technisch helemaal niet interessant om je producten gamma te verdubbelen door niet cuda en wel cuda producten te maken. Als ik een auto koop krijg ik er ook bijvoorbeeld een asbak bij terwijl ik helemaal niet rook. Betaal ik dan te veel? Qua materiaal misschien wel, maar qua andere kosten zou een auto zonder die extra features misschien wel 1000 euro duurder worden omdat men een veel ingewikkeldere productieplanning, materiaal voorraad etc. nodig heeft om een auto te maken zonder de extra's die ik niet wil.
CUDA is een beetje de kip met de gouden eieren voor nvidia omdat de zakelijke markt veel meer bereid is te betalen voor een gpu en potentieel een enorm grote markt is. CUDA gratis via opencl aan ati geven is hetzelfde als de kip met de gouden eieren slachten. Nvidia heeft veel R&D geld in CUDA zitten en dat hoeft ati dan niet meer uit te geven, dus het is ook niet meer dan logisch dat nvidia licentie gelden voor CUDA vraagt. Je kunt dus niet stellen dat nvidia ati er van weerhoudt om CUDA te gaan gebruiken. Enige waar je over kunt vallen is de hoogte van de licentie kosten en de duur daarvan, maar daar kun je over onderhandelen. Echter ati wil daar helemaal niet aan mee doen! Ja sorry maar dan moet je ook niet zeuren en zelf snel met iets komen en niet de schuld bij nvidia leggen. Want van welke wereld ben je wel niet als je denkt dat nvidia het gratis via opencl gaat vrij geven. Een gesloten techniek zoals CUDA hoeft niet per se nadelig te zijn voor de consument. Een bedrijf steekt geld in R&D en zal dit ook willen terug verdienen. Als de concurrent er zo mee vandoor kan gaan is het ook niet meer interessant om geld in R&D te stoppen en houdt de ontwikkeling helemaal op. Licenties op bepaalde technologie tussen bedrijven zijn heel normaal, kijk bijvoorbeeld maar naar intel vs amd. Ati en nvidia zouden elkaar ook kunnen 'betalen' door bepaalde technologie uit te wisselen in plaats van geld.
Bedenk ook dat het niet alleen om CUDA als techniek gaat maar ook als netwerk/klantenbestand en wat er allemaal al niet voor ontwikkeld is de afgelopen jaren. Dit vertegenwoordigd ook een grote waarde buiten de techniek zelf om. Ati kan wel een eigen variant op CUDA maken maar zonder dat netwerk etc. heeft het lang niet zoveel waarde.
Hypothetisch zou je kunnen stellen dat de prijs van de gpu's van zowel nvidia als ati naar beneden kunnen als ati een licentie op CUDA/Physics neemt. Er wordt dan immers maar eenmaal R&D geld uitgegeven (en gedeeld over meer gpu's) in plaats van dat beide spelers een eigen implementatie ontwikkelen. Ati hoeft het wiel niet nog eens opnieuw uit te vinden. Misschien is het wel slim om CUDA en physics te scheiden en zo de kosten van een licentie te verlagen voor ati als ze verder niks in CUDA zien.
Het klopt verder wel, dat nVidia CUDA niet wil geven aan Ati, ze hebben er immers veel geld in gestopt, maar stel je een voor; je bent 15 en een gamer, en je hebt een 24" beeldscherm
Bij nVidia is het de laatste tijd veel geweest om groot, groter, grootst (8800, 200, 300), waardoor je grotere en duuredere kaarten krijgt. Mijn vraag is, waarom? Ik bedoel ati doet het zelfde met een 256 bits bus, als nVidia met een 448/512 bit bus... (4870/4890 vs Gtx 275, 280). Dus concludeer ik dat of nVidia veel stopt in CUDA, of dat hun structuur gewoon te veel gericht is op groot, groter, grootst, waardoor de consument de meerprijs weer moet betalen.... nVidia moet dit gewoon veranderen in de toekomst, wil het met Ati mee willen gaan in de high end markt, die kaarten worden anders alleen maar verlies.
De kaart is al drie jaar geleden 'bedacht'.M4gick schreef op woensdag 21 oktober 2009 @ 11:28:
Bij nVidia is het de laatste tijd veel geweest om groot, groter, grootst (8800, 200, 300), waardoor je grotere en duuredere kaarten krijgt. Mijn vraag is, waarom? Ik bedoel ati doet het zelfde met een 256 bits bus, als nVidia met een 448/512 bit bus... (4870/4890 vs Gtx 275, 280).
Als GDDR5 nou eens niet goed te produceren was of er was iets anders mis mee geweest. Dan had waarschijnlijk iedereen geroepen waarom had ATi geen 512bit bus. Dan had je misschien de HD4870 nooit gezien in de huidige vorm, maar met misschien wel met GDDR3 of GDDR4.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dan zijn ze een beetje sloom?-The_Mask- schreef op woensdag 21 oktober 2009 @ 15:07:
[...]
De kaart is al drie jaar geleden 'bedacht'.
Als GDDR5 nou eens niet goed te produceren was of er was iets anders mis mee geweest. Dan had waarschijnlijk iedereen geroepen waarom had ATi geen 512bit bus. Dan had je misschien de HD4870 nooit gezien in de huidige vorm, maar met misschien wel met GDDR3 of GDDR4.

Onzin, door de bus te verbreden komt er meer bandbreedte uitrollen, en los je dus het mhz probleem op.
(2ghz DDR3 + 512bit = 4ghz DDR5 + 256bit)
Nee, ik bedoelde dat ze sloom zijn met het adopteren van GDDR5, misschien een beetje verwarrend uitgelegd.spNk schreef op woensdag 21 oktober 2009 @ 15:26:
[...]
Onzin, door de bus te verbreden komt er meer bandbreedte uitrollen, en los je dus het mhz probleem op.
(2ghz DDR3 + 512bit = 4ghz DDR5 + 256bit)
Maar grotere bus, is grotere kaart, is duurdere productie kosten, is duurdere prijs tegen kleine kaarten van Ati (die iets duurder zijn gemaakt door GDDR5), is probleem
Nee...M4gick schreef op woensdag 21 oktober 2009 @ 15:45:
[...]
Nee, ik bedoelde dat ze sloom zijn met het adopteren van GDDR5, misschien een beetje verwarrend uitgelegd.
Waarom lezen mensen nu nooit de artikels die je op het internet kunt vinden en net WEL moet lezen i.p.v. die miljoenen waardeloze geruchten...
Toen de RV770 geplant werd (3 jaar vóór release), waren er geen test onderdelen, alleen de plannen van GDDR5... iets waar ATi een grote gok mee nam en nVidia wilde dat niet niet riskeren en zal verwacht hebben dat ATi voor een 512-bit bus zou gaan.
The RV770 Story: Documenting ATI's Road to Success
Just One Small Problem: We Need a New Memory Technology
Er komt binnenkort ook een RV870 verhaal....The R600 GPU had an incredibly wide 512-bit memory interface, the problem with such a large interface is that it artificially makes your die bigger as you’ve got to route those interface pads to the memory devices on the board. For RV770 to have the die size ATI wanted, it needed to have a 256-bit memory interface, but using (at the time) current memory technology that wouldn’t give the GPU enough memory bandwidth to hit the performance targets ATI wanted.
When the options were either make the chip too big or make the performance too low, ATI looked elsewhere: let’s use a new memory technology. Again, put yourself in ATI’s shoes, the time was 2005 and ATI had just decided to completely throw away the past few years of how-to-win-the-GPU-race and on top of that, even if the strategy were to succeed it would depend on a memory technology that hadn't even been prototyped yet.
The spec wasn’t finalized for GDDR5 at the time, there were no test devices, no interface design, nothing. Just an idea that at some point, there would be memory that could offer twice the bandwidth per pin of GDDR3, which would give ATI the bandwidth of a 512-bit bus, but with a physical 256-bit bus. It’s exactly what ATI needed, so it’s exactly what ATI decided to go with.
Unfortunately whether or not GDDR5 shipped by the summer of 2008 wasn’t all up to ATI, the memory manufacturers themselves had a lot of work to do. ATI committed a lot of resources both monetarily and engineering to working with its memory partners to make sure that not only was the spec ready, but that memory was ready, performing well and available by the summer of 2008. Note that the RV770 was going to be the only GPU that would use GDDR5, meaning that it was ATI and ATI alone driving the accelerated roadmap for this memory technology. It’s akin to you trying to single handedly bring 100Mbps internet to your city; it’ll happen eventually, but if you want it done on your time table you’re going to have to pickup a shovel and start burying a lot of your own cable.
ATI did much of the heavy lifting with the move to GDDR5, and it was risky because even if RV770 worked out perfectly but the memory wasn’t ready in time the GPU would get delayed. RV770 was married to GDDR5 memory, there was no other option, if in three years GDDR5 didn’t ship or had problems, then ATI would not only have no high end GPU, but it would have no performance GPU to sell into the market.
If GDDR5 did work out, then it meant that RV770 could succeed and that it would be another thing that NVIDIA didn’t have at launch. That is, of course, assuming that ATI’s smaller-die strategy would actually work...
[ Voor 3% gewijzigd door Paprika op 21-10-2009 16:05 ]
Tsja ik kijk niet meer naar zoveel sites, ik vind dat teveel sites een lichte voorkeur hebbenPaprika schreef op woensdag 21 oktober 2009 @ 16:03:
[...]
Nee...
Waarom lezen mensen nu nooit de artikels die je op het internet kunt vinden en net WEL moet lezen i.p.v. die miljoenen waardeloze geruchten...![]()
Toen de RV770 geplant werd (3 jaar vóór release), waren er geen test onderdelen, alleen de plannen van GDDR5... iets waar ATi een grote gok mee nam en nVidia wilde dat niet niet riskeren en zal verwacht hebben dat ATi voor een 512-bit bus zou gaan.
The RV770 Story: Documenting ATI's Road to SuccessJust One Small Problem: We Need a New Memory Technology
[...]
Er komt binnenkort ook een RV870 verhaal....![]()

[ Voor 12% gewijzigd door M4gick op 21-10-2009 16:24 ]
Daar zou nog wel eens een mooi verhaal uit kunnen komen over de samenwerking met TSMC en natuurlijk de problemen met 40nm. Kijkje achter de schermen?
[ Voor 22% gewijzigd door Paprika op 21-10-2009 16:50 ]
Envy007 schreef op woensdag 21 oktober 2009 @ 16:43:
[...]
Daar zou nog wel eens een mooi verhaal uit kunnen komen over de samenwerking met TSMC en natuurlijk de problemen met 40nm. Kijkje achter de schermen?
Het wordt een zelfde soort verhaal als "The RV770 Story", maar dit keer over de RV870 aka Cypress. Anand twitterde er laatst over dat het artikel 'in the works' is. Aangezien The RV770 Story erg informatief is (maar te weinig goed gelezen door mensen) heb ik goede hoop dat het vervolg ook veel kan toevoegen aan wat er tot nu toe bekend is over de RV870.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
nieuws: Nvidia presenteert serverplatform voor 3d-rendering
In het tweakers bericht geeft men trouwens aan dat rendering niet in real-time lijkt te kunnen, maar op de nV productpagina refereert men hier wel naar.
[ Voor 3% gewijzigd door Cheetah op 21-10-2009 17:07 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Wauw, dat is wel kick-as techCheetah schreef op woensdag 21 oktober 2009 @ 17:06:
Interessant nieuwsbericht over CUDA renderservers die binnenkort beschikbaar komen, genaamd Reality-server:
nieuws: Nvidia presenteert serverplatform voor 3d-rendering
In het tweakers bericht geeft men trouwens aan dat rendering niet in real-time lijkt te kunnen, maar op de nV productpagina refereert men hier wel naar.
Kan je kijken wie beste bang for the buck leverd. Render fee vs render resultaat.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ik denk dat ze toch beiden voor een andere markt gaan. AMD gaat voor 'remote gaming', misschien nu nog toekomstmuziek maar waarschijnlijk zal dit consoles in te toekomst vervangen.SG schreef op woensdag 21 oktober 2009 @ 18:48:
Eigenlijk niet. AMD is ook met zoiets bezig. Aangegeven in dat zelfde bericht, zijn ze van plan dat in realtime te doen.
Kan je kijken wie beste bang for the buck leverd. Render fee vs render resultaat.
Nvidia bied een offline render platform aan, interessant voor mensen die 3D presenaties willen doen & misschien de film industrie (hoewel die al hun eigen tools heeft).
Iedere site, iedere uiting van ieder persoon heeft een bias. Het gaat erom dat je weet welke die is, dan kun je er rekening mee houden en naargelang je eigen voorkeur eromheenlezen of er doorheen prikken en lezen wat niet expliciet geschreven staat.M4gick schreef op woensdag 21 oktober 2009 @ 16:24:
[...]
Tsja ik kijk niet meer naar zoveel sites, ik vind dat teveel sites een lichte voorkeur hebben
Als je niets leest waar een voorkeur achter zou zitten lees je niets, en dan heb je helemaal niets om je in een discussie op te baseren.
En even los daarvan, fanboyisme is hinderlijk (en willen we op GoT ook voorkomen), maar totale paranoia dat je postkwaliteit even goed negatief beinvloedt is nauwelijks beter
Oslik blyat! Oslik!
Al is het verrekte lastig om deze dagen wijs te worden uit de hoeveelheid sites die elkaar tegenspreken.
/kentheoretische modusJejking schreef op woensdag 21 oktober 2009 @ 21:30:
Tenzij je je baseert op feiten natuurlijk
Al is het verrekte lastig om deze dagen wijs te worden uit de hoeveelheid sites die elkaar tegenspreken.
Werkelijkheid -> Observatie -> Interpretatie
Feiten zijn ook niet objectief, maar slechts intersubjectief, dus bepaalde interpretaties van waarnemingen waar "men" het over eens is.
Voor ons is het een feit dat jouw icon groen is. Er zijn culturen die een ander onderscheid maken tussen blauw en groen dan wij doen. Voor iemand uit zo'n cultuur zou het net zo goed een feit kunnen zijn dat hij blauw is
Bij kleuren moet je cultureel wel heel ver van elkaar verwijderd zijn voordat je dit soort verschil gaat optreden. Bij veel minder allerdaagse dingen, die bovendien een sloot aan randvoorwaarden hebben (ik noem de performance van videokaarten, maar ook het imago van bedrijven bijv) heb je veel sneller dit soort verschil in "cultuur". Mijn feit hoeft jouw feit nog niet te zijn als het gaat om de toekomst van nVidia...
Hoe los je dat dan op? Je zoekt naar fundamentelere waardes waar je wel overeenstemming in hebt. Kijk maar naar die kleuren. Wij noemen het groen, een ander noemt het blauw, maar we kunnen overeenkomen dat het in beide gevallen gaat om electromagnetische straling met een golflengte van rond de 500nm.
Zo kan het ook gaan in dit soort discussies. De een noemt iets een verbetering (meer CUDA bijv), de ander noemt het een verslechtering (minder gameperformance per mm^2 die size), maar beide zullen het eens zijn dat je het over een Fermi hebt met bepaalde eigenschappen.
Ingewikkeld verhaal
Bottom line: objectiviteit bestaat niet (of iig: geen menselijke uitspraak kan ooit objectief zijn), feiten zijn puur zaken waar veel mensen het over eens zijn en die ze een goede benadering van de objectiviteit vinden (intersubjectiviteit). Dus maak je je niet druk over evt verschillen en zoek vooral naar gedeelde waardes en concepten, dan kom je een heel eind
Oslik blyat! Oslik!
zoals beloofd appels met appels vergelijken, nu kunnen we AMD Q3 vergelijken met NVDIA Q3:AMD Q3: 1396 Miljoen turnover
waarvan:
- VGA 21% = 306 Miljoen turnover (22% up)
- Rest (CPU / Chipset) ... moet ik nog even uitsplitsen...
NVDA Q2: 777 Miljoen turnover
waarvan:
- VGA GeForce 48% = 372 Miljoen turnover (5% up)
- Chipset 31% =240 miljoen turnover (27% up)
- Tegra 6% = 46 miljoen turnover (300% up)
- Professional (Quadro + Tesla) 15% = 117 miljoen turnover (10% up)
NVIDIA Q3: 903.2$ Turnover (+16%)
- VGA GeForce 464 Miljoen turnover (25% up)
- Chipset 247.9 miljoen turnover (4% up)
- Tegra 61 miljoen turnover (22% up)
- Professional (Quadro + Tesla) 129 miljoen turnover (11% up)
Lopen de financiële periodes van de twee bedrijven eigenlijk wel gelijk?
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Verwacht eigenlijk niet veel bijzonders...Edmin schreef op maandag 09 november 2009 @ 23:22:
Q3.... da's pre-Evergreen. Q4 wordt pas echt interessant.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat sowieso niet, maar daar had ik het ook niet over.Edmin schreef op dinsdag 10 november 2009 @ 00:12:
Of jij het bijzonder vind of niet
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ah fijn het eerste stukje duidelijke filosofie wat ik op GoT ziedion_b schreef op woensdag 21 oktober 2009 @ 23:19:
[...]
/kentheoretische modus
Ingewikkeld verhaal
ontopic:
Uiteindelijk zal de tendens dat NVIDIA de beste kwartaalcijfers binnensleept zo blijven totdat of ATi groeit of NVIDIA 'krimpt'. ATi moet volgens mij een bijzondere move maken om genoeg 5000-serie kaarten beschikbaar te maken binnen de kortste tijd om werkelijk een gigantische omzetsprong te maken.
[ Voor 3% gewijzigd door Allubz op 10-11-2009 00:52 ]
Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design
Iets met TSMC en 40nm-The_Mask- schreef op dinsdag 10 november 2009 @ 00:16:
[...]
Dat sowieso niet, maar daar had ik het ook niet over.
Het ging mij dan ook duidelijk om de financiele resultaten.
Het laatste.. HD57XX schijnt "net genoeg" te zijn maar zelfs daar gooien Amerikaanse retailers nu een tientje bovenop.Jejking schreef op dinsdag 10 november 2009 @ 01:02:
Ik heb tot nog toe weinig klachten gehoord over de availability van de HD57xx. Kan door twee dingen komen: de serie is minder populair of de chip is zóveel makkelijker te maken dat de yields beter zijn en dus theoretisch beter leverbaar.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ja.. en ook minder stream processors en minder geheugenbus.spNk schreef op dinsdag 10 november 2009 @ 10:24:
De 57xx is toch gewoon een 58xx GPU maar dan met een aantal shaders disabled?
Was het maar zo'n feest.spNk schreef op dinsdag 10 november 2009 @ 10:24:
De 57xx is toch gewoon een 58xx GPU maar dan met een aantal shaders disabled? Dus gewoon een mislukte 58xx kaart? Dat zou dus gewoon betekenen dat de yields nog niet super zijn...
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Core Values: What's next for NVIDIA?
Samengevat nog eens een herhaling wat op andere sites al te lezen was maar bon...http://www.amd.com/us/pro...-5850-specifications.aspx
http://www.amd.com/us/pro...-5770-specifications.aspx
Behalve de eerste twee puntjes, zie ik geen verschil.
Juist dat eerste puntje geeft aan dat the mask gelijk heeft.chim0 schreef op zondag 06 december 2009 @ 08:51:
[...]
http://www.amd.com/us/pro...-5850-specifications.aspx
http://www.amd.com/us/pro...-5770-specifications.aspx
Behalve de eerste twee puntjes, zie ik geen verschil.
57X0 ondersteund geen Dual Precission floating point.chim0 schreef op zondag 06 december 2009 @ 08:51:
Behalve de eerste twee puntjes, zie ik geen verschil.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Mja, minder transistors maar dat bedoelden ik ook, ook al zei ik het niet, bedoelde gewoon dat alles een beetje minder is maar verder gewoon zelfde generatie kaart met zelfde specs... Onderstaand puntje vind ik belangrijker.Blastpe schreef op zondag 06 december 2009 @ 09:08:
[...]
Juist dat eerste puntje geeft aan dat the mask gelijk heeft.
neliz schreef op zondag 06 december 2009 @ 10:24:
[...]
57X0 ondersteund geen Dual Precission floating point.
En trouwens, dit is het Nvidia topic, wtf zitten we over ATI te praten

[ Voor 6% gewijzigd door chim0 op 06-12-2009 10:32 ]
Leuk om erbij te pakken? Wat denk jij, ondersteunen de huidige GT21x GPU's DP of is het ook emulatie? van GT200 weten we het, vertel het maar eens.chim0 schreef op zondag 06 december 2009 @ 10:32:
En trouwens, dit is het Nvidia topic, wtf zitten we over ATI te praten
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
IK had eingelijk niets anders verwacht dit mag trouwens ook welin het nvidia niewus topic.The Source schreef op maandag 09 november 2009 @ 21:58:
[...]
zoals beloofd appels met appels vergelijken, nu kunnen we AMD Q3 vergelijken met NVDIA Q3:
NVIDIA Q3: 903.2$ Turnover (+16%)
- VGA GeForce 464 Miljoen turnover (25% up)
- Chipset 247.9 miljoen turnover (4% up)
- Tegra 61 miljoen turnover (22% up)
- Professional (Quadro + Tesla) 129 miljoen turnover (11% up)
Er word daar zo veel gezegt en gedacht dat nvidia niets verkoopt teminste zo komen de menbers over.
Hulde aan nvidia vanwege dat nvidia zo slecht bezig is en overal de grond ik word getrapt
en toch nog de kop er boven uit steekt qwa verkoop
[ Voor 11% gewijzigd door Verwijderd op 06-12-2009 11:17 ]
Q4 en Q1 daar ben ik pas benieuwd naar....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
met de 5870 als goed is. Of komt fermi ook met een serie kaarten?
Ik neem namelijk geen niwus aan over de fermi ant er is te veel nieuws van want verschillend is
Nou als nVidia met 1 DX11 'game' videokaart komt voor dan moet dit of een geweldige kaart zijn die al het ATi spul overbodig maakt, wat ik mij niet kan voorstellen. Of Fermi wordt gewoon ongelooflijk slecht simpel weg omdat hij maar alleen is en de concurrentie heel veel DX11 videokaarten te koop heeft.Verwijderd schreef op zondag 06 december 2009 @ 11:44:
Klopt ik vind het pas intressant worden als ook de fermi erbij komt die moet namelijk gaan concureren
met de 5870 als goed is. Of komt fermi ook met een serie kaarten?
Ik neem namelijk geen niwus aan over de fermi ant er is te veel nieuws van want verschillend is
Overigens Fermi komt tegenover Hemlock te staan of als het helemaal tegen zit voor nVidia tegen de refresh van de huidige kaarten.
Noem het maar hulde.Verwijderd schreef op zondag 06 december 2009 @ 11:11:
Hulde aan nvidia vanwege dat nvidia zo slecht bezig is en overal de grond ik word getrapt
en toch nog de kop er boven uit steekt qwa verkoop
Ik vind het eerder oplichting (verkopen van videokaarten met productieproblemen en het bekend wordt gewoon doen als je neus bloed en het rebranden van kaarten terwijl de onwetende denkt een betere kaart te krijgen)
[ Voor 23% gewijzigd door -The_Mask- op 06-12-2009 11:52 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Ati is op dit moment dan in jou'n ogen ook een oplichten want de kaarten zijn nergens te krijgen om het maar grof te zeggen
[ Voor 38% gewijzigd door Verwijderd op 06-12-2009 12:24 ]
Dit topic gaat over de toekomst van nVidia met oog op de recente nieuwsberichten.
Het is niet de bedoeling hier een nVidia vs Ati discussie op te gaan zetten!