Anoniem: 79835 schreef op donderdag 09 december 2004 @ 01:02:
[...]
Sorry CJ, maar nu ga je weer dromen. De NV40 trekt in de verste verte nog niet op de R3xx qua architectuur. Dit is de domste post die een ATi fanboy hier ooit gemaakt heeft. Die rooie spandex zit wel erg strak om je hoofd tegenwoordig.
Het wordt tijd dat jij je feiten ook eens checkt in plaats van continu achter de feiten aan te lopen of alleen
datgene te geloven wat je goed uit komt. Maar goed, ik zal verder maar geen voorbeelden van nVidiot gedrag van je noemen om het geflame in dit topic te beperken en je dus verder negeren.
Het idee van een "superscalar architecture" zoals nVidia dat zo trots noemt is niet nieuw. Daar gaat het me om wat betreft architectuur. Een core die in quads is opgebouwd bestond al een aantal jaren voordat nVidia met NV40 kwam. De architectuur verschilt intern natuurlijk wel, maar het basisprincipe van "superscalar architecture" is hetzelfde. Waarom denk je dat R420 anders is voortgebouwd op R300? Dat komt omdat dit ontwerp ook heel erg schaalbaar is. In 2000 is ATi dus begonnen met de ontwikkeling van haar eigen superscalar architecture, ver voordat nV er mee begon (die wilden toen nog echt de FX richting op, maar wijzigden van koers na het zien van de prestaties van de R3x0, alleen was het toen al te laat om de hele FX reeks te dumpen en moesten ze er het beste van maken wat ze nog redelijk gelukt is).
Het enige verschil is dat ATi deze "superscalar architecture" over meerdere jaren heeft uitgespreid. R300 (2002), R350 & R360 (2003), RV350 & RV360 (2003), RV410, R420, R430 en R480 (2004) en als laatste R520 in 2005. En nVidia released de verschillende cores die op dit principe zijn opgebouwd in één en hetzelfde jaar (NV40, NV41, NV43, NV44).
Om dus de architectuur van nVidia "vernieuwend" te noemen gaat dus wel heel erg ver, omdat ATi ook al had aangegeven dat het een kleine moeite zou zijn om SM3.0 te integreren, maar dat de huidige serie kaarten gewoonweg niet genoeg performance heeft. Zie ook het feit dat NV40 eigenlijk alleen MDR doet ipv HDR en niet op volle snelheid aan dynamic branching kan doen. Het is een stap in de goede richting, maar is het 'net niet' wanneer het er straks op aan komt (bepaalde synthetische benchmarks laten al zien dat bepaalde dingen gewoon in slideshow tempo gaan wanneer ze echt volledig in games worden geintegreerd).
sjek schreef op donderdag 09 december 2004 @ 01:28:
[...]
Whahaha spandex hoe kom je erop
Verder ben ik het wel met je eens het is even de omgedraaide wereld.
Weer even terug op het Unified Shader verhaal. Nvidia heeft deze zet al een keer gemaakt en hier geen succes mee geboekt omdat ze geen steun kreeg van spelontwikkelaars. De techniek heeft zich dus nooit kunnen bewijzen en maargoed ook volgens vele.
Als Ati dit nu ook gaat doen waarom zou dit positief zijn? Dit zou dus net zo goed nvidia2 kunnen worden. Ik vind het dus geen ontwikkeling om trots op te zijn. Het is puur in het voordeel van de ontwerper en de concurentie heeft het nakijken als ze slagen. Nou dan is de keuze snel gemaakt voor mij.
Een belangrijke reden (zo niet de belangrijkste) waarom "unified shaders" nu wel een succes worden en waarom dit nu positief is. Microsoft... X-Box2 ondersteunt het. En Windows Graphics Foundation/DX Next vraagt er straks om. En waarschijnlijk gaat het een hardwarematige vereiste worden...
Als DX het vereist, dan gaan de spelontwikkelaars wel om... beter nog... ze zijn al om. De X-Box2 developerkits zijn al tijden uit en developers ontwikkelen al games met een unified shadermodel in hun achterhoofd. Ok, het werd tot voor kort ge-emuleerd op een 9800Pro en later op een X800XT, maar het zal niet lang duren of ze kunnen R500 echt gebruiken omdat deze volgens al een tijdje 'af' is (zie de statement van ATi dat development van de X-Box chip klaar is en nu afgerond wordt). De ondersteuning is er dus al.
Dan wat olie op het vuur gooien... Misschien is een reden dat nVidia zich daar tegen verzet (hardwarematig vereist zijn van unified shaders) wel omdat ze helemaal nog niet zo ver zijn, nadat ze de unified architecture vaarwel hebben gezegd en voor superscalar parallel zijn gegaan... Misschien is dat wel de reden dat NV48 en NV50 gecanned zijn in de huidige vorm. Misschien doet nVidia het wel net zoals ATi, en verschuiven ze NV50 naar NV60 en komt plan B in actie (namelijk NV47 op 0,11u met 24 pipes en NV47 op 0,09u met 32 pipes (misschien wel NV52 genaamd)).
ik denk dat CJ nvidia weer eens als onbenullig ziet vandaag. Hoe goed de r520 of nv50 ook gaan worden er is weinig over bekend dat de vast staat en tot die tijd kunnen we alleen speculeren niet vaststellen.
Amen

Speculaties zijn er om dit soort topics levendig te houden.
En unified Shading is de manier van shading van de toekomst. Hoe je het ook went of keert, je ontkomt er niet aan. En ik zeg niet dat nVidia onbenullig bezig is, ik zeg alleen dat het heel dom zou zijn als ze zich WEER niet aan de DX standaard en straks WFG standaard gaan houden, net zoals ze zich niet aan de DX9 standaard hielden met de hele NV30-NV38 serie. Want we weten allemaal waar dat toe heeft geleid, en het zou vrij lullig zijn als we straks in 2006 weer hetzelfde scenario krijgen met nV kaarten die beneden de maat presteren en HL3 straks in DX9 mode moet draaien op nV kaarten, terwijl ATi kaarten netjes in WFG2/DX10 mode draaien.
[
Voor 8% gewijzigd door
CJ op 09-12-2004 03:13
]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.