oeLangOetan schreef op 26 mei 2004 @ 14:02:
[...]
De nv3x was nieuw voor zover ik weet (qua pixel shaders en vertex shaders alleen de geheugen-architectuur was bijna onveranderd).
de stap nv15 -> nv20 was ook serieus
"Clean sheet designs" bestaan eigenlijk niet (bv de nv40 heeft bijna dezelfde vertex shaders als de nv35)
Wat architectuur betreft bouwde nVidia wel steeds verder op de oude generatie, zelfs in NV38 bouwt voort op de 4x2 van NV15. Klein overzichtje:
GF1 (NV10) -> GF2 (NV15) was een kleine technologische stap. Die-shrink van 0.22u naar 0.18u. 4x1 naar 4x2. Maar 2 miljoen meer transistors dan NV10. Snelheidsverschil kwam voornamelijk door hogere klokspeeds en de extra TMU. Extra TMU was er min of meer in gezet om ATi's originele Radeon te counteren die 3 TMU's per pipe (2) had.
GF2 (NV15) -> GF3 (NV20) was net zo'n kleine stap. Ook hier een die-shrink van 0.18u naar 0.15u waardoor hogere kloks mogelijk waren. Verder bleef het 4x2, maar met de toevoeging van shaderondersteuning (DX8.0) wat voor bijna een verdubbeling van transistors zorgde, maar desalnietemin bleef het gebaseerd op de "oude" tech.
GF3 (NV20) -> GF4 (NV25) nog minder vernieuwing. Nog steeds 4x2 architectuur, maar 3 miljoen meer transistors dan NV20. Snelheidsverschil tussen NV25 en NV20 was aanzienlijk, maar kwam niet door technologische vernieuwingen, maar door het tweaken en finetunen van bestaande technieken (voornamelijk LMA II en Infinite FX II).
GF4 (NV25) -> GFFX5800 (NV30). De basis is nog steeds het oude vertrouwde 4x2 architectuur alleen verdubbelde het aantal transistoren, omdat ze meer flexibiliteit wilden geven aan de pipelines en er DX9 functionaliteit in wilde stoppen. Verder 0.15u naar 0.13u waardoor hogere snelheden mogelijk waren + verbetering van LMA. Maar verder ook altijd nog 128-bit mem interface.
GFFX5800 (NV30) -> GFFX5900 (NV35), performanceverbetering door 256-bit memory interface + wat tweaks. Voor de rest gelijk aan NV30 met 4x2 architectuur.
GFFX5900 (NV35) -> GF6800 (NV40), nVidia stapt af van 4x2 architectuur en gaat voor massive parallel architectuur met 16x1. Eindelijk grote interne veranderingen, alles wordt grondig aangepakt en herzien. Maar theoretisch bouwen ze voort op tech die 2 jaar terug al door ATi is begonnen met R300.
Vandaar dus mijn stelling dat nVidia evengoed kan worden beticht van het uitmelken van oude technologie, en dat ze er zelfs beter in zijn dan ATi. En zelfs nu met NV40 kan je naar mijn mening beter stellen dat ze evolutionair bezig zijn en niet revolutionair. Is dit slecht? Moet nVidia zich er voor schamen? Nee, absoluut niet, want het werpt nu toch zijn vruchten af gezien de performance van de GF6800?
Ik vind zelf dat er niets mis mee is met het uitmelken van nieuwe technologie als de performance maar ook evenredig meeschaalt. En wat dat betreft heeft nVidia het wel goed gedaan in het verleden met grote performance sprongen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.