CJ, dit kan misschien nog NET realtime. Maar dit wordt nog gewoon met een wireframe, textures, bit- en bumpmaps gedaan. Maar als je dit al zou moeten renderen REAL time met een raytracer of andere lichtverwerkings methode, dat kan -echt- niet hoor.
Je zei tegen me dat ATi dit al deed met die ruby "ik ren in de stad met robot achter me aan demo" maar voor zover ik weet kan dat ook gewoon een frame voor frame gerenderde scene zijn die later vloeiend aan elkaar wordt geplakt. Zoveel polygonen met zoveel vlakken in die hele stad real time renderen met een raytracer met fatsoenlijke fps kan gewoon nog niet, klaar

.
En met "real time gerenderd" bedoel ik echt dat ik op dat moment terwijl de scene BEWEEGT erdoorheen kan rennen, om kan draaien - dingen kapot kan schieten, etc. Never ever

.
* Cassius begint serieus te twijfelen
Ik ken iemand op het cg forum die dit soort gezichten rendert en daar komt dit uit:

door Baptistao btw.
Nu is het detail in Kaya haar gezicht wat hoger als in de ATi demo, maar heb je ENIG idee hoe lang twee quadcores hier op hebben staan crunchen voor een 1024 output? Dit is een 400x300 scale, maar op 1024 duurde het echt bijna 2 dagen. Je gaat me gewoon -niet- vertellen dat een GPU dat even 30FPS doet

. Even een korte berekening:
1 frame (Kaya still image) in 40 uur = (1/(40*60*60)) = 0.0000069fps
30 / 0.0000069 =
4 miljoen keer sneller
En dat is op een 1024 reso

. Snap je waarom ik dit zo kritisch bekijk? Of professionele render programma's die wereldwijd geaccepteerd zijn lopen lichtjaren achter of, more likely, wordt ons gamers ECHT nog een dooie duif voorgehouden. Ik wilde dat het niet zo was ... en please convince me en leg me uit hoe het in godsnaam dan wel mogelijk is

.
offtopic:
Want bij de Geforce3 kregen we ook te horen: "with the new vertex and pixel shaders, true lifelike images will burst on your screen". Ja
toen al ja

[
Voor 5% gewijzigd door
Cassius op 21-08-2008 10:15
]