Op dinsdag 31 juli 2001 11:27 schreef Mister_X het volgende:
ehm ja, je processor maakt alleen complexe 3d berekingen (triangles?), nix met pixels dus, dat doet nog altijd je GPU/videokaart chipset , en dat van die 32bits en 24 bits snap ik niet, want bv, de kyro 2 berekent alles al op 32bits, ipv 24/26 whatever, en zo zullen er wel meer kaartjes zijn dit dit kunnen, net als dat de voodoo's alles (de oudere) op 16bits deden.
Dat verhaal over het niet uitmaken van 24 of 32 bits (wat betreft cpu-belasting) sloeg eigenlijk op desktop weergave, niet op 3d spellen.
en het is ook onzin dat de ene kaart 16bits mooier dat dan de andere rendert, dat ligt gewoon aan het beeldkwaliteit (ramdac), maar 16 bits is 16bits en niet meer of minder of lelijker of mooier.
Nietes. Als een kaart intern alles in 32bits uitrekent, en pas op het laatste moment terugzet naar 16 bits (Kyro), dan is dat mooier dan wanneer je vanaf het begin in 16 bits rekent. Hetzelfde verhaald geldt bij mixen van audio in studios. Die doen dat bij voorkeur in meer dan 16 bits, en met meer dan 44.1kHz.
en ja, wat zijn nou ware kleuren? 32bits? 24bits? of 64bits? 24 in iedergeval niet, mijn oogjes kunne wel meer kleuren waarnemen hoor. in feite zie je het verschil in 3d tussen 16 en 32bit dat als je een fog heb (mist, rook whatever) dat die er in 32bit realistischer uitziet dan in 16bits, dus tja, en dan nog lijkt het nog niet echt, so the next thing zal wel 48/64 bits.
Ware kleuren (TrueColor) is 24 bits. Ik wil wel even een plaatje maken in twee helften, waarbij de ene helft 1 bit verschilt van de andere helft. En dan mag jij zeggen of je verschil ziet

.
Siditamentis astuentis pactum.