volgens mij gebruiken ze een paar technologien die ook bij 3dfx van pas waren maar kweet niet welke
Btw volgens mij ondersteunt nog niks deze 3dfx features, maar weetik ook niet cker
[ Voor 22% gewijzigd door STIMPPYYY op 15-02-2003 21:03 ]
maar niet echt grote dingen, zoals SLI of multiprocessorsatyriasis schreef op 15 februari 2003 @ 21:02:
Ik denk dat ze er vast wel wat technologie in stoppen die ze van 3Dfx hebben "geleend"maar dat zegt nog niet dat je het meteen door hoeft te hebben. Hebben ze alleen maar wat design truukjes geleerd, dan zie je dat helemaal niet
maar ik blijf erbij ze hebben 3Dfx niet zomaar opgekocht

idd jammer dat ze niet zoiets als SLI hebben meegenomen.
oprecht vertrouwen wordt nooit geschaad
[droommodus]
Geforce FX Ultra in SLI:P:P:P:P (edit: 2 natuurlijk
[/droommodus]
[ Voor 8% gewijzigd door satyriasis op 15-02-2003 21:14 ]
XXXVI
SLI en AGP.... Valt het kwartje?casemodderpoel schreef op 15 February 2003 @ 21:04:
maar niet echt grote dingen, zoals SLI of multiprocessor
En aangezien er nog geen mobo's zijn die 2 AGP poorten hebben.....
Multiproc, zolang 1 procje nog zoveel stroom vreet en zoveel hitte veroorzaakt, wil je echt geen 2de.
Nee, imo was SLI leuk met Voodoo 2, (draait nog steeds bij mij in een oude bakkie) maar voor toekomst lijkt me dat niet echt geschikt.
Stel je ook voor, je moet dan 2x een peperdure kaart kopen. Dacht het niet.
Laten ze maar wat leukere technieken uitvinden om betere graphics te maken ipv te denken "meer is beter".
Dus niet:
-meer procs.
-meer mhz.
-meer geld dat je ervoor neer moet leggen.
[ Voor 7% gewijzigd door Vae Victis op 15-02-2003 21:47 ]
1: Mobo's kunnen sinds AGP4x al (met voldoende bandbreedte) met 2 AGP sloten worden uitgerust, het worden dan alleen wel 2 AGP2x sloten (delen van de bandbreedte) alleen is er nog geen enkele NorthBridge uitgevonden die 2 signalen van 2 bronnen over 1 AGP-poort tegelijk kan verwerken (maar 't is heel simpel te maken)Vae Victis schreef op 15 February 2003 @ 21:45:
[...]
SLI en AGP.... Valt het kwartje?
En aangezien er nog geen mobo's zijn die 2 AGP poorten hebben.....
Multiproc, zolang 1 procje nog zoveel stroom vreet en zoveel hitte veroorzaakt, wil je echt geen 2de.
Nee, imo was SLI leuk met Voodoo 2, (draait nog steeds bij mij in een oude bakkie) maar voor toekomst lijkt me dat niet echt geschikt.
Stel je ook voor, je moet dan 2x een peperdure kaart kopen. Dacht het niet.
Laten ze maar wat leukere technieken uitvinden om betere graphics te maken ipv te denken "meer is beter".
Dus niet:
-meer procs.
-meer mhz.
-meer geld dat je ervoor neer moet leggen.
2: ik dacht bij het implementeren van SLI bij de Geforce lijn eerder aan PCI-kaartjes met hulp-processors (bijvoorbeeld de GeForce1 chip of TNT2) en daarop 128MB ram. de hulp-processor zou dan al zijn energie steken in het snel omzetten van naar de hoofdprocessor (in je AGP-slot), bijvoorbeeld door te pre-fetchen uit je RAM

Heb je daar bronnen van?casemodderpoel schreef op 15 February 2003 @ 22:01:
[...]
1: Mobo's kunnen sinds AGP4x al (met voldoende bandbreedte) met 2 AGP sloten worden uitgerust, ...
Was volgens mij pas mogelijk met AGP8x, maar als je betrouwbare bronnen hebt die anders zeggen, laat ons weten.
Dat zie ik niet als SLI, maar als een expansion op de eigenlijke kaart.2: ik dacht bij het implementeren van SLI bij de Geforce lijn eerder aan PCI-kaartjes met hulp-processors (bijvoorbeeld de GeForce1 chip of TNT2) en daarop 128MB ram. de hulp-processor zou dan al zijn energie steken in het snel omzetten van naar de hoofdprocessor (in je AGP-slot), bijvoorbeeld door te pre-fetchen uit je RAM(tis maar een gedachte, maar is zou wel geil zijn om zoiets te kunnen kopen, de kaartjes zouden dan voor 128MB niet meer dan 100 euro kosten
)
SLI zie ik als:
3dfx Voodoo5 5500 64Mb AGP (Voodoo5)
This is known as SLI mode, meaning that the two chips share the workload of displaying frames in an application as they work simultaneously on different areas of a frame.
ik bedoel theoretisch mogelijk qua bandbreedte, maar als jij zegt dat het praktisch kan vanaf AGP 8x, ook goed...Vae Victis schreef op 15 februari 2003 @ 22:38:
[...]
Heb je daar bronnen van?
Was volgens mij pas mogelijk met AGP8x, maar als je betrouwbare bronnen hebt die anders zeggen, laat ons weten.
[...]
Dat zie ik niet als SLI, maar als een expansion op de eigenlijke kaart.
SLI zie ik als:
[...]
Verwijderd
nVidia had vooral een groot strategisch belang in 3dfx. Ze wilden in de eerste plaats voorkomen dat de kennis van 3dfx en Gigapixel bij ATi, Matrox of S3 terecht zou komen. Ten tweede bespaarde het ze een hoop geld, want 3dfx had net een rechtszaak gewonnen over een patent dat nVidia gebruikte voor al haar chips sinds de TNT.
De kennis van de 3dfx-mensen is uiteraard wel gebruikt tijdens het ontwikkelproces van nieuwe chips, maar er zijn geen concrete technologieën overgenomen. De Voodoo-architectuur was inferieur aan wat nVidia al had liggen, en toekomstige 3dfx-generaties die geplanned stonden druisden tegen de strategie van nVidia in (tilebased rendering bijvoorbeeld).
Ook multichip-designs zijn tegen het beleid van nVidia, omdat het gewoon een slecht principe is. ATi heeft het een paar keer geprobeerd, maar die zijn er ook weer vanaf gestapt. Zie je het al voor je, 70 Watt aan videochips in je computer
[ Voor 12% gewijzigd door Wouter Tinus op 15-02-2003 23:29 ]
Professioneel Hyves-weigeraar
maar je gaat mij niet vetellen dat wat 3dfx in de roadmap had staan, nu in een keer van de kaart is, ze hadden zelfs een GF4-killer, daar moet toch nog iets van over zijn?
[ Voor 71% gewijzigd door collission op 16-02-2003 13:43 ]
oprecht vertrouwen wordt nooit geschaad
Verwijderd
http://home.tiscali.be/si...ages/v5-6000-ppackbig.jpg
't Is alleen een relatief complexe en daarom dure oplossing.
Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein
en hoe meer processors hoe meer layers, en de GFFX heeft met 1 chip al 12 layers, dus dat wordt voor SLI dan 24 ofzo?MSalters schreef op 16 February 2003 @ 02:56:
Multiprocessor is in potentie overigens zuiniger dan een enkele superprocessor. Het energieverbruik stijgt met het kwadraat van de kloksnelheid, dus twee procs op halve snelheid gebruiken elk maar een kwart van de energie.
't Is alleen een relatief complexe en daarom dure oplossing.

als de energie van een externe bron komt is het niet erg, alleen 70W voor een videokaart uit je voeding is veel voor de meeste mensen (hoewel een 450W voeding of zelfs 550W steeds goedkoper wordt)Verwijderd schreef op 16 februari 2003 @ 01:56:
Ultieme voorbeeld SLI met een groot energieverbruik:
http://home.tiscali.be/si...ages/v5-6000-ppackbig.jpg

[ Voor 31% gewijzigd door collission op 16-02-2003 13:42 ]
casemodderpoel schreef op 16 February 2003 @ 00:12:
[...]
maar je gaat mij niet vetellen dat wat 3dfx in de roadmap had staan, nu in een keer van de kaart is, ze hadden zelfs een GF4-killer, daar moet toch nog iets van over zijn?
Ze zijn failliet gegaan omdat ze veel beloofden maar niets waar konden maken. Ze riepen dat de Voodoo3 een GeForce-killer zou zijn, dat Voodoo4/5 een GeForce2-killer zou zijn, dat Rampage een GeForce3-killer zou worden en dat Mojo de kont van NV30 zou schoppen.
Van Voodoo3 en Voodoo4/5 weten we dat het niet waar was, en dat heeft ze ook de kop gekost uiteindelijk. Rampage en Mojo hebben nooit het levenslicht gezien. Van Rampage was net een A0-sample gemaakt ten tijde van de overname, maar Mojo was slechts in de conceptfase. Reken er maar op dat *als* 3dfx een of andere superchip kant en klaar had liggen ze die wel uitgebracht hadden.
Ik persoonlijk zie Rampage meer als een noodsprong (een externe T&L-chip is gewoon stom om aan te beginnen in de periode dat DirectX, OpenGL, ATi en nVidia met volle vaart naar programmeerbare shaders en pipelines gaan gaan > zelfs als je dezelfde flexibiliteit weet te realiseren zit je nog met een latencyprobleem die je performance compleet om zeep helpt).
Qua concepten en technieken had 3dfx misschien wel een paar interessante dingen in handen, maardeze in de GeForce-architectuur inbouwen zou ongeveer hetzelfde zijn als de ClawHammer met IA-64 proberen te laten werken. Vergeet bovendien niet dat we nu 3 jaar verder zijn, en in computerland kunnen er in die tijd heel veel dingen veranderen en verbeteren. De patenten die 3dfx toen had zijn nu waarschijnlijk voor het grootste deel hopeloos achterhaald. Sterker nog: zelfs toen 3dfx ze nog in bezit had waren ze waarschijnlijk al achterhaald. Die lui hebben helaas nooit goed strategisch en marktgericht vooruit kunnen denken ("you don't need 32 bit color")
[ Voor 8% gewijzigd door Wouter Tinus op 16-02-2003 16:35 ]
Professioneel Hyves-weigeraar
maar ik zie Nvidia helemaal geen gebruik maken van de expertise van 3dfx, ze zijn gewoon doorgegaan met de oude roadmap

Verwijderd
casemodderpoel schreef op 16 February 2003 @ 16:37:
maar ik zie Nvidia helemaal geen gebruik maken van de expertise van 3dfx, ze zijn gewoon doorgegaan met de oude roadmap, en je gaat mij niet vertellen dat ze het alleen voor het geld deden
Ja, ze zijn hun eigen roadmap blijven volgen, maar ze hebben wel 100 technici van 3dfx banen aangeboden. Er hebben dus zeker wel 3dfx-mensen met 3dfx-kennis en ervaring meegewerkt aan GeForce3 en later, maar die hebben logischerwijs niet meteen de leiding over het project gekregen en alles radicaal omgegooid
De waarschijnlijke reden voor de overname was een rechtszaak over multitexturing en LOD mipmapping. 3dfx had daar patenten op en klaagde nVidia aan (want die gebruikte die technieken in zo'n beetje iedere chip sinds de TNT). 3dfx won de zaak en nVidia zou dus sowieso moeten gaan betalen. Maar nVidia had 4 miljard dollar en het toen al noodlijdende 3dfx was slechts 400 miljoen waard. Meteen na de uitspraak in de zaak werd een overname al voorspeld, en twee maanden later was het zover.
Als nVidia even had gewacht waren we ook wel van 3dfx af geweest, maar stel je voor dat bijvoorbeeld ATi de patenten had opgekocht, en de uitspraak van de rechter in de zaak 3dfx-nVidia zou gebruiken om geld te eisen. Dat wilden ze natuurlijk voorkomen
Professioneel Hyves-weigeraar
Welcome to the real world. Een bedrijf moet geld verdienen om te overleven. Eat or be eaten.....casemodderpoel schreef op 16 February 2003 @ 16:37:
[...]
maar ik zie Nvidia helemaal geen gebruik maken van de expertise van 3dfx, ze zijn gewoon doorgegaan met de oude roadmap, en je gaat mij niet vertellen dat ze het alleen voor het geld deden

dus donder je ff alle technologie van 3dfx overboord?dominator schreef op 16 February 2003 @ 16:57:
[...]
Welcome to the real world. Een bedrijf moet geld verdienen om te overleven. Eat or be eaten.....

ze hadden een zeer goede FSAA tech...Bigs schreef op 16 februari 2003 @ 17:15:
Zo veel had 3dfx nou volgens mij ook niet meer. Hun laatste revolutionaire techniek was volgens mij de T-Buffer.. en dat stelde niet zo HEEL veel voor imo.
Verwijderd
16bits kleuren zagen er beter uit op een voodoo dan 32bits op een TNT (3dfx renderde de kleuren naar 32bit, vervolgens terug naar 16bit), 3dfx ging gewoon wat meer voor de echte beeldkwaliteit dan de marketingpraatjes, maar ja, zo werkt marketing niet. Jammer dan mensen alleen altijd maar "hogere nummertjes" kijken.Wouter Tinus schreef op 16 February 2003 @ 16:31:
[...]
... Die lui hebben helaas nooit goed strategisch en marktgericht vooruit kunnen denken ("you don't need 32 bit color").
pppfft dat moet 3dfx nodig zeggen, die zette op alle voodoo's de fill rate'sVerwijderd schreef op 16 February 2003 @ 19:25:
[...]
16bits kleuren zagen er beter uit op een voodoo dan 32bits op een TNT (3dfx renderde de kleuren naar 32bit, vervolgens terug naar 16bit), 3dfx ging gewoon wat meer voor de echte beeldkwaliteit dan de marketingpraatjes, maar ja, zo werkt marketing niet. Jammer dan mensen alleen altijd maar "hogere nummertjes" kijken.

Herhaalt de geschiedenis zich nu? Gaat Nvidia ook tenonder aan 'te weinig feature's' in hun chips? Gaat daarom ATI regeren? Wie zal het zeggen.....
de GFFX ramt er juist teveel features indominator schreef op 16 February 2003 @ 22:07:
Ik wil niet veel zeggen hoor. Maar JUIST de TNT1/2 destijds waren kwa beeldkwaliteit juist BETER als hun voodoo tegenhangers. Zo ook verging het met de voodoo3/4 die niet echt super met hun features waren. En toen kwam Nvidia ineens met de Geforce en was het afgelopen met 3DFX....
Herhaalt de geschiedenis zich nu? Gaat Nvidia ook tenonder aan 'te weinig feature's' in hun chips? Gaat daarom ATI regeren? Wie zal het zeggen.....

Ja maar die hebben de NVidia kaarten inmiddels ook al.
[ Voor 30% gewijzigd door Bigs op 16-02-2003 23:11 . Reden: Rest van het verhaal klopte niet nu ik er bij na denk :) ]
je bedoelt Quicunx? dat zuigt echt ballen....Bigs schreef op 16 February 2003 @ 23:11:
[...]
Ja maar die hebben de NVidia kaarten inmiddels ook al.
Een voodoo3 renderde intern 22bits wat betreft het 3d gedeelte, geen 32. zou aardig dom zijn om alles 32bits te renderen en daarna af te vlakken naar 16bit, laat het dan meteen 32bit...Verwijderd schreef op 16 februari 2003 @ 19:25:
[...]
16bits kleuren zagen er beter uit op een voodoo dan 32bits op een TNT (3dfx renderde de kleuren naar 32bit, vervolgens terug naar 16bit), 3dfx ging gewoon wat meer voor de echte beeldkwaliteit dan de marketingpraatjes, maar ja, zo werkt marketing niet. Jammer dan mensen alleen altijd maar "hogere nummertjes" kijken.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Verwijderd
Al? ze zijn al 2 generaties verder in vergelijking met 3dfxBigs schreef op 16 februari 2003 @ 23:11:
[...]
Ja maar die hebben de NVidia kaarten inmiddels ook al.
Ik weet niet wat voor beeldkwaliteit jij bedoelt maar alles voor de gf2 van nvidia was ronduit bagger. Bij de gf 2 en 3 lag het aan de fabrikant (o.a. Elsa was wel goed). Inmiddels is het wel redelijk.dominator schreef op 16 februari 2003 @ 22:07:
Ik wil niet veel zeggen hoor. Maar JUIST de TNT1/2 destijds waren kwa beeldkwaliteit juist BETER als hun voodoo tegenhangers.
3dfx was juist behoorlijk goed qua beeldkwaliteit. Dat ze niet op/aan 32bit kleur wilden is wat anders.
over glide weet ik niet zoveel, tis toch hetzelfde als OpenGL?Galaxis schreef op 17 February 2003 @ 17:23:
ik vond "glide"van de voodoo toch wel iets moois hoor, jammer dat het allemaal verleden tijd is .
idd glide is/was geweldigGalaxis schreef op 17 February 2003 @ 17:23:
ik vond "glide"van de voodoo toch wel iets moois hoor, jammer dat het allemaal verleden tijd is .
ut met 160 fps@1280x1024 met me athlon 600
Overigens vond ik de de voodoo 5 wel een geforce 2 killer, ik heb toen men asus v7700 verkocht en ben overgestapt naar een v5.
De v5 gaf gewoon een stuk mooier/scherper beeld dan de gts, en was in d3d een stukje langzamer, met opengl merkte je geen verschil
Het leukste van de voodoo serie was gewoon glide, dat was supersnel en zag er gewoon beter uit, en laten we de zeer goede fsaa ook niet vergeten
We're just enthusiastic about what we do. -- Steve Jobs, 1985; Battle.net: Bossie#2919
maar dan zijn er weer nieuwe kaarten met nog meer ongebruikte features en die worden dan ook weer pas een half jaar laer ondersteunddominator schreef op 17 February 2003 @ 19:00:
Hoe weet jij dat nou? Over een jaar ofzo hebben we allemaal DX9 spellen en dan zou je niet meer zonder willen....

Verwijderd
LoL, de Geforce FX is niet eens 100% DX 9 Compatibledominator schreef op 17 February 2003 @ 19:00:
Hoe weet jij dat nou? Over een jaar ofzo hebben we allemaal DX9 spellen en dan zou je niet meer zonder willen....
zie nieuws: NV31en NV34 niet geheel DirectX 9.0-compatibel?
[ Voor 13% gewijzigd door Verwijderd op 18-02-2003 10:23 ]
Er zullen altijd features zijn die nooit gebruikt zullen worden. (bij die kaart) Kijk dat die FX PS 2.0+ (dus hoger) ondersteund is mooi, maar tegen die tijd dat we het echt gebruiken zijn we al weer een hele tijd verder en kan die FX de prullebak in van wege zijn prestaties. (dit is natuurlijk erg grof gezegd)dominator schreef op 17 February 2003 @ 19:00:
Hoe weet jij dat nou? Over een jaar ofzo hebben we allemaal DX9 spellen en dan zou je niet meer zonder willen....
22bits? ehm laten we even kijkenP5ycho schreef op 17 februari 2003 @ 11:09:
[...]
Een voodoo3 renderde intern 22bits wat betreft het 3d gedeelte, geen 32. zou aardig dom zijn om alles 32bits te renderen en daarna af te vlakken naar 16bit, laat het dan meteen 32bit...
32 bits = 8*8*8*8
rgba
22 bits = 5.5*5.5*5.5*5.5
2^8=256 kleuren per channel
2^5.5=45.25 kleuren per channel? lijkt me niet echt logisch
als we de alpha channel niet meenemen(24bit is ook zonder alpha, namelijk 8*8*8 en daar 8bit alpha bij = 32bit) krijgen we:
22/3=7.3333
2^7.3333=161.233 kleuren? euhm sure
dan komen we op een totaal van 22+7.3333=29.3333 bits voor rgba
klinkt niet echt logisch
zal wel 24bit geweest zijn in rgba mode(6*6*6*6) of 24bit in rgb mode met daar nog 8bit alpha bij = 32bit mode
oh nee? de geforce FX draait anders onder alle DX de spellen die daarvoor een bep versie vereisen, mischien op een aantal driver probs na maar dat heeft niets met de chip te makenVerwijderd schreef op 17 februari 2003 @ 23:32:
[...]
LoL, de gayforce FX is niet eens 100% DX Compatible
en als je bedoelt COMPLIANT heb je het nog mis want je geeft geen dx versie op
de geforce fx(en 3 en 4) zijn idd niet dx9.0 compliant, niet dx8.x compliant en geloof zelfs geen dx7.x compliant, maar met een goede reden.
ze ondersteunen geen HOS, High Order Surface, wat op dit moment veel te veel krach zou vragen van een chip. verder ondersteund de gffx niet de matrox manier van Displacement mapping, maar dat doet de radeon 9700 als het goed is ook niet, beiden zijn dus niet dx9.0 compliant
ga eerst maar eens wat leren voor je blaat
[ Voor 35% gewijzigd door bolleh op 18-02-2003 00:01 ]
Verwijderd
dit dus: nieuws: NV31en NV34 niet geheel DirectX 9.0-compatibel?
bedoelde dx 9 dus, post aangepast
[ Voor 19% gewijzigd door Verwijderd op 18-02-2003 10:22 ]
Verwijderd
P5ycho schreef op 17 February 2003 @ 11:09:
[...]
Een voodoo3 renderde intern 22bits wat betreft het 3d gedeelte, geen 32. zou aardig dom zijn om alles 32bits te renderen en daarna af te vlakken naar 16bit, laat het dan meteen 32bit...
Maar goed, als jullie informatie over 3dfx willen hebben, kijk dan op "3dfx must live on deel 2" topic, hier word namelijk een hoop onzin over 3dfx gepost. Het word in dit topic een offtopic "3dfx dit, 3dfx dat" geblaat (inc. mijzelf ja, NO FLAME, NO OFFENCE).Q: What is the highest color depth available for the 3D output? Is it still 16-bit color or has it been updated to 32-bit color? A: The Voodoo3 uses internal rendering calculations @ 32bpp with a proprietary compression algorithm to store results at 16bpp. This gives us the best of both worlds: high color depth and low memory bandwidth!
[ Voor 4% gewijzigd door Verwijderd op 18-02-2003 12:34 ]
Verwijderd
Sorry hoor, maar een kaart waarbij je zelf je polys nog moest klippen kan ik niet serieus (meer) nemen :-)
>>>Al? ze zijn al 2 generaties verder in vergelijking met 3dfx
1) Precies, ze zijn 2 generaties *verder* dan 3dfx. Geef mij dus maar een NV
2) AA zit ook al een tijdje op die NV-kaarten hoor
Verder : allemaal geleuter, ik ben ook blij dat ik niet meer met een Adlib-kaart geluidjes hoef te maken. Dus die 3DFX kan me ook gestolen worden
nuttige toevoeging aan de discussieVerwijderd schreef op 18 February 2003 @ 10:41:
3DFX ?
Sorry hoor, maar een kaart waarbij je zelf je polys nog moest klippen kan ik niet serieus (meer) nemen :-)
>>>Al? ze zijn al 2 generaties verder in vergelijking met 3dfx
1) Precies, ze zijn 2 generaties *verder* dan 3dfx. Geef mij dus maar een NV
2) AA zit ook al een tijdje op die NV-kaarten hoorwie het ook maakt, het blijft altijd langzamer dan zonder AA dus de meeste mensen zetten het toch gewoon uit..
Verder : allemaal geleuter, ik ben ook blij dat ik niet meer met een Adlib-kaart geluidjes hoef te maken. Dus die 3DFX kan me ook gestolen worden

ff terug naar het onderwerp; zit er nog een of andere daughter-board in de planning voor de toekomstige NVx0?
Verwijderd
* zucht *Verwijderd schreef op 18 February 2003 @ 10:41:
3DFX ?
Sorry hoor, maar een kaart waarbij je zelf je polys nog moest klippen kan ik niet serieus (meer) nemen :-)
>>>Al? ze zijn al 2 generaties verder in vergelijking met 3dfx
1) Precies, ze zijn 2 generaties *verder* dan 3dfx. Geef mij dus maar een NV
2) AA zit ook al een tijdje op die NV-kaarten hoorwie het ook maakt, het blijft altijd langzamer dan zonder AA dus de meeste mensen zetten het toch gewoon uit..
Verder : allemaal geleuter, ik ben ook blij dat ik niet meer met een Adlib-kaart geluidjes hoef te maken. Dus die 3DFX kan me ook gestolen worden
1) Ik zeg ook helemaal niet dat de nv kaarten van nu slechter zijn dan 3dfx, nee natuurlijk niet, dat is vergelijking tussen een Opel Kadett 1989 een en Opel Astra 2003. Ik geef alleen aan dat het woord al niet op z'n plaats is, natuurlijk kun je dan zeggen "3dfx kaarten hebben pas T&L" in de Rampage kaarten.
2) AA zit er inderdaad al een tijdje in, maar bij NV had je een veel grotere framedrop dan bij 3dfx als FSAA ingeschakeld werd. Ik wil hier verders geen flames over, wil je het zonodig weten, kijk dan hier --- 3dfx must live on --- Deel II.
En dat, dat mensen FSAA uitzetten, tja dat is je eigen keuze, de meeste huis en tuin gebruikers weten niet eens waar het voor dient. Mijn monitor kan maar max 1280x1024 aan, dus voor is het wel een oplossing (ik heb overigs een ATI 9500, maar ben wel Ex Voodoo5 gebruiker).
Ik kan me ook voorstellen dat 3dfx je nu gestolen kan worden, maar dit topic gaat het er over wat nVidia heeft overgenomen, van welke features die 3dfx had, nVidia nu kan profiteren. Als je zo weinig interesse toont, dan moet je gewoon niet replyen in dit topic.
Er zal toch wel een vivo variant komen? (of ben ik nu in de war met daughter board?)casemodderpoel schreef op 18 February 2003 @ 11:09:
[...]
nuttige toevoeging aan de discussie![]()
ff terug naar het onderwerp; zit er nog een of andere daughter-board in de planning voor de toekomstige NVx0?
ja je bent in de war, vivo is Video In Video Out, en een daughterboard is een bordje dat je met een PCI slot en een flatcable aan je videokaart hangt (mijn GeForce1DDR van creative had die mogelijkheid, alleen ik heb dat bordje nooit gezien)Upke dupke schreef op 18 February 2003 @ 14:01:
[...]
Er zal toch wel een vivo variant komen? (of ben ik nu in de war met daughter board?)
hehe, eindelijk iemand die het begrijptVerwijderd schreef op 18 February 2003 @ 12:42:
Ik kan me ook voorstellen dat 3dfx je nu gestolen kan worden, maar dit topic gaat het er over wat nVidia heeft overgenomen, van welke features die 3dfx had, nVidia nu kan profiteren. Als je zo weinig interesse toont, dan moet je gewoon niet replyen in dit topic.