Ja, het is me ook nog niet duidelijk wat DX9 nu precies doet. nVidia heeft een nieuwe Cg compiler gemaakt en aan Microsoft gegeven, maar het contolepaneel van een FX geeft je ook de optie om tussen 'native' en 'Cg compiled' te kiezen.SuperG schreef op 14 September 2003 @ 19:02:
[...]
Klopt 'n hogere taal maar staat dicht bij assembly.
...
Men kan Cg en ASM door elkaar gebruiken genereren met Cg en daarnaast waar het kan de genereerde ASM optimaliseren.
D'r zijn dus drie aanpakken die elk hun voor en nadelen hebben.
Er is een nieuwe post op Beyond3D verschenen van Deano Calver, de lead developer van Silent Hill. Hij was naar de Mojo Reloaded event geweest (game dev. event van ATi, MS en Intel). Dit was een dag na de bekendmaking van de HL2 benchmarks, en dit was dan ook het gesprek van de dag.
Hij vertelde ook dat Valve en Microsoft aardig pissed op nVidia zijn, omdat nV ze meer werk heeft laten verrichten dan eigenlijk nodig was. En het belangrijkste wat hij zei... hij was blij dat Valve de resultaten bekend maakte en dit bevestigde wat vele andere gamedevs ook al hadden gemerkt, nl dat de FX architectuur slecht presteert in DX9.
Hij vertelde dat hij blij was dat een groot, erkend bedrijf als Valve het had gedaan omdat 'kleinere' devs al snel worden afgedaan als 'onkundig' bij het maken van zulke statements. Grote bedrijven als Valve en ID en MS hebben daar minder last van.
Dus dat beloofd nog wat voor de nieuwe DX9 games die er straks aan komen en hun performance op de FX...
Hij vertelde ook dat Valve en Microsoft aardig pissed op nVidia zijn, omdat nV ze meer werk heeft laten verrichten dan eigenlijk nodig was. En het belangrijkste wat hij zei... hij was blij dat Valve de resultaten bekend maakte en dit bevestigde wat vele andere gamedevs ook al hadden gemerkt, nl dat de FX architectuur slecht presteert in DX9.
Hij vertelde dat hij blij was dat een groot, erkend bedrijf als Valve het had gedaan omdat 'kleinere' devs al snel worden afgedaan als 'onkundig' bij het maken van zulke statements. Grote bedrijven als Valve en ID en MS hebben daar minder last van.
Bron: http://www.beyond3d.com/forum/viewtopic.php?t=7873but what wasn't perhaps so expected was how glad everybody else was that HL2 results matched the results most of us had already seen ourselves. Somebody on the forums (sorry can't remember who) asked why developers seemed quite shy in stating our results, I obviously can't talk for everbody but the answer is probably a simple case of somebody had to first and whoever that person/company was, they better be able to handle the heat that it would produce...
.....
Everbody has been forced to pay for NVIDIA's mistakes, and that is what has caused the anger..
Dus dat beloofd nog wat voor de nieuwe DX9 games die er straks aan komen en hun performance op de FX...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
misschien een beetje oftopic,maar zit eraan te denken om een Chaintec FX5900 ultra te kopen ondanks alle rumoer rond de Fx.Ik denk toch dat dit geen verkeerde kaart is,ok de 9800 is misschien een betere keus(?)maar deze kaart kan ik voor rond de 300 euro krijgen(2e hands)dus voor dat bedrag geen verkeerde keus ?
Graag jullie mening hierover,bedankt alvast!
Graag jullie mening hierover,bedankt alvast!
misschien een beetje oftopic,maar zit eraan te denken om een Chaintec FX5900 ultra te kopen(2e hands)voor rond de 300 euro,is dit een goede keus of zou ik toch maar voor de 9800 pro moeten gaan ondanks alle rumoer rond de Fx lijkt het me geen verkeerde kaart om voor deze Chaintec te kiezen.
Graag jullie mening hierover en liefst je ervaring met deze kaart,alvast bedankt
Graag jullie mening hierover en liefst je ervaring met deze kaart,alvast bedankt
ik denk dat je voor de komende DX 9 games beter af bent met een Radeon 9700 pro. Ik dacht dat je die ook al kon krijgen voor die prijs.
Maja, das mijn mening
Wat heb je nu?
Maja, das mijn mening
Wat heb je nu?
Ik heb nu een GF3 500ti,de Fx lijkt me dus wel een goede stap vooruit!
Je kan ook een 9800 (np) kopen voor 299 euro en dan is hij gewoon nieuw.
pricewatch: Sapphire Radeon 9800 128MB (AGP)
Dus dan zou ik het wel weten
(En je kan natuurlijk je 9800 np oc-en naar de snelheid van een 9800 pro
)
pricewatch: Sapphire Radeon 9800 128MB (AGP)
Dus dan zou ik het wel weten
(En je kan natuurlijk je 9800 np oc-en naar de snelheid van een 9800 pro
Zeker, de geheugen bandbreedte bij de GF3 is een limitatie ten overzichte van de nieuwere kaarten. Dus een game die je op een GF3 ti500 zonder Anti-aliasing of Aniso kan draaien kun je op een GF4 ti of een GF FX ( vanaf de 5600 natuurlijk ) met een leuke Quincunx ( 3x anti aliasing ) draaien of een leuke aniso ( dat het beeld in de verte verbeterd van kwaliteit )Fern schreef op 14 september 2003 @ 23:14:
Ik heb nu een GF3 500ti,de Fx lijkt me dus wel een goede stap vooruit!
Ik raad aan een FX5600 te kopen en als mogelijk de Ultra!
Een kaart die in de buurt van de GF 4 ti series presteerd en over het algemeen goed werkt.
There is no place like ::1
Ik zou toch de FX halen, maar het hangt er ook van af welke games je speelt, in DirectX 8.1 games zou ik voor de FX kiezen, maar als je de nieuwere games wil spelen, waar je zo een kaart toch voor koopt, kan je inderdaad beter voor een ATi gaan. Misschien als je geduldt hebt, kan je ook wachten op de volgende generatie GPU's de NV40 en de R420. Succes met je (moeilijke) keuze anyway.
PS: in welk systeem komt de kaart eigenlijk?
PS: in welk systeem komt de kaart eigenlijk?
offtopic:
Hehe Diguru, ik klikte op Submit en kreeg in een keer 2 posts tegelijk, ik was net <1 sec sneller
Hehe Diguru, ik klikte op Submit en kreeg in een keer 2 posts tegelijk, ik was net <1 sec sneller
[ Voor 14% gewijzigd door Mojo op 14-09-2003 23:33 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ik vind het lullig om dit in het grote FX topic te zeggen, maar ik zou iedereen die straks DX9 spellen wil kunnen spelen toch absoluut geen FX aanraden. Dat gaat op geen enkele manier goed werken.
offtopic:
Ja, ik moest ook meteen kijken naar de tijd van jou post. Leuk.
Ja, ik moest ook meteen kijken naar de tijd van jou post. Leuk.
[ Voor 20% gewijzigd door DiGuru op 14-09-2003 23:40 ]
Verwijderd
Mensen, dit is eigenlijk iets waarvor GoT niet bedoeld is, maar ik heb me rot gezocht op googel.nl en heb niks/weinig zinvols gevonden.
Ik heb €250,- te besteden voor een nieuwe videokaart en de Asus V9900 FX5800 TD 128MB lijkt me wel een leuke kaart, maar ik lees hier dat hij niet meer geproduceert wordt. Waarom niet? En is dit wel een goede kaart?
Ik heb een Asus P4S533 bordje met een P4 2,4. En 2x kingston 512 Mb Ddr PC 2700
Ik heb €250,- te besteden voor een nieuwe videokaart en de Asus V9900 FX5800 TD 128MB lijkt me wel een leuke kaart, maar ik lees hier dat hij niet meer geproduceert wordt. Waarom niet? En is dit wel een goede kaart?
Ik heb een Asus P4S533 bordje met een P4 2,4. En 2x kingston 512 Mb Ddr PC 2700
edit:
Ik had hiervoor een FX5200 Magik/TD maar dat is echt slecht
Ik had hiervoor een FX5200 Magik/TD maar dat is echt slecht
[ Voor 20% gewijzigd door Verwijderd op 14-09-2003 23:46 ]
Bedankt voor jullie reacties,maar ja ,is de Fx dan niet volledig Dx9 compatible.
Als dat niet zo is zou je dan veel missen in beeldkwaliteit of fps,tuurlijk wil ik de nieuwste games spelen maar die draaien nu ook op m'n Gf3 wel goed,wat ik nu wil is natuurlijk wel een kaart die effe mee kan.
Oh ja hij komt op een Gigabyte 7VAXP met een 3000xp(2,3) en 2x256Mb pc3200(corsair)ik dacht dat dit wel een nieuwe video kaart verdiend!
Als dat niet zo is zou je dan veel missen in beeldkwaliteit of fps,tuurlijk wil ik de nieuwste games spelen maar die draaien nu ook op m'n Gf3 wel goed,wat ik nu wil is natuurlijk wel een kaart die effe mee kan.
Oh ja hij komt op een Gigabyte 7VAXP met een 3000xp(2,3) en 2x256Mb pc3200(corsair)ik dacht dat dit wel een nieuwe video kaart verdiend!
Nee, dit is geen goede kaart. Dit is een stofzuiger (hij maakt te veel geluid). Zoek maar verder.Ik heb €250,- te besteden voor een nieuwe videokaart en de Asus V9900 FX5800 TD 128MB lijkt me wel een leuke kaart, maar ik lees hier dat hij niet meer geproduceert wordt. Waarom niet? En is dit wel een goede kaart?
[ Voor 7% gewijzigd door SoLeDiOn op 14-09-2003 23:55 ]
Ik snap niet dat mensen nog een FX kaart aanraden en zeker de FX 5600 (ultra) als je nu echt je geld wil verspillen moet je die kaart kopen.... Voor minder heb je een Radeon 9600 die heel wat stukken beter is en op dit moment gewoon de beste prijs/kwaliteit verhouding heeft.
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Goed dat mensen gaan nadenken, voordat ze op een FX overstappen
De 5800 heeft een 128-bits memory bus en dus is het mogelijk voordeel van DDR II ( duur ) dus niets waard.Verwijderd schreef op 14 September 2003 @ 23:41:
Mensen, dit is eigenlijk iets waarvor GoT niet bedoeld is, maar ik heb me rot gezocht op googel.nl en heb niks/weinig zinvols gevonden.
Ik heb €250,- te besteden voor een nieuwe videokaart en de Asus V9900 FX5800 TD 128MB lijkt me wel een leuke kaart, maar ik lees hier dat hij niet meer geproduceert wordt. Waarom niet? En is dit wel een goede kaart?
Ik heb een Asus P4S533 bordje met een P4 2,4. En 2x kingston 512 Mb Ddr PC 2700
edit:
Ik had hiervoor een FX5200 Magik/TD maar dat is echt slecht
De kaart is ...fout gebouwd. Met de 5900 maakte ze de fout goed door gewoon een 256bits geheugen bus te gebruiken en DDR.
There is no place like ::1
Beetje raar advies geef jij, een 5600 (ultra) kan maar net de Ti4200 bijbenen. Behalve met AA/AF natuurlijk. Oude spellen zijn leuk die je dan met je 5600 met AA/AF kan spelen maar als je een beetje toekomst gericht bent zie je toch ook wel dat het eerste nieuwe spel wat nu uitkomst toch echt niet meer op een 5600 met AA/AF wil. Daar komt nog eens bij dat het ding veel te duur is in vergelijking met de 9600 (pro) van ATI. Je kan beter, als je toch een nV wil, een leuke Ti4600 op de kop tikken als je zonder AA/AF speelt. Met AA/AF kan je beter een snelle ATI kopen.swampy schreef op 14 September 2003 @ 23:28:
[...]
Zeker, de geheugen bandbreedte bij de GF3 is een limitatie ten overzichte van de nieuwere kaarten. Dus een game die je op een GF3 ti500 zonder Anti-aliasing of Aniso kan draaien kun je op een GF4 ti of een GF FX ( vanaf de 5600 natuurlijk ) met een leuke Quincunx ( 3x anti aliasing ) draaien of een leuke aniso ( dat het beeld in de verte verbeterd van kwaliteit )
Ik raad aan een FX5600 te kopen en als mogelijk de Ultra!
Een kaart die in de buurt van de GF 4 ti series presteerd en over het algemeen goed werkt.
Dat is ook waar.....maar ja...de persoon zelf moet kijken naar zijn budget en naar wat hij wil......xabre16v schreef op 15 September 2003 @ 00:34:
[...]
Beetje raar advies geef jij, een 5600 (ultra) kan maar net de Ti4200 bijbenen. Behalve met AA/AF natuurlijk. Oude spellen zijn leuk die je dan met je 5600 met AA/AF kan spelen maar als je een beetje toekomst gericht bent zie je toch ook wel dat het eerste nieuwe spel wat nu uitkomst toch echt niet meer op een 5600 met AA/AF wil. Daar komt nog eens bij dat het ding veel te duur is in vergelijking met de 9600 (pro) van ATI. Je kan beter, als je toch een nV wil, een leuke Ti4600 op de kop tikken als je zonder AA/AF speelt. Met AA/AF kan je beter een snelle ATI kopen.
There is no place like ::1
Gamersdepot heeft een preview van Det50 online gezet:
http://www.gamersdepot.co..._nvidia/dx9_rel50/001.htm
http://www.gamersdepot.co..._nvidia/dx9_rel50/001.htm
Looking at our Halo screenshots, it becomes quite apparent that NVIDIA’s hardware isn’t running with full image quality or detail; even though we specified it using the in-game video settings. If you look at the waterfall scene in particular, you’ll notice the area around the Waterfall area isn’t lit up like it should be – NVIDIA produces far less vivid imagery on the overall image for both Halo pictures
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tja, wat valt er te zeggen....dat Nvidia geen officieele DX9 biedt? Dat Nvidia met Pixelshader 2.0 belachelijk langzaam wordt dus maar gaat cheaten ( en de beeld kwaliteit gewoon droeving omlaag gooit )CJ schreef op 15 September 2003 @ 12:35:
Gamersdepot heeft een preview van Det50 online gezet:
http://www.gamersdepot.co..._nvidia/dx9_rel50/001.htm
[...]
....Ik kan alleen hopen dat de NV40 gewoon de DX9 standaard volgt en dat Pixelshader 2.0 gewoon goed zijn werk doet!
There is no place like ::1
It's in our opinion that both end-users and OEM's should be highly cautioned into buying any of NVIDIA's current hardware under the assumption that it'll offer the best gaming experience for DirectX9-class games.
Meestal wordt tijdens een review een product afgekraakt, maar nu zie je een hele productlijn afgezeken worden. Dat gebeurt ook niet vaak
Zou iemand met een FX deze demo eens kunnen proberen?
http://www.daionet.gr.jp/~masa/archives/rthdribl_1_2.zip
Ik krijg met een 9600 pro op de standaard instellingen (wel full-screen, dat is Alt-Enter) 25 fps. Ik ben heel benieuwd hoe een FX dat doet.
EDIT: hier is een plaatje:
http://www.diguru.com/pic/Ballen.bmp
Zoals je kunt zien heb ik hier 34 fps, maar meestal is het 25 fps.
http://www.daionet.gr.jp/~masa/archives/rthdribl_1_2.zip
Ik krijg met een 9600 pro op de standaard instellingen (wel full-screen, dat is Alt-Enter) 25 fps. Ik ben heel benieuwd hoe een FX dat doet.
EDIT: hier is een plaatje:
http://www.diguru.com/pic/Ballen.bmp
Zoals je kunt zien heb ik hier 34 fps, maar meestal is het 25 fps.
[ Voor 22% gewijzigd door DiGuru op 15-09-2003 14:07 ]
De magic geval is idd slecht dat is een 64 bit Membus. Ik raad je aan om een radeon 9700 non-pro te kopen of een 9800 SE en die eventueel modden naar pro. Of je wacht nog even en koopt de volgende generatie videokaarten (NV40) r(v) 420.Verwijderd schreef op 14 September 2003 @ 23:41:
Mensen, dit is eigenlijk iets waarvor GoT niet bedoeld is, maar ik heb me rot gezocht op googel.nl en heb niks/weinig zinvols gevonden.
Ik heb €250,- te besteden voor een nieuwe videokaart en de Asus V9900 FX5800 TD 128MB lijkt me wel een leuke kaart, maar ik lees hier dat hij niet meer geproduceert wordt. Waarom niet? En is dit wel een goede kaart?
Ik heb een Asus P4S533 bordje met een P4 2,4. En 2x kingston 512 Mb Ddr PC 2700
edit:
Ik had hiervoor een FX5200 Magik/TD maar dat is echt slecht
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
Hij heeft €250 te besteden, dus met die laatste optie is hij niets. Die kaarten zullen €500-600 kosten bij de release.sokje schreef op 15 September 2003 @ 14:54:
[...]
De magic geval is idd slecht dat is een 64 bit Membus. Ik raad je aan om een radeon 9700 non-pro te kopen of een 9800 SE en die eventueel modden naar pro. Of je wacht nog even en koopt de volgende generatie videokaarten (NV40) r(v) 420.
mijn 5900 fx ultra komt met dezelfde instellingen tussen de 20 en 25 fpsDiGuru schreef op 15 September 2003 @ 13:44:
Zou iemand met een FX deze demo eens kunnen proberen?
http://www.daionet.gr.jp/~masa/archives/rthdribl_1_2.zip
Ik krijg met een 9600 pro op de standaard instellingen (wel full-screen, dat is Alt-Enter) 25 fps. Ik ben heel benieuwd hoe een FX dat doet.
EDIT: hier is een plaatje:
http://www.diguru.com/pic/Ballen.bmp
Zoals je kunt zien heb ik hier 34 fps, maar meestal is het 25 fps.

(det 45.23)
C2D 6600, 275 GTX Windows 7
Mensen, ik heb ook een GeForce FX gekocht, de Asus v9520 TD 128MB, maar ik wil iedereen aanraden die een beetje budget heeft om een Radeon te kopen. Mijn videokaart presteert gewoon onder de maat! ATI heeft op dit moment gewoon de beste prijs/kwaliteit verhouding.
Verwijderd
Probeer eerst zelf eens het uiterste uit de kaart te halen.jpeursem schreef op 15 September 2003 @ 15:28:
Mensen, ik heb ook een GeForce FX gekocht, de Asus v9520 TD 128MB, maar ik wil iedereen aanraden die een beetje budget heeft om een Radeon te kopen. Mijn videokaart presteert gewoon onder de maat! ATI heeft op dit moment gewoon de beste prijs/kwaliteit verhouding.
Verwijderd
Met die demo haal ik volgende resultaten op m'n R9800 Pro @ 410/360
(mipmap en structuurvoorkeur op hoogste kwaliteit)
Resolutie: 1024*768:
4 x AA, 4 x AF: 12-15 FPS
2 x AA, 2 x AF: 15-17 FPS
Resolutie 640*480:
4 x AA, 4 x AF: 32-35 FPS
2 x AA, 2 x AF: 38-40 FPS
Specs: WinXP Pro, DX9.0b, Cat 3.7
Wat een zware demo zeg!
(mipmap en structuurvoorkeur op hoogste kwaliteit)
Resolutie: 1024*768:
4 x AA, 4 x AF: 12-15 FPS
2 x AA, 2 x AF: 15-17 FPS
Resolutie 640*480:
4 x AA, 4 x AF: 32-35 FPS
2 x AA, 2 x AF: 38-40 FPS
Specs: WinXP Pro, DX9.0b, Cat 3.7
Wat een zware demo zeg!
Is hij er ook mooi naar?Verwijderd schreef op 15 September 2003 @ 15:46:
Met die demo haal ik volgende resultaten op m'n R9800 Pro @ 410/360
(mipmap en structuurvoorkeur op hoogste kwaliteit)
Resolutie: 1024*768:
4 x AA, 4 x AF: 12-15 FPS
2 x AA, 2 x AF: 15-17 FPS
Resolutie 640*480:
4 x AA, 4 x AF: 32-35 FPS
2 x AA, 2 x AF: 38-40 FPS
Specs: WinXP Pro, DX9.0b, Cat 3.7
Wat een zware demo zeg!
Niet op voorraad.
Verwijderd
Niet echt, maar hij maakt wel heel intensief gebruik van DirectX9 en je kan een heleboel instellen zoals belichtingseffecten, diepteveldeffecten, multisample van 1-16, verschillende materialen en achtergronden, fresnel-effect, detail maps, noem maar op...
Uit de readme:
Rthdribl is a technical demo of "High Dynamic Range Image-Based Lighting". DirectX(R) 9.0 high-precision texture formats and version-2.0 of Pixel Shader represent real-time true HDR rendering. Light sources and reflected or refracted lights that are very bright cause Glare.
Technical features of this demo are:
- True HDR (High-Dynamic Range) Rendering
- IBL (Image-Based Lighting)
- Glare Generation (Afterimage, Bloom, Halo, Ghost, and Star)
- Automatic Exposure Adjustment
- Iris shaped Depth of Field blur
- Realistic Motion Blur
- FSAA (Full-Scene Anti-Alias)
- Fresnel Reflection (Specular Reflectance, Metallic Color-Shift)
etc.
The Glare, the Motion Blur, the Fresnel Reflection and the Depth of Field effects work properly by rendering with HDR.
These effects are still expensive for real-time rendering like games, but will hopefully be of practical use in the near future.
Ach kom.. Iedereen weet toch dat de PS2 performance zwaar onder de maat is.Verwijderd schreef op 15 September 2003 @ 15:44:
[...]
Probeer eerst zelf eens het uiterste uit de kaart te halen.
Deze kaart is prima voor DX8 games, maar voor DX9 games moet je hem gewoon niet hebben.
Er vrschijnen trouwens meer posts van ontevreden users her en der... zegt genoeg..
Hier op het forum van B3D staat een 'mooie' ervaring van een eigenaar van een GF5900U.
[ Voor 23% gewijzigd door boesOne op 15-09-2003 16:36 ]
I say we take off and nuke the entire site from orbit. It's the only way to be sure.
Yeah well. The Dude abides.
Hmm... de demo maakt dus intensief gebruik van HDR. En als ik me niet vergis dan ondersteunt de FX-serie nog geen HDR. Dit is de reden waarom Valve nog geen HDR in de HL2-benchmark heeft geimplementeerd. Ze wilden appels met appels vergelijken, dus zou het oneerlijk zijn om ATi wel de HDR-effecten te laten renderen, terwijl nVida dat niet zou doen.Verwijderd schreef op 15 September 2003 @ 16:14:
[...]
Uit de readme:
Rthdribl is a technical demo of "High Dynamic Range Image-Based Lighting". DirectX(R) 9.0 high-precision texture formats and version-2.0 of Pixel Shader represent real-time true HDR rendering.
[...]
Maar wat ik dus wil zeggen is, neem de resultaten die je met een FX krijgt met een korreltje zou. HDR staat nog niet aan in de drivers, dus zal de demo ook niet op z'n volle potentieel draaien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Oh demo ken ik al, heel mooi iig. fullscreen 1024x768 15 fps
wel met 16xAF en 16 multi.
Niet op voorraad.
heeft iemand die 51.75 drivers al geprobeerd?
Ik heb nog twijfels over de aanschaf van een Fx5900 ultra.ik denk zelf dat de Fx nog lang niet zijn echte kunnen heeft laten zien,dat er dus veel meer inzit dan eruit komt op dit moment.
Ik heb nog twijfels over de aanschaf van een Fx5900 ultra.ik denk zelf dat de Fx nog lang niet zijn echte kunnen heeft laten zien,dat er dus veel meer inzit dan eruit komt op dit moment.
Verwijderd
Tipje voor de 50.xx-driver comments: nVidia Detonator 50.xx serieFern schreef op 15 September 2003 @ 19:54:
heeft iemand die 51.75 drivers al geprobeerd?
Ik heb nog twijfels over de aanschaf van een Fx5900 ultra.ik denk zelf dat de Fx nog lang niet zijn echte kunnen heeft laten zien,dat er dus veel meer inzit dan eruit komt op dit moment.
THXVerwijderd schreef op 15 September 2003 @ 19:56:
[...]
Tipje voor de 50.xx-driver comments: nVidia Detonator 50.xx serie
Ja, dat kwam ik daarstraks ook ergens tegen. Kun je dat ook zien als je hem draait op een FX? Je kunt het vergelijken met het screenshot dat ik heb gepost.CJ schreef op 15 September 2003 @ 18:53:
[...]
Hmm... de demo maakt dus intensief gebruik van HDR. En als ik me niet vergis dan ondersteunt de FX-serie nog geen HDR. Dit is de reden waarom Valve nog geen HDR in de HL2-benchmark heeft geimplementeerd. Ze wilden appels met appels vergelijken, dus zou het oneerlijk zijn om ATi wel de HDR-effecten te laten renderen, terwijl nVida dat niet zou doen.
Maar wat ik dus wil zeggen is, neem de resultaten die je met een FX krijgt met een korreltje zou. HDR staat nog niet aan in de drivers, dus zal de demo ook niet op z'n volle potentieel draaien.
Ja dat is één van de twee mogelijkheden maar de tweede is ook mogelijk dat de FX5900 helemaal niet zo super is.Fern schreef op 15 September 2003 @ 19:54:
heeft iemand die 51.75 drivers al geprobeerd?
Ik heb nog twijfels over de aanschaf van een Fx5900 ultra.ik denk zelf dat de Fx nog lang niet zijn echte kunnen heeft laten zien,dat er dus veel meer inzit dan eruit komt op dit moment.
Maar ja de variable hier is de driver team achter die kaarten, lopen ze achter of is nV DX9 tech echt 'n stuk minder dan die van ATI.
Het blijft mij verbazen dat sommige dit gewoon weg niet kunnen geloven?
Wat vooral een probleem is dat Software huizen zich ergen aan elke keer het wiel op een andere manier uitvinden wat in de GPU markt gebeurt. ieder streeft naar zijn eigen aanpak om de boel afhankelijk te maken.
Glide
Cg
Ja MS is niet populair maar DX is een standaard voor de PC game markt geld ook voor OpenGL dus één methode in elke API voor alle G-kaarten om die aan te sturen, nVidia dwingt developers nu door hun tech implementatie keuze om hun kaarten wegen performance isues specifiek te ondersteunen.
Das dubbel werk ATI en de rest vs nVidia had moeten zijn elke Gkaart merk DX9 kaart
nVidia loopt de kans dat grote software huizen niet nV pad kiezen en alleen standaart aansturen. iig hebben ze (JC) ID soft wel om, Valve dus niet.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Leave It.
[ Voor 97% gewijzigd door Mojo op 16-09-2003 09:00 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Gaat Omerga juist niet eerder voor de beeld qwaliteit dus minder performance?
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Verwijderd
Grmpf, had hij hier ook al geschreven, en ik gaf er hetzelfde antwoord op. Crossposten haalt niets uit sokje...SuperG schreef op 15 September 2003 @ 21:28:
Gaat Omerga juist niet eerder voor de beeld qwaliteit dus minder performance?
offtopic:
neej klopt, sorry, ik zat in het verkeerde topic te posten, (shame on me) laat 1 van de mods hem maar weg halen in een van de topics (hij hoorde hier ook niet) (ik vond die error ook al vreemd
)
neej klopt, sorry, ik zat in het verkeerde topic te posten, (shame on me) laat 1 van de mods hem maar weg halen in een van de topics (hij hoorde hier ook niet) (ik vond die error ook al vreemd
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
lolsokje schreef op 15 September 2003 @ 21:39:
offtopic:
neej klopt, sorry, ik zat in het verkeerde topic te posten, (shame on me) laat 1 van de mods hem maar weg halen in een van de topics (hij hoorde hier ook niet) (ik vond die error ook al vreemd)
Op dit moment.....waarschijnlijk wel. DX8.1 support....:-) En dan bedoel ik volledige DX8.1 support!xabre16v schreef op 15 September 2003 @ 21:53:
Kunnen we nu de conclusie trekken dat de beste nVidia kaart nog steeds de Ti4600 is
Okay de FX5900 Ultra is sneller maar...umm...laten we niet praten over de vuile cheats die in de drivers nodig zijn om redelijk snelheden te laten zien!
There is no place like ::1
GeForce 3 = GeForce 2 met iets betere memory interface en vertex shaders
4200 MX = GeForce 2 MX met iets betere memory interface
4600 MX = GeForce 2 met iets betere memory interface
4200 Ti = GeForce 3 MX met iets betere memory interface en simpele pixel shaders
4600 Ti = GeForce 3 met iets betere memory interface en simpele pixel shaders
FX5200 = 4200 Ti met aangepaste shaders
FX5600 = 4600 Ti met aangepaste shaders
FX5900 = 4600 Ti met meer shaders
Een 5200 is 1 vertex, 4 pixel, 4 pipelines
Een 5600 is 2 vertex, 4 pixel, 4 pipelines
Een 5900 is 3 vertex, 4 pixel, 8 pipelines
(Voor zover bekend, nVidia houd het nog steeds geheim.)
Ter vergelijking:
9600 is 2 vertex, 4 pixel, 4 pipelines
9800 is 4 vertex, 8 pixel, 8 pipelines
Maar hou er wel rekening mee, dat de shaders van ATi rechtstreeks DX9/OGL2 uitvoeren, terwijl het voor die van nVidia eerst vertaald moet worden. Vandaar ook, dat een 9600 veel sneller is dan een 5600, terwijl je zou verwachten dat die twee net zo snel zijn.
En dat een 9800 dan relatief nog zo traag is (hij is lang niet twee keer zo snel als een 9600), komt vooral omdat de hedendaagse computers niet snel genoeg zijn om hem helemaal open te sturen.
Een 5900 zal dus nooit zo snel worden als een 9800, maar kan gemakkelijk winnen van een 9600 als spellen helemaal in Cg worden gemaakt. Maar dan draaien ze natuurlijk alleen maar op nVidia chips. Dat zou nVidia heel fijn vinden, maar de spelontwikkelaars en Microsoft zien dat anders.
EDIT: En het mag ondertussen duidelijk zijn, dat de hoeveelheid en efficientie van de pixel shaders aangeeft hoe snel een chip in werkelijkheid is.
4200 MX = GeForce 2 MX met iets betere memory interface
4600 MX = GeForce 2 met iets betere memory interface
4200 Ti = GeForce 3 MX met iets betere memory interface en simpele pixel shaders
4600 Ti = GeForce 3 met iets betere memory interface en simpele pixel shaders
FX5200 = 4200 Ti met aangepaste shaders
FX5600 = 4600 Ti met aangepaste shaders
FX5900 = 4600 Ti met meer shaders
Een 5200 is 1 vertex, 4 pixel, 4 pipelines
Een 5600 is 2 vertex, 4 pixel, 4 pipelines
Een 5900 is 3 vertex, 4 pixel, 8 pipelines
(Voor zover bekend, nVidia houd het nog steeds geheim.)
Ter vergelijking:
9600 is 2 vertex, 4 pixel, 4 pipelines
9800 is 4 vertex, 8 pixel, 8 pipelines
Maar hou er wel rekening mee, dat de shaders van ATi rechtstreeks DX9/OGL2 uitvoeren, terwijl het voor die van nVidia eerst vertaald moet worden. Vandaar ook, dat een 9600 veel sneller is dan een 5600, terwijl je zou verwachten dat die twee net zo snel zijn.
En dat een 9800 dan relatief nog zo traag is (hij is lang niet twee keer zo snel als een 9600), komt vooral omdat de hedendaagse computers niet snel genoeg zijn om hem helemaal open te sturen.
Een 5900 zal dus nooit zo snel worden als een 9800, maar kan gemakkelijk winnen van een 9600 als spellen helemaal in Cg worden gemaakt. Maar dan draaien ze natuurlijk alleen maar op nVidia chips. Dat zou nVidia heel fijn vinden, maar de spelontwikkelaars en Microsoft zien dat anders.
EDIT: En het mag ondertussen duidelijk zijn, dat de hoeveelheid en efficientie van de pixel shaders aangeeft hoe snel een chip in werkelijkheid is.
[ Voor 5% gewijzigd door DiGuru op 15-09-2003 23:09 ]
Voor de mensen die nu door de bomen het bos niet meer zien hier even wat uitleg.
Vroeger bestond een grafische pijplijn uit twee onderdelen: een geometrie engine en een pixel pijplijn. De geometrie werd door de CPU berekend, de grafische kaart deed de pixels.
Daar is toen een vertex shader bijgekomen, die 'Transform and Lightning' deed: driehoekjes (vertices) verplaatsen en de belichting uitrekenen.
Daarna was het toch wel veel beter om gewoon alle grafische data naar de videokaart te uploaden en die al het werk te laten doen. Die kreeg er dus ook een geometrie engine bij.
En toen bleek, dat de pixel pijplijn wel heel erg lang en complex werd, het aantal textures en effecten werd steeds groter. Daar hebben ze toen een pixel shader voor bedacht.
Een overzichtje:
1.
Pixel pijplijn
2.
Vertex shader
Pixel pijplijn
3.
Geometrie engine
Vertex shader
Pixel pijplijn
4.
Geometrie engine
Vertex shader
Pixel shader
Pixel pijplijn
En dan komen we nu bij het heden. Waarom nog een pixel pijplijn gebruiken als die pixel shader dat ook kan? Die pixel pijplijn is er alleen nog voor de backward-compatibility. Die pixel shader kan dat ook allemaal!
5.
Geometrie engine
Vertex shader
Pixel shader
Maar alleen ATi is al zo ver. nVidia moet het voor de rauwe preformance nog van de pixel pijplijn hebben. Een 9600 is dus eigenlijk 2-4 en een 9800 4-8, terwijl een FX5200 1-(4/4) is en een 5900 3-(4/8).
Dus die pixel shaders hebben nog veel meer nut dan alleen maar mooie DX9 spelletjes spelen!
Vroeger bestond een grafische pijplijn uit twee onderdelen: een geometrie engine en een pixel pijplijn. De geometrie werd door de CPU berekend, de grafische kaart deed de pixels.
Daar is toen een vertex shader bijgekomen, die 'Transform and Lightning' deed: driehoekjes (vertices) verplaatsen en de belichting uitrekenen.
Daarna was het toch wel veel beter om gewoon alle grafische data naar de videokaart te uploaden en die al het werk te laten doen. Die kreeg er dus ook een geometrie engine bij.
En toen bleek, dat de pixel pijplijn wel heel erg lang en complex werd, het aantal textures en effecten werd steeds groter. Daar hebben ze toen een pixel shader voor bedacht.
Een overzichtje:
1.
Pixel pijplijn
2.
Vertex shader
Pixel pijplijn
3.
Geometrie engine
Vertex shader
Pixel pijplijn
4.
Geometrie engine
Vertex shader
Pixel shader
Pixel pijplijn
En dan komen we nu bij het heden. Waarom nog een pixel pijplijn gebruiken als die pixel shader dat ook kan? Die pixel pijplijn is er alleen nog voor de backward-compatibility. Die pixel shader kan dat ook allemaal!
5.
Geometrie engine
Vertex shader
Pixel shader
Maar alleen ATi is al zo ver. nVidia moet het voor de rauwe preformance nog van de pixel pijplijn hebben. Een 9600 is dus eigenlijk 2-4 en een 9800 4-8, terwijl een FX5200 1-(4/4) is en een 5900 3-(4/8).
Dus die pixel shaders hebben nog veel meer nut dan alleen maar mooie DX9 spelletjes spelen!
edit:
Die geometrie engine is meer een soort van database voor objecten, die wordt voor de preformance nooit meegenomen. Die werkt gewoon, of niet. Niet spannend, zolang de CPU het maar niet hoeft te doen, want dan moet hij die dingen iedere keer over de AGP-bus naar de videokaart sturen en dat kost veel tijd.
Die geometrie engine is meer een soort van database voor objecten, die wordt voor de preformance nooit meegenomen. Die werkt gewoon, of niet. Niet spannend, zolang de CPU het maar niet hoeft te doen, want dan moet hij die dingen iedere keer over de AGP-bus naar de videokaart sturen en dat kost veel tijd.
[ Voor 10% gewijzigd door DiGuru op 15-09-2003 23:38 ]
Verwijderd
Geforce 3 MX? 4200MX? 4600MX?DiGuru schreef op 15 september 2003 @ 22:52:
GeForce 3 = GeForce 2 met iets betere memory interface en vertex shaders
4200 MX = GeForce 2 MX met iets betere memory interface
4600 MX = GeForce 2 met iets betere memory interface
4200 Ti = GeForce 3 MX met iets betere memory interface en simpele pixel shaders
4600 Ti = GeForce 3 met iets betere memory interface en simpele pixel shaders
FX5200 = 4200 Ti met aangepaste shaders
FX5600 = 4600 Ti met aangepaste shaders
FX5900 = 4600 Ti met meer shaders
Een 5200 is 1 vertex, 4 pixel, 4 pipelines
Een 5600 is 2 vertex, 4 pixel, 4 pipelines
Een 5900 is 3 vertex, 4 pixel, 8 pipelines
(Voor zover bekend, nVidia houd het nog steeds geheim.)
Vergelijk je nu een 5200 met een 4200Ti???

Volgens mij is dit niet helemaal correct.DiGuru schreef op 15 september 2003 @ 22:52:
Een 5200 is 1 vertex, 4 pixel, 4 pipelines
Een 5600 is 2 vertex, 4 pixel, 4 pipelines
Een 5900 is 3 vertex, 4 pixel, 8 pipelines
5200 en 5600 = 2x2 config. In de meeste gevallen werkt-ie als 4 pipeline architectuur, in sommige als 2 pipes met 2 TMUs per pipe.
5800 en 5900 = 4x2 config. In de meeste gevallen werkt-ie als 8 pipeline architectuur, in sommige gevallen als 4 pipes met 2 TMUs per pipe.
Overigens is de rest van de naamgeving die je gebruikt ook niet helemaal correct.
4200 MX, 4600 MX en Geforce 3 MX ?? GF4 MX 420, GF4 MX 440 (8x), GF4 MX460.
FX5200 is absoluut geen Ti4200 met aangepaste shaders. NV34 lijkt niet op NV25. NV25 was een hi end kaart en NV34 is een low end kaart. NV34 is vanaf de bodem nieuw opgebouwd en mist een aantal functionaliteiten van NV31. Verder is-ie kwa prestaties natuurlijk helemaal niet te vergelijken met de Ti4200, maar meer met de GF4MX440.
Edit: Overigens gaan de geruchten dat ATi dezelfde kant op gaat als nVidia met een 12x1 architectuur die ook kan werken als 6x2.
[ Voor 6% gewijzigd door CJ op 15-09-2003 23:41 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heb ik het fout? Dat kan. Hoe heten die dingen dan precies? 3MX is gewoon 3, 3 is 3 Ti? En de 4200MX is 4MX of zo?Verwijderd schreef op 15 september 2003 @ 23:36:
[...]
Geforce 3 MX? 4200MX? 4600MX?
Vergelijk je nu een 5200 met een 4200Ti???
Ik ben nooit erg goed geweest in het onthouden van namen of afkortingen.
Je hele kaarten verhaaltje rammelt dus zowiezo aan alle kanten.
GF3 was de eerste kaart die ondersteuning boodt voor pixel EN vertexshaders. GF3 was volledig DX8.0 compliant. Dus GF4Ti boodt al een tweede generatie hardwarematige pixel en vertexshaders voor nVidia.
GF3 was de eerste kaart die ondersteuning boodt voor pixel EN vertexshaders. GF3 was volledig DX8.0 compliant. Dus GF4Ti boodt al een tweede generatie hardwarematige pixel en vertexshaders voor nVidia.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Er staan echt veel fouten in, check deze pdf's eens:DiGuru schreef op 15 September 2003 @ 22:52:
GeForce 3 = GeForce 2 met iets betere memory interface en vertex shaders
4200 MX = GeForce 2 MX met iets betere memory interface
4600 MX = GeForce 2 met iets betere memory interface
4200 Ti = GeForce 3 MX met iets betere memory interface en simpele pixel shaders
4600 Ti = GeForce 3 met iets betere memory interface en simpele pixel shaders
FX5200 = 4200 Ti met aangepaste shaders
FX5600 = 4600 Ti met aangepaste shaders
FX5900 = 4600 Ti met meer shaders
Een 5200 is 1 vertex, 4 pixel, 4 pipelines
Een 5600 is 2 vertex, 4 pixel, 4 pipelines
Een 5900 is 3 vertex, 4 pixel, 8 pipelines
GF3 Classic: http://www.nvidia.com/object/LO_20010612_4376.html
GF3 Ti: http://www.nvidia.com/object/LO_20011001_1272.html
GF4 MX: http://www.nvidia.com/object/LO_20020204_8254.html
GF4 Ti: http://www.nvidia.com/object/LO_20020204_8232.html
GFFX 5200-5600-5800: http://www.nvidia.com/object/LO_20021117_4942.html
GFFX 5900: http://www.nvidia.com/object/LO_20030509_7110.html
In grote lijnen:
-Er zijn veel meer veranderingen tussen de verschillende generaties, denk maar aan LMA - LMAII, nFiniteFX - nFiniteFXII, Accuview AA, nView Technology, AGP4X - 8X, CineFX - CineFXII, Intellisample, Ultrashadow,...
-GF3 MX bestaat niet, GF3 Ti 200 wel, die net zoals de GF3 Ti 500 identiek is aan de GF3 Classic, maar waarbij enkel de kloksnelheid verschillend is.
-GF4 4200 MX en 4600 MX hebben de naam MX 420 en MX 460 meegekregen.
-De GF4 MX-versies hebben allen dezelfde core, net zoals de Ti-versies dezelfde core hebben. Enkel de kloksnelheid, geheugenhoeveelheid en AGP-interface verschillen.
[ Voor 4% gewijzigd door Verwijderd op 15-09-2003 23:53 ]
Ah. Ok.CJ schreef op 15 september 2003 @ 23:41:
[...]
Volgens mij is dit niet helemaal correct.
5200 en 5600 = 2x2 config. In de meeste gevallen werkt-ie als 4 pipeline architectuur, in sommige als 2 pipes met 2 TMUs per pipe.
5800 en 5900 = 4x2 config. In de meeste gevallen werkt-ie als 8 pipeline architectuur, in sommige gevallen als 4 pipes met 2 TMUs per pipe.
Overigens is de rest van de naamgeving die je gebruikt ook niet helemaal correct.
4200 MX, 4600 MX en Geforce 3 MX ?? GF4 MX 420, GF4 MX 440 (8x), GF4 MX460.
FX5200 is absoluut geen Ti4200 met aangepaste shaders. NV34 lijkt niet op NV25. NV25 was een hi end kaart en NV34 is een low end kaart. NV34 is vanaf de bodem nieuw opgebouwd en mist een aantal functionaliteiten van NV31. Verder is-ie kwa prestaties natuurlijk helemaal niet te vergelijken met de Ti4200, maar meer met de GF4MX440.
Edit: Overigens gaan de geruchten dat ATi dezelfde kant op gaat als nVidia met een 12x1 architectuur die ook kan werken als 6x2.
Het is erg lastig, dat nVidia geen specificaties vrijgeeft. Maar het staat vast dat het aantal vertex shaders dat ik opgeef klopt, dat hebben ze namelijk ook toegegeven. En de FX engine is een vast blok met 4 pixel shaders, dat klopt dus ook.
Maar verder blijft het helaas speculatie, omdat nVidia het allemaal angstvallig geheim houd. Maar zoveel verschil zit er niet in de FX serie. Behalve als de 5900 een heel nieuw ontwerp is, komen alle tests helemaal overeen met mijn beschrijving.
Goed. Ik heb me nu ongeloofwaardig gemaakt omdat ik die naamgeving niet van buiten heb geleerd. Dat zal ik de volgende keer (naast alle andere feiten) ook eerst opzoeken en controleren.
Tussen haakjes, marketing termen en dingen die toch nooit gebruikt worden (zoals bijvoorbeeld ook Trueform van ATi), of dingen die maar een heel kort leven hebben gehad en nu al weer verouderd zijn laat ik voor het gemak allemaal weg. Ik heb het alleen over de achterliggende techniek zoals het geevolueerd is en nu gebruikt wordt.
zeg diguru, zou je het edit knopje
wat vaker willen gebruiken, dat is wat makkelijker

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ik dacht de GF4 Ti geen volledige dx 8.1 was. Ze misten namelijk ps 1.4. Voor de rest voldeed het wel perfect, maarja zonder die ene spec, mag je jezelf niet volledig dx 8.1 noemen. En laat nou net die ps1.4 nogal veel gebruikt gaan worden als de kaart geen dx9 kanswampy schreef op 15 September 2003 @ 22:20:
[...]
Op dit moment.....waarschijnlijk wel. DX8.1 support....:-) En dan bedoel ik volledige DX8.1 support!
ps 1.2 en 1.3 interesseert geen mens.
Idd, de ATI R8500 was de 1e dx8.1 kaart die dus oa ps1.4 hadSjah schreef op 16 September 2003 @ 00:14:
[...]
Ik dacht de GF4 Ti geen volledige dx 8.1 was. Ze misten namelijk ps 1.4.
Niet op voorraad.
Ik zal er aan denken.sokje schreef op 16 september 2003 @ 00:13:
zeg diguru, zou je het edit knopje [afbeelding] wat vaker willen gebruiken, dat is wat makkelijker
Zo geheimzinnig is nVidia nou ook weer niet omtrend hun architectuur. Ze hebben meerdere malen in verklaringen uitleg gegeven over hun GPUs.
Hier de verklaring van nVidia:
---------
"GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations"
and
"Only color+Z rendering is done at 4 pixels per clock"
-------
Als je een volledige pixelpipeline wilt maken met een pixelshader per pipeline, dan ben je veel meer transistoren kwijt dan wanneer je (net zoals nVidia gedaan heeft) op elke pipeline een TMU zet.
Voor texturing performance is het aantal texture layers dat gelijktijdig kan worden verwerkt belangrijker dan het aantal fysieke texture units per pixel pipeline. Voorbeeldje: NV25 en NV30 en NV35 hebben alledrie een 4x2 pipeline layout. Maar nV25 kan maar 4 texture inputs tegelijk aan, terwijl NV30 en NV35 er 16 tegelijk aan kunnen. Oudere games met 4 of minder texture layers hebben hier niet zo veel aan, maar nieuwere games die extensief gebruik maken van multitexturing hebben hier meer aan. UT2k3 maakt geloof ik veel gebruik van multitexturing dus daar kan de FX aardig mee komen met de Radeons.
Voorzover ik me kan herinneren was het zo. NV30/NV35 architectuur heeft 8 texture units (2 op elke pipeline) en 8 pixel processors. Elke klokcycle kan NV30/NV35 8 texture samples verwerken en ze naar de 8 pixel processors sturen. Maar... elke pixelprocessor is opgedeeld in 4 floatingpoint en 4 integer units.
R300/R350 aan de andere kant heeft een traditionele layout met 8 pixelpipelines met 1 TMU per pipeline. Elke pipeline kan 1 floatingpoint of 1 integer operation verwerken. Dus in totaal kan de R300/R350 er theoretisch maximaal 8 FP operations per keer uitvoeren tegenover de 4 van de FX. DX9 games zullen dus bij voorbaat al sneller draaien op R3x0 hardware als het flink veel gebruik maakt van FP berekeningen.
In het kort dus: NV30 en NV35 werken in de meeste gevallen als een 8 pipeline kaart, maar in een enkel geval schakelt-ie om naar een 4 pipeline met 2 TMUs per pipeline. En zoals ik al zei zal ATi dit waarschijnlijk ook toepassen op hun nieuwe kaart, maar dan net omgekeerd. Het zal een volwaardige 12x1 architectuur worden, die ook als volwaardige 6x2 architectuur zal kunnen werken. NV40 zal daarentegen volgens de geruchten een volwaardige 8x2 architectuur werken, of-ie ook als 16x1 zal kunnen draaien valt nog te bezien....
En nu houd ik er mee op, want al die pipelines en pixelprocessors beginnen me nu helemaal te duizelen op dit late uur.
Hier de verklaring van nVidia:
---------
"GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations"
and
"Only color+Z rendering is done at 4 pixels per clock"
-------
Als je een volledige pixelpipeline wilt maken met een pixelshader per pipeline, dan ben je veel meer transistoren kwijt dan wanneer je (net zoals nVidia gedaan heeft) op elke pipeline een TMU zet.
Voor texturing performance is het aantal texture layers dat gelijktijdig kan worden verwerkt belangrijker dan het aantal fysieke texture units per pixel pipeline. Voorbeeldje: NV25 en NV30 en NV35 hebben alledrie een 4x2 pipeline layout. Maar nV25 kan maar 4 texture inputs tegelijk aan, terwijl NV30 en NV35 er 16 tegelijk aan kunnen. Oudere games met 4 of minder texture layers hebben hier niet zo veel aan, maar nieuwere games die extensief gebruik maken van multitexturing hebben hier meer aan. UT2k3 maakt geloof ik veel gebruik van multitexturing dus daar kan de FX aardig mee komen met de Radeons.
Voorzover ik me kan herinneren was het zo. NV30/NV35 architectuur heeft 8 texture units (2 op elke pipeline) en 8 pixel processors. Elke klokcycle kan NV30/NV35 8 texture samples verwerken en ze naar de 8 pixel processors sturen. Maar... elke pixelprocessor is opgedeeld in 4 floatingpoint en 4 integer units.
R300/R350 aan de andere kant heeft een traditionele layout met 8 pixelpipelines met 1 TMU per pipeline. Elke pipeline kan 1 floatingpoint of 1 integer operation verwerken. Dus in totaal kan de R300/R350 er theoretisch maximaal 8 FP operations per keer uitvoeren tegenover de 4 van de FX. DX9 games zullen dus bij voorbaat al sneller draaien op R3x0 hardware als het flink veel gebruik maakt van FP berekeningen.
In het kort dus: NV30 en NV35 werken in de meeste gevallen als een 8 pipeline kaart, maar in een enkel geval schakelt-ie om naar een 4 pipeline met 2 TMUs per pipeline. En zoals ik al zei zal ATi dit waarschijnlijk ook toepassen op hun nieuwe kaart, maar dan net omgekeerd. Het zal een volwaardige 12x1 architectuur worden, die ook als volwaardige 6x2 architectuur zal kunnen werken. NV40 zal daarentegen volgens de geruchten een volwaardige 8x2 architectuur werken, of-ie ook als 16x1 zal kunnen draaien valt nog te bezien....
En nu houd ik er mee op, want al die pipelines en pixelprocessors beginnen me nu helemaal te duizelen op dit late uur.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dank je, CJ.
Maar volgens het patent van de CineFX (zeg ik dat goed?) engine, verwerken ze alle pixels per blokjes van 4 (2x2). En kan die ene unit met vier samengevoegde pijplijnen 4x2 texture op's doen (2 per pijplijn per klokpuls) of 4 berekeningen.
En als je meer dan 4 tijdelijke registers gebruikt gaat een pijplijn gegevens wegschrijven naar het videogeheugen. En een register kan 2 16-bit waardes of 1 32-bit waarde bevatten. Dus 16 bit berekeningen zijn sneller, maar texture operaties zijn weer twee keer zo snel.
Pas als je dat verhaal gaat vertalen naar een ouderwetse pijplijn met vaststaande bewerkingen ga je dan over bijvoorbeeld 4x2 praten. En het hangt er dan maar vanaf wat voor bewerkingen je gaat uitvoeren of het dan 4x1, 4x2 of 8x1 is.
En dan gaan we er nog van uit, dat iedere pijplijn hetzelfde is. Maar bij een nVidia worden er twee totaal verschillende pijplijnen gebruikt: vaststaande en met shaders. En die worden achter elkaar gezet.
Als je de shaders niet gebruikt, heb je dus maximaal 8 pijplijnen. En als je alleen textures gebruikt, heb je er 4 die per klok 2 bewerkingen kunnen doen. Maar als je shaders gebruikt, heb je er maar 4. En die kunnen niet alle 8 de pixelpijpen aan het werk houden.
Het hangt er dus maar van af of je de nieuwe manier van werken gaat vertalen naar de oude manier (want zo kent iedereen het) of dat je de nieuwe manier van werken beschrijft.
Maar volgens het patent van de CineFX (zeg ik dat goed?) engine, verwerken ze alle pixels per blokjes van 4 (2x2). En kan die ene unit met vier samengevoegde pijplijnen 4x2 texture op's doen (2 per pijplijn per klokpuls) of 4 berekeningen.
En als je meer dan 4 tijdelijke registers gebruikt gaat een pijplijn gegevens wegschrijven naar het videogeheugen. En een register kan 2 16-bit waardes of 1 32-bit waarde bevatten. Dus 16 bit berekeningen zijn sneller, maar texture operaties zijn weer twee keer zo snel.
Pas als je dat verhaal gaat vertalen naar een ouderwetse pijplijn met vaststaande bewerkingen ga je dan over bijvoorbeeld 4x2 praten. En het hangt er dan maar vanaf wat voor bewerkingen je gaat uitvoeren of het dan 4x1, 4x2 of 8x1 is.
En dan gaan we er nog van uit, dat iedere pijplijn hetzelfde is. Maar bij een nVidia worden er twee totaal verschillende pijplijnen gebruikt: vaststaande en met shaders. En die worden achter elkaar gezet.
Als je de shaders niet gebruikt, heb je dus maximaal 8 pijplijnen. En als je alleen textures gebruikt, heb je er 4 die per klok 2 bewerkingen kunnen doen. Maar als je shaders gebruikt, heb je er maar 4. En die kunnen niet alle 8 de pixelpijpen aan het werk houden.
Het hangt er dus maar van af of je de nieuwe manier van werken gaat vertalen naar de oude manier (want zo kent iedereen het) of dat je de nieuwe manier van werken beschrijft.
Ik heb een mooie vergelijking bedacht.
10 jaar geleden, hadden grafische kaarten 1 pixel pijplijn. Niet dat iemand dat zo noemde. Ze hadden er maar 1 en konden maar 1 ding tegelijk doen. Dus had het ook weinig nut om van pijplijnen te spreken.
Na een tijdje, kreeg je videokaarten die meer dan 1 ding konden doen. Dat noemde men 'hardware acceleratie'. Die kaarten konden je CPU werk uit handen nemen.
Nog wat later kwamen er kaarten die meerdere dingen tegelijk konden doen. Die hadden dus echt pijplijnen.
Maar, tot zo ver was het nog aardig te volgen. Ook 3D kaarten hadden misschien wel verschillende functies, maar het aantal pijplijnen maal de kloksnelheid gedeeld door het aantal klokpulsen per functie gaf exact aan hoe snel ze waren.
En toen werd het lastiger. En om de consument niet te verwarren, wordt er dus niet meer uitgelegd hoe zo'n videokaart tegenwoordig nou eigenlijk in elkaar zit. Veel te ingewikkeld. Nee, vertaal het gewoon naar pijplijnen.
En ja, dan krijg je dus van die vage dingen zoals: 8x1, indien... 4x2, indien... en ja, 4x1 als...
Onzin!
Een paar honderd jaar geleden had je nog geen motoren. Mensen gebruikten paarden. Een rijke vent schepte dan bijvoorbeeld op, dat zijn koets wel 4 paarden had. Maar een ander zou dan zeggen, dat zijn koets ook vier paarden had, maar veel lichter was. En een derde zou zeggen, dat zijn koets wel veel zwaarder was, maar ook veel groter en hij had wel acht paarden!
En dat doen we dus nog steeds. Een auto heeft bijvoorbeeld 90 PK. En het begint er op te lijken, dat we van een grafische kaart gaan zeggen, dat hij wel 8 pijplijnen heeft.
Het is nu al heel vaag hoe dat precies bedoeld word. En binnenkort maken ze dat misschien wel de standaard voor de snelheid van videokaarten. We zeggen dan misschien over 5 jaar, dat een videokaart wel 90 PL heeft.
En laten we wel wezen, de meeste mensen interesseert het toch ook helemaal niets hoe een videokaart in elkaar zit en hoe mooi het beeld is? Het gaat er maar om wie de kaart heeft met de meeste FPS. Maar dat is een heel lastige maatstaf. Dat is afhankelijk van teveel factoren.
Dus. Als we stellen dat een Voodoo 1 PL is, hoeveel PL heeft een 5900 dan?
10 jaar geleden, hadden grafische kaarten 1 pixel pijplijn. Niet dat iemand dat zo noemde. Ze hadden er maar 1 en konden maar 1 ding tegelijk doen. Dus had het ook weinig nut om van pijplijnen te spreken.
Na een tijdje, kreeg je videokaarten die meer dan 1 ding konden doen. Dat noemde men 'hardware acceleratie'. Die kaarten konden je CPU werk uit handen nemen.
Nog wat later kwamen er kaarten die meerdere dingen tegelijk konden doen. Die hadden dus echt pijplijnen.
Maar, tot zo ver was het nog aardig te volgen. Ook 3D kaarten hadden misschien wel verschillende functies, maar het aantal pijplijnen maal de kloksnelheid gedeeld door het aantal klokpulsen per functie gaf exact aan hoe snel ze waren.
En toen werd het lastiger. En om de consument niet te verwarren, wordt er dus niet meer uitgelegd hoe zo'n videokaart tegenwoordig nou eigenlijk in elkaar zit. Veel te ingewikkeld. Nee, vertaal het gewoon naar pijplijnen.
En ja, dan krijg je dus van die vage dingen zoals: 8x1, indien... 4x2, indien... en ja, 4x1 als...
Onzin!
Een paar honderd jaar geleden had je nog geen motoren. Mensen gebruikten paarden. Een rijke vent schepte dan bijvoorbeeld op, dat zijn koets wel 4 paarden had. Maar een ander zou dan zeggen, dat zijn koets ook vier paarden had, maar veel lichter was. En een derde zou zeggen, dat zijn koets wel veel zwaarder was, maar ook veel groter en hij had wel acht paarden!
En dat doen we dus nog steeds. Een auto heeft bijvoorbeeld 90 PK. En het begint er op te lijken, dat we van een grafische kaart gaan zeggen, dat hij wel 8 pijplijnen heeft.
Het is nu al heel vaag hoe dat precies bedoeld word. En binnenkort maken ze dat misschien wel de standaard voor de snelheid van videokaarten. We zeggen dan misschien over 5 jaar, dat een videokaart wel 90 PL heeft.
En laten we wel wezen, de meeste mensen interesseert het toch ook helemaal niets hoe een videokaart in elkaar zit en hoe mooi het beeld is? Het gaat er maar om wie de kaart heeft met de meeste FPS. Maar dat is een heel lastige maatstaf. Dat is afhankelijk van teveel factoren.
Dus. Als we stellen dat een Voodoo 1 PL is, hoeveel PL heeft een 5900 dan?
In de meeste gevallen 8. In een klein aantal 4.DiGuru schreef op 16 September 2003 @ 02:31:
Dus. Als we stellen dat een Voodoo 1 PL is, hoeveel PL heeft een 5900 dan?
De ATi cores zijn altijd helder geweest als glas. Daar hebben ze zelf nooit moeilijk over gedaan. Die zijn gewoon 8x1. Het werd pas ingewikkeld toen nVidia met de FX aan kwam zetten.
Gelukkig zijn er intelligente mensen met kennis van zaken, zoals de luitjes op Beyond3D, die de boel eens lekker onder de loupe hebben genomen en alles duidelijk hebben uitgelegd, zodat nVidia er niet meer onder uit kon en wel moest vertellen hoe de vork in de steel zat.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zow sorry hoor, maar het verhaal wat DiGuru schreef klopt toch wel aardig!!!! De 5900 ultra kan niet zo heel goed overweg met PS 2.0, maar met de nieuwe drivers zijn ze aardig gelijkwaardig met die ati kaart die alleenmaar op dat gebied kan uitblin ken. Veder zal 5900 ook ps 3.0 gaan ondersteunen. Oke het is veder mischien ook makkelijker om een markt standaard aan te houden zoals DX9 maar nvidia is altijd al met toonaagevende nieuwe standaarden en verblufende technieken gekomen, geef ze dan nu ook het voordeel van de twijl en laat ze het bewijzen, Nvidia heeft genoeg good wil neem ik aan. kom op he die kaarten zijn net uit!!!! Hoelang is dat probleem geval van een Ati radeon 9800 pro al uit????? 
P.S
Zolang jij een kaart heb waaruit jij meer kan halen door betere drivers te ondwikkelen waardoor ie beter presteerd, dan kan ik maar een conclusie trekken en dat is dat je dan gewoon een goeie kaart hebt ondwikkeld.
P.S
Zolang jij een kaart heb waaruit jij meer kan halen door betere drivers te ondwikkelen waardoor ie beter presteerd, dan kan ik maar een conclusie trekken en dat is dat je dan gewoon een goeie kaart hebt ondwikkeld.
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Ahum...Fr0zenFlame schreef op 16 september 2003 @ 11:07:
Zow sorry hoor, maar het verhaal wat DiGuru schreef klopt toch wel aardig!!!! De 5900 ultra kan niet zo heel goed overweg met PS 2.0, maar met de nieuwe drivers zijn ze aardig gelijkwaardig met die ati kaart die alleenmaar op dat gebied kan uitblin ken. Veder zal 5900 ook ps 3.0 gaan ondersteunen. Oke het is veder mischien ook makkelijker om een markt standaard aan te houden zoals DX9 maar nvidia is altijd al met toonaagevende nieuwe standaarden en verblufende technieken gekomen, geef ze dan nu ook het voordeel van de twijl en laat ze het bewijzen, Nvidia heeft genoeg good wil neem ik aan. kom op he die kaarten zijn net uit!!!! Hoelang is dat probleem geval van een Ati radeon 9800 pro al uit?????
P.S
Zolang jij een kaart heb waaruit jij meer kan halen door betere drivers te ondwikkelen waardoor ie beter presteerd, dan kan ik maar een conclusie trekken en dat is dat je dan gewoon een goeie kaart hebt ondwikkeld.
De enige manier om uit de FX serie hetzelfde resultaat te halen als uit een DX9 kaart is als de game programmers een Cg versie van hun game maken voor de nvidia kaarten en de DX9 versie voor de andere kaarten!
DirectX zou een STANDAARD MOETEN BETEKENEN. Nvidia VOLGT DIE STANDAARD NIET! Nvidia FORCEERT GAME MAKERS CG TE LATEN GEBRUIKEN.
Lijkt me duidelijk dat het hier nvidia is die zich niet aan de standaards houdt!
En dat de nieuwe 50.xx drivers beter presteren...het is maar wat je beter noemt...die driver rendert gewoon grote delen van de scene niet.....er is een woordt voor dat... CHEAT!
Een grafische kaart moet gewoon de scene renderen ZOALS DE GEBRUIKER AANGEEFT!
De Nv40 zal beter wel VOLLEDIGE DX9 SUPPORT hebben anders kan nvidia het voor een HELE lange tijd vergeten!
[ Voor 5% gewijzigd door swampy op 16-09-2003 11:38 ]
There is no place like ::1
Nvidia is er zelf van overtuigt dat zei een betere standaard op de markt kunnen brengen, waarmee ze met hun eigen kaarten veel meer preformance hebben. Als Nvidia zo'n grote stap in een totaal andere richting zet, dan is dat niet zonder risico en zal er gerust wel over na gedacht zijn!!!! Maar zoals altijd het geval is bij een overgang, kan je niet van het ene moment van op het andere in een keer overstappen, de nieuwe standaard van Nvidia moet zich nog bewijzen en tot die tijd zal Nvidia zich dus met patches/drivers backwards compatible moeten houden met die achterhaalde DX9 standaard
Ga nou zelf is die hele fx5900 & de ati900pro ondleden en je moet wel tot de conclusie komen dat de nvidia kaar veel beter in elkaar zit. Alleen nu nog de juiste standaard die Nvidia heeft maar waar de rest nog niet aan wil
Ga nou zelf is die hele fx5900 & de ati900pro ondleden en je moet wel tot de conclusie komen dat de nvidia kaar veel beter in elkaar zit. Alleen nu nog de juiste standaard die Nvidia heeft maar waar de rest nog niet aan wil
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Hier is een (vrij technische) uitleg van de CineFX engine:
http://www.3dcenter.de/artikel/cinefx/index_e.php
http://www.3dcenter.de/artikel/cinefx/index_e.php
Cg is nagenoeg hetzelfde als HLSL (high level shader language); dit is onderdeel van DX9 en dus geen wondermiddel voor performance van nVidia. Half Life 2 gebruikt HLSL voor hun DX9 shaders, dit is dus zeker geen nadeel voor nVidia. Ook is het niet waar dat nVidia kaarten een speciale vertaling nodig hebben en Ati kaarten niet; op beide moet een shader gecompileerd worden en de basis instructieset is nagenoeg gelijk. Echter hebben beide kaarten wel iets andere optimalisatiemogelijkheden (met name in instructievolgorde). Het grootste probleem bij nVidia is dat hun shaders onder de standaard DX9 code op FP32 geacht worden te draaien (aangezien FP16 en FX12 niet aan DX9 voldoen).
De pipelines van de nVidia kaarten zijn veel afhankelijker van elkaar dan die van Ati. Dat maakt het gebruik van de architectuur lastiger, los van het feit dat de kaart eigenlijk niet genoeg capaciteiten heeft om volledig in FP32 te werken. Dus ik vraag me af waar je deze uitspraak op baseert.Fr0zenFlame schreef op 16 September 2003 @ 11:59:
Ga nou zelf is die hele fx5900 & de ati900pro ondleden en je moet wel tot de conclusie komen dat de nvidia kaar veel beter in elkaar zit. Alleen nu nog de juiste standaard die Nvidia heeft maar waar de rest nog niet aan wil
Cg en HLSL zijn dezelfde taal. Dit is dus echt een non-issue. En ze forceren niks, je mag ook HLSL gebruiken.swampy schreef op 16 September 2003 @ 11:14:
[...]
DirectX zou een STANDAARD MOETEN BETEKENEN. Nvidia VOLGT DIE STANDAARD NIET! Nvidia FORCEERT GAME MAKERS CG TE LATEN GEBRUIKEN.
Voor optimale performance op FX is het echter wel iets beter om met Cg te compileren. Een bijkomend voordeel is dat Cg shader code niet alleen naar DirectX kan compileren maar ook naar OpenGL. Twee vliegen in een klap.
Yeah well. The Dude abides.
Ik doel hier niet specefiek alleen op de pipline, maar op de andere stukjes nieuwe techniek en aanpqssingen waar de Ati niet over beschikt. De FX 5900 komt toch in 90% van alle benchmarks dik als de beste uit de bus, logischChriskonijn schreef op 16 September 2003 @ 13:58:
Cg is nagenoeg hetzelfde als HLSL (high level shader language); dit is onderdeel van DX9 en dus geen wondermiddel voor performance van nVidia. Half Life 2 gebruikt HLSL voor hun DX9 shaders, dit is dus zeker geen nadeel voor nVidia. Ook is het niet waar dat nVidia kaarten een speciale vertaling nodig hebben en Ati kaarten niet; op beide moet een shader gecompileerd worden en de basis instructieset is nagenoeg gelijk. Echter hebben beide kaarten wel iets andere optimalisatiemogelijkheden (met name in instructievolgorde). Het grootste probleem bij nVidia is dat hun shaders onder de standaard DX9 code op FP32 geacht worden te draaien (aangezien FP16 en FX12 niet aan DX9 voldoen).
[...]
De pipelines van de nVidia kaarten zijn veel afhankelijker van elkaar dan die van Ati. Dat maakt het gebruik van de architectuur lastiger, los van het feit dat de kaart eigenlijk niet genoeg capaciteiten heeft om volledig in FP32 te werken. Dus ik vraag me af waar je deze uitspraak op baseert.
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Ja, los van alle andere dingen hoef je de code voor een ATi eigenlijk niet te optimaliseren, die van een nVidia moet je optimaliseren om tot acceptabele prestaties te komen.
De pijplijn (hij heeft er namelijk eigenlijk maar 1) van een FX kan theoretisch ongeveer vergelijkbare prestaties leveren als alle pijplijnen van een Radeon samen. Maar dat betekent ook, dat je er heel veel moeite voor moet doen om er voor te zorgen dat hij altijd optimaal gevuld is. Als er namelijk een vertraging optreed, worden alle andere berekeningen ook vertraagd. Bij een Radeon heeft een vertraging maar impact op 1 van de 8 pijplijnen.
En daar de architectuur van een FX toch heel anders in elkaar zit dan je uit de specificaties voor een DX9/OGL2 PS2.0 af zou leiden, moet er meer vertaald worden en moet de driver meer werk doen om er voor te zorgen dat de doorvoer op peil blijft.
Verder doet de FX textures twee keer zo snel als een Radeon, maar verwerkt hij maar 4 pixels tegelijkertijd, tegenover 8 pixels bij een Radeon. Ze kunnen dat dus allebei even snel. De hoeveelheid berekeningen is theoretisch ook ongeveer gelijk, maar het is bij een FX dus heel moeilijk om het maximale aantal berekeningen te bereiken. En dat gaat dan ten koste van de texture bewerkingen. Programma's die dus veel shaderbewerkingen doen zullen dus relatief langzaam draaien op een FX ten opzichte van een Radeon.
Kortom, als je je programma specifiek toespitst op de architectuur van een FX zal die bijna net zo goed presteren als een 9800. En voor die 9800 maakt het niet veel uit hoe je je programma schrijft. Die werkt toch wel snel.
De pijplijn (hij heeft er namelijk eigenlijk maar 1) van een FX kan theoretisch ongeveer vergelijkbare prestaties leveren als alle pijplijnen van een Radeon samen. Maar dat betekent ook, dat je er heel veel moeite voor moet doen om er voor te zorgen dat hij altijd optimaal gevuld is. Als er namelijk een vertraging optreed, worden alle andere berekeningen ook vertraagd. Bij een Radeon heeft een vertraging maar impact op 1 van de 8 pijplijnen.
En daar de architectuur van een FX toch heel anders in elkaar zit dan je uit de specificaties voor een DX9/OGL2 PS2.0 af zou leiden, moet er meer vertaald worden en moet de driver meer werk doen om er voor te zorgen dat de doorvoer op peil blijft.
Verder doet de FX textures twee keer zo snel als een Radeon, maar verwerkt hij maar 4 pixels tegelijkertijd, tegenover 8 pixels bij een Radeon. Ze kunnen dat dus allebei even snel. De hoeveelheid berekeningen is theoretisch ook ongeveer gelijk, maar het is bij een FX dus heel moeilijk om het maximale aantal berekeningen te bereiken. En dat gaat dan ten koste van de texture bewerkingen. Programma's die dus veel shaderbewerkingen doen zullen dus relatief langzaam draaien op een FX ten opzichte van een Radeon.
Kortom, als je je programma specifiek toespitst op de architectuur van een FX zal die bijna net zo goed presteren als een 9800. En voor die 9800 maakt het niet veel uit hoe je je programma schrijft. Die werkt toch wel snel.
Uhm.. in 90% van de DX8(.1) en OpenGL benchmarks misschienFr0zenFlame schreef op 16 september 2003 @ 14:14:
[...]
Ik doel hier niet specefiek alleen op de pipline, maar op de andere stukjes nieuwe techniek en aanpqssingen waar de Ati niet over beschikt. De FX 5900 komt toch in 90% van alle benchmarks dik als de beste uit de bus, logisch

Yeah well. The Dude abides.
Als Nvidia de nieuwe drivers er officiel zijn dan wil ik die nog wel is zienBiff schreef op 16 September 2003 @ 14:17:
[...]
Uhm.. in 90% van de DX8(.1) en OpenGL benchmarks misschien
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Umm, was de FX serie nog gemaakt om DX9 te ondersteunen? Dacht toch echt dat DX9 een STANDAARD was.Fr0zenFlame schreef op 16 September 2003 @ 14:23:
[...]
Als Nvidia de nieuwe drivers er officiel zijn dan wil ik die nog wel is zienEn laat een ati radeon ook maar is iets ondersteunen waar ie niet voor gemaakt is, CG dus, nee dan kunnen we pas lachen denk ik....
Zal het wel fout hebben.......
There is no place like ::1
Tja, het zou natuurlijk prachtig zijn als Nvidia nu nog even een on the fly shader instruction reorderer met gelijktijdige minimalisatie van het aantal gebruikte registers uit de hoge hoed schudt die zonder verlies van kwaliteit en zonder special cases gewoon in alle PS2.0 spellen en benchmarks aan performance wint, maar er zijn nog maar weinig mensen die hier in geloven. 51.75 lijkt in ieder geval gedeeltelijk kwaliteit op te offeren voor snelheid.Fr0zenFlame schreef op 16 september 2003 @ 14:23:
[...]
Als Nvidia de nieuwe drivers er officiel zijn dan wil ik die nog wel is zienEn laat een ati radeon ook maar is iets ondersteunen waar ie niet voor gemaakt is, CG dus, nee dan kunnen we pas lachen denk ik....
Het probleem is dan ook structureel. DX9 vraagt nu eenmaal om 24-bit precisie en Nvidia heeft net teveel of te weinig. En verder zitten er in bijna elke scene nog wel single textured stukken, waar Nvidia met zijn 4x2 architectuur gewoon duidelijk in het nadeel is. En Nvidia mag dan wel veel meer geheugenbandbreedte hebben, als je zit te wachten op je shader programma's heb je daar niks aan.
Waarom ATI Cg zou moeten ondersteunen is me trouwens niet helemaal duidelijk, aangezien ze dezelfde code met HLSL kunnen compileren.
Yeah well. The Dude abides.
Precies, daarom zit de fx5900 nu pcies eff in een verkeerd tijdperk/periode. Maar het bewijst toch dat de fx5900 wel duidelijk een betere kaart is, alleen kan dat er nu nog niet uit gehaald worden, hardware matig is alles iig wel aanwezig. Ik zeg maar zo, wie het laatst lacht lacht het bestHet probleem is dan ook structureel. DX9 vraagt nu eenmaal om 24-bit precisie en Nvidia heeft net teveel of te weinig.
Cg is helemaal met oog op Nvidia kaarten gemaakt en zal daarom het uitserste uit de kaart kunnen halen, Ati kaarten zullen waarschijnlijk dezelfde moeilijkheden indervinden als Nvidia dat nu ondervind bij de huidige standaard.
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Misschien gaat nvidia dan 24-bits ook ondersteunen....Fr0zenFlame schreef op 16 September 2003 @ 14:45:
[...]
Precies, daarom zit de fx5900 nu pcies eff in een verkeerd tijdperk/periode. Maar het bewijst toch dat de fx5900 wel duidelijk een betere kaart is, alleen kan dat er nu nog niet uit gehaald worden, hardware matig is alles iig wel aanwezig. Ik zeg maar zo, wie het laatst lacht lacht het best
Cg is helemaal met oog op Nvidia kaarten gemaakt en zal daarom het uitserste uit de kaart kunnen halen, Ati kaarten zullen waarschijnlijk dezelfde moeilijkheden indervinden als Nvidia dat nu ondervind bij de huidige standaard.
Maar ja, ze hebben veel mogelijkheden....ga ervan uit dat de performance problemen er wel uit moeten zijn met de NV40!
Laten we hopen :-p
There is no place like ::1
Tja, dat hoop ik ookswampy schreef op 16 september 2003 @ 15:06:
[...]
Misschien gaat nvidia dan 24-bits ook ondersteunen....
Maar ja, ze hebben veel mogelijkheden....ga ervan uit dat de performance problemen er wel uit moeten zijn met de NV40!
Laten we hopen :-p
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Dit las ik in PC Active op me werk (waar ik nu ben). Dus heb het maar eff over getypt
-----------------------------------------------------------
Nvidia Slaat terug zonder stofzuigergeluid
Nieuwe GeForce FX5900
In onze onlangs gehouden videokaarttest kwam Ati op prestatiegebied als winnaar uit de bus. Maar met de nieuwe GeForce FX5900 heeft Nvidia gezworen de koppositie weer ter veroveren. Tijd voor een tussenstand. Gaat Nividia aan kop met de nieuwe kaart of is Ati weer de sterkste?
Nvidia bracht een tijdje geleden een nieuwe serie FX kaarten op de markt. Ten tijden van onze grote video kaarten test (zie PC-active 159, juni 2003) was de fx5800 de topkaart. Helaas werd deze kaart niet zo goed door de markt ontvangen. Als Nvidia had gehoopt. Het stofzuiger geluide en de achterblijvende prestaties zorgde voor tegenvallende verkoopcijfers. Dat is ook niet zo verwonderlijk. Concurrent Ati bracht immer kort daarop de Radeon 8700 op de markt, een kaart die beter prestaties leverde, minder herrie maakte en ook nog is voor een lagere prijs. De nieuwe FX5900 heeft zijn naam niet mee. U zou vermoeden dat het hier om een iets sneller versie van de FX5800 gaat. Maar waar de FX5800 nog uitgerust was met de NV030-videoprocessor is de FX5900 voorzien van de opvolger NV35. De FX5800 klokt 500Mhz, de snelheid van de videoprocessor van de FX5900 ultra is opvallend genoeg 450Mhz voor de ultra versie – en bij de standaardversie zelfs 400Mhz. Het lijkt op het eerste gezicht niet echt een verbetering, maar die lagere snelheden worden ruim gecompenseerd doordat de geheugen bandbreedte verdubbelt is van 128, naar 256 bits. Daardoor is het mogelijk gebruik te maken van langzamer en dus goedkoper geheugen. En dat terwijl de nieuwe kaarten toch beter presteren. Op de FX5900 vinden we standaard DDR geheugen in plaats van het nog duurdere DDRII geheugen van de FX5800. En dat scheelt in de prijs van de kaart, zeker als je veel geheugen wil.Door die enorme bandbreedte en het 425Mz snelle videogeheugen is het mogelijk om 27,2 GB/s aan data te verwerken. Ter vergelijking, de FX5800 haalt 16GB/s & de Ati 21.8 GB/s. Bij hogere resoluties merken we vaak flinke terugval in de prestaties van videokaarten, maar de FX5900 geeft ook dan geen krimp, die 27.2 GB/s werpt dan zijn vruchten af. Zelfs toen we de anti-aliasing inschakelde op 4x FSAA (kan zelfs 8x) voor kregen we niet de flinke terugval die we hier eigenlijk hadden verwacht.
UltraShadow
Naast diverse kleine verbeteringen aan de CineFX-engine die voortaan door het leven gaat als versie 2.0, is er nog een techniek toegevoegd: UltraShyadow. Dat behoeft even wat uitleg: “Tijdens het renderen van beeld berekent een video kaart naar aanleiding van gedetineerde lichtbronnen en objecten hoe en waar schaduw zichtbaar moet zijn. Hoe meer lichtbronnen en objecten in een weer te geven beeld aanwezig zijn, hoe meer er gerekend moet worden, en dat kan behoorlijk oplopen in complexere scènes. De Beeldsnelheid van de kaart loopt dan terug. Vel van dat rekenwerk is eigenlijk overbodig, omdat ook overbodige niet waarneembare stukken worden berekent. Bijvoorbeeld beeld die achter objecten of buiten het blikveld valt wordt toch doorgerekend. Met UltrShadow krijgt de programmeur de mogelijkheid zelf de grenzen te bepalen – en dat is pure snelheid winst natuurlijk.
Intellisample HTC
Bij de FX5600- en FX5800-kaarten maakte Nvidia gebruik van de Intellisample Technology. Een onderdeel van deze technologie is het comprimeren van de kleuren met een factor vier. Het grote voordeel hier van is dat er minder intensief gebruik gemaakt hoeft te worden van het geheugen. De FX5900 is daarentegen voorzien van Intellisample HTC – wat staat voor High Compression Technology. In tegenstelling tot wat de naam zou doen vermoeden wordt niet zozeer de compressie nog veder verhoogd, maar zit het wenselijk verschil in een verbetering van technologie, waardoor het mogelijk wordt om veel vaker de compressie gebruik te kunnen maken. In het gunstigste geval zou het zelfs mogelijk moeten zijn om een vooruitgang van 50% te boeken. Alweer, snelheidswinst.
Testresulataten:
Van Moka Europe ontvingen we voor onze test der sparkle fx5900, 128 MB TV-DVI-uitvoering. Een tweede kaart die we voor onze test konden gebruiken was de MSI FX5900 U/TD, de ultra uitvoering met 256 MB geheugen (en dan te bedenken dat Asus beter is nog).
Voor deze test hebben we uiteraard weer gebruik gemaakt van de zelfde testopstelling als die we voor twee grote videokaartentesten hebben gebruikt (zie PC-active 158, mei 2003 en PC-active 160 Juni 2003). In praktijk bleek dat de standaard FX5900 alleen op hogere resolutie Ati’s 9800 Pro-kaart voorbij streeft, bij lagere resoluties presteren beide bij benadering hetzelfde. Maar dat werd bij de Ultra-uitvoering van de FX5900 een heel ander verhaal: Deze kaart preteere in ons systeem op alle punten beter dan de kaart van Ati. Let wel, het gaat hier om benchmarks. Zou u de twe kaarten in praktijk naast elkaar gebruiken, dan zou u het snelheidsverschil minder snel merken. Op een ander punt is er ook duidelijk verbetering te zien. De FX5800-kaarten waren niet alleen zo lawaaiig – er werden wel vergelijkingen met sofzuigers gemaakt -, maar ze namen, door de enorm grote koeling, de ruimte van 2 PCI-sloten in gebruik. En hoewel beide kaarten voorzien zaijn van een flinke koeling, van geluidsoverlast is nauwlijks sprake meer. Om het koelprobleem te ondervangen, is wel nagenoeg de helft van de kaart bedekt met koel elementen.
3D Mark 2001 SE )build 330 1024x768x32 * 14032 * 14984 * 16132
3D Mark 2001 SE )build 330 1600x1200x32 * 10987 * 13188 * 16332
3D Mark 2003 1024x768x32 * 4914 * 5186 * 5698
Unreal Tournament 2003 Antalus Fly Demo 177.87 fps * 175.12 * 184.01
Unreal Tournament 2003 Antalus Botmatch Demo 69.44 fps * 70.03 * 74.43
Conclusie:
De belofte die Nvidia ons deed met de komt van de NB35, heeft de fabrikant waar weten te maken, ook al is het verschil niet zo groot als Nvidia ons in eerste wilden doen geloven. Momenteel maakt Nvidia weer de snelste videokaart.
-----------------------------------------------------------
-----------------------------------------------------------
Nvidia Slaat terug zonder stofzuigergeluid
Nieuwe GeForce FX5900
In onze onlangs gehouden videokaarttest kwam Ati op prestatiegebied als winnaar uit de bus. Maar met de nieuwe GeForce FX5900 heeft Nvidia gezworen de koppositie weer ter veroveren. Tijd voor een tussenstand. Gaat Nividia aan kop met de nieuwe kaart of is Ati weer de sterkste?
Nvidia bracht een tijdje geleden een nieuwe serie FX kaarten op de markt. Ten tijden van onze grote video kaarten test (zie PC-active 159, juni 2003) was de fx5800 de topkaart. Helaas werd deze kaart niet zo goed door de markt ontvangen. Als Nvidia had gehoopt. Het stofzuiger geluide en de achterblijvende prestaties zorgde voor tegenvallende verkoopcijfers. Dat is ook niet zo verwonderlijk. Concurrent Ati bracht immer kort daarop de Radeon 8700 op de markt, een kaart die beter prestaties leverde, minder herrie maakte en ook nog is voor een lagere prijs. De nieuwe FX5900 heeft zijn naam niet mee. U zou vermoeden dat het hier om een iets sneller versie van de FX5800 gaat. Maar waar de FX5800 nog uitgerust was met de NV030-videoprocessor is de FX5900 voorzien van de opvolger NV35. De FX5800 klokt 500Mhz, de snelheid van de videoprocessor van de FX5900 ultra is opvallend genoeg 450Mhz voor de ultra versie – en bij de standaardversie zelfs 400Mhz. Het lijkt op het eerste gezicht niet echt een verbetering, maar die lagere snelheden worden ruim gecompenseerd doordat de geheugen bandbreedte verdubbelt is van 128, naar 256 bits. Daardoor is het mogelijk gebruik te maken van langzamer en dus goedkoper geheugen. En dat terwijl de nieuwe kaarten toch beter presteren. Op de FX5900 vinden we standaard DDR geheugen in plaats van het nog duurdere DDRII geheugen van de FX5800. En dat scheelt in de prijs van de kaart, zeker als je veel geheugen wil.Door die enorme bandbreedte en het 425Mz snelle videogeheugen is het mogelijk om 27,2 GB/s aan data te verwerken. Ter vergelijking, de FX5800 haalt 16GB/s & de Ati 21.8 GB/s. Bij hogere resoluties merken we vaak flinke terugval in de prestaties van videokaarten, maar de FX5900 geeft ook dan geen krimp, die 27.2 GB/s werpt dan zijn vruchten af. Zelfs toen we de anti-aliasing inschakelde op 4x FSAA (kan zelfs 8x) voor kregen we niet de flinke terugval die we hier eigenlijk hadden verwacht.
UltraShadow
Naast diverse kleine verbeteringen aan de CineFX-engine die voortaan door het leven gaat als versie 2.0, is er nog een techniek toegevoegd: UltraShyadow. Dat behoeft even wat uitleg: “Tijdens het renderen van beeld berekent een video kaart naar aanleiding van gedetineerde lichtbronnen en objecten hoe en waar schaduw zichtbaar moet zijn. Hoe meer lichtbronnen en objecten in een weer te geven beeld aanwezig zijn, hoe meer er gerekend moet worden, en dat kan behoorlijk oplopen in complexere scènes. De Beeldsnelheid van de kaart loopt dan terug. Vel van dat rekenwerk is eigenlijk overbodig, omdat ook overbodige niet waarneembare stukken worden berekent. Bijvoorbeeld beeld die achter objecten of buiten het blikveld valt wordt toch doorgerekend. Met UltrShadow krijgt de programmeur de mogelijkheid zelf de grenzen te bepalen – en dat is pure snelheid winst natuurlijk.
Intellisample HTC
Bij de FX5600- en FX5800-kaarten maakte Nvidia gebruik van de Intellisample Technology. Een onderdeel van deze technologie is het comprimeren van de kleuren met een factor vier. Het grote voordeel hier van is dat er minder intensief gebruik gemaakt hoeft te worden van het geheugen. De FX5900 is daarentegen voorzien van Intellisample HTC – wat staat voor High Compression Technology. In tegenstelling tot wat de naam zou doen vermoeden wordt niet zozeer de compressie nog veder verhoogd, maar zit het wenselijk verschil in een verbetering van technologie, waardoor het mogelijk wordt om veel vaker de compressie gebruik te kunnen maken. In het gunstigste geval zou het zelfs mogelijk moeten zijn om een vooruitgang van 50% te boeken. Alweer, snelheidswinst.
Testresulataten:
Van Moka Europe ontvingen we voor onze test der sparkle fx5900, 128 MB TV-DVI-uitvoering. Een tweede kaart die we voor onze test konden gebruiken was de MSI FX5900 U/TD, de ultra uitvoering met 256 MB geheugen (en dan te bedenken dat Asus beter is nog).
Voor deze test hebben we uiteraard weer gebruik gemaakt van de zelfde testopstelling als die we voor twee grote videokaartentesten hebben gebruikt (zie PC-active 158, mei 2003 en PC-active 160 Juni 2003). In praktijk bleek dat de standaard FX5900 alleen op hogere resolutie Ati’s 9800 Pro-kaart voorbij streeft, bij lagere resoluties presteren beide bij benadering hetzelfde. Maar dat werd bij de Ultra-uitvoering van de FX5900 een heel ander verhaal: Deze kaart preteere in ons systeem op alle punten beter dan de kaart van Ati. Let wel, het gaat hier om benchmarks. Zou u de twe kaarten in praktijk naast elkaar gebruiken, dan zou u het snelheidsverschil minder snel merken. Op een ander punt is er ook duidelijk verbetering te zien. De FX5800-kaarten waren niet alleen zo lawaaiig – er werden wel vergelijkingen met sofzuigers gemaakt -, maar ze namen, door de enorm grote koeling, de ruimte van 2 PCI-sloten in gebruik. En hoewel beide kaarten voorzien zaijn van een flinke koeling, van geluidsoverlast is nauwlijks sprake meer. Om het koelprobleem te ondervangen, is wel nagenoeg de helft van de kaart bedekt met koel elementen.
3D Mark 2001 SE )build 330 1024x768x32 * 14032 * 14984 * 16132
3D Mark 2001 SE )build 330 1600x1200x32 * 10987 * 13188 * 16332
3D Mark 2003 1024x768x32 * 4914 * 5186 * 5698
Unreal Tournament 2003 Antalus Fly Demo 177.87 fps * 175.12 * 184.01
Unreal Tournament 2003 Antalus Botmatch Demo 69.44 fps * 70.03 * 74.43
Conclusie:
De belofte die Nvidia ons deed met de komt van de NB35, heeft de fabrikant waar weten te maken, ook al is het verschil niet zo groot als Nvidia ons in eerste wilden doen geloven. Momenteel maakt Nvidia weer de snelste videokaart.
-----------------------------------------------------------
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Oud nieuws en ja, in DX8 games kickt de FX5900 gewoon ASS!Fr0zenFlame schreef op 16 september 2003 @ 16:45:
Dit las ik in PC Active op me werk (waar ik nu ben). Dus heb het maar eff over getypt
-----------------------------------------------------------
Nvidia Slaat terug zonder stofzuigergeluid
Nieuwe GeForce FX5900
In onze onlangs gehouden videokaarttest kwam Ati op prestatiegebied als winnaar uit de bus. Maar met de nieuwe GeForce FX5900 heeft Nvidia gezworen de koppositie weer ter veroveren. Tijd voor een tussenstand. Gaat Nividia aan kop met de nieuwe kaart of is Ati weer de sterkste?
Nvidia bracht een tijdje geleden een nieuwe serie FX kaarten op de markt. Ten tijden van onze grote video kaarten test (zie PC-active 159, juni 2003) was de fx5800 de topkaart. Helaas werd deze kaart niet zo goed door de markt ontvangen. Als Nvidia had gehoopt. Het stofzuiger geluide en de achterblijvende prestaties zorgde voor tegenvallende verkoopcijfers. Dat is ook niet zo verwonderlijk.
-----------------------------------------------------------
Maar ja..in DX9, waar je zo'n dure kaart normaal voor koopt.........
There is no place like ::1
Verwijderd
Weet iemand mischien wat dr mis is want ik haal met 3d mark 2001 se ongv 4500 met dit systeem:
AMD Athlon XP2400+ @ 2000mhz
a7v8x-x via k400 chipset
2x 256ddr pc2700
Maxtor 80g 7200rpm
Asus v9520 Magic ( Geforce fx 5200 met 128mb ) @250//331 (niet overgeclocked)
Heb de nieuwste drivers + direct x 9b en denk dat het aan me videokaart ligt..
Heeft iemand mischien raad?? Alvast bedankt.
AMD Athlon XP2400+ @ 2000mhz
a7v8x-x via k400 chipset
2x 256ddr pc2700
Maxtor 80g 7200rpm
Asus v9520 Magic ( Geforce fx 5200 met 128mb ) @250//331 (niet overgeclocked)
Heb de nieuwste drivers + direct x 9b en denk dat het aan me videokaart ligt..
Heeft iemand mischien raad?? Alvast bedankt.
je hebt de 64 bit geheugen versie van de FX, dan haal je zulke lage scores. Ik heb de 128 Bit versie en haal met mijn systeem (zie sig) 7500 non- OC'ed. Ik zou heel snel terug gaan met de kaart en een ti 4200 of een fx 5200 met 128 bit geheugen halen
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
Wel raar... hier staat ( wel int duits
) dat het 128-bit heeft:
http://www.computeruniver...ts/90069968.asp?agent=297
Hebbie daar een verklaring voor??
Bedankt
http://www.computeruniver...ts/90069968.asp?agent=297
Hebbie daar een verklaring voor??
Bedankt
Haal je kaart eens door Aida heen, die kan waarschijnlijk precies vertellen hoeveel bits geheugen interface je kaart heeft.Verwijderd schreef op 16 September 2003 @ 17:25:
Wel raar... hier staat ( wel int duits) dat het 128-bit heeft:
http://www.computeruniver...ts/90069968.asp?agent=297
Hebbie daar een verklaring voor??
Bedankt
Maar...een FX5200 is hoe dan ook niet de snelste :-)
There is no place like ::1
Ja een maat van me (2 zelfs) had(den) die kaart en had(den) met ongeveer hetzelfde systeem ook zo een lage score, als je het zeker wil weten, kijk naar de memory speed, is deze 333 MHz (wat de Magic is) dan is er sprake van een 64 bit Memory Interface. de 128 Bit versie, de mijne dus heeft 400 MHz geheugen wat de 520 haalt 
Hmm je hebt wel gelijk, toch is het zo dat die maten van me de v9520 hadden met 333 MHz Memory, dan heb je sowieso de 64 bit versie!
Hmm je hebt wel gelijk, toch is het zo dat die maten van me de v9520 hadden met 333 MHz Memory, dan heb je sowieso de 64 bit versie!
[ Voor 18% gewijzigd door Mojo op 16-09-2003 17:43 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Falcon88
Nou nee de nV35 heeft sterke punten in DX8.1 maar de R350 klopt deze kaart ook nog in andere DX7 & DX8,1 situaties.
Die review van PC active zegt mij niks aangezien ik van hier uit niet kan zien.
Welke games zijn gebenched als UT2003 de enige is slaat het totaal nergens op.
en met welke instellings variaties Daar wordt niks over gerept met je nietzeggende quotes lijkt wel spam.
3DM01 & 03 en Q3A vallen al af daar game je niet mee en oude games ook niet want daar koop je die hardware niet voor want dat kunnenze allemaal goed aan.
Tussen games is er ook aardig wat performance variatie dus hoe meer games gebenched hoe representatiefer zo'n review is.
Dus hoeveel dX8.1 titels zijn gebenched met veel gevarieerde instellingen. zoals resoluties met en zonde FSAA & AF. 'n stuk of 5 of meer geeft al een beter beeld aan.
Tot nu toe wijzen reviews voor X8.1 en lager aan dat de Fx5900U en de R350 gewaagd zijn aan elkaar.
D'r zijn heel veel beknopte reviews niet alleen van PC Active maar ook HCC C!T en nog veel meer reviews op het internet die heel beperkt benchen en daaruit harde conclusies trekken.
Je koopt zo'n kaart ten eerste ook vanwege zijn DX9 functionaliteit wat in aankomende titels gebruikt gaan worden en zoals het er nu uit ziet zuigt ie nogal in dX9.
Ja het kan beter worden van zuigen naar gelijk of iets beter door betere drivers betere ondersteuning van developers waarvan een groot deel zich genaaied voelen zoals valve die voor nVidia speciaal een specifiek pad moeten gebruiken en weer buiten de standaards loopt dat willen ze niet en Valve is groot developerhuis die daarover naar buiten durft te keren.
Plaatje:
http://firingsquad.gamers...e_preview_part2/page7.asp
FXmode is de halfe precisie
dus consesie op beeld qualiteit in favor performance.
Gezien nV30/35 hoger core speed hoort deze eigenlijk al krachtiger te zijn dan ATI die hoort eigenlijk achter te lopen maar ja dus niet om een of andere cineFX tech redenen
Het driver team van nVidia moet 'n 100% verbetering aan brengen om ze gelijk te krijgen in dX9 performance dat het beter zal worden zeker maar hoeveel.
Tja als je weet wat aTI nu al kan de nV40 zal 'n stap vooruit zijn zo ook R420
En zoals we nu weten dat nV er ook een potje van kan maken gezien de stofzuiger nV30 en de PS2.0 fiasco dan zou ik de kat eerst uit de boom kijken welke als winnaar uit de bus komt dat hoeft vooral niet perse nVidia te zijn ze kunnen het maar of ze dat ook doen is een tweede aangezien ATI ook met goede tech aan de weg timmert.
nVidia heeft iig al de R300 vs nV30 slag gewonnen R350 vs nV30 in DX8.1 gelijkspel in dX9 ziet het er momenteel slecht uit voor nV maar hebben nog wat driver marge.
Nou nee de nV35 heeft sterke punten in DX8.1 maar de R350 klopt deze kaart ook nog in andere DX7 & DX8,1 situaties.
Die review van PC active zegt mij niks aangezien ik van hier uit niet kan zien.
Welke games zijn gebenched als UT2003 de enige is slaat het totaal nergens op.
en met welke instellings variaties Daar wordt niks over gerept met je nietzeggende quotes lijkt wel spam.
3DM01 & 03 en Q3A vallen al af daar game je niet mee en oude games ook niet want daar koop je die hardware niet voor want dat kunnenze allemaal goed aan.
Tussen games is er ook aardig wat performance variatie dus hoe meer games gebenched hoe representatiefer zo'n review is.
Dus hoeveel dX8.1 titels zijn gebenched met veel gevarieerde instellingen. zoals resoluties met en zonde FSAA & AF. 'n stuk of 5 of meer geeft al een beter beeld aan.
Tot nu toe wijzen reviews voor X8.1 en lager aan dat de Fx5900U en de R350 gewaagd zijn aan elkaar.
D'r zijn heel veel beknopte reviews niet alleen van PC Active maar ook HCC C!T en nog veel meer reviews op het internet die heel beperkt benchen en daaruit harde conclusies trekken.
Je koopt zo'n kaart ten eerste ook vanwege zijn DX9 functionaliteit wat in aankomende titels gebruikt gaan worden en zoals het er nu uit ziet zuigt ie nogal in dX9.
Ja het kan beter worden van zuigen naar gelijk of iets beter door betere drivers betere ondersteuning van developers waarvan een groot deel zich genaaied voelen zoals valve die voor nVidia speciaal een specifiek pad moeten gebruiken en weer buiten de standaards loopt dat willen ze niet en Valve is groot developerhuis die daarover naar buiten durft te keren.
Plaatje:
http://firingsquad.gamers...e_preview_part2/page7.asp
FXmode is de halfe precisie
dus consesie op beeld qualiteit in favor performance.
Gezien nV30/35 hoger core speed hoort deze eigenlijk al krachtiger te zijn dan ATI die hoort eigenlijk achter te lopen maar ja dus niet om een of andere cineFX tech redenen
Het driver team van nVidia moet 'n 100% verbetering aan brengen om ze gelijk te krijgen in dX9 performance dat het beter zal worden zeker maar hoeveel.
Tja als je weet wat aTI nu al kan de nV40 zal 'n stap vooruit zijn zo ook R420
En zoals we nu weten dat nV er ook een potje van kan maken gezien de stofzuiger nV30 en de PS2.0 fiasco dan zou ik de kat eerst uit de boom kijken welke als winnaar uit de bus komt dat hoeft vooral niet perse nVidia te zijn ze kunnen het maar of ze dat ook doen is een tweede aangezien ATI ook met goede tech aan de weg timmert.
nVidia heeft iig al de R300 vs nV30 slag gewonnen R350 vs nV30 in DX8.1 gelijkspel in dX9 ziet het er momenteel slecht uit voor nV maar hebben nog wat driver marge.
[ Voor 5% gewijzigd door SG op 16-09-2003 20:30 ]
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Is niet waar, er is ook een xfx met 400 mhz mem die 64 bits is.sokje schreef op 16 September 2003 @ 17:41:
Ja een maat van me (2 zelfs) had(den) die kaart en had(den) met ongeveer hetzelfde systeem ook zo een lage score, als je het zeker wil weten, kijk naar de memory speed, is deze 333 MHz (wat de Magic is) dan is er sprake van een 64 bit Memory Interface. de 128 Bit versie, de mijne dus heeft 400 MHz geheugen wat de 520 haalt
Hmm je hebt wel gelijk, toch is het zo dat die maten van me de v9520 hadden met 333 MHz Memory, dan heb je sowieso de 64 bit versie!
Zit er geheugen zowel boven de core als rechts, dan is de kaart 128 bits, zo kan je het beste kijken.
Voor zover ik begrepen heb, heeft de Magic-serie van Asus altijd een 64-bit geheugen bus. In het betreffende artikel slaat de 128-bit op de renderprecisie. Intern is die precisie, net als alle andere FX kaarten, tot 128-bit (4x 32 bits, rood, groen, blauw, alpha).Verwijderd schreef op 16 September 2003 @ 17:25:
Wel raar... hier staat ( wel int duits) dat het 128-bit heeft:
http://www.computeruniver...ts/90069968.asp?agent=297
Hebbie daar een verklaring voor??
Bedankt
ow zow aha, dat weten we dan ook weer, maar verklaar dan maar dat er 400 MHz staat ipv. 333 waar de magic (volgens mijn maten) op liep. Het zoe goed kunnen dat er een andere ASUS bedoelt wordt, je hebt ook de TD en videosuite enzo
Nou ja we kunnen er in elk geval zeker van zijn dat degene die de vraag stelde een 64 bit heeft.
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Volgens de asus specificaties (http://www.asus.com/products/vga/v9520m/overview.htm) draait een Magic inderdaad op 400 MHz; er staat zelfs geen 333 MHz versie bij. Ik heb zelf echter geen ervaringen met deze kaart.sokje schreef op 16 September 2003 @ 18:20:
ow zow aha, dat weten we dan ook weer, maar verklaar dan maar dat er 400 MHz staat ipv. 333 waar de magic (volgens mijn maten) op liep. Het zoe goed kunnen dat er een andere ASUS bedoelt wordt, je hebt ook de TD en videosuite enzoNou ja we kunnen er in elk geval zeker van zijn dat degene die de vraag stelde een 64 bit heeft.
voor PS 3.0 zal ie toch echt andere hardware moeten hebben imo...Fr0zenFlame schreef op 16 September 2003 @ 11:07:
Veder zal 5900 ook ps 3.0 gaan ondersteunen.
hehehe, alleen een probleem voor Nvidia idd...Hoelang is dat probleem geval van een Ati radeon 9800 pro al uit?????
of dat ie te vroeg op de markt gekomen is? of dat je rare trucs id drivers met IQ moet uithalen om een beetje acceptabele performance te krijgen? niet heel erg positief imo...Zolang jij een kaart heb waaruit jij meer kan halen door betere drivers te ondwikkelen waardoor ie beter presteerd, dan kan ik maar een conclusie trekken en dat is dat je dan gewoon een goeie kaart hebt ondwikkeld.
volgens Nvidia's eigen beweringen zou de FX toch DX9 incl. ps2.0 moeten ondersteunen dachtikEn laat een ati radeon ook maar is iets ondersteunen waar ie niet voor gemaakt is, CG dus, nee dan kunnen we pas lachen denk ik....
maar met de Dawn demo hebben we idd lekker kunnen lachen toen uitkwam dat ie met een openGL wrapper beter presteerde op een ATi r3x0 dan op een GFFX
[ Voor 22% gewijzigd door Puppetmaster op 16-09-2003 18:50 ]
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Nieuwe drivers zijn altijd interessant, maar juist in een spel waar al een geoptimaliseerd NV3x render path in zit, zal er weinig prestatiewinst te halen zijn. Bijvoorbeeld het NV3x path van Half Life 2 zal hoogst waarschijnlijk al de optimale instructievolgorde gebruiken en de lagere precisie waar het mogelijk is (dus als de drivers dat verder omlaag halen is dat onacceptabel).
Ook lijkt het niet duidelijk wat Cg is. Het is geen betere manier van programmeren speciaal voor de NV3x. Het is dezelfde taal als HLSL. Het is dus een officieel onderdeel van DX9; ook Ati ondersteunt het dus. De claim dat de ware kracht van de NV3x dus pas naar boven zou komen met Cg is dus onzin. Sterker nog, het standaard DX9 render path van Half Life 2 is met HLSL (ofwel Cg) gemaakt...
Ook lijkt het niet duidelijk wat Cg is. Het is geen betere manier van programmeren speciaal voor de NV3x. Het is dezelfde taal als HLSL. Het is dus een officieel onderdeel van DX9; ook Ati ondersteunt het dus. De claim dat de ware kracht van de NV3x dus pas naar boven zou komen met Cg is dus onzin. Sterker nog, het standaard DX9 render path van Half Life 2 is met HLSL (ofwel Cg) gemaakt...
Cg zal wel lekker compilen voor nV3x. Aangezien het ingewikkeld is de pijplijn vol te houden bij een nV3x zal de Cg compiler daarvoor geoptimaliseerd zijn en instructievolgordes uitspugen waar de 3x wel raad mee weet.Chriskonijn schreef op 16 september 2003 @ 19:26:
Ook lijkt het niet duidelijk wat Cg is. Het is geen betere manier van programmeren speciaal voor de NV3x. Het is dezelfde taal als HLSL. Het is dus een officieel onderdeel van DX9; ook Ati ondersteunt het dus. De claim dat de ware kracht van de NV3x dus pas naar boven zou komen met Cg is dus onzin. Sterker nog, het standaard DX9 render path van Half Life 2 is met HLSL (ofwel Cg) gemaakt...
HLSL spuwt gewoon standaard instructies uit die niet zijn geoptimized voor een typische kaart. tja..
Ik denk nV haar invloed overschat heeft met Cg en nu even moet slikken. Er zullen wel wat design veranderingen plaats moeten vinden voor de nV40, want die zal gewoon supahschnel moeten zijn op default DX9 gebied. De industrie zal nu zeker geen zin hebben in Cg en gewoon lekker standaard DX9/HLSL proggen.
Het is niet te hopen dat ATi in de toekomst zelfde tricks gaat proberen om de industie aan zichzelf te binden met een of ander zelf bedacht taaltje.
DX is er niet voor niks. De kaartenbakkers moeten gewoon zorgen voor kaartjes die snel zijn conform de DX specs en niet aankomen met allerlei nonstandard nifty zut die toch nooit gebruikt wordt.
@ falcon88.. je bent wel een erge nVidiot als je zelfs de DX9 standaard afdoet als inferieur om je geloof in je merk te redden.. funny..
* boesOne is gewoon hollander en wil voor weinig een snelle kaert, das nu 'n ATi qua bang/buck ratio..
I say we take off and nuke the entire site from orbit. It's the only way to be sure.
Ik blijf het wel vreemd vinden met dat Magic geval, ik weet 100 % zeker dat 1 maat van me die kaart had en op 333 MHz liep, nou ja we zullen wel zijn wat Genocide zegt, of hij 333 of 400 MHz is.
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Yeps, die magic loopt op 333, er klopt geen zak van, van vrijwel al die fx5200 merken zijn ook zowat 64 bit versies, ondanks dat ze die nergens noemen en de reviewers altijd zowat de 128 bits versie krijgen.sokje schreef op 16 september 2003 @ 21:14:
Ik blijf het wel vreemd vinden met dat Magic geval, ik weet 100 % zeker dat 1 maat van me die kaart had en op 333 MHz liep, nou ja we zullen wel zijn wat Genocide zegt, of hij 333 of 400 MHz is.
Tja, maar ja...wie koopt er dan ook een FX5200 :-pCarel schreef op 16 september 2003 @ 21:26:
[...]
Yeps, die magic loopt op 333, er klopt geen zak van, van vrijwel al die fx5200 merken zijn ook zowat 64 bit versies, ondanks dat ze die nergens noemen en de reviewers altijd zowat de 128 bits versie krijgen.
Je moet toch echt in de bieten salade geboren zijn om een FX5200 te durven kopen!
There is no place like ::1
Verwijderd
Erm, juist ja. 
Ik (nouja, mijn buurman) heeft een probleem met de Club3d GeForce FX5200. (géén ultra).
De beste man wou geleidelijk aan zijn systeem vervangen, en is begonnen met een nieuw grafisch kaartje. Dat werd dus de FX5200. Waarom weet ik niet. Hij kwam iig. bij mij om hulp, want zijn huidige systeem pakt de kaart niet.
Opstarten gaat prima, XP laden ook, maar dan begint het. XP wil alleen maar 640x480@16 kleuren draaien. Als je dan de drivers wilt installeren, pakt hij ze ook niet. Dan maar even kijken naar de eigenschappen. Oeps! Conflicten met de systeembronnen! Het blijkt namelijk dat de vga en de AGPcontroller ruzie hebben om dezelfde resources. Deze resources veranderen gaat niet (grijs weergegeven).
Nu heb ik al een aantal opties in het bios ge-enabled en ge-disabled (na het lezen van de FAQ) maar niks hielp!
Zijn huidige systeem is: PIII 733 + Intel 82443BX mobo. In de handleiding van het mobo staat dat hij AGP4x heeft. In de handleiding van de FX5200 staat dat de kaart ook AGP4x ondersteunt. Daarmee dus mijn vermoeden dat de kaart 'te snel' is voor de comp van de baan vegend. Ligt het aan het geheugentype? (bak heeft SDRAM, vga heeft DDR).
Heeft iemand advies voor mij en buurman Jos?
Ik (nouja, mijn buurman) heeft een probleem met de Club3d GeForce FX5200. (géén ultra).
De beste man wou geleidelijk aan zijn systeem vervangen, en is begonnen met een nieuw grafisch kaartje. Dat werd dus de FX5200. Waarom weet ik niet. Hij kwam iig. bij mij om hulp, want zijn huidige systeem pakt de kaart niet.
Opstarten gaat prima, XP laden ook, maar dan begint het. XP wil alleen maar 640x480@16 kleuren draaien. Als je dan de drivers wilt installeren, pakt hij ze ook niet. Dan maar even kijken naar de eigenschappen. Oeps! Conflicten met de systeembronnen! Het blijkt namelijk dat de vga en de AGPcontroller ruzie hebben om dezelfde resources. Deze resources veranderen gaat niet (grijs weergegeven).
Nu heb ik al een aantal opties in het bios ge-enabled en ge-disabled (na het lezen van de FAQ) maar niks hielp!
Zijn huidige systeem is: PIII 733 + Intel 82443BX mobo. In de handleiding van het mobo staat dat hij AGP4x heeft. In de handleiding van de FX5200 staat dat de kaart ook AGP4x ondersteunt. Daarmee dus mijn vermoeden dat de kaart 'te snel' is voor de comp van de baan vegend. Ligt het aan het geheugentype? (bak heeft SDRAM, vga heeft DDR).
Heeft iemand advies voor mij en buurman Jos?
Dit topic is gesloten.