Vaag. Waarom scoort de FX in de CPU tests lager als bij de radeon? Zou toch niet uit moeten maken denk ik. CPU test moet videokaart onafhankelijk zijn toch?CJ schreef op 11 februari 2003 @ 22:39:
benchmark verhaaltje
Misschien ontlast de 9700P de CPU meer dan een FX dat doet?dominator schreef op 11 februari 2003 @ 22:44:
[...]
Vaag. Waarom scoort de FX in de CPU tests lager als bij de radeon? Zou toch niet uit moeten maken denk ik. CPU test moet videokaart onafhankelijk zijn toch?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ALERT!CJ schreef op 11 February 2003 @ 22:39:
FX5800Ultra - 9700Pro
Det 42.67 - Cat 3.1
Score: 5113 - 4803
GT1 175.6 - 175.1
GT2 35.2 - 30.5
GT3 28.5 - 28.6
GT4 30.7 - 27.1
CPU Score 666 - 713
T1: 69.9 - 79.2
T2: 12.6 - 12.7
ST: 1294.8 - 1499.0
MT: 3269.6 - 2270.0
Vertex: 13.8 - 14.9
Pixel 2.0: 15.5 - 41.1!!
Ragtroll: 17.7 - 20.1
De 9700Pro wint 7 van de 11 tests, maar verliest desondanks toch de totaalscore (vanwege alleen meetellen test 1 t/m 4).
Bron: www.hardocp.com
Release notes Catalyst 3.1:
3Dmark2003 GT4 runs a little slower than expected on certain chipsets where AGP writes are disabled. A future CATALYST? will resolve this and provide a higher benchmark score!
Dus HET KAN zijn na de Catalyst 3.2 de GT4 score nog iets oploopt.
Ps. gewoon strak om te zien dat die 9700PRO gewoon een beest van een kaart is. Nvidia Geforce FX 35% faster then a Radeon9700PO heb ik ooit nog gelezen
Tsja, het kan aan de drivers liggen van de FX, dus misschien wordt het nog wat meer, maar het is toch nou wel duidelijk dat de R9700 een ontzettend effiecient stukje hardware is, wat volledig in balans is met goede drivers...de R9700 heeft wel heel wat fillrate minder maar houd het nog steeds bij!
[ Voor 23% gewijzigd door edward2 op 12-02-2003 00:35 ]
Niet op voorraad.
En het wordt alsmaar leuker met nVidia en de FX:
nVidia zegt nu dus min of meer dat ze 3DMark niet meer geloofwaardig vinden, terwijl ze in het verleden altijd hun steun aan MadOnion hebben betuigt, getuige de vergelijkingsprogrammaatjes op hun site waar ze als eerste mee kwamen.
Wel interessant om te zien dat nVidia tot aan December lid was van het beta-team, en er daarna is uitgestapt.
Bron: www.gamespot.comOn a related note, Nvidia has contacted us to say that it doesn't support the use of 3DMark 2003 as a primary benchmark in the evaluation of graphics cards, as the company believes the benchmark doesn't represent how current games are being designed. Specifically, Nvidia contends that the first test is an unrealistically simple scene that's primarily single-textured, that the stencil shadows in the second and third tests are rendered using an inefficient method that's extremely bottlenecked at the vertex engine, and that many of the pixel shaders use specific elements of DX8 that are promoted by ATI but aren't common in current games.
In response to Nvidia's statements, Futuremark's Aki Jarvilehto said, "We've been working for the last 18 months to make 3DMark 2003 an accurate and objective benchmark. Nvidia was one of our beta members until December, and it's not our place to comment on why they've decided to withdraw from the program. After working on the project for almost two years with all the leading manufacturers, we do strongly believe that 3DMark 2003 is an accurate representation of game performance for modern 3D accelerators."
nVidia zegt nu dus min of meer dat ze 3DMark niet meer geloofwaardig vinden, terwijl ze in het verleden altijd hun steun aan MadOnion hebben betuigt, getuige de vergelijkingsprogrammaatjes op hun site waar ze als eerste mee kwamen.

[ Voor 6% gewijzigd door CJ op 12-02-2003 00:53 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Volgens X-Bit Labs zal nVidia nog dit jaar twee belangrijke nieuwe chips op de markt zetten, alsmede een flink aantal afgeleiden daarvan. De 'refresh' van GeForce FX (NV35) zou al in de zomer moeten verschijnen, wat op zich ook overeenkomt met de berichten over de mogelijk korte levensduur van de eerste generatie. De vernieuwde core zou 130 miljoen transistors hebben, 5 miljoen meer dan er op dit moment gebruikt worden. Tegen het einde van het jaar zou echter ook daar de opvolger daarvan alweer op de markt moeten komen. De 0,13 micron NV40-core is weer een verdere doorontwikkeling van de GeForce FX-architectuur, die volgens de geruchten uit 150 miljoen transistors zou bestaan.
Hoewel dit allemaal wel erg snel lijkt te gaan moeten we niet vergeten hoe lang het duurde voor de GeForce FX met enigzins acceptabele yields geproduceerd kon worden. In de tussentijd hebben ze de chipdesigners natuurlijk niet stil laten zitten. Bovendien heeft nVidia altijd volgehouden dat ze door willen gaan met het halen van een halfjaarlijks release-schema. Doordat de Xbox-GPU er tussendoor kwam is deze planning ooit grondig in de war geschopt, maar dat speelt op dit moment geen rol meer. Bovendien heeft het bedrijf de laatste jaar een aantal flinke deuken in zijn imago opgelopen, en die wil het management natuurlijk zo snel mogelijk weer gladstrijken, het liefst nog voor ATi met R350 en R400 komt.
Het grote geld zit echter niet in de high-end markt, maar juist bij de middenmoters. nVidia zal daarom op CeBIT drie uitvoeringen van NV31 lanceren. Deze 0,13 micron chips zijn in feite gestripte GeForce FX VPU's met 80 miljoen transistors en vier pipelines in plaats van acht. Onderling verschillen ze alleen in kloksnelheid; deze varieert van 250 tot 350MHz. De snelheid van het geheugen moet nog bepaald worden, maar de schattingen liggen tussen de 500 en 650MHz DDR. Als NV30 in de zomer wordt opgevolgd door NV35 zou NV31 plaats moeten maken voor NV34, die nog meer variatie kent
The number of NV34 versions is going to be huge: from three to six maybe (four is the current estimation). NVIDIA may even allow some of its partners to clock the graphics cards according to their vision of the market and clients’ requirements. It is said that the chip contains 45 million of transistors and features 4 rendering pipes. The VPU will run at 300 to 375MHz, according to preliminary information. I wonder if there are going to be any NV34 derivatives specially developed for integration into NVIDIA's next-generation nForce IGPs since 45 million of transistors is too lot for a graphics core integrated into a North Bridge.
Tevens wordt er nog gerept over NV33 en NV36 die op de planning zouden staan voor het komende jaar. Mogelijk gaat het om gereïncarneerde Ultra-versies, maar de bron is eigenlijk te vaag om daar iets zinnigs over te kunnen zeggen.
Bron
Hoewel dit allemaal wel erg snel lijkt te gaan moeten we niet vergeten hoe lang het duurde voor de GeForce FX met enigzins acceptabele yields geproduceerd kon worden. In de tussentijd hebben ze de chipdesigners natuurlijk niet stil laten zitten. Bovendien heeft nVidia altijd volgehouden dat ze door willen gaan met het halen van een halfjaarlijks release-schema. Doordat de Xbox-GPU er tussendoor kwam is deze planning ooit grondig in de war geschopt, maar dat speelt op dit moment geen rol meer. Bovendien heeft het bedrijf de laatste jaar een aantal flinke deuken in zijn imago opgelopen, en die wil het management natuurlijk zo snel mogelijk weer gladstrijken, het liefst nog voor ATi met R350 en R400 komt.
Het grote geld zit echter niet in de high-end markt, maar juist bij de middenmoters. nVidia zal daarom op CeBIT drie uitvoeringen van NV31 lanceren. Deze 0,13 micron chips zijn in feite gestripte GeForce FX VPU's met 80 miljoen transistors en vier pipelines in plaats van acht. Onderling verschillen ze alleen in kloksnelheid; deze varieert van 250 tot 350MHz. De snelheid van het geheugen moet nog bepaald worden, maar de schattingen liggen tussen de 500 en 650MHz DDR. Als NV30 in de zomer wordt opgevolgd door NV35 zou NV31 plaats moeten maken voor NV34, die nog meer variatie kent
The number of NV34 versions is going to be huge: from three to six maybe (four is the current estimation). NVIDIA may even allow some of its partners to clock the graphics cards according to their vision of the market and clients’ requirements. It is said that the chip contains 45 million of transistors and features 4 rendering pipes. The VPU will run at 300 to 375MHz, according to preliminary information. I wonder if there are going to be any NV34 derivatives specially developed for integration into NVIDIA's next-generation nForce IGPs since 45 million of transistors is too lot for a graphics core integrated into a North Bridge.

Tevens wordt er nog gerept over NV33 en NV36 die op de planning zouden staan voor het komende jaar. Mogelijk gaat het om gereïncarneerde Ultra-versies, maar de bron is eigenlijk te vaag om daar iets zinnigs over te kunnen zeggen.
Bron
Inderdaad. is het niet opvallend dat tot vorig jaar zomer nVidia nooit enorme problemen heeft gemaakt van bepaalde zaken? Dat kwam waarschijnlijk omdat ze een comfortabele voorsprong hadden op de concurrentie. En nu kijk ik er niet meer van op als ik hoor dat nVidia het ergens niet mee eens is.Anoniem: 68311 schreef op 12 February 2003 @ 16:26:
Nvidia is weer back in action

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
news update:
Looking at the new heatsink assembly for the Chaintech’s new graphics card, we find that the main complaint of the GeForce FX samples has been addressed. Here, the unique design of the new heatsink allows for a dramatic drop in noise levels. In this case, the user can expect to see noise levels roughly around 25-30db which is considerably less than the typical 55-60db for the reference heatsink assembly.

op: http://www.hardocp.com/article.html?art=NDI5
Looking at the new heatsink assembly for the Chaintech’s new graphics card, we find that the main complaint of the GeForce FX samples has been addressed. Here, the unique design of the new heatsink allows for a dramatic drop in noise levels. In this case, the user can expect to see noise levels roughly around 25-30db which is considerably less than the typical 55-60db for the reference heatsink assembly.

op: http://www.hardocp.com/article.html?art=NDI5
Just call me angel of the morning, angel. Just touch my cheek before you leave me, baby. Just call me angel of the morning, angel.
http://www.xbitlabs.com/news/story.html?id=1045147250
De NV36 zal dan waarschijnlijk een zwaardere versie zijn.
De NV33 voor Tablet PCs & sub-notebooksMany of you have asked me to dig more information about NVIDIA’s NV33 and NV36 graphics processors that are due to come later this year. As always, it was hard to get any details on the yet unannounced products from the Santa Clara-based company, but fortunately VIDILab Croatian magazine publishes this in their upcoming issue available this weekend and now I can share the basics about the NV33 with you.
Apparently, NV33 is a chip with extremely low power consumption that is intended for use in mobile devices, such as Tablet PCs and sub-notebooks. It will feature just two rendering pipelines with one TMU per each, but will be DirectX 9.0 compatible. There is no word about performance figures of the newcomer to our great upset, as currently no processors have been taped-out. Any precise information about power consumption is also absent.
NVIDIA is still not presented widely in mobile devices with low power consumption, such as Tablet PCs, sub-notebooks and other similar products. With the NV33 the world’s largest graphics solutions suppliers has a great chance to penetrate the market with a feature-rich product. Up to the moment I have heard nothing about similar devices from ATI Technologies to come.
De NV36 zal dan waarschijnlijk een zwaardere versie zijn.
Wow
GF FX: 42.63
Radeon: Catalyst 3.0

GF FX: 42.67
Radeon: Catalyst 3.1

Wat een verschil met die nieuwe drivers voor de FX.
http://www.hardocp.com/article.html?art=NDI4LDQ=
GF FX: 42.63
Radeon: Catalyst 3.0

GF FX: 42.67
Radeon: Catalyst 3.1

Wat een verschil met die nieuwe drivers voor de FX.
http://www.hardocp.com/article.html?art=NDI4LDQ=
licht het aan mij of steken die pinnen wel heel ver boven het AGP-slot uit?Spice schreef op 13 February 2003 @ 17:15:
news update:
Looking at the new heatsink assembly for the Chaintech’s new graphics card, we find that the main complaint of the GeForce FX samples has been addressed. Here, the unique design of the new heatsink allows for a dramatic drop in noise levels. In this case, the user can expect to see noise levels roughly around 25-30db which is considerably less than the typical 55-60db for the reference heatsink assembly.
Die scores waren al eens eerder gepost.Hacku schreef op 13 februari 2003 @ 18:10:
Wow
GF FX: 42.63
Radeon: Catalyst 3.0
[afbeelding]
GF FX: 42.67
Radeon: Catalyst 3.1
[afbeelding]
Wat een verschil met die nieuwe drivers voor de FX.
http://www.hardocp.com/article.html?art=NDI4LDQ=
Maar nVidia heeft hier trouwens de drivers puur voor 3DMark2003 geoptimaliseerd.
Nature Test: score ligt iets hoger dan de 9700Pro
PS 2.0 Test: score ligt ver beneden de 9700Pro
Opvallend? Ja, want de Nature Test maakt gebruikt van PS2.0. Er is duidelijk geoptimaliseerd voor de Game Tests, omdat alleen die tests mee tellen voor de einduitslag. Als het echt goede drivers waren geweest, dan was de PS2.0 test ook zeker omhoog gegaan.
En zie je dat zelfs met de nieuwe drivers, de FX 'maar' in 4 tests wint (waarvan opvallend genoeg ook nog eens 3 gametests)? De 9700Pro wint de overige 7.
Er gaan trouwens speculaties dat nVidia de tests op 64-bit floatingpoint precisie laat uitvoeren ipv op 128-bit precisie, terwijl ATi standaard alles op 96-bit precisie doet. De FX kan namelijk switchen tussen 128-bit en 64-bit.
Dit zou verklaren waarom de PS2.0 test trager is, want die wordt gewoon nog op 128-bits gedaan. De eerste drivers deden ALLES op 128-bits en dat zie je in de score terug. Dus terugschakelen naar 64-bits FP levert een stuk hogere score op (bijna verdubbeling).
Een ander iets wat dit vermoeden bevestigt, is het feit dat John Carmack een speciale NV30-path heeft ingebakken in Doom III, die op lagere precisie werkt dan de RBA2 mode. De NV30 is namelijk twee keer zo traag in ARB2 als de R300, omdat NV30 alles op 128-bit FP berekent, en R300 alles op 96-bit.
Technisch gezien zou ARB2 op de NV30 mooier zijn dan op de R300, maar de NV30 is dus enorm traag in ARB2. Daarom heeft Carmack er voor gezorgt dat de boel op een lagere FP wordt uitgevoerd (ten koste van wat beeldkwaliteitverslechtering), zodat de snelheid tenminste hoog ligt.
My guess is dus dat nVidia hier ook alles op 64-bits floatingpointprecisie berekent om toch een redelijke score te halen in 3DMark2003.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die FX is wel een bijzonder mislukte kaart zeg, als ze hier een jaar geleden mee hadden uitgekomen ok, maar dit is echt bar slecht.
Begrijp me goed ik ben Nvidia fanboy, maar op dit moment zou ik (bijna) een Radiator 9700 pro kopen
Wat nog het ergste is, is dat Nvidia over de methodiek en/of implementatie van benchmarks gaat janken, beetje jammer Nvidia, ik kijk met smart uit naar de NV35.
Alle maandenlange opgeklopte hype op hun site met slogans als: it's coming zijn eigenlijk niets dan gebakken lucht geweest.
Ze kunnen zaken wellicht nog recht trekken door (zoals ze wel eerder deden) met een onwijs goede driver op de proppen komen, ik vrees echter met grote vrees....
typo's; het is laat aan het worden
Begrijp me goed ik ben Nvidia fanboy, maar op dit moment zou ik (bijna) een Radiator 9700 pro kopen
Wat nog het ergste is, is dat Nvidia over de methodiek en/of implementatie van benchmarks gaat janken, beetje jammer Nvidia, ik kijk met smart uit naar de NV35.
Alle maandenlange opgeklopte hype op hun site met slogans als: it's coming zijn eigenlijk niets dan gebakken lucht geweest.
Ze kunnen zaken wellicht nog recht trekken door (zoals ze wel eerder deden) met een onwijs goede driver op de proppen komen, ik vrees echter met grote vrees....
typo's; het is laat aan het worden
[ Voor 4% gewijzigd door D3ton4tor72 op 13-02-2003 23:57 ]
Even wat leuk nieuws over de GeForceFX 
Volgens the inquirer zijn er dus 1400 GeForceFX kaarten met 128MB DDR beschikbaar voor heel Europa. SuccesGeForce FX cards will indeed ship from the 20th, but there's trouble at the fab mill, Jim.
According to her, there's an allocation of 2,000 cards for the US, 1400 for the European Union and a measly 750 for the whole of Asia.
And Terratec, Creative, PNY, BFG, Gainward, Leadtek, Asus, and MSI will all have to share this generous amount between themselves.
These cards will be 128MB cards, apparently, and you can kiss the 256MB cards farewell until the NV35 arrives.
Anoniem: 32156
Wel, als dat de Ultraversie is, jammer dan.
Echter, is dat de gewone NV30 chip op 400 MHz, dan heeft nvidia zichzelf aardig voor lul gezet.
Overigens, een bedrijf dat beweert geen deel meer uit te willen maken van een industriele standaard (DirectX van MS) impliceert hiermee voortaan een eigen semicompatibele standaard te ontwikkelen.
Volgens mij is het niet volgens van MS-standaarden Dé manier om zelfmoord te plegen.
Ofwel, over 3 jaar ondersteunen spellen iig DirectX10.1 en 'misschien' een nVidia-kaart. Ben benieuwd welke loser dan nog een nVidia koopt, maar uiteindelijk zal het bedrijf wel weer bijdraaien.
* Anoniem: 6728 ziet dat nVidia met 3dFX wel heel erg veel overgenomen heeft........
Echter, is dat de gewone NV30 chip op 400 MHz, dan heeft nvidia zichzelf aardig voor lul gezet.
Overigens, een bedrijf dat beweert geen deel meer uit te willen maken van een industriele standaard (DirectX van MS) impliceert hiermee voortaan een eigen semicompatibele standaard te ontwikkelen.
Volgens mij is het niet volgens van MS-standaarden Dé manier om zelfmoord te plegen.
Ofwel, over 3 jaar ondersteunen spellen iig DirectX10.1 en 'misschien' een nVidia-kaart. Ben benieuwd welke loser dan nog een nVidia koopt, maar uiteindelijk zal het bedrijf wel weer bijdraaien.
* Anoniem: 6728 ziet dat nVidia met 3dFX wel heel erg veel overgenomen heeft........
[ Voor 67% gewijzigd door Anoniem: 32156 op 14-02-2003 13:26 ]
Dat schijnt alweer bijgelegd te zijn.Mikado schreef op:
Wel, als dat de Ultraversie is, jammer dan.
Echter, is dat de gewone NV30 chip op 400 MHz, dan heeft nvidia zichzelf aardig voor lul gezet.
Overigens, een bedrijf dat beweert geen deel meer uit te willen maken van een industriele standaard (DirectX van MS) impliceert hiermee voortaan een eigen semicompatibele standaard te ontwikkelen.
Volgens mij is het niet volgens van MS-standaarden Dé manier om zelfmoord te plegen.
Ofwel, over 3 jaar ondersteunen spellen iig DirectX10.1 en 'misschien' een nVidia-kaart. Ben benieuwd welke loser dan nog een nVidia koopt, maar uiteindelijk zal het bedrijf wel weer bijdraaien.
* Anoniem: 6728 ziet dat nVidia met 3dFX wel heel erg veel overgenomen heeft........
Niet op voorraad.
Op http://www.vr-zone.com staan wat NV40 specs.
* 0.09 Micron Process
* 300-350 Million Transistors
* 750-800 MHz Core
* 16MB Embedded DRAM (134M trans.)
* 1.4 GHz 256-512MB DDR-II Memory
* 8 Pixel Rendering Pipelines (4 texels each)
* 16 Vertex Shader Engines
* 204.8 GB/sec Bandwidth (eDRAM)
* 44.8 GB/sec Bandwidth (DDR-II)
* 25.6 GigaTexels per Second
* 3 Billion Vertices per Second
* DirectX 10 (or extended 9.1)
* Release H2 2004
Wat is dat 16MB Embedded DRAM en waar dient het voor?
* 0.09 Micron Process
* 300-350 Million Transistors
* 750-800 MHz Core
* 16MB Embedded DRAM (134M trans.)
* 1.4 GHz 256-512MB DDR-II Memory
* 8 Pixel Rendering Pipelines (4 texels each)
* 16 Vertex Shader Engines
* 204.8 GB/sec Bandwidth (eDRAM)
* 44.8 GB/sec Bandwidth (DDR-II)
* 25.6 GigaTexels per Second
* 3 Billion Vertices per Second
* DirectX 10 (or extended 9.1)
* Release H2 2004
Wat is dat 16MB Embedded DRAM en waar dient het voor?
Anoniem: 47893
Ik kan je niet precies zeggen wat het is, maar van wat ik gehoord heb is het heeeel snelHacku schreef op 14 februari 2003 @ 21:08:
Op http://www.vr-zone.com staan wat NV40 specs.
* 0.09 Micron Process
* 300-350 Million Transistors
* 750-800 MHz Core
* 16MB Embedded DRAM (134M trans.)
* 1.4 GHz 256-512MB DDR-II Memory
* 8 Pixel Rendering Pipelines (4 texels each)
* 16 Vertex Shader Engines
* 204.8 GB/sec Bandwidth (eDRAM)
* 44.8 GB/sec Bandwidth (DDR-II)
* 25.6 GigaTexels per Second
* 3 Billion Vertices per Second
* DirectX 10 (or extended 9.1)
* Release H2 2004
Wat is dat 16MB Embedded DRAM en waar dient het voor?
Als je wat meer wilt weten over Embedded DRAM:
linkje
Lijkt mij overigens sterk dat ze 16MB E-DRAM gaan gebruiken, 8 maximaal...
linkje
Lijkt mij overigens sterk dat ze 16MB E-DRAM gaan gebruiken, 8 maximaal...
Anoniem: 47893
Ben benieuwd in hoeverre de FX nog sneller gaat worden door driver updates. Ik lees namelijk wel eens, dat men een vergelijkbare performance boost verwacht als bij de geforce 3, die eerst ook onder presteerde...
Ik ben aldus op zoek gegaan naar de performance van de geforce 3 van vroeger en van nu. Hiervoor heb ik de bench 'aquanox' uitgezocht, omdat deze niet zo cpu-limited is en omdat ik er 3 benchjes bij ome tom van kon vinden
.
Anyway:
Aquanox // 1024x768x32
Nvidia driver 11.01 => 33.0 fps
Nvidia driver 28.32 => 48.7 fps
Nvidia driver 41.09 => 50.3 fps
De driverupdate van 28.32 naar 11.01 zorgde wel voor een performance increase van (!!) 47.5% en de update van 28.32 naar 41.09 een kleine 3.3%. In totaal dus een performance increase van 52.4%.
Ik kan trouwens nauwelijks geloven, dat zoiets ook voor de FX weggelegd zou zijn
...zeg nou zelf -> 50%, das toch wel een behoorlijke boost
.
(dit gaat natuurlijk niet helemaal op voor hi-res, maar misschien wel voor de FSAA/AF vormen)
ps.
Dit is een hele kromme vergelijking en is niet representatief voor de Geforce Fx, het is alleen een voorbeeld om te laten zien, dat goede drivers een wereld van verschil kunnen maken. Het is niet duidelijk of de huidige Geforce Fx drivers te vergelijken zijn met 11.01 of met 28.32, maar bij 41.09 zijn ze iig nog niet...
Yai,
Een gigantische Geforce FX review bij IXBT...o.a. ook Doom3 Alpha ;):
http://www.ixbt.com/video2/gffx-ref-p1.shtml#p1
Ik ben aldus op zoek gegaan naar de performance van de geforce 3 van vroeger en van nu. Hiervoor heb ik de bench 'aquanox' uitgezocht, omdat deze niet zo cpu-limited is en omdat ik er 3 benchjes bij ome tom van kon vinden
Anyway:
Aquanox // 1024x768x32
Nvidia driver 11.01 => 33.0 fps
Nvidia driver 28.32 => 48.7 fps
Nvidia driver 41.09 => 50.3 fps
De driverupdate van 28.32 naar 11.01 zorgde wel voor een performance increase van (!!) 47.5% en de update van 28.32 naar 41.09 een kleine 3.3%. In totaal dus een performance increase van 52.4%.
Ik kan trouwens nauwelijks geloven, dat zoiets ook voor de FX weggelegd zou zijn
(dit gaat natuurlijk niet helemaal op voor hi-res, maar misschien wel voor de FSAA/AF vormen)
ps.
Dit is een hele kromme vergelijking en is niet representatief voor de Geforce Fx, het is alleen een voorbeeld om te laten zien, dat goede drivers een wereld van verschil kunnen maken. Het is niet duidelijk of de huidige Geforce Fx drivers te vergelijken zijn met 11.01 of met 28.32, maar bij 41.09 zijn ze iig nog niet...
Yai,
Een gigantische Geforce FX review bij IXBT...o.a. ook Doom3 Alpha ;):
http://www.ixbt.com/video2/gffx-ref-p1.shtml#p1
[ Voor 34% gewijzigd door Anoniem: 47893 op 17-02-2003 00:59 ]
De GFX Ultra heeft 'n 54% hogere Core clock alleen minder membandbreedte.
In standaard resoluties zou ie max dus 50% sneller kunnen zijn 30% moet dan geen probleem zijn.
in hogere resoluties zal ie terugvallen en vooral ook bij zware memory belastende instellingen zoals AF & FSAA met gemiddelde tot hoge resoos.
Dan komen de 9700Pro en de GFX dichter bij elkaar
This normaal dat de eerste drivers tijdens release tegen vallen bij ATI is het effect nog erger.
8500 UT 20Fps(CD-rom driver) naar 100fps gegaan ('n latere)
Driver prestaties merk je vooral in CPU afhankelijke situaties aangezien de driver door de CPU verwerkt wordt.
In standaard resoluties zou ie max dus 50% sneller kunnen zijn 30% moet dan geen probleem zijn.
in hogere resoluties zal ie terugvallen en vooral ook bij zware memory belastende instellingen zoals AF & FSAA met gemiddelde tot hoge resoos.
Dan komen de 9700Pro en de GFX dichter bij elkaar
This normaal dat de eerste drivers tijdens release tegen vallen bij ATI is het effect nog erger.
8500 UT 20Fps(CD-rom driver) naar 100fps gegaan ('n latere)
Driver prestaties merk je vooral in CPU afhankelijke situaties aangezien de driver door de CPU verwerkt wordt.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.
Koffie en meer...
Anoniem: 55194
Ja boeiuhMasselink schreef op 17 February 2003 @ 08:27:
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.

all flames intended tegen nvidia

Anoniem: 77043
het is ook niet normaal dat nvidia een kaart uitbrengt waar de drivers nog niet eens van klaar waren, ach nvidia heeft de afgelopen tijd voor mij zoveel steken laten vallen, ik vindt ook dat nvidia ook nu steeds ligt te zeuren, het is net een kind die zijn zin niet krijgt, ik weet het niet met nvidia, ik dacht dat ze een beetje proffesioneel waren, maar als iets nvidia tegen zit, dan is het gelijk weer waardeloos, ik dacht dat ze zo'n goeie kaartmaker waren, nou als ze zo goed zijn dan, waarom hebben ze het gelijk niet goed gedaan dan, want ati weet blijkbaar wel hoe het moet, en wie dit als een flame wil zien, nou dat moet dan maar, maar ik dacht dat ik toch wel een beetje gelijk heb.Masselink schreef op 17 February 2003 @ 08:27:
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.
Het heeft ook behoorlijk lang geduurd alvorens ATi met fatsoenlijke drivers kwam voor de 8500 series.ik dacht dat ze zo'n goeie kaartmaker waren, nou als ze zo goed zijn dan, waarom hebben ze het gelijk niet goed gedaan dan, want ati weet blijkbaar wel hoe het moet,
Ik ben PRO-ATi, maar laten we wel eerlijk wezen. Dat had beter gemoeten. Nu hebben ze alles wel op de rit.
Koffie en meer...
Anoniem: 77043
ja oke, daar geef ik je wel gelijk in, dat heeft ook een tijdje geduurd, maar met nvidia zijn ervaring op drivers gebied, hadden ze toch gelijk het goed moeten doen, en nou doen ze precies wat ati vroeger deed met de 8500 serie.Masselink schreef op 17 February 2003 @ 08:53:
[...]
Het heeft ook behoorlijk lang geduurd alvorens ATi met fatsoenlijke drivers kwam voor de 8500 series.
Ik ben PRO-ATi, maar laten we wel eerlijk wezen. Dat had beter gemoeten. Nu hebben ze alles wel op de rit.
maar je hebt wel gelijk wat betreft ati en de drivers voor de 8500 serie, inderdaad dat heeft ook een tijd geduurd.
maar begrijp me goed, als ati zo'n fout had gemaakt, had ik het ook gezegd, en ik zeg ook niet dat ati altijd nummer 1 blijft, als nvidia straks met een kaart komt, die echt indruk maakt, ben ik de eerste die dat zal zeggen.
edit
maar ik zal altijd een ati-fanboy blijven.
en over die 8500, daar is toen al genoeg kritiek op geweest, zoals je zelf ook zegt.
[ Voor 15% gewijzigd door Anoniem: 77043 op 17-02-2003 09:12 ]
Ik had er nog op gereageerd hoor!Masselink schreef op 17 February 2003 @ 08:27:
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.
Volgens mij heeft niemand heeft deze nieuwe drivers voor de FX nog getest in reallife games. Het zou me niets verbazen als deze 50% performancewinst alleen maar in 3DMark2003 optreedt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De eerste indruk heeft de grootste impact.
Die Driver verbetering is een pleister op die wond.
De 8500 kreeg ook niet die credit die het verdiende na betere drivers en dat zal ook zo zijn geweest met de Parhilia die viel zo tegen dat de massa niet meer wachte op betere drivers.
Alleen als er steeds nieuwere drivers uitkomen voor de GFX komt de release van de R350 ook steed dichterbij.
dus als de GFX optimal gaat lopen is de 9700PRO niet zijn tegenstander meer.
Tenminste als ATI op schema blijft.
Die Driver verbetering is een pleister op die wond.
De 8500 kreeg ook niet die credit die het verdiende na betere drivers en dat zal ook zo zijn geweest met de Parhilia die viel zo tegen dat de massa niet meer wachte op betere drivers.
Alleen als er steeds nieuwere drivers uitkomen voor de GFX komt de release van de R350 ook steed dichterbij.
dus als de GFX optimal gaat lopen is de 9700PRO niet zijn tegenstander meer.
Tenminste als ATI op schema blijft.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
http://www.digit-life.com/articles2/gffx/gffx-ref-p1.html een echte review
Niet op voorraad.
Anoniem: 21737
Men kan natuurlijk ook gewoon even wachten tot de drivers wel goed zijn.
Dat zal ongetwijfeld gebeuren, met als prettige bijkomstigheid dat de kaart dan ook wat goedkoper is.
Dat zal ongetwijfeld gebeuren, met als prettige bijkomstigheid dat de kaart dan ook wat goedkoper is.
Fanboy dit, fanboy dat..... belachelijk.
Ben jarenlang Matrox "fanboy" geweest, al zeg ik liever een tevreden Matrox gebruiker. Heb het gebruik van de G400 zolang mogelijk gerekt met de hoop dat ze met een snellere en competatievere 3D kaart zouden komen. Toen die er uiteindelijk kwam, de Parhelia, was ik teleurgestelt en aarzelde geen moment om net zo makkelijk over te stappen naar een ander merk. Aangezien TV-out en een goede 2D voor mij belangrijk zijn werd het een Ati Radeon 8500. Als ik zeker wist dat ik met een GF4 Ti4200 dezelfde 2D kwaliteit en Tv-out zou hebben zou ik zeker niet schuwen om een Nvidia-kaart te nemen.
Ma.w.: Het merk boeit me niet, wel de prijs/prestatie/kwaliteit van een produkt.
Wat ik nu bijv. bijzonder irri vind, is dat ik telkens als ik opstart weer de TV-weergave moet "aanzetten". Ondanks dat de kabel nooit eruit is geweest raak ik die telkens kwijt.
Ben jarenlang Matrox "fanboy" geweest, al zeg ik liever een tevreden Matrox gebruiker. Heb het gebruik van de G400 zolang mogelijk gerekt met de hoop dat ze met een snellere en competatievere 3D kaart zouden komen. Toen die er uiteindelijk kwam, de Parhelia, was ik teleurgestelt en aarzelde geen moment om net zo makkelijk over te stappen naar een ander merk. Aangezien TV-out en een goede 2D voor mij belangrijk zijn werd het een Ati Radeon 8500. Als ik zeker wist dat ik met een GF4 Ti4200 dezelfde 2D kwaliteit en Tv-out zou hebben zou ik zeker niet schuwen om een Nvidia-kaart te nemen.
Ma.w.: Het merk boeit me niet, wel de prijs/prestatie/kwaliteit van een produkt.
Wat ik nu bijv. bijzonder irri vind, is dat ik telkens als ik opstart weer de TV-weergave moet "aanzetten". Ondanks dat de kabel nooit eruit is geweest raak ik die telkens kwijt.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Sorry, maar ik vind dit dus een echte prutreview.

Voorbeeldjes waarom ik het slecht vindt:
1) Ze testen 8x AF op de GFFX tegen 16x AF op de Radeon9700Pro, terwijl 8x AF p[ de 9700Pro al beter is dan 8x AF op de GFFX
2) Daarnaast zetten ze AF op de 9700Pro op Quality (=trilinear AF) en de GFFX zetten ze op Balanced (=Hi Q Bilinear AF, en voor de volledigheid Aggressive by NV = Low Q Bilinear AF)
3) Ze houden geen rekening met de kwaliteit van AF. Als ze dat gedaan hadden dan waren ze tot de conclusie gekomen dat Performance AF (dus Bilinear AF) op de 9700Pro goed te vergelijken is met Balanced AF op de GFFX. En dan hadden ze ook gezien dat de GFFX niet kan tippen aan de Quality AF van de 9700Pro.
De manier zoals Anandtech dat gedaan had, dus gelijke beeldkwaliteit met elkaar vergelijken is eerlijker. Als je de keuze moet maken tussen bijvoorbeeld 2 stereo-installaties, dan kijk je niet alleen maar naar het aantal Watt dat de versterker heeft, maar kijk je naar welke het helderste geluid weer kan geven, want alleen het aantal W zegt niets.
4) Een gelekte ALPHA versie van Doom III gebruiken om tot de conclusie te komen dat de GFFX z'n ware kracht laat zien.

En zo zijn er nog wat dingen die gewoon heel erg vreemd zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Je hebt gelijk, ik zag pas later dat ze niet met dezelfde instellingen testen, das natuurlijk zwaar fout.CJ schreef op 19 February 2003 @ 20:42:
[...]
Sorry, maar ik vind dit dus een echte prutreview.
Voorbeeldjes waarom ik het slecht vindt:
1) Ze testen 8x AF op de GFFX tegen 16x AF op de Radeon9700Pro, terwijl 8x AF p[ de 9700Pro al beter is dan 8x AF op de GFFX
2) Daarnaast zetten ze AF op de 9700Pro op Quality (=trilinear AF) en de GFFX zetten ze op Balanced (=Hi Q Bilinear AF, en voor de volledigheid Aggressive by NV = Low Q Bilinear AF)
3) Ze houden geen rekening met de kwaliteit van AF. Als ze dat gedaan hadden dan waren ze tot de conclusie gekomen dat Performance AF (dus Bilinear AF) op de 9700Pro goed te vergelijken is met Balanced AF op de GFFX. En dan hadden ze ook gezien dat de GFFX niet kan tippen aan de Quality AF van de 9700Pro.
De manier zoals Anandtech dat gedaan had, dus gelijke beeldkwaliteit met elkaar vergelijken is eerlijker. Als je de keuze moet maken tussen bijvoorbeeld 2 stereo-installaties, dan kijk je niet alleen maar naar het aantal Watt dat de versterker heeft, maar kijk je naar welke het helderste geluid weer kan geven, want alleen het aantal W zegt niets.
4) Een gelekte ALPHA versie van Doom III gebruiken om tot de conclusie te komen dat de GFFX z'n ware kracht laat zien.
En zo zijn er nog wat dingen die gewoon heel erg vreemd zijn.
Wat ik er zo goed aan vond was het feit, dat ze proggies hadden gebruikt om AF en lodbias te meten en de grote serie screenshots.
Digit-Life was lang één van m'n geliefde reviewsites maar met dit soort missers boeten ze snel aan geloofwaardigheid in.
Niet op voorraad.
Anoniem: 77043
matrox, ik zou er niet dood mee gevonden willen worden, hele slechte ervaring mee gehad, echt bagger merk, dat hadden ze moeten verbieden de merk matrox.Madrox schreef op 19 februari 2003 @ 19:56:
Fanboy dit, fanboy dat..... belachelijk.
Ben jarenlang Matrox "fanboy" geweest, al zeg ik liever een tevreden Matrox gebruiker. Heb het gebruik van de G400 zolang mogelijk gerekt met de hoop dat ze met een snellere en competatievere 3D kaart zouden komen. Toen die er uiteindelijk kwam, de Parhelia, was ik teleurgestelt en aarzelde geen moment om net zo makkelijk over te stappen naar een ander merk. Aangezien TV-out en een goede 2D voor mij belangrijk zijn werd het een Ati Radeon 8500. Als ik zeker wist dat ik met een GF4 Ti4200 dezelfde 2D kwaliteit en Tv-out zou hebben zou ik zeker niet schuwen om een Nvidia-kaart te nemen.
Ma.w.: Het merk boeit me niet, wel de prijs/prestatie/kwaliteit van een produkt.
Wat ik nu bijv. bijzonder irri vind, is dat ik telkens als ik opstart weer de TV-weergave moet "aanzetten". Ondanks dat de kabel nooit eruit is geweest raak ik die telkens kwijt.
nVidia GeForce FX 5800 Ultra 128MB review
De jongens van Digit Life hebben zich blijkbaar niet zitten vervelen, een 34 pagina's tellende review van de GeForce FX 5800 Ultra is het resultaat. Na een uitgebreid overzicht, waarin alle door nVidia en ATi uitgebrachte chips vanaf het jaar 2001 de revue passeren, worden alle technische specificaties van de NV30-chip uitgebreid besproken. Wie geïnteresseerd is in het hele FX-verhaal wordt doorverwezen naar een ander artikel op hun website, aldus Digit Life. De in deze review bekeken kaart heeft een AGP 4x/8x interface en is in het bezit van 128MB GDDR-II SDRAM van het merk Samsung, verdeeld over 8 chips op iedere zijde van de kaart.
Het geheugen spint zijn cycli op 500MHz in 3D en op 300MHz in 2D. Door het gebruikte DDR-geheugen is dit respectievelijk 1000 en 600MHz. De echte blikvanger op de videokaart is de gigantische koeler. Digit Life heeft de koeler er niet afgehaald, simpelweg omdat deze te gecompliceerd zit vastgemaakt. Door deze grote koeler zal het eerste PCI-slot onbruikbaar zijn. Naast de standaard VGA-connector is de kaart voorzien van een DVI-aansluiting en een S-Video-connector. De reviewer van Digit Life gaat zeer uitgebreid in op de koeling en de werking daar van. Als laatste punt wordt er nog even gewezen op de extra voedingsaansluiting die de 5800 vereist, vergelijkbaar met die van de Voodoo5 5500.
Na deze uitgebreide bespreking van het uiterlijk van de kaart, is het tijd geworden om de 5800 te gaan testen. Het door Digit Life gebruikte testsysteem bestond uit een Asus P4G8X Granite Bay moederbord met daarop een Intel Pentium 4 3,06GHz, 1024MB DDR-geheugen en een Seagate Barracuda IV harde schijf van 40GB. Als besturingssyssteem werd er Windows XP met SP1 en DirectX 9.0 geïnstalleerd. Dit alles zat gekoppeld aan twee 21" schermen van ViewSonic. De voor deze review geïnstalleerde driver is versie 41.68 van nVidia. De uitleg van de alle driverinstellingen wordt flink gevisualiseerd door Digit Life, met maar liefst 10 screenshots wordt er duidelijk gemaakt welke instellingen er zijn gebruikt.
Na dit alles wordt er pas echt begonnen met testen. Ter vergelijking zijn de Albatron Medusa GeForce4 Ti 4600 en de Hercules 3D Prophet 9700 PRO ook onder handen genomen. Als eerste wordt er naar de 2D-kwaliteit gekeken. Deze is volgens de reviewer van Digit Life zeer goed, maar kan uiteraard verschillen per videokaart en monitor. Na de 2D-test worden alle benchmarks die RightMark3D rijk is toegelicht en uiteraard toegepast op de GeForce FX 5800 Ultra. Iedere test wordt duidelijk toegelicht en is voorzien van veel staafdiagrammen. Ook de begrippen anisotropic filtering en anti-aliasing worden nog even aangestipt.
Uiteraard wordt er ook nog gebenchmarked met 3DMark2001 SE en 3DMark03. Hierbij komt vrijwel altijd de nVidia-kaart als winnaar uit de bus, iets wat volgens Digit Life te danken is aan de betere anisotropic filtering. Al dit 3D-geweld is weer voorzien van veel staafdiagrammen. Na afloop van 3DMark03 vraagt de reviewer van Digit Life zich af of deze benchmark wel een goede reflectie is voor de gamerswereld. Om de performance van de 5800 in wat games te testen, heeft Digit Life gekozen voor Quake3 ARENA, Serious Sam, Return to Castle Wolfenstein, Code Creatures, Unreal Tournament 2003 Demo en de Alpha versie van Doom III.
In Quake3 is de kaart van nVidia nog de duidelijke winnaar, bij Serious Sam is dat anders. Daar wint de 9700 Pro van ATi veelal, behalve op de laagste resolutie. Daarna is de beurt weer aan de GeForce FX. In zowel Return to Castle Wolfenstein als de Unreal Tournament 2003 Demo en Doom III Alpha is nVidia de snelste, al is het verschil soms marginaal. Na al dit grafische geweld wordt de 3D-kwaliteit nogmaals besproken, allemaal weer voorzien van een overvloed aan plaatjes.
Uiteindelijk zijn de jongens van Digit Life bij de conclusie aangekomen. Eerst maken ze duidelijk hoe blij ze zijn dat ze deze mooie kaart hebben kunnen testen, alhoewel hij waarschijnlijk nooit in deze vorm op de markt zal verschijnen. De NV30 is volgens hen een stap in de juiste richting wat flexibele programmeerbare GPU's betreft. De kaart heeft zo zijn nadelen, al zijn deze volgens hun vrij simpel op te lossen, iets wat Digit Life hoopt te zien gebeuren in de komende versies van de NV3X-chips. Al met al is het een zeer uitgebreide review, die flink doorspekt is van extra uitleg en duidelijke diagrammen:
The weakest point of the GeForce FX 5800 is the 128bit memory bus because even such fast memory working at 500 (1000) MHz can't provide the required throughput for the 500MHz 8-pipeline chip. It had a very bad effect on the AA in spite of the frame buffer compression in MSAA modes. [...] As a result, the NV30 has a lower speed in the AA mode than the R300 (which has both compression and the 256bit memory bus). [...]
Another downside is a noisy cooler which can frighten users by unexpected starts or pauses (when the rotation speed gets lower). Because of such design a user has to sacrifice the first PCI slot. But this downside can be dealt with, and there are already cards with cooling systems free of shortcomings of the reference card. So, despite the above weak points, this is the fastest 3D accelerator for the beginning of 2003.
nieuws: nVidia GeForce FX 5800 Ultra 128MB review
De jongens van Digit Life hebben zich blijkbaar niet zitten vervelen, een 34 pagina's tellende review van de GeForce FX 5800 Ultra is het resultaat. Na een uitgebreid overzicht, waarin alle door nVidia en ATi uitgebrachte chips vanaf het jaar 2001 de revue passeren, worden alle technische specificaties van de NV30-chip uitgebreid besproken. Wie geïnteresseerd is in het hele FX-verhaal wordt doorverwezen naar een ander artikel op hun website, aldus Digit Life. De in deze review bekeken kaart heeft een AGP 4x/8x interface en is in het bezit van 128MB GDDR-II SDRAM van het merk Samsung, verdeeld over 8 chips op iedere zijde van de kaart.


Het geheugen spint zijn cycli op 500MHz in 3D en op 300MHz in 2D. Door het gebruikte DDR-geheugen is dit respectievelijk 1000 en 600MHz. De echte blikvanger op de videokaart is de gigantische koeler. Digit Life heeft de koeler er niet afgehaald, simpelweg omdat deze te gecompliceerd zit vastgemaakt. Door deze grote koeler zal het eerste PCI-slot onbruikbaar zijn. Naast de standaard VGA-connector is de kaart voorzien van een DVI-aansluiting en een S-Video-connector. De reviewer van Digit Life gaat zeer uitgebreid in op de koeling en de werking daar van. Als laatste punt wordt er nog even gewezen op de extra voedingsaansluiting die de 5800 vereist, vergelijkbaar met die van de Voodoo5 5500.
Na deze uitgebreide bespreking van het uiterlijk van de kaart, is het tijd geworden om de 5800 te gaan testen. Het door Digit Life gebruikte testsysteem bestond uit een Asus P4G8X Granite Bay moederbord met daarop een Intel Pentium 4 3,06GHz, 1024MB DDR-geheugen en een Seagate Barracuda IV harde schijf van 40GB. Als besturingssyssteem werd er Windows XP met SP1 en DirectX 9.0 geïnstalleerd. Dit alles zat gekoppeld aan twee 21" schermen van ViewSonic. De voor deze review geïnstalleerde driver is versie 41.68 van nVidia. De uitleg van de alle driverinstellingen wordt flink gevisualiseerd door Digit Life, met maar liefst 10 screenshots wordt er duidelijk gemaakt welke instellingen er zijn gebruikt.
Na dit alles wordt er pas echt begonnen met testen. Ter vergelijking zijn de Albatron Medusa GeForce4 Ti 4600 en de Hercules 3D Prophet 9700 PRO ook onder handen genomen. Als eerste wordt er naar de 2D-kwaliteit gekeken. Deze is volgens de reviewer van Digit Life zeer goed, maar kan uiteraard verschillen per videokaart en monitor. Na de 2D-test worden alle benchmarks die RightMark3D rijk is toegelicht en uiteraard toegepast op de GeForce FX 5800 Ultra. Iedere test wordt duidelijk toegelicht en is voorzien van veel staafdiagrammen. Ook de begrippen anisotropic filtering en anti-aliasing worden nog even aangestipt.
Uiteraard wordt er ook nog gebenchmarked met 3DMark2001 SE en 3DMark03. Hierbij komt vrijwel altijd de nVidia-kaart als winnaar uit de bus, iets wat volgens Digit Life te danken is aan de betere anisotropic filtering. Al dit 3D-geweld is weer voorzien van veel staafdiagrammen. Na afloop van 3DMark03 vraagt de reviewer van Digit Life zich af of deze benchmark wel een goede reflectie is voor de gamerswereld. Om de performance van de 5800 in wat games te testen, heeft Digit Life gekozen voor Quake3 ARENA, Serious Sam, Return to Castle Wolfenstein, Code Creatures, Unreal Tournament 2003 Demo en de Alpha versie van Doom III.
In Quake3 is de kaart van nVidia nog de duidelijke winnaar, bij Serious Sam is dat anders. Daar wint de 9700 Pro van ATi veelal, behalve op de laagste resolutie. Daarna is de beurt weer aan de GeForce FX. In zowel Return to Castle Wolfenstein als de Unreal Tournament 2003 Demo en Doom III Alpha is nVidia de snelste, al is het verschil soms marginaal. Na al dit grafische geweld wordt de 3D-kwaliteit nogmaals besproken, allemaal weer voorzien van een overvloed aan plaatjes.
Uiteindelijk zijn de jongens van Digit Life bij de conclusie aangekomen. Eerst maken ze duidelijk hoe blij ze zijn dat ze deze mooie kaart hebben kunnen testen, alhoewel hij waarschijnlijk nooit in deze vorm op de markt zal verschijnen. De NV30 is volgens hen een stap in de juiste richting wat flexibele programmeerbare GPU's betreft. De kaart heeft zo zijn nadelen, al zijn deze volgens hun vrij simpel op te lossen, iets wat Digit Life hoopt te zien gebeuren in de komende versies van de NV3X-chips. Al met al is het een zeer uitgebreide review, die flink doorspekt is van extra uitleg en duidelijke diagrammen:
The weakest point of the GeForce FX 5800 is the 128bit memory bus because even such fast memory working at 500 (1000) MHz can't provide the required throughput for the 500MHz 8-pipeline chip. It had a very bad effect on the AA in spite of the frame buffer compression in MSAA modes. [...] As a result, the NV30 has a lower speed in the AA mode than the R300 (which has both compression and the 256bit memory bus). [...]
Another downside is a noisy cooler which can frighten users by unexpected starts or pauses (when the rotation speed gets lower). Because of such design a user has to sacrifice the first PCI slot. But this downside can be dealt with, and there are already cards with cooling systems free of shortcomings of the reference card. So, despite the above weak points, this is the fastest 3D accelerator for the beginning of 2003.
nieuws: nVidia GeForce FX 5800 Ultra 128MB review
Anoniem: 78614
Grappig dat je dat zo zegt... Dankzij Matrox worden een hoop mensen NIET dood gevondenmatrox, ik zou er niet dood mee gevonden willen worden, hele slechte ervaring mee gehad, echt bagger merk, dat hadden ze moeten verbieden de merk matrox.
Ze maken namelijk hardware voor medische imaging.
Voor doorsnee gaming zijn hun kaarten niet zo geschikt, maar een ieder die zich een beetje informeert, ziet dat snel genoeg in de reviews. Het zijn kaarten voor een ander publiek, dat andere eisen stelt. "Bagger" is het zeker niet. Matrox-kaarten hebben wel degelijk bestaansrecht. Ik was zelf jarenlang een blije Matrox-gebruiker, vanwege hun enorm snelle geheugentoegang. Hun beste kaarten waren sneller dan de PCI-bus, en je haalde dus het maximum uit je PC met software-rendering.
De beeldkwaliteit was ook erg goed, drivers waren goed, en er waren altijd enorm veel mooie features aanwezig (zo waren ze heel vroeg met YUY2 hardware-decoding, wat gebruikt kan worden om mpg en aanverwante filmformaten te accelereren).
Helaas is Matrox in de 3d-race afgehaakt rond het TNT2/GF-tijdperk, en blijven nu slechts de beeldkwaliteit en de 2d-features over. Ik ben destijds ook maar overgestapt op nVidia.
Maar zodra Matrox weer een kaart op de markt brengt die qua features in de buurt komt van de topmodellen van ATi en/of nVidia, zal ik geen moment twijfelen, en meteen weer overstappen op Matrox.
Maar goed, de gemiddelde tweaker gebruikt z'n display-kaart iets anders dan ik, denk ik
Bij tomshardware werd de hypothese geponeerd dat de nieuwe drivers misschien de precisie van de shaders naar 16 bit zetten, waar de oude drivers 32 bit gebruikten.De driverupdate van 28.32 naar 11.01 zorgde wel voor een performance increase van (!!) 47.5% en de update van 28.32 naar 41.09 een kleine 3.3%. In totaal dus een performance increase van 52.4%.
Dit ook naar aanleiding van uitspraken van John Carmack, die bemerkte dat de NV30-pipeline op 16 bits sneller was dan de R300 op de ARB2- en R200-pipelines (er is geen specifieke R300-pipeline), maar dat de ARB2-pipeline (op 32 bits dus) trager was dan de R300 (die altijd 24 bit gebruikt, wat weleens de gulden middenweg zou kunnen zijn).
Ik weet niet of dit waar is, maar het zou een en ander kunnen verklaren...
Tomshardware zette ook hun vraagtekens bij de WHQL DX9-compliance als de kaart op 16 bits loopt... De precisie is dan in feite te laag.
[ Voor 25% gewijzigd door Anoniem: 78614 op 20-02-2003 19:49 ]
Anoniem: 77043
oh eeuuuuh, dat wist ik niet, van dat medisch imaging, shit,zeg ik eens een keer wat, zeg ik het verdorie weer op een verkeerde manier, nou jaAnoniem: 78614 schreef op 20 februari 2003 @ 19:13:
[...]
Grappig dat je dat zo zegt... Dankzij Matrox worden een hoop mensen NIET dood gevonden
Ze maken namelijk hardware voor medische imaging.
Voor doorsnee gaming zijn hun kaarten niet zo geschikt, maar een ieder die zich een beetje informeert, ziet dat snel genoeg in de reviews. Het zijn kaarten voor een ander publiek, dat andere eisen stelt. "Bagger" is het zeker niet. Matrox-kaarten hebben wel degelijk bestaansrecht. Ik was zelf jarenlang een blije Matrox-gebruiker, vanwege hun enorm snelle geheugentoegang. Hun beste kaarten waren sneller dan de PCI-bus, en je haalde dus het maximum uit je PC met software-rendering.
De beeldkwaliteit was ook erg goed, drivers waren goed, en er waren altijd enorm veel mooie features aanwezig (zo waren ze heel vroeg met YUY2 hardware-decoding, wat gebruikt kan worden om mpg en aanverwante filmformaten te accelereren).
Helaas is Matrox in de 3d-race afgehaakt rond het TNT2/GF-tijdperk, en blijven nu slechts de beeldkwaliteit en de 2d-features over. Ik ben destijds ook maar overgestapt op nVidia.
Maar zodra Matrox weer een kaart op de markt brengt die qua features in de buurt komt van de topmodellen van ATi en/of nVidia, zal ik geen moment twijfelen, en meteen weer overstappen op Matrox.
Maar goed, de gemiddelde tweaker gebruikt z'n display-kaart iets anders dan ik, denk ik
[...]
Bij tomshardware werd de hypothese geponeerd dat de nieuwe drivers misschien de precisie van de shaders naar 16 bit zetten, waar de oude drivers 32 bit gebruikten.
Dit ook naar aanleiding van uitspraken van John Carmack, die bemerkte dat de NV30-pipeline op 16 bits sneller was dan de R300 op de ARB2- en R200-pipelines (er is geen specifieke R300-pipeline), maar dat de ARB2-pipeline (op 32 bits dus) trager was dan de R300 (die altijd 24 bit gebruikt, wat weleens de gulden middenweg zou kunnen zijn).
Ik weet niet of dit waar is, maar het zou een en ander kunnen verklaren...
Tomshardware zette ook hun vraagtekens bij de WHQL DX9-compliance als de kaart op 16 bits loopt... De precisie is dan in feite te laag.

nou het was natuurlijk ook wel een beetje extreem hoe ik mij uitdrukte, zal best wel een goed kaartje zijn, maar ik had er wat slechte ervaringen mee, en dat heeft mij toen veel geld gekost, vandaar dat ik nog een beetje gefrustreerd ben, maar ik begrijp natuurlijk ook wel dat andere mensen betere ervaringen mee hebben gehad, ik zal het in de toekomst wat anders uitspreken, mischien was dit een beetje te grof.
en idletoad hoe bedoel je dat precies over dat van tom hardware shop, ik zeg eerlijk ik ben niet zo techisch begaaft als de meesten van jullie, maar ik ben heel leergierig, en van sommigen van jullie hier op got, neem ik ook echt wat van aan, ik heb hier op got al veel bijgeleerd. dankzij een paar van jullie.
[ Voor 7% gewijzigd door Anoniem: 77043 op 21-02-2003 19:17 ]
Ik van omver uit m'n stoel bij het lezen van dit:
http://www.theinquirer.net/?article=7920IN A MARATHON INVESTIGATION that The Inquirer launched a couple of days ago, we have some solid stuff to present to you. From the time when Nvidia first questioned the validity of 3DMark03 and its single texturing as a method of rendering that is rarely used in games we knew that somthing was rotten in Denmark, sorry, Santa Clara.
An Nvidia technical marketing manager confirmed to us that Geforce FX has 4 Pipelines and 2 Texture Memory Units that can results with 8 textures per clock but only in multitexturing.
However, Nvidia did say that there were some cases where its chip can turn out 8 pixels per clock. Here is a quote:
"GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations"
and
"Only color+Z rendering is done at 4 pixels per clock"
We talked with many developers and they said me that all games these days use Color + Z rendering. So all this Nvidia talk about the possibility of rendering 8 pixels in special cases becomes irrelevant.
The bottom line is that when it comes to Color + Z rendering, the GeForce FX is only half as powerful as the older Radeon 9700.
After further investigation, we learned that many games including Unreal Tournament 2003 use both single and multitexturing. In any cases where you don't need multitexturing and can make your scene with single texturing you want to do that as every bit of bandwidth you can save really counts. You don't want to lose your bandwidth just to make one graphics company happy.
Anoniem: 61853
Dat valt wel even tegen, 4 zijn iig niet erg veel.Hacku schreef op 21 February 2003 @ 21:09:
Ik van omver uit m'n stoel bij het lezen van dit:
[...]
http://www.theinquirer.net/?article=7920
Ja 4 pipes maar volgens nVidia kan hij toch 8 pixels per clock berekenen in volgende gevallen:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations
alleen color+Z rendering wordt gedaan aan 4 pixels per clock
Een Radeon 9700 doet alles aan 8 pixels per clock
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations
alleen color+Z rendering wordt gedaan aan 4 pixels per clock
Een Radeon 9700 doet alles aan 8 pixels per clock
[ Voor 11% gewijzigd door XWB op 21-02-2003 21:21 ]
4 pipes.
Ik hoop voor hun dat het niet waar is.
Is 8-pipes niet een vereiste van DX9.0?
Edit: Zou best kunnen trouwens die 4x2.
nVidia heeft NOOIT expliciet en officieel gezegd dat de FX een 8x1 architectuur is. Op hun website zal je daar niets over vinden. Wel staat er in de tech-documenten:
"8 pixels per clock cycle"
Bij ATi staat er echt "8 pixel pipeline architecture".
Het zou ook de resultaten van een flink aantal tests in 3DMark2003 verklaren (bv de lage Pixelshadertest resultaten) en het zou ook verklaren waarom een 500/1000-combinatie het niet overtuigend kan winnen van een 325/620-combinatie. Als je hier van uit gaat dan zou je denken dat zonder AA, AF en op standaardresoluties (dus minder bandbreedte afhankelijke tests) de FX over de 9700Pro heen zou walsen.
Een 4x2-architectuur op 500/1000 zou volgens mij in die bepaalde niet bandbreedte afhankelijke gevallen inderdaad ongeveer op gelijke hoogte moeten komen met de 9700Pro.

Is 8-pipes niet een vereiste van DX9.0?
Edit: Zou best kunnen trouwens die 4x2.
nVidia heeft NOOIT expliciet en officieel gezegd dat de FX een 8x1 architectuur is. Op hun website zal je daar niets over vinden. Wel staat er in de tech-documenten:
"8 pixels per clock cycle"
Bij ATi staat er echt "8 pixel pipeline architecture".
Het zou ook de resultaten van een flink aantal tests in 3DMark2003 verklaren (bv de lage Pixelshadertest resultaten) en het zou ook verklaren waarom een 500/1000-combinatie het niet overtuigend kan winnen van een 325/620-combinatie. Als je hier van uit gaat dan zou je denken dat zonder AA, AF en op standaardresoluties (dus minder bandbreedte afhankelijke tests) de FX over de 9700Pro heen zou walsen.
Een 4x2-architectuur op 500/1000 zou volgens mij in die bepaalde niet bandbreedte afhankelijke gevallen inderdaad ongeveer op gelijke hoogte moeten komen met de 9700Pro.
[ Voor 85% gewijzigd door CJ op 21-02-2003 22:20 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dan kunnen we dus voor NV35 wel een 8 pixel pipeline architectuur verwachten of is dat gewoon niet te doen met het huidige chip design? Beetje triest dit verhaal
Dan zal een 256 bit bus ook wel niet veel uit maken, of wel?

Ik zou bij God niet weten wat we nog kunnen verwachten van nVidia. Ze laten ook gewoon geen details vrij, of bevestigen of ontkennen iets. Alleen maar vage marketing BS.Upke dupke schreef op 21 February 2003 @ 23:33:
Dan kunnen we dus voor NV35 wel een 8 pixel pipeline architectuur verwachten of is dat gewoon niet te doen met het huidige chip design? Beetje triest dit verhaalDan zal een 256 bit bus ook wel niet veel uit maken, of wel?
Lees hier trouwens meer over dat 4x2 gedoe. The Inquirer heeft het min of meer gejat van een thread op Beyond3D die al meer dan een week loopt. (Daar zijn ze dan ook pissed dat B3D niet eens genoemd is als bron).
http://www.beyond3d.com/forum/viewtopic.php?t=4252
Ze hebben daar inmiddels ook een FX5800 Ultra gekregen van nVidia en die zijn ze nu uitvoerig aan het testen. Tot nu toe lijkt het alsof de vermoedens bevestigd worden.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit verklaart heel veel, eigenlijk alles.Anoniem: 61853 schreef op 21 February 2003 @ 21:16:
[...]
Dat valt wel even tegen, 4 zijn iig niet erg veel.
Je zou namelijk verwachten dat de FX op 500 mhz met een 8 pipeline architectuur gehakt maakt van de R9700 in bepaalde situaties (fillerate), nou dat hebben we gezien, die zijn er niet.
Die R9700 ga ik nog lang houden zo te zien, want als dit waar is zullen driververbeteringen niet brengen wat ik eerst van de FX verwacht had.
Niet op voorraad.
Anoniem: 78614
Ik zal voor de volledigheid de URL er ook even bij doen: http://www.tomshardware.com/column/20030219/index.htmlen idletoad hoe bedoel je dat precies over dat van tom hardware shop
Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
ATi heeft gekozen voor 1 systeem van 24 bits.... nVidia heeft 2 systemen, 16 bits en 32 bits.
16 bits is sneller dan 32 bits, maar ten koste van de precisie.
Dus men denkt nu dat de oude drivers de 32 bits mode gebruikten in DX9, en dat de nieuwe, snellere drivers de 16 bits mode gebruiken... Dan zijn ze wel sneller, maar is de precisie dan nog wel goed genoeg? En in hoeverre is het te vergelijken met ATi?
ATi heeft een goede zet gedaan met 24 bit, denk ik... 16 bit is net te weinig... en 32 bit is net te veel. Ik denk niet dat je het verschil tussen 24 en 32 bit kunt zien... Ik denk dat in de meeste gevallen het verschil niet eens bestaat (je moet wel erg veel gaan lopen rekenen en doen, wil je meer dan die 24 bits nodig hebben om niet genoeg precisie over te houden).
16 bit is gewoon net te weinig. Dat verschil is er zeker, en dat kun je waarschijnlijk nog wel zien ook (Carmack zegt dat hij het ziet).
Anoniem: 77043
ah, nu is het wat duidelijker voor me, bedankt idletoad dat je het nog een keer voor mij wou uitleggen.Anoniem: 78614 schreef op 22 February 2003 @ 00:39:
[...]
Ik zal voor de volledigheid de URL er ook even bij doen: http://www.tomshardware.com/column/20030219/index.html
Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
ATi heeft gekozen voor 1 systeem van 24 bits.... nVidia heeft 2 systemen, 16 bits en 32 bits.
16 bits is sneller dan 32 bits, maar ten koste van de precisie.
Dus men denkt nu dat de oude drivers de 32 bits mode gebruikten in DX9, en dat de nieuwe, snellere drivers de 16 bits mode gebruiken... Dan zijn ze wel sneller, maar is de precisie dan nog wel goed genoeg? En in hoeverre is het te vergelijken met ATi?
ATi heeft een goede zet gedaan met 24 bit, denk ik... 16 bit is net te weinig... en 32 bit is net te veel. Ik denk niet dat je het verschil tussen 24 en 32 bit kunt zien... Ik denk dat in de meeste gevallen het verschil niet eens bestaat (je moet wel erg veel gaan lopen rekenen en doen, wil je meer dan die 24 bits nodig hebben om niet genoeg precisie over te houden).
16 bit is gewoon net te weinig. Dat verschil is er zeker, en dat kun je waarschijnlijk nog wel zien ook (Carmack zegt dat hij het ziet).
Ik mis hier iets dacht dat R300 96bit FP bewerking ondersteund en de nV30 32bit 64bit 128bit of hoe zit dat.Anoniem: 78614 schreef op 22 februari 2003 @ 00:39:
[...]
Ik zal voor de volledigheid de URL er ook even bij doen: http://www.tomshardware.com/column/20030219/index.html
Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
ATi heeft gekozen voor 1 systeem van 24 bits.... nVidia heeft 2 systemen, 16 bits en 32 bits.
16 bits is sneller dan 32 bits, maar ten koste van de precisie.
Dus men denkt nu dat de oude drivers de 32 bits mode gebruikten in DX9, en dat de nieuwe, snellere drivers de 16 bits mode gebruiken... Dan zijn ze wel sneller, maar is de precisie dan nog wel goed genoeg? En in hoeverre is het te vergelijken met ATi?
ATi heeft een goede zet gedaan met 24 bit, denk ik... 16 bit is net te weinig... en 32 bit is net te veel. Ik denk niet dat je het verschil tussen 24 en 32 bit kunt zien... Ik denk dat in de meeste gevallen het verschil niet eens bestaat (je moet wel erg veel gaan lopen rekenen en doen, wil je meer dan die 24 bits nodig hebben om niet genoeg precisie over te houden).
16 bit is gewoon net te weinig. Dat verschil is er zeker, en dat kun je waarschijnlijk nog wel zien ook (Carmack zegt dat hij het ziet).
Dan DX9 zal altijd nog integers ondersteunen aangezien Frame buffers en Textures nog geen FP color waarden hoefen te hebben dus nog steeds integer RGBA waarden gebruiken.
Zodra er sprake is van een Fp color surface voor frame en texture surfaces dan is de integer gebruik geheel/grotendeels uitgeloten.
De R300 werkt dus gewoon met RGBA surfaces en verwerkt intern dus met FP waarden. en het resultaat naar 'n RGBA surface dus integer
iig dat dacht ik.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Anoniem: 78614
R300 kan ook 16:16:16:16 en 32:32:32:32 bit floating point rendertargets/textures aan (vereiste voor DX9). Maar we hadden het hier over de shaders. Shaders van R300 zijn altijd 24 bit, die van NV30 hebben dus 2 modes, 16 en 32 bit.De R300 werkt dus gewoon met RGBA surfaces en verwerkt intern dus met FP waarden. en het resultaat naar 'n RGBA surface dus integer
Integer shaders zullen hoogstwaarschijnlijk 'geemuleerd' worden op de fp shaderhardware (scheelt een hoop transistors, en is waarschijnlijk niet eens trager). Op de R300 wordt de fixed function pipeline iig al compleet 'geemuleerd' op shaders. Er zijn dus geen hardwired operaties meer.
R300 kan met zowel integer-RGBA als met fp-surfaces werken dus.
(Frontbuffer moet wel altijd integer-RGBA zijn, omdat er geen fp ramdacs bestaan. Dus frontbuffer is 8:8:8:8 of 2:10:10:10 in de meeste gevallen).
edit:
ATi heeft ook die "Rendering with natural light"-demo uitgebracht, die een floating-point high-dynamic-range lightmap gebruikt voor de belichting.
3dmark03 gebruikt in de Mother Nature game ook een dergelijke belichting.
En dat werkt dus feilloos op R300s
[ Voor 18% gewijzigd door Anoniem: 78614 op 23-02-2003 18:40 ]
"Maar we hadden het hier over de shaders."Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
...................................
Dát zie ik nergens in jouw lappie text staan, waar dit fragment uit komt, dus heb ik dat ook gemist.
Zouden dan niet alle frame Buffers RGB integer moeten zijn aangezien bij Triple en Doublebuffer in een flipping chain in FullScreen mode alleen een pointer wordt gezet naar de volgende buffer met de next frame erin? De BackbuffersR300 kan met zowel integer-RGBA als met fp-surfaces werken dus.
(Frontbuffer moet wel altijd integer-RGBA zijn, omdat er geen fp ramdacs bestaan. Dus frontbuffer is 8:8:8:8 of 2:10:10:10 in de meeste gevallen).
Ik dacht ook gelezen te hebben dat ze ook bezig waren met FP surfaces ook voor primaire surface dan zou de ramdac ook FP color waarden moeten aankunnen maar of dat ook is met deze DX9 hardware zou ik niet weten.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Anoniem: 78614
Het was ook een verdere uitleg van een eerdere post, waarin stond:"Maar we hadden het hier over de shaders."
Dát zie ik nergens in jouw lappie text staan, waar dit fragment uit komt, dus heb ik dat ook gemist.
Wel handig als je het verhaal vanaf het begin volgtBij tomshardware werd de hypothese geponeerd dat de nieuwe drivers misschien de precisie van de shaders naar 16 bit zetten, waar de oude drivers 32 bit gebruikten.
Nee, want als je een floating-point rendertarget wilt gebruiken, kun je per definitie geen flipping chain gebruiken. Het is de bedoeling dat je een filter schrijft dat de fp-target converteert naar een gewone integer-frontbuffer (hier kun je dus bloom en andere post-processing effecten nog in verwerken).Zouden dan niet alle frame Buffers RGB integer moeten zijn aangezien bij Triple en Doublebuffer in een flipping chain in FullScreen mode alleen een pointer wordt gezet naar de volgende buffer met de next frame erin? De Backbuffers
Dat wil dus zeggen... Het fp-rendertarget kan geen deel uitmaken van een flipping chain... Je kunt natuurlijk wel de resulterende RGB-surfaces double/triple/weetikhoeveel bufferen, en flippen.
Maar niet alle rendertargets hoeven deel uit te maken van de flipping chain(!).
Lijkt me onwaarschijnlijk. Het heeft helemaal geen voordelen om direct fp-waarden naar de ramdac te sturen. De high-dynamic-range kun je toch op een monitor niet gebruiken (wit is witIk dacht ook gelezen te hebben dat ze ook bezig waren met FP surfaces ook voor primaire surface dan zou de ramdac ook FP color waarden moeten aankunnen maar of dat ook is met deze DX9 hardware zou ik niet weten.
Het zou alleen de ramdac maar complexer en duurder maken.
Huidige DX9-hardware werkt in ieder geval niet zo.
[ Voor 9% gewijzigd door Anoniem: 78614 op 23-02-2003 19:26 ]
Raymond Koning (schrijft regelmatig in de Computer Totaal (Bekend op GoT als Slashhead)) meld dit op het C!T forum.
Ik krijg net te horen dat de GeForceFX 5800ultra niet doorgaat... nVidia kan de clocks niet halen en dus komt deze niet op de markt. Een afgeslankte versie zal wel verschijnen. In juni wordt de NV35 verwacht
Anoniem: 24036
Als het goed is krijgen alleen de mensen die een ultra besteld hadden er 1.hjs schreef op 25 februari 2003 @ 16:17:
Raymond Koning (schrijft regelmatig in de Computer Totaal (Bekend op GoT als Slashhead)) meld dit op het C!T forum.
[...]
De normale versie zal wel te koop zijn.
Dus toch waar...! van wie hoorde hij dat, van NV of de kaartenbakkers?hjs schreef op 25 februari 2003 @ 16:17:
Raymond Koning (schrijft regelmatig in de Computer Totaal (Bekend op GoT als Slashhead)) meld dit op het C!T forum.
[...]
[ Voor 10% gewijzigd door edward2 op 25-02-2003 18:04 ]
Niet op voorraad.
Dus de GFX Ultra wordt 'n soort van limeted edition
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Zoals het er nu voor staat wel, maar wie wil er ook een hebben.SuperG schreef op 25 February 2003 @ 18:55:
Dus de GFX Ultra wordt 'n soort van limeted edition

Vandaag kreeg ik te horen dat de NV30 maar een oplage heeft van Max. 15.000 stuks. Dus zij die er vlug eentje kopen zullen deze hebben degenen die iets zullen wachten vissen ernaast.
het nieuws kwam van bij NVidia zelf... . Zou de verkoop van hun topkaart dan effectief zo weining zijn invergelijking met de rest van hun gamma, of zijn de Yields inderdaad zo slecht dat ze er niet meer uitkrijgen??
Is het verder al iemand opgevallen dat FX misschien volledig naar 3dFX verwijst, zij zijn volgens mij degenen die deze ontwikkeld hebben (het oude 3dfx team dan toch).
Ik hoorde ook al veel klagen over de immense cooler dat er op zit, en dat hij veel stof zou opzuigen, is dit geen gesloten circuit? zodat hij enkel en alleen zichzelf vervuilt?
het nieuws kwam van bij NVidia zelf... . Zou de verkoop van hun topkaart dan effectief zo weining zijn invergelijking met de rest van hun gamma, of zijn de Yields inderdaad zo slecht dat ze er niet meer uitkrijgen??
Is het verder al iemand opgevallen dat FX misschien volledig naar 3dFX verwijst, zij zijn volgens mij degenen die deze ontwikkeld hebben (het oude 3dfx team dan toch).
Ik hoorde ook al veel klagen over de immense cooler dat er op zit, en dat hij veel stof zou opzuigen, is dit geen gesloten circuit? zodat hij enkel en alleen zichzelf vervuilt?
Als ik bij een waarzegster ga, weet zij dan ook op voorhand dat ik geen geld bij heb?
Anoniem: 68598
Ik denk dat de oplage mede komt doordat NV30 chip slecht resultaten behaalt. Volgens de benchmark komt dat ding maar net boven de ATI 9700 Pro, dit is dus niet egt spannend.
Dus Nvidia zal wel weer aan nieuwe chip aan het knutsellen zijn. Maarjah dat geeft tog niet de RV350 gaat tog harderblazen
.
Het beste dat Nvidia kan doen is verder gaan met 3dFX technologie hier kunnen ze waarschijnlijk wel wat meer uit halen.
Volgens mij zal ATI voorlopig de winner blijven.
Dus Nvidia zal wel weer aan nieuwe chip aan het knutsellen zijn. Maarjah dat geeft tog niet de RV350 gaat tog harderblazen
Het beste dat Nvidia kan doen is verder gaan met 3dFX technologie hier kunnen ze waarschijnlijk wel wat meer uit halen.
Volgens mij zal ATI voorlopig de winner blijven.
NV30 welke alle of alleen de ULTRA ?
Wat hebben jully toch met 3dfx
De Voodoo 5 6000 is niet uitgekomen en wat was zijn nVidia tegen hanger de GF2Ultra ???
DAn had je de Spectra core en rampage die in ontwikkeling waren.
Nou ATI en nVidia zijn dus nu ook alweer twee generaties verder 3DFX moest nog met T&L komen dus wat 3DFX in petto had is dus nu ook op, wat nVidia brengt hierna zal niet veel meer met 3DFX te maken hebben maar gewoon 'n gemeenschappelijk nieuw produkt van de techneuten uit beide kampen zijn
Die GPU bakkers werken hooguit 2 á 3 Gpu projecten verderuit
3DfX is is al een Héle tijd al game over dus wat ze toen opstapelhadden is dus nu ook al achterhaald.
Daarnaast was nVidia helemaal niet afhankelijk van 3DFX aangezien zij ook de kennis in huis hebben om nextgen GPU te maken en 3dfx te kijk zetten
dus verwacht niet te veel van 3DFX want in mijn ogen is dat allemaal reduncdant gedoe
In mijn ogen is de nVidia GFX team totaal verrast door de R300 en dus moest het sneller worden en dus die moest ie 500Mhz wat dus te hoog gegrepen is.
aangezien nu ATI ............................nVidia & 3dfx techneuten te kijk zet.
Wat hebben jully toch met 3dfx
De Voodoo 5 6000 is niet uitgekomen en wat was zijn nVidia tegen hanger de GF2Ultra ???
DAn had je de Spectra core en rampage die in ontwikkeling waren.
Nou ATI en nVidia zijn dus nu ook alweer twee generaties verder 3DFX moest nog met T&L komen dus wat 3DFX in petto had is dus nu ook op, wat nVidia brengt hierna zal niet veel meer met 3DFX te maken hebben maar gewoon 'n gemeenschappelijk nieuw produkt van de techneuten uit beide kampen zijn
Die GPU bakkers werken hooguit 2 á 3 Gpu projecten verderuit
3DfX is is al een Héle tijd al game over dus wat ze toen opstapelhadden is dus nu ook al achterhaald.
Daarnaast was nVidia helemaal niet afhankelijk van 3DFX aangezien zij ook de kennis in huis hebben om nextgen GPU te maken en 3dfx te kijk zetten
dus verwacht niet te veel van 3DFX want in mijn ogen is dat allemaal reduncdant gedoe
In mijn ogen is de nVidia GFX team totaal verrast door de R300 en dus moest het sneller worden en dus die moest ie 500Mhz wat dus te hoog gegrepen is.
aangezien nu ATI ............................nVidia & 3dfx techneuten te kijk zet.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Klopt. NV35 heeft het tape-out stadium dicht genaderd en nVidia wil dit in Juli uit gaan brengen, nog voordat ATi met R400 komt. Dus ze hebben nu al hun geld op NV35 gezet.Anoniem: 68598 schreef op 25 February 2003 @ 23:00:
Dus Nvidia zal wel weer aan nieuwe chip aan het knutsellen zijn.
In de tussentijd moeten NV31 (vervanger Ti4400) en NV34 (vervanger MX-serie) voor geld zorgen tot de tijd dat NV35 wordt gereleased (en de daarvan afgeleide mainstream variant NV36).
Als ze dit namelijk niet doen en de oorspronkelijke planning volgen, dan lopen ze straks weer achter de feiten aan. NV35 zou dan in het najaar gereleased worden, terwijl R400 al in de zomer gelaunched wordt. En R400 is volgens een aantal insiders (veel) sneller dan NV35. R400 is zeg maar zoiets als R300 was t.o.v. R200.
NV35, met 256-bits geheugeninterface, 50% koeler en minder energievragend, zou ook al op de laatste IDF geshowed worden behind the scenes aan een select groepje mensen, maar dat was volgens mensen die er geweest waren bullshit.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb niets met 3DFX in het geheel, ik vertelde enkel dat het weleens kan dat het team dat vroeger bij 3DFX werkte nu de geforceFX heeft ontwikkeld... .SuperG schreef op 26 February 2003 @ 07:38:
NV30 welke alle of alleen de ULTRA ?
Wat hebben jully toch met 3dfx
De Voodoo 5 6000 is niet uitgekomen en wat was zijn nVidia tegen hanger de GF2Ultra ???
DAn had je de Spectra core en rampage die in ontwikkeling waren.
Nou ATI en nVidia zijn dus nu ook alweer twee generaties verder 3DFX moest nog met T&L komen dus wat 3DFX in petto had is dus nu ook op, wat nVidia brengt hierna zal niet veel meer met 3DFX te maken hebben maar gewoon 'n gemeenschappelijk nieuw produkt van de techneuten uit beide kampen zijn
Die GPU bakkers werken hooguit 2 á 3 Gpu projecten verderuit
3DfX is is al een Héle tijd al game over dus wat ze toen opstapelhadden is dus nu ook al achterhaald.
Daarnaast was nVidia helemaal niet afhankelijk van 3DFX aangezien zij ook de kennis in huis hebben om nextgen GPU te maken en 3dfx te kijk zetten
dus verwacht niet te veel van 3DFX want in mijn ogen is dat allemaal reduncdant gedoe
In mijn ogen is de nVidia GFX team totaal verrast door de R300 en dus moest het sneller worden en dus die moest ie 500Mhz wat dus te hoog gegrepen is.
aangezien nu ATI ............................nVidia & 3dfx techneuten te kijk zet.
Ik begrijp verder je redenering maar heb dat niet zo bedoeld "so take it easy"
Verder zullen er van de Ultra enkel 15.000 stuks uitkomen... .
HAd toch graag geweten of dit echt de totaal verkoop vertegenwoordigd van een "top of the hill" kaart!! weet iemand dit?
[ Voor 9% gewijzigd door Royale de Luxe op 26-02-2003 15:42 ]
Als ik bij een waarzegster ga, weet zij dan ook op voorhand dat ik geen geld bij heb?
Ach, maak jullie niet druk, na de zomer is de R450 (of was het R400) van ATI er en gaat nVidia nog maar eens afgaan, dat zullen ze nu al doen als de R350 van ATI op de markt komt.
nVidia kan de concurentie niet aan en probeert dus met behulp van de GeForce FX nog een graantje mee te pikken maar de prestaties kunnen niet meer op tegen de nieuwe ATI chipsets.
nVidia zou beter (net zoals ATI gedaan heeft) een tijdje terugtrekken en zich concentreren op een nieuwe GPU waarmee ze ATI wel aankunnen in plaats van veel show te maken rond chipsets die niet opkunnen tegen de concurentie. Het idee van de 0.13µ chips van de FX is goed, maar ze kunnen het niet echt goed realiseren. Hier is ATI zich nu op aan het concentreren, 9 kansen op 10 zal ATI het wel goed doen en dan is nVidia zeker verloren.
nVidia heeft gewoon het voordeel van de bekendheid ten opzichte van ATI. Ze zijn jaren de enige geweest tot ATI terugkwam. Maar, meer en meer mensen beginnen ATI aan te schaffen, dat wil dus zeggen dat de mensen in ATI toch de betere zien.
nVidia kan de concurentie niet aan en probeert dus met behulp van de GeForce FX nog een graantje mee te pikken maar de prestaties kunnen niet meer op tegen de nieuwe ATI chipsets.
nVidia zou beter (net zoals ATI gedaan heeft) een tijdje terugtrekken en zich concentreren op een nieuwe GPU waarmee ze ATI wel aankunnen in plaats van veel show te maken rond chipsets die niet opkunnen tegen de concurentie. Het idee van de 0.13µ chips van de FX is goed, maar ze kunnen het niet echt goed realiseren. Hier is ATI zich nu op aan het concentreren, 9 kansen op 10 zal ATI het wel goed doen en dan is nVidia zeker verloren.
nVidia heeft gewoon het voordeel van de bekendheid ten opzichte van ATI. Ze zijn jaren de enige geweest tot ATI terugkwam. Maar, meer en meer mensen beginnen ATI aan te schaffen, dat wil dus zeggen dat de mensen in ATI toch de betere zien.
Een beetje verlies heb je altijd...
Anoniem: 77043
dat heb jij heel goed gezegd, en dat zie je ook heel goed, ik denk namelijk ook dat nvidia zich eerst maar een tijdje koest kan houden, dan inplaats elke keer zo'n herrie te maken.PeGys schreef op 27 februari 2003 @ 13:00:
Ach, maak jullie niet druk, na de zomer is de R450 (of was het R400) van ATI er en gaat nVidia nog maar eens afgaan, dat zullen ze nu al doen als de R350 van ATI op de markt komt.
nVidia kan de concurentie niet aan en probeert dus met behulp van de GeForce FX nog een graantje mee te pikken maar de prestaties kunnen niet meer op tegen de nieuwe ATI chipsets.
nVidia zou beter (net zoals ATI gedaan heeft) een tijdje terugtrekken en zich concentreren op een nieuwe GPU waarmee ze ATI wel aankunnen in plaats van veel show te maken rond chipsets die niet opkunnen tegen de concurentie. Het idee van de 0.13µ chips van de FX is goed, maar ze kunnen het niet echt goed realiseren. Hier is ATI zich nu op aan het concentreren, 9 kansen op 10 zal ATI het wel goed doen en dan is nVidia zeker verloren.
nVidia heeft gewoon het voordeel van de bekendheid ten opzichte van ATI. Ze zijn jaren de enige geweest tot ATI terugkwam. Maar, meer en meer mensen beginnen ATI aan te schaffen, dat wil dus zeggen dat de mensen in ATI toch de betere zien.
Digitimes heeft een interview met een CEO van nVidia.
Q: How has the market responded to Nvidia’s first 0.13-micron process graphics chip, the GeForce FX (NV30)? Could you tell us more about Nvidia’s production plans in 2003?
A: At the initial stage, Nvidia will ship 1.5 million NV30 chips and will also make cards based on the top-end GeForce FX 5800 Ultra (NV30 core) itself. The lower-end GeForce FX 5800 chips, however, will be released to downstream card manufacturers for production.
P.S. Stilstaande beelden zien er altijd gelikt uit, maar dat zegt nog niets over vloeiende beelden. Je kan een enorme high res pix ook weergeven op een 4 MB grafische kaart hoor. Dat zal gewoon wat meer laadtijd nodig hebben.
Die "screenshots" van de kwaliteit van de FX betekenen dus helemaal niets, ze kunnen die afbeeldingen gewoon gemaakt hebben en dan zet je erop wat je wil.
nVidia chips zijn ideaal.................om je nagels mee te kuisen.
Die "screenshots" van de kwaliteit van de FX betekenen dus helemaal niets, ze kunnen die afbeeldingen gewoon gemaakt hebben en dan zet je erop wat je wil.
nVidia chips zijn ideaal.................om je nagels mee te kuisen.
Een beetje verlies heb je altijd...
Yep, maar enkel 15000 Ultra's, Het is niet dat de NV30 enkel in Ultra bestaat, ze spelen hier natuurlijk op de markt in, iedereen weet dat het grote publiek nooit het duurste koopt.T.T. schreef op 27 February 2003 @ 18:04:
Digitimes heeft een interview met een CEO van nVidia.
[...]
Als ik bij een waarzegster ga, weet zij dan ook op voorhand dat ik geen geld bij heb?
Anoniem: 32156
http://www.theinquirer.net/?article=8031
NV31 = 2389 3dmark 2003
NV34 = 879
Nou, ik snap nu gelijk waarom nVidia een hekel heeft aan 3dMark2003 ..... Maar denk dat het meer een probleem van nVidia is dan van futuremark.
Wat een doodgeboren videokaart zeg.
NV31 = 2389 3dmark 2003
NV34 = 879
Nou, ik snap nu gelijk waarom nVidia een hekel heeft aan 3dMark2003 ..... Maar denk dat het meer een probleem van nVidia is dan van futuremark.
Wat een doodgeboren videokaart zeg.
mijn 8500DV haalt 940
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
http://www.theinquirer.net/?article=8053A REPORT ON the Finance Yahoo site claimed that Nvidia (NVDA) has lost a big design with big Taiwanese firm MSI (Microstar) to ATI (ATYT).
The win is supposed to be for giant German retailer Medion, which has done ever so well in the last year or two.
Microstar was originally an exclusive Nvidia partner.
Our info says that partners of Nvidia will line up with it for a big launch of other stuff on March 6th next.
Meanwhile, the same analyst claims that the GeForce FX will ramp more slowly than expected because of low yields.
But as we've pointed out, there is now product in the channel, just, perhaps, not very much of it.
Hehe, dit had ik ook al in het Radeon topic gepost, maar dan met een link naar Yahoo aangezien het ook over ATi gaat.
CJ in "-= Radeon Topic - Deel 64 =-"
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
MSI heeft in Japan een demo stand in de retail staan met een GNB MAX2 (E7205)GeForce FX5800-TD die 3D mark 2003 draait. Het is de GeforceFX zoals elke fabrkant m op de markt zal brengen... het reference design dat geproduceerd is door nVidia en naar de VGA partners is verscheept. Die doen er de verpakking om en plakken een sticker op de koeler.
(misschien te veel plaatjes?)










(misschien te veel plaatjes?)











[ Voor 104% gewijzigd door The Source op 01-03-2003 00:05 ]
Anoniem: 78614
Hum, ik zie op die monitor dat ze 3dmark03 draaien... Vindt nVidia dat wel leuk? 
Verder, heb je er geen soundsamples bij?
Ze beweren dat de retailcoolers minder geluid maken... Ik vraag me af of dat waar is. Deze ziet er (op de groen/gele kleur na) hetzelfde uit als die samples van nVidia.
Verder, heb je er geen soundsamples bij?
Ze beweren dat de retailcoolers minder geluid maken... Ik vraag me af of dat waar is. Deze ziet er (op de groen/gele kleur na) hetzelfde uit als die samples van nVidia.
Geinige plaatjes, ze beweren idd dat de retailcoolers minder geluid maken, daar had gainward er ook over maar als dat waar is? Tja.. "we will see" Verder is dat ding ja dat ding erg groot.
Jammer dat je er geen geluid bij hoort.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Idd, voor mensen die doof of slechthorend zijn is het een groot voordeel, voor ons ( mij ) goed horende(n) is het weer andersom: nadeel, omdat wij onze oortjes kunnen beschadigen.
Wanneer is dat normale versie eingelijk verkrijgbaar? Ik heb geruchten gehoord dat hij midden Februari komt, maar we zitten nu op 1 Maart.
Terratec had er al een paar, bij oc-wear.de
Niet op voorraad.
Anoniem: 77043
tja, als dit alles is wat de fx kan.Anoniem: 32156 schreef op 28 February 2003 @ 09:30:
http://www.theinquirer.net/?article=8031
NV31 = 2389 3dmark 2003
NV34 = 879
Nou, ik snap nu gelijk waarom nVidia een hekel heeft aan 3dMark2003 ..... Maar denk dat het meer een probleem van nVidia is dan van futuremark.
Wat een doodgeboren videokaart zeg.
begrijpt men nu waarom nvidia in december hard weg rende bij futuremark, ze zagen de bui al hangen toen, en hard over nagedacht wat hun volgende strategie zal zijn, weet je wat, we rennen weg, en als 3d mark03 dan uitkomt, zeggen we dat hij niet representatief is, (kunnen de mensen op got er weer een topic over openenen
nee zere neus, het is toch eigenlijk ook wat met die fx he, ik zal hem nog niet eens gratis willen hebben (nou, ik heb eigenlijks wel een grasmaaier nodig, wordt weer zomer
Anoniem: 23009
Het enige wat ik me echt afvraagt is dit:
Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?
Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.
Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries
Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?
Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.
Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries
Voor zover ik weet zul je dan gewoon met een glide-wrapper aan de slag moeten. Ik heb ieg netis gehoord over t eventueel glide ondersteunen van de FX...Anoniem: 23009 schreef op 01 maart 2003 @ 11:58:
Het enige wat ik me echt afvraagt is dit:
Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?
Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.
Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries
Overigens zou dit wel mogelijk zijn, als nvidia er drivers voor schreef, toch?
Ik bedoel, als het met een glide-wrapper werkt, moet het ook in drivers te verwerken zijn, zodat je ook oude spellen weer mooi kan spelen
Alone at last
Just nostalgia and I
We were sure to have a blast
Tja als je perse bij de oude glide games wil blijven heb je 'n probleemAnoniem: 23009 schreef op 01 March 2003 @ 11:58:
Het enige wat ik me echt afvraagt is dit:
Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?
Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.
Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries
als je daarnaast ook nog nieuwe games er tussendoor wil spelen.
Glide is einde oefening alle Gkaart ontwikkelaars maken nu hardware op OpenGL/DirectX basis met T&L en Shaders in gedachten
Glide is dus verleden tijd en de GFX ondersteund dat dus niet native
3Dfx ontwikkelde toen Glide hardware voor hun Glide API
Als je naast je GFX ook glide wil spelen is zo'n wrapper 'n uitkomst als dat er wel is, of Voodoo II SLI add-on erbij zetten
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
is de GeForceFX al leverbaar (hebben gotters hem al???)
want als hij over paar weken pas leverbaar is dan heeftie helemaal een probleem (als de r350 dan ook uitkomt)
Ik weet dat de r350 dan aangekondigd word, maar het duurt bij ati nooit zolang voordat hij dan ook echt leverbaar is
want als hij over paar weken pas leverbaar is dan heeftie helemaal een probleem (als de r350 dan ook uitkomt)
Ik weet dat de r350 dan aangekondigd word, maar het duurt bij ati nooit zolang voordat hij dan ook echt leverbaar is
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
De ABit OTES III:

deze vond ik op active hardware, ik weet de specs ervan niet, maar hij ziet er een stuk beter uit dan die standaard versie

deze vond ik op active hardware, ik weet de specs ervan niet, maar hij ziet er een stuk beter uit dan die standaard versie
[ Voor 5% gewijzigd door collission op 01-03-2003 19:12 ]
http://www.notforidiots.com/GPURW.phpSat Mar 1, 2003 10:12:33 pm - Hellbinder says interesting things about the NV35. He says it's 600/500 with a 256-bit memory bus and got 8 *real* pipelines. He also states it will not use Low K, and will thus not be cooler. - Reliability: Medium - Link
Sat Mar 1, 2003 9:59:00 pm - R350 samples clockspeed is 380/340, according to MuFu. Note, however, that this could change: ATI wasn't even sure for the R300 clockspeeds at launch! So no bashing if this isn't correct, please... - Reliability: Fairly High - Link
Sat Mar 1, 2003 9:55:13 pm - The NV31&NV34 are to be launched on the 6th, according to MuFu. Although his source doesn't seem that reliable- Reliability: Medium - Link
Sat Mar 1, 2003 5:12:15 pm - The NV31 initial clockspeed is of 350/275, according to MuFu. He also says the NV31 won't use memory clocked faster than ~275MHz, because the boards don't have active termination to cut costs. - Reliability: High - Link
Information Overload - Sat Mar 1, 2003 5:08:32 pm - The Inquirer gives a lot of a interesting R350 & RV350 information. If this is true, it's quite amazing. 375Mhz for the R350, 350Mhz for the RV350. And a lot of *really* interesting features for both. - Reliability: Medium - Link
Sat Mar 1, 2003 3:55:26 pm - The RV350 is 4x1 & uses a 128-bit DDR-I memory bus, according to MuFu. The Inquirer says it's a 256-bit memory bus, but that seems to be BS. - Reliability: High - Link
Sat Mar 1, 2003 3:52:11 pm - The NV31 does have some software-based shader functionality and the NV34 got a lot of it, according to MuFu. But it'll be transparent to DX9, so the problem is only performance, unlike for the GF4 MX - Reliability: High - Link
Sat Mar 1, 2003 2:58:22 pm - UncleSam DL iXBT said at B3D that the R350 *and* the RV350 ( ! ) pipelines will be more programmable than the R300 pipelines. NV30's programmability advantage will thus be lower than expected. - Reliability: Medium - Link
Sat Mar 1, 2003 1:38:45 pm - MSI is going to sell ATI GPUs as well, instead of just nVidia GPUs. This is an important design win for ATI, since MSI is the world's largest videocard manufacturer. - Reliability: Very High - Link
BREAKING NEWS - Sat Mar 1, 2003 1:22:42 pm - The R400 has been delayed until next year, according to Hellbinder at nV News. He also adds that Ati will release a 9900 Pro later this year based on R350 to keep the performance lead agains the Nv35. - Reliability: High - Link
Anoniem: 68311
W0W! echt mooicasemodderpoel schreef op 01 March 2003 @ 19:11:
De ABit OTES III:
[afbeelding]
deze vond ik op active hardware, ik weet de specs ervan niet, maar hij ziet er een stuk beter uit dan die standaard versie
Weer eens een GeForceFX review. Niet veel schokkends, maar altijd leuk om even te lezen.
Geforce FX has a rather complicated architecture though. With DirectX9 / PS2.0 compliancy calling for Floating point precision the FX’s PS2.0 shaders will have to execute over its floating point hardware, and in addition to the floating point processors, NVIDIA have also supplied a number of (legacy) integer operators. At present it's thought that these legacy integer operators have the same level of functionality as GeForce4, and hence would not be able to run PS1.4 shaders, so it's possible that they are running PS1.4 code via the floating point hardware. If this is the case then it would seem as though, given clock speed parity, the 5800 is worse at executing PS1.4 shaders over the floating point pipeline than GeForce 4 is running PS1.1 (at integer precision, as GeForce4 has no float support).
[ Voor 4% gewijzigd door T.T. op 03-03-2003 12:47 ]
Tss, geen vergelijking met de R9700... :|(T.T. schreef op 03 March 2003 @ 12:33:
Weer eens een GeForceFX review. Niet veel schokkends, maar altijd leuk om even te lezen.
[...]
Ik zal binnenkort mijn eigen bevindingen posten
Niet op voorraad.
Inderdaad, dat vond ik ook erg slecht. Ze kunnen wel vergelijken met de GF4 4600, maar dat is toch niet de concurrentedward2 schreef op 03 maart 2003 @ 13:11:
Tss, geen vergelijking met de R9700... :|(
Ik zal binnenkort mijn eigen bevindingen posten

Id, vond ik ook erg vreemd dat ze niet de ATI er naast hebben gezetedward2 schreef op 03 maart 2003 @ 13:11:
[...]
Tss, geen vergelijking met de R9700... :|(
Ik zal binnenkort mijn eigen bevindingen posten
Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal
Anoniem: 28172
Tja ...VTec schreef op 03 March 2003 @ 14:01:
[...]
Id, vond ik ook erg vreemd dat ze niet de ATI er naast hebben gezet
In het forum van Beyond3d loopt een thread waarin wordt gezegt dat ze uitsluitend een test exemplaar kregen indien ze geen 3dmark2003 zouden draaien en niet vergelijken met de 9700Pro .
Ik weet wel niet wat ervan waar is, maar dat van die 3dmark2003 wil ik wel geloven.
edit: Typo's
Ach, de vergelijking komen vanzelf wel tzt. Na 6 maart misschien ?
On March 6th, NVIDIA will announce newest members of the GeForce FX family (NV31 & NV34)
Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal
Maar toch heeft de NV31 & de NV34 lagere kloksnelheden dan de GeforceFX Ultra, en lopen de kloksnelheden dicht in de buurt van ATI 9700 Pro. Is dit nou een slimme zet van Nvidia? Nee toch? Aangezien de R350 binnenkort releast met mogelijk hogere kloksnelheden en mensen meer vertrouwen krijgt/heeft in ATI.Hacku schreef op 03 March 2003 @ 15:41:
Ja,
NV31 = GF FX 5600
NV34 = GF FX 5200
En van de 5600 komen nog 3 versies
Hogere snelheden zijn momenteel (zo lijkt het) niet haalbaar bij de FX. Tzt de NV35 misschien ?
Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal
Grrrr, weer net naast de pot gepist, de laatste Terrateckaart weer uitverkocht bij oc-wear.de
Ik heb verschillende zaken gemailed en ze worden gek van de aanvragen, toch een populair kaartje zo lijkt het.
Ik heb verschillende zaken gemailed en ze worden gek van de aanvragen, toch een populair kaartje zo lijkt het.
Niet op voorraad.
Edward: je weet ook zeker dat deze zaken het produkt op voorraad hadden ? Vaak moet ik in dit geval aan een lokkertje denken 
Onze vrienden van Gayward hebben de FX ook al online staan, btw (voor de verkoop)
Onze vrienden van Gayward hebben de FX ook al online staan, btw (voor de verkoop)
[ Voor 36% gewijzigd door VTec op 03-03-2003 16:50 ]
Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal
Ik denk het wel, Terratect schijnt 150 kaarten in Europa naar retail kanalen versleept te hebben, volgens diverse bronnen, das atuurlijk een druppels op de ....plaat.VTec schreef op 03 maart 2003 @ 16:45:
Edward: je weet ook zeker dat deze zaken het produkt op voorraad hadden ? Vaak moet ik in dit geval aan een lokkertje denken
Toch is er voor de goed zoekende wel een te vinden, ik heb ze gezien, maar die leveren niet int .
Die gast van oc-wear.de wist te vertellen dat preordenen bij hun voor wat betreft de Terratect Ultra geen zin meer had, omdat het aantal preorders waarschijnlijk het beschikbare aantal overtreft.
[ Voor 12% gewijzigd door edward2 op 03-03-2003 16:56 ]
Niet op voorraad.
Dit topic is gesloten.