Het grote GeForce FX topic (Deel 4)

Pagina: 1 ... 6 ... 11 Laatste
Acties:
  • 2.106 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 04-10 16:08

danplo

The Force is strong with me

Ik heb hier ook een FX5900 Ultra van Asus en ik wacht het nog wel even af.
Ik denk dat het dadelijk wel mee gaat vallen.
En zeker als we nVidia mogen geloven dan gaan deze kaartjes goed draaien met deze nieuwe DET50 drivers.
En daar vertrouw ik ook gewoon op.
En dat gezeik elke keer over nVidia met het cheaten en dat ze langzaam zijn en dat het slechte kaartjes zijn.
Dit is de laatste tijd wel zo makkelijk te zeggen....als je eenmaal de naam heb dan kom je er maar moeilijk vanaf.
Maar ik lach me dadelijk rot als ik dadelijk met deze FX5900 Ultra gewoon het zelfde of beter presteer dan een ATI kaartje.
Ik zeg altijd maar zo ...wie het laatst lacht lacht het best.
Net of ATI nooit gecheat heeft...en misschien doen ze dit nog wel ....
Ik wacht hier met spanning af op het vervolg.....

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 17 Pro Max 256GB / LG OLED G5 65”


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 05:10
MOCHT Nvidia counteren met uitstekende det. 50 resultaten, dan plaats ik voortaan Ati MINSTENS in hetzelfde kwade daglicht qua manipuleren van de opinie als Nvidia ook weleens heeft gedaan, en dan vooral hun marketing afdeling. :o

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
AnandTech heeft zijn eigen indepth review van HL2 geplaatst. Hij gaat er duidelijk op in dat Valve geen enkel belang heeft bij optimalisering voor ATi kaarten, omdat het doel van Valve is 'geld verdienen met hun games' en het grootste gedeelte van de gamers nog een nVidia kaart heeft. Offtopic heeft ATi overigens wel 97% in handen van de DX9 markt boven de $300.

http://www.anandtech.com/video/showdoc.html?i=1863&p=1

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Jammer dan er geen screenshots bij staan, had je een indruk kunnen krijgen tussen de verschillen in beeld kwaliteit tussen de verschillende "modes"

Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Hmmm, bijna op alle vlakken overtreft de FX5900 ultra de Ati Radeon 9800 Pro. Op het gebied van
shading mischien niet, maar dat heeft er ook mee te maken wat de onderlingen afspraken zijn tussen
hardware & software industie & in dit geval dus ook tussen verschillende game producenten. Ik heb
nu al een tijdje een GeForce FX5900 Ultra van Asus en die overtreft echt al me verwachtingen!!!!
Laten we nu gewoon die 50.xx drivers maar eff afwachten en dan eff banshmarks bekijken van een
onafhankelijk instituut en dan ook de prestaties op meer vlakken testen en niet bij elke fabrikant
zijn sterkste punt naar voren gaan halen en dan de anderen daar op afrekeken en dan doen of hun geen
sterkke punten hebben!


Ik weet het niet hoor..... Maar zijn we dit allemaal vergeten????

Bij The Inquirer doen geruchten de ronde over mogelijke ondersteuning van pixel shader 3.0 door
de Geforce FX 5900 Ultra. In het artikel wordt deze techniek gezien als een stap in de goede richting,
die een voorsprong op ATi zou kunnen geven. Sinds de eerste kaart die pixel shading 2.0 ondersteunde
een jaar geleden uitkwam, de Radeon 9700 PRO, zijn er weinig spellen die gebruik maken van de techniek.
Werknemers bij nVidia hebben echter wel aangegeven dat de testen met de FX 5900 Ultra enkele hardwareproblemen
opleverden en dat er nog geen drivers beschikbaar zijn voor de functie.

----------------------------------------

WE HEARD THAT Nvidia took one step forward from ATI as far as hardware development is concerned.
You can hardly see any game that has support for Pixel shader 2.0 and its fancy stuff. Even the first hardware that was capable of handling it, the Radeon 9700 PRO, R300 was introduced more than a year ago now.

Games like Half Life 2 will change this and games like Tomb, lot of clipping bugs Raider have support for it already.

Some of Nvidia guys that know how things work have told our friends that NV35, Geforce FX 5900 Ultra already has support for pixel shader 3.0 but there is no any driver publicly available that will support it. µ The same source implied that when Nvidia tested pixel shader 3.0 internally, there was a hardware problem.

We reckon that Nvidia is practising for NV40 and who knows, if it fixes things NV38 could end up with pixel shader 3.0 support, highly unlikely but still possible.

We would like to know what developers think about Pixel Shader 3.0 as we know that it can make a difference and give you guys more freedom. Feel free to share your comments.

Nvidia still might have some more ammunition than it want people to know about. µ


----------------------------------------

Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1052755662.jpg
Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1052778762.jpg
Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1052778763.jpg

[ Voor 30% gewijzigd door Fr0zenFlame op 12-09-2003 13:35 ]

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • Dracul
  • Registratie: Juni 2000
  • Laatst online: 29-07 14:24

Dracul

Ooh yeah!

Leuk hoor die paar benchmarks die jij hebt opgezocht maar er zijn er vele waarbij de Radeon 9800 Pro de vloer aanveegt met de FX. Los daarvan heb ik mijn twijfels bij deze specifieke benchmarks van jou.

Objectief gezien is de Radeon 9800 Pro gewoon beter als het gaat om snelheid, beeldkwaliteit en economisch omgaan met het geheugen. Ik heb een TNT2 Ultra, Geforce256-DDR, Geforce2 GTS,Geforce3 Vanilla en een Geforce4 Ti4600 gehad met volle tevredenheid maar ben nu blij dat ik naar een Ati Radeon 9800 Pro ben overgestapt. Mij maakt het niet uit of er nu een kaart van Ati of Nvidia in zit als het maar de beste kaart is.

Snap eigenlijk niet dat mensen zo stug blijven bij een bepaald merk. Dat je trots bent op je eigen resultaten, die van je familie of je vrienden okay, maar dat je trots bent op een videokaart van een bepaalde fabrikant is gewoon zielig. Of het nu Nvidia is of Ati. Uiteindelijk zijn het toch allebei bedrijven die geen fouten toegeven.

Dracul verlangt naar de tijd van 3Dfx.

[ Voor 14% gewijzigd door Dracul op 12-09-2003 11:10 ]


Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Ik zal zo nog eff meer toon aangevende banshmarks opzoeken. De FX5900 ultra blinkt gewoon uit op een paar hele belangrijke gebieden waar de ati niet aan kan tippen!!! Alleen hun paradepaartje op het gebied van alleen "shading" doet mij niet warm of koud worden hoor. Als Nvidia emet een paar driver updates bijna gelijk waardig kan zijn aan hun goudhaantje en op andere gebieden gewoon beter
is, dan kan ik alleen maar zeggen dat ik weer de goeie keuzen heb gemaakt door weer voor de Nvidia FX5900 Ultra te zijn gegaan. Game bouwers geven ook altijd aan blij te zijn met de nvidia kaarten en chip sets! Dat valve nou weer kartelvroming pleegt met Ati zie ik meer als een wanhoops poging van ati.

Maargoed zal nog wat banshmarks opzoeken!

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dracul schreef op 12 September 2003 @ 11:02:
Leuk hoor die paar benchmarks die jij hebt opgezocht maar er zijn er vele waarbij de Radeon 9800 Pro de vloer aanveegt met de FX. Los daarvan heb ik mijn twijfels bij deze specifieke benchmarks van jou.
Klopt. Doom III is gedraaid op Medium Detail. Kijk je bij Tom's Hardware, dan is daar ook nog eens op High Detail gedraait en verslaat de Radeon9800Pro de FX in 2 van de 3 tests. Beetje vreemd ook dat er met "Medium detail" is getest, want een game als Doom III wil je toch echt wel op High Detail draaien om alle eyecandy te kunnen zien.

Daarnaast is die UT2k3 test ook achterhaald. Kijk bv eens op de laatste Cat 3.7 recensie op Firingsquad. De conclusie over UT2k3:
And with the RADEON 9800 PRO running neck-and-neck with GeForce FX 5900 Ultra in UT 2003 with CATALYST 3.6, we believe the added performance present in CATALYST 3.7 should be enough for ATI to claim the performance crown in this application.
Bron: http://firingsquad.gamers...e/catalyst_3.7/page10.asp

En Jedi Knight II, tja... da's mooi dat-ie zo wint natuurlijk. Maar kijk ook eens naar resultaten van Star Trek: Elite Force 2 en Return To Castle Wolvenstein, allemaal met een aangepast Quake3 engine en op High Detail natuurlijk. Daar wint de Radeon9800Pro het vaak.

Natuurlijk snap ik dat mensen altijd het beste willen 'zien' en 'lezen' over hun kaart, maar het kan geen kwaad om je niet blind te staren op 1 site met (oude achterhaalde) benchmarks waar je kaart toevallig als beste uit de test komt, terwijl op 9 andere juist het tegenovergestelde uit de bus komt.

Zeggen dat de FX5900Ultra de 9800Pro op alle vlakken behalve shading overtreft is wel heel erg kort door de bocht. Shading is toevallig wel een heel belangrijk deel aan het worden van games. Tel daarnaast de goede beeldkwaliteit, superieure AA, ijzersterke TV-out + DVD playback ondersteuning, zeer goede driverondersteuning (door MS als voorbeeld genoemd afgelopen week als 'meest stabiele drivers') er bij op, en het is echt niet 'alleen' maar shading...

Noem eens een aantal 'hele belangrijke gebieden' waar ATi niet aan kan tippen, behalve dan misschien AF?

De geruchten van The Inq over PS3.0 zouden best waar kunnen zijn, maar aangezien PS3.0 ook al in de DX9 specs staat omschreven, ondersteunen alle DX9 kaarten van dit moment theoretisch gezien al PS3.0 (via software wat heel traag is). Mocht NV35 ook al hardwarematige ondersteuning bieden voor PS3.0 dan mag je er van uit gaan dat de performance wel heel erg beroerd zal zijn. Het kan PS2.0 nog niet eens goed aan. De GPU is gewoon niet krachtig genoeg en daar kan geen wonderdriver (zonder hacks/cheats) iets aan doen. Het verschil in bv Half Life 2 is gewoon te groot. Drivers die een boost geven van 10 tot 15 procent zie je vaak... maar drivers die een boost moeten geven van 70% of meer... het zou mooi zijn als dit waar was, maar wel heel erg onwaarschijnlijk.

Maar goed, laten we ze het voordeel van de twijfel geven... Straks hebben we een mooi rijtje DX9 titels om mee te benchmarken, namelijk Tombraider AoD, Halo, Far Cry, Half Life 2 en Vampire The Masque - Bloodlines. En de eerste resultaten van de Halo Beta geven al precies hetzelfde beeld als de Tombraider en Half Life 2 resultaten...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Ach, al die reviews en grafiekjes.
Wat voor mij telt is dat ik al zeker 3 mensen heb horen vertellen, dat ze na het testen van beide kaarten, gekozen hebben voor de Radeon. Edward2 bv en dat zegt mij meer dan al die grafieken waarvan je toch niet weet hoe objectief ze zijn.

Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Zoals belooft de overige banshmarks:

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_8_1.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_8_2.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_8_3.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_8_4.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_8_5.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_8_6.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_9_1.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_9_2.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_9_3.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_9_4.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_9_5.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_9_6.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_1.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_2.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_3.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_4.gif
[img]http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_5.gif[img]
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_11_2.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_11_3.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_11_4.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_12_1.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_13_1.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_13_2.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_13_3.gif
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_13_4.gif

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_1_3.gif
LOL :P, oke hier legt het waarschijnlijk aan een bug in de driver van ATI, maar ben dan ook zo eerlijk de benshmarks van HL2 in twijvel te trekken omdat de Detinator 50.xx nog niet in gebruik zijn!!!!

Afbeeldingslocatie: http://www.zdnet.co.uk/i/z/rv/2003/06/GF-5900u-b1.gif
Afbeeldingslocatie: http://www.zdnet.co.uk/i/z/rv/2003/05/GF-5900u-b2.gif
Afbeeldingslocatie: http://www.zdnet.co.uk/i/z/rv/2003/05/GF-5900u-b3.gif

Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/bla.bmp
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/bla2.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image002.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image003.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image008.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image010.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image011.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image012.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image016.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image018.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image019.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image020.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image021.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image022.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image031.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image032.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image033.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image037.gif
Afbeeldingslocatie: http://dynegy.demon.nl/files/pica/image050.gif
Afbeeldingslocatie: http://www.3dchip.de/TestCenter/GeForceFX-5900-Ultra/benchmarks/3dmark01se1024.gif
Afbeeldingslocatie: http://www.3dchip.de/TestCenter/GeForceFX-5900-Ultra/benchmarks/3dmark01se1600.gif

Tja en toen, OEPS! ;)

En dit allemaal zonder de 50.xx drivers he ;)

--> nieuws: nVidia GeForce FX 5900 foto's en benchmarks <--

Ik ben nog opzoek naar een paar andere hele belangrijke, maar nog niet gevonden, komen nog :)

[ Voor 182% gewijzigd door Fr0zenFlame op 12-09-2003 14:24 ]

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Kijk hier maar eens naar, en dan hebben we het nog niet eens over dx shaders:

http://www.gamepc.com/images/layout/graphline-Bgreen.gif

http://www.gamepc.com/images/layout/graphline-Bgreen.gif

http://www.gamepc.com/images/layout/graphdots.gif

http://www.gamepc.com/images/layout/graphline-Bgreen.gif

http://www.withingames.net/pics/FXTest/Enclave1280s.png

En lees dit eens over de optimalisaties:

http://www.3dcenter.de/ar...dia_treiberoptimierungen/

The truth is out here..........

edit, kut gamepc laat zich niet deeplinken..

[ Voor 10% gewijzigd door edward2 op 12-09-2003 12:16 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

Bij mijn nieuw pc (2.8ghz 800FSB 512mb ddr ram) wou ik een Radeon 9600 pro hebben, maar die waren niet meer verkrijgbaar en zouden meschien na 2 weken weer komen. Omdat ik zo lang niet op mijn pc kon wachten heb ik een Gainward fx5600 erbij gekregen inplaats van de 9600 pro, mijn vraag is of ik met deze videokaart wel normaal Half life 2 of andere nieuwe spellen kan spelen?

Acties:
  • 0 Henk 'm!

Verwijderd

de 9600 pro is i.i.g sneller in HL2 dan die fx5600 zoals het er nu naar uitziet.

Acties:
  • 0 Henk 'm!

  • joostve
  • Registratie: Januari 2002
  • Laatst online: 29-05 12:36
ben erg benieuwd wat voor invloed die det 50.xx drivers hebben

C2D 6600, 275 GTX Windows 7


Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 18-09 17:39

swampy

Coconut + Swallow = ?

Verwijderd schreef op 12 September 2003 @ 13:51:
Bij mijn nieuw pc (2.8ghz 800FSB 512mb ddr ram) wou ik een Radeon 9600 pro hebben, maar die waren niet meer verkrijgbaar en zouden meschien na 2 weken weer komen. Omdat ik zo lang niet op mijn pc kon wachten heb ik een Gainward fx5600 erbij gekregen inplaats van de 9600 pro, mijn vraag is of ik met deze videokaart wel normaal Half life 2 of andere nieuwe spellen kan spelen?
Normaal? Define Normaal!

Maaaar ja...DX9 opties volledig aan zal zwaar worden een PS 2.0 zal pijnlijk worden. Maar het zal vast nog wel goed te spelen zijn......

There is no place like ::1


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op 12 September 2003 @ 09:09:
AnandTech heeft zijn eigen indepth review van HL2 geplaatst. Hij gaat er duidelijk op in dat Valve geen enkel belang heeft bij optimalisering voor ATi kaarten, omdat het doel van Valve is 'geld verdienen met hun games' en het grootste gedeelte van de gamers nog een nVidia kaart heeft.
Dat doet hij helemaal niet, hij zegt dat in het argument dat Gabe Newell geeft wel wat zit, m.a.w. dat het waarschijnlijk klinkt. Hij gebruikt in zijn stuk bijzonder vaak ''according to'', wat ''volgens hem/haar'' betekent.

Aan al dat getouwtrek wie nu betere kaarten maak doe ik niet mee. Ik wil jullie alleen wel duidelijk maken dat bedrijven als Valve zich niet zomaar liëren aan een ander bedrijf, in dit geval ATI. Daar krijgen ze miljoenen dollars voor. Dat geldt uiteraard ook voor ID Software en NVidea....

Acties:
  • 0 Henk 'm!

  • Termy
  • Registratie: September 2001
  • Laatst online: 00:25

Termy

valt er nog wat te fragge?

BurnerXL schreef op 11 september 2003 @ 22:53:
[...]


Naja, ik heb me 3DMark2001SE score nu op me pagina staan onderaan in de tabel
http://members.home.nl/twanvink/System.html (Misschien al gezien)

Enee....wat is PAM?
ja die scores heb ik gezien, ik zit op 16120 (ben al hoger geweest maar geen zin om voor 100 puntjes de hele meuk te veranderen) en daarom verbaasde het me een beetje.

PAM is hier Performance Acceleration Mode, de "memory bypass" van de 875 chipset :)

-gf-annihilator, kheb een antec 430watt truepower voeding, lijkt mij wel categorie "fatsoenlijk" ;)

-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.


Acties:
  • 0 Henk 'm!

  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

PAT = Performance Acceleration Technologie ipv PAM. Dat is wat de i875 legaal heeft (en de i865 uitstaand)
Ik meende dat het de geheugenadresseringen zo zou herschikken dat het netto efficienter wordt gebruikt.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op 12 September 2003 @ 14:07:
[...]


Dat doet hij helemaal niet, hij zegt dat in het argument dat Gabe Newell geeft wel wat zit, m.a.w. dat het waarschijnlijk klinkt. Hij gebruikt in zijn stuk bijzonder vaak ''according to'', wat ''volgens hem/haar'' betekent.
Okay, dan heb ik dit stukje verkeerd geinterpreteerd "It also doesn't make much sense for Valve to develop an ATI-specific game simply because the majority of the market out there does have NVIDIA based graphics cards, and it is in their best interest to make the game run as well as possible on NVIDIA GPUs." en niet te vergeten: "Once again, we're not questioning Valve in this sense and honestly don't see much reason to as it wouldn't make any business sense for them to cripple Half-Life 2 on NVIDIA cards."

In mijn ogen wordt hier gezegd dat Valve geen enkel belang zou hebben in optimalisaties voor een bepaalde videokaartfabrikant, ook al zou ATi er miljoenen voor hebben geboden, want een 'majority of the market' heeft een nVidia kaart. En Anand trekt dit niet in twijfel. Of zie ik dit nou helemaal verkeerd?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Termy
  • Registratie: September 2001
  • Laatst online: 00:25

Termy

valt er nog wat te fragge?

Ecteinascidin schreef op 12 September 2003 @ 16:19:
PAT = Performance Acceleration Technologie ipv PAM. Dat is wat de i875 legaal heeft (en de i865 uitstaand)
Ik meende dat het de geheugenadresseringen zo zou herschikken dat het netto efficienter wordt gebruikt.
hm tja, het was idd dan PAT. tis iig iets van de 875 chips en het scheelt best wel :)
de 865 heeft het idd ook, maar uitstaand. asus p4p800's kunnen het ook aanzetten maar daar heet het dan ook anders (ivm gedoe met intel). MAM d8 ik. memory acceleration mode of zo

-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Det50 Nieuws:

http://www.athlonmb.com/a...hp?ArticleID=257&PageID=1

wanneer test nou iemand met HL2=screens:

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • BurnerXL
  • Registratie: Augustus 2002
  • Laatst online: 04-03-2024
nouja...volgens mij zit dat PAT en MAM niet op me MSI 865PE Neo2-LS....dus de Intel i865PE chipset. Dus kan niet meer punten behalen ;)

Acties:
  • 0 Henk 'm!

Verwijderd

BurnerXL schreef op 12 September 2003 @ 17:59:
nouja...volgens mij zit dat PAT en MAM niet op me MSI 865PE Neo2-LS....dus de Intel i865PE chipset. Dus kan niet meer punten behalen ;)
Tja, hangt ervan af welk moederbord je hebt, m'n asus p4p800 deluxe ondersteunt het wel... Maar dit is off-topic.

De meeste benchmarks van Falcon laten de performance zien in synthetische benchmarks en oudere games, hier zijn we niets mee. De mensen willen performance zien van recente games zoals Half Life 2, waarin Ati duidelijk veel voorsprong heeft. Maar velen geloven nog in de Det50.xx-driverreeks, dus laten we afwachten wat die gaan brengen, al vrees ik het ergste voor nVidia wat hun high-end FX-kaarten betreft. Maar goed, zo gaat het nu eenmaal, ze zijn aan elkaar gewaagd en op een dag is nVidia misschien weer de sterkste.

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 05:10
Als ik Anand goed begrepen heb, heeft Valve de timedemos alleen maar aan een paar sites beschikbaar gesteld, en dan met de strikte voorwaarde dat er aleen met de 45.23 werd getest(....).

  • Carel
  • Registratie: Juni 2000
  • Laatst online: 08-09 15:54
IK heb nu eindelijk een FX5200 128 bits membus versie in mn handen van asus.
Het verschil is factor 2 tussen de 64 en 128 bits versie, eerst haalde ik een magere 45003dm's(64bits).
Nu haalt deze kaart al 9000 in 3dm2001. Echter vallen de overklok marges me een beetje tegen hij haalt maximaal 280/480 ik zal zo nog wel eens kijken hoe het zit met een vmod etc, want 10000 moet iig wel kunnen met zo'n kaartje vind ik :)

  • warp
  • Registratie: Januari 2000
  • Niet online
Dracul schreef op 12 september 2003 @ 11:02:
Snap eigenlijk niet dat mensen zo stug blijven bij een bepaald merk. Dat je trots bent op je eigen resultaten, die van je familie of je vrienden okay, maar dat je trots bent op een videokaart van een bepaalde fabrikant is gewoon zielig. Of het nu Nvidia is of Ati.
+5 inzichtvol.

  • warp
  • Registratie: Januari 2000
  • Niet online
Meer Valve info over de Detonator 50.x drivers:
Prior to the release of Halflife 2, Valve will release a benchmark demo of the game that allows future Halflife2-players a HL2-performance test of their System. During the development of that benchmark demo Valve found a lot of issues in current graphic card drivers of unnamed manufacturers:

* Camera path-specific occlusion culling
* Visual quality tradeoffs (e.g. lowered filtering quality, disabling fog)
* Screen-grab specific image rendering
* Lower rendering precision
* Algorithmic detection and replacement
* Scene-specific handling of z writes
* Benchmark-specific drivers that never ship
* App-specific and version specific optimizations that are very fragile

Valve is very concerned about those developments since customers make their buying decisions for new hard- and software based on benchmark numbers. The problem is that the results with those optimizations have very little to do with the real game performance of those cards. Gabe Newell: "Our Customers will be pissed"...
Lees de rest van het verhaal hier:
http://www20.tomshardware.com/business/20030911/index.html

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Verwijderd schreef op 04 August 2003 @ 00:49:
[...]


ok, kijk dan maar naar de UT benches ofzo...
Zelfde verhaal, nVidia kaarten doen niet echte tri-lineare filtering in UT-2003, daardoor scoren ze hoger in de benches.

Verwijderd

Ik heb eigenlijk een vraagje, ik wil namelijk een creative geforce fx 5200 128mb kopen.
Deze kaart heeft veel betere specs dan bijvoorbeeld de xfx, maar is hij ook een beetje stabiel en word hij ook goed ondersteunt?
Hij is 89 eurie bij mycom, tegenover 80 eurie voor die van xfx.
bvd

  • Termy
  • Registratie: September 2001
  • Laatst online: 00:25

Termy

valt er nog wat te fragge?

Verwijderd schreef op 13 September 2003 @ 13:32:
Ik heb eigenlijk een vraagje, ik wil namelijk een creative geforce fx 5200 128mb kopen.
Deze kaart heeft veel betere specs dan bijvoorbeeld de xfx, maar is hij ook een beetje stabiel en word hij ook goed ondersteunt?
Hij is 89 eurie bij mycom, tegenover 80 eurie voor die van xfx.
bvd
offtopic:
eurie :( :r


maja, de FX 5200 zuigt ernstig hard, een GF4 MX440 presteert zelfs beter. kijk maar eens wat rond in dit subforum, daar komt dat een paar keer langs. lees anders wat reviews.. is echt weggegooid geld

-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 05-10 19:25

Mojo

The Power Within

Termy schreef op 13 september 2003 @ 13:38:
[...]


offtopic:
eurie :( :r


maja, de FX 5200 zuigt ernstig hard, een GF4 MX440 presteert zelfs beter. kijk maar eens wat rond in dit subforum, daar komt dat een paar keer langs. lees anders wat reviews.. is echt weggegooid geld
Het is onzin dat de FX 5200 erg hard zuigt. Ik heb er zelf 1 en die presteerd echt wel beter dan een MX 460 128 MB. Okee in directx 9 heb je er niets aan, maar in directx 8.1 is deze redelijk en loopt niet veel achter op een TI 4200. Bovendien kan de FX Hardware 8.1 (okee ook 9.0 maar das nix) en een MX kan dat niet. De FX 5200 heeft een goede prijs/kwaliteit verhouding, en presteerd redelijk.
De prijs t.o.v. de Creative Vs. XFX zal vooral an meegeleverde software liggen enzo.

[ Voor 6% gewijzigd door Mojo op 13-09-2003 13:49 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Carel
  • Registratie: Juni 2000
  • Laatst online: 08-09 15:54
sokje schreef op 13 september 2003 @ 13:48:
[...]

Het is onzin dat de FX 5200 erg hard zuigt. Ik heb er zelf 1 en die presteerd echt wel beter dan een MX 460 128 MB. Okee in directx 9 heb je er niets aan, maar in directx 8.1 is deze redelijk en loopt niet veel achter op een TI 4200. Bovendien kan de FX Hardware 8.1 (okee ook 9.0 maar das nix) en een MX kan dat niet. De FX 5200 heeft een goede prijs/kwaliteit verhouding, en presteerd redelijk.
De prijs t.o.v. de Creative Vs. XFX zal vooral an meegeleverde software liggen enzo.
Jah, beetje vage discussie tussen jou en termy, men moet er nu echt duidelijk bij zetten of je het over de 64 bitch versie van de fx5200 hebt of de 128 bits versie, aangezien dit bijna meer als factor 2 uitmaakt qua speed.

Dit kan je trouwens zien aan het feit of er geheugen modules aan de rechterkant en aan de bovenkant zitten van zo'n kaart. Zit het geheugen alleen aan de rechterkant, dan heb je het over de 64 bits versie.

[ Voor 17% gewijzigd door Carel op 13-09-2003 16:58 ]


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 05-10 19:25

Mojo

The Power Within

ik heb zelf de 128 bit versie en ben er erg tevreden over, maar de vraag was eigenlijk wat het verschil is tussen de creative en de XFX, ik denk dat het dus aan meegeleverde software ligt, maar kijk bij voorbaat even welke kaart je wil want de 64 bit is idd wel erg bagger zoals thermy zei, ik had het over de 128 bit versie van mij. Let hier dus ook op bij de kaarten de 64 bit versie wil je echt niet.

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Carel
  • Registratie: Juni 2000
  • Laatst online: 08-09 15:54
sokje schreef op 13 September 2003 @ 17:27:
ik heb zelf de 128 bit versie en ben er erg tevreden over, maar de vraag was eigenlijk wat het verschil is tussen de creative en de XFX, ik denk dat het dus aan meegeleverde software ligt, maar kijk bij voorbaat even welke kaart je wil want de 64 bit is idd wel erg bagger zoals thermy zei, ik had het over de 128 bit versie van mij. Let hier dus ook op bij de kaarten de 64 bit versie wil je echt niet.
Mag ik trouwens aan jou vragen wat voor scores jij met je fx haalt(3dm2001 etc) en of je hem eventueel overgeklokt hebt ?

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 05-10 19:25

Mojo

The Power Within

Ik heb er zelf een Blue ORB op zitten en haal met de core minstens de 310 zonder artifacts en geheugen kom ik op 512 MHz (met heatsinkjes, ik weet niet of het nodig is) maar heb nog niet verder geprobeerd de 3DMark score is als volgt: http://service.futuremark.com/compare?2k1=6517181 op een Athlon XP 2000+ (zie sig) maar die was niet zo ver overgeclocked en op de 550: http://service.futuremark.com/compare?2k1=6517181

edit:
sorry ik weet het een beetje vaag maar mijn eigen athlon XP 2000+ is in reparatie en laatst is ook mijn 550 MHz kapot gegaan (Mobo :( ) dus zit ik nu op een pentium 2 266 bordje met max fsb 66 MHz dus de pentium 3 kan er niet in. (verder heb ik mijn voodoo 3 kaart er in gedaan i.p.v. de geforce FX

[ Voor 29% gewijzigd door Mojo op 13-09-2003 18:03 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

hjs schreef op 12 september 2003 @ 12:03:
Ach, al die reviews en grafiekjes.
Wat voor mij telt is dat ik al zeker 3 mensen heb horen vertellen, dat ze na het testen van beide kaarten, gekozen hebben voor de Radeon. Edward2 bv en dat zegt mij meer dan al die grafieken waarvan je toch niet weet hoe objectief ze zijn.
Zelf heb ik het omgekeerde gedaan - ik heb 3 dagen een 9800 Pro in huis gehad, me bijzonder gestoord aan het geflikker van de menus in Flight Simulator en het onvermogen van deze kaart om één groot 3D beeld te laten zien verspreid over beide VGA-uitgangen op 2 beeldschermen, en inmiddels terruggebracht naar de winkel en een FX5900 Ultra gehaald. Sindsdien heb ik geen klachten meer :*)

Oh ja, als zoals gewoonlijk iemand zin heeft om te roepen dat ik wel iets fout gedaan zou hebben, prima, maar wel gaarne commentaar voorzien van een precieze handleiding hoe de ATI te gebruiken in Flight Sim 2004 met één panorama view gespreid over twee schermen (2304x864 of hogere resolutie). Op één computer, dus geen wideview oplossingen.

[ Voor 10% gewijzigd door Biff op 13-09-2003 18:08 ]

Yeah well. The Dude abides.


  • Albinoraptor
  • Registratie: Juli 2000
  • Laatst online: 09:25
Nou als ik dat zo zie vind ik die FX5200 wel slecht presteren, mijn GF3 van 2 1/2 oud haalt stuk hogere score dan dat ding, ook is natuurlijk een budget kaart en was dat ding een flink investering toen, maar toch :)

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 05-10 19:25

Mojo

The Power Within

kijk eens naar de CPU en drivers en ook de clockrate was toen nog niet volledig opgevoerd, ik kom met de Blue Orb veel hoger.

[ Voor 82% gewijzigd door Mojo op 13-09-2003 19:40 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Carel
  • Registratie: Juni 2000
  • Laatst online: 08-09 15:54
Albinoraptor schreef op 13 September 2003 @ 18:10:
Nou als ik dat zo zie vind ik die FX5200 wel slecht presteren, mijn GF3 van 2 1/2 oud haalt stuk hogere score dan dat ding, ook is natuurlijk een budget kaart en was dat ding een flink investering toen, maar toch :)
Das niet waar, een fx 5200@280/485 vs een gf3@240/512 halen dezelfde score in 3dm2001 met een 3,3 ghz p4. IK zie dat de FX met wat simplere dingen het iets beter doet zoals de maxfpx van die autorace etc, de gf3 is weer net iets beter in nature.

Voor de rest van alle games is het ongeveer hetzelfde ook.

[ Voor 6% gewijzigd door Carel op 13-09-2003 19:03 ]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Voor Flightsims is de Fx beter, vooral als je AF gebruikt, daar nv AF onder alle hoeken doet en ATI niet.

Verder nog een iq vergelijking met daarin det51.75, 4xxx-serie en de R9800.

De 51.75 laat lights weg en heeft een blur:

http://www.driverheaven.net/articles/aquamark3/index3.htm

Duidelijk, de det50xx cheaten er weer vrolijk op los.

edit, ook 45.33 laat lights weg:

Afbeeldingslocatie: http://www.3dgpu.com/files/radeonvs4533.gif

[ Voor 50% gewijzigd door edward2 op 13-09-2003 21:29 ]

Niet op voorraad.


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 05-10 19:25

Mojo

The Power Within

Ik vindt dat vooral een FX in DirectX 8.1 het minste performance verlies heeft t.o.v. een TI 4200, in DirectX 7 wint de ti DirectX 8.1 ook maar met een kleinere marge. Ik heb mijn FX ook niet gekocht voor DirectX 9 maar voor de best redelijke DirectX 8.1 Performance. Ik speel zelf nooit met AF en AA aan en op Mijn 2000+ heb ik nog geen spel gezien waar de gemiddelde framrate met alles at High onder de 25-30 kwam (1024x768 knake monitor) het zwaarste spel tot nu toe was NFS HP2 en non-OC'ed was de framerate 25-40 dus voldoende. OC'ed moet het zelfs beter kunnen hoewel ik dus niet kan testen omdat mijn 2000+ weg is :(

Iemand zei trouwens dat met Detonator 45.23 het voltage was opgehoogd, misschien is het toeval maar ik had de Blue Orb en de nieuwe drivers tegelijk erop gezet en ik kom verder OC'en. Misschien is het toch waar wat hij zei.

[ Voor 17% gewijzigd door Mojo op 13-09-2003 19:41 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 05-10 20:07
45.33 bedoel je

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
edward2 schreef op 13 september 2003 @ 19:27:
Voor Flightsims is de Fx beter, vooral als je AF gebruikt, daar nv AF onder alle hoeken doet en ATI niet.

Verder nog een iq vergelijking met daarin det51.75, 4xxx-serie en de R9800.

De 51.75 laat lights weg en heeft een blur:

http://www.driverheaven.net/articles/aquamark3/index3.htm

Duidelijk, de det50xx cheaten er weer vrolijk op los.

edit, ook 45.33 laat lights weg:

[afbeelding]
Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.

Trouwens kom ik net van een ati en merkte ik ook al een aantal zaken die de ati niet goed renderde in games , daarom ga ik ati toch ook niet direct beschuldigen van cheats.

Bij die oude drivers waar nvidia cheats zou hebben ingestoken voor 3Dmark2003, zag je toch ook geen verschil in output ? Waarom zou nvidia dan nu verkondigd hebben dat ze geen dingen meer zullen inbouwen die het resultaat gaan beinvloeden, dus dat je het kan zien ? Als je die lights wegneemt bij aquanox , dat ziet toch iedereen? Dus wat denk je ? Is het een cheat, is nvidia zo stom ? Of loopt iedereen mee met de anti nvidia menigte zonder nadenken ?

Ik denk al het antwoord te weten, maar ik zal me hierover dan wel uitspreken als die officiële 50.XX driver uit is...

Mijn Specs


  • Carel
  • Registratie: Juni 2000
  • Laatst online: 08-09 15:54
sokje schreef op 13 September 2003 @ 19:36:


Iemand zei trouwens dat met Detonator 45.23 het voltage was opgehoogd, misschien is het toeval maar ik had de Blue Orb en de nieuwe drivers tegelijk erop gezet en ik kom verder OC'en. Misschien is het toch waar wat hij zei.
Gewoon een crap verhaal is dat, drivers kunen op een gf kaart qua voltages onmogelijk iets veranderen hooguit de meting marges.
Behalve dus het interface wat dit weergeeft en dit vertekend/verbeterd beeld laten geven etc.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

-GF-Annihilator schreef op 13 september 2003 @ 22:55:
[...]


Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.

Trouwens kom ik net van een ati en merkte ik ook al een aantal zaken die de ati niet goed renderde in games , daarom ga ik ati toch ook niet direct beschuldigen van cheats.

Bij die oude drivers waar nvidia cheats zou hebben ingestoken voor 3Dmark2003, zag je toch ook geen verschil in output ? Waarom zou nvidia dan nu verkondigd hebben dat ze geen dingen meer zullen inbouwen die het resultaat gaan beinvloeden, dus dat je het kan zien ? Als je die lights wegneemt bij aquanox , dat ziet toch iedereen? Dus wat denk je ? Is het een cheat, is nvidia zo stom ? Of loopt iedereen mee met de anti nvidia menigte zonder nadenken ?

Ik denk al het antwoord te weten, maar ik zal me hierover dan wel uitspreken als die officiële 50.XX driver uit is...
Er lopen hier een paar draadjes over op andere flora en het schijnt dat nv terugschakelt op ps1.4, dan krijg je een lager contrast in de ligting.
En dat is geen alledaagse menigte die dat constateert, tech report en b3d.

Nou heeft AM3 opzich een klein % aan shaders daarom is de winst minimaal.
In HL2, Halo en Tomraider is bijna elk opp geshadered en loopt het verschil op.

Ik heb verdeelde gedachten hierover, ik vind bv nv weer een veeel beter AF hebben, tegenover de precisie van ATI, hier een voorbeeld van de superieire AF van NF, dat kost ook performance, bven ik van overtuigt, let op glooiende opp en het dak van die rockethumvee iod rechtsboven:
.
http://www.skenegroup.net/onsekumma/

Ook ATI heeft problem dat klopt, de openGL van cat3.7 heeft slechts 16 bits, een erg amateuristische fout.

Mijn ideale kaart heeft de AF van NV en de dx9 van ATI.

Ik ding wil ik nog duidelijk maken ik ben absoluut geen FanATIc, meer iemand die gewoon het beste zoekt.

[ Voor 14% gewijzigd door edward2 op 13-09-2003 23:30 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 05-10 19:25

Mojo

The Power Within

Carel schreef op 13 september 2003 @ 22:58:
[...]


Gewoon een crap verhaal is dat, drivers kunen op een gf kaart qua voltages onmogelijk iets veranderen hooguit de meting marges.
Behalve dus het interface wat dit weergeeft en dit vertekend/verbeterd beeld laten geven etc.
ow okeej dan weet ik dat, het is misschien maar een theorie, maar dat bewijst wel dat een Blue Orb goed is :P ik kom met mijn core van 275 eerst op 312 nu.

[ Voor 3% gewijzigd door Mojo op 14-09-2003 10:56 ]

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

  • Bartjuh
  • Registratie: Oktober 2001
  • Niet online

Bartjuh

Hej

edward2 schreef op 13 September 2003 @ 19:27:
Voor Flightsims is de Fx beter, vooral als je AF gebruikt, daar nv AF onder alle hoeken doet en ATI niet.

Verder nog een iq vergelijking met daarin det51.75, 4xxx-serie en de R9800.

De 51.75 laat lights weg en heeft een blur:

http://www.driverheaven.net/articles/aquamark3/index3.htm

Duidelijk, de det50xx cheaten er weer vrolijk op los.

edit, ook 45.33 laat lights weg:

[afbeelding]
Ik vind dat plaatje van de FX 5600 er veel mooier/realistischer uitzien.

Het licht is te overdreven bij de radeon, in de verte zijn de objecten veel scherper bij de fx, kijk eens naar die bubbels of die auto's ..

Acties:
  • 0 Henk 'm!

  • Termy
  • Registratie: September 2001
  • Laatst online: 00:25

Termy

valt er nog wat te fragge?

idd, die radeon vind ik er daar absoluut niet beter uitzien, eerder overbelicht :/

over de fx 5200, zover ik begrepen had zogen ze allemaal maar blijkbaar is de 128bit niet zo heel erg dan... blijft niks imho.. voor een paar euro heb je al een betere kaart, misschien dan geen dx9 maar wat heb je daaraan als de fx het toch niet trekt...

je moet het verder natuurlijk zelf weten, jouw geld jouw keuze ;)

wat is nu eigenlijk precies het gedoe met die ps 2.0 op de FX? is die "nep" of zo omdat hij schijnbaar terug gaat naar ps1.4 of is dat een driver bug? erg duidelijk is het niet.

heb net ook nog die mouseover test bekeken van skenegroup en het spijt me zeer, maar ik vind die radeon er niet uit zien.. overbelicht en details vallen weg die ik met de fx5600 wel zie.. en ja, ik heb goed gekeken wanneer ik welke kaart zag..

[ Voor 19% gewijzigd door Termy op 14-09-2003 11:15 ]

-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.


Acties:
  • 0 Henk 'm!

  • joostve
  • Registratie: Januari 2002
  • Laatst online: 29-05 12:36
het nadeel van ati is dat veel spellen gewoon en aparte ati patch nodig hebben om het normaal zonder texture fouten te kunnen draaien
zoals in Morrowind laat de ati 9800 pro schaduwen door huizen heen zien :? en er zijn nog zat andere spellen die problemen hebben
dat beloofd nog wat voor toekomstige spellen

C2D 6600, 275 GTX Windows 7


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
-GF-Annihilator schreef op 13 september 2003 @ 22:55:
[...]


Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.
Hier ben ik het dus absoluut niet mee eens.

Het zijn inderdaad beta-drivers, maar het zijn wel beta-drivers die nVidia naar hardware/reviewsites heeft gestuurd om te gebruiken bij benchmarks, waaronder dus Half Life 2. En als door bv het ontbreken van fog, of door het laten zien van 1 seconde zwart scherm (wat echter wel mee telt in de eindscore), de score hoger wordt dan 'normaal', dan vind ik dat niet kunnen.

Een bedrijf hoort geen 'beta'-drivers met 'uitprobeersels' en 'fouten' rond te sturen en aan te dringen dat men dit gebruikt voor benchmarks. Dat is gewoon heel onprofessioneel. Zorg dan dat je eerst al die bugs/errors/glitches er uit hebt gehaald. Daar voorkom je veel gezeik mee achteraf.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
-GF-Annihilator schreef op 13 september 2003 @ 22:55:
Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.

Trouwens kom ik net van een ati en merkte ik ook al een aantal zaken die de ati niet goed renderde in games , daarom ga ik ati toch ook niet direct beschuldigen van cheats.

Bij die oude drivers waar nvidia cheats zou hebben ingestoken voor 3Dmark2003, zag je toch ook geen verschil in output ? Waarom zou nvidia dan nu verkondigd hebben dat ze geen dingen meer zullen inbouwen die het resultaat gaan beinvloeden, dus dat je het kan zien ? Als je die lights wegneemt bij aquanox , dat ziet toch iedereen?
Iets niet goed renderen (meestal game- en/of driverbugs) en zaken kompleet weglaten, komplete shaders vervangen en alles naar lager detail forceren om maar sneller te zijn zijn wel even 2 verschillende dingen. De Det 50.x doen dit allemaal:

* Camera path-specific occlusion culling
* Visual quality tradeoffs (e.g. lowered filtering quality, disabling fog)
* Screen-grab specific image rendering
* Lower rendering precision
* Algorithmic detection and replacement
* Scene-specific handling of z writes
* Benchmark-specific drivers that never ship
* App-specific and version specific optimizations that are very fragile

Beta's of niet, dit zijn geen legitieme optimalisaties... dit is gewoon de boel belazeren! Als je dergelijke feiten zonder pardon van tafel veegt dan ben je niets anders dan een fanboy.
Dus wat denk je ? Is het een cheat, is nvidia zo stom ? Of loopt iedereen mee met de anti nvidia menigte zonder nadenken ?
Als je nu nog blijft geloven dat nVidia niet cheat.. nou sorry, maar dan heb je gewoon een grote plaat voor je hoofd. Niemand is hierbij gebaat, als consument wordt gewoon genaaid door nVidia op dit moment.

Ik zou me in ieder geval flink genaaid voelen als ik een FX5900 Ultra van 450 Euro had gekocht. Hij kan niet eens fatsoenlijk meekomen met een 9600 Pro van 150 Euro in native DirectX 9.0 / PS 2.0 games / applicaties.

De game industrie is hier ook niet echt blij mee. Het kost ze veel meer tijd om games aan te passen met speciale Cg renderpaths om ze ook enigzins goed te kunnen laten draaien op de nv3x architectuur. Hierdoor wordt de ontwikkeling veel duurder, de ontwikkeltijd wordt veel langer en games worden hierdoor ook veel later dan geplanned gereleased. Daarbij zit de game industrie er echt niet op te wachten om weer een nieuwe taal (Cg) te leren; ze coden liever op één standaard API zodat het gewoon op alle hardware werkt. De tijd van Glide hebben we wel gehad ;)

Feit is dat het PS 2.0 gedeelte van de nv3x gewoon brak is en dat nVidia er momenteel van alles aan doet om dit te verbergen d.m.v. cheats en speciale Cg extensies/code-paths i.p.v. de gewoon de standaard OpenGL en DirectX API's te gebruiken. Geen driver die dit, nu wel gebleken geflopte nv3x hardware design, gaat oplossen...

Ik hoop i.i.g. dat nVidia het met de nv40 een stuk beter aanpakt en dat dit soort cheat praktijken niet meer nodig zijn. Daar zijn we uiteindelijk allemaal beter bij gebaat.

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
joostve schreef op 14 September 2003 @ 11:16:
het nadeel van ati is dat veel spellen gewoon en aparte ati patch nodig hebben om het normaal zonder texture fouten te kunnen draaien
Zoals?
zoals in Morrowind laat de ati 9800 pro schaduwen door huizen heen zien :? en er zijn nog zat andere spellen die problemen hebben
dat beloofd nog wat voor toekomstige spellen
Morrowind loopt bij mij prima en zonder renderrfouten (voor zover mogelijk is met Morrowind ;) ) op mijn ATi en nVidia kaarten. Ik dacht dat het toch wel algemeen bekend was dat de Morrowind engine zelf nogal buggy is (daar kunnen de drivers heel weinig aan doen).

Acties:
  • 0 Henk 'm!

Verwijderd

Een bedrijf hoort geen 'beta'-drivers met 'uitprobeersels' en 'fouten' rond te sturen en aan te dringen dat men dit gebruikt voor benchmarks. Dat is gewoon heel onprofessioneel. Zorg dan dat je eerst al die bugs/errors/glitches er uit hebt gehaald. Daar voorkom je veel gezeik mee achteraf.
Dus... niet meer testen op een microsoft platform dan........

Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
warp schreef op 14 September 2003 @ 11:31:
[...]


Iets niet goed renderen (meestal game- en/of driverbugs) en zaken kompleet weglaten, komplete shaders vervangen en alles naar lager detail forceren om maar sneller te zijn zijn wel even 2 verschillende dingen. De Det 50.x doen dit allemaal:

* Camera path-specific occlusion culling
* Visual quality tradeoffs (e.g. lowered filtering quality, disabling fog)
* Screen-grab specific image rendering
* Lower rendering precision
* Algorithmic detection and replacement
* Scene-specific handling of z writes
* Benchmark-specific drivers that never ship
* App-specific and version specific optimizations that are very fragile

Beta's of niet, dit zijn geen legitieme optimalisaties... dit is gewoon de boel belazeren! Als je dergelijke feiten zonder pardon van tafel veegt dan ben je niets anders dan een fanboy.


[...]


Als je nu nog blijft geloven dat nVidia niet cheat.. nou sorry, maar dan heb je gewoon een grote plaat voor je hoofd. Niemand is hierbij gebaat, als consument wordt gewoon genaaid door nVidia op dit moment.

Ik zou me in ieder geval flink genaaid voelen als ik een FX5900 Ultra van 450 Euro had gekocht. Hij kan niet eens fatsoenlijk meekomen met een 9600 Pro van 150 Euro in native DirectX 9.0 / PS 2.0 games / applicaties.

De game industrie is hier ook niet echt blij mee. Het kost ze veel meer tijd om games aan te passen met speciale Cg renderpaths om ze ook enigzins goed te kunnen laten draaien op de nv3x architectuur. Hierdoor wordt de ontwikkeling veel duurder, de ontwikkeltijd wordt veel langer en games worden hierdoor ook veel later dan geplanned gereleased. Daarbij zit de game industrie er echt niet op te wachten om weer een nieuwe taal (Cg) te leren; ze coden liever op één standaard API zodat het gewoon op alle hardware werkt. De tijd van Glide hebben we wel gehad ;)

Feit is dat het PS 2.0 gedeelte van de nv3x gewoon brak is en dat nVidia er momenteel van alles aan doet om dit te verbergen d.m.v. cheats en speciale Cg extensies/code-paths i.p.v. de gewoon de standaard OpenGL en DirectX API's te gebruiken. Geen driver die dit, nu wel gebleken geflopte nv3x hardware design, gaat oplossen...

Ik hoop i.i.g. dat nVidia het met de nv40 een stuk beter aanpakt en dat dit soort cheat praktijken niet meer nodig zijn. Daar zijn we uiteindelijk allemaal beter bij gebaat.
Wel binnen 3 dagen komt aquamark uit. Op dat ogenblik zal ik hier zelf even aan het testen gaan met verschillende drivers en screenshots nemen van aquamark en 3Dmark2003 en Gunmetal. Allemaal zaken die direct9 features hebben. We zullen hier eens ZIEN of mij iemand al deze aantijgingen tegen nvidia zal kunnen bevestigen dan. Nu is het nutteloos hierover te discussiëren blijkbaar. Tevens mag nvidia doen wat ze willen van mij , zolang het maar geen verschil in output geeft. En zaken zoals fog niet renderen in HL2 zijn absoluut voorbarig , ten eersten is HL2 nog niet uit. En ten tweede fog niet renderen in HL kan geen cheat zijn, die fog wordt gebruikt om de te renderen scene af te werken in de verte, omdat je anders de level-opbouw ziet. Zoiets valt dan pas echt op, ik zie ze zoiets niet met opzet doen.

En dan nog iets, die NV30/NV35 heeft een hogere interne precisie dan die ati9800, het probleem is dat niemand er nu gebruik van maakt en dus nvidia moet terugschakelen naar een nog lagere precisie dan de 9800, omdat ze maar 2 modi hebben voorzien. ALS dit zou benut worden, veegt die fx de 9800 zo van tafel.

De reden waarom niemand mee in die boot is gesprongen van 64bits rendering zal voor iedereen een raadsel blijven maar volgens mij weet Microsoft hier alles van. Nu hoor je geen haan meer opscheppen over 64bits rendering, en zeker niet ati. In den beginne hadden ze een Ferrari-demo die het verschil liet zien tussen 32 en 64bits kleuren. Nvidia is in 64bit ongetwijfeld sneller maar geen kat wil het nu gebruiken. Dus op dit moment heeft nvidia de verkeerde keuzes van ontwerp blijkt , maar niet geheel door eigen schuld lijkt mij. Mochten de kaarten gelegd zijn met 64 bit benchmarks, dan hadden we andere plaatjes gezien denk ik.

Mijn Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
-GF-Annihilator schreef op 14 September 2003 @ 13:21:
[...]
En dan nog iets, die NV30/NV35 heeft een hogere interne precisie dan die ati9800, het probleem is dat niemand er nu gebruik van maakt en dus nvidia moet terugschakelen naar een nog lagere precisie dan de 9800, omdat ze maar 2 modi hebben voorzien. ALS dit zou benut worden, veegt die fx de 9800 zo van tafel.
Dat maakt dus helemaal niet uit. De NV30/NV35 core is gewoon niet sterk genoeg om alles op 32-bit FP uit te voeren. Kijk naar een Tombraider AoD, die een speciaal Cg-path heeft, maar die dus absoluut weinig effect heeft op de resultaten in de tests. Of bv het feit dat Dawn sneller, beter en mooier draait op een Radeon dan op NV30, terwijl nVidia constant verkondigde dat Dawn een "NV30"-only demo was...

Zelfs gamedevelopers als Gabe Newell en John Carmack hebben aangegeven dat ze op een lagere precisie werken op NV kaarten, omdat NV30 en NV35 gewoon te traag zijn op 32 FP. Als 32FP goed zou werken EN sneller zou zijn dan 24FP of 16FP dan had iemand als John Carmack dat echt wel benut, want die willen nou eenmaal het beste voor hun games.

nV wilde gaan voor een hogere precisie, wat op zich een heel nobel streven is, omdat de beeldkwaliteit theoretisch gezien beter zou moeten zijn. Maar als de hardware niet krachtig genoeg is om op die hogere precisie te werken, dan heb je niet zo veel aan die hogere precisie.

[ Voor 6% gewijzigd door CJ op 14-09-2003 13:43 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Onjuist: de game-developers volgen nVidia niet
Juist: nVidia heeft zich niet aan de DirectX9-vereisten gehouden.

Zit jij mee in de marketingmachine van nVidia of zo?

Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
CJ schreef op 14 September 2003 @ 13:42:
[...]


Dat maakt dus helemaal niet uit. De NV30/NV35 core is gewoon niet sterk genoeg om alles op 32-bit FP uit te voeren. Kijk naar een Tombraider AoD, die een speciaal Cg-path heeft, maar die dus absoluut weinig effect heeft op de resultaten in de tests. Of bv het feit dat Dawn sneller, beter en mooier draait op een Radeon dan op NV30, terwijl nVidia constant verkondigde dat Dawn een "NV30"-only demo was...

Zelfs gamedevelopers als Gabe Newell en John Carmack hebben aangegeven dat ze op een lagere precisie werken op NV kaarten, omdat NV30 en NV35 gewoon te traag zijn op 32 FP. Als 32FP goed zou werken EN sneller zou zijn dan 24FP of 16FP dan had iemand als John Carmack dat echt wel benut, want die willen nou eenmaal het beste voor hun games.

nV wilde gaan voor een hogere precisie, wat op zich een heel nobel streven is, omdat de beeldkwaliteit theoretisch gezien beter zou moeten zijn. Maar als de hardware niet krachtig genoeg is om op die hogere precisie te werken, dan heb je niet zo veel aan die hogere precisie.
Jouw verhaal klinkt mooi maar klopt niet, eerst goed lezen dan pas mij verwijten een nvidia fanboy te zijn. ( ik zeg dit laatste niet tegen jou )
Originally posted by John Carmack at slashdot
DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit.
Maar feit is dus dat de radeon geen 32 bit rendert maar 24, dus enig referentiepunt tussen die 2 kaarten is 16, want de nv30,nv35 heeft enkel 16 en 32, geen 24.

En nu gaat men nvidia verwijten slechts 16 bits te renderen omdat ze in 32 niet snel genoeg zouden zijn 8)7 :X |:(

Laat ik het juist formuleren dan , de ati kan geen 32 bit de nv35 wel, maar omdat het tegenwoordig in is nvidia zwart te maken, geen ze dus maar testen op 16 bit met de nvida kaarten en ze nog verwijten slechts 16's aan te kunnen.


Yeah Right ! :r

Mijn Specs


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

-GF-Annihilator schreef op 14 September 2003 @ 14:40:
[...]


Jouw verhaal klinkt mooi maar klopt niet, eerst goed lezen dan pas mij verwijten een nvidia fanboy te zijn. ( ik zeg dit laatste niet tegen jou )


[...]


Maar feit is dus dat de radeon geen 32 bit rendert maar 24, dus enig referentiepunt tussen die 2 kaarten is 16, want de nv30,nv35 heeft enkel 16 en 32, geen 24.

En nu gaat men nvidia verwijten slechts 16 bits te renderen omdat ze in 32 niet snel genoeg zouden zijn 8)7 :X |:(

Laat ik het juist formuleren dan , de ati kan geen 32 bit de nv35 wel, maar omdat het tegenwoordig in is nvidia zwart te maken, geen ze dus maar testen op 16 bit met de nvida kaarten en ze nog verwijten slechts 16's aan te kunnen.


Yeah Right ! :r
Ja dat komt omdat 24 bits de minimum van dx9 is, bovendien schijnt in de huidige shadertechniek erg nog geen verschil te zijn IQ tussen 24 en 32, maar wel tussen 16 en 24.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Voila , dus inderdaad kan men stellen dat nvidia de verkeerde ontwerkeuze heeft gemaakt. Maar men moet niet beweren dat die fx 16bit neemt omdat hij niet snel genoeg zou zijn voor 32, juist integendeel dus. Maar uiteraard ati op 24 en nvidia op 32 geeft geen vergelijking.

[ Voor 21% gewijzigd door MPAnnihilator op 14-09-2003 15:13 ]

Mijn Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
-GF-Annihilator schreef op 14 september 2003 @ 14:40:
[...]
En nu gaat men nvidia verwijten slechts 16 bits te renderen omdat ze in 32 niet snel genoeg zouden zijn 8)7 :X |:(
Antwoord van John Carmack op 5 September 2003 op www.gamersdepot.com op de vraag wat zijn ervaringen zijn met shaders op NV hardware en of ze inderdaad traag zijn:

"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack


Ik kan hier niets anders van maken dan dat NV-hardware te traag is om alles op 32-bit te doen, en dus ze een speciaal path maken die gebruik maakt van 16 FP of 12 FX. Of zie ik dit nou verkeerd?
Laat ik het juist formuleren dan , de ati kan geen 32 bit de nv35 wel, maar omdat het tegenwoordig in is nvidia zwart te maken, geen ze dus maar testen op 16 bit met de nvida kaarten en ze nog verwijten slechts 16's aan te kunnen.


Yeah Right ! :r
Niemand verwijt nV dat ze 'slechts' 16 bit aan kunnen. Het enige verwijt dat wordt gemaakt is dat 32 FP een nobel streven is, maar dat ze niet in staat zijn om de hardware zo te maken dat-ie ook daadwerkelijk op volle snelheid 32 FP aan kan.

Dat ATi geen 32-bit zou ondersteunen is een misvatting. Alleen een gedeelte werkt op 24-bit. ATi ondersteunt een mengeling van 32 bit en 24 bit floatingpoint precisie in the pixelpipeline. Verder kan ATi ook nog terug vallen op 16-bit FX (tegen 12 FX voor de FX). Vertex shaders zijn bijvoorbeeld altijd 32-bit FP. Interne texture address zaken gebruiken ook 32-bit Single Precision FP. Maar de core pixelshader operations gebruiken 24-bit FP.

Vb. Als er een 128bit FP (4x32 bit SPFP) per texel texture wordt ingelezen, dan wordt het intern omgerekend naar 96-bit FP (4x24 bit). Maar als het er weer it komt, dan komt het er weer uit als een 128b zonder precisie verlies.

Lees dit artikel eens door over de werking van NV30 vs R300: http://www.beyond3d.com/articles/nv30r300

Overigens zou NV30/NV35 volgens NV een 'slimmer' design moeten zijn dan R300/R350 wanneer het gebruik maakt van FP16... ooit werd er door hun gezegd dat het dubbel zo snel was.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
-GF-Annihilator schreef op 14 September 2003 @ 13:21:
Wel binnen 3 dagen komt aquamark uit. Op dat ogenblik zal ik hier zelf even aan het testen gaan met verschillende drivers en screenshots nemen van aquamark en 3Dmark2003 en Gunmetal. Allemaal zaken die direct9 features hebben. We zullen hier eens ZIEN of mij iemand al deze aantijgingen tegen nvidia zal kunnen bevestigen dan. Nu is het nutteloos hierover te discussiëren blijkbaar.
Bekijk deze Aquamark preview op DriverHeaven maar even dan: http://www.driverheaven.net/articles/aquamark3/index.htm

Afbeeldingslocatie: http://www.driverheaven.net/articles/aquamark3/compare.jpg
Now, im sure most of you have read Gabes recent comments regarding the detonator 51.75s, and Nvidia's offical response but I really do have to say, having seen this first hand it confirms to both myself and Veridian that the new detonators are far from a high quality IQ set. Alot of negative publicity is currently surrounding Nvidia, and here at driverheaven we like to remain as impartial and open minded as we possibly can, but after reading all the articles recently such as here coming from good sources and experiencing this ourselves first hand, I can no longer recommend an nvidia card to anyone. Ill be speaking with nvidia about this over the coming days and if I can make anything public I will.
Als zelfs DriverHeaven (een toch wel een redelijke pro-nVidia site) al geen nVidia kaarten meer aan wil raden...

offtopic:
Sorry voor de fucked up layout, plaatje is een beetje erg breed :|

[ Voor 4% gewijzigd door warp op 14-09-2003 16:30 ]


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Ook 3DGPU komt tot dezelfde conclusie:
The Detonator 51.75 drivers loses even more details over the 45.33 drivers. Especially note how the green on the foreground landrover is darker than the other two shots. Now, these drivers are beta, and not available to the public, so let's hope by the time they're released, the lowered image quality won't be in them. Because frankly, I'm just shocked how much better the Radeon 9800 Pro looks over the new Detonator 50 drivers on a GeForce FX 5600 Ultra, and any self-respecting gamer will choose the image quality on the Radeon 9800 Pro anyday. The amount of visual quality loss is not worth the, on average, 2-3fps that are shown to have been gained with these drivers in AquaMark 3.
http://www.3dgpu.com/modu...e.php?articleid=74&page=0

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Een NV3x kan veel meer dan een R(V)3x0. Meer instructies, meer mogelijkheden, meer 'modes'. Hij kan dus ook dingen uitrekenen en verwerken die een R(V)3x0 niet kan. En hij lijkt ook meer bedoeld voor gebruik op renderfarms dan om spelletjes mee te spelen.

Vergeleken met een Radeon is een FX een luxe alleskunner, die jaren vooruitloopt. De Radeon is net heel specifiek, die kan maar 1 ding.

Maar al die extra mogelijkheden hebben ook hun prijs: het kost transistoren. Heel veel transistoren. Dus terwijl ATI gewoon 8 simpele maar heel doeltreffende pijplijnen naast elkaar heeft gezet, heeft nVidia 4 pijplijnen gekombineerd tot een enkele eenheid om de hoeveelheid transistors nog een beetje binnen de perken te houden.

Een NV3x is dus een hele luxe kaart, met heel veel mogelijkheden, zeg maar een Renault Espace. En een R(V)3x0 is heel kaal en snel, zeg maar een Ferrari. Op de snelweg (DX8) doen ze het allebei prima, maar op het circuit (DX9) ziet dat er toch anders uit.

;)

En dat is eigenlijk heel apart, want het maakt de Radeons ook veel interessanter voor renderfarms, omdat de kaarten ook heel envoudig parallel te zetten zijn. Maar daar staat tegenover, dat een FX al klaar is voor de opvolger van DX9. Hij kan dus waarschijnlijk de volgende standaard ook al aan.

Acties:
  • 0 Henk 'm!

  • Halo_Master
  • Registratie: Mei 2000
  • Laatst online: 02-12-2024

Halo_Master

kan het cooler , pleaze?

DiGuru schreef op 14 September 2003 @ 16:38:
Een NV3x kan veel meer dan een R(V)3x0. Meer instructies, meer mogelijkheden, meer 'modes'. Hij kan dus ook dingen uitrekenen en verwerken die een R(V)3x0 niet kan. En hij lijkt ook meer bedoeld voor gebruik op renderfarms dan om spelletjes mee te spelen.

Vergeleken met een Radeon is een FX een luxe alleskunner, die jaren vooruitloopt. De Radeon is net heel specifiek, die kan maar 1 ding.

Maar al die extra mogelijkheden hebben ook hun prijs: het kost transistoren. Heel veel transistoren. Dus terwijl ATI gewoon 8 simpele maar heel doeltreffende pijplijnen naast elkaar heeft gezet, heeft nVidia 4 pijplijnen gekombineerd tot een enkele eenheid om de hoeveelheid transistors nog een beetje binnen de perken te houden.

Een NV3x is dus een hele luxe kaart, met heel veel mogelijkheden, zeg maar een Renault Espace. En een R(V)3x0 is heel kaal en snel, zeg maar een Ferrari. Op de snelweg (DX8) doen ze het allebei prima, maar op het circuit (DX9) ziet dat er toch anders uit.

;)

En dat is eigenlijk heel apart, want het maakt de Radeons ook veel interessanter voor renderfarms, omdat de kaarten ook heel envoudig parallel te zetten zijn. Maar daar staat tegenover, dat een FX al klaar is voor de opvolger van DX9. Hij kan dus waarschijnlijk de volgende standaard ook al aan.
Waar je dit hele verhaal vandaan haalt weet ik niet.ook niet waarop je het basseert.
Omdat Nvidia dit zegt?ze zeggen wel meer de laatste tijd...................
met name door de PR-afdeling.

Nvidia heeft gewoon gefaald(2x) : 1x met de fx5800 en nu weer met de 5900

Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 16:38:

--geblaat--in--de--ruimte--

Hij kan dus waarschijnlijk de volgende standaard ook al aan.
Sorry hoor, maar wat een ongelofelijk "uit de duim" verhaal. Heb je dat helemaal zelf verzonnen of heb je e.o.a. marketingfoldertje van nVidia overgetypt?

FYI... de FX kan DirectX 9.0 al niet eens fatsoenlijk aan, laat staan DirectX10 en hoger. De bewijzen hiervan vliegen nu toch echt wel om je oren... en wat schiet je er nu mee op om jezelf voor de gek te gaan lopen!?

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
warp schreef op 14 september 2003 @ 16:51:
[...]


Sorry hoor, maar wat een ongelofelijk "uit de duim" verhaal. Heb je dat helemaal zelf verzonnen of heb je e.o.a. marketingfoldertje van nVidia overgetypt?

FYI... de FX kan DirectX 9.0 al niet eens fatsoenlijk aan, laat staan DirectX10 en hoger. De bewijzen hiervan vliegen nu toch echt wel om je oren... en wat schiet je er nu mee op om jezelf voor de gek te gaan lopen!?
Ik heb toch ook niet gezegd dat hij dat snel zou kunnen? Alleen dat hij het heel waarschijnlijk kan. Of hij dan meer dan een paar FPS haalt, dat heb ik niet gezegd.

Acties:
  • 0 Henk 'm!

  • Halo_Master
  • Registratie: Mei 2000
  • Laatst online: 02-12-2024

Halo_Master

kan het cooler , pleaze?

maar waar heb je dat dan vandaan? let vooral op het woord "waarschijnlijk" wat je zelf gebruikt

Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)


Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Nou, ik heb een hele berg info uit zitten spitten om er achter te komen wat er nu precies aan de hand is en hoe die videochips nou eigenlijk in elkaar zitten. Dit was mijn conclusie.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

ATI's shaderunits zijn gewoon krachtiger en effiecienter in dx9 volgens dit stukje uit 3dcenter

If we compare NV30 to its competitor from ATi on a per-clock basis, the NV30 receives a thorough beating from R300. ATi comes ahead with 8 texture ops and 8 arithmetic ops in parallel. The higher core clock improves the situation a bit for NV30, but it still only does 2600 MTO/s + 700 MAO/s or 2000 MTO/s + 1000 MAO/s.

The Shader Core allows to exchange texture ops for arithmetic ops in a 2:1 relation (see graph below). The R300 as R9700Pro reaches 2600 MTO/s + 2600 MAO/s without this balancing option. nVidia can only dare to dream of this raw performance, or try to overclock an NV30 to 1 GHz. Not only the award for best performance per clock, but also the one for best overall raw performance goes to R300 from ATi.

Those CineFX II changes naturally have an influence on raw performance and dependencies. The additional FPU increases the maximum number of instructions performed to either 8 texture instructions and four arithmetic instructions, or 8 arithmetic instructions. This is still below R350 which can do 8 texture and 8 arithmetic instructions, just like its predecessor R300.

Let's compare those chips: nVidia lowered the core clock in NV35, while ATi raised the clock of R350 compared to R300. R350 reaches 3040 MTO/s + 3040 MAO/s = 6080 MI/s. NV35 can do either a maximum of 3600 MTO/s + 1800 MAO/s = 5400 MI/s or a minimum of 0 MTO/s + 3600 MAO/s = 3600 MI/s. The clock rate increase saves ATi the prize of best raw performance. If nVidia didn't lower the core clock, ATi would have scored a very close victory, leading by only 1,3%. But with NV35's actual clock rates, it's a respectable 12,6% lead for ATi.

Of dat het gevolg is van de keuze voor een luxe coupé 850E of een strakgeveerde F50 weet ik niet ;)

Ik weet wel dat de R3xx tot veel meer in staat is dan in 1e instantie werd gedacht door veel reviewers, echte displacements bv.

En het schijnt dat ook de R9800 ps3 ready is las ik ergens op b3d.

[ Voor 7% gewijzigd door edward2 op 14-09-2003 17:02 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Halo_Master
  • Registratie: Mei 2000
  • Laatst online: 02-12-2024

Halo_Master

kan het cooler , pleaze?

Ik heb voor minder geld dan toch liever die f50

Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 16:55:
Ik heb toch ook niet gezegd dat hij dat snel zou kunnen? Alleen dat hij het heel waarschijnlijk kan. Of hij dan meer dan een paar FPS haalt, dat heb ik niet gezegd.
Feit: De FX kaarten voldoen niet aan de DirectX9.0/OpenGL 2.0 specs, laat staan hoger.
Feit: De FX kaarten voldoen alleen maar aan nVidia's eigen Cg specs; developers moeten niet voor niets de custom nv3x renderpaths gebruiken (i.e. Cg) om ze een beetje te laten presteren. En dat hele renderfarm verhaal van je is gewoon puur fanboy geblaat.

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 16:59:
Nou, ik heb een hele berg info uit zitten spitten om er achter te komen wat er nu precies aan de hand is en hoe die videochips nou eigenlijk in elkaar zitten. Dit was mijn conclusie.
Hou je liever bij de feiten, daar zijn we allemaal meer bij gebaat.

Acties:
  • 0 Henk 'm!

  • Albinoraptor
  • Registratie: Juli 2000
  • Laatst online: 09:25
Carel schreef op 13 September 2003 @ 19:01:
[...]


Das niet waar, een fx 5200@280/485 vs een gf3@240/512 halen dezelfde score in 3dm2001 met een 3,3 ghz p4. IK zie dat de FX met wat simplere dingen het iets beter doet zoals de maxfpx van die autorace etc, de gf3 is weer net iets beter in nature.

Voor de rest van alle games is het ongeveer hetzelfde ook.
Ging mij er vooral om dat ik het belachelijk vind dat een kaart van 2 1/2 oud een nieuwe kaart kan bij houden ook al is die kaart een budget kaart :)

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
warp schreef op 14 september 2003 @ 17:05:
[...]


Hou je liever bij de feiten, daar zijn we allemaal meer bij gebaat.
Dat heb ik ook gedaan. Ik wil het best heel uitgebreid allemaal uitleggen en overal linkjes bijleveren. En je kunt het natuurlijk zelf ook natrekken.

Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 18-09 17:39

swampy

Coconut + Swallow = ?

warp schreef op 14 September 2003 @ 17:04:
[...]


Feit: De FX kaarten voldoen niet aan de DirectX9.0/OpenGL 2.0 specs, laat staan hoger.
Feit: De FX kaarten voldoen alleen maar aan nVidia's eigen Cg specs; developers moeten niet voor niets de custom nv3x renderpaths gebruiken (i.e. Cg) om ze een beetje te laten presteren. En dat hele renderfarm verhaal van je is gewoon puur fanboy geblaat.
Yep,....en dat is zeer jammer...een beetje zoals het Voodoo tijdperk ( maar toen maakte game programmers met plezier Voodoo ondersteuning )

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Nou, het is maar hoe je het bekijkt. Tot een paar jaar geleden, moesten de drivers er voor zorgen dat iedere videokaart DirectX of OpenGL instructies uit kon voeren. Het grootste verschil is nu, dat een Radeon DirectX9 en OpenGL 2 rechtstreeks in hardware uit kan voeren, terwijl je bij de FX nog steeds een driver nodig hebt om de zaak te vertalen.

En de lange instructielengte, zeer uitgebreide instructieset en de Cg taal van een FX zijn duidelijk bedoeld om vooral op de markt van renderfarms punten te scoren. Dat is ook altijd het streven van hun topman geweest.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
edward2 schreef op 14 September 2003 @ 17:00:

En het schijnt dat ook de R9800 ps3 ready is las ik ergens op b3d.
Komt omdat ps3 geen andere hardware eisen stelt. Alle DX9 kaarten moeten ermee overweg kunnen.

[ Voor 5% gewijzigd door XWB op 14-09-2003 17:30 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
warp schreef op 14 September 2003 @ 17:04:
[...]


Feit: De FX kaarten voldoen niet aan de DirectX9.0/OpenGL 2.0 specs, laat staan hoger.
Klopt. Ik meen op Beyond3D gelezen te hebben dat nVidia daarom ook hun kaarten nooit 'DX9 compliant', maar juist 'DX9 compatible' noemt.

NV30 en NV35 ondersteunen enkele elementen van DX9(a) niet, die wel ondersteunt worden door R350 zoals:
- Multiple Render Targets
- Floating Point Volumetric Textures
- Floating Point Cube Maps
- Multiple Element Textures

Dit zijn allemaal dingen die je moet kunnen als je aan de DX9 compliancy wilt voldoen. MET, FPVT en FPCM zou de NV3x hardware wel moeten kunnen, maar is volgens nVidia uitgeschakeld in de drivers. MRT wordt echter helemaal niet ondersteunt, terwijl dit ook een vereiste is om als DX9 compliant kaart te mogen aangemerkt. En voldoe je niet aan de vereiste, dan ben je simpelweg geen DX9 compliant kaart.

De uitspraak van DiGuru dat het waarschijnlijk ook al de volgende standaard aan kan, klopt dus niet. Je kan moeilijk een volgende standaard ondersteunen als je bepaalde elementen van de huidige standaard mist, ook al heb je bv PS2.0+ en VS2.0+.

Ik denk dat NV40 wel orde op zaken gaat stellen. Als dit een compleet nieuwe architectuur is, dan hebben ze als het goed is ook de kans gehad om te leren van hun fouten. Het zou me dan ook niets verbazen als NV40 een flink stuk sneller zal worden dan NV35.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Het belangrijkste verschil tussen PS2 en PS3 is dat die laatste IF..THEN kan doen en de eerste niet. In de officiele specificaties kunnen beide kaarten dat niet. Dat was ook de reden om voor DX9 nog PS2 te gebruiken, want PS3 geeft veel meer mogelijkheden om sneller een nog mooier beeld te renderen.

nVidia heeft verteld, dat een FX dat wel kan, maar dat bij de huidige tests de chip nog crashed. Van ATI weet ik alleen dat ze dat graag willen implementeren, niet wat de status is.

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 17:25:
En de lange instructielengte, zeer uitgebreide instructieset en de Cg taal van een FX zijn duidelijk bedoeld om vooral op de markt van renderfarms punten te scoren. Dat is ook altijd het streven van hun topman geweest.
Hou nu toch eens op met al die onzin man.

Professionele raytracers, 3D modellers etc, etc. gebruiken al sinds jaar en dag OpenGL.
Die lui zitten echt niet op dat Cg gebeuren van nVidia te wachten.

Weet je uberhaubt wel wat een renderfarm is? Een renderfarm is niets anders dan een stel CPU's. Het eindproduct wordt nog altijd gerenderd door een berg CPU's, niet door een berg GPU's. Sterker nog, in een renderfarm is vaak geen GPU te bekennen. GPU's zijn leuk voor realtime 3D weergave in je modeller enz, maar niet om het eindproduct te renderen.

Kijk hier maar eens b.v. :
http://www.intel.com/pres...leases/20030210comp_a.htm
http://www.marc-schaffer.com/projects/BCR/BCR.html
http://www.therenderfarm.com/

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Het grootste verschil tussen DirectX9, OpenGL 2 en al hun voorgangers, is dat nu de vaststaande renderpijplijn vervangen is door programmeerbare blokjes. En dat betekent dus ook, dat je dingen die niet direkt in het ontwerp zitten kunt programmeren.

nVidia heeft bijvoorbeeld SIN en COS functies, ATI niet. Maar dat betekent dus niet dat een Radeon geen sinus en cosinus uit kan rekenen, je moet het gewoon zelf programmeren.

En een FX wijkt gewoon flink af van de specificaties, maar dat wil niet zeggen dat hij al die dingen niet kan. Die kan hij wel. Je moet gewoon meer programmeren dan bij een Radeon. En het helpt ook niet mee, dat hij maar half zoveel shaders heeft.

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008

Acties:
  • 0 Henk 'm!

  • SoLeDiOn
  • Registratie: Juli 2001
  • Laatst online: 03-10 15:12
DiGuru schreef op 14 September 2003 @ 17:34:
Het belangrijkste verschil tussen PS2 en PS3 is dat die laatste IF..THEN kan doen en de eerste niet. In de officiele specificaties kunnen beide kaarten dat niet. Dat was ook de reden om voor DX9 nog PS2 te gebruiken, want PS3 geeft veel meer mogelijkheden om sneller een nog mooier beeld te renderen.

nVidia heeft verteld, dat een FX dat wel kan, maar dat bij de huidige tests de chip nog crashed. Van ATI weet ik alleen dat ze dat graag willen implementeren, niet wat de status is.
Volgens de officiele specificaties kan dat dus wel: ps_2_x
De Radeon en de GeForce FX ondersteunen het.

Van MSDN:
...
Version 2_0 Extended
New static flow control instructions (with a cap set): call, callnz, else, end, endif, endloop, endrep, if, label, loop, rep, ret
...

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Lees jij eerst maar eens de links die ik je heb gegeven.

Acties:
  • 0 Henk 'm!

  • SoLeDiOn
  • Registratie: Juli 2001
  • Laatst online: 03-10 15:12
DiGuru schreef op 14 September 2003 @ 17:43:
Het grootste verschil tussen DirectX9, OpenGL 2 en al hun voorgangers, is dat nu de vaststaande renderpijplijn vervangen is door programmeerbare blokjes. En dat betekent dus ook, dat je dingen die niet direkt in het ontwerp zitten kunt programmeren.

nVidia heeft bijvoorbeeld SIN en COS functies, ATI niet. Maar dat betekent dus niet dat een Radeon geen sinus en cosinus uit kan rekenen, je moet het gewoon zelf programmeren.

En een FX wijkt gewoon flink af van de specificaties, maar dat wil niet zeggen dat hij al die dingen niet kan. Die kan hij wel. Je moet gewoon meer programmeren dan bij een Radeon. En het helpt ook niet mee, dat hij maar half zoveel shaders heeft.
Eerst zeg je dat ATI dingen niet heeft, maar dat je voor een GeForce FX meer moet programmeren :? .

Ten tweede je hoeft het zelf niet te programmeren, sin en cos zijn gewoon functies die je aanroept, de driver en de videokaart handelen die dan af.

Ten derde alles is mogelijk, je kan zelfs shaden met een CPU(hoewel dan alles door de cpu behandeld moet worden ), maar het moet wel vlot gaan.

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Static flow control is geen IF..THEN, dat zijn loops en jumps. Dynamic flow control gebruikt conditionals. De vertex shaders van beide kunnen dat, de pixel shaders officieel niet.

En de officiele specificaties van Microsoft voor DX9 wijken af van de specificaties van beide chips, alhoewel de verschillen met de Radeon minimaal zijn.

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 17:43:
nVidia heeft bijvoorbeeld SIN en COS functies, ATI niet. Maar dat betekent dus niet dat een Radeon geen sinus en cosinus uit kan rekenen, je moet het gewoon zelf programmeren.
Tuurlijk, en wat is dit b.v. dan?

DirectX9.0 Rotation

--------------------------------------------------------------------------------

The transformations described here are for left-handed coordinate systems, and so may be different from transformation matrices that you have seen elsewhere. For more information, see 3-D Coordinate Systems.

The following transformation rotates the point (x, y, z) around the x-axis, producing a new point (x', y', z').

Afbeeldingslocatie: http://msdn.microsoft.com/library/en-us/directx9_c/directx/Art/matxrot.gif

The following transformation rotates the point around the y-axis.

Afbeeldingslocatie: http://msdn.microsoft.com/library/en-us/directx9_c/directx/Art/matyrot.gif

The following transformation rotates the point around the z-axis.

Afbeeldingslocatie: http://msdn.microsoft.com/library/en-us/directx9_c/directx/Art/matzrot.gif

In these example matrices, the Greek letter theta (?) stands for the angle of rotation, in radians. Angles are measured clockwise when looking along the rotation axis toward the origin.

In a C++ application, use the D3DXMatrixRotationX, D3DXMatrixRotationY, and D3DXMatrixRotationZ functions supplied by the Direct3D extensions (D3DX) utility library to create rotation matrices. The following is the code for the D3DXMatrixRotationX function.


http://msdn.microsoft.com...rms/matrices/rotation.asp

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
warp, het verschil tussen de huidige GPU's en de voorgaande generaties, is dus net dat de huidige *programmeerbaar* zijn. Ze zijn nog het beste te vergelijken met een 3-stage DSP.

EDIT: Je moet dus een programma uploaden naar de shader om die iets te laten doen. En zolang je je precies aan de standaard houd, doen DX9/OGL2 en de drivers dat voor je.

[ Voor 36% gewijzigd door DiGuru op 14-09-2003 20:11 ]


Acties:
  • 0 Henk 'm!

  • SoLeDiOn
  • Registratie: Juli 2001
  • Laatst online: 03-10 15:12
DiGuru schreef op 14 september 2003 @ 17:58:
Static flow control is geen IF..THEN, dat zijn loops en jumps. Dynamic flow control gebruikt conditionals. De vertex shaders van beide kunnen dat, de pixel shaders officieel niet.

En de officiele specificaties van Microsoft voor DX9 wijken af van de specificaties van beide chips, alhoewel de verschillen met de Radeon minimaal zijn.
k, je hebt gelijk maarja laten we een verder kijken:

http://msdn.microsoft.com...ifferences.asp?frame=true
...
Version 2_0 Extended
...
Dynamic flow control instructions: break, breakc, ifc
...

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Version 2_0 Extended is de ondersteuning voor de FX. En volgens nVidia zelf crashed een FX als je dynamic flow control probeert te gebruiken.

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 18:03:
warp, het verschil tussen de huidige GPU's en de voorgaande generaties, is dus net dat de huidige *programmeerbaar* zijn. Ze zijn nog het beste te vergelijken met een 3-stage DSP.
En wat veranderd dat gegeven aan alle FUD die je al in dit topic hebt gepost?

Acties:
  • 0 Henk 'm!

  • SoLeDiOn
  • Registratie: Juli 2001
  • Laatst online: 03-10 15:12
DiGuru schreef op 14 September 2003 @ 18:14:
Version 2_0 Extended is de ondersteuning voor de FX. En volgens nVidia zelf crashed een FX als je dynamic flow control probeert te gebruiken.
En voor ATI en voor VIA/S3, ze ondersteunen allemaal ps_2_x.
Je moet dus een programma downloaden naar de shader om die iets te laten doen. En zolang je je precies aan de standaard houd, doen DX9/OGL2 en de drivers dat voor je.
Dit snap ik niet? Als je je niet aan de standaard houd doet ie niets, dat lijkt mij tenminste logisch.

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
warp schreef op 14 September 2003 @ 18:22:
[...]


En wat veranderd dat gegeven aan alle FUD die je al in dit topic hebt gepost?
In plaats van een pijplijn met vaststaande functies (die dus alleen dingen kunnen doen die al er ingebakken zitten), zijn de huidige pijplijnen opgebouwd uit SIMD DSP processors die je een programma moet voeren, waarna ze een functie kunnen uitvoeren. Het programma bepaald dus de functie, niet de hardware.

Je kunt zo'n processortje (een shader) dus iedere willekeurige functie uit laten voeren zolang het programma dat je daarvoor gebruikt er in past.

Het verschil is vooral, dat een R(V)3x0 op hardwareniveau de meeste DX9/OGL2 instructies rechtstreeks uit kan voeren en een FX niet.

Voor een FX heb je dus een DX9/OGL2 emulator nodig die het vertaald naar Cg. En dat is traag. Net zoals een PS2 (PlayStation2) emulator voor een PC. Maar hij ondersteunt hele lange programma's, dus je kunt bijna iedere willekeurige functie programmeren.

Acties:
  • 0 Henk 'm!

  • SoLeDiOn
  • Registratie: Juli 2001
  • Laatst online: 03-10 15:12
Voor een FX heb je dus een DX9/OGL2 emulator nodig die het vertaald naar Cg. En dat is traag. Net zoals een PS2 emulator voor een PC. Maar hij ondersteunt hele lange programma's, dus je kunt bijna iedere willekeurige functie programmeren.
Dit kan je niet menen. Cg is een hogere taal en het is zinloos om het daarin te vertalen. Aan lange programma's heb je geen hol als het niet snel gebeurt. Ten derde zo'n GeForce FX doet even snel een sinus berekenen als een vermenigvuldiging (niet dat je anders hebt beweerd).

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 September 2003 @ 18:32:
In plaats van een pijplijn met vaststaande functies (die dus alleen dingen kunnen doen die al er ingebakken zitten), zijn de huidige pijplijnen opgebouwd uit SIMD DSP processors die je een programma moet voeren, waarna ze een functie kunnen uitvoeren. Het programma bepaald dus de functie, niet de hardware.

Je kunt zo'n processortje (een shader) dus iedere willekeurige functie uit laten voeren zolang het programma dat je daarvoor gebruikt er in past.

Het verschil is vooral, dat een R(V)3x0 op hardwareniveau de meeste DX9/OGL2 instructies rechtstreeks uit kan voeren en een FX niet.

Voor een FX heb je dus een DX9/OGL2 emulator nodig die het vertaald naar Cg. En dat is traag. Net zoals een PS2 emulator voor een PC. Maar hij ondersteunt hele lange programma's, dus je kunt bijna iedere willekeurige functie programmeren.
Vraagje... ben je misschien dyslectisch? Of lees je altijd alleen maar wat je wilt lezen :?

Ik vraag aan je wat dit gegeven precies veranderd aan alle onzin die je al eerder in dit topic hebt gepost... en dan kom je wederom met een totaal niet relevant verhaal :X

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
SoLeDiOn schreef op 14 September 2003 @ 18:38:
[...]

Dit kan je niet menen. Cg is een hogere taal en het is zinloos om het daarin te vertalen. Aan lange programma's heb je geen hol als het niet snel gebeurt. Ten derde zo'n GeForce FX doet even snel een sinus berekenen als een vermenigvuldiging (niet dat je anders hebt beweerd).
Je hebt gelijk. Ik had niet 'Cg' maar 'NV3x assembly' moeten zeggen.

Ja, een sinus en cosinus doet een FX sneller, maar die lange programma's breken hem duidelijk op. En om die lange programma's mogelijk te maken, worden constanten en sommige variabelen in het programmageheugen bewaard, dat naar het videogeheugen wordt geschreven als de programma's te groot worden. Ook niet best voor de snelheid, natuurlijk.

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
warp schreef op 14 September 2003 @ 18:43:
[...]


Vraagje... ben je misschien dyslectisch? Of lees je altijd alleen maar wat je wilt lezen :?

Ik vraag aan je wat dit gegeven precies veranderd aan alle onzin die je al eerder in dit topic hebt gepost... en dan kom je wederom met een totaal niet relevant verhaal :X
Hoezo onzin? Het is allemaal heel goed onderbouwd. Kun je wat duidelijker aangeven wat je onzin vind? Dan kan ik daar op reageren.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

SoLeDiOn schreef op 14 september 2003 @ 18:38:
[...]

Dit kan je niet menen. Cg is een hogere taal en het is zinloos om het daarin te vertalen. Aan lange programma's heb je geen hol als het niet snel gebeurt. Ten derde zo'n GeForce FX doet even snel een sinus berekenen als een vermenigvuldiging (niet dat je anders hebt beweerd).
Klopt 'n hogere taal maar staat dicht bij assembly.

Assambler
voordeel idiaal voor hoog optimized code.
Nadeel kost veel tijd en dus geld tov hogeretalen

Wat voor asm een voor of nadeel is is dat bij Cg juist anders om.

Men neemt die vaak geringe performance hit voor lief ten gunste van 'n handelbaardere ontwikkel omgeving dmv hogere oorde taal zodat de time to market versneld wordt.

JC heeft bijvoorbeeld geen last van een deadline maar de meeste proggers wel dus ASM wordt alleen gebruikt voor time critische optimalisatie wat Vs & PS routines wel verlangen maar is niet de enigste verantwoorde aanpak want daar speeld meer mee dus Cg heeft dus ook een specifiek streepje voor tov ASM.

De vraag is wat voor ASM genereerd Cg Hoe is de optimaliteits graad daarvan.

Men kan Cg en ASM door elkaar gebruiken genereren met Cg en daarnaast waar het kan de genereerde ASM optimaliseren.

D'r zijn dus drie aanpakken die elk hun voor en nadelen hebben.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
DiGuru schreef op 14 september 2003 @ 18:49:
Hoezo onzin? Het is allemaal heel goed onderbouwd. Kun je wat duidelijker aangeven wat je onzin vind? Dan kan ik daar op reageren.
Scroll maar wat naar boven in dit topic, ik heb genoeg 'onzin' postings van je ge-quote met commentaar erbij. Maar die ontloop je? en je geeft er geen antwoord op...

Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
warp schreef op 14 September 2003 @ 19:18:
[...]


Scroll maar wat naar boven in dit topic, ik heb genoeg 'onzin' postings van je ge-quote met commentaar erbij. Maar die ontloop je? en je geeft er geen antwoord op...
Goed. Om te beginnen de renderfarm.

Een renderfarm zoals iedereen die kent is een heleboel computers waarvan de CPU's een beeld renderen. Tot voor kort was dat de enige manier om een heel hoogwaardig beeld consistent te renderen. Een grafische kaart kon dingen maar op 1 manier en met een lage kwaliteit.

Nou is een CPU een general-purpose processor. Hij kan alles, maar hij doet niets heel erg goed. En de huidige GPU's bevatten nu net processortjes die specifiek zijn geoptimaliseerd voor het uitvoeren van grafische berekeningen. Het boeit niet wat dat ding op het scherm zet, je kunt alle resultaten ook terugschrijven naar het hoofdgeheugen.

Een Radeon heeft bijvoorbeeld 8 pijplijnen die heel snel en efficient een grafische berekening uit kunnen voeren. En je kunt ook meerdere kaarten parallel gebruiken, zolang je PCI kaarten gebruikt of moederborden met meerdere AGP sloten.

Je kunt dan dus heel snel belachelijke hoeveelheden matrix transformaties uitvoeren. Om bijvoorbeeld te ray-tracen. Of multi-layer, semi-transparante oppervlaktes te berekenen. Of whatever.

En al die berekeningen leveren uiteindelijk een resultaat op, dat je dan op een scherm zet. Je moet dus nog wel op minstens 1 van die grafische kaarten een monitor aansluiten.

;)
Pagina: 1 ... 6 ... 11 Laatste

Dit topic is gesloten.