Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 17 Pro Max 256GB / LG OLED G5 65”
http://www.anandtech.com/video/showdoc.html?i=1863&p=1
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
shading mischien niet, maar dat heeft er ook mee te maken wat de onderlingen afspraken zijn tussen
hardware & software industie & in dit geval dus ook tussen verschillende game producenten. Ik heb
nu al een tijdje een GeForce FX5900 Ultra van Asus en die overtreft echt al me verwachtingen!!!!
Laten we nu gewoon die 50.xx drivers maar eff afwachten en dan eff banshmarks bekijken van een
onafhankelijk instituut en dan ook de prestaties op meer vlakken testen en niet bij elke fabrikant
zijn sterkste punt naar voren gaan halen en dan de anderen daar op afrekeken en dan doen of hun geen
sterkke punten hebben!
Ik weet het niet hoor..... Maar zijn we dit allemaal vergeten????
Bij The Inquirer doen geruchten de ronde over mogelijke ondersteuning van pixel shader 3.0 door
de Geforce FX 5900 Ultra. In het artikel wordt deze techniek gezien als een stap in de goede richting,
die een voorsprong op ATi zou kunnen geven. Sinds de eerste kaart die pixel shading 2.0 ondersteunde
een jaar geleden uitkwam, de Radeon 9700 PRO, zijn er weinig spellen die gebruik maken van de techniek.
Werknemers bij nVidia hebben echter wel aangegeven dat de testen met de FX 5900 Ultra enkele hardwareproblemen
opleverden en dat er nog geen drivers beschikbaar zijn voor de functie.
----------------------------------------
WE HEARD THAT Nvidia took one step forward from ATI as far as hardware development is concerned.
You can hardly see any game that has support for Pixel shader 2.0 and its fancy stuff. Even the first hardware that was capable of handling it, the Radeon 9700 PRO, R300 was introduced more than a year ago now.
Games like Half Life 2 will change this and games like Tomb, lot of clipping bugs Raider have support for it already.
Some of Nvidia guys that know how things work have told our friends that NV35, Geforce FX 5900 Ultra already has support for pixel shader 3.0 but there is no any driver publicly available that will support it. µ The same source implied that when Nvidia tested pixel shader 3.0 internally, there was a hardware problem.
We reckon that Nvidia is practising for NV40 and who knows, if it fixes things NV38 could end up with pixel shader 3.0 support, highly unlikely but still possible.
We would like to know what developers think about Pixel Shader 3.0 as we know that it can make a difference and give you guys more freedom. Feel free to share your comments.
Nvidia still might have some more ammunition than it want people to know about. µ
----------------------------------------



[ Voor 30% gewijzigd door Fr0zenFlame op 12-09-2003 13:35 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Objectief gezien is de Radeon 9800 Pro gewoon beter als het gaat om snelheid, beeldkwaliteit en economisch omgaan met het geheugen. Ik heb een TNT2 Ultra, Geforce256-DDR, Geforce2 GTS,Geforce3 Vanilla en een Geforce4 Ti4600 gehad met volle tevredenheid maar ben nu blij dat ik naar een Ati Radeon 9800 Pro ben overgestapt. Mij maakt het niet uit of er nu een kaart van Ati of Nvidia in zit als het maar de beste kaart is.
Snap eigenlijk niet dat mensen zo stug blijven bij een bepaald merk. Dat je trots bent op je eigen resultaten, die van je familie of je vrienden okay, maar dat je trots bent op een videokaart van een bepaalde fabrikant is gewoon zielig. Of het nu Nvidia is of Ati. Uiteindelijk zijn het toch allebei bedrijven die geen fouten toegeven.
Dracul verlangt naar de tijd van 3Dfx.
[ Voor 14% gewijzigd door Dracul op 12-09-2003 11:10 ]
is, dan kan ik alleen maar zeggen dat ik weer de goeie keuzen heb gemaakt door weer voor de Nvidia FX5900 Ultra te zijn gegaan. Game bouwers geven ook altijd aan blij te zijn met de nvidia kaarten en chip sets! Dat valve nou weer kartelvroming pleegt met Ati zie ik meer als een wanhoops poging van ati.
Maargoed zal nog wat banshmarks opzoeken!
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Klopt. Doom III is gedraaid op Medium Detail. Kijk je bij Tom's Hardware, dan is daar ook nog eens op High Detail gedraait en verslaat de Radeon9800Pro de FX in 2 van de 3 tests. Beetje vreemd ook dat er met "Medium detail" is getest, want een game als Doom III wil je toch echt wel op High Detail draaien om alle eyecandy te kunnen zien.Dracul schreef op 12 September 2003 @ 11:02:
Leuk hoor die paar benchmarks die jij hebt opgezocht maar er zijn er vele waarbij de Radeon 9800 Pro de vloer aanveegt met de FX. Los daarvan heb ik mijn twijfels bij deze specifieke benchmarks van jou.
Daarnaast is die UT2k3 test ook achterhaald. Kijk bv eens op de laatste Cat 3.7 recensie op Firingsquad. De conclusie over UT2k3:
Bron: http://firingsquad.gamers...e/catalyst_3.7/page10.aspAnd with the RADEON 9800 PRO running neck-and-neck with GeForce FX 5900 Ultra in UT 2003 with CATALYST 3.6, we believe the added performance present in CATALYST 3.7 should be enough for ATI to claim the performance crown in this application.
En Jedi Knight II, tja... da's mooi dat-ie zo wint natuurlijk. Maar kijk ook eens naar resultaten van Star Trek: Elite Force 2 en Return To Castle Wolvenstein, allemaal met een aangepast Quake3 engine en op High Detail natuurlijk. Daar wint de Radeon9800Pro het vaak.
Natuurlijk snap ik dat mensen altijd het beste willen 'zien' en 'lezen' over hun kaart, maar het kan geen kwaad om je niet blind te staren op 1 site met (oude achterhaalde) benchmarks waar je kaart toevallig als beste uit de test komt, terwijl op 9 andere juist het tegenovergestelde uit de bus komt.
Zeggen dat de FX5900Ultra de 9800Pro op alle vlakken behalve shading overtreft is wel heel erg kort door de bocht. Shading is toevallig wel een heel belangrijk deel aan het worden van games. Tel daarnaast de goede beeldkwaliteit, superieure AA, ijzersterke TV-out + DVD playback ondersteuning, zeer goede driverondersteuning (door MS als voorbeeld genoemd afgelopen week als 'meest stabiele drivers') er bij op, en het is echt niet 'alleen' maar shading...
Noem eens een aantal 'hele belangrijke gebieden' waar ATi niet aan kan tippen, behalve dan misschien AF?
De geruchten van The Inq over PS3.0 zouden best waar kunnen zijn, maar aangezien PS3.0 ook al in de DX9 specs staat omschreven, ondersteunen alle DX9 kaarten van dit moment theoretisch gezien al PS3.0 (via software wat heel traag is). Mocht NV35 ook al hardwarematige ondersteuning bieden voor PS3.0 dan mag je er van uit gaan dat de performance wel heel erg beroerd zal zijn. Het kan PS2.0 nog niet eens goed aan. De GPU is gewoon niet krachtig genoeg en daar kan geen wonderdriver (zonder hacks/cheats) iets aan doen. Het verschil in bv Half Life 2 is gewoon te groot. Drivers die een boost geven van 10 tot 15 procent zie je vaak... maar drivers die een boost moeten geven van 70% of meer... het zou mooi zijn als dit waar was, maar wel heel erg onwaarschijnlijk.
Maar goed, laten we ze het voordeel van de twijfel geven... Straks hebben we een mooi rijtje DX9 titels om mee te benchmarken, namelijk Tombraider AoD, Halo, Far Cry, Half Life 2 en Vampire The Masque - Bloodlines. En de eerste resultaten van de Halo Beta geven al precies hetzelfde beeld als de Tombraider en Half Life 2 resultaten...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat voor mij telt is dat ik al zeker 3 mensen heb horen vertellen, dat ze na het testen van beide kaarten, gekozen hebben voor de Radeon. Edward2 bv en dat zegt mij meer dan al die grafieken waarvan je toch niet weet hoe objectief ze zijn.
















[img]http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_5.gif[img]









LOL
























Tja en toen, OEPS!
En dit allemaal zonder de 50.xx drivers he
--> nieuws: nVidia GeForce FX 5900 foto's en benchmarks <--
Ik ben nog opzoek naar een paar andere hele belangrijke, maar nog niet gevonden, komen nog
[ Voor 182% gewijzigd door Fr0zenFlame op 12-09-2003 14:24 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
http://www.gamepc.com/images/layout/graphline-Bgreen.gif
http://www.gamepc.com/images/layout/graphline-Bgreen.gif
http://www.gamepc.com/images/layout/graphdots.gif
http://www.gamepc.com/images/layout/graphline-Bgreen.gif
http://www.withingames.net/pics/FXTest/Enclave1280s.png
En lees dit eens over de optimalisaties:
http://www.3dcenter.de/ar...dia_treiberoptimierungen/
The truth is out here..........
edit, kut gamepc laat zich niet deeplinken..
[ Voor 10% gewijzigd door edward2 op 12-09-2003 12:16 ]
Niet op voorraad.
Verwijderd
C2D 6600, 275 GTX Windows 7
Normaal? Define Normaal!Verwijderd schreef op 12 September 2003 @ 13:51:
Bij mijn nieuw pc (2.8ghz 800FSB 512mb ddr ram) wou ik een Radeon 9600 pro hebben, maar die waren niet meer verkrijgbaar en zouden meschien na 2 weken weer komen. Omdat ik zo lang niet op mijn pc kon wachten heb ik een Gainward fx5600 erbij gekregen inplaats van de 9600 pro, mijn vraag is of ik met deze videokaart wel normaal Half life 2 of andere nieuwe spellen kan spelen?
Maaaar ja...DX9 opties volledig aan zal zwaar worden een PS 2.0 zal pijnlijk worden. Maar het zal vast nog wel goed te spelen zijn......
There is no place like ::1
Verwijderd
Dat doet hij helemaal niet, hij zegt dat in het argument dat Gabe Newell geeft wel wat zit, m.a.w. dat het waarschijnlijk klinkt. Hij gebruikt in zijn stuk bijzonder vaak ''according to'', wat ''volgens hem/haar'' betekent.CJ schreef op 12 September 2003 @ 09:09:
AnandTech heeft zijn eigen indepth review van HL2 geplaatst. Hij gaat er duidelijk op in dat Valve geen enkel belang heeft bij optimalisering voor ATi kaarten, omdat het doel van Valve is 'geld verdienen met hun games' en het grootste gedeelte van de gamers nog een nVidia kaart heeft.
Aan al dat getouwtrek wie nu betere kaarten maak doe ik niet mee. Ik wil jullie alleen wel duidelijk maken dat bedrijven als Valve zich niet zomaar liëren aan een ander bedrijf, in dit geval ATI. Daar krijgen ze miljoenen dollars voor. Dat geldt uiteraard ook voor ID Software en NVidea....
ja die scores heb ik gezien, ik zit op 16120 (ben al hoger geweest maar geen zin om voor 100 puntjes de hele meuk te veranderen) en daarom verbaasde het me een beetje.BurnerXL schreef op 11 september 2003 @ 22:53:
[...]
Naja, ik heb me 3DMark2001SE score nu op me pagina staan onderaan in de tabel
http://members.home.nl/twanvink/System.html (Misschien al gezien)
Enee....wat is PAM?
PAM is hier Performance Acceleration Mode, de "memory bypass" van de 875 chipset
-gf-annihilator, kheb een antec 430watt truepower voeding, lijkt mij wel categorie "fatsoenlijk"
-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.
Ik meende dat het de geheugenadresseringen zo zou herschikken dat het netto efficienter wordt gebruikt.
Okay, dan heb ik dit stukje verkeerd geinterpreteerd "It also doesn't make much sense for Valve to develop an ATI-specific game simply because the majority of the market out there does have NVIDIA based graphics cards, and it is in their best interest to make the game run as well as possible on NVIDIA GPUs." en niet te vergeten: "Once again, we're not questioning Valve in this sense and honestly don't see much reason to as it wouldn't make any business sense for them to cripple Half-Life 2 on NVIDIA cards."Verwijderd schreef op 12 September 2003 @ 14:07:
[...]
Dat doet hij helemaal niet, hij zegt dat in het argument dat Gabe Newell geeft wel wat zit, m.a.w. dat het waarschijnlijk klinkt. Hij gebruikt in zijn stuk bijzonder vaak ''according to'', wat ''volgens hem/haar'' betekent.
In mijn ogen wordt hier gezegd dat Valve geen enkel belang zou hebben in optimalisaties voor een bepaalde videokaartfabrikant, ook al zou ATi er miljoenen voor hebben geboden, want een 'majority of the market' heeft een nVidia kaart. En Anand trekt dit niet in twijfel. Of zie ik dit nou helemaal verkeerd?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
hm tja, het was idd dan PAT. tis iig iets van de 875 chips en het scheelt best welEcteinascidin schreef op 12 September 2003 @ 16:19:
PAT = Performance Acceleration Technologie ipv PAM. Dat is wat de i875 legaal heeft (en de i865 uitstaand)
Ik meende dat het de geheugenadresseringen zo zou herschikken dat het netto efficienter wordt gebruikt.
de 865 heeft het idd ook, maar uitstaand. asus p4p800's kunnen het ook aanzetten maar daar heet het dan ook anders (ivm gedoe met intel). MAM d8 ik. memory acceleration mode of zo
-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.
http://www.athlonmb.com/a...hp?ArticleID=257&PageID=1
wanneer test nou iemand met HL2=screens:
Niet op voorraad.
Verwijderd
Tja, hangt ervan af welk moederbord je hebt, m'n asus p4p800 deluxe ondersteunt het wel... Maar dit is off-topic.BurnerXL schreef op 12 September 2003 @ 17:59:
nouja...volgens mij zit dat PAT en MAM niet op me MSI 865PE Neo2-LS....dus de Intel i865PE chipset. Dus kan niet meer punten behalen
De meeste benchmarks van Falcon laten de performance zien in synthetische benchmarks en oudere games, hier zijn we niets mee. De mensen willen performance zien van recente games zoals Half Life 2, waarin Ati duidelijk veel voorsprong heeft. Maar velen geloven nog in de Det50.xx-driverreeks, dus laten we afwachten wat die gaan brengen, al vrees ik het ergste voor nVidia wat hun high-end FX-kaarten betreft. Maar goed, zo gaat het nu eenmaal, ze zijn aan elkaar gewaagd en op een dag is nVidia misschien weer de sterkste.
Als ik Anand goed begrepen heb, heeft Valve de timedemos alleen maar aan een paar sites beschikbaar gesteld, en dan met de strikte voorwaarde dat er aleen met de 45.23 werd getest(....).edward2 schreef op 12 September 2003 @ 17:56:
Det50 Nieuws:
http://www.athlonmb.com/a...hp?ArticleID=257&PageID=1
wanneer test nou iemand met HL2=screens:
Het verschil is factor 2 tussen de 64 en 128 bits versie, eerst haalde ik een magere 45003dm's(64bits).
Nu haalt deze kaart al 9000 in 3dm2001. Echter vallen de overklok marges me een beetje tegen hij haalt maximaal 280/480 ik zal zo nog wel eens kijken hoe het zit met een vmod etc, want 10000 moet iig wel kunnen met zo'n kaartje vind ik
+5 inzichtvol.Dracul schreef op 12 september 2003 @ 11:02:
Snap eigenlijk niet dat mensen zo stug blijven bij een bepaald merk. Dat je trots bent op je eigen resultaten, die van je familie of je vrienden okay, maar dat je trots bent op een videokaart van een bepaalde fabrikant is gewoon zielig. Of het nu Nvidia is of Ati.
Lees de rest van het verhaal hier:Prior to the release of Halflife 2, Valve will release a benchmark demo of the game that allows future Halflife2-players a HL2-performance test of their System. During the development of that benchmark demo Valve found a lot of issues in current graphic card drivers of unnamed manufacturers:
* Camera path-specific occlusion culling
* Visual quality tradeoffs (e.g. lowered filtering quality, disabling fog)
* Screen-grab specific image rendering
* Lower rendering precision
* Algorithmic detection and replacement
* Scene-specific handling of z writes
* Benchmark-specific drivers that never ship
* App-specific and version specific optimizations that are very fragile
Valve is very concerned about those developments since customers make their buying decisions for new hard- and software based on benchmark numbers. The problem is that the results with those optimizations have very little to do with the real game performance of those cards. Gabe Newell: "Our Customers will be pissed"...
http://www20.tomshardware.com/business/20030911/index.html
Zelfde verhaal, nVidia kaarten doen niet echte tri-lineare filtering in UT-2003, daardoor scoren ze hoger in de benches.
Verwijderd
Deze kaart heeft veel betere specs dan bijvoorbeeld de xfx, maar is hij ook een beetje stabiel en word hij ook goed ondersteunt?
Hij is 89 eurie bij mycom, tegenover 80 eurie voor die van xfx.
bvd
Verwijderd schreef op 13 September 2003 @ 13:32:
Ik heb eigenlijk een vraagje, ik wil namelijk een creative geforce fx 5200 128mb kopen.
Deze kaart heeft veel betere specs dan bijvoorbeeld de xfx, maar is hij ook een beetje stabiel en word hij ook goed ondersteunt?
Hij is 89 eurie bij mycom, tegenover 80 eurie voor die van xfx.
bvd
eurie

maja, de FX 5200 zuigt ernstig hard, een GF4 MX440 presteert zelfs beter. kijk maar eens wat rond in dit subforum, daar komt dat een paar keer langs. lees anders wat reviews.. is echt weggegooid geld
-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.
Het is onzin dat de FX 5200 erg hard zuigt. Ik heb er zelf 1 en die presteerd echt wel beter dan een MX 460 128 MB. Okee in directx 9 heb je er niets aan, maar in directx 8.1 is deze redelijk en loopt niet veel achter op een TI 4200. Bovendien kan de FX Hardware 8.1 (okee ook 9.0 maar das nix) en een MX kan dat niet. De FX 5200 heeft een goede prijs/kwaliteit verhouding, en presteerd redelijk.Termy schreef op 13 september 2003 @ 13:38:
[...]
offtopic:
eurie![]()
maja, de FX 5200 zuigt ernstig hard, een GF4 MX440 presteert zelfs beter. kijk maar eens wat rond in dit subforum, daar komt dat een paar keer langs. lees anders wat reviews.. is echt weggegooid geld
De prijs t.o.v. de Creative Vs. XFX zal vooral an meegeleverde software liggen enzo.
[ Voor 6% gewijzigd door Mojo op 13-09-2003 13:49 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Jah, beetje vage discussie tussen jou en termy, men moet er nu echt duidelijk bij zetten of je het over de 64 bitch versie van de fx5200 hebt of de 128 bits versie, aangezien dit bijna meer als factor 2 uitmaakt qua speed.sokje schreef op 13 september 2003 @ 13:48:
[...]
Het is onzin dat de FX 5200 erg hard zuigt. Ik heb er zelf 1 en die presteerd echt wel beter dan een MX 460 128 MB. Okee in directx 9 heb je er niets aan, maar in directx 8.1 is deze redelijk en loopt niet veel achter op een TI 4200. Bovendien kan de FX Hardware 8.1 (okee ook 9.0 maar das nix) en een MX kan dat niet. De FX 5200 heeft een goede prijs/kwaliteit verhouding, en presteerd redelijk.
De prijs t.o.v. de Creative Vs. XFX zal vooral an meegeleverde software liggen enzo.
Dit kan je trouwens zien aan het feit of er geheugen modules aan de rechterkant en aan de bovenkant zitten van zo'n kaart. Zit het geheugen alleen aan de rechterkant, dan heb je het over de 64 bits versie.
[ Voor 17% gewijzigd door Carel op 13-09-2003 16:58 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Mag ik trouwens aan jou vragen wat voor scores jij met je fx haalt(3dm2001 etc) en of je hem eventueel overgeklokt hebt ?sokje schreef op 13 September 2003 @ 17:27:
ik heb zelf de 128 bit versie en ben er erg tevreden over, maar de vraag was eigenlijk wat het verschil is tussen de creative en de XFX, ik denk dat het dus aan meegeleverde software ligt, maar kijk bij voorbaat even welke kaart je wil want de 64 bit is idd wel erg bagger zoals thermy zei, ik had het over de 128 bit versie van mij. Let hier dus ook op bij de kaarten de 64 bit versie wil je echt niet.
sorry ik weet het een beetje vaag maar mijn eigen athlon XP 2000+ is in reparatie en laatst is ook mijn 550 MHz kapot gegaan (Mobo
[ Voor 29% gewijzigd door Mojo op 13-09-2003 18:03 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Zelf heb ik het omgekeerde gedaan - ik heb 3 dagen een 9800 Pro in huis gehad, me bijzonder gestoord aan het geflikker van de menus in Flight Simulator en het onvermogen van deze kaart om één groot 3D beeld te laten zien verspreid over beide VGA-uitgangen op 2 beeldschermen, en inmiddels terruggebracht naar de winkel en een FX5900 Ultra gehaald. Sindsdien heb ik geen klachten meerhjs schreef op 12 september 2003 @ 12:03:
Ach, al die reviews en grafiekjes.
Wat voor mij telt is dat ik al zeker 3 mensen heb horen vertellen, dat ze na het testen van beide kaarten, gekozen hebben voor de Radeon. Edward2 bv en dat zegt mij meer dan al die grafieken waarvan je toch niet weet hoe objectief ze zijn.
Oh ja, als zoals gewoonlijk iemand zin heeft om te roepen dat ik wel iets fout gedaan zou hebben, prima, maar wel gaarne commentaar voorzien van een precieze handleiding hoe de ATI te gebruiken in Flight Sim 2004 met één panorama view gespreid over twee schermen (2304x864 of hogere resolutie). Op één computer, dus geen wideview oplossingen.
[ Voor 10% gewijzigd door Biff op 13-09-2003 18:08 ]
Yeah well. The Dude abides.
[ Voor 82% gewijzigd door Mojo op 13-09-2003 19:40 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Das niet waar, een fx 5200@280/485 vs een gf3@240/512 halen dezelfde score in 3dm2001 met een 3,3 ghz p4. IK zie dat de FX met wat simplere dingen het iets beter doet zoals de maxfpx van die autorace etc, de gf3 is weer net iets beter in nature.Albinoraptor schreef op 13 September 2003 @ 18:10:
Nou als ik dat zo zie vind ik die FX5200 wel slecht presteren, mijn GF3 van 2 1/2 oud haalt stuk hogere score dan dat ding, ook is natuurlijk een budget kaart en was dat ding een flink investering toen, maar toch
Voor de rest van alle games is het ongeveer hetzelfde ook.
[ Voor 6% gewijzigd door Carel op 13-09-2003 19:03 ]
Verder nog een iq vergelijking met daarin det51.75, 4xxx-serie en de R9800.
De 51.75 laat lights weg en heeft een blur:
http://www.driverheaven.net/articles/aquamark3/index3.htm
Duidelijk, de det50xx cheaten er weer vrolijk op los.
edit, ook 45.33 laat lights weg:

[ Voor 50% gewijzigd door edward2 op 13-09-2003 21:29 ]
Niet op voorraad.
Iemand zei trouwens dat met Detonator 45.23 het voltage was opgehoogd, misschien is het toeval maar ik had de Blue Orb en de nieuwe drivers tegelijk erop gezet en ik kom verder OC'en. Misschien is het toch waar wat hij zei.
[ Voor 17% gewijzigd door Mojo op 13-09-2003 19:41 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.edward2 schreef op 13 september 2003 @ 19:27:
Voor Flightsims is de Fx beter, vooral als je AF gebruikt, daar nv AF onder alle hoeken doet en ATI niet.
Verder nog een iq vergelijking met daarin det51.75, 4xxx-serie en de R9800.
De 51.75 laat lights weg en heeft een blur:
http://www.driverheaven.net/articles/aquamark3/index3.htm
Duidelijk, de det50xx cheaten er weer vrolijk op los.
edit, ook 45.33 laat lights weg:
[afbeelding]
Trouwens kom ik net van een ati en merkte ik ook al een aantal zaken die de ati niet goed renderde in games , daarom ga ik ati toch ook niet direct beschuldigen van cheats.
Bij die oude drivers waar nvidia cheats zou hebben ingestoken voor 3Dmark2003, zag je toch ook geen verschil in output ? Waarom zou nvidia dan nu verkondigd hebben dat ze geen dingen meer zullen inbouwen die het resultaat gaan beinvloeden, dus dat je het kan zien ? Als je die lights wegneemt bij aquanox , dat ziet toch iedereen? Dus wat denk je ? Is het een cheat, is nvidia zo stom ? Of loopt iedereen mee met de anti nvidia menigte zonder nadenken ?
Ik denk al het antwoord te weten, maar ik zal me hierover dan wel uitspreken als die officiële 50.XX driver uit is...
Gewoon een crap verhaal is dat, drivers kunen op een gf kaart qua voltages onmogelijk iets veranderen hooguit de meting marges.sokje schreef op 13 September 2003 @ 19:36:
Iemand zei trouwens dat met Detonator 45.23 het voltage was opgehoogd, misschien is het toeval maar ik had de Blue Orb en de nieuwe drivers tegelijk erop gezet en ik kom verder OC'en. Misschien is het toch waar wat hij zei.
Behalve dus het interface wat dit weergeeft en dit vertekend/verbeterd beeld laten geven etc.
Er lopen hier een paar draadjes over op andere flora en het schijnt dat nv terugschakelt op ps1.4, dan krijg je een lager contrast in de ligting.-GF-Annihilator schreef op 13 september 2003 @ 22:55:
[...]
Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.
Trouwens kom ik net van een ati en merkte ik ook al een aantal zaken die de ati niet goed renderde in games , daarom ga ik ati toch ook niet direct beschuldigen van cheats.
Bij die oude drivers waar nvidia cheats zou hebben ingestoken voor 3Dmark2003, zag je toch ook geen verschil in output ? Waarom zou nvidia dan nu verkondigd hebben dat ze geen dingen meer zullen inbouwen die het resultaat gaan beinvloeden, dus dat je het kan zien ? Als je die lights wegneemt bij aquanox , dat ziet toch iedereen? Dus wat denk je ? Is het een cheat, is nvidia zo stom ? Of loopt iedereen mee met de anti nvidia menigte zonder nadenken ?
Ik denk al het antwoord te weten, maar ik zal me hierover dan wel uitspreken als die officiële 50.XX driver uit is...
En dat is geen alledaagse menigte die dat constateert, tech report en b3d.
Nou heeft AM3 opzich een klein % aan shaders daarom is de winst minimaal.
In HL2, Halo en Tomraider is bijna elk opp geshadered en loopt het verschil op.
Ik heb verdeelde gedachten hierover, ik vind bv nv weer een veeel beter AF hebben, tegenover de precisie van ATI, hier een voorbeeld van de superieire AF van NF, dat kost ook performance, bven ik van overtuigt, let op glooiende opp en het dak van die rockethumvee iod rechtsboven:
.
http://www.skenegroup.net/onsekumma/
Ook ATI heeft problem dat klopt, de openGL van cat3.7 heeft slechts 16 bits, een erg amateuristische fout.
Mijn ideale kaart heeft de AF van NV en de dx9 van ATI.
Ik ding wil ik nog duidelijk maken ik ben absoluut geen FanATIc, meer iemand die gewoon het beste zoekt.
[ Voor 14% gewijzigd door edward2 op 13-09-2003 23:30 ]
Niet op voorraad.
ow okeej dan weet ik dat, het is misschien maar een theorie, maar dat bewijst wel dat een Blue Orb goed isCarel schreef op 13 september 2003 @ 22:58:
[...]
Gewoon een crap verhaal is dat, drivers kunen op een gf kaart qua voltages onmogelijk iets veranderen hooguit de meting marges.
Behalve dus het interface wat dit weergeeft en dit vertekend/verbeterd beeld laten geven etc.
[ Voor 3% gewijzigd door Mojo op 14-09-2003 10:56 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ik vind dat plaatje van de FX 5600 er veel mooier/realistischer uitzien.edward2 schreef op 13 September 2003 @ 19:27:
Voor Flightsims is de Fx beter, vooral als je AF gebruikt, daar nv AF onder alle hoeken doet en ATI niet.
Verder nog een iq vergelijking met daarin det51.75, 4xxx-serie en de R9800.
De 51.75 laat lights weg en heeft een blur:
http://www.driverheaven.net/articles/aquamark3/index3.htm
Duidelijk, de det50xx cheaten er weer vrolijk op los.
edit, ook 45.33 laat lights weg:
[afbeelding]
Het licht is te overdreven bij de radeon, in de verte zijn de objecten veel scherper bij de fx, kijk eens naar die bubbels of die auto's ..

over de fx 5200, zover ik begrepen had zogen ze allemaal maar blijkbaar is de 128bit niet zo heel erg dan... blijft niks imho.. voor een paar euro heb je al een betere kaart, misschien dan geen dx9 maar wat heb je daaraan als de fx het toch niet trekt...
je moet het verder natuurlijk zelf weten, jouw geld jouw keuze
wat is nu eigenlijk precies het gedoe met die ps 2.0 op de FX? is die "nep" of zo omdat hij schijnbaar terug gaat naar ps1.4 of is dat een driver bug? erg duidelijk is het niet.
heb net ook nog die mouseover test bekeken van skenegroup en het spijt me zeer, maar ik vind die radeon er niet uit zien.. overbelicht en details vallen weg die ik met de fx5600 wel zie.. en ja, ik heb goed gekeken wanneer ik welke kaart zag..
[ Voor 19% gewijzigd door Termy op 14-09-2003 11:15 ]
-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.
zoals in Morrowind laat de ati 9800 pro schaduwen door huizen heen zien
dat beloofd nog wat voor toekomstige spellen
C2D 6600, 275 GTX Windows 7
Hier ben ik het dus absoluut niet mee eens.-GF-Annihilator schreef op 13 september 2003 @ 22:55:
[...]
Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.
Het zijn inderdaad beta-drivers, maar het zijn wel beta-drivers die nVidia naar hardware/reviewsites heeft gestuurd om te gebruiken bij benchmarks, waaronder dus Half Life 2. En als door bv het ontbreken van fog, of door het laten zien van 1 seconde zwart scherm (wat echter wel mee telt in de eindscore), de score hoger wordt dan 'normaal', dan vind ik dat niet kunnen.
Een bedrijf hoort geen 'beta'-drivers met 'uitprobeersels' en 'fouten' rond te sturen en aan te dringen dat men dit gebruikt voor benchmarks. Dat is gewoon heel onprofessioneel. Zorg dan dat je eerst al die bugs/errors/glitches er uit hebt gehaald. Daar voorkom je veel gezeik mee achteraf.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Iets niet goed renderen (meestal game- en/of driverbugs) en zaken kompleet weglaten, komplete shaders vervangen en alles naar lager detail forceren om maar sneller te zijn zijn wel even 2 verschillende dingen. De Det 50.x doen dit allemaal:-GF-Annihilator schreef op 13 september 2003 @ 22:55:
Dat zijn beta drivers allemaal ! Normaal dat ze daarin dingen uitproberen of mispeuteren, ik vind dat men pas recht heeft tot spreken als men in de officiële drivers het verschil kan zien.
Trouwens kom ik net van een ati en merkte ik ook al een aantal zaken die de ati niet goed renderde in games , daarom ga ik ati toch ook niet direct beschuldigen van cheats.
Bij die oude drivers waar nvidia cheats zou hebben ingestoken voor 3Dmark2003, zag je toch ook geen verschil in output ? Waarom zou nvidia dan nu verkondigd hebben dat ze geen dingen meer zullen inbouwen die het resultaat gaan beinvloeden, dus dat je het kan zien ? Als je die lights wegneemt bij aquanox , dat ziet toch iedereen?
* Camera path-specific occlusion culling
* Visual quality tradeoffs (e.g. lowered filtering quality, disabling fog)
* Screen-grab specific image rendering
* Lower rendering precision
* Algorithmic detection and replacement
* Scene-specific handling of z writes
* Benchmark-specific drivers that never ship
* App-specific and version specific optimizations that are very fragile
Beta's of niet, dit zijn geen legitieme optimalisaties... dit is gewoon de boel belazeren! Als je dergelijke feiten zonder pardon van tafel veegt dan ben je niets anders dan een fanboy.
Als je nu nog blijft geloven dat nVidia niet cheat.. nou sorry, maar dan heb je gewoon een grote plaat voor je hoofd. Niemand is hierbij gebaat, als consument wordt gewoon genaaid door nVidia op dit moment.Dus wat denk je ? Is het een cheat, is nvidia zo stom ? Of loopt iedereen mee met de anti nvidia menigte zonder nadenken ?
Ik zou me in ieder geval flink genaaid voelen als ik een FX5900 Ultra van 450 Euro had gekocht. Hij kan niet eens fatsoenlijk meekomen met een 9600 Pro van 150 Euro in native DirectX 9.0 / PS 2.0 games / applicaties.
De game industrie is hier ook niet echt blij mee. Het kost ze veel meer tijd om games aan te passen met speciale Cg renderpaths om ze ook enigzins goed te kunnen laten draaien op de nv3x architectuur. Hierdoor wordt de ontwikkeling veel duurder, de ontwikkeltijd wordt veel langer en games worden hierdoor ook veel later dan geplanned gereleased. Daarbij zit de game industrie er echt niet op te wachten om weer een nieuwe taal (Cg) te leren; ze coden liever op één standaard API zodat het gewoon op alle hardware werkt. De tijd van Glide hebben we wel gehad
Feit is dat het PS 2.0 gedeelte van de nv3x gewoon brak is en dat nVidia er momenteel van alles aan doet om dit te verbergen d.m.v. cheats en speciale Cg extensies/code-paths i.p.v. de gewoon de standaard OpenGL en DirectX API's te gebruiken. Geen driver die dit, nu wel gebleken geflopte nv3x hardware design, gaat oplossen...
Ik hoop i.i.g. dat nVidia het met de nv40 een stuk beter aanpakt en dat dit soort cheat praktijken niet meer nodig zijn. Daar zijn we uiteindelijk allemaal beter bij gebaat.
Zoals?joostve schreef op 14 September 2003 @ 11:16:
het nadeel van ati is dat veel spellen gewoon en aparte ati patch nodig hebben om het normaal zonder texture fouten te kunnen draaien
Morrowind loopt bij mij prima en zonder renderrfouten (voor zover mogelijk is met Morrowindzoals in Morrowind laat de ati 9800 pro schaduwen door huizen heen zienen er zijn nog zat andere spellen die problemen hebben
dat beloofd nog wat voor toekomstige spellen
Verwijderd
Dus... niet meer testen op een microsoft platform dan........Een bedrijf hoort geen 'beta'-drivers met 'uitprobeersels' en 'fouten' rond te sturen en aan te dringen dat men dit gebruikt voor benchmarks. Dat is gewoon heel onprofessioneel. Zorg dan dat je eerst al die bugs/errors/glitches er uit hebt gehaald. Daar voorkom je veel gezeik mee achteraf.
Wel binnen 3 dagen komt aquamark uit. Op dat ogenblik zal ik hier zelf even aan het testen gaan met verschillende drivers en screenshots nemen van aquamark en 3Dmark2003 en Gunmetal. Allemaal zaken die direct9 features hebben. We zullen hier eens ZIEN of mij iemand al deze aantijgingen tegen nvidia zal kunnen bevestigen dan. Nu is het nutteloos hierover te discussiëren blijkbaar. Tevens mag nvidia doen wat ze willen van mij , zolang het maar geen verschil in output geeft. En zaken zoals fog niet renderen in HL2 zijn absoluut voorbarig , ten eersten is HL2 nog niet uit. En ten tweede fog niet renderen in HL kan geen cheat zijn, die fog wordt gebruikt om de te renderen scene af te werken in de verte, omdat je anders de level-opbouw ziet. Zoiets valt dan pas echt op, ik zie ze zoiets niet met opzet doen.warp schreef op 14 September 2003 @ 11:31:
[...]
Iets niet goed renderen (meestal game- en/of driverbugs) en zaken kompleet weglaten, komplete shaders vervangen en alles naar lager detail forceren om maar sneller te zijn zijn wel even 2 verschillende dingen. De Det 50.x doen dit allemaal:
* Camera path-specific occlusion culling
* Visual quality tradeoffs (e.g. lowered filtering quality, disabling fog)
* Screen-grab specific image rendering
* Lower rendering precision
* Algorithmic detection and replacement
* Scene-specific handling of z writes
* Benchmark-specific drivers that never ship
* App-specific and version specific optimizations that are very fragile
Beta's of niet, dit zijn geen legitieme optimalisaties... dit is gewoon de boel belazeren! Als je dergelijke feiten zonder pardon van tafel veegt dan ben je niets anders dan een fanboy.
[...]
Als je nu nog blijft geloven dat nVidia niet cheat.. nou sorry, maar dan heb je gewoon een grote plaat voor je hoofd. Niemand is hierbij gebaat, als consument wordt gewoon genaaid door nVidia op dit moment.
Ik zou me in ieder geval flink genaaid voelen als ik een FX5900 Ultra van 450 Euro had gekocht. Hij kan niet eens fatsoenlijk meekomen met een 9600 Pro van 150 Euro in native DirectX 9.0 / PS 2.0 games / applicaties.
De game industrie is hier ook niet echt blij mee. Het kost ze veel meer tijd om games aan te passen met speciale Cg renderpaths om ze ook enigzins goed te kunnen laten draaien op de nv3x architectuur. Hierdoor wordt de ontwikkeling veel duurder, de ontwikkeltijd wordt veel langer en games worden hierdoor ook veel later dan geplanned gereleased. Daarbij zit de game industrie er echt niet op te wachten om weer een nieuwe taal (Cg) te leren; ze coden liever op één standaard API zodat het gewoon op alle hardware werkt. De tijd van Glide hebben we wel gehad
Feit is dat het PS 2.0 gedeelte van de nv3x gewoon brak is en dat nVidia er momenteel van alles aan doet om dit te verbergen d.m.v. cheats en speciale Cg extensies/code-paths i.p.v. de gewoon de standaard OpenGL en DirectX API's te gebruiken. Geen driver die dit, nu wel gebleken geflopte nv3x hardware design, gaat oplossen...
Ik hoop i.i.g. dat nVidia het met de nv40 een stuk beter aanpakt en dat dit soort cheat praktijken niet meer nodig zijn. Daar zijn we uiteindelijk allemaal beter bij gebaat.
En dan nog iets, die NV30/NV35 heeft een hogere interne precisie dan die ati9800, het probleem is dat niemand er nu gebruik van maakt en dus nvidia moet terugschakelen naar een nog lagere precisie dan de 9800, omdat ze maar 2 modi hebben voorzien. ALS dit zou benut worden, veegt die fx de 9800 zo van tafel.
De reden waarom niemand mee in die boot is gesprongen van 64bits rendering zal voor iedereen een raadsel blijven maar volgens mij weet Microsoft hier alles van. Nu hoor je geen haan meer opscheppen over 64bits rendering, en zeker niet ati. In den beginne hadden ze een Ferrari-demo die het verschil liet zien tussen 32 en 64bits kleuren. Nvidia is in 64bit ongetwijfeld sneller maar geen kat wil het nu gebruiken. Dus op dit moment heeft nvidia de verkeerde keuzes van ontwerp blijkt , maar niet geheel door eigen schuld lijkt mij. Mochten de kaarten gelegd zijn met 64 bit benchmarks, dan hadden we andere plaatjes gezien denk ik.
Dat maakt dus helemaal niet uit. De NV30/NV35 core is gewoon niet sterk genoeg om alles op 32-bit FP uit te voeren. Kijk naar een Tombraider AoD, die een speciaal Cg-path heeft, maar die dus absoluut weinig effect heeft op de resultaten in de tests. Of bv het feit dat Dawn sneller, beter en mooier draait op een Radeon dan op NV30, terwijl nVidia constant verkondigde dat Dawn een "NV30"-only demo was...-GF-Annihilator schreef op 14 September 2003 @ 13:21:
[...]
En dan nog iets, die NV30/NV35 heeft een hogere interne precisie dan die ati9800, het probleem is dat niemand er nu gebruik van maakt en dus nvidia moet terugschakelen naar een nog lagere precisie dan de 9800, omdat ze maar 2 modi hebben voorzien. ALS dit zou benut worden, veegt die fx de 9800 zo van tafel.
Zelfs gamedevelopers als Gabe Newell en John Carmack hebben aangegeven dat ze op een lagere precisie werken op NV kaarten, omdat NV30 en NV35 gewoon te traag zijn op 32 FP. Als 32FP goed zou werken EN sneller zou zijn dan 24FP of 16FP dan had iemand als John Carmack dat echt wel benut, want die willen nou eenmaal het beste voor hun games.
nV wilde gaan voor een hogere precisie, wat op zich een heel nobel streven is, omdat de beeldkwaliteit theoretisch gezien beter zou moeten zijn. Maar als de hardware niet krachtig genoeg is om op die hogere precisie te werken, dan heb je niet zo veel aan die hogere precisie.
[ Voor 6% gewijzigd door CJ op 14-09-2003 13:43 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Onjuist: de game-developers volgen nVidia niet-GF-Annihilator schreef op 14 September 2003 @ 13:21:
Een verhaal
Juist: nVidia heeft zich niet aan de DirectX9-vereisten gehouden.
Zit jij mee in de marketingmachine van nVidia of zo?
Jouw verhaal klinkt mooi maar klopt niet, eerst goed lezen dan pas mij verwijten een nvidia fanboy te zijn. ( ik zeg dit laatste niet tegen jou )CJ schreef op 14 September 2003 @ 13:42:
[...]
Dat maakt dus helemaal niet uit. De NV30/NV35 core is gewoon niet sterk genoeg om alles op 32-bit FP uit te voeren. Kijk naar een Tombraider AoD, die een speciaal Cg-path heeft, maar die dus absoluut weinig effect heeft op de resultaten in de tests. Of bv het feit dat Dawn sneller, beter en mooier draait op een Radeon dan op NV30, terwijl nVidia constant verkondigde dat Dawn een "NV30"-only demo was...
Zelfs gamedevelopers als Gabe Newell en John Carmack hebben aangegeven dat ze op een lagere precisie werken op NV kaarten, omdat NV30 en NV35 gewoon te traag zijn op 32 FP. Als 32FP goed zou werken EN sneller zou zijn dan 24FP of 16FP dan had iemand als John Carmack dat echt wel benut, want die willen nou eenmaal het beste voor hun games.
nV wilde gaan voor een hogere precisie, wat op zich een heel nobel streven is, omdat de beeldkwaliteit theoretisch gezien beter zou moeten zijn. Maar als de hardware niet krachtig genoeg is om op die hogere precisie te werken, dan heb je niet zo veel aan die hogere precisie.
Maar feit is dus dat de radeon geen 32 bit rendert maar 24, dus enig referentiepunt tussen die 2 kaarten is 16, want de nv30,nv35 heeft enkel 16 en 32, geen 24.Originally posted by John Carmack at slashdot
DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit.
En nu gaat men nvidia verwijten slechts 16 bits te renderen omdat ze in 32 niet snel genoeg zouden zijn



Laat ik het juist formuleren dan , de ati kan geen 32 bit de nv35 wel, maar omdat het tegenwoordig in is nvidia zwart te maken, geen ze dus maar testen op 16 bit met de nvida kaarten en ze nog verwijten slechts 16's aan te kunnen.
Yeah Right !

Ja dat komt omdat 24 bits de minimum van dx9 is, bovendien schijnt in de huidige shadertechniek erg nog geen verschil te zijn IQ tussen 24 en 32, maar wel tussen 16 en 24.-GF-Annihilator schreef op 14 September 2003 @ 14:40:
[...]
Jouw verhaal klinkt mooi maar klopt niet, eerst goed lezen dan pas mij verwijten een nvidia fanboy te zijn. ( ik zeg dit laatste niet tegen jou )
[...]
Maar feit is dus dat de radeon geen 32 bit rendert maar 24, dus enig referentiepunt tussen die 2 kaarten is 16, want de nv30,nv35 heeft enkel 16 en 32, geen 24.
En nu gaat men nvidia verwijten slechts 16 bits te renderen omdat ze in 32 niet snel genoeg zouden zijn![]()
![]()
![]()
Laat ik het juist formuleren dan , de ati kan geen 32 bit de nv35 wel, maar omdat het tegenwoordig in is nvidia zwart te maken, geen ze dus maar testen op 16 bit met de nvida kaarten en ze nog verwijten slechts 16's aan te kunnen.
Yeah Right !
Niet op voorraad.
[ Voor 21% gewijzigd door MPAnnihilator op 14-09-2003 15:13 ]
Antwoord van John Carmack op 5 September 2003 op www.gamersdepot.com op de vraag wat zijn ervaringen zijn met shaders op NV hardware en of ze inderdaad traag zijn:-GF-Annihilator schreef op 14 september 2003 @ 14:40:
[...]
En nu gaat men nvidia verwijten slechts 16 bits te renderen omdat ze in 32 niet snel genoeg zouden zijn![]()
![]()
"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."
John Carmack
Ik kan hier niets anders van maken dan dat NV-hardware te traag is om alles op 32-bit te doen, en dus ze een speciaal path maken die gebruik maakt van 16 FP of 12 FX. Of zie ik dit nou verkeerd?
Niemand verwijt nV dat ze 'slechts' 16 bit aan kunnen. Het enige verwijt dat wordt gemaakt is dat 32 FP een nobel streven is, maar dat ze niet in staat zijn om de hardware zo te maken dat-ie ook daadwerkelijk op volle snelheid 32 FP aan kan.Laat ik het juist formuleren dan , de ati kan geen 32 bit de nv35 wel, maar omdat het tegenwoordig in is nvidia zwart te maken, geen ze dus maar testen op 16 bit met de nvida kaarten en ze nog verwijten slechts 16's aan te kunnen.
Yeah Right !
Dat ATi geen 32-bit zou ondersteunen is een misvatting. Alleen een gedeelte werkt op 24-bit. ATi ondersteunt een mengeling van 32 bit en 24 bit floatingpoint precisie in the pixelpipeline. Verder kan ATi ook nog terug vallen op 16-bit FX (tegen 12 FX voor de FX). Vertex shaders zijn bijvoorbeeld altijd 32-bit FP. Interne texture address zaken gebruiken ook 32-bit Single Precision FP. Maar de core pixelshader operations gebruiken 24-bit FP.
Vb. Als er een 128bit FP (4x32 bit SPFP) per texel texture wordt ingelezen, dan wordt het intern omgerekend naar 96-bit FP (4x24 bit). Maar als het er weer it komt, dan komt het er weer uit als een 128b zonder precisie verlies.
Lees dit artikel eens door over de werking van NV30 vs R300: http://www.beyond3d.com/articles/nv30r300
Overigens zou NV30/NV35 volgens NV een 'slimmer' design moeten zijn dan R300/R350 wanneer het gebruik maakt van FP16... ooit werd er door hun gezegd dat het dubbel zo snel was.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bekijk deze Aquamark preview op DriverHeaven maar even dan: http://www.driverheaven.net/articles/aquamark3/index.htm-GF-Annihilator schreef op 14 September 2003 @ 13:21:
Wel binnen 3 dagen komt aquamark uit. Op dat ogenblik zal ik hier zelf even aan het testen gaan met verschillende drivers en screenshots nemen van aquamark en 3Dmark2003 en Gunmetal. Allemaal zaken die direct9 features hebben. We zullen hier eens ZIEN of mij iemand al deze aantijgingen tegen nvidia zal kunnen bevestigen dan. Nu is het nutteloos hierover te discussiëren blijkbaar.

Als zelfs DriverHeaven (een toch wel een redelijke pro-nVidia site) al geen nVidia kaarten meer aan wil raden...Now, im sure most of you have read Gabes recent comments regarding the detonator 51.75s, and Nvidia's offical response but I really do have to say, having seen this first hand it confirms to both myself and Veridian that the new detonators are far from a high quality IQ set. Alot of negative publicity is currently surrounding Nvidia, and here at driverheaven we like to remain as impartial and open minded as we possibly can, but after reading all the articles recently such as here coming from good sources and experiencing this ourselves first hand, I can no longer recommend an nvidia card to anyone. Ill be speaking with nvidia about this over the coming days and if I can make anything public I will.
Sorry voor de fucked up layout, plaatje is een beetje erg breed
[ Voor 4% gewijzigd door warp op 14-09-2003 16:30 ]
http://www.3dgpu.com/modu...e.php?articleid=74&page=0The Detonator 51.75 drivers loses even more details over the 45.33 drivers. Especially note how the green on the foreground landrover is darker than the other two shots. Now, these drivers are beta, and not available to the public, so let's hope by the time they're released, the lowered image quality won't be in them. Because frankly, I'm just shocked how much better the Radeon 9800 Pro looks over the new Detonator 50 drivers on a GeForce FX 5600 Ultra, and any self-respecting gamer will choose the image quality on the Radeon 9800 Pro anyday. The amount of visual quality loss is not worth the, on average, 2-3fps that are shown to have been gained with these drivers in AquaMark 3.
Vergeleken met een Radeon is een FX een luxe alleskunner, die jaren vooruitloopt. De Radeon is net heel specifiek, die kan maar 1 ding.
Maar al die extra mogelijkheden hebben ook hun prijs: het kost transistoren. Heel veel transistoren. Dus terwijl ATI gewoon 8 simpele maar heel doeltreffende pijplijnen naast elkaar heeft gezet, heeft nVidia 4 pijplijnen gekombineerd tot een enkele eenheid om de hoeveelheid transistors nog een beetje binnen de perken te houden.
Een NV3x is dus een hele luxe kaart, met heel veel mogelijkheden, zeg maar een Renault Espace. En een R(V)3x0 is heel kaal en snel, zeg maar een Ferrari. Op de snelweg (DX8) doen ze het allebei prima, maar op het circuit (DX9) ziet dat er toch anders uit.
En dat is eigenlijk heel apart, want het maakt de Radeons ook veel interessanter voor renderfarms, omdat de kaarten ook heel envoudig parallel te zetten zijn. Maar daar staat tegenover, dat een FX al klaar is voor de opvolger van DX9. Hij kan dus waarschijnlijk de volgende standaard ook al aan.
Waar je dit hele verhaal vandaan haalt weet ik niet.ook niet waarop je het basseert.DiGuru schreef op 14 September 2003 @ 16:38:
Een NV3x kan veel meer dan een R(V)3x0. Meer instructies, meer mogelijkheden, meer 'modes'. Hij kan dus ook dingen uitrekenen en verwerken die een R(V)3x0 niet kan. En hij lijkt ook meer bedoeld voor gebruik op renderfarms dan om spelletjes mee te spelen.
Vergeleken met een Radeon is een FX een luxe alleskunner, die jaren vooruitloopt. De Radeon is net heel specifiek, die kan maar 1 ding.
Maar al die extra mogelijkheden hebben ook hun prijs: het kost transistoren. Heel veel transistoren. Dus terwijl ATI gewoon 8 simpele maar heel doeltreffende pijplijnen naast elkaar heeft gezet, heeft nVidia 4 pijplijnen gekombineerd tot een enkele eenheid om de hoeveelheid transistors nog een beetje binnen de perken te houden.
Een NV3x is dus een hele luxe kaart, met heel veel mogelijkheden, zeg maar een Renault Espace. En een R(V)3x0 is heel kaal en snel, zeg maar een Ferrari. Op de snelweg (DX8) doen ze het allebei prima, maar op het circuit (DX9) ziet dat er toch anders uit.
En dat is eigenlijk heel apart, want het maakt de Radeons ook veel interessanter voor renderfarms, omdat de kaarten ook heel envoudig parallel te zetten zijn. Maar daar staat tegenover, dat een FX al klaar is voor de opvolger van DX9. Hij kan dus waarschijnlijk de volgende standaard ook al aan.
Omdat Nvidia dit zegt?ze zeggen wel meer de laatste tijd...................
met name door de PR-afdeling.
Nvidia heeft gewoon gefaald(2x) : 1x met de fx5800 en nu weer met de 5900
Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)
Sorry hoor, maar wat een ongelofelijk "uit de duim" verhaal. Heb je dat helemaal zelf verzonnen of heb je e.o.a. marketingfoldertje van nVidia overgetypt?DiGuru schreef op 14 September 2003 @ 16:38:
--geblaat--in--de--ruimte--
Hij kan dus waarschijnlijk de volgende standaard ook al aan.
FYI... de FX kan DirectX 9.0 al niet eens fatsoenlijk aan, laat staan DirectX10 en hoger. De bewijzen hiervan vliegen nu toch echt wel om je oren... en wat schiet je er nu mee op om jezelf voor de gek te gaan lopen!?
Ik heb toch ook niet gezegd dat hij dat snel zou kunnen? Alleen dat hij het heel waarschijnlijk kan. Of hij dan meer dan een paar FPS haalt, dat heb ik niet gezegd.warp schreef op 14 september 2003 @ 16:51:
[...]
Sorry hoor, maar wat een ongelofelijk "uit de duim" verhaal. Heb je dat helemaal zelf verzonnen of heb je e.o.a. marketingfoldertje van nVidia overgetypt?
FYI... de FX kan DirectX 9.0 al niet eens fatsoenlijk aan, laat staan DirectX10 en hoger. De bewijzen hiervan vliegen nu toch echt wel om je oren... en wat schiet je er nu mee op om jezelf voor de gek te gaan lopen!?
Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)
If we compare NV30 to its competitor from ATi on a per-clock basis, the NV30 receives a thorough beating from R300. ATi comes ahead with 8 texture ops and 8 arithmetic ops in parallel. The higher core clock improves the situation a bit for NV30, but it still only does 2600 MTO/s + 700 MAO/s or 2000 MTO/s + 1000 MAO/s.
The Shader Core allows to exchange texture ops for arithmetic ops in a 2:1 relation (see graph below). The R300 as R9700Pro reaches 2600 MTO/s + 2600 MAO/s without this balancing option. nVidia can only dare to dream of this raw performance, or try to overclock an NV30 to 1 GHz. Not only the award for best performance per clock, but also the one for best overall raw performance goes to R300 from ATi.
Those CineFX II changes naturally have an influence on raw performance and dependencies. The additional FPU increases the maximum number of instructions performed to either 8 texture instructions and four arithmetic instructions, or 8 arithmetic instructions. This is still below R350 which can do 8 texture and 8 arithmetic instructions, just like its predecessor R300.
Let's compare those chips: nVidia lowered the core clock in NV35, while ATi raised the clock of R350 compared to R300. R350 reaches 3040 MTO/s + 3040 MAO/s = 6080 MI/s. NV35 can do either a maximum of 3600 MTO/s + 1800 MAO/s = 5400 MI/s or a minimum of 0 MTO/s + 3600 MAO/s = 3600 MI/s. The clock rate increase saves ATi the prize of best raw performance. If nVidia didn't lower the core clock, ATi would have scored a very close victory, leading by only 1,3%. But with NV35's actual clock rates, it's a respectable 12,6% lead for ATi.
Of dat het gevolg is van de keuze voor een luxe coupé 850E of een strakgeveerde F50 weet ik niet
Ik weet wel dat de R3xx tot veel meer in staat is dan in 1e instantie werd gedacht door veel reviewers, echte displacements bv.
En het schijnt dat ook de R9800 ps3 ready is las ik ergens op b3d.
[ Voor 7% gewijzigd door edward2 op 14-09-2003 17:02 ]
Niet op voorraad.
Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)
Feit: De FX kaarten voldoen niet aan de DirectX9.0/OpenGL 2.0 specs, laat staan hoger.DiGuru schreef op 14 September 2003 @ 16:55:
Ik heb toch ook niet gezegd dat hij dat snel zou kunnen? Alleen dat hij het heel waarschijnlijk kan. Of hij dan meer dan een paar FPS haalt, dat heb ik niet gezegd.
Feit: De FX kaarten voldoen alleen maar aan nVidia's eigen Cg specs; developers moeten niet voor niets de custom nv3x renderpaths gebruiken (i.e. Cg) om ze een beetje te laten presteren. En dat hele renderfarm verhaal van je is gewoon puur fanboy geblaat.
Hou je liever bij de feiten, daar zijn we allemaal meer bij gebaat.DiGuru schreef op 14 September 2003 @ 16:59:
Nou, ik heb een hele berg info uit zitten spitten om er achter te komen wat er nu precies aan de hand is en hoe die videochips nou eigenlijk in elkaar zitten. Dit was mijn conclusie.
Ging mij er vooral om dat ik het belachelijk vind dat een kaart van 2 1/2 oud een nieuwe kaart kan bij houden ook al is die kaart een budget kaartCarel schreef op 13 September 2003 @ 19:01:
[...]
Das niet waar, een fx 5200@280/485 vs een gf3@240/512 halen dezelfde score in 3dm2001 met een 3,3 ghz p4. IK zie dat de FX met wat simplere dingen het iets beter doet zoals de maxfpx van die autorace etc, de gf3 is weer net iets beter in nature.
Voor de rest van alle games is het ongeveer hetzelfde ook.
Dat heb ik ook gedaan. Ik wil het best heel uitgebreid allemaal uitleggen en overal linkjes bijleveren. En je kunt het natuurlijk zelf ook natrekken.warp schreef op 14 september 2003 @ 17:05:
[...]
Hou je liever bij de feiten, daar zijn we allemaal meer bij gebaat.
Yep,....en dat is zeer jammer...een beetje zoals het Voodoo tijdperk ( maar toen maakte game programmers met plezier Voodoo ondersteuning )warp schreef op 14 September 2003 @ 17:04:
[...]
Feit: De FX kaarten voldoen niet aan de DirectX9.0/OpenGL 2.0 specs, laat staan hoger.
Feit: De FX kaarten voldoen alleen maar aan nVidia's eigen Cg specs; developers moeten niet voor niets de custom nv3x renderpaths gebruiken (i.e. Cg) om ze een beetje te laten presteren. En dat hele renderfarm verhaal van je is gewoon puur fanboy geblaat.
There is no place like ::1
En de lange instructielengte, zeer uitgebreide instructieset en de Cg taal van een FX zijn duidelijk bedoeld om vooral op de markt van renderfarms punten te scoren. Dat is ook altijd het streven van hun topman geweest.
Komt omdat ps3 geen andere hardware eisen stelt. Alle DX9 kaarten moeten ermee overweg kunnen.edward2 schreef op 14 September 2003 @ 17:00:
En het schijnt dat ook de R9800 ps3 ready is las ik ergens op b3d.
[ Voor 5% gewijzigd door XWB op 14-09-2003 17:30 ]
Klopt. Ik meen op Beyond3D gelezen te hebben dat nVidia daarom ook hun kaarten nooit 'DX9 compliant', maar juist 'DX9 compatible' noemt.warp schreef op 14 September 2003 @ 17:04:
[...]
Feit: De FX kaarten voldoen niet aan de DirectX9.0/OpenGL 2.0 specs, laat staan hoger.
NV30 en NV35 ondersteunen enkele elementen van DX9(a) niet, die wel ondersteunt worden door R350 zoals:
- Multiple Render Targets
- Floating Point Volumetric Textures
- Floating Point Cube Maps
- Multiple Element Textures
Dit zijn allemaal dingen die je moet kunnen als je aan de DX9 compliancy wilt voldoen. MET, FPVT en FPCM zou de NV3x hardware wel moeten kunnen, maar is volgens nVidia uitgeschakeld in de drivers. MRT wordt echter helemaal niet ondersteunt, terwijl dit ook een vereiste is om als DX9 compliant kaart te mogen aangemerkt. En voldoe je niet aan de vereiste, dan ben je simpelweg geen DX9 compliant kaart.
De uitspraak van DiGuru dat het waarschijnlijk ook al de volgende standaard aan kan, klopt dus niet. Je kan moeilijk een volgende standaard ondersteunen als je bepaalde elementen van de huidige standaard mist, ook al heb je bv PS2.0+ en VS2.0+.
Ik denk dat NV40 wel orde op zaken gaat stellen. Als dit een compleet nieuwe architectuur is, dan hebben ze als het goed is ook de kans gehad om te leren van hun fouten. Het zou me dan ook niets verbazen als NV40 een flink stuk sneller zal worden dan NV35.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
nVidia heeft verteld, dat een FX dat wel kan, maar dat bij de huidige tests de chip nog crashed. Van ATI weet ik alleen dat ze dat graag willen implementeren, niet wat de status is.
Hou nu toch eens op met al die onzin man.DiGuru schreef op 14 September 2003 @ 17:25:
En de lange instructielengte, zeer uitgebreide instructieset en de Cg taal van een FX zijn duidelijk bedoeld om vooral op de markt van renderfarms punten te scoren. Dat is ook altijd het streven van hun topman geweest.
Professionele raytracers, 3D modellers etc, etc. gebruiken al sinds jaar en dag OpenGL.
Die lui zitten echt niet op dat Cg gebeuren van nVidia te wachten.
Weet je uberhaubt wel wat een renderfarm is? Een renderfarm is niets anders dan een stel CPU's. Het eindproduct wordt nog altijd gerenderd door een berg CPU's, niet door een berg GPU's. Sterker nog, in een renderfarm is vaak geen GPU te bekennen. GPU's zijn leuk voor realtime 3D weergave in je modeller enz, maar niet om het eindproduct te renderen.
Kijk hier maar eens b.v. :
http://www.intel.com/pres...leases/20030210comp_a.htm
http://www.marc-schaffer.com/projects/BCR/BCR.html
http://www.therenderfarm.com/
nVidia heeft bijvoorbeeld SIN en COS functies, ATI niet. Maar dat betekent dus niet dat een Radeon geen sinus en cosinus uit kan rekenen, je moet het gewoon zelf programmeren.
En een FX wijkt gewoon flink af van de specificaties, maar dat wil niet zeggen dat hij al die dingen niet kan. Die kan hij wel. Je moet gewoon meer programmeren dan bij een Radeon. En het helpt ook niet mee, dat hij maar half zoveel shaders heeft.
Volgens de officiele specificaties kan dat dus wel: ps_2_xDiGuru schreef op 14 September 2003 @ 17:34:
Het belangrijkste verschil tussen PS2 en PS3 is dat die laatste IF..THEN kan doen en de eerste niet. In de officiele specificaties kunnen beide kaarten dat niet. Dat was ook de reden om voor DX9 nog PS2 te gebruiken, want PS3 geeft veel meer mogelijkheden om sneller een nog mooier beeld te renderen.
nVidia heeft verteld, dat een FX dat wel kan, maar dat bij de huidige tests de chip nog crashed. Van ATI weet ik alleen dat ze dat graag willen implementeren, niet wat de status is.
De Radeon en de GeForce FX ondersteunen het.
Van MSDN:
...
Version 2_0 Extended
New static flow control instructions (with a cap set): call, callnz, else, end, endif, endloop, endrep, if, label, loop, rep, ret
...
Lees jij eerst maar eens de links die ik je heb gegeven.DiGuru schreef op 14 September 2003 @ 17:46:
warp, kijk hier eens naar:
http://www.tech-report.co...nextgen-gpus/index.x?pg=1
Eerst zeg je dat ATI dingen niet heeft, maar dat je voor een GeForce FX meer moet programmerenDiGuru schreef op 14 September 2003 @ 17:43:
Het grootste verschil tussen DirectX9, OpenGL 2 en al hun voorgangers, is dat nu de vaststaande renderpijplijn vervangen is door programmeerbare blokjes. En dat betekent dus ook, dat je dingen die niet direkt in het ontwerp zitten kunt programmeren.
nVidia heeft bijvoorbeeld SIN en COS functies, ATI niet. Maar dat betekent dus niet dat een Radeon geen sinus en cosinus uit kan rekenen, je moet het gewoon zelf programmeren.
En een FX wijkt gewoon flink af van de specificaties, maar dat wil niet zeggen dat hij al die dingen niet kan. Die kan hij wel. Je moet gewoon meer programmeren dan bij een Radeon. En het helpt ook niet mee, dat hij maar half zoveel shaders heeft.
Ten tweede je hoeft het zelf niet te programmeren, sin en cos zijn gewoon functies die je aanroept, de driver en de videokaart handelen die dan af.
Ten derde alles is mogelijk, je kan zelfs shaden met een CPU(hoewel dan alles door de cpu behandeld moet worden ), maar het moet wel vlot gaan.
En de officiele specificaties van Microsoft voor DX9 wijken af van de specificaties van beide chips, alhoewel de verschillen met de Radeon minimaal zijn.
Tuurlijk, en wat is dit b.v. dan?DiGuru schreef op 14 September 2003 @ 17:43:
nVidia heeft bijvoorbeeld SIN en COS functies, ATI niet. Maar dat betekent dus niet dat een Radeon geen sinus en cosinus uit kan rekenen, je moet het gewoon zelf programmeren.
DirectX9.0 Rotation
--------------------------------------------------------------------------------
The transformations described here are for left-handed coordinate systems, and so may be different from transformation matrices that you have seen elsewhere. For more information, see 3-D Coordinate Systems.
The following transformation rotates the point (x, y, z) around the x-axis, producing a new point (x', y', z').

The following transformation rotates the point around the y-axis.

The following transformation rotates the point around the z-axis.

In these example matrices, the Greek letter theta (?) stands for the angle of rotation, in radians. Angles are measured clockwise when looking along the rotation axis toward the origin.
In a C++ application, use the D3DXMatrixRotationX, D3DXMatrixRotationY, and D3DXMatrixRotationZ functions supplied by the Direct3D extensions (D3DX) utility library to create rotation matrices. The following is the code for the D3DXMatrixRotationX function.
http://msdn.microsoft.com...rms/matrices/rotation.asp
EDIT: Je moet dus een programma uploaden naar de shader om die iets te laten doen. En zolang je je precies aan de standaard houd, doen DX9/OGL2 en de drivers dat voor je.
[ Voor 36% gewijzigd door DiGuru op 14-09-2003 20:11 ]
k, je hebt gelijk maarja laten we een verder kijken:DiGuru schreef op 14 september 2003 @ 17:58:
Static flow control is geen IF..THEN, dat zijn loops en jumps. Dynamic flow control gebruikt conditionals. De vertex shaders van beide kunnen dat, de pixel shaders officieel niet.
En de officiele specificaties van Microsoft voor DX9 wijken af van de specificaties van beide chips, alhoewel de verschillen met de Radeon minimaal zijn.
http://msdn.microsoft.com...ifferences.asp?frame=true
...
Version 2_0 Extended
...
Dynamic flow control instructions: break, breakc, ifc
...
En wat veranderd dat gegeven aan alle FUD die je al in dit topic hebt gepost?DiGuru schreef op 14 September 2003 @ 18:03:
warp, het verschil tussen de huidige GPU's en de voorgaande generaties, is dus net dat de huidige *programmeerbaar* zijn. Ze zijn nog het beste te vergelijken met een 3-stage DSP.
En voor ATI en voor VIA/S3, ze ondersteunen allemaal ps_2_x.DiGuru schreef op 14 September 2003 @ 18:14:
Version 2_0 Extended is de ondersteuning voor de FX. En volgens nVidia zelf crashed een FX als je dynamic flow control probeert te gebruiken.
Dit snap ik niet? Als je je niet aan de standaard houd doet ie niets, dat lijkt mij tenminste logisch.Je moet dus een programma downloaden naar de shader om die iets te laten doen. En zolang je je precies aan de standaard houd, doen DX9/OGL2 en de drivers dat voor je.
In plaats van een pijplijn met vaststaande functies (die dus alleen dingen kunnen doen die al er ingebakken zitten), zijn de huidige pijplijnen opgebouwd uit SIMD DSP processors die je een programma moet voeren, waarna ze een functie kunnen uitvoeren. Het programma bepaald dus de functie, niet de hardware.warp schreef op 14 September 2003 @ 18:22:
[...]
En wat veranderd dat gegeven aan alle FUD die je al in dit topic hebt gepost?
Je kunt zo'n processortje (een shader) dus iedere willekeurige functie uit laten voeren zolang het programma dat je daarvoor gebruikt er in past.
Het verschil is vooral, dat een R(V)3x0 op hardwareniveau de meeste DX9/OGL2 instructies rechtstreeks uit kan voeren en een FX niet.
Voor een FX heb je dus een DX9/OGL2 emulator nodig die het vertaald naar Cg. En dat is traag. Net zoals een PS2 (PlayStation2) emulator voor een PC. Maar hij ondersteunt hele lange programma's, dus je kunt bijna iedere willekeurige functie programmeren.
Dit kan je niet menen. Cg is een hogere taal en het is zinloos om het daarin te vertalen. Aan lange programma's heb je geen hol als het niet snel gebeurt. Ten derde zo'n GeForce FX doet even snel een sinus berekenen als een vermenigvuldiging (niet dat je anders hebt beweerd).Voor een FX heb je dus een DX9/OGL2 emulator nodig die het vertaald naar Cg. En dat is traag. Net zoals een PS2 emulator voor een PC. Maar hij ondersteunt hele lange programma's, dus je kunt bijna iedere willekeurige functie programmeren.
Vraagje... ben je misschien dyslectisch? Of lees je altijd alleen maar wat je wilt lezenDiGuru schreef op 14 September 2003 @ 18:32:
In plaats van een pijplijn met vaststaande functies (die dus alleen dingen kunnen doen die al er ingebakken zitten), zijn de huidige pijplijnen opgebouwd uit SIMD DSP processors die je een programma moet voeren, waarna ze een functie kunnen uitvoeren. Het programma bepaald dus de functie, niet de hardware.
Je kunt zo'n processortje (een shader) dus iedere willekeurige functie uit laten voeren zolang het programma dat je daarvoor gebruikt er in past.
Het verschil is vooral, dat een R(V)3x0 op hardwareniveau de meeste DX9/OGL2 instructies rechtstreeks uit kan voeren en een FX niet.
Voor een FX heb je dus een DX9/OGL2 emulator nodig die het vertaald naar Cg. En dat is traag. Net zoals een PS2 emulator voor een PC. Maar hij ondersteunt hele lange programma's, dus je kunt bijna iedere willekeurige functie programmeren.
Ik vraag aan je wat dit gegeven precies veranderd aan alle onzin die je al eerder in dit topic hebt gepost... en dan kom je wederom met een totaal niet relevant verhaal

Je hebt gelijk. Ik had niet 'Cg' maar 'NV3x assembly' moeten zeggen.SoLeDiOn schreef op 14 September 2003 @ 18:38:
[...]
Dit kan je niet menen. Cg is een hogere taal en het is zinloos om het daarin te vertalen. Aan lange programma's heb je geen hol als het niet snel gebeurt. Ten derde zo'n GeForce FX doet even snel een sinus berekenen als een vermenigvuldiging (niet dat je anders hebt beweerd).
Ja, een sinus en cosinus doet een FX sneller, maar die lange programma's breken hem duidelijk op. En om die lange programma's mogelijk te maken, worden constanten en sommige variabelen in het programmageheugen bewaard, dat naar het videogeheugen wordt geschreven als de programma's te groot worden. Ook niet best voor de snelheid, natuurlijk.
Hoezo onzin? Het is allemaal heel goed onderbouwd. Kun je wat duidelijker aangeven wat je onzin vind? Dan kan ik daar op reageren.warp schreef op 14 September 2003 @ 18:43:
[...]
Vraagje... ben je misschien dyslectisch? Of lees je altijd alleen maar wat je wilt lezen![]()
Ik vraag aan je wat dit gegeven precies veranderd aan alle onzin die je al eerder in dit topic hebt gepost... en dan kom je wederom met een totaal niet relevant verhaal
Klopt 'n hogere taal maar staat dicht bij assembly.SoLeDiOn schreef op 14 september 2003 @ 18:38:
[...]
Dit kan je niet menen. Cg is een hogere taal en het is zinloos om het daarin te vertalen. Aan lange programma's heb je geen hol als het niet snel gebeurt. Ten derde zo'n GeForce FX doet even snel een sinus berekenen als een vermenigvuldiging (niet dat je anders hebt beweerd).
Assambler
voordeel idiaal voor hoog optimized code.
Nadeel kost veel tijd en dus geld tov hogeretalen
Wat voor asm een voor of nadeel is is dat bij Cg juist anders om.
Men neemt die vaak geringe performance hit voor lief ten gunste van 'n handelbaardere ontwikkel omgeving dmv hogere oorde taal zodat de time to market versneld wordt.
JC heeft bijvoorbeeld geen last van een deadline maar de meeste proggers wel dus ASM wordt alleen gebruikt voor time critische optimalisatie wat Vs & PS routines wel verlangen maar is niet de enigste verantwoorde aanpak want daar speeld meer mee dus Cg heeft dus ook een specifiek streepje voor tov ASM.
De vraag is wat voor ASM genereerd Cg Hoe is de optimaliteits graad daarvan.
Men kan Cg en ASM door elkaar gebruiken genereren met Cg en daarnaast waar het kan de genereerde ASM optimaliseren.
D'r zijn dus drie aanpakken die elk hun voor en nadelen hebben.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Scroll maar wat naar boven in dit topic, ik heb genoeg 'onzin' postings van je ge-quote met commentaar erbij. Maar die ontloop je? en je geeft er geen antwoord op...DiGuru schreef op 14 september 2003 @ 18:49:
Hoezo onzin? Het is allemaal heel goed onderbouwd. Kun je wat duidelijker aangeven wat je onzin vind? Dan kan ik daar op reageren.
Goed. Om te beginnen de renderfarm.warp schreef op 14 September 2003 @ 19:18:
[...]
Scroll maar wat naar boven in dit topic, ik heb genoeg 'onzin' postings van je ge-quote met commentaar erbij. Maar die ontloop je? en je geeft er geen antwoord op...
Een renderfarm zoals iedereen die kent is een heleboel computers waarvan de CPU's een beeld renderen. Tot voor kort was dat de enige manier om een heel hoogwaardig beeld consistent te renderen. Een grafische kaart kon dingen maar op 1 manier en met een lage kwaliteit.
Nou is een CPU een general-purpose processor. Hij kan alles, maar hij doet niets heel erg goed. En de huidige GPU's bevatten nu net processortjes die specifiek zijn geoptimaliseerd voor het uitvoeren van grafische berekeningen. Het boeit niet wat dat ding op het scherm zet, je kunt alle resultaten ook terugschrijven naar het hoofdgeheugen.
Een Radeon heeft bijvoorbeeld 8 pijplijnen die heel snel en efficient een grafische berekening uit kunnen voeren. En je kunt ook meerdere kaarten parallel gebruiken, zolang je PCI kaarten gebruikt of moederborden met meerdere AGP sloten.
Je kunt dan dus heel snel belachelijke hoeveelheden matrix transformaties uitvoeren. Om bijvoorbeeld te ray-tracen. Of multi-layer, semi-transparante oppervlaktes te berekenen. Of whatever.
En al die berekeningen leveren uiteindelijk een resultaat op, dat je dan op een scherm zet. Je moet dus nog wel op minstens 1 van die grafische kaarten een monitor aansluiten.
Dit topic is gesloten.