X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
JC is één tech freak en die wilt de coolste en beste game engine maken en neemd daar de tijd voor wat ie ook krijgt zo werkt de markt niet wat JC zegt geld voor de prima donna's in die markt die de tijd krijgen om te optimaliseren d'r zijn meer software huizen die ook voor een heel breed publiek willen proggen die niet de power hebben om 32bit te renderen.-GF-Annihilator schreef op 18 september 2003 @ 16:32:
Voila , eindelijk iemand die snapt wat er is gebeurd. Oorspronkelijk had directx9 32 bit precisie moeten vereisen. ( toen kwam ook Carmack al uit voor deze precisie , is hij steeds al voorstander van geweest. )
JC vs de hele developers busness
Wat JC eist is dat het targed platform voor de massa bestaat uit kaarten die alleen maar 32bit FP gameperformance halen met voldoende FPS?
Maar de massa, dat zijn budged en midrange kaarten dat gaat niet lukken gezien de 5200 en 5600 en 9500 9600 performance. Dat word krap en dan is nVidia keuze door Qualityopties de juiste wat heb je aan 32bit met 10FPS met zeer mooi beeld en je wordt elke keer weggespeeld door die slide show frame rate als je met 16bitFP wel 25 haald en wel kan spelen dus gamen.
32bit is een quality optie voor mensen met poen die een high-end kaart zich kunnen veroorloven zodat die 32bitFP ook speeldbaar zal zijn, de massa moet wat optie op low zetten om voldoende frames te hebben om van het meest belangrijkste te kunnen genieten met hun budged van de gameplay no FPS no game play als je met 32bit naar een slide show kijkt ipv een firstpers.sh. game.
En ja dat verhaal is nogal tegen strijdig nV bied namelijk ook 12 en 16bit aan naast 32bit dus jouw verhaal is kul nVidia technish en marketing denken blijkbaar net zo als ik maar ATI heeft een fix waarde dat is juist minder ze hebben niet die flexibliteit als nVidia maar door hun performance wat nV tech om een of andere reden mist komen ze er nu mee weg.
Leuk samenswerings verhaal maar ja als MS es en keer nV mats dan mag het welZo was het allemaal al geplanned. Nu echter heeft Ati een slimme zet uitgehaald en Microsoft kunnen overtuigen dit te verlagen naar 24 bits precisie. Had dit niet plaatsgevonden, kon Ati het helemaal vergeten, hun r300 ontwerp was eigenlijk al klaargestoomd op 24bits. Had Microsoft de 32 bits precisie aangehouden, zou Ati helemaal geen DirectX 9 compliant kaart hebben gehad. Rond deze tijd lag Microsoft ook zwaar in de knoop met Nvidia over de prijzen van Nvidia componenten in de Xbox. Ati heeft volgens mij gewoon een mega deal met Microsoft gesloten, toen al, betreffende de nex gen chip van hun toekomstige xbox2.
ATI werk gewoon samen en NV doet moeilijk dat heeft namelijk gewoon gevolgen hoe vaak waren er berichten dat nV met een of andere bedrijf problemen had? Nou ene hele hoop, dat heeft gevolgen.
Tja en als er twee ruzie maken dan is nVidia om een of andere redenen niet de schuldige?!!!!!
Tja misschien omdat nV hun visie Cg wilde doordrukken en hun hardware ermee direct mee wilde linken Cg heeft wat weg van Glide puur merk gericht MS wilt een aPI aanbieden voor elk merk.Niemand zal dit kunnen bevestigen, maar het zou wel de perfecte verklaring kunnen zijn voor wat nvidia nu meemaakt. Toen heeft Microsoft voor Ati’s zijde gekozen.
Daarom is Glide nooit de standaard geworden aangezien dit lijd naar monopoly situatie in GPU land. dan is het toch fijn dat er MS DirectX is en OpenGL
Glide is nooit door andere merken gebruikt alleen al door die reden.
Dit is fout 3Dfx heeft verloren door dat ze net als nV30 gewoon te laat en problemen hadden en hun berijf zat niet zo flexible in elkaar om zo'n klap op te vangen 3DFX is puur merk gericht op de high-end gamers markt. ATI nVidia Matrox zijn veel gespreider OEM etc gespreid risico.Indertijd heeft 3Dfx het onderandere verloren van Ati/nvidia omdat ze deels ook vasthielden aan hun 16 bits, pure performance was het belangrijkste voor hen. Nvidia heeft met het ontwerp van de fx series deze fout geen 2 maal willen herhalen en nu gekozen voor 32 bits precisie , kwaliteit ivp snelheid dus. ( 3DFX "overgekocht" weet je wel ). Nu maakte Microsoft dan de destructieve keuze om maar 24 bits precisie te implementeren teneinde Ati niet de grond in te boren met hun splinternieuw ontwerp en maakte toen ook de deal denk ik toen al betreffende Xbox2 met Ati. Wat dus een doorn is in het oog van de fx.
nVidia werd vaak als winnaar geroepen omdat ze in standaart zonder FSAA en aF de beste waren aTI blonk uit in FSAA & AF of beeld kwaliteit. in eht R300 nV30 tijdperk.
Dit kan je vergelijken met 16bit vs 32 bit kleurdiepte.
16bit geeft de hoogste FPS en dat volgen de meeste.
16 bit is meer FPS gericht en geeft in benchmarkt grote fps getalen dat valt de massa het meeste op
dus low resoos en low kleurdiepte lage FP warde en geen FSAA geen FA geven de beste FPS rates en dat valt op.
Nu is 32bit RGBA standaard net zoals 1024x768 als gemiddelde resoo
FSAA en aF zijn nog niet standaart en FP 12 tot 32 al helemaal niet.
in 3dFX hhogtij dagen was 32bit RGBA performance wise nog niet te doen zolang dat duurde bleeft 3DFX op 16bit
De eerste radeon werd gesmoked omdat 32bit performance dicht bij 16bit performance was en nVidia pure 16bit gebruikte en dus aTI versloeg.
16bit performance was toen doorslaggevend.
3DFX heeft lang aan 16bits aangehouden maar hebben in de latere periode omgeslagen naar hoge kwaliteit interne rendering 48bits iig daar wilden ze naartoe en JC happy.
hun 16bit tech was intern 32bit maar het resultaat werd naar 16bit framebuffer gerenderd Dit wilden ze optrekken naar 48bit voor hun 32bit rgba mode
dus dat 3DFX op de fles ging ligt niet aan 16bit maar dat ze te laat waren met hun laaste produkten en het bedrijf door bedrijfs economische redenen dat niet konden trekken en dus op de fles ging.
Nouw de FP16 is een mooie performance trade off optie die nVidia bied maar er speeld meer meeNu wordt het nog erger uitgespeeld in de pers en laat men beinvloedbare gamers blijkbaar makkelijk geloven dat Nvidia slechts op 16 bits precisie werkt “omdat ze niet beter zouden kunnen”. Belachelijk gewoon, gezien je eerst de achtergrond van de ganse zaak moet weten natuurlijk.
nVidia shader performance valt zwaar tegen hierdoor is 32bit niet te doen op nVidia high-end kaarten.
ATI shader performance is met standaart dX9 support al zeer sterk in verhouding in 24bit tov nVidia maar bied niet die gradaties aan.
De kritiek punt hier is dat nVidia kan 16bit FP gebruiken om de gamers te misleiden.
In games kon je als gebruiker bewust voor de kleur diepte van de rendertarget kiezen in games 16bit RGBA of 24bitRGB of 32bit RGBA etc in combi met de resolutie.
Maar het gevaar van die Schader 12 16 (24) 32 is dat dit op de achtergrond gebeurt zonder dat dit kenbaar is aan de gamer.
24bit vs 32bit is oneerlijk maar 12 vs 24 ook om dat te vergelijken.
Vooral als er puur naar FPS wordt gekeken en niet naar beeld qualiteit.
Mocht de beeld Qualiteit in praktijk mevalen dan is het geen misleiding maar dan zou 32bit overkillzijn en dus tegen JV vizie zijn.
Dit probleem heeft en oorzaak door de implementatie keuze van aTI en nVidia en beide zijn ze niet juist aangezien 1 op 1 vergelijken eigenlijk niet kan ATI mist meerdere gradatie en nVidia mist ene mid gradatie.
nVidia fan tja een goed driver team hebben ze zeker toveren kunnen ze niet wel cheaten maar zonder cheaten zijn ze afhankelijk van de hardware die hun GPU Divise heeft gebakken. Ze kunnen niet meer performance er uit halen dan er in geimplementeerd is. ATI bied op dit moment krachtige hardware ook al is hun driver team niet op het niveau als nVidia maar wel voldoende goed voor ene commercieel produkt.Ik blijf echter Nvidia vertouwen en zeker in hun driver team.
Tja JC denk er ook zo over nVidia driver kwaliteit is hoog maar vooral van belang voor developeers de aTI drivers voor ATI recente produkten zijn op nivaeu voor de gebruikers.Volgens mij heeft geen enkele hardware op de wereldbol dergelijk goeie driver support als een nvidia grafische kaart. Dat is ook de reden dat ik na mijn radeon9000-test-avontuurtje, toch weer ben gaan kiezen voor Nvidia, louter persoonlijk dan.
Maar JC vind ook dat de drivers voor release voor de gamers op goede nivau zijn.
D'r komt ook nog zoiets als de R420 en ja ATI hardware lijkt erg goed te schalen op CPU power ATI hebben meer last dan nVidia van zwakere CPU's dit kan dan driver related zijn.En is die HL2 niet echt vooruit te branden, dat is dan spijtige zaak ja. Maar als ik zie dat die ati 9800pro ook niet mijn definitie van vloeiend benaderd, denk ik maar voor de nv 40 te zullen gaan.
icrosoft dan de destructieve keuze
De 12 16 24 32 bit FP situatie is zeer lastig aangezien ze geen gemeenschappelijk hebben.
Dat is nVidia probleem, geen 24bit waarom die ook niet, net zoals ATI die alleen maar 24bit bied dit allemaal half werk van beide.
En tja dX9 is het ressultaat van de API bakker en gPU bakkers GPU en API worden gemaakt voorelkaar ze zijn ook afhankelijk van mekaar. ALS nV graag de kont keert tegen iedereen die het niet eens is met hun dan kan je ook reacties verwachten.
Blijkbaar is de DX9 partner toch ATI al die tijd geweest GPU en aPI komen niet uit de lucht vallen maar ontwikkel teams beginnen er jaren eerder mee misschien heeft nVidia wel gedeeltlijk een periode dat het nog wel koek en ei was meegespeeld.
nVidia werkt niet mee, die wil zijn hardware native ondersteund zien wat makkelijk is als je de markt lijder bent tenzij er andere grote spelers zijn zoals aTI dan is een standaard gewenst.
MS de schuld geven is makkelijk kan ook aan hun arogantie liggen maar is dat wel zo.
Wie van de twee is daar verantwoordelijk voor ene of beide?
We never no aangezien we niet bij die onderhandelingen aanwezig waren.
iig gedraagd ATI zich wel tov van de rest van de busness en pluk daarvan de vruchten en ja goede tech verkoopt zichzelf was de nVidia tech echt beter dan was er geen probleem. en werd Cg goed opgepakt en persteerde het iig competatief tov ATI, maar doet het niet en dan is alles en iedereen behalve dan nV de schuld. Zou het niet gewoon aan nV tech liggen wat ze nu aanbieden dat het gewoon minder is en de driver team het dan maar moet oplossen.
Ik zou zeggen volgende keer beter met de nV40 maar ze moeten daar echt wel werk van maken aangezien ATI ook niet stil staat met hun R420 ip van zich tegen iedereen te keren.
Je moet geen grote bek hebben tegen de handen die je voed ()tenzij je voed()
De GPU bakkers zijn afhankelijk van de API bakker en daar speleln MS en de OpenGL consortium een grote rol, DX wordt nogal door de game developers ondersteund dus tegen die wind in te gaan zal gevolgen hebben bv Valve.
Dat komt doordat nVidia rond de R100 'n monopool positie nagenoeg had de markt kan niet om nVidia heen ook dus niet de gamedevelopers markt nVidia werdt native ondersteund en ook met of zonder DirectX speciaal voor ontwikkeldswampy schreef op 18 September 2003 @ 22:48:
Nvidia maakt goed kaarten ..zeker..bijna elke game draait er wel onder ( wat bij ati soms toch echt pas kan na een patch )
PS1,4 werd nooit gebruikt waarom GF3 en 4Ti hadden het niet. en de 8500 had 'n stuk kleinere market share.
De situatie is nu anders d'r is een oude speler naar de voorgrond getreden en daar reageerd de markt op niet alleen de consument maar ook de game developers comunity en ook API instellingen
Ikke ATI heb 3DFX links laten liggen alleen Banshee gehad ben toen voor nVidia gegaan al vroeg maar sinds de GF2MX overgestapt naar de eerste Radeons familie de r100 die heb ik al niet meer maar wel en zooi ATI vervangenEn tja, zelf ben ik gewoon nvidia gewend.....
Tuurlijk maar dat hangt af in wat voor verhouding die tov de R420 staat en welke eerder komt en hoe groot de tijd er tussen is en de feature en performance verschil.De Nv40 komt eraan ( in welke vorm dan ook ) dus daarmee moet het weer gaan lukken :-)
Tjees zoals hier sommige CineFX FX ophemelen terwijl het nV tech van dit moment aTI niet wegblaasd dan moet ik daar gewoon wat van zeggen aangezien wij niet nV aanhangers daar moe van worden en lezertjes wat hype wordt aangepraat.sokje schreef op 18 September 2003 @ 22:27:
Zeg is het eindelijk een keer afgelopen met dat "gezeur" over de specificaties van de FX en wat er mis aan is en wat niet, ik wordt er net zoals -GF- Annihilator een beetje moe van.
Oh ja velen beweren van niet ook al staat aTI voorlopig voor maar nV tech blijft de beste ook al lopen de games niet zo vlot op dx9 tov aTI nogal tegenstrijdig.Okee ATi is op het moment beter,
Dat ook, maar dat staat los van de DX9 nV35 vs R350 discussie en nVidia gedrag, nV40 vs R420 is een anderverhaal en dat wordt afwachten eer we daar over kunnen discusieren, nu hooguit speculeren.maar so what, we wachten wel weer op de volgende generatie kaarten.
Oh ja omdat veel gamedevelopers voor nVidia coden en aTI hooguit beta testen moet je dus nVidia hebben. Dat was vroeger toen nVidia heerste maar dat doen ze nu dus zeker niet.Er zijn heel wat meer argumenten om bijvoorbeeld een geforce te kopen in plaats van de radeon.
Misschien omdat er hier en daar toch wat probleempjes zijn met spellen die niet draaien en waarmee je met een FX nooit last van hebt. Kortom hou alsjeblieft op met al dieFX specs en dergelijke, want daar zitten veel mensen die een vraag willen stellen die er niet tussen komen maar niet op te wachten.
Support voor aTI is nog niet optimaal maar is er wel veel beter op geworden, aangezien ze nu wel meer op de voorgrond lopen en markt aandeel winnen. Aangezien nVidia vroeger wat meer en nu wat minder maar toch nog markt leider is.
Nu speeld ATI mee met nVidia en veel games worden gemaakt voor beide en niet ene zoals het vroeger was.
Dat scheeld vooral in driver isues
Nou 'n flame is het zeker niet maar meer ene achterhaalde oude koe uit een sloot. Die situatie die je schets was er zeker en zal er ook nog wel een beetje zijn maar steeds in mindere mate of reeds verwaarloosbaar.(Dit is zeker niet als flame bedoelt, meer om mensen vragen te kunnen laten stellen en ik wordt er een beetje moe van en ik denk niet dat ik de enige ben.)
Games die nu uitkomen kunen nu wel voor en ook goed gebeta test voor aTI hardware zijn. Die luxe had eerst nvidia gehad maar dat wordt dus minder.
In dit opzicht worden ze al gelijk
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Nou met nVdriver team zit het wel goed die haalt wel het onderste uit de kan maar de nV38 moet iig de DX9 shader performance in hardware verbeterd worden tenzij dit echt een driver isue was maar dat weten we pas naar nieuwere detonators die dan uitvoerig gebenched zijn en getest op quality instellingen.edward2 schreef op 18 September 2003 @ 23:45:
Aan de andere kant ben ik wel eens dat we nou alle voor en tegens wel gehad hebben en we beter ook vooruit kunnen kijken hoe bv. de NV38 eruit zal gaan zien.
Dan is de vraag wat aTI tegenhanger zal brenggen. Zo als het er nu uitziet zou dat niet veel kunnen zijn ik hoop van wel maar ja het verschil tussen R300 en r350 was al gering deze traditie kunnen ze voort zetten door de schijnbare dx9 performance voorsprong. en hun resource sparen voor R420.
nVidia heeft een wat grotere update gedaan aan de nV35 tov de nV30 wat enigzins gecompensseerd is door de lagere Clock dus van nV38 kan je wel wat verbeteringen verwachten.
Ik hoop ook op een 24bit FP implementatie dan zijn ze één op één te vergelijken.
En aTi zou er wat gradaties in kunnen stoppen zoals 32bit en 16
want 24bit vs 32bit is 'n kwart verschil dat zou tot uiting komen in een theoretische kwart verschil in performance wat ze even maakt kwa hardware implementatie. 'n grove afwijking duid op minder drivers of mindere implementatie of een combi van beide.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Dat zeg ik toch nietdus dat 3DFX op de fles ging ligt niet aan 16bit maar dat ze te laat waren met hun laaste produkten en het bedrijf door bedrijfs economische redenen dat niet konden trekken en dus op de fles ging.

Dat 3Dfx heeft gefaald ligt aan hun problemen in ontwikkeling van de kaarten zelf. Dat weet iedereen. Maar wat ik zeg is dat ze onderandere toen veel klanten zijn kwijtgespeeld door hun 16 bit. Lees er de toenmalige artikels maar eens over na, alle reviews begonnen op de duur serieus te hameren op 3Dfx omdat ze slechts 16 bits aankonden. Rond die tijd zag je ook veel discussies van gamers waarbij de ene beweerde dat er geen verschil was voor hem tussen 16 en 32 , de andere vond het een groots kwaliteitsverschil. Dus rond deze tijd was 16 vs 32 bit HOT, en 3Dfx had er geen antwoord op toen.Indertijd heeft 3Dfx het onderandere verloren van Ati/nvidia omdat ze deels ook vasthielden aan hun 16 bits, pure performance was het belangrijkste voor hen.^
[quote]
nVidia fan tja een goed driver team hebben ze zeker toveren kunnen ze niet wel cheaten maar zonder cheaten zijn ze afhankelijk van de hardware die hun GPU Divise heeft gebakken. Ze kunnen niet meer performance er uit halen dan er in geimplementeerd is. ATI bied op dit moment krachtige hardware ook al is hun driver team niet op het niveau als nVidia maar wel voldoende goed voor ene commercieel produkt.
[\quote]
Kijk , het omschakelen naar 16 bit wordt dan cheaten genoemd. Dat bedoelde ik dus met waar ik van

Natuurlijk MOET nvidia dit doen, dat zijn ze verplicht tegenover hun klanten om ze min of meer nog deftige performance te geven.
MAAR, ... , bekijk het nu even 32 bit precisie, oo ja, een fx5900u zou het er verdomd lastig mee hebben. Maar terzelfdertijd zou Ati het gewoon niet aankunnen. Geen flame maar 't is zo.
En dan nog HL2 waar ik het even wil over hebben. Neem nu een directX 8.1 game. En vergelijk hiermee een fx5900u en een ati 9800pro. Die scoren kwasie gelijk. Waarom is in hemelsnaam HL2 dan zo veel trager in directx8.1 modus op de gfx5900u ? Dat hij in dx9 modus trager is, ok begrijpbaar gezien zijn ontwerp. Maar dat hij dan zelfs in directx8.1 modus stukken trager is. Sorry , maar dat is dan toch wel vrij toevallig allemaal vind ik. En dat ze der 5 keer zoveel tijd insteken in nvidia, kan allemaal goed zijn maar op 't laatste moment keren ze wel hun rug omdat nvidia geen 30 miljoen dollar wilde betalen. Uiteraard is die 5 keer meer werk gewoon in 't water vervallen en dient dit zeker niet als argument tegen nvidia gebruikt te worden. Stel nu dat nvidia wel betaald had en de deal had met Valve ipv Ati, dan hadden we heus wel andere performance verschillen gezien. Geen kat bij Valve had er toen waarschijnlijk over gerept dat ze serieus moesten gaan optimaliseren.
Ok , draai het maar weer tegen Nvidia, maar wat bedoel je ermee ? Ten eerste is het Microsoft die zijn eerdere voorkeur voor 32 bit , omdraait naar 24. En ten tweede moet je nvidia niet verwijten CG te hebben gepromoot, want ati heeft hetzelfde geprobeerd met hun Rendermonkey.En tja dX9 is het ressultaat van de API bakker en gPU bakkers GPU en API worden gemaakt voorelkaar ze zijn ook afhankelijk van mekaar. ALS nV graag de kont keert tegen iedereen die het niet eens is met hun dan kan je ook reacties verwachten.
Tevens moet je het een pionier van een markt niet kwalijk nemen dat ze wanneer ze nog absoluut heerser van de markt zijn , hun eigen ontwikkelingen willen doordrijven. Dat is in alle sectoren zo. Het had voor Nvidia beter geweest in 2003 om ook 24 bits precisie te gaan ontwikkelen, maar ze hebben nu eenmaal toen mee de boot opgesprongen van 32 bits precisie. En als enige blijven roeien.
Hier gaan ze volgens mij niet meer van afstappen en blijven 32 bits gaan. Ook hun NV40 zal volledig ontworpen zijn voor volledig 32 bits precisie. Dus je kan Nvidia nu wel "verwijten" te vroeg zijn overgeschakeld naar 32 bits precisie, maar uiteindelijk gaan ze wel hun slag thuishalen. Dus denk ik te mogen stellen dat we binnenkort 32 bits zullen gaan zien als algemeen goed, en dat het dankzij nvidia zal zijn. Niet te 'wijten aan' nvidia.

GeForce FX 5900 SE
Eerst had ik een GeForce 2 GTA 32BM van asus & dat ding draaide als een zonnetje, een aantal mensne had een Ati en die werden er gek van, nu heb ik een nieuwe PC met een Asus GeForce FX5900 Ultra & die draait wederom als een zonnetje, nouja zeg maar "super nova" en toch zijn er hier en daar weer probs met de Ati9800 hoor. Oke wat betreft de shaders en dus indirect de ondersteuning voor DX9 is niet zo goed tov Ati (wie weet komt nog), maar heb nog steess geen keiharde bewijzen gezien dat de FX5900 minde presteerd!!! Daarmee wil ik zeggen dat op een aantal vlakken de Ati beter presteerd maat voor het grootste gedeelte presteerd toch de FX5900 beter, of hebben jullie die benchmarks niet gezien die ik online had gezet? (De helfd is al weer off-line maargoed).
Iedereen zijn kaartje
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
NV38 is niet meer dan een snellere NV35. Zelfde GPU zonder al te veel verbeteringen, misschien kleine verbeteringen om de yield te vergroten en hogere clocks te kunnen behalen. Maar aangezien het grotendeels dezelfde GPU is kan je hier waarschijnlijk wel je conclusies uit trekken -> Snel in DX8.1 games, minder snel (dan ATi) in DX9. Voor drastische veranderingen zal je toch echt op NV40 moeten wachten.edward2 schreef op 18 September 2003 @ 23:45:
[...]
Aan de andere kant ben ik wel eens dat we nou alle voor en tegens wel gehad hebben en we beter ook vooruit kunnen kijken hoe bv. de NV38 eruit zal gaan zien.
Zelf ben ik zeer benieuwd wat NV36 gaat doen. Ik zoek nog een leuk midrange kaartje met een goede prijs/performance verhouding voor een van m'n bakken. Van mij hoeft het niet per se als een ster te presteren in DX9 aangezien ik in m'n main gamingpc toch wel een ATi heb zitten. Dus ben een beetje aan het wachten op RV360 en NV36 (en eventueel een Volari V5/V8 of Deltachrome) om een leuke vergelijking te trekken.
Bekijk het eens vanaf een DX9 standpunt. Die vereist minimaal 24FP. Als je appels met appels wilt vergelijken dan kom je bedrogen uit. Voor veel reviewers is dit een heikel punt. Het verschil in beeldkwaliteit tussen 24FP en 16FP is veel duidelijker zichtbaar dan het verschil tussen 24FP en 32FP. Denk bijvoorbeeld aan HDR waarvoor minimaal 24FP benodigd is.-GF-Annihilator schreef op[/message]:
Kijk , het omschakelen naar 16 bit wordt dan cheaten genoemd. Dat bedoelde ik dus met waar ik van
Natuurlijk MOET nvidia dit doen, dat zijn ze verplicht tegenover hun klanten om ze min of meer nog deftige performance te geven.
En dan gaat het er even helemaal niet om of MS te veel beinvloed is door ATi. Het gaat er gewoon om dat er een standaard is gezet die wel gevolgd wordt door andere videokaart fabrikanten zoals S3/Via en XGI. Als nV naast 32FP, 16FP en 12FX ook nog eens 24FP zou ondersteunen, dan was de vergelijking veel eerlijker geweest.
Het punt is dat nV niet duidelijk is over wanneer er nou omgeschakeld wordt naar FP16 in de drivers. Ze hebben dit min of meer verzwegen, zodat de reviewers er zelf achter moesten komen. Na alle hype en commotie die nVidia zelf gecreeerd heeft over hun 'R300 killer' die "AA en AF for free" zou bieden, verwachtte iedereen er ook veel van. Als je er dan zelf achter moet komen dat een FX het alleen kan winnen wanneer er omgeschakeld wordt in precisie, dan zou ik dat zelf ook als cheaten aanmerken.
nVidia had gewoon vanaf het begin open kaart moeten spelen en eerlijk moeten toegeven dat de FX de hype die nV zelf gemaakt heeft niet kan waarmaken. Het duurde ook een hele lange tijd voordat nV toegaf dat NV30 niet was wat ze er van verwachten. Aan de ene kant best begrijpelijk, want ze hebben er natuurlijk veel geld in gepompt. Maar aan de andere kant kan je soms meer respect oogsten door open kaart te spelen.
Bij ATi zitten nu ook mensen die jarenlang bij nVidia hebben gewerkt, waaronder de mensen van Code Maffia. In het kort gezegd hebben ze aangegeven dat ATi nu is wat nVidia 5 jaar terug was, een bedrijf dat indrukwekkend bezig was, de honger naar succes probeerde te stillen en heel gefocussed is om te produceren wat de gebruiker wil.
Hieronder een quote van Richard Huddy (ex Code Maffia) die eerst bij nVidia zat en nu bij ATi over de 2 grote fouten van nVidia in de afgelopen 2 jaar:
Zoals al eerder gezegd is het driverteam van nVidia echt heel erg goed, alleen jammer dat zij nu de schade moeten proberen te beperken die ontstaan is door verkeerde beslissingen van het management.NVIDIA used to be a technology company pure and simple but has recently allowed its-self to become led by marketing. To give two straightforward examples of things it has done wrong, it produced a product called the GeForce 4 MX, which is clearly a GeForce 2 class piece of hardware, and it spent almost a year too long producing the GeForce FX. The first costs the trust of buyers everywhere, and the second cost them the lead in a very competitive race.
Yes, all the Code Mafia guys could see this kind of thing happening at NVIDIA. We fought these errors from inside NVIDIA but the management didn't agree with our judgement about what was wrong - so we agreed to part company. We actually left on really good terms - but I admit that they weren't too pleased when we signed up with ATI
Nogmaals, ATi kan wel 32-bits aan, alleen core pixelshader ops maken gebruik van 24FP. De rest gaat allemaal volgens 32FP. Even een schaamteloze zelfquote:MAAR, ... , bekijk het nu even 32 bit precisie, oo ja, een fx5900u zou het er verdomd lastig mee hebben. Maar terzelfdertijd zou Ati het gewoon niet aankunnen. Geen flame maar 't is zo.
En zoals ik ook al eens eerder had gezegd heeft nV zelfs geclaimed dat door het slimmere design van NV30/NV35, het dubbel zo snel zou zijn dan R300 wanneer het gebruik zou moeten maken van 16FP. En dat is dus absoluut niet het geval.Dat ATi geen 32-bit zou ondersteunen is een misvatting. Alleen één gedeelte werkt op 24-bit. ATi ondersteunt een mengeling van 32 bit en 24 bit floatingpoint precisie in the pixelpipeline. Verder kan ATi ook nog terug vallen op 16-bit FX (tegen 12 FX voor de FX). Vertex shaders zijn bijvoorbeeld altijd 32-bit FP. Interne texture address zaken gebruiken ook 32-bit Single Precision FP. Maar de core pixelshader operations gebruiken 24-bit FP.
Vb. Als er een 128bit FP (4x32 bit SPFP) per texel texture wordt ingelezen, dan wordt het intern omgerekend naar 96-bit FP (4x24 bit). Maar als het er weer it komt, dan komt het er weer uit als een 128b zonder precisie verlies.
Ook hier is het dus weer een geval van beloftes maken die het niet kan waarmaken en er nu op afgerekend worden. En om wel sneller te worden, maakt nVidia (zonder dit te vertellen aan wie dan ook) gebruik van FX12... kun je nagaan hoe bedrogen de reviewers zich voelden, aangezien nV het min of meer onmogelijk maakt om appels met appels te vergelijken.
Urhm... hallo... weet je eigenlijk wel wat Rendermonkey is?? Je kan Rendermonkey en Cg dus absoluut niet met elkaar vergelijken.-GF-Annihilator schreef op[/message]:En ten tweede moet je nvidia niet verwijten CG te hebben gepromoot, want ati heeft hetzelfde geprobeerd met hun Rendermonkey.

Cg: een compleet nieuwe programmeertaal
Rendermonkey: een development tool om snel DX9 effecten te kunnen maken dmv HLSL.
Om David Kirk van nVidia maar even te quote:
Bron: http://www.cgshaders.org/articles/interview_davidkirk02.phpWhat is the difference between Cg and RenderMonkey?
Cg is a programming language. RenderMonkey is an application, or more accurately, an IDE (integrated development environment).
Rendermonkey is vergelijkbaar met Microsoft Visual Studio. Het is een development environment waarmee programmeurs snel en gemakkelijk DX9 effecten kunnen maken en bestaande kunnen editen. Alle DX9 kaarten profiteren hiervan, of het nou een S3 kaart, XGI, nVidia of ATi kaart is. Dat maakt niet uit. Cg haalt daarentegen 'meer' uit nV hardware dan uit andere hardware, getuige ook het feit dat de S.T.A.L.K.E.R. developers hebben aangegeven dat de performance op ATi en nVidia kaarten hetzelfde zal zijn MAAR dat de FX serie van kaarten toch nog net wat extra effecten zal hebben.
Rendermonkey is niets meer dan een interface, terwijl Cg een compleet nieuwe programmeertaal is. Natuurlijk hebben ze beide tot doel om snel en gemakkelijk nieuwe effecten te creeeren, maar Rendermonkey maakt gewoon gebruik van standaard HLSL en biedt dmv plugins ondersteuning voor alle standaard programma's die er nu gebruikt worden zoals Maya en Renderman.
Hier een verhelderend artikel op Toms Hardware: http://www20.tomshardware.com/graphic/20021004/index.html
Dat 32FP gemeengoed zal worden is niet meer dan een logisch vervolg op 24FP en heeft dus absoluut niets te maken met nVidia ook al ondersteunen ze het nu al volledig. Dat is net zoals 64bits kleurdiepte ook uiteindelijk standaard zal gaan worden (John Carmack wilde bv eigenlijk al 64bits kleurdiepte hebben voor Doom III). De hardware moet echter wel goed meeschalen om het te kunnen ondersteunen, en daar heeft nV zichzelf overschat en de concurrentie onderschat.Dus denk ik te mogen stellen dat we binnenkort 32 bits zullen gaan zien als algemeen goed, en dat het dankzij nvidia zal zijn.
Waar ik eigenlijk meer naar uitkijk is of NV40 wel volledige DX9 ondersteuning zal bieden inclusief Floating Point Rendertargets, HDR, Floating Point Cube Maps en Floating Point Volumetric Textures. Het is toch te gek voor woorden als een gamedeveloper 3 of meer verschillende codepaths moet maken, omdat men zich niet houdt aan de standaard?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat ik begrepen hebt, duur het ontwikkelen van een nieuwe kaartje vrij lang (1,5 jaar?) Dus als nVidia een jaar geleden al verkeerde keuzes heeft gemaakt met de NV40, vrees ik het ergste. Dat ze dus weer keuzes hebben gemaakt welke verkeerd uitpakken oa omdat MS niet de dx9 specs welke nVidia graag wilde overnamen. Maar ja, afwachten maar.CJ schreef op 19 september 2003 @ 09:59:
Waar ik eigenlijk meer naar uitkijk is of NV40 wel volledige DX9 ondersteuning zal bieden inclusief Floating Point Rendertargets, HDR, Floating Point Cube Maps en Floating Point Volumetric Textures. Het is toch te gek voor woorden als een gamedeveloper 3 of meer verschillende codepaths moet maken, omdat men zich niet houdt aan de standaard?
cijfers van onafhankelijke sites als beyond3D bedoel ik daar dus mee...-GF-Annihilator schreef op 18 September 2003 @ 21:32:
[...]
Als jij kijkt naar de cijfers en de marketing shit slikt, so be it.
doe ik ook niet, mijn punt was dat er door bepaalde mensen hier dingen gepost worden als "Ati heb nooit van Nvidia kunnen winnen", wat mi niet echt van inzicht in de huidige (DX9) situatie getuigd.Alleen kan ik het niet hebben dat er dan infantiele kinderreacties verschijnen over fanboy zijn of niet.
En dan had ik zeker mensen die een fx hadden gekozen, zeker niet zitten zwartmaken voor nvidia fanboy.
ben ik het helemaal mee eensmaar es denken voor je iets schrijft lijkt me moeilijker.
zoiets heb ik nooit gepost dus waar dit vandaan komtMaar de laatste tijd al deze meldingen van "nvidia cheat met 16 bit" en "komt ervan als je eigenwijs bent" ,"ati kan 32 bit precisie en nvidia niet", dat getuigt pas van ondoordacht marketing slikken en fanboy zijn.
ik ook niet en daar ging mijn post nu juist over...Maar onwaarheden de wereld insturen kan ik niet tegen.
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
De compilers kunnen er om te beginnen zoveel mogelijk rekening mee houden om de instructievolgorde zo efficient mogelijk te maken. Maar dat is voor de drivers heel lastig om te doen. Echter, als een spelontwikkelaar een hogere taal zoals Cg gebruikt is dat heel goed mogelijk.
Nou zou het voor een FX het beste zijn om zoveel mogelijk instructies te vervangen door texture operaties. En dat kan normaal gesproken alleen, als de spelontwikkelaars dus textures maken en gebruiken, zoals een cube map om de achtergrondverlichting te berekenen.
Maar, er is op zich nog een andere mogelijkheid. Als de drivers slim genoeg zijn, kunnen ze van te voren het domein van een stuk shaderprogramma bepalen en de antwoorden in een tabel zetten. Die dan als een texture benaderd kan worden.
Theoretisch is dat mogelijk, het zou dan echter wel makkelijk zijn als de pixelshader dan een IF..THEN kan doen. Maar dat is voor de simpelere shaderprogramma's niet nodig.
Er kunnen dus op het gebied van ontwikkeltools nog flink wat goede optimalisaties worden doorgevoerd, die de prestaties nog flink kunnen verbeteren. Maar het zijn geen dingen die je 'eventjes' doet.
EDIT: PS1.1-1.4 specificeren dat je eerst zoveel mogelijk waardes in registers zet, alle textures inlaad en daarna de berekeningen uitvoert. Dat doet bijna iedereen dus ook. Zo werken de meeste HLSL compilers ook. Voor een FX wil je dat net helemaal anders doen. En zodra de compilers daarop aangepast zijn, wordt hij flink sneller.
[ Voor 12% gewijzigd door DiGuru op 19-09-2003 14:31 ]
lachen, vooral de conclussie.
En kijk naar de datum, het is geen review van maanden terug.
Zeker nog nooit van dx9 gehoord?The GeForce FX 5900 Ultra is a definite player in the high-and 3D market, and ASUS has a serious challenger with their V9950 Ultra. Performance is top-notch, the slimline cooling hardware is a welcome change, and ASUS quality continues to be a selling point. If you're looking to be on the bleeding edge of 3D game performance and don't mind the sticker price, then the ASUS V9950 Ultra is one tough card to beat.
[ Voor 52% gewijzigd door hjs op 19-09-2003 14:12 . Reden: quote erbij ]
lol in die grafiekjes ligt de ultra overal achter
"Social progress can be measured by the social position of the female sex - Karl Marx"
Heb zo het idee wie hun site gesponsoort heeft :-psalutem schreef op 19 september 2003 @ 14:31:
http://www.sharkyextreme....ticle.php/3211_3079811__6
lol in die grafiekjes ligt de ultra overal achter
There is no place like ::1
Het is helemaal niet gek dat de FX5900U ook in DX8.1 slecht presteert. Ik geloof dat zowel Anandtech, als Beyond3D als Tom's Hardware en nog enkele andere grote sites ooit tot de conclusie waren gekomen dat nV in de NV30-NV35 gewoon 'geen' hardwarematige PS1.4 had geimplementeerd.-GF-Annihilator schreef op 19 september 2003 @ 08:35:
[...]
En dan nog HL2 waar ik het even wil over hebben. Neem nu een directX 8.1 game. En vergelijk hiermee een fx5900u en een ati 9800pro. Die scoren kwasie gelijk. Waarom is in hemelsnaam HL2 dan zo veel trager in directx8.1 modus op de gfx5900u ? Dat hij in dx9 modus trager is, ok begrijpbaar gezien zijn ontwerp. Maar dat hij dan zelfs in directx8.1 modus stukken trager is. Sorry , maar dat is dan toch wel vrij toevallig allemaal vind ik.
DX9 is in principe backwardscompatible, dus als je een hardware DX9 kaartje hebt, dan heb zou je ook hardware DX8.1 moeten hebben. Door enkele tests kwam men er echter achter dat de DX8.1 implementatie zo'n beetje rechtstreeks was overgenomen vanuit de GF4Ti reeks. Deze was dus niet verbeterd door nV.... En de prestaties waren er dus ook naar....
Dus tot zover deze conspiracytheorie.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
LOL, waar haal je dat vandaan??? Alleen in de bovenste grafiek!salutem schreef op 19 September 2003 @ 14:31:
http://www.sharkyextreme....ticle.php/3211_3079811__6
lol in die grafiekjes ligt de ultra overal achter




Waarom wordt altijd de conclusie getrokken dat als de Nvidia Wint, dat het door de sponsoring komt, dan zou nvidia wel heel wat sites sponsoren
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
[ Voor 100% gewijzigd door Fr0zenFlame op 19-09-2003 15:27 ]
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
En eet vooral veel spruitjes en boerenkool ! Probeer geen tjap tjoy.. das niks.Fr0zenFlame schreef op 19 September 2003 @ 09:58:
Het is allemaal wel leuk hoor z'n disccusie, maar voorzover ik ervaring heb met video kaarten blijf ik bij nVidia!
Zoal wat voor probs .. ? DX9 probs ?en toch zijn er hier en daar weer probs met de Ati9800 hoor. Oke wat betreft de shaders en dus indirect de ondersteuning voor DX9 is niet zo goed tov Ati (wie weet komt nog)
Keiharde bewijzen ? Hoe hard wil je ze hebben dan ?maar heb nog steess geen keiharde bewijzen gezien dat de FX5900 minde presteerd!!! Daarmee wil ik zeggen dat op een aantal vlakken de Ati beter presteerd maat voor het grootste gedeelte presteerd toch de FX5900 beter, of hebben jullie die benchmarks niet gezien die ik online had gezet? (De helfd is al weer off-line maargoed).
Face it.. de GF5900U doet het flex in dx8.1 en doet het slecht in DX9. punt uit.
Dus als jij met deze kaart Q3 wil spelen..prima..
Als jij met deze kaart HL2 wil spelen, dan had je dus beter voor dat geld een Ati9800 kunnnen halen..
Ahh 3Dmark2k3 ! nee, dat is een fraaie.. is deze bench uitgevoerd met of zonder driver hack ?
[ Voor 5% gewijzigd door boesOne op 19-09-2003 16:09 ]
I say we take off and nuke the entire site from orbit. It's the only way to be sure.
Lees je niet wat andere zeggen, je blijft met de zelfde argumenten komen over kartel vorming e.d. terwijl die argumenten al 10 keer met van tafel zijn geveegd als onzin. (met goede argumenten)Fr0zenFlame schreef op 19 September 2003 @ 15:24:
Waarom wordt altijd de conclusie getrokken dat als de Nvidia Wint, dat het door de sponsoring komt, dan zou nvidia wel heel wat sites sponsorenBTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!
nVidia heeft niks te verbergen? wanneer komen ze dan eens er openlijk voorruit, dat hun hardware achter blijft in dx9 apps?
Tja is je goeie recht natuurlijk maar waarom? Als ATI (of gelijk wie) nu met een kaart uitkomt die 4 keer zo snel is als alles anders en 100€ kost zou je dan nog voor nvidia gaan?Fr0zenFlame schreef op 19 September 2003 @ 09:58:
Het is allemaal wel leuk hoor z'n disccusie, maar voorzover ik ervaring heb met video kaarten blijf ik bij nVidia!
Zoals? Qua driver problemen is er geen verschil meer tussen ATI of nvidiaEerst had ik een GeForce 2 GTA 32BM van asus & dat ding draaide als een zonnetje, een aantal mensne had een Ati en die werden er gek van, nu heb ik een nieuwe PC met een Asus GeForce FX5900 Ultra & die draait wederom als een zonnetje, nouja zeg maar "super nova" en toch zijn er hier en daar weer probs met de Ati9800 hoor.
Kijk naar de benchmarks van Halflife 2 kijk naar de benchmarks van 3dmark2003 (zonder nvidia cheats) kijk naar de benchmarks van aquamark3 allemaal tonen die stuk voor stuk hetzelfde : een 9800pro is een 40% sneller als het op directx9 aankomt.Oke wat betreft de shaders en dus indirect de ondersteuning voor DX9 is niet zo goed tov Ati (wie weet komt nog), maar heb nog steess geen keiharde bewijzen gezien dat de FX5900 minde presteerd!!!
http://www20.tomshardware.com/graphic/20030918/index.html
http://www.beyond3d.com/misc/traod_dx9perf/index.php?p=2
Beter waar? Directx8.1 spelen? Ziende dat een 5900Ultra complete overkill is voor dat soort spelen maakt dat niks uit je koopt zo'n kaart vooral om directx9 spelen te spelen en daar faalt die kaart tot nu toe serieus in.Daarmee wil ik zeggen dat op een aantal vlakken de Ati beter presteerd maat voor het grootste gedeelte presteerd toch de FX5900 beter, of hebben jullie die benchmarks niet gezien die ik online had gezet? (De helfd is al weer off-line maargoed).
Zonder cheats (die in de laatste detonator drivers gewoon terug geactiveerd zijn haalt die FX kaart heel wat minder.[b]Fr0zenFlame schreef op 19 September 2003 @ 15:24:
Waarom wordt altijd de conclusie getrokken dat als de Nvidia Wint, dat het door de sponsoring komt, dan zou nvidia wel heel wat sites sponsorenBTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!
Verwijderd
Ik denkt dat je toch echt even dit artikeltje in Toms Hardware-geen vriend van ATI- zult moeten lezen. Daaruit blijkt dus weer eens heel duidelijk dat Nvidia heeft zitten knoeien met de beeldkwaliteit in aquamark 3. En op zijn zachts gezegd is dat niet netjes van Nvidia.Fr0zenFlame schreef op 19 September 2003 @ 15:24:
[...]
BTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!
http://www20.tomshardware.com/graphic/20030918/index.html
En dan met name de volgende pagina's
http://www20.tomshardware...20030918/aquamark-08.html
http://www20.tomshardware...20030918/aquamark-09.html
http://www20.tomshardware...g_light_in_nvidia_drivers
http://www20.tomshardware...20030918/aquamark-10.html
Even een vraagje, als de recente hardware van Nvidia inderdaad zo goed is waarom vind deze onderneming het dan voortdurend nodig om dit soort 'optimalisaties' toe te passen. En wees alsjeblieft zo vriendelijk om niet met dat oude "iedereen doet het toch" aan te komen want dat is echt een al te lam antwoord.
Edit: K995 was me dus net een beetje voor.
[ Voor 14% gewijzigd door Verwijderd op 19-09-2003 18:16 ]
Nee dat denk ik niet zozeer.CJ schreef op 19 September 2003 @ 15:05:
Nog even hierover:
[...]
Het is helemaal niet gek dat de FX5900U ook in DX8.1 slecht presteert. Ik geloof dat zowel Anandtech, als Beyond3D als Tom's Hardware en nog enkele andere grote sites ooit tot de conclusie waren gekomen dat nV in de NV30-NV35 gewoon 'geen' hardwarematige PS1.4 had geimplementeerd.
DX9 is in principe backwardscompatible, dus als je een hardware DX9 kaartje hebt, dan heb zou je ook hardware DX8.1 moeten hebben. Door enkele tests kwam men er echter achter dat de DX8.1 implementatie zo'n beetje rechtstreeks was overgenomen vanuit de GF4Ti reeks. Deze was dus niet verbeterd door nV.... En de prestaties waren er dus ook naar....
Dus tot zover deze conspiracytheorie.
nV3X is de eerste kaart met PS1,4 van nV de voorganger Gf4Ti deed maar tot PS1,3
ATI vorige gen had al PS1,4
Hun PS1,4 is een twede generatie PS1.4
Dat was toen de high-end pixel shader maar werdt toen niet gebruikt omdat de markt leider die niet had merk specifieke features werden vaak gemeden door game developers vooral al het een klein deel van de target platform is.
nu heeft nVidia ook 'n PS1,4 naast de PS2.0 maar ik denk dat PS2.0 de grootste aandacht heeft gehad dus PS1.4 was blijkbaar geen preoriteit en hun first try PS1,4 tech.
Tja en nu valt die Ps2,0 tegen en wordt terug gevallen op Ps1,4 krijgen ze het dus dubbel op de koffie.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Verwijderd
Op dit ogenblik is het duidelijk: De R9xxx-kaarten zijn sneller dan hun broertjes uit de FX5xxx-reeks, zowel in DX8 als in DX9-games. Dit aan een lagere prijs én een hogere beeldkwaliteit!
Met de GF4 (DX8) heeft nVidia gewonnen, wat de DX9-kaarten betreft is Ati al een jaar de winnaar en volgend jaar is het misschien weer andersom. Simple as that!
De bewijzen vliegen je om de oren en toch willen zovelen de waarheid nog niet geloven. Het lijkt wel een discussie tussen gelovigen en ongelovigen.
Momenteel heb ik een R9800 Pro, als nVidia over enkele jaren weer beter is ga ik meteen weer naar nVidia, anders blijf ik bij Ati.
Een raad: blijf objectief!
Let wel: alles wat ik hier zeg is een speculatie gebaseerd op voorzichtige conclusie's maar stel dat dit waar is, wat dan?
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Tuurlijk , maar waar zeg ik dat Rendermonkey een prog taal is ? Ik wil er gewoon mee aanduiden dat Ati en Nvidia elk hun eigen visie hebben over hoe het game-programmeren vlotter te laten verlopen. Dat is alles. Het is niet hetzelfde maar het doel is vlotter kunnen games ontwerpen.Urhm... hallo... weet je eigenlijk wel wat Rendermonkey is?? Je kan Rendermonkey en Cg dus absoluut niet met elkaar vergelijken.
Geef ik je gelijk in. Men bekijkt het nu wel nadat dx9 finaal is vastgelegd. Maar ten tijde dat Microsoft verandere van idee kon Nvidia denk ik niet meer terug, noch Ati. En met mijn 32 bits bedoel ik natuurlijk dat de volledige bewerking met 32 bits precisie gebeurd.De hardware moet echter wel goed meeschalen om het te kunnen ondersteunen, en daar heeft nV zichzelf overschat en de concurrentie onderschat.
Ome tom is best wel mild in zijn conclusies en noemt het bug's ipv mogelijke cheats. Maar ja hij wilt natuurlijk in de toekomst nog altijd samples krijgen van nVidia.Verwijderd schreef op 19 September 2003 @ 17:16:
[...]
Ik denkt dat je toch echt even dit artikeltje in Toms Hardware-geen vriend van ATI- zult moeten lezen. Daaruit blijkt dus weer eens heel duidelijk dat Nvidia heeft zitten knoeien met de beeldkwaliteit in aquamark 3. En op zijn zachts gezegd is dat niet netjes van Nvidia.
http://www20.tomshardware.com/graphic/20030918/index.html
En dan met name de volgende pagina's
http://www20.tomshardware...20030918/aquamark-08.html
http://www20.tomshardware...20030918/aquamark-09.html
http://www20.tomshardware...g_light_in_nvidia_drivers
http://www20.tomshardware...20030918/aquamark-10.html
Even een vraagje, als de recente hardware van Nvidia inderdaad zo goed is waarom vind deze onderneming het dan voortdurend nodig om dit soort 'optimalisaties' toe te passen. En wees alsjeblieft zo vriendelijk om niet met dat oude "iedereen doet het toch" aan te komen want dat is echt een al te lam antwoord.
Edit: K995 was me dus net een beetje voor.
Wat ook zeer bijzonder is dat deze engine ook iNtels HT tech ondersteund dus meerdere treads smp
[ Voor 6% gewijzigd door SG op 19-09-2003 20:03 ]
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Die laatste opmerkingen waren niet naar jou persoonlijk gericht, sorry voor dat misverstand. Ik ben het dan volledig met je eens dat de opmerking van Falcon ivm het "ati heeft het nooit kunnen winnen van" , er helemaal niet gepast is. Beetje kinderlijke reactie want Ati is natuurlijk een welgekomen concurrent. Anders betaalden we nu voor een top 3D kaart wel 1000€.Puppetmaster schreef op 19 September 2003 @ 13:46:
[...]
cijfers van onafhankelijke sites als beyond3D bedoel ik daar dus mee...
[...]
doe ik ook niet, mijn punt was dat er door bepaalde mensen hier dingen gepost worden als "Ati heb nooit van Nvidia kunnen winnen", wat mi niet echt van inzicht in de huidige (DX9) situatie getuigd.
[...]
ben ik het helemaal mee eens
[...]
zoiets heb ik nooit gepost dus waar dit vandaan komt
[...]
ik ook niet en daar ging mijn post nu juist over...
Maar wel ben ik er van overtuigd dat nvidia door de twist met Microsoft er geen goed heeft aan gedaan. Nvidia heeft een grote mond en terecht want ze leveren fantastische dingen. Maar ze hadden het gewoon tactischer moeten aanpakken. Dat Microsoft dan de kant van Ati koost wat betreft DX9 en misschien al een deal maakte ivm de xbox2, daar ben ik heilig van overtuigd. Het is geen verwijt maar volgens mij gewoon het feit. Ik ga zeker zelf nooit zeggen dat het de schuld van Ati en Microsoft is dat Nvidia nu niet mee kan doen op 24bits-DX9. Men kan Nvidia nu wel verwijten dat het hun eigen fout een beetje is dat ze het deksel op de neus krijgen van Microsoft. Maar men moet nu geen beweringen gaan maken dat nvidia cheat met 16 bit. Gezien hun huidige situatie kunnen ze niet anders dan deze omschakelingen inbouwen, anders loopt het voor geen meter in 32 bit als je dit dan vergelijkt met 24 bit van ati. Of dat nvidia geen 32 bit aankan.

Er zijn hier echt veel mensen die de waarheid niet onder ogen willen zien. Hou nu toch eens op met zo vast te hangen aan een bepaald merk, koop gewoon het beste! (prijs/prestatie/kwaliteit)
Op dit ogenblik is het duidelijk: De R9xxx-kaarten zijn sneller dan hun broertjes uit de FX5xxx-reeks, zowel in DX8 als in DX9-games. Dit aan een lagere prijs én een hogere beeldkwaliteit!
Met de GF4 (DX8) heeft nVidia gewonnen, wat de DX9-kaarten betreft is Ati al een jaar de winnaar en volgend jaar is het misschien weer andersom. Simple as that!
De bewijzen vliegen je om de oren en toch willen zovelen de waarheid nog niet geloven. Het lijkt wel een discussie tussen gelovigen en ongelovigen.
Momenteel heb ik een R9800 Pro, als nVidia over enkele jaren weer beter is ga ik meteen weer naar nVidia, anders blijf ik bij Ati.
Een raad: blijf objectief!
[ Voor 20% gewijzigd door MPAnnihilator op 19-09-2003 20:04 ]
[ Voor 4% gewijzigd door Sjah op 20-09-2003 05:59 ]
http://www.sharkyextreme....cards/article.php/3079811
Ben ik even blij dat ik deze kaart heb.
Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”
Nou...
I say we take off and nuke the entire site from orbit. It's the only way to be sure.
Wantdanplo schreef op 20 September 2003 @ 07:50:
Hier ook weer een test met de FX5900Ultra.
http://www.sharkyextreme....cards/article.php/3079811
Ben ik even blij dat ik deze kaart heb.
Ben je nou echt blij met die 12 frames extra in Quake3
Verwijderd
ach ja 150FPS in unreal tournament 2003 200 in jedi knight 400 in quake 3 150 in RTCW wow ja stel je voor dat je maar 100FPS had :roll:danplo schreef op 20 September 2003 @ 07:50:
Hier ook weer een test met de FX5900Ultra.
http://www.sharkyextreme....cards/article.php/3079811
Ben ik even blij dat ik deze kaart heb.
We zullen zien of je nog zo blij bent als je het detail naar beneden moet zetten in halflife 2
Klopt. Het gaat puur en alleen om vlotter games te laten ontwerpen. Alleen is het grote verschil dat Rendermonkey alle GPUs gelijk behandeld. Cg is toch meer gericht op de FX. Vanuit een developersoogpunt is Rendermonkey dan volgens mij een stuk aantrekkelijker, omdat je een groter publiek kan aanspreken, vooral nu S3/Via en XGI ook eens met DX9 kaarten aan komen zetten.-GF-Annihilator schreef op 19 September 2003 @ 19:43:
[...]
Tuurlijk , maar waar zeg ik dat Rendermonkey een prog taal is ? Ik wil er gewoon mee aanduiden dat Ati en Nvidia elk hun eigen visie hebben over hoe het game-programmeren vlotter te laten verlopen. Dat is alles. Het is niet hetzelfde maar het doel is vlotter kunnen games ontwerpen.
[...]
En het ligt er ook maar net aan welke review je leest en welke instellingen ze hebben gebruikt. Firinqsquad heeft zwaardere instellingen gebruikt en raadt eens wie daar wint?xabre16v schreef op 20 September 2003 @ 08:43:
[...]
Wantwat een verschillen ook joh, trouwens in UT2003 en RtCW doet de 9800PRO het beter.
Ben je nou echt blij met die 12 frames extra in Quake3
http://firingsquad.gamers...eon_9800_review/page7.asp
En dan is er 'natuurlijk' nog meer dirt wat naar boven is komen drijven. Zoals wel bekend heeft nVidia er voor gezorgd dat de patch die de benchmark in Tombraider: AoD activeert voor 'ongeldig' verklaart en hebben ze er voor gezorgd dat de patch van de site van Eidos werd gehaald.
Wat blijkt echter? De benchmark zat er al vanaf het begin in, het staat zelfs op de retail box. Je moest dan alleen eventjes een extra stukje typen op de commandline om het te activeren. Het enige wat de patch doet is:
- bugs fixen
- zorgen dat de benchmark gemakkelijk te gebruiken is.
Maar blijkbaar houdt nVidia niet zo van bugfixes?
Bron: http://www.gamersdepot.com/"I find it a bit odd that nobody has mentioned something...
The benchmark was already in Tomb Raider long before the v49 patch. In fact, it's present on the Tomb Raider cd in the retail box.
All you need to add is "-benchmark=paris3" on the command line, and you're off and running. Use the "settings" panel in the game launcher to configure whatever options you want.
Sure, the v49 patch added a few "convenience features", like a command line option to set the resolution and refresh rate. But there's really nothing in v49 that's not available in every other version of Tomb Raider. Well... except for some bug fixes and performance improvements.
Maybe NV doesn't like bug fixes and performance improvements?"
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat een ontzettend suf artikel. Deze reviewer moet wel in een vacuum leven. Ik dacht even dat het een artikel van 6 maanden geleden moest zijn maar nee het is echt op 18 september uitgebracht.danplo schreef op 20 september 2003 @ 07:50:
Hier ook weer een test met de FX5900Ultra.
http://www.sharkyextreme....cards/article.php/3079811
Ben ik even blij dat ik deze kaart heb.
Ze testen maar liefst 4 OpenGL spellen waarvan 3 met dezelfde engine (Q3, RTCW, JKII). En wat moeten we nog met 3DMark scores?
Ze testen UT2003 en reppen met geen woord over de ontbrekende trilineare filtering die de Nvidia drivers bij dit spel forceren.
Ze testen anisotropische filtering en vergeten even te vermelden dat ATI veel sneller overstapt op eenvoudiger texturen en buiten hoeken van 45 graden vrijwel niet filtert.
Hun image quality is helemaal lachwekkend: Nvidia zou betere anti-aliasing hebben en ATI betere anisotropische filtering. De waarheid is precies andersom.
Nee, ik ben ook blij met deze kaart, maar niet om redenen die genoemd zijn in deze 'review'.
Yeah well. The Dude abides.
Verwijderd
nieuws: DirectX 9.0-benchmarks ATi- en nVidia- kaarten
nieuws: AnandTech publiceert details over Half-Life 2 performance
Deze benchmarks zijn belangrijk. Dat je Pong kan spelen aan 1000FPS interesseert niemand.
Ben ik even blij dat ik deze kaart niet gekocht heb.
Moet je die plaatjes van de FSAA eens naast elkaar zien. Die ATI platen zijn echt duidelijk beter.
Maar ja, zoals Biff al zegt, je zou verwachten dat het een review van lang geleden is :lol:
Zo beroerd, zie je ze nog zelde
wat zijn momenteel de beste drivers voor een fx5600? bepaalde versie beter als een andere?
xbox live / psn / steam / nintendo id: phusebox | iRacing
[ Voor 33% gewijzigd door Okyah op 20-09-2003 13:44 ]
Alone at last
Just nostalgia and I
We were sure to have a blast
hmm tja snelste, heb nu versie 45 ofzo. ff tweakers.net checken danOkyah schreef op 20 September 2003 @ 13:43:
Mhm.. Tja, de nieuwste driver, die ook @ t.net meuktracker staat > 51.75 > is het snelst, maar de beeldkwaliteit gaat wederom achteruit schijnt. Dus beste, tja, wil je de snelste of de mooiste?
xbox live / psn / steam / nintendo id: phusebox | iRacing
Nee hoor, nvidia heeft de details al naar beneden gedraait, na het uitvinden dat als ze 8-bits kleuren gebruiken en zonder schaduw spelen wel 300 FPS kunnen halen!Verwijderd schreef op 20 September 2003 @ 10:57:
[...]
ach ja 150FPS in unreal tournament 2003 200 in jedi knight 400 in quake 3 150 in RTCW wow ja stel je voor dat je maar 100FPS had :roll:
We zullen zien of je nog zo blij bent als je het detail naar beneden moet zetten in halflife 2
There is no place like ::1
maar is het normaal dat die slechter draait dan een Geforce 2???
Vietcong haalt net 20 fps maximaal... verder gaat het om een P4 2.0 ghz dacht ik
[ Voor 12% gewijzigd door Phusebox op 20-09-2003 14:58 ]
xbox live / psn / steam / nintendo id: phusebox | iRacing
Nou...hij zou toch ECHT wel sneller moeten gaan als een GF2!Phusebox schreef op 20 September 2003 @ 14:58:
ik heb dus een fx5600 van MSI geinstalleerd bij een vriend van mij
maar is het normaal dat die slechter draait dan een Geforce 2???
Vietcong haalt net 20 fps maximaal... verder gaat het om een P4 2.0 ghz dacht ik
Welke Drivers gebruikt die gast.....45.33 zijn drivers die ik kan aanraden voor FX serie!
En vietcong is een redelijk zwaar spel ( zelfs voor een ti4600 die sneller is als een FX5600 ) dus zet die settings eens ietsje lager!
[ Voor 13% gewijzigd door swampy op 20-09-2003 15:10 ]
There is no place like ::1
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
gebruik 45.33 op 800x600swampy schreef op 20 September 2003 @ 15:09:
[...]
Nou...hij zou toch ECHT wel sneller moeten gaan als een GF2!
Welke Drivers gebruikt die gast.....45.33 zijn drivers die ik kan aanraden voor FX serie!
En vietcong is een redelijk zwaar spel ( zelfs voor een ti4600 die sneller is als een FX5600 ) dus zet die settings eens ietsje lager!
xbox live / psn / steam / nintendo id: phusebox | iRacing
Tja....umm..her-installeer windows...blijkbaar is er nog iets achtergebleven. Maar ja, een FX5600 is niet de snelste kaart...dus zelfs in optimale gevallen moet je niet teveel verwachten!
There is no place like ::1
ja maar toch wel sneller als een geforce 2 hoop ikswampy schreef op 20 September 2003 @ 15:31:
[...]
Tja....umm..her-installeer windows...blijkbaar is er nog iets achtergebleven. Maar ja, een FX5600 is niet de snelste kaart...dus zelfs in optimale gevallen moet je niet teveel verwachten!
xbox live / psn / steam / nintendo id: phusebox | iRacing
Dat zei ik dus ook alswampy schreef op 20 September 2003 @ 15:31:
[...]
Tja....umm..her-installeer windows...blijkbaar is er nog iets achtergebleven. Maar ja, een FX5600 is niet de snelste kaart...dus zelfs in optimale gevallen moet je niet teveel verwachten!
Trouwens een vriend van me heeft een PC gekocht Intel pentium 4 blabla met een geforce FX, ik zei, kijk uit voor de 64 bit versie... en ja hoor een Asus Magic geval, nou ja ik had hem gewaarschuwd..... en maar eigenwijs blijven....
(Zeg maar zo iemand die een duron 1200 koopt met een ECS mobo en dan geen zin heeft om 30 euro meer uit te geven voor een athlon XP 2000+ en dan stug volhouden, ja maar het scheelt maar zo veel MHz..... *zucht*
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ach ja.....sokje schreef op 20 September 2003 @ 15:37:
[...]
Dat zei ik dus ook alNou ja we zien wel als "meneer" heeft gereinstalled of de problemen er dan nog zijn.
Trouwens een vriend van me heeft een PC gekocht Intel pentium 4 blabla met een geforce FX, ik zei, kijk uit voor de 64 bit versie... en ja hoor een Asus Magic geval, nou ja ik had hem gewaarschuwd..... en maar eigenwijs blijven....
(Zeg maar zo iemand die een duron 1200 koopt met een ECS mobo en dan geen zin heeft om 30 euro meer uit te geven voor een athlon XP 2000+ en dan stug volhouden, ja maar het scheelt maar zo veel MHz..... *zucht*
Consumenten...sommige hebben gewoon 1 regel "maakt me niet uit hoe het werkt...als het maar werkt" . Dat soort mensen WIL gewoon niet leren!
There is no place like ::1
256mb versie zeker?Phusebox schreef op 20 september 2003 @ 15:34:
[...]
ja maar toch wel sneller als een geforce 2 hoop ik
Jah klopt, maar wel redelijk wat weten van PC's tenminste denkt ie, koopt ie een pentium geen dual channel (hoeze dat geeft helemaal geen performance winst hoor 2 reepjes in plaats van 1) enzo. en bovendien zijn pa's pc is het; mjah een FX'je is genoeg...... aaargh, maar als ie gaat zeuren van hij presteerd slecht --> eigen schuld, had je maar moeten luisteren.swampy schreef op 20 September 2003 @ 15:39:
[...]
Ach ja.....
Consumenten...sommige hebben gewoon 1 regel "maakt me niet uit hoe het werkt...als het maar werkt" . Dat soort mensen WIL gewoon niet leren!
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
nee 128 mb zeker... wat een domme opmerking, iedereen weet dat 256mb overbodig is
xbox live / psn / steam / nintendo id: phusebox | iRacing
Door ervaring leert men...zal ik maar zeggen. Als iemand niet de tijd neemt om wat te lezen over hardware van vandaag de dag dan verdient men gewoon een slome pc.sokje schreef op 20 September 2003 @ 15:54:
[...]
Jah klopt, maar wel redelijk wat weten van PC's tenminste denkt ie, koopt ie een pentium geen dual channel (hoeze dat geeft helemaal geen performance winst hoor 2 reepjes in plaats van 1) enzo. en bovendien zijn pa's pc is het; mjah een FX'je is genoeg...... aaargh, maar als ie gaat zeuren van hij presteerd slecht --> eigen schuld, had je maar moeten luisteren.
Mij maakt het niet uit....maar met klachten moet je dan niet bij mij komen :-p
There is no place like ::1
Verwijderd
Tja, ik weet niet goed hoe de motor van een auto werkt, verdien ik dan een slome auto? Nee, sommigen hebben er geen tijd of interesse voor en willen betalen voor een goed en snel systeem. Diegenen die het toch zelf willen doen en fouten maken: al doende leert men...swampy schreef op 20 september 2003 @ 16:08:
[...]
Door ervaring leert men...zal ik maar zeggen. Als iemand niet de tijd neemt om wat te lezen over hardware van vandaag de dag dan verdient men gewoon een slome pc.
Mij maakt het niet uit....maar met klachten moet je dan niet bij mij komen :-p
Ja..maar als je Dynabyte instapt voor een "snel" systeem dan weet je toch ook wel dat het niet echt bloedje geil gaat worden!Verwijderd schreef op 20 September 2003 @ 16:11:
[...]
Tja, ik weet niet goed hoe de motor van een auto werkt, verdien ik dan een slome auto? Nee, sommigen hebben er geen tijd of interesse voor en willen betalen voor een goed en snel systeem. Diegenen die het toch zelf willen doen en fouten maken: al doende leert men...
Of je bij Alternate een "gamers pc 1" besteld dan weet je ook dat je behoorlijke troep krijgt!
Oftewel werk genoeg voor die rare techneut buur met die kast voor met oude hardware en spellen!
[ Voor 18% gewijzigd door swampy op 20-09-2003 16:17 ]
There is no place like ::1
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
256 mb mag op een fx5200 dan overkill zijn omdat in de situaties waar het wel veel uitmaakt, de fx5200 toch al geen speelbare framerates haalt, maar 256 mb opzich is dus wel zinvol vanaf 1280 en 4-6 AA in bv UT2003 en Unreal2 en er komen er meer Halo, HL2 etc.Phusebox schreef op 20 September 2003 @ 16:03:
[...]
nee 128 mb zeker... wat een domme opmerking, iedereen weet dat 256mb overbodig is
In veel Ut2003 maps loopt het verschil op met 40-50%, maar niet in Antalus en Asbestos.
Wat een domme opmerking he.
[ Voor 9% gewijzigd door edward2 op 20-09-2003 17:03 ]
Niet op voorraad.
Met die AA ben ik het met je eens. Met die onder meer hoeken AF van nVidia ook. Maar dat Ati altijd slechter is met AF ben ik het zeker niet mee eens, soms zijn ze zelfs beter(aangenomen dat je in de goeie hoek kijkt natuurlijkBiff schreef op 20 September 2003 @ 12:12:
[...]
Ze testen anisotropische filtering en vergeten even te vermelden dat ATI veel sneller overstapt op eenvoudiger texturen en buiten hoeken van 45 graden vrijwel niet filtert.
Hun image quality is helemaal lachwekkend: Nvidia zou betere anti-aliasing hebben en ATI betere anisotropische filtering. De waarheid is precies andersom.
Ik heb zelf ook een voorkeur voor de kwaliteit van NV's Af, maar voor de perf van ATI's perfmode, die is waanzinnig goed en ziet er in 9 van 10 gevallen zéér goed uit, en dat met zo weinig perfverlies, x16 AF perf is overal speelbaar.
Niet op voorraad.
Ik zie niet wat hier beter of slechter aan te vinden valt. De GeForce schakelt pas dieper in het beeld om naar het volgende mipmap level en hij filtert de overgang in alle hoeken met vrijwel dezelfde kwaliteit. ATI's AF is een compromis ten behoeve van snelheidswinst. Het gaat hier niet om een subjectief criterium.Sjah schreef op 20 September 2003 @ 17:17:
[...]
Met die AA ben ik het met je eens. Met die onder meer hoeken AF van nVidia ook. Maar dat Ati altijd slechter is met AF ben ik het zeker niet mee eens, soms zijn ze zelfs beter(aangenomen dat je in de goeie hoek kijkt natuurlijk). Inclusief dat plaatje wat je op hun site ziet.
Yeah well. The Dude abides.
Oh ok, dan zal ik wel wat aan mijn ogen gehad hebben, toen ik toch betere screenies zag van de Ati. Maar ik weet niet meer welke dat waren, welk review, en heb ook geen zin om dit uit te zoeken.Biff schreef op 21 september 2003 @ 00:00:
[...]
Ik zie niet wat hier beter of slechter aan te vinden valt. De GeForce schakelt pas dieper in het beeld om naar het volgende mipmap level en hij filtert de overgang in alle hoeken met vrijwel dezelfde kwaliteit. ATI's AF is een compromis ten behoeve van snelheidswinst. Het gaat hier niet om een subjectief criterium.
Beide gebruiken een iets andere methode. Dus het uiteindelijke effect is net iets anders......Sjah schreef op 21 September 2003 @ 00:53:
[...]
Oh ok, dan zal ik wel wat aan mijn ogen gehad hebben, toen ik toch betere screenies zag van de Ati. Maar ik weet niet meer welke dat waren, welk review, en heb ook geen zin om dit uit te zoeken.
Dus ja...een vergelijking ertussen maken!
There is no place like ::1
swampy schreef op 21 September 2003 @ 01:00:
[...]
Beide gebruiken een iets andere methode. Dus het uiteindelijke effect is net iets anders......
Dus ja...een vergelijking ertussen maken!
Waar is de tijd gebleven dat je gewoon 3 screenshot van quake2 had in een review, van de voodoo2 , de tnt en de rage pro, en in 1 oogopslag wist je hoelaat het was.
Het vreemde aan heel de situatie met Valve vind ik dat zo knappe programmeer koppen, 5x(!!!) zoveel moeten werken aan een engine om hem vlot te krijgen op de Fx'en. En dan nog met het geld van Ati!
Volgens mij klopt hier iets niet. Maar dat denk ik er dan over
Dan moet jij es even lezen op die site van THG!-ETz-Memphis Z schreef op 21 September 2003 @ 13:45:
Als je kijkt naar de scores van de Geforce FX 5900Ultra bij de Aquamark3 Benchmarks, dan besluit ik daaruit dat hij in DirectX9 (is toch een DX9 test niet?) ongeveer even snel is als de 9800Pro.
Het vreemde aan heel de situatie met Valve vind ik dat zo knappe programmeer koppen, 5x(!!!) zoveel moeten werken aan een engine om hem vlot te krijgen op de Fx'en. En dan nog met het geld van Ati!
Volgens mij klopt hier iets niet. Maar dat denk ik er dan over
De kaart presteert niet gelijk in DX9, das met cheats! Als je even verder leest, zie je ook dat de enige drivers die het beeld op de juiste manier renderen, oudere drivers zijn van voor Aquamark3. En hiermee is de score zeer slecht t.o.v ATi.
Het zou inmiddels duidelijk voor iedereen moeten zijn dat de performance van DX9 van de FX serie zeer en zeer slecht is. Er moet zoveel ge-optimaliseerd worden door valve enz enz, en alsnog blijfen de prestaties onder de maat. nVidia heeft met de FX een DX8 kaart op de markt gezet die ook instaat is DX9 te renderen. Echter de prestaties zijn bar slecht en zijn alleen recht te trekken door enkele effecten weg te laten.
Er valt niets meer te betwijvelen, FX is slecht in DX9. Dat op de nieuwspost over AquaMark doet denken dat de prestaties gelijk zijn is niet juist. De werkelijke achterliggende gedachte van Tom, is dat hij met deze benchmark aantoont dat je beter geen nVidia kaart kunt kopen, want daar ga je spijt van krijgen. Helemaal als we binnenkort met meer DX9 games te maken gaan krijgen.
Het nieuws over Aquamark3 moeten we dus als waarschuwing zien. Het is kijharde waarheid, er valt niet over te twisten, nvidia is traag momenteel.
Ik heb het niet over nieuwspost of benchmarks op een of andere site, maar ben weest kijken in de result database van aquamark en 3dMark zelf, en dingen gezien die gelijkwaardig zijn, zelfs met vorige versies van drivers.BruT@LysT schreef op 21 september 2003 @ 14:07:
[...]
Dan moet jij es even lezen op die site van THG!
De kaart presteert niet gelijk in DX9, das met cheats! Als je even verder leest, zie je ook dat de enige drivers die het beeld op de juiste manier renderen, oudere drivers zijn van voor Aquamark3. En hiermee is de score zeer slecht t.o.v ATi.
Het zou inmiddels duidelijk voor iedereen moeten zijn dat de performance van DX9 van de FX serie zeer en zeer slecht is. Er moet zoveel ge-optimaliseerd worden door valve enz enz, en alsnog blijfen de prestaties onder de maat. nVidia heeft met de FX een DX8 kaart op de markt gezet die ook instaat is DX9 te renderen. Echter de prestaties zijn bar slecht en zijn alleen recht te trekken door enkele effecten weg te laten.
Er valt niets meer te betwijvelen, FX is slecht in DX9. Dat op de nieuwspost over AquaMark doet denken dat de prestaties gelijk zijn is niet juist. De werkelijke achterliggende gedachte van Tom, is dat hij met deze benchmark aantoont dat je beter geen nVidia kaart kunt kopen, want daar ga je spijt van krijgen. Helemaal als we binnenkort met meer DX9 games te maken gaan krijgen.
Het nieuws over Aquamark3 moeten we dus als waarschuwing zien. Het is kijharde waarheid, er valt niet over te twisten, nvidia is traag momenteel.
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
Ja, na de license agreement een dialoogvenster met de vraagsokje schreef op 21 September 2003 @ 14:40:
Eigenlijk moet het mogelijk zijn in de drivers of je met of zonder "cheat" wil doen.
'Do you want to cheat? Yes - No'

[ Voor 6% gewijzigd door Verwijderd op 21-09-2003 14:44 ]
In de 51.75 kan je alle opties aanpassen zoals je maar wilsokje schreef op 21 September 2003 @ 14:40:
Eigenlijk moet het mogelijk zijn in de drivers of je met of zonder "cheat" wil doen. Zonder heb je mindere Quality en bij met meer Performance. Of eigenlijk nog beter, zet cheats aan in de Performance Mode en in Quality zet dan geen cheats aan. Iedereen zijn wil. Ik zou bijvoorbeeld draaien in Performance draaien, mij interesseert beeldkwaliteit niet zo veel, als het spel maar goed loopt op hogere resoluties met wat meer detail (denk aan vogels die rondvliegen oid), de rest interesseert met niet zo veel. Andere mensen die dan liever goed beeld willen hebben die spelen dan op lagere resoluties, zo heeft ieder wat wils.
Verwijderd
Met een lagere beeldkwaliteit zie je dus niet alle details: onbelichte objecten, ontbrekende schaduwen, slechte anisotropische filtering,...-ETz-Memphis Z schreef op 21 September 2003 @ 14:59:
[...]
In de 51.75 kan je alle opties aanpassen zoals je maar wilVoor mij speelt beeldkwaliteit ook niet zo een grote rol, zolang ik maar alle details zie
en op hoger res
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
Nee, als je niet zoekt kan je ze niet tegenkomen.-ETz-Memphis Z schreef op 21 September 2003 @ 15:19:
de schaduwen zijn echt niet weg hoor, en de onbelichte objecten ben ik ook nog niet tegengekomen...
Terrein niet belicht bij v45.23, schip niet belicht bij v51.75, zwart gras bij beide versies:

Idem hier:

Ontbrekende schaduw bij v45.23, schip niet belicht bij v51.75:

Slechte anisotropische filtering bij v51.75 tov andere detonators (wel beter dan de radeons):

[ Voor 31% gewijzigd door Verwijderd op 21-09-2003 15:40 ]
[ Voor 4% gewijzigd door MPAnnihilator op 21-09-2003 16:01 . Reden: Kleine correctie ]
Als jij omschakelen voor sommige berekeningen van 32 naar 16 bit wegens geen tussenmodus van 24 bits, en te traag in 32 bits die toch niemand aanspreekt nu, als jij dat cheaten noemt, dan heb je dat coole woordje mooi onthouden en perfect kunnen naspreken. Van harte proficiat !Wie nou nog ontkent dat nVidia loopt te cheaten heeft een ontzettende plaat voor zijn kop.
Dat deden ze bij 3dmark zeker ook? Hele stukken niet renderen is iets anders als wat jij zegt hoor.-GF-Annihilator schreef op 21 September 2003 @ 17:49:
[...]
Als jij omschakelen voor sommige berekeningen van 32 naar 16 bit wegens geen tussenmodus van 24 bits, en te traag in 32 bits die toch niemand aanspreekt nu, als jij dat cheaten noemt, dan heb je dat coole woordje mooi onthouden en perfect kunnen naspreken. Van harte proficiat !
Maar dat zijn mij 2 centjes...
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Zowel Nvidia als Ati hadden problemen met 32bits DX9....daarom dus :-)sokje schreef op 21 September 2003 @ 18:11:
Ik vind het eigenlijk lullig van Microsoft en ATi dat ze geen 32 bit hebben gehouden voor DirectX 9.0 de FX was al in ontwikkeling bij de aankondinging dat er 24 bit precisie nodig was en er geen mogelijkheid meer was voor nVidia op terug te schakelen op 24 bit in plaats van 32 bit. ATi kan geen 32 bit precisie en daarom zijn ze bij Microsoft geweest om aan te vragen of het op 24 bit kon. Ik denk dat als de FX ook op 24 bit had gekunnen, er veel imho minder issues waren geweest want dan hat nVidia niet hoeven cheaten. Aan de andere kant is het wel zo dat als de nVidia op 32 bit draait, dat er dan een grotere beeldkwaliteit moet zijn, maar helaas is dat niet te benchen.
Maar dat zijn mij 2 centjes...
Maarz...de Nv40 komt eraan......
There is no place like ::1
Dat weet ik, maar nVidia heeft geen 24 bit, ik bedoel, stel dat ATi 32 bit had moeten draaien of als nVidia 24 bit had gehad, dan had alles er denk ik heel anders uit gezien.swampy schreef op 21 september 2003 @ 18:30:
[...]
Zowel Nvidia als Ati hadden problemen met 32bits DX9....daarom dus :-)
Maarz...de Nv40 komt eraan......
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
What's up dudes
Vraagje wat is de beste keuze voor een nieuwe vid. kaart een ATI 9600 Pro/ 9800 SE of een Nvidia GeForce FX 5600 XP /Ultra. Ik wil graag wat overclocken dus er moet wel een groot koelblok opzitten. Ik hecht trouwens meer aan Frames/sec dan aan de beeldkwaliteit.
Verder wil ik graag weten of 256 MB nu wel echt nodig is, kan iemand mij dat vertellen ?
De Geforce FX 5600 XP is blijkbaar een goede overclock kaart maar kan hij ook tippen aan de ULTRA of moet ik gewoon 50 euro meer uitgeven voor de ULTRA in plaats van XP en dan de ULTRA overclocken naar FX 5900 specs. Of werkt dat niet met de FX 5600 ULTRA ? is de ULTRA trouwens wel een goede overclock kaart of zit deze al aan max ?
Of is het beter om een ATI te kopen ? zijn deze sneller, mooier en beter overclockbaar of is ATI niet echt een tweakers kaart ? Wat is trouwens het verschil tussen de 9600 Pro en de 9800 SE ? welke is sneller ?
Ik hoop dat iemand mij een antwoord kan geven op deze vragen.
Lees gewoon op tweakers een het fx toppic, het ati 9800pro toppic ofzo, ga naar tomshardware,anandtech,hardocp en dergelijke , en zo kom je het best tot je eigen besluit denk ik...Verwijderd schreef op 21 September 2003 @ 18:45:
Word !
What's up dudes
Vraagje wat is de beste keuze voor een nieuwe vid. kaart een ATI 9600 Pro/ 9800 SE of een Nvidia GeForce FX 5600 XP /Ultra. Ik wil graag wat overclocken dus er moet wel een groot koelblok opzitten. Ik hecht trouwens meer aan Frames/sec dan aan de beeldkwaliteit.
Verder wil ik graag weten of 256 MB nu wel echt nodig is, kan iemand mij dat vertellen ?
De Geforce FX 5600 XP is blijkbaar een goede overclock kaart maar kan hij ook tippen aan de ULTRA of moet ik gewoon 50 euro meer uitgeven voor de ULTRA in plaats van XP en dan de ULTRA overclocken naar FX 5900 specs. Of werkt dat niet met de FX 5600 ULTRA ? is de ULTRA trouwens wel een goede overclock kaart of zit deze al aan max ?
Of is het beter om een ATI te kopen ? zijn deze sneller, mooier en beter overclockbaar of is ATI niet echt een tweakers kaart ? Wat is trouwens het verschil tussen de 9600 Pro en de 9800 SE ? welke is sneller ?
Ik hoop dat iemand mij een antwoord kan geven op deze vragen.
Verwijderd
Ik denk er over om de PoV GeForce FX 5600 XP 128 MB (180 euro +/-) te kopen maar kan ik er dan weer 2 jaar tegen aan zonder al teveel frame drops ? En is 128 MB niet teweinig voor in de toekomst ik heb nu maar 64 MB en dat merk je wel. Ik speel veel MOHAA (Nick << Firehand >> (NL) ) en het spel deed het eerst goed met 64 MB maar sinds de expansion packs doet hij het steeds trager.
Verwijderd
Ik heb net weer wat huiswerk gedaan ik kom tot de conclusie dat de ATI 9500 Pro eigenlijk gewoon een downgeclockte 9700 Pro is, klopt dit ? En als dat klopt kan ik dan de 9500 Pro met andere koeling overclocken naar 9700 Pro specs. ?
Of is de ATI 9600 Pro dan weer sneller ?
Want als dat is dan draai ik makelijk mijn TI 4200 eruit !
[ Voor 16% gewijzigd door Verwijderd op 21-09-2003 19:49 ]
Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook. Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat. Als ik moet beginnen opnoemen wat ik met mijn ati allemaal scheef heb zien renderen, kom ik minstens aan even veel als bij nvida.Intronic schreef op 21 September 2003 @ 17:50:
[...]
Dat deden ze bij 3dmark zeker ook? Hele stukken niet renderen is iets anders als wat jij zegt hoor.
Wat mij betreft heb ik voorlopig met de games die ik SPEEL ( niet bench want bijvoorbeeld in aquamark merk ik ook het ontbreken van light op het gras. )geen enkel probleem gezien bij gelijk welke bèta van nvidia met mijn fx . Wat betreft dx9 toepassingen wacht ik graag en hoopvol de det 50 serie af.
EDIT : Sorry voor de edit knop niet te gebruiken, wist al niet meer dat ik hiervoor ook al reply had gepost

[ Voor 6% gewijzigd door MPAnnihilator op 21-09-2003 20:26 . Reden: Edit ]
Je kan eigenlijk 2 dingen doen, een ATi radeon 9600 (pro) kopen, deze is zeer goed te overclocken (zeggen de review site's ook) of even wachten en een volgende generatie videokaart kopen. Dit is dus de ATi R(V)420 of de nVidia nV4x.Verwijderd schreef op 21 September 2003 @ 19:46:
yep dat is te duur. ik wil gewoon iets van +/- 200 euro uitgeven.
Ik heb net weer wat huiswerk gedaan ik kom tot de conclusie dat de ATI 9500 Pro eigenlijk gewoon een downgeclockte 9700 Pro is, klopt dit ? En als dat klopt kan ik dan de 9500 Pro met andere koeling overclocken naar 9700 Pro specs. ?
Of is de ATI 9600 Pro dan weer sneller ?
Want als dat is dan draai ik makelijk mijn TI 4200 eruit !
Let wel op dat men hier met volgende generatie videokaarten niet de nV 38 en de ATi R360 bedoelt, dit zijn slechts geupgrade versies van de R350 en nV35.
Als ik jou was zou ik nog even wachten en nog even verder gaan met je Ti. In welk systeem komt de kaart eigenlijk, want als het een 1 GHz'je is dan is het verschil tussen Ti 4200 64 MB en nieuwe kaart minder groot dan bij een sterker systeem. Ik wil hiermee zeggen dat de bottleneck bij MOHAA niet per ce de videokaart hoeft te zijn.
Let wel; je moet zelf je eigen keus maken en voor jezelf bepalen wat het beste is. Denk er wel goed over na, want 200 euro is geen kattenpis (voor mij niet in elk geval).
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Krijg je hier voor betaald?-GF-Annihilator schreef op 21 september 2003 @ 20:25:
[...]
Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook. Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat. Als ik moet beginnen opnoemen wat ik met mijn ati allemaal scheef heb zien renderen, kom ik minstens aan even veel als bij nvida.
Wat mij betreft heb ik voorlopig met de games die ik SPEEL ( niet bench want bijvoorbeeld in aquamark merk ik ook het ontbreken van light op het gras. )geen enkel probleem gezien bij gelijk welke bèta van nvidia met mijn fx . Wat betreft dx9 toepassingen wacht ik graag en hoopvol de det 50 serie af.
EDIT : Sorry voor de edit knop niet te gebruiken, wist al niet meer dat ik hiervoor ook al reply had gepost
Dus jij vind het allemaal goed dat ze stukken weglaten, game developers omkopen enz.? Ze doen er alles aan om zoveel mogelijk fps te krijgen, ze hebben die community daardoor mooi verneukt.
Op de manier zoals nVidia het heeft gedaan, kan ik met m'n GF3 Ti 200 ook wel 7000 3dmarks halen
http://www.rage3d.com/boa....php?s=&threadid=33712297 , wat die kerel daar zegt kan best nog eens waar zijn, ze gebruiken gewoon DX8.1 en PS1.4, zodat ze meer FPS krijgen.
Verwijderd
Alleen met drivers die niet alles renderen (met andere woorden die het niet correct doen en waar je dus uberhaupt niet mee kan vergelijken) is nvidia even snel. Als je drivers gebruikt die wel alles correct doen is de FX kaart ongeveer een 40% trager.-ETz-Memphis Z schreef op 21 September 2003 @ 13:45:
Als je kijkt naar de scores van de Geforce FX 5900Ultra bij de Aquamark3 Benchmarks, dan besluit ik daaruit dat hij in DirectX9 (is toch een DX9 test niet?) ongeveer even snel is als de 9800Pro.
Omdat nvidia niet de directx9 standaarden gebruikt daardoor moet valve daar veel tijd en moeite insteken . Valva doet nvidia hier dus een plezier zonder die optimalisaties kon bijna niemand met een FX kaart halflife 2 goed draaien (met alle opties aan dus) .Het vreemde aan heel de situatie met Valve vind ik dat zo knappe programmeer koppen, 5x(!!!) zoveel moeten werken aan een engine om hem vlot te krijgen op de Fx'en. En dan nog met het geld van Ati!
Volgens mij klopt hier iets niet. Maar dat denk ik er dan over
Verwijderd
Het gaat niet alleen daarover, je vergeet 'enkele' dingen.-GF-Annihilator schreef op 21 september 2003 @ 17:49:
Als jij omschakelen voor sommige berekeningen van 32 naar 16 bit wegens geen tussenmodus van 24 bits, en te traag in 32 bits die toch niemand aanspreekt nu, als jij dat cheaten noemt, dan heb je dat coole woordje mooi onthouden en perfect kunnen naspreken. Van harte proficiat !
Het cheaten in 3DMark03, de reden die nVidia opgaf was:
Bron: nVidia ondersteunt 3DMark 2003 nietnVidia zegt zelfs 3DMark 2003 niet te ondersteunen als primaire benchmark om de prestaties van nieuwe grafische kaarten mee te testen. Als voorbeeldreden noemt de chipbakker dat de eerste scene opgebouwd worden op een inefficiënte manier, met gebruik van DirectX-elementen die vooral door ATi gepromoot worden, maar weinig gebruikt worden in games.
Omdat scenes inefficiënt opgebouwd zouden zijn doen ze maar het volgende:
Reactie van nVidia:De GPU-fabrikant sprak van een fout in de drivers, maar ondertussen is een verklaring van Futuremark - de producent van 3DMark03 - verschenen waarin wordt gesproken van opzet. In de verklaring van Futuremark worden acht manieren genoemd waarop nVidia de score zou hebben beïnvloed. Het gaat daarbij vooral om het niet renderen van scenes die zich net buiten het camerastandpunt bevinden en om het versimpelen van verschillende vertex shaders. In een nieuwe build van 3DMark03, waarin de cheats niet werken, daalt de score van de GeForceFX 5900 Ultra met 24,1 procent.
Hier spreken ze zichzelf tegen. Wat is het nu? Een bug in de drivers of Futuremark dat nVidia een slechte naam probeert te bezorgen?nVidia: We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad.
Bron: Futuremark bevestigt 'drivertruc' nVidia in 3DMark03
Toen ze inzagen dat ze hiermee enkel zichzelf de das omdeden wat de toekomst betreft hebben ze zich maar bedacht:
Bron: nVidia werkt weer samen met FuturemarknVidia is weer lid geworden van het Futuremark ontwikkelprogramma, en daarmee lijkt een einde gekomen te zijn aan een periode van wrijving tussen de twee bedrijven. Begin dit jaar werd voor het eerst duidelijk dat de relatie tussen de twee was verslechterd. nVidia bleek in december 2002 uit het beta-programma gestapt te zijn omdat ze het niet eens waren met de manier waarop de benchmarks werd geprogrammeerd, en begon openlijk kritiek te uiten op 3dMark 2003.
-Het feit dat nVidia DirectX9-games slecht ondersteunt:
Bron: nVidia reageert op benchmarkresultaten Half-Life 2We have been working very closely with Valve on the development of Half Life 2 and tuning for NVIDIA GPU's. And until a week ago had been in close contact with their technical team. It appears that, in preparation for ATI's Shader Days conference, they have misinterpreted bugs associated with a beta version of our release 50 driver.
[...] In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.
AnandTech publiceert details over Half-Life 2 performance
Maar wat dan met Tomb Raider: Angel of Darkness, ook een miscommunicatie over driverbugs?
Bron: DirectX 9.0-benchmarks ATi- en nVidia- kaartenDe resultaten van de benchmark zijn echter schokkend, want de Radeon-kaarten weten de meeste benchmarks met een flinke voorsprong op de GeForce FX-kaarten te winnen, als er van alle mogelijke effecten gebruik wordt gemaakt.
En wat doen we met Aquamark? Lichting wordt niet altijd gerenderd, schaduwen worden niet altijd gerenderd, de kwaliteit van de anisotropische filtering is ferm achteruit gegaan terwijl dat in vorige versies (44.03 en vroeger) perfect ging.
Bron: AquaMark 3-benchmark getest door Tom's Hardware
Is dit allemaal toeval denk je? Allemaal onopzettelijke bugs? In vroegere versies werd alles perfect gerenderd, in de nieuwe zijn die functies blijkbaar per ongeluk weggehaald of beschadigd. Wanneer je deze effecten wél toevoegt heb je een performance-drop van 60 tot 90%. Ik hoor veel vertellen over drivers die de slechte prestaties van de NV30-35 gaan goedmaken, nu zien we op welke manier dat gebeurt.
Steek je kop niet langer in het zand en bekijk de feiten zoals ze zijn. Al geven ze me gratis een FX5900 Ultra, ik moet ze niet hebben. Afwachten maar wat de volgende generatie brengt.
Verwijderd
Probleem is dat met 32bit het niet vooruit gaat. In tegenstelling tot wat je denkt is dat wel degelijk te testen. Ja de beeldkwaliteit is beter maar spijtig genoeg zak je dan onder de 30fps (voor halflife 2 bijvoorbeeld) en dan speel je nog in 1024*...zonder AAsokje schreef op 21 September 2003 @ 18:11:
Ik vind het eigenlijk lullig van Microsoft en ATi dat ze geen 32 bit hebben gehouden voor DirectX 9.0 de FX was al in ontwikkeling bij de aankondinging dat er 24 bit precisie nodig was en er geen mogelijkheid meer was voor nVidia op terug te schakelen op 24 bit in plaats van 32 bit. ATi kan geen 32 bit precisie en daarom zijn ze bij Microsoft geweest om aan te vragen of het op 24 bit kon. Ik denk dat als de FX ook op 24 bit had gekunnen, er veel imho minder issues waren geweest want dan hat nVidia niet hoeven cheaten. Aan de andere kant is het wel zo dat als de nVidia op 32 bit draait, dat er dan een grotere beeldkwaliteit moet zijn, maar helaas is dat niet te benchen.
Maar dat zijn mij 2 centjes...
Verwijderd
Ga voor ATI alle benchmarks voor directx9 tonen aan dat ATI kaarten een stuk beter zijn.Verwijderd schreef op 21 September 2003 @ 18:45:
Word !
What's up dudes
Vraagje wat is de beste keuze voor een nieuwe vid. kaart een ATI 9600 Pro/ 9800 SE of een Nvidia GeForce FX 5600 XP /Ultra. Ik wil graag wat overclocken dus er moet wel een groot koelblok opzitten. Ik hecht trouwens meer aan Frames/sec dan aan de beeldkwaliteit.
Niet echtVerder wil ik graag weten of 256 MB nu wel echt nodig is, kan iemand mij dat vertellen ?
Verwijderd
Het probleem was dat de techniek die ze gebruikten om te weten wat ze niet moeten renderen je nooit in spelletjes kan gebruiken. Die techniek is dus compleet nutteloos voor spelletjes het enige waarom ze dat er insteken is omdat het dan lijkt dat hun kaart sneller is dan ze werkelijk is.-GF-Annihilator schreef op 21 September 2003 @ 20:25:
[...]
Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook.
Het probleem is wel dat die techniek alleen in benchmarktools bruikbaar is. ALs jij dus een gewoon spelletje speelt doet dat niks.Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat.
Ik denk niet dat die veel verschil zullen geven en de 3.8 drivers van ATI zullen dat waarschijnlijk nog minder maken.Wat mij betreft heb ik voorlopig met de games die ik SPEEL ( niet bench want bijvoorbeeld in aquamark merk ik ook het ontbreken van light op het gras. )geen enkel probleem gezien bij gelijk welke bèta van nvidia met mijn fx . Wat betreft dx9 toepassingen wacht ik graag en hoopvol de det 50 serie af.
Verwijderd
En daardoor een hoop potentiële klanten misleiden door te laten blijken dat ze de beste resultaten hebben in 3DMark03? Vind je dat een goede manier van werken?-GF-Annihilator schreef op 21 September 2003 @ 20:25:
Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook. Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat. Als ik moet beginnen opnoemen wat ik met mijn ati allemaal scheef heb zien renderen, kom ik minstens aan even veel als bij nvida.
[ Voor 13% gewijzigd door Verwijderd op 21-09-2003 21:16 ]
Verwijderd
de GF TI 4200 zit in een Athlon XP 1600+ (1.4 Ghz) , maar ik wil een Athlon XP 2500+ (Barton, 333 Mhz FSB, 512 kb cach, 1.83 Ghz) dus dan moet er ook een nieuwe vid. kaart in. Maar ik weet niet welke vid. kaart.sokje schreef op 21 September 2003 @ 20:39:
[...]
Je kan eigenlijk 2 dingen doen, een ATi radeon 9600 (pro) kopen, deze is zeer goed te overclocken (zeggen de review site's ook) of even wachten en een volgende generatie videokaart kopen. Dit is dus de ATi R(V)420 of de nVidia nV4x.
Let wel op dat men hier met volgende generatie videokaarten niet de nV 38 en de ATi R360 bedoelt, dit zijn slechts geupgrade versies van de R350 en nV35.
Als ik jou was zou ik nog even wachten en nog even verder gaan met je Ti. In welk systeem komt de kaart eigenlijk, want als het een 1 GHz'je is dan is het verschil tussen Ti 4200 64 MB en nieuwe kaart minder groot dan bij een sterker systeem. Ik wil hiermee zeggen dat de bottleneck bij MOHAA niet per ce de videokaart hoeft te zijn.
Let wel; je moet zelf je eigen keus maken en voor jezelf bepalen wat het beste is. Denk er wel goed over na, want 200 euro is geen kattenpis (voor mij niet in elk geval).
kan iemand mij helpen !
Verwijderd
FAQ Videoplanken & Beeldkanonnen (01/03/03): vierde linkVerwijderd schreef op 21 september 2003 @ 21:15:
[...]
de GF TI 4200 zit in een Athlon XP 1600+ (1.4 Ghz) , maar ik wil een Athlon XP 2500+ (Barton, 333 Mhz FSB, 512 kb cach, 1.83 Ghz) dus dan moet er ook een nieuwe vid. kaart in. Maar ik weet niet welke vid. kaart.
kan iemand mij helpen !![]()
In principe gaan alle "welke videokaart moet ik kopen?"-topics op slot. Het heet hier Gathering of Tweakers en van een tweaker mag toch wel verwacht worden dat hij zelf een videokaart kan uitzoeken. Bij hoge uitzondering kunnen deze topics openblijven, maar dan moet je echt duidelijk aantonen dat het niet een standaard "welke videokaart moet ik kopen?"-topic is.
[ Voor 60% gewijzigd door Verwijderd op 21-09-2003 21:39 ]
Dit topic is gesloten.