Het grote GeForce FX topic (Deel 4)

Pagina: 1 ... 9 ... 11 Laatste
Acties:
  • 2.097 views sinds 30-01-2008

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Aan de andere kant ben ik wel eens dat we nou alle voor en tegens wel gehad hebben en we beter ook vooruit kunnen kijken hoe bv. de NV38 eruit zal gaan zien.
Daar doelde ik dus op. :Y) Ik kan me wel voorstellen dat iedereen zich wel een beetje laat gaan hier en daar, wil ik ook wel eens doen hoor, maar voor sommige mensen kan zoiets best vervelend zijn als je een vraag hebt en er niet tussen komt.

Bedankt allemaal in elk geval voor het "respect" _/-\o_

offtopic:
gezeaur was inderdaad een groot woord

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

-GF-Annihilator schreef op 18 september 2003 @ 16:32:
Voila , eindelijk iemand die snapt wat er is gebeurd. Oorspronkelijk had directx9 32 bit precisie moeten vereisen. ( toen kwam ook Carmack al uit voor deze precisie , is hij steeds al voorstander van geweest. )
JC is één tech freak en die wilt de coolste en beste game engine maken en neemd daar de tijd voor wat ie ook krijgt zo werkt de markt niet wat JC zegt geld voor de prima donna's in die markt die de tijd krijgen om te optimaliseren d'r zijn meer software huizen die ook voor een heel breed publiek willen proggen die niet de power hebben om 32bit te renderen.

JC vs de hele developers busness

Wat JC eist is dat het targed platform voor de massa bestaat uit kaarten die alleen maar 32bit FP gameperformance halen met voldoende FPS?
Maar de massa, dat zijn budged en midrange kaarten dat gaat niet lukken gezien de 5200 en 5600 en 9500 9600 performance. Dat word krap en dan is nVidia keuze door Qualityopties de juiste wat heb je aan 32bit met 10FPS met zeer mooi beeld en je wordt elke keer weggespeeld door die slide show frame rate als je met 16bitFP wel 25 haald en wel kan spelen dus gamen.

32bit is een quality optie voor mensen met poen die een high-end kaart zich kunnen veroorloven zodat die 32bitFP ook speeldbaar zal zijn, de massa moet wat optie op low zetten om voldoende frames te hebben om van het meest belangrijkste te kunnen genieten met hun budged van de gameplay no FPS no game play als je met 32bit naar een slide show kijkt ipv een firstpers.sh. game.

En ja dat verhaal is nogal tegen strijdig nV bied namelijk ook 12 en 16bit aan naast 32bit dus jouw verhaal is kul nVidia technish en marketing denken blijkbaar net zo als ik maar ATI heeft een fix waarde dat is juist minder ze hebben niet die flexibliteit als nVidia maar door hun performance wat nV tech om een of andere reden mist komen ze er nu mee weg.
Zo was het allemaal al geplanned. Nu echter heeft Ati een slimme zet uitgehaald en Microsoft kunnen overtuigen dit te verlagen naar 24 bits precisie. Had dit niet plaatsgevonden, kon Ati het helemaal vergeten, hun r300 ontwerp was eigenlijk al klaargestoomd op 24bits. Had Microsoft de 32 bits precisie aangehouden, zou Ati helemaal geen DirectX 9 compliant kaart hebben gehad. Rond deze tijd lag Microsoft ook zwaar in de knoop met Nvidia over de prijzen van Nvidia componenten in de Xbox. Ati heeft volgens mij gewoon een mega deal met Microsoft gesloten, toen al, betreffende de nex gen chip van hun toekomstige xbox2.
Leuk samenswerings verhaal maar ja als MS es en keer nV mats dan mag het wel
ATI werk gewoon samen en NV doet moeilijk dat heeft namelijk gewoon gevolgen hoe vaak waren er berichten dat nV met een of andere bedrijf problemen had? Nou ene hele hoop, dat heeft gevolgen.
Tja en als er twee ruzie maken dan is nVidia om een of andere redenen niet de schuldige?!!!!!
Niemand zal dit kunnen bevestigen, maar het zou wel de perfecte verklaring kunnen zijn voor wat nvidia nu meemaakt. Toen heeft Microsoft voor Ati’s zijde gekozen.
Tja misschien omdat nV hun visie Cg wilde doordrukken en hun hardware ermee direct mee wilde linken Cg heeft wat weg van Glide puur merk gericht MS wilt een aPI aanbieden voor elk merk.
Daarom is Glide nooit de standaard geworden aangezien dit lijd naar monopoly situatie in GPU land. dan is het toch fijn dat er MS DirectX is en OpenGL

Glide is nooit door andere merken gebruikt alleen al door die reden.
Indertijd heeft 3Dfx het onderandere verloren van Ati/nvidia omdat ze deels ook vasthielden aan hun 16 bits, pure performance was het belangrijkste voor hen. Nvidia heeft met het ontwerp van de fx series deze fout geen 2 maal willen herhalen en nu gekozen voor 32 bits precisie , kwaliteit ivp snelheid dus. ( 3DFX "overgekocht" weet je wel ). Nu maakte Microsoft dan de destructieve keuze om maar 24 bits precisie te implementeren teneinde Ati niet de grond in te boren met hun splinternieuw ontwerp en maakte toen ook de deal denk ik toen al betreffende Xbox2 met Ati. Wat dus een doorn is in het oog van de fx.
Dit is fout 3Dfx heeft verloren door dat ze net als nV30 gewoon te laat en problemen hadden en hun berijf zat niet zo flexible in elkaar om zo'n klap op te vangen 3DFX is puur merk gericht op de high-end gamers markt. ATI nVidia Matrox zijn veel gespreider OEM etc gespreid risico.
nVidia werd vaak als winnaar geroepen omdat ze in standaart zonder FSAA en aF de beste waren aTI blonk uit in FSAA & AF of beeld kwaliteit. in eht R300 nV30 tijdperk.

Dit kan je vergelijken met 16bit vs 32 bit kleurdiepte.
16bit geeft de hoogste FPS en dat volgen de meeste.

16 bit is meer FPS gericht en geeft in benchmarkt grote fps getalen dat valt de massa het meeste op

dus low resoos en low kleurdiepte lage FP warde en geen FSAA geen FA geven de beste FPS rates en dat valt op.

Nu is 32bit RGBA standaard net zoals 1024x768 als gemiddelde resoo
FSAA en aF zijn nog niet standaart en FP 12 tot 32 al helemaal niet.

in 3dFX hhogtij dagen was 32bit RGBA performance wise nog niet te doen zolang dat duurde bleeft 3DFX op 16bit

De eerste radeon werd gesmoked omdat 32bit performance dicht bij 16bit performance was en nVidia pure 16bit gebruikte en dus aTI versloeg.
16bit performance was toen doorslaggevend.

3DFX heeft lang aan 16bits aangehouden maar hebben in de latere periode omgeslagen naar hoge kwaliteit interne rendering 48bits iig daar wilden ze naartoe en JC happy.

hun 16bit tech was intern 32bit maar het resultaat werd naar 16bit framebuffer gerenderd Dit wilden ze optrekken naar 48bit voor hun 32bit rgba mode

dus dat 3DFX op de fles ging ligt niet aan 16bit maar dat ze te laat waren met hun laaste produkten en het bedrijf door bedrijfs economische redenen dat niet konden trekken en dus op de fles ging.
Nu wordt het nog erger uitgespeeld in de pers en laat men beinvloedbare gamers blijkbaar makkelijk geloven dat Nvidia slechts op 16 bits precisie werkt “omdat ze niet beter zouden kunnen”. Belachelijk gewoon, gezien je eerst de achtergrond van de ganse zaak moet weten natuurlijk.
Nouw de FP16 is een mooie performance trade off optie die nVidia bied maar er speeld meer mee
nVidia shader performance valt zwaar tegen hierdoor is 32bit niet te doen op nVidia high-end kaarten.

ATI shader performance is met standaart dX9 support al zeer sterk in verhouding in 24bit tov nVidia maar bied niet die gradaties aan.
De kritiek punt hier is dat nVidia kan 16bit FP gebruiken om de gamers te misleiden.
In games kon je als gebruiker bewust voor de kleur diepte van de rendertarget kiezen in games 16bit RGBA of 24bitRGB of 32bit RGBA etc in combi met de resolutie.

Maar het gevaar van die Schader 12 16 (24) 32 is dat dit op de achtergrond gebeurt zonder dat dit kenbaar is aan de gamer.

24bit vs 32bit is oneerlijk maar 12 vs 24 ook om dat te vergelijken.
Vooral als er puur naar FPS wordt gekeken en niet naar beeld qualiteit.
Mocht de beeld Qualiteit in praktijk mevalen dan is het geen misleiding maar dan zou 32bit overkillzijn en dus tegen JV vizie zijn.
Dit probleem heeft en oorzaak door de implementatie keuze van aTI en nVidia en beide zijn ze niet juist aangezien 1 op 1 vergelijken eigenlijk niet kan ATI mist meerdere gradatie en nVidia mist ene mid gradatie.
Ik blijf echter Nvidia vertouwen en zeker in hun driver team.
nVidia fan tja een goed driver team hebben ze zeker toveren kunnen ze niet wel cheaten maar zonder cheaten zijn ze afhankelijk van de hardware die hun GPU Divise heeft gebakken. Ze kunnen niet meer performance er uit halen dan er in geimplementeerd is. ATI bied op dit moment krachtige hardware ook al is hun driver team niet op het niveau als nVidia maar wel voldoende goed voor ene commercieel produkt.
Volgens mij heeft geen enkele hardware op de wereldbol dergelijk goeie driver support als een nvidia grafische kaart. Dat is ook de reden dat ik na mijn radeon9000-test-avontuurtje, toch weer ben gaan kiezen voor Nvidia, louter persoonlijk dan.
Tja JC denk er ook zo over nVidia driver kwaliteit is hoog maar vooral van belang voor developeers de aTI drivers voor ATI recente produkten zijn op nivaeu voor de gebruikers.
Maar JC vind ook dat de drivers voor release voor de gamers op goede nivau zijn.
En is die HL2 niet echt vooruit te branden, dat is dan spijtige zaak ja. Maar als ik zie dat die ati 9800pro ook niet mijn definitie van vloeiend benaderd, denk ik maar voor de nv 40 te zullen gaan.
icrosoft dan de destructieve keuze
D'r komt ook nog zoiets als de R420 en ja ATI hardware lijkt erg goed te schalen op CPU power ATI hebben meer last dan nVidia van zwakere CPU's dit kan dan driver related zijn.

De 12 16 24 32 bit FP situatie is zeer lastig aangezien ze geen gemeenschappelijk hebben.

Dat is nVidia probleem, geen 24bit waarom die ook niet, net zoals ATI die alleen maar 24bit bied dit allemaal half werk van beide.

En tja dX9 is het ressultaat van de API bakker en gPU bakkers GPU en API worden gemaakt voorelkaar ze zijn ook afhankelijk van mekaar. ALS nV graag de kont keert tegen iedereen die het niet eens is met hun dan kan je ook reacties verwachten.

Blijkbaar is de DX9 partner toch ATI al die tijd geweest GPU en aPI komen niet uit de lucht vallen maar ontwikkel teams beginnen er jaren eerder mee misschien heeft nVidia wel gedeeltlijk een periode dat het nog wel koek en ei was meegespeeld.

nVidia werkt niet mee, die wil zijn hardware native ondersteund zien wat makkelijk is als je de markt lijder bent tenzij er andere grote spelers zijn zoals aTI dan is een standaard gewenst.

MS de schuld geven is makkelijk kan ook aan hun arogantie liggen maar is dat wel zo.
Wie van de twee is daar verantwoordelijk voor ene of beide?
We never no aangezien we niet bij die onderhandelingen aanwezig waren.

iig gedraagd ATI zich wel tov van de rest van de busness en pluk daarvan de vruchten en ja goede tech verkoopt zichzelf was de nVidia tech echt beter dan was er geen probleem. en werd Cg goed opgepakt en persteerde het iig competatief tov ATI, maar doet het niet en dan is alles en iedereen behalve dan nV de schuld. Zou het niet gewoon aan nV tech liggen wat ze nu aanbieden dat het gewoon minder is en de driver team het dan maar moet oplossen.

Ik zou zeggen volgende keer beter met de nV40 maar ze moeten daar echt wel werk van maken aangezien ATI ook niet stil staat met hun R420 ip van zich tegen iedereen te keren.

Je moet geen grote bek hebben tegen de handen die je voed ()tenzij je voed()
De GPU bakkers zijn afhankelijk van de API bakker en daar speleln MS en de OpenGL consortium een grote rol, DX wordt nogal door de game developers ondersteund dus tegen die wind in te gaan zal gevolgen hebben bv Valve.
swampy schreef op 18 September 2003 @ 22:48:

Nvidia maakt goed kaarten ..zeker..bijna elke game draait er wel onder ( wat bij ati soms toch echt pas kan na een patch )
Dat komt doordat nVidia rond de R100 'n monopool positie nagenoeg had de markt kan niet om nVidia heen ook dus niet de gamedevelopers markt nVidia werdt native ondersteund en ook met of zonder DirectX speciaal voor ontwikkeld
PS1,4 werd nooit gebruikt waarom GF3 en 4Ti hadden het niet. en de 8500 had 'n stuk kleinere market share.

De situatie is nu anders d'r is een oude speler naar de voorgrond getreden en daar reageerd de markt op niet alleen de consument maar ook de game developers comunity en ook API instellingen
En tja, zelf ben ik gewoon nvidia gewend.....
Ikke ATI heb 3DFX links laten liggen alleen Banshee gehad ben toen voor nVidia gegaan al vroeg maar sinds de GF2MX overgestapt naar de eerste Radeons familie de r100 die heb ik al niet meer maar wel en zooi ATI vervangen
De Nv40 komt eraan ( in welke vorm dan ook ) dus daarmee moet het weer gaan lukken :-)
Tuurlijk maar dat hangt af in wat voor verhouding die tov de R420 staat en welke eerder komt en hoe groot de tijd er tussen is en de feature en performance verschil.
sokje schreef op 18 September 2003 @ 22:27:
Zeg is het eindelijk een keer afgelopen met dat "gezeur" over de specificaties van de FX en wat er mis aan is en wat niet, ik wordt er net zoals -GF- Annihilator een beetje moe van.
Tjees zoals hier sommige CineFX FX ophemelen terwijl het nV tech van dit moment aTI niet wegblaasd dan moet ik daar gewoon wat van zeggen aangezien wij niet nV aanhangers daar moe van worden en lezertjes wat hype wordt aangepraat.
Okee ATi is op het moment beter,
Oh ja velen beweren van niet ook al staat aTI voorlopig voor maar nV tech blijft de beste ook al lopen de games niet zo vlot op dx9 tov aTI nogal tegenstrijdig.
maar so what, we wachten wel weer op de volgende generatie kaarten.
Dat ook, maar dat staat los van de DX9 nV35 vs R350 discussie en nVidia gedrag, nV40 vs R420 is een anderverhaal en dat wordt afwachten eer we daar over kunnen discusieren, nu hooguit speculeren.
Er zijn heel wat meer argumenten om bijvoorbeeld een geforce te kopen in plaats van de radeon.

Misschien omdat er hier en daar toch wat probleempjes zijn met spellen die niet draaien en waarmee je met een FX nooit last van hebt. Kortom hou alsjeblieft op met al dieFX specs en dergelijke, want daar zitten veel mensen die een vraag willen stellen die er niet tussen komen maar niet op te wachten.
Oh ja omdat veel gamedevelopers voor nVidia coden en aTI hooguit beta testen moet je dus nVidia hebben. Dat was vroeger toen nVidia heerste maar dat doen ze nu dus zeker niet.

Support voor aTI is nog niet optimaal maar is er wel veel beter op geworden, aangezien ze nu wel meer op de voorgrond lopen en markt aandeel winnen. Aangezien nVidia vroeger wat meer en nu wat minder maar toch nog markt leider is.

Nu speeld ATI mee met nVidia en veel games worden gemaakt voor beide en niet ene zoals het vroeger was.

Dat scheeld vooral in driver isues
(Dit is zeker niet als flame bedoelt, meer om mensen vragen te kunnen laten stellen en ik wordt er een beetje moe van en ik denk niet dat ik de enige ben.)
Nou 'n flame is het zeker niet maar meer ene achterhaalde oude koe uit een sloot. Die situatie die je schets was er zeker en zal er ook nog wel een beetje zijn maar steeds in mindere mate of reeds verwaarloosbaar.

Games die nu uitkomen kunen nu wel voor en ook goed gebeta test voor aTI hardware zijn. Die luxe had eerst nvidia gehad maar dat wordt dus minder.

In dit opzicht worden ze al gelijk

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

edward2 schreef op 18 September 2003 @ 23:45:

Aan de andere kant ben ik wel eens dat we nou alle voor en tegens wel gehad hebben en we beter ook vooruit kunnen kijken hoe bv. de NV38 eruit zal gaan zien.
Nou met nVdriver team zit het wel goed die haalt wel het onderste uit de kan maar de nV38 moet iig de DX9 shader performance in hardware verbeterd worden tenzij dit echt een driver isue was maar dat weten we pas naar nieuwere detonators die dan uitvoerig gebenched zijn en getest op quality instellingen.

Dan is de vraag wat aTI tegenhanger zal brenggen. Zo als het er nu uitziet zou dat niet veel kunnen zijn ik hoop van wel maar ja het verschil tussen R300 en r350 was al gering deze traditie kunnen ze voort zetten door de schijnbare dx9 performance voorsprong. en hun resource sparen voor R420.

nVidia heeft een wat grotere update gedaan aan de nV35 tov de nV30 wat enigzins gecompensseerd is door de lagere Clock dus van nV38 kan je wel wat verbeteringen verwachten.

Ik hoop ook op een 24bit FP implementatie dan zijn ze één op één te vergelijken.
En aTi zou er wat gradaties in kunnen stoppen zoals 32bit en 16

want 24bit vs 32bit is 'n kwart verschil dat zou tot uiting komen in een theoretische kwart verschil in performance wat ze even maakt kwa hardware implementatie. 'n grove afwijking duid op minder drivers of mindere implementatie of een combi van beide.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
dus dat 3DFX op de fles ging ligt niet aan 16bit maar dat ze te laat waren met hun laaste produkten en het bedrijf door bedrijfs economische redenen dat niet konden trekken en dus op de fles ging.
Dat zeg ik toch niet |:(
Indertijd heeft 3Dfx het onderandere verloren van Ati/nvidia omdat ze deels ook vasthielden aan hun 16 bits, pure performance was het belangrijkste voor hen.^
Dat 3Dfx heeft gefaald ligt aan hun problemen in ontwikkeling van de kaarten zelf. Dat weet iedereen. Maar wat ik zeg is dat ze onderandere toen veel klanten zijn kwijtgespeeld door hun 16 bit. Lees er de toenmalige artikels maar eens over na, alle reviews begonnen op de duur serieus te hameren op 3Dfx omdat ze slechts 16 bits aankonden. Rond die tijd zag je ook veel discussies van gamers waarbij de ene beweerde dat er geen verschil was voor hem tussen 16 en 32 , de andere vond het een groots kwaliteitsverschil. Dus rond deze tijd was 16 vs 32 bit HOT, en 3Dfx had er geen antwoord op toen.

[quote]
nVidia fan tja een goed driver team hebben ze zeker toveren kunnen ze niet wel cheaten maar zonder cheaten zijn ze afhankelijk van de hardware die hun GPU Divise heeft gebakken. Ze kunnen niet meer performance er uit halen dan er in geimplementeerd is. ATI bied op dit moment krachtige hardware ook al is hun driver team niet op het niveau als nVidia maar wel voldoende goed voor ene commercieel produkt.
[\quote]

Kijk , het omschakelen naar 16 bit wordt dan cheaten genoemd. Dat bedoelde ik dus met waar ik van :r

Natuurlijk MOET nvidia dit doen, dat zijn ze verplicht tegenover hun klanten om ze min of meer nog deftige performance te geven.

MAAR, ... , bekijk het nu even 32 bit precisie, oo ja, een fx5900u zou het er verdomd lastig mee hebben. Maar terzelfdertijd zou Ati het gewoon niet aankunnen. Geen flame maar 't is zo.

En dan nog HL2 waar ik het even wil over hebben. Neem nu een directX 8.1 game. En vergelijk hiermee een fx5900u en een ati 9800pro. Die scoren kwasie gelijk. Waarom is in hemelsnaam HL2 dan zo veel trager in directx8.1 modus op de gfx5900u ? Dat hij in dx9 modus trager is, ok begrijpbaar gezien zijn ontwerp. Maar dat hij dan zelfs in directx8.1 modus stukken trager is. Sorry , maar dat is dan toch wel vrij toevallig allemaal vind ik. En dat ze der 5 keer zoveel tijd insteken in nvidia, kan allemaal goed zijn maar op 't laatste moment keren ze wel hun rug omdat nvidia geen 30 miljoen dollar wilde betalen. Uiteraard is die 5 keer meer werk gewoon in 't water vervallen en dient dit zeker niet als argument tegen nvidia gebruikt te worden. Stel nu dat nvidia wel betaald had en de deal had met Valve ipv Ati, dan hadden we heus wel andere performance verschillen gezien. Geen kat bij Valve had er toen waarschijnlijk over gerept dat ze serieus moesten gaan optimaliseren.
En tja dX9 is het ressultaat van de API bakker en gPU bakkers GPU en API worden gemaakt voorelkaar ze zijn ook afhankelijk van mekaar. ALS nV graag de kont keert tegen iedereen die het niet eens is met hun dan kan je ook reacties verwachten.
Ok , draai het maar weer tegen Nvidia, maar wat bedoel je ermee ? Ten eerste is het Microsoft die zijn eerdere voorkeur voor 32 bit , omdraait naar 24. En ten tweede moet je nvidia niet verwijten CG te hebben gepromoot, want ati heeft hetzelfde geprobeerd met hun Rendermonkey.

Tevens moet je het een pionier van een markt niet kwalijk nemen dat ze wanneer ze nog absoluut heerser van de markt zijn , hun eigen ontwikkelingen willen doordrijven. Dat is in alle sectoren zo. Het had voor Nvidia beter geweest in 2003 om ook 24 bits precisie te gaan ontwikkelen, maar ze hebben nu eenmaal toen mee de boot opgesprongen van 32 bits precisie. En als enige blijven roeien.

Hier gaan ze volgens mij niet meer van afstappen en blijven 32 bits gaan. Ook hun NV40 zal volledig ontworpen zijn voor volledig 32 bits precisie. Dus je kan Nvidia nu wel "verwijten" te vroeg zijn overgeschakeld naar 32 bits precisie, maar uiteindelijk gaan ze wel hun slag thuishalen. Dus denk ik te mogen stellen dat we binnenkort 32 bits zullen gaan zien als algemeen goed, en dat het dankzij nvidia zal zijn. Niet te 'wijten aan' nvidia.

Mijn Specs


Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
ASUS heeft nu ook een FX5900SE op z'n site staan. Weet iemand of ze bij de SE versie ook nog in het aantal pipelines enzo hebben gesnoeid? Ik kan alleen maar vinden dat de core en momery clock omlaag is gedaan. Iemand meer info?

Afbeeldingslocatie: http://www.asus.com/products/vga/v9950se/v9950se_l.jpg

GeForce FX 5900 SE

Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

Het is allemaal wel leuk hoor z'n disccusie, maar voorzover ik ervaring heb met video kaarten blijf ik bij nVidia!

Eerst had ik een GeForce 2 GTA 32BM van asus & dat ding draaide als een zonnetje, een aantal mensne had een Ati en die werden er gek van, nu heb ik een nieuwe PC met een Asus GeForce FX5900 Ultra & die draait wederom als een zonnetje, nouja zeg maar "super nova" en toch zijn er hier en daar weer probs met de Ati9800 hoor. Oke wat betreft de shaders en dus indirect de ondersteuning voor DX9 is niet zo goed tov Ati (wie weet komt nog), maar heb nog steess geen keiharde bewijzen gezien dat de FX5900 minde presteerd!!! Daarmee wil ik zeggen dat op een aantal vlakken de Ati beter presteerd maat voor het grootste gedeelte presteerd toch de FX5900 beter, of hebben jullie die benchmarks niet gezien die ik online had gezet? (De helfd is al weer off-line maargoed).

Iedereen zijn kaartje ;)

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
edward2 schreef op 18 September 2003 @ 23:45:
[...]
Aan de andere kant ben ik wel eens dat we nou alle voor en tegens wel gehad hebben en we beter ook vooruit kunnen kijken hoe bv. de NV38 eruit zal gaan zien.
NV38 is niet meer dan een snellere NV35. Zelfde GPU zonder al te veel verbeteringen, misschien kleine verbeteringen om de yield te vergroten en hogere clocks te kunnen behalen. Maar aangezien het grotendeels dezelfde GPU is kan je hier waarschijnlijk wel je conclusies uit trekken -> Snel in DX8.1 games, minder snel (dan ATi) in DX9. Voor drastische veranderingen zal je toch echt op NV40 moeten wachten.

Zelf ben ik zeer benieuwd wat NV36 gaat doen. Ik zoek nog een leuk midrange kaartje met een goede prijs/performance verhouding voor een van m'n bakken. Van mij hoeft het niet per se als een ster te presteren in DX9 aangezien ik in m'n main gamingpc toch wel een ATi heb zitten. Dus ben een beetje aan het wachten op RV360 en NV36 (en eventueel een Volari V5/V8 of Deltachrome) om een leuke vergelijking te trekken.
-GF-Annihilator schreef op[/message]:
Kijk , het omschakelen naar 16 bit wordt dan cheaten genoemd. Dat bedoelde ik dus met waar ik van :r

Natuurlijk MOET nvidia dit doen, dat zijn ze verplicht tegenover hun klanten om ze min of meer nog deftige performance te geven.
Bekijk het eens vanaf een DX9 standpunt. Die vereist minimaal 24FP. Als je appels met appels wilt vergelijken dan kom je bedrogen uit. Voor veel reviewers is dit een heikel punt. Het verschil in beeldkwaliteit tussen 24FP en 16FP is veel duidelijker zichtbaar dan het verschil tussen 24FP en 32FP. Denk bijvoorbeeld aan HDR waarvoor minimaal 24FP benodigd is.

En dan gaat het er even helemaal niet om of MS te veel beinvloed is door ATi. Het gaat er gewoon om dat er een standaard is gezet die wel gevolgd wordt door andere videokaart fabrikanten zoals S3/Via en XGI. Als nV naast 32FP, 16FP en 12FX ook nog eens 24FP zou ondersteunen, dan was de vergelijking veel eerlijker geweest.

Het punt is dat nV niet duidelijk is over wanneer er nou omgeschakeld wordt naar FP16 in de drivers. Ze hebben dit min of meer verzwegen, zodat de reviewers er zelf achter moesten komen. Na alle hype en commotie die nVidia zelf gecreeerd heeft over hun 'R300 killer' die "AA en AF for free" zou bieden, verwachtte iedereen er ook veel van. Als je er dan zelf achter moet komen dat een FX het alleen kan winnen wanneer er omgeschakeld wordt in precisie, dan zou ik dat zelf ook als cheaten aanmerken.

nVidia had gewoon vanaf het begin open kaart moeten spelen en eerlijk moeten toegeven dat de FX de hype die nV zelf gemaakt heeft niet kan waarmaken. Het duurde ook een hele lange tijd voordat nV toegaf dat NV30 niet was wat ze er van verwachten. Aan de ene kant best begrijpelijk, want ze hebben er natuurlijk veel geld in gepompt. Maar aan de andere kant kan je soms meer respect oogsten door open kaart te spelen.

Bij ATi zitten nu ook mensen die jarenlang bij nVidia hebben gewerkt, waaronder de mensen van Code Maffia. In het kort gezegd hebben ze aangegeven dat ATi nu is wat nVidia 5 jaar terug was, een bedrijf dat indrukwekkend bezig was, de honger naar succes probeerde te stillen en heel gefocussed is om te produceren wat de gebruiker wil.

Hieronder een quote van Richard Huddy (ex Code Maffia) die eerst bij nVidia zat en nu bij ATi over de 2 grote fouten van nVidia in de afgelopen 2 jaar:
NVIDIA used to be a technology company pure and simple but has recently allowed its-self to become led by marketing. To give two straightforward examples of things it has done wrong, it produced a product called the GeForce 4 MX, which is clearly a GeForce 2 class piece of hardware, and it spent almost a year too long producing the GeForce FX. The first costs the trust of buyers everywhere, and the second cost them the lead in a very competitive race.

Yes, all the Code Mafia guys could see this kind of thing happening at NVIDIA. We fought these errors from inside NVIDIA but the management didn't agree with our judgement about what was wrong - so we agreed to part company. We actually left on really good terms - but I admit that they weren't too pleased when we signed up with ATI
Zoals al eerder gezegd is het driverteam van nVidia echt heel erg goed, alleen jammer dat zij nu de schade moeten proberen te beperken die ontstaan is door verkeerde beslissingen van het management.
MAAR, ... , bekijk het nu even 32 bit precisie, oo ja, een fx5900u zou het er verdomd lastig mee hebben. Maar terzelfdertijd zou Ati het gewoon niet aankunnen. Geen flame maar 't is zo.
Nogmaals, ATi kan wel 32-bits aan, alleen core pixelshader ops maken gebruik van 24FP. De rest gaat allemaal volgens 32FP. Even een schaamteloze zelfquote:
Dat ATi geen 32-bit zou ondersteunen is een misvatting. Alleen één gedeelte werkt op 24-bit. ATi ondersteunt een mengeling van 32 bit en 24 bit floatingpoint precisie in the pixelpipeline. Verder kan ATi ook nog terug vallen op 16-bit FX (tegen 12 FX voor de FX). Vertex shaders zijn bijvoorbeeld altijd 32-bit FP. Interne texture address zaken gebruiken ook 32-bit Single Precision FP. Maar de core pixelshader operations gebruiken 24-bit FP.

Vb. Als er een 128bit FP (4x32 bit SPFP) per texel texture wordt ingelezen, dan wordt het intern omgerekend naar 96-bit FP (4x24 bit). Maar als het er weer it komt, dan komt het er weer uit als een 128b zonder precisie verlies.
En zoals ik ook al eens eerder had gezegd heeft nV zelfs geclaimed dat door het slimmere design van NV30/NV35, het dubbel zo snel zou zijn dan R300 wanneer het gebruik zou moeten maken van 16FP. En dat is dus absoluut niet het geval.

Ook hier is het dus weer een geval van beloftes maken die het niet kan waarmaken en er nu op afgerekend worden. En om wel sneller te worden, maakt nVidia (zonder dit te vertellen aan wie dan ook) gebruik van FX12... kun je nagaan hoe bedrogen de reviewers zich voelden, aangezien nV het min of meer onmogelijk maakt om appels met appels te vergelijken.
-GF-Annihilator schreef op[/message]:En ten tweede moet je nvidia niet verwijten CG te hebben gepromoot, want ati heeft hetzelfde geprobeerd met hun Rendermonkey.
Urhm... hallo... weet je eigenlijk wel wat Rendermonkey is?? Je kan Rendermonkey en Cg dus absoluut niet met elkaar vergelijken. :/

Cg: een compleet nieuwe programmeertaal
Rendermonkey: een development tool om snel DX9 effecten te kunnen maken dmv HLSL.

Om David Kirk van nVidia maar even te quote:
What is the difference between Cg and RenderMonkey?

Cg is a programming language. RenderMonkey is an application, or more accurately, an IDE (integrated development environment).
Bron: http://www.cgshaders.org/articles/interview_davidkirk02.php

Rendermonkey is vergelijkbaar met Microsoft Visual Studio. Het is een development environment waarmee programmeurs snel en gemakkelijk DX9 effecten kunnen maken en bestaande kunnen editen. Alle DX9 kaarten profiteren hiervan, of het nou een S3 kaart, XGI, nVidia of ATi kaart is. Dat maakt niet uit. Cg haalt daarentegen 'meer' uit nV hardware dan uit andere hardware, getuige ook het feit dat de S.T.A.L.K.E.R. developers hebben aangegeven dat de performance op ATi en nVidia kaarten hetzelfde zal zijn MAAR dat de FX serie van kaarten toch nog net wat extra effecten zal hebben.

Rendermonkey is niets meer dan een interface, terwijl Cg een compleet nieuwe programmeertaal is. Natuurlijk hebben ze beide tot doel om snel en gemakkelijk nieuwe effecten te creeeren, maar Rendermonkey maakt gewoon gebruik van standaard HLSL en biedt dmv plugins ondersteuning voor alle standaard programma's die er nu gebruikt worden zoals Maya en Renderman.

Hier een verhelderend artikel op Toms Hardware: http://www20.tomshardware.com/graphic/20021004/index.html
Dus denk ik te mogen stellen dat we binnenkort 32 bits zullen gaan zien als algemeen goed, en dat het dankzij nvidia zal zijn.
Dat 32FP gemeengoed zal worden is niet meer dan een logisch vervolg op 24FP en heeft dus absoluut niets te maken met nVidia ook al ondersteunen ze het nu al volledig. Dat is net zoals 64bits kleurdiepte ook uiteindelijk standaard zal gaan worden (John Carmack wilde bv eigenlijk al 64bits kleurdiepte hebben voor Doom III). De hardware moet echter wel goed meeschalen om het te kunnen ondersteunen, en daar heeft nV zichzelf overschat en de concurrentie onderschat.

Waar ik eigenlijk meer naar uitkijk is of NV40 wel volledige DX9 ondersteuning zal bieden inclusief Floating Point Rendertargets, HDR, Floating Point Cube Maps en Floating Point Volumetric Textures. Het is toch te gek voor woorden als een gamedeveloper 3 of meer verschillende codepaths moet maken, omdat men zich niet houdt aan de standaard?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

CJ schreef op 19 september 2003 @ 09:59:
Waar ik eigenlijk meer naar uitkijk is of NV40 wel volledige DX9 ondersteuning zal bieden inclusief Floating Point Rendertargets, HDR, Floating Point Cube Maps en Floating Point Volumetric Textures. Het is toch te gek voor woorden als een gamedeveloper 3 of meer verschillende codepaths moet maken, omdat men zich niet houdt aan de standaard?
Wat ik begrepen hebt, duur het ontwikkelen van een nieuwe kaartje vrij lang (1,5 jaar?) Dus als nVidia een jaar geleden al verkeerde keuzes heeft gemaakt met de NV40, vrees ik het ergste. Dat ze dus weer keuzes hebben gemaakt welke verkeerd uitpakken oa omdat MS niet de dx9 specs welke nVidia graag wilde overnamen. Maar ja, afwachten maar.

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
-GF-Annihilator schreef op 18 September 2003 @ 21:32:
[...]


Als jij kijkt naar de cijfers en de marketing shit slikt, so be it.
cijfers van onafhankelijke sites als beyond3D bedoel ik daar dus mee...
Alleen kan ik het niet hebben dat er dan infantiele kinderreacties verschijnen over fanboy zijn of niet.
En dan had ik zeker mensen die een fx hadden gekozen, zeker niet zitten zwartmaken voor nvidia fanboy.
doe ik ook niet, mijn punt was dat er door bepaalde mensen hier dingen gepost worden als "Ati heb nooit van Nvidia kunnen winnen", wat mi niet echt van inzicht in de huidige (DX9) situatie getuigd.
maar es denken voor je iets schrijft lijkt me moeilijker.
ben ik het helemaal mee eens
Maar de laatste tijd al deze meldingen van "nvidia cheat met 16 bit" en "komt ervan als je eigenwijs bent" ,"ati kan 32 bit precisie en nvidia niet", dat getuigt pas van ondoordacht marketing slikken en fanboy zijn.
zoiets heb ik nooit gepost dus waar dit vandaan komt :?
Maar onwaarheden de wereld insturen kan ik niet tegen.
ik ook niet en daar ging mijn post nu juist over...

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Voor zover ik het begrepen heb, worden pixel shader programma's gecompileerd naar een pseudo-code, die dan door de drivers weer wordt gecompileerd naar assembly voordat het geupload wordt naar de grafische kaart. Er is daar dus nog ruimte aanwezig voor optimalisatie.

De compilers kunnen er om te beginnen zoveel mogelijk rekening mee houden om de instructievolgorde zo efficient mogelijk te maken. Maar dat is voor de drivers heel lastig om te doen. Echter, als een spelontwikkelaar een hogere taal zoals Cg gebruikt is dat heel goed mogelijk.

Nou zou het voor een FX het beste zijn om zoveel mogelijk instructies te vervangen door texture operaties. En dat kan normaal gesproken alleen, als de spelontwikkelaars dus textures maken en gebruiken, zoals een cube map om de achtergrondverlichting te berekenen.

Maar, er is op zich nog een andere mogelijkheid. Als de drivers slim genoeg zijn, kunnen ze van te voren het domein van een stuk shaderprogramma bepalen en de antwoorden in een tabel zetten. Die dan als een texture benaderd kan worden.

Theoretisch is dat mogelijk, het zou dan echter wel makkelijk zijn als de pixelshader dan een IF..THEN kan doen. Maar dat is voor de simpelere shaderprogramma's niet nodig.

Er kunnen dus op het gebied van ontwikkeltools nog flink wat goede optimalisaties worden doorgevoerd, die de prestaties nog flink kunnen verbeteren. Maar het zijn geen dingen die je 'eventjes' doet.

EDIT: PS1.1-1.4 specificeren dat je eerst zoveel mogelijk waardes in registers zet, alle textures inlaad en daarna de berekeningen uitvoert. Dat doet bijna iedereen dus ook. Zo werken de meeste HLSL compilers ook. Voor een FX wil je dat net helemaal anders doen. En zodra de compilers daarop aangepast zijn, wordt hij flink sneller.

[ Voor 12% gewijzigd door DiGuru op 19-09-2003 14:31 ]


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

http://www.sharkyextreme....ticle.php/3211_3079811__9

lachen, vooral de conclussie.
En kijk naar de datum, het is geen review van maanden terug.
The GeForce FX 5900 Ultra is a definite player in the high-and 3D market, and ASUS has a serious challenger with their V9950 Ultra. Performance is top-notch, the slimline cooling hardware is a welcome change, and ASUS quality continues to be a selling point. If you're looking to be on the bleeding edge of 3D game performance and don't mind the sticker price, then the ASUS V9950 Ultra is one tough card to beat.
Zeker nog nooit van dx9 gehoord?

[ Voor 52% gewijzigd door hjs op 19-09-2003 14:12 . Reden: quote erbij ]


Acties:
  • 0 Henk 'm!

  • salutem
  • Registratie: Juni 2001
  • Laatst online: 01-09 17:03
http://www.sharkyextreme....ticle.php/3211_3079811__6

lol in die grafiekjes ligt de ultra overal achter :)

"Social progress can be measured by the social position of the female sex - Karl Marx"


Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Heb zo het idee wie hun site gesponsoort heeft :-p

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nog even hierover:
-GF-Annihilator schreef op 19 september 2003 @ 08:35:
[...]
En dan nog HL2 waar ik het even wil over hebben. Neem nu een directX 8.1 game. En vergelijk hiermee een fx5900u en een ati 9800pro. Die scoren kwasie gelijk. Waarom is in hemelsnaam HL2 dan zo veel trager in directx8.1 modus op de gfx5900u ? Dat hij in dx9 modus trager is, ok begrijpbaar gezien zijn ontwerp. Maar dat hij dan zelfs in directx8.1 modus stukken trager is. Sorry , maar dat is dan toch wel vrij toevallig allemaal vind ik.
Het is helemaal niet gek dat de FX5900U ook in DX8.1 slecht presteert. Ik geloof dat zowel Anandtech, als Beyond3D als Tom's Hardware en nog enkele andere grote sites ooit tot de conclusie waren gekomen dat nV in de NV30-NV35 gewoon 'geen' hardwarematige PS1.4 had geimplementeerd.

DX9 is in principe backwardscompatible, dus als je een hardware DX9 kaartje hebt, dan heb zou je ook hardware DX8.1 moeten hebben. Door enkele tests kwam men er echter achter dat de DX8.1 implementatie zo'n beetje rechtstreeks was overgenomen vanuit de GF4Ti reeks. Deze was dus niet verbeterd door nV.... En de prestaties waren er dus ook naar....

Dus tot zover deze conspiracytheorie. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

LOL, waar haal je dat vandaan??? Alleen in de bovenste grafiek!

Afbeeldingslocatie: http://www.sharkyextreme.com/img/2003/09/asus_fx/3dmark_2001.jpg

Afbeeldingslocatie: http://www.sharkyextreme.com/img/2003/09/asus_fx/3dmark_2001_a.jpg
Afbeeldingslocatie: http://www.sharkyextreme.com/img/2003/09/asus_fx/3dmark_2003.jpg
Afbeeldingslocatie: http://www.sharkyextreme.com/img/2003/09/asus_fx/3dmark_2003_a.jpg

Waarom wordt altijd de conclusie getrokken dat als de Nvidia Wint, dat het door de sponsoring komt, dan zou nvidia wel heel wat sites sponsoren ;) BTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

foutje

[ Voor 100% gewijzigd door Fr0zenFlame op 19-09-2003 15:27 ]

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 19-11-2024

Fr0zenFlame

LAN 'A Holic

foutje

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0 Henk 'm!

  • boesOne
  • Registratie: April 2001
  • Laatst online: 10:21

boesOne

meuh

Fr0zenFlame schreef op 19 September 2003 @ 09:58:
Het is allemaal wel leuk hoor z'n disccusie, maar voorzover ik ervaring heb met video kaarten blijf ik bij nVidia!
En eet vooral veel spruitjes en boerenkool ! Probeer geen tjap tjoy.. das niks.
en toch zijn er hier en daar weer probs met de Ati9800 hoor. Oke wat betreft de shaders en dus indirect de ondersteuning voor DX9 is niet zo goed tov Ati (wie weet komt nog)
Zoal wat voor probs .. ? DX9 probs ?
maar heb nog steess geen keiharde bewijzen gezien dat de FX5900 minde presteerd!!! Daarmee wil ik zeggen dat op een aantal vlakken de Ati beter presteerd maat voor het grootste gedeelte presteerd toch de FX5900 beter, of hebben jullie die benchmarks niet gezien die ik online had gezet? (De helfd is al weer off-line maargoed).
Keiharde bewijzen ? Hoe hard wil je ze hebben dan ?
Face it.. de GF5900U doet het flex in dx8.1 en doet het slecht in DX9. punt uit.
Dus als jij met deze kaart Q3 wil spelen..prima..
Als jij met deze kaart HL2 wil spelen, dan had je dus beter voor dat geld een Ati9800 kunnnen halen..

Ahh 3Dmark2k3 ! nee, dat is een fraaie.. is deze bench uitgevoerd met of zonder driver hack ?

[ Voor 5% gewijzigd door boesOne op 19-09-2003 16:09 ]

I say we take off and nuke the entire site from orbit. It's the only way to be sure.


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Fr0zenFlame schreef op 19 September 2003 @ 15:24:
Waarom wordt altijd de conclusie getrokken dat als de Nvidia Wint, dat het door de sponsoring komt, dan zou nvidia wel heel wat sites sponsoren ;) BTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!
Lees je niet wat andere zeggen, je blijft met de zelfde argumenten komen over kartel vorming e.d. terwijl die argumenten al 10 keer met van tafel zijn geveegd als onzin. (met goede argumenten)
nVidia heeft niks te verbergen? wanneer komen ze dan eens er openlijk voorruit, dat hun hardware achter blijft in dx9 apps?

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Fr0zenFlame schreef op 19 September 2003 @ 09:58:
Het is allemaal wel leuk hoor z'n disccusie, maar voorzover ik ervaring heb met video kaarten blijf ik bij nVidia!
Tja is je goeie recht natuurlijk maar waarom? Als ATI (of gelijk wie) nu met een kaart uitkomt die 4 keer zo snel is als alles anders en 100€ kost zou je dan nog voor nvidia gaan?
Eerst had ik een GeForce 2 GTA 32BM van asus & dat ding draaide als een zonnetje, een aantal mensne had een Ati en die werden er gek van, nu heb ik een nieuwe PC met een Asus GeForce FX5900 Ultra & die draait wederom als een zonnetje, nouja zeg maar "super nova" en toch zijn er hier en daar weer probs met de Ati9800 hoor.
Zoals? Qua driver problemen is er geen verschil meer tussen ATI of nvidia
Oke wat betreft de shaders en dus indirect de ondersteuning voor DX9 is niet zo goed tov Ati (wie weet komt nog), maar heb nog steess geen keiharde bewijzen gezien dat de FX5900 minde presteerd!!!
Kijk naar de benchmarks van Halflife 2 kijk naar de benchmarks van 3dmark2003 (zonder nvidia cheats) kijk naar de benchmarks van aquamark3 allemaal tonen die stuk voor stuk hetzelfde : een 9800pro is een 40% sneller als het op directx9 aankomt.

http://www20.tomshardware.com/graphic/20030918/index.html

http://www.beyond3d.com/misc/traod_dx9perf/index.php?p=2
Daarmee wil ik zeggen dat op een aantal vlakken de Ati beter presteerd maat voor het grootste gedeelte presteerd toch de FX5900 beter, of hebben jullie die benchmarks niet gezien die ik online had gezet? (De helfd is al weer off-line maargoed).
Beter waar? Directx8.1 spelen? Ziende dat een 5900Ultra complete overkill is voor dat soort spelen maakt dat niks uit je koopt zo'n kaart vooral om directx9 spelen te spelen en daar faalt die kaart tot nu toe serieus in.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
[b]Fr0zenFlame schreef op 19 September 2003 @ 15:24:

Waarom wordt altijd de conclusie getrokken dat als de Nvidia Wint, dat het door de sponsoring komt, dan zou nvidia wel heel wat sites sponsoren ;) BTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!
Zonder cheats (die in de laatste detonator drivers gewoon terug geactiveerd zijn haalt die FX kaart heel wat minder.

Acties:
  • 0 Henk 'm!

Verwijderd

Fr0zenFlame schreef op 19 September 2003 @ 15:24:
[...]


BTW Ati is hier de gene die kartel vormt met Valve & MS, en die zullen ook gerust heel wat sites sponsoren en daarbij slim genoeg zijn aan de fabrikant te melden geen Ati logo op de site te plaatzen, nVidia heeft niks te verbergen en doet het gewoon op pure kwaliteid!!!!
Ik denkt dat je toch echt even dit artikeltje in Toms Hardware-geen vriend van ATI- zult moeten lezen. Daaruit blijkt dus weer eens heel duidelijk dat Nvidia heeft zitten knoeien met de beeldkwaliteit in aquamark 3. En op zijn zachts gezegd is dat niet netjes van Nvidia.

http://www20.tomshardware.com/graphic/20030918/index.html

En dan met name de volgende pagina's

http://www20.tomshardware...20030918/aquamark-08.html
http://www20.tomshardware...20030918/aquamark-09.html
http://www20.tomshardware...g_light_in_nvidia_drivers
http://www20.tomshardware...20030918/aquamark-10.html


Even een vraagje, als de recente hardware van Nvidia inderdaad zo goed is waarom vind deze onderneming het dan voortdurend nodig om dit soort 'optimalisaties' toe te passen. En wees alsjeblieft zo vriendelijk om niet met dat oude "iedereen doet het toch" aan te komen want dat is echt een al te lam antwoord.

Edit: K995 was me dus net een beetje voor.

[ Voor 14% gewijzigd door Verwijderd op 19-09-2003 18:16 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

CJ schreef op 19 September 2003 @ 15:05:
Nog even hierover:


[...]


Het is helemaal niet gek dat de FX5900U ook in DX8.1 slecht presteert. Ik geloof dat zowel Anandtech, als Beyond3D als Tom's Hardware en nog enkele andere grote sites ooit tot de conclusie waren gekomen dat nV in de NV30-NV35 gewoon 'geen' hardwarematige PS1.4 had geimplementeerd.

DX9 is in principe backwardscompatible, dus als je een hardware DX9 kaartje hebt, dan heb zou je ook hardware DX8.1 moeten hebben. Door enkele tests kwam men er echter achter dat de DX8.1 implementatie zo'n beetje rechtstreeks was overgenomen vanuit de GF4Ti reeks. Deze was dus niet verbeterd door nV.... En de prestaties waren er dus ook naar....

Dus tot zover deze conspiracytheorie. :7
Nee dat denk ik niet zozeer.
nV3X is de eerste kaart met PS1,4 van nV de voorganger Gf4Ti deed maar tot PS1,3

ATI vorige gen had al PS1,4

Hun PS1,4 is een twede generatie PS1.4

Dat was toen de high-end pixel shader maar werdt toen niet gebruikt omdat de markt leider die niet had merk specifieke features werden vaak gemeden door game developers vooral al het een klein deel van de target platform is.

nu heeft nVidia ook 'n PS1,4 naast de PS2.0 maar ik denk dat PS2.0 de grootste aandacht heeft gehad dus PS1.4 was blijkbaar geen preoriteit en hun first try PS1,4 tech.

Tja en nu valt die Ps2,0 tegen en wordt terug gevallen op Ps1,4 krijgen ze het dus dubbel op de koffie.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Er zijn hier echt veel mensen die de waarheid niet onder ogen willen zien. Hou nu toch eens op met zo vast te hangen aan een bepaald merk, koop gewoon het beste! (prijs/prestatie/kwaliteit)

Op dit ogenblik is het duidelijk: De R9xxx-kaarten zijn sneller dan hun broertjes uit de FX5xxx-reeks, zowel in DX8 als in DX9-games. Dit aan een lagere prijs én een hogere beeldkwaliteit!

Met de GF4 (DX8) heeft nVidia gewonnen, wat de DX9-kaarten betreft is Ati al een jaar de winnaar en volgend jaar is het misschien weer andersom. Simple as that!

De bewijzen vliegen je om de oren en toch willen zovelen de waarheid nog niet geloven. Het lijkt wel een discussie tussen gelovigen en ongelovigen.

Momenteel heb ik een R9800 Pro, als nVidia over enkele jaren weer beter is ga ik meteen weer naar nVidia, anders blijf ik bij Ati.

Een raad: blijf objectief!

Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Ik vraag me eigenlijk af, DirectX 9.0 Begint nu eindelijk een beetje te komen, qua spellen dan. Als je ziet dat de eerste spellen met DirectX 9 al erg zwaar zijn en met veel moeite een framepje of 50 p/s uit putten. Nu is de vraag, is het wel voldoende want als de volgende "generatie" DirectX 9.0 games komen dat deze niet te zwaar zijn voor de Radeon 9800 pro en de FX 5900 Ultra, als dat waar zou zijn, dan hebben veel mensen met deze kaarten en die alles @ highest willen draaien best wel en probleem.
Let wel: alles wat ik hier zeg is een speculatie gebaseerd op voorzichtige conclusie's maar stel dat dit waar is, wat dan?

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Urhm... hallo... weet je eigenlijk wel wat Rendermonkey is?? Je kan Rendermonkey en Cg dus absoluut niet met elkaar vergelijken.
Tuurlijk , maar waar zeg ik dat Rendermonkey een prog taal is ? Ik wil er gewoon mee aanduiden dat Ati en Nvidia elk hun eigen visie hebben over hoe het game-programmeren vlotter te laten verlopen. Dat is alles. Het is niet hetzelfde maar het doel is vlotter kunnen games ontwerpen.
De hardware moet echter wel goed meeschalen om het te kunnen ondersteunen, en daar heeft nV zichzelf overschat en de concurrentie onderschat.
Geef ik je gelijk in. Men bekijkt het nu wel nadat dx9 finaal is vastgelegd. Maar ten tijde dat Microsoft verandere van idee kon Nvidia denk ik niet meer terug, noch Ati. En met mijn 32 bits bedoel ik natuurlijk dat de volledige bewerking met 32 bits precisie gebeurd. 8)

Mijn Specs


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

Verwijderd schreef op 19 September 2003 @ 17:16:
[...]


Ik denkt dat je toch echt even dit artikeltje in Toms Hardware-geen vriend van ATI- zult moeten lezen. Daaruit blijkt dus weer eens heel duidelijk dat Nvidia heeft zitten knoeien met de beeldkwaliteit in aquamark 3. En op zijn zachts gezegd is dat niet netjes van Nvidia.

http://www20.tomshardware.com/graphic/20030918/index.html

En dan met name de volgende pagina's

http://www20.tomshardware...20030918/aquamark-08.html
http://www20.tomshardware...20030918/aquamark-09.html
http://www20.tomshardware...g_light_in_nvidia_drivers
http://www20.tomshardware...20030918/aquamark-10.html


Even een vraagje, als de recente hardware van Nvidia inderdaad zo goed is waarom vind deze onderneming het dan voortdurend nodig om dit soort 'optimalisaties' toe te passen. En wees alsjeblieft zo vriendelijk om niet met dat oude "iedereen doet het toch" aan te komen want dat is echt een al te lam antwoord.

Edit: K995 was me dus net een beetje voor.
Ome tom is best wel mild in zijn conclusies en noemt het bug's ipv mogelijke cheats. Maar ja hij wilt natuurlijk in de toekomst nog altijd samples krijgen van nVidia.
Wat ook zeer bijzonder is dat deze engine ook iNtels HT tech ondersteund dus meerdere treads smp

[ Voor 6% gewijzigd door SG op 19-09-2003 20:03 ]

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Puppetmaster schreef op 19 September 2003 @ 13:46:
[...]

cijfers van onafhankelijke sites als beyond3D bedoel ik daar dus mee...

[...]

doe ik ook niet, mijn punt was dat er door bepaalde mensen hier dingen gepost worden als "Ati heb nooit van Nvidia kunnen winnen", wat mi niet echt van inzicht in de huidige (DX9) situatie getuigd.

[...]

ben ik het helemaal mee eens

[...]

zoiets heb ik nooit gepost dus waar dit vandaan komt :?

[...]

ik ook niet en daar ging mijn post nu juist over...
Die laatste opmerkingen waren niet naar jou persoonlijk gericht, sorry voor dat misverstand. Ik ben het dan volledig met je eens dat de opmerking van Falcon ivm het "ati heeft het nooit kunnen winnen van" , er helemaal niet gepast is. Beetje kinderlijke reactie want Ati is natuurlijk een welgekomen concurrent. Anders betaalden we nu voor een top 3D kaart wel 1000€.
Maar wel ben ik er van overtuigd dat nvidia door de twist met Microsoft er geen goed heeft aan gedaan. Nvidia heeft een grote mond en terecht want ze leveren fantastische dingen. Maar ze hadden het gewoon tactischer moeten aanpakken. Dat Microsoft dan de kant van Ati koost wat betreft DX9 en misschien al een deal maakte ivm de xbox2, daar ben ik heilig van overtuigd. Het is geen verwijt maar volgens mij gewoon het feit. Ik ga zeker zelf nooit zeggen dat het de schuld van Ati en Microsoft is dat Nvidia nu niet mee kan doen op 24bits-DX9. Men kan Nvidia nu wel verwijten dat het hun eigen fout een beetje is dat ze het deksel op de neus krijgen van Microsoft. Maar men moet nu geen beweringen gaan maken dat nvidia cheat met 16 bit. Gezien hun huidige situatie kunnen ze niet anders dan deze omschakelingen inbouwen, anders loopt het voor geen meter in 32 bit als je dit dan vergelijkt met 24 bit van ati. Of dat nvidia geen 32 bit aankan. |:( Die reacties getuigen van weinig sportiviteit vind ik of van 0,0 verstand van zaken.
Er zijn hier echt veel mensen die de waarheid niet onder ogen willen zien. Hou nu toch eens op met zo vast te hangen aan een bepaald merk, koop gewoon het beste! (prijs/prestatie/kwaliteit)

Op dit ogenblik is het duidelijk: De R9xxx-kaarten zijn sneller dan hun broertjes uit de FX5xxx-reeks, zowel in DX8 als in DX9-games. Dit aan een lagere prijs én een hogere beeldkwaliteit!

Met de GF4 (DX8) heeft nVidia gewonnen, wat de DX9-kaarten betreft is Ati al een jaar de winnaar en volgend jaar is het misschien weer andersom. Simple as that!

De bewijzen vliegen je om de oren en toch willen zovelen de waarheid nog niet geloven. Het lijkt wel een discussie tussen gelovigen en ongelovigen.

Momenteel heb ik een R9800 Pro, als nVidia over enkele jaren weer beter is ga ik meteen weer naar nVidia, anders blijf ik bij Ati.

Een raad: blijf objectief!
_/-\o_

[ Voor 20% gewijzigd door MPAnnihilator op 19-09-2003 20:04 ]

Mijn Specs


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 22:32
Het is me wel duidelijk waarom nVidia cheat. Ze zeiden het zelf al indirect tijdens een irc-chat waar ik bij was (swampy ook geloof ik). Benchmarks zijn zo belangrijk om klandizie te winnen/behouden bij de OEM's. Die moeten mooie grafiekjes kunnen laten zien aan hun klanten ook. Toen nVidia constateerde dat ze het gewoon keihard verloren in Dx9, wat eraan zat te komen, konden ze 2 dingen doen: erin berusten of vals spelen. Als je erin berust en eerlijk bent, win je respect hooguit, als je dat al wint. Als je vals speelt win je. Vanwege bedrijfseconomische redenen moesten ze wel, want voor respect koop je geen brood, voor goeie benches wel. De OEM's zijn mede schuldig, want ik kan me niet niet voorstellen dat ze nu niet op de hoogte zijn. Maar goed, de gemiddelde klant weet niet van de discussies die er gaande zijn, weet hooguit wat geruchten. Daar profiteren nVidia en de OEM's van. Zo werkt dat in verkoopland, zo verkoop je, door de werkelijkheid soms een beetje te verdraaien (iets wat je alleen doet als het moet(kijk naar wasmiddelen die allemaal beweren beter te zijn als de anderen), als je product super is hoef je geeneens reclame te maken). Zodra de de nv40 uit is (even aannemen dat die wel meekomt met de r420), zal nVidia toegeven dat ze fouten hebben gemaakt en dat ook de nv35 niet je van het was, maar dan kan dat geen kwaad meer, de verkopen ervan zijn al achter de rug en binnen :Y) Alleen vraag ik me af op nVidia deze exposure van de cheats had verwacht, misschien wel, maar het maakt niks uit. Pas als de nv40 ook zwak is hebben ze een probleem, en wordt de situatie onhoudbaar, en ook onredbaar dmv cheats, daar kom je dan niet meer mee weg.

[ Voor 4% gewijzigd door Sjah op 20-09-2003 05:59 ]


  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

Hier ook weer een test met de FX5900Ultra.

http://www.sharkyextreme....cards/article.php/3079811

Ben ik even blij dat ik deze kaart heb.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


  • boesOne
  • Registratie: April 2001
  • Laatst online: 10:21

boesOne

meuh

danplo schreef op 20 September 2003 @ 07:50:

Ben ik even blij dat ik deze kaart heb.
Nou... :)

I say we take off and nuke the entire site from orbit. It's the only way to be sure.


  • xabre16v
  • Registratie: April 2003
  • Niet online
danplo schreef op 20 September 2003 @ 07:50:
Hier ook weer een test met de FX5900Ultra.

http://www.sharkyextreme....cards/article.php/3079811

Ben ik even blij dat ik deze kaart heb.
Want :? wat een verschillen ook joh, trouwens in UT2003 en RtCW doet de 9800PRO het beter. :+
Ben je nou echt blij met die 12 frames extra in Quake3 :D

Verwijderd

danplo schreef op 20 September 2003 @ 07:50:
Hier ook weer een test met de FX5900Ultra.

http://www.sharkyextreme....cards/article.php/3079811

Ben ik even blij dat ik deze kaart heb.
ach ja 150FPS in unreal tournament 2003 200 in jedi knight 400 in quake 3 150 in RTCW wow ja stel je voor dat je maar 100FPS had :roll:

We zullen zien of je nog zo blij bent als je het detail naar beneden moet zetten in halflife 2

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
-GF-Annihilator schreef op 19 September 2003 @ 19:43:
[...]


Tuurlijk , maar waar zeg ik dat Rendermonkey een prog taal is ? Ik wil er gewoon mee aanduiden dat Ati en Nvidia elk hun eigen visie hebben over hoe het game-programmeren vlotter te laten verlopen. Dat is alles. Het is niet hetzelfde maar het doel is vlotter kunnen games ontwerpen.


[...]
Klopt. Het gaat puur en alleen om vlotter games te laten ontwerpen. Alleen is het grote verschil dat Rendermonkey alle GPUs gelijk behandeld. Cg is toch meer gericht op de FX. Vanuit een developersoogpunt is Rendermonkey dan volgens mij een stuk aantrekkelijker, omdat je een groter publiek kan aanspreken, vooral nu S3/Via en XGI ook eens met DX9 kaarten aan komen zetten.
xabre16v schreef op 20 September 2003 @ 08:43:
[...]

Want :? wat een verschillen ook joh, trouwens in UT2003 en RtCW doet de 9800PRO het beter. :+
Ben je nou echt blij met die 12 frames extra in Quake3 :D
En het ligt er ook maar net aan welke review je leest en welke instellingen ze hebben gebruikt. Firinqsquad heeft zwaardere instellingen gebruikt en raadt eens wie daar wint?
http://firingsquad.gamers...eon_9800_review/page7.asp

En dan is er 'natuurlijk' nog meer dirt wat naar boven is komen drijven. Zoals wel bekend heeft nVidia er voor gezorgd dat de patch die de benchmark in Tombraider: AoD activeert voor 'ongeldig' verklaart en hebben ze er voor gezorgd dat de patch van de site van Eidos werd gehaald.

Wat blijkt echter? De benchmark zat er al vanaf het begin in, het staat zelfs op de retail box. Je moest dan alleen eventjes een extra stukje typen op de commandline om het te activeren. Het enige wat de patch doet is:
- bugs fixen
- zorgen dat de benchmark gemakkelijk te gebruiken is.

Maar blijkbaar houdt nVidia niet zo van bugfixes? :?
"I find it a bit odd that nobody has mentioned something...
The benchmark was already in Tomb Raider long before the v49 patch. In fact, it's present on the Tomb Raider cd in the retail box.

All you need to add is "-benchmark=paris3" on the command line, and you're off and running. Use the "settings" panel in the game launcher to configure whatever options you want.

Sure, the v49 patch added a few "convenience features", like a command line option to set the resolution and refresh rate. But there's really nothing in v49 that's not available in every other version of Tomb Raider. Well... except for some bug fixes and performance improvements.

Maybe NV doesn't like bug fixes and performance improvements?"
Bron: http://www.gamersdepot.com/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Whoops. verkeerd topic. :o :D

[ Voor 117% gewijzigd door CJ op 20-09-2003 11:03 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

danplo schreef op 20 september 2003 @ 07:50:
Hier ook weer een test met de FX5900Ultra.

http://www.sharkyextreme....cards/article.php/3079811

Ben ik even blij dat ik deze kaart heb.
Wat een ontzettend suf artikel. Deze reviewer moet wel in een vacuum leven. Ik dacht even dat het een artikel van 6 maanden geleden moest zijn maar nee het is echt op 18 september uitgebracht.

Ze testen maar liefst 4 OpenGL spellen waarvan 3 met dezelfde engine (Q3, RTCW, JKII). En wat moeten we nog met 3DMark scores?

Ze testen UT2003 en reppen met geen woord over de ontbrekende trilineare filtering die de Nvidia drivers bij dit spel forceren.

Ze testen anisotropische filtering en vergeten even te vermelden dat ATI veel sneller overstapt op eenvoudiger texturen en buiten hoeken van 45 graden vrijwel niet filtert.

Hun image quality is helemaal lachwekkend: Nvidia zou betere anti-aliasing hebben en ATI betere anisotropische filtering. De waarheid is precies andersom.

Nee, ik ben ook blij met deze kaart, maar niet om redenen die genoemd zijn in deze 'review'.

Yeah well. The Dude abides.


Verwijderd

Daarbij zijn het ook nog eens allemaal oude games. Maak eens een vergelijking met recente DirectX9 titels zoals Half-Life 2 en 'Tomb Raider: Angel of Darkness'.

nieuws: DirectX 9.0-benchmarks ATi- en nVidia- kaarten
nieuws: AnandTech publiceert details over Half-Life 2 performance

Deze benchmarks zijn belangrijk. Dat je Pong kan spelen aan 1000FPS interesseert niemand.

Ben ik even blij dat ik deze kaart niet gekocht heb.

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Ik had die Sharky review al gelinkt.
Moet je die plaatjes van de FSAA eens naast elkaar zien. Die ATI platen zijn echt duidelijk beter.

Maar ja, zoals Biff al zegt, je zou verwachten dat het een review van lang geleden is :lol:
Zo beroerd, zie je ze nog zelde ;)

  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 13-09 14:04
ff een snel vraagje: (of het antwoord ook snel te geven is weet ik niet)

wat zijn momenteel de beste drivers voor een fx5600? bepaalde versie beter als een andere?

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • Okyah
  • Registratie: Maart 2002
  • Niet online

Okyah

wespachterrrrrfilm..

Mhm.. Tja, de nieuwste driver, die ook @ t.net meuktracker staat > 51.75 > is het snelst, maar de beeldkwaliteit gaat wederom achteruit schijnt. Dus beste, tja, wil je de snelste of de mooiste? :)

[ Voor 33% gewijzigd door Okyah op 20-09-2003 13:44 ]

Alone at last
Just nostalgia and I
We were sure to have a blast


  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 13-09 14:04
Okyah schreef op 20 September 2003 @ 13:43:
Mhm.. Tja, de nieuwste driver, die ook @ t.net meuktracker staat > 51.75 > is het snelst, maar de beeldkwaliteit gaat wederom achteruit schijnt. Dus beste, tja, wil je de snelste of de mooiste? :)
hmm tja snelste, heb nu versie 45 ofzo. ff tweakers.net checken dan

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Verwijderd schreef op 20 September 2003 @ 10:57:
[...]


ach ja 150FPS in unreal tournament 2003 200 in jedi knight 400 in quake 3 150 in RTCW wow ja stel je voor dat je maar 100FPS had :roll:

We zullen zien of je nog zo blij bent als je het detail naar beneden moet zetten in halflife 2
Nee hoor, nvidia heeft de details al naar beneden gedraait, na het uitvinden dat als ze 8-bits kleuren gebruiken en zonder schaduw spelen wel 300 FPS kunnen halen!

There is no place like ::1


  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 13-09 14:04
ik heb dus een fx5600 van MSI geinstalleerd bij een vriend van mij

maar is het normaal dat die slechter draait dan een Geforce 2???
Vietcong haalt net 20 fps maximaal... verder gaat het om een P4 2.0 ghz dacht ik

[ Voor 12% gewijzigd door Phusebox op 20-09-2003 14:58 ]

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Phusebox schreef op 20 September 2003 @ 14:58:
ik heb dus een fx5600 van MSI geinstalleerd bij een vriend van mij

maar is het normaal dat die slechter draait dan een Geforce 2???
Vietcong haalt net 20 fps maximaal... verder gaat het om een P4 2.0 ghz dacht ik
Nou...hij zou toch ECHT wel sneller moeten gaan als een GF2!

Welke Drivers gebruikt die gast.....45.33 zijn drivers die ik kan aanraden voor FX serie!

En vietcong is een redelijk zwaar spel ( zelfs voor een ti4600 die sneller is als een FX5600 ) dus zet die settings eens ietsje lager!

[ Voor 13% gewijzigd door swampy op 20-09-2003 15:10 ]

There is no place like ::1


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Heb je de oude detonators wel goed geuninstalled? Bij een nieuwe videokaart, zou ik toch even een nieuwe XP install erop zetten in elk geval, dan zitten de drivers er wel goed op. Welke drivers gebruik je zelf eigenlijk, 44.03 of hoger (voor de FX ontwikkeld) of eronder? (vanaf 43.51)

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 13-09 14:04
swampy schreef op 20 September 2003 @ 15:09:
[...]


Nou...hij zou toch ECHT wel sneller moeten gaan als een GF2!

Welke Drivers gebruikt die gast.....45.33 zijn drivers die ik kan aanraden voor FX serie!

En vietcong is een redelijk zwaar spel ( zelfs voor een ti4600 die sneller is als een FX5600 ) dus zet die settings eens ietsje lager!
gebruik 45.33 op 800x600

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Phusebox schreef op 20 september 2003 @ 15:23:
[...]


gebruik 45.33 op 800x600
Tja....umm..her-installeer windows...blijkbaar is er nog iets achtergebleven. Maar ja, een FX5600 is niet de snelste kaart...dus zelfs in optimale gevallen moet je niet teveel verwachten!

There is no place like ::1


  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 13-09 14:04
swampy schreef op 20 September 2003 @ 15:31:
[...]


Tja....umm..her-installeer windows...blijkbaar is er nog iets achtergebleven. Maar ja, een FX5600 is niet de snelste kaart...dus zelfs in optimale gevallen moet je niet teveel verwachten!
ja maar toch wel sneller als een geforce 2 hoop ik

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

swampy schreef op 20 September 2003 @ 15:31:
[...]


Tja....umm..her-installeer windows...blijkbaar is er nog iets achtergebleven. Maar ja, een FX5600 is niet de snelste kaart...dus zelfs in optimale gevallen moet je niet teveel verwachten!
Dat zei ik dus ook al :Y) Nou ja we zien wel als "meneer" heeft gereinstalled of de problemen er dan nog zijn.

Trouwens een vriend van me heeft een PC gekocht Intel pentium 4 blabla met een geforce FX, ik zei, kijk uit voor de 64 bit versie... en ja hoor een Asus Magic geval, nou ja ik had hem gewaarschuwd..... en maar eigenwijs blijven....

(Zeg maar zo iemand die een duron 1200 koopt met een ECS mobo en dan geen zin heeft om 30 euro meer uit te geven voor een athlon XP 2000+ en dan stug volhouden, ja maar het scheelt maar zo veel MHz..... *zucht*

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

sokje schreef op 20 September 2003 @ 15:37:
[...]

Dat zei ik dus ook al :Y) Nou ja we zien wel als "meneer" heeft gereinstalled of de problemen er dan nog zijn.

Trouwens een vriend van me heeft een PC gekocht Intel pentium 4 blabla met een geforce FX, ik zei, kijk uit voor de 64 bit versie... en ja hoor een Asus Magic geval, nou ja ik had hem gewaarschuwd..... en maar eigenwijs blijven....

(Zeg maar zo iemand die een duron 1200 koopt met een ECS mobo en dan geen zin heeft om 30 euro meer uit te geven voor een athlon XP 2000+ en dan stug volhouden, ja maar het scheelt maar zo veel MHz..... *zucht*
Ach ja.....

Consumenten...sommige hebben gewoon 1 regel "maakt me niet uit hoe het werkt...als het maar werkt" . Dat soort mensen WIL gewoon niet leren!

There is no place like ::1


  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Phusebox schreef op 20 september 2003 @ 15:34:
[...]

ja maar toch wel sneller als een geforce 2 hoop ik
256mb versie zeker?

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

swampy schreef op 20 September 2003 @ 15:39:
[...]


Ach ja.....

Consumenten...sommige hebben gewoon 1 regel "maakt me niet uit hoe het werkt...als het maar werkt" . Dat soort mensen WIL gewoon niet leren!
Jah klopt, maar wel redelijk wat weten van PC's tenminste denkt ie, koopt ie een pentium geen dual channel (hoeze dat geeft helemaal geen performance winst hoor 2 reepjes in plaats van 1) enzo. en bovendien zijn pa's pc is het; mjah een FX'je is genoeg...... aaargh, maar als ie gaat zeuren van hij presteerd slecht --> eigen schuld, had je maar moeten luisteren.

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 13-09 14:04
hjs schreef op 20 september 2003 @ 15:44:
[...]


256mb versie zeker?
nee 128 mb zeker... wat een domme opmerking, iedereen weet dat 256mb overbodig is

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

sokje schreef op 20 September 2003 @ 15:54:
[...]


Jah klopt, maar wel redelijk wat weten van PC's tenminste denkt ie, koopt ie een pentium geen dual channel (hoeze dat geeft helemaal geen performance winst hoor 2 reepjes in plaats van 1) enzo. en bovendien zijn pa's pc is het; mjah een FX'je is genoeg...... aaargh, maar als ie gaat zeuren van hij presteerd slecht --> eigen schuld, had je maar moeten luisteren.
Door ervaring leert men...zal ik maar zeggen. Als iemand niet de tijd neemt om wat te lezen over hardware van vandaag de dag dan verdient men gewoon een slome pc.

Mij maakt het niet uit....maar met klachten moet je dan niet bij mij komen :-p

There is no place like ::1


Verwijderd

swampy schreef op 20 september 2003 @ 16:08:
[...]


Door ervaring leert men...zal ik maar zeggen. Als iemand niet de tijd neemt om wat te lezen over hardware van vandaag de dag dan verdient men gewoon een slome pc.

Mij maakt het niet uit....maar met klachten moet je dan niet bij mij komen :-p
Tja, ik weet niet goed hoe de motor van een auto werkt, verdien ik dan een slome auto? Nee, sommigen hebben er geen tijd of interesse voor en willen betalen voor een goed en snel systeem. Diegenen die het toch zelf willen doen en fouten maken: al doende leert men...

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Verwijderd schreef op 20 September 2003 @ 16:11:
[...]


Tja, ik weet niet goed hoe de motor van een auto werkt, verdien ik dan een slome auto? Nee, sommigen hebben er geen tijd of interesse voor en willen betalen voor een goed en snel systeem. Diegenen die het toch zelf willen doen en fouten maken: al doende leert men...
Ja..maar als je Dynabyte instapt voor een "snel" systeem dan weet je toch ook wel dat het niet echt bloedje geil gaat worden!

Of je bij Alternate een "gamers pc 1" besteld dan weet je ook dat je behoorlijke troep krijgt!

Oftewel werk genoeg voor die rare techneut buur met die kast voor met oude hardware en spellen!

[ Voor 18% gewijzigd door swampy op 20-09-2003 16:17 ]

There is no place like ::1


  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Ik ga denk ik maar eens een mailtje sturen naar ASUS hoe het nu zit met die 64 bit Mem versie geval van hun, er staat 400 bit op de site maar hij loopt op 333.

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Phusebox schreef op 20 September 2003 @ 16:03:
[...]


nee 128 mb zeker... wat een domme opmerking, iedereen weet dat 256mb overbodig is
256 mb mag op een fx5200 dan overkill zijn omdat in de situaties waar het wel veel uitmaakt, de fx5200 toch al geen speelbare framerates haalt, maar 256 mb opzich is dus wel zinvol vanaf 1280 en 4-6 AA in bv UT2003 en Unreal2 en er komen er meer Halo, HL2 etc.

In veel Ut2003 maps loopt het verschil op met 40-50%, maar niet in Antalus en Asbestos.

Wat een domme opmerking he.

[ Voor 9% gewijzigd door edward2 op 20-09-2003 17:03 ]

Niet op voorraad.


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 22:32
Biff schreef op 20 September 2003 @ 12:12:
[...]


Ze testen anisotropische filtering en vergeten even te vermelden dat ATI veel sneller overstapt op eenvoudiger texturen en buiten hoeken van 45 graden vrijwel niet filtert.

Hun image quality is helemaal lachwekkend: Nvidia zou betere anti-aliasing hebben en ATI betere anisotropische filtering. De waarheid is precies andersom.
Met die AA ben ik het met je eens. Met die onder meer hoeken AF van nVidia ook. Maar dat Ati altijd slechter is met AF ben ik het zeker niet mee eens, soms zijn ze zelfs beter(aangenomen dat je in de goeie hoek kijkt natuurlijk ;) ). Inclusief dat plaatje wat je op hun site ziet.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

ATI's R200(8500) doet alles groter dan ca. 45 gr. de R300 groter dan 20, mooie reviews hiervan op digi-life.

Ik heb zelf ook een voorkeur voor de kwaliteit van NV's Af, maar voor de perf van ATI's perfmode, die is waanzinnig goed en ziet er in 9 van 10 gevallen zéér goed uit, en dat met zo weinig perfverlies, x16 AF perf is overal speelbaar.

Niet op voorraad.


  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 17:07
wanneer komen de officieele 51.75 ? ;)

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Sjah schreef op 20 September 2003 @ 17:17:
[...]


Met die AA ben ik het met je eens. Met die onder meer hoeken AF van nVidia ook. Maar dat Ati altijd slechter is met AF ben ik het zeker niet mee eens, soms zijn ze zelfs beter(aangenomen dat je in de goeie hoek kijkt natuurlijk ;) ). Inclusief dat plaatje wat je op hun site ziet.
Ik zie niet wat hier beter of slechter aan te vinden valt. De GeForce schakelt pas dieper in het beeld om naar het volgende mipmap level en hij filtert de overgang in alle hoeken met vrijwel dezelfde kwaliteit. ATI's AF is een compromis ten behoeve van snelheidswinst. Het gaat hier niet om een subjectief criterium.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 22:32
Biff schreef op 21 september 2003 @ 00:00:
[...]


Ik zie niet wat hier beter of slechter aan te vinden valt. De GeForce schakelt pas dieper in het beeld om naar het volgende mipmap level en hij filtert de overgang in alle hoeken met vrijwel dezelfde kwaliteit. ATI's AF is een compromis ten behoeve van snelheidswinst. Het gaat hier niet om een subjectief criterium.
Oh ok, dan zal ik wel wat aan mijn ogen gehad hebben, toen ik toch betere screenies zag van de Ati. Maar ik weet niet meer welke dat waren, welk review, en heb ook geen zin om dit uit te zoeken.

Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Sjah schreef op 21 September 2003 @ 00:53:
[...]


Oh ok, dan zal ik wel wat aan mijn ogen gehad hebben, toen ik toch betere screenies zag van de Ati. Maar ik weet niet meer welke dat waren, welk review, en heb ook geen zin om dit uit te zoeken.
Beide gebruiken een iets andere methode. Dus het uiteindelijke effect is net iets anders......

Dus ja...een vergelijking ertussen maken!

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 22:32
swampy schreef op 21 September 2003 @ 01:00:
[...]


Beide gebruiken een iets andere methode. Dus het uiteindelijke effect is net iets anders......

Dus ja...een vergelijking ertussen maken!
:)
Waar is de tijd gebleven dat je gewoon 3 screenshot van quake2 had in een review, van de voodoo2 , de tnt en de rage pro, en in 1 oogopslag wist je hoelaat het was.

Acties:
  • 0 Henk 'm!

  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 17:53

ETzPliskin

PS3 ID: Kretus

Als je kijkt naar de scores van de Geforce FX 5900Ultra bij de Aquamark3 Benchmarks, dan besluit ik daaruit dat hij in DirectX9 (is toch een DX9 test niet? :D) ongeveer even snel is als de 9800Pro.

Het vreemde aan heel de situatie met Valve vind ik dat zo knappe programmeer koppen, 5x(!!!) zoveel moeten werken aan een engine om hem vlot te krijgen op de Fx'en. En dan nog met het geld van Ati!

Volgens mij klopt hier iets niet. Maar dat denk ik er dan over ;)

Acties:
  • 0 Henk 'm!

  • BruT@LysT
  • Registratie: Januari 2000
  • Laatst online: 09-09 09:18

BruT@LysT

Fear and Loathing

-ETz-Memphis Z schreef op 21 September 2003 @ 13:45:
Als je kijkt naar de scores van de Geforce FX 5900Ultra bij de Aquamark3 Benchmarks, dan besluit ik daaruit dat hij in DirectX9 (is toch een DX9 test niet? :D) ongeveer even snel is als de 9800Pro.

Het vreemde aan heel de situatie met Valve vind ik dat zo knappe programmeer koppen, 5x(!!!) zoveel moeten werken aan een engine om hem vlot te krijgen op de Fx'en. En dan nog met het geld van Ati!

Volgens mij klopt hier iets niet. Maar dat denk ik er dan over ;)
Dan moet jij es even lezen op die site van THG!
De kaart presteert niet gelijk in DX9, das met cheats! Als je even verder leest, zie je ook dat de enige drivers die het beeld op de juiste manier renderen, oudere drivers zijn van voor Aquamark3. En hiermee is de score zeer slecht t.o.v ATi.
Het zou inmiddels duidelijk voor iedereen moeten zijn dat de performance van DX9 van de FX serie zeer en zeer slecht is. Er moet zoveel ge-optimaliseerd worden door valve enz enz, en alsnog blijfen de prestaties onder de maat. nVidia heeft met de FX een DX8 kaart op de markt gezet die ook instaat is DX9 te renderen. Echter de prestaties zijn bar slecht en zijn alleen recht te trekken door enkele effecten weg te laten.
Er valt niets meer te betwijvelen, FX is slecht in DX9. Dat op de nieuwspost over AquaMark doet denken dat de prestaties gelijk zijn is niet juist. De werkelijke achterliggende gedachte van Tom, is dat hij met deze benchmark aantoont dat je beter geen nVidia kaart kunt kopen, want daar ga je spijt van krijgen. Helemaal als we binnenkort met meer DX9 games te maken gaan krijgen.
Het nieuws over Aquamark3 moeten we dus als waarschuwing zien. Het is kijharde waarheid, er valt niet over te twisten, nvidia is traag momenteel.

Acties:
  • 0 Henk 'm!

  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 17:53

ETzPliskin

PS3 ID: Kretus

BruT@LysT schreef op 21 september 2003 @ 14:07:
[...]


Dan moet jij es even lezen op die site van THG!
De kaart presteert niet gelijk in DX9, das met cheats! Als je even verder leest, zie je ook dat de enige drivers die het beeld op de juiste manier renderen, oudere drivers zijn van voor Aquamark3. En hiermee is de score zeer slecht t.o.v ATi.
Het zou inmiddels duidelijk voor iedereen moeten zijn dat de performance van DX9 van de FX serie zeer en zeer slecht is. Er moet zoveel ge-optimaliseerd worden door valve enz enz, en alsnog blijfen de prestaties onder de maat. nVidia heeft met de FX een DX8 kaart op de markt gezet die ook instaat is DX9 te renderen. Echter de prestaties zijn bar slecht en zijn alleen recht te trekken door enkele effecten weg te laten.
Er valt niets meer te betwijvelen, FX is slecht in DX9. Dat op de nieuwspost over AquaMark doet denken dat de prestaties gelijk zijn is niet juist. De werkelijke achterliggende gedachte van Tom, is dat hij met deze benchmark aantoont dat je beter geen nVidia kaart kunt kopen, want daar ga je spijt van krijgen. Helemaal als we binnenkort met meer DX9 games te maken gaan krijgen.
Het nieuws over Aquamark3 moeten we dus als waarschuwing zien. Het is kijharde waarheid, er valt niet over te twisten, nvidia is traag momenteel.
Ik heb het niet over nieuwspost of benchmarks op een of andere site, maar ben weest kijken in de result database van aquamark en 3dMark zelf, en dingen gezien die gelijkwaardig zijn, zelfs met vorige versies van drivers.

Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Eigenlijk moet het mogelijk zijn in de drivers of je met of zonder "cheat" wil doen. Zonder heb je mindere Quality en bij met meer Performance. Of eigenlijk nog beter, zet cheats aan in de Performance Mode en in Quality zet dan geen cheats aan. Iedereen zijn wil. Ik zou bijvoorbeeld draaien in Performance draaien, mij interesseert beeldkwaliteit niet zo veel, als het spel maar goed loopt op hogere resoluties met wat meer detail (denk aan vogels die rondvliegen oid), de rest interesseert met niet zo veel. Andere mensen die dan liever goed beeld willen hebben die spelen dan op lagere resoluties, zo heeft ieder wat wils.

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

Verwijderd

sokje schreef op 21 September 2003 @ 14:40:
Eigenlijk moet het mogelijk zijn in de drivers of je met of zonder "cheat" wil doen.
Ja, na de license agreement een dialoogvenster met de vraag
'Do you want to cheat? Yes - No' :z

[ Voor 6% gewijzigd door Verwijderd op 21-09-2003 14:44 ]


Acties:
  • 0 Henk 'm!

  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 17:53

ETzPliskin

PS3 ID: Kretus

sokje schreef op 21 September 2003 @ 14:40:
Eigenlijk moet het mogelijk zijn in de drivers of je met of zonder "cheat" wil doen. Zonder heb je mindere Quality en bij met meer Performance. Of eigenlijk nog beter, zet cheats aan in de Performance Mode en in Quality zet dan geen cheats aan. Iedereen zijn wil. Ik zou bijvoorbeeld draaien in Performance draaien, mij interesseert beeldkwaliteit niet zo veel, als het spel maar goed loopt op hogere resoluties met wat meer detail (denk aan vogels die rondvliegen oid), de rest interesseert met niet zo veel. Andere mensen die dan liever goed beeld willen hebben die spelen dan op lagere resoluties, zo heeft ieder wat wils.
In de 51.75 kan je alle opties aanpassen zoals je maar wil :) Voor mij speelt beeldkwaliteit ook niet zo een grote rol, zolang ik maar alle details zie ;) en op hoger res :)

Acties:
  • 0 Henk 'm!

Verwijderd

-ETz-Memphis Z schreef op 21 September 2003 @ 14:59:
[...]


In de 51.75 kan je alle opties aanpassen zoals je maar wil :) Voor mij speelt beeldkwaliteit ook niet zo een grote rol, zolang ik maar alle details zie ;) en op hoger res :)
Met een lagere beeldkwaliteit zie je dus niet alle details: onbelichte objecten, ontbrekende schaduwen, slechte anisotropische filtering,...

Acties:
  • 0 Henk 'm!

  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 17:53

ETzPliskin

PS3 ID: Kretus

de schaduwen zijn echt niet weg hoor, en de onbelichte objecten ben ik ook nog niet tegengekomen...

Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Maar het idee zelf was wel redelijk dacht ik zo. Volgens mij is er echter geen mogelijkheid om de cheats aan/uit te zetten of zit ik nu uit mijn nek te kletsen?

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

Verwijderd

-ETz-Memphis Z schreef op 21 September 2003 @ 15:19:
de schaduwen zijn echt niet weg hoor, en de onbelichte objecten ben ik ook nog niet tegengekomen...
Nee, als je niet zoekt kan je ze niet tegenkomen.

Terrein niet belicht bij v45.23, schip niet belicht bij v51.75, zwart gras bij beide versies:
Afbeeldingslocatie: http://www20.tomshardware.com/graphic/20030918/images/lighting1.png

Idem hier:
Afbeeldingslocatie: http://www20.tomshardware.com/graphic/20030918/images/ligthting2.png

Ontbrekende schaduw bij v45.23, schip niet belicht bij v51.75:
Afbeeldingslocatie: http://www20.tomshardware.com/graphic/20030918/images/shadows1.png

Slechte anisotropische filtering bij v51.75 tov andere detonators (wel beter dan de radeons):
Afbeeldingslocatie: http://www20.tomshardware.com/graphic/20030918/images/aniso1.png

[ Voor 31% gewijzigd door Verwijderd op 21-09-2003 15:40 ]


Acties:
  • 0 Henk 'm!

  • Fern
  • Registratie: September 2001
  • Laatst online: 18-08 21:01
Hmm,als ik de plaatjes bekijk dan missen inderdaad wat details,maar zou Nvidia daar werkelijk niets aan doen met hun definitieve drivers?lijkt me wel ,al zou dat misschien 10-20 frames schelen met Ati,al met al zien de plaatjes er wel gelikt uit.

PowerStation


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Wel , ik heb die 51.75 hier getest en buiten het feit dat die meeeega beta driver al crashte in het control panel , heb ik toch niet dezelfde bemerkingen als oom Tom. Dat licht op dat gras was er bij mij ook niet. Maar die filtering is al duidelijk geworden dat het een bug is, je moet het in je drivers zelf instellen , en niet op 'application'. Die shaduwen , die waren er bij mij dus wel.(bij de 45.23 EN de 51.75 ) Al bij al een brakke driver volgens mij. Ingame crashte die niet , maar wel al op het control panel. Misschien moet ik even proberen de settings-gerelateerde bestanden van de 45.23 , eens proberen te mixen met de rest van de files van de 51.75 :D

[ Voor 4% gewijzigd door MPAnnihilator op 21-09-2003 16:01 . Reden: Kleine correctie ]

Mijn Specs


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 22:32
Wie nou nog ontkent dat nVidia loopt te cheaten heeft een ontzettende plaat voor zijn kop.

Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Wie nou nog ontkent dat nVidia loopt te cheaten heeft een ontzettende plaat voor zijn kop.
Als jij omschakelen voor sommige berekeningen van 32 naar 16 bit wegens geen tussenmodus van 24 bits, en te traag in 32 bits die toch niemand aanspreekt nu, als jij dat cheaten noemt, dan heb je dat coole woordje mooi onthouden en perfect kunnen naspreken. Van harte proficiat !

Mijn Specs


Acties:
  • 0 Henk 'm!

  • Intronic
  • Registratie: Juni 2002
  • Laatst online: 16-08 08:44
-GF-Annihilator schreef op 21 September 2003 @ 17:49:
[...]


Als jij omschakelen voor sommige berekeningen van 32 naar 16 bit wegens geen tussenmodus van 24 bits, en te traag in 32 bits die toch niemand aanspreekt nu, als jij dat cheaten noemt, dan heb je dat coole woordje mooi onthouden en perfect kunnen naspreken. Van harte proficiat !
Dat deden ze bij 3dmark zeker ook? Hele stukken niet renderen is iets anders als wat jij zegt hoor.

Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Ik vind het eigenlijk lullig van Microsoft en ATi dat ze geen 32 bit hebben gehouden voor DirectX 9.0 de FX was al in ontwikkeling bij de aankondinging dat er 24 bit precisie nodig was en er geen mogelijkheid meer was voor nVidia op terug te schakelen op 24 bit in plaats van 32 bit. ATi kan geen 32 bit precisie en daarom zijn ze bij Microsoft geweest om aan te vragen of het op 24 bit kon. Ik denk dat als de FX ook op 24 bit had gekunnen, er veel imho minder issues waren geweest want dan hat nVidia niet hoeven cheaten. Aan de andere kant is het wel zo dat als de nVidia op 32 bit draait, dat er dan een grotere beeldkwaliteit moet zijn, maar helaas is dat niet te benchen.

Maar dat zijn mij 2 centjes...

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

sokje schreef op 21 September 2003 @ 18:11:
Ik vind het eigenlijk lullig van Microsoft en ATi dat ze geen 32 bit hebben gehouden voor DirectX 9.0 de FX was al in ontwikkeling bij de aankondinging dat er 24 bit precisie nodig was en er geen mogelijkheid meer was voor nVidia op terug te schakelen op 24 bit in plaats van 32 bit. ATi kan geen 32 bit precisie en daarom zijn ze bij Microsoft geweest om aan te vragen of het op 24 bit kon. Ik denk dat als de FX ook op 24 bit had gekunnen, er veel imho minder issues waren geweest want dan hat nVidia niet hoeven cheaten. Aan de andere kant is het wel zo dat als de nVidia op 32 bit draait, dat er dan een grotere beeldkwaliteit moet zijn, maar helaas is dat niet te benchen.

Maar dat zijn mij 2 centjes...
Zowel Nvidia als Ati hadden problemen met 32bits DX9....daarom dus :-)

Maarz...de Nv40 komt eraan......

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

swampy schreef op 21 september 2003 @ 18:30:
[...]


Zowel Nvidia als Ati hadden problemen met 32bits DX9....daarom dus :-)

Maarz...de Nv40 komt eraan......
Dat weet ik, maar nVidia heeft geen 24 bit, ik bedoel, stel dat ATi 32 bit had moeten draaien of als nVidia 24 bit had gehad, dan had alles er denk ik heel anders uit gezien.

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

Verwijderd

Word !

What's up dudes

Vraagje wat is de beste keuze voor een nieuwe vid. kaart een ATI 9600 Pro/ 9800 SE of een Nvidia GeForce FX 5600 XP /Ultra. Ik wil graag wat overclocken dus er moet wel een groot koelblok opzitten. Ik hecht trouwens meer aan Frames/sec dan aan de beeldkwaliteit.

Verder wil ik graag weten of 256 MB nu wel echt nodig is, kan iemand mij dat vertellen ?

De Geforce FX 5600 XP is blijkbaar een goede overclock kaart maar kan hij ook tippen aan de ULTRA of moet ik gewoon 50 euro meer uitgeven voor de ULTRA in plaats van XP en dan de ULTRA overclocken naar FX 5900 specs. Of werkt dat niet met de FX 5600 ULTRA ? is de ULTRA trouwens wel een goede overclock kaart of zit deze al aan max ?

Of is het beter om een ATI te kopen ? zijn deze sneller, mooier en beter overclockbaar of is ATI niet echt een tweakers kaart ? Wat is trouwens het verschil tussen de 9600 Pro en de 9800 SE ? welke is sneller ?

Ik hoop dat iemand mij een antwoord kan geven op deze vragen.

Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Verwijderd schreef op 21 September 2003 @ 18:45:
Word !

What's up dudes

Vraagje wat is de beste keuze voor een nieuwe vid. kaart een ATI 9600 Pro/ 9800 SE of een Nvidia GeForce FX 5600 XP /Ultra. Ik wil graag wat overclocken dus er moet wel een groot koelblok opzitten. Ik hecht trouwens meer aan Frames/sec dan aan de beeldkwaliteit.

Verder wil ik graag weten of 256 MB nu wel echt nodig is, kan iemand mij dat vertellen ?

De Geforce FX 5600 XP is blijkbaar een goede overclock kaart maar kan hij ook tippen aan de ULTRA of moet ik gewoon 50 euro meer uitgeven voor de ULTRA in plaats van XP en dan de ULTRA overclocken naar FX 5900 specs. Of werkt dat niet met de FX 5600 ULTRA ? is de ULTRA trouwens wel een goede overclock kaart of zit deze al aan max ?

Of is het beter om een ATI te kopen ? zijn deze sneller, mooier en beter overclockbaar of is ATI niet echt een tweakers kaart ? Wat is trouwens het verschil tussen de 9600 Pro en de 9800 SE ? welke is sneller ?

Ik hoop dat iemand mij een antwoord kan geven op deze vragen.
Lees gewoon op tweakers een het fx toppic, het ati 9800pro toppic ofzo, ga naar tomshardware,anandtech,hardocp en dergelijke , en zo kom je het best tot je eigen besluit denk ik...

Mijn Specs


Acties:
  • 0 Henk 'm!

Verwijderd

heb ik ook gedaan maar al die info , ik weet niet meer wat belangrijk is en wat bullshit is.
Ik denk er over om de PoV GeForce FX 5600 XP 128 MB (180 euro +/-) te kopen maar kan ik er dan weer 2 jaar tegen aan zonder al teveel frame drops ? En is 128 MB niet teweinig voor in de toekomst ik heb nu maar 64 MB en dat merk je wel. Ik speel veel MOHAA (Nick << Firehand >> (NL) ) en het spel deed het eerst goed met 64 MB maar sinds de expansion packs doet hij het steeds trager.

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 22:32
Als ik jou was zou ik wachten tot de mid-range versie van de volgende generatie eris, want met jouw 4200 zit nu nog vrij goed. Met een 5600 schiet je weinig op. Met een 9800 pro schiet wel op, maar das te duur denk ik.

Acties:
  • 0 Henk 'm!

Verwijderd

yep dat is te duur. ik wil gewoon iets van +/- 200 euro uitgeven.

Ik heb net weer wat huiswerk gedaan ik kom tot de conclusie dat de ATI 9500 Pro eigenlijk gewoon een downgeclockte 9700 Pro is, klopt dit ? En als dat klopt kan ik dan de 9500 Pro met andere koeling overclocken naar 9700 Pro specs. ?

Of is de ATI 9600 Pro dan weer sneller ?

Want als dat is dan draai ik makelijk mijn TI 4200 eruit !

[ Voor 16% gewijzigd door Verwijderd op 21-09-2003 19:49 ]


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Als je een ti 4200 hebt zou ik weer niet upgraden met een budget variant. Die budget's zoals de 5600reeks nu is, denk ik niet dat het waar is voor je geld. Je bent wat mij betreft beter af door even door te sparen en rond nieuwjaar een top kaart te kopen. Tegen dat het nieuwjaar is je budget kaart van nu weeral passé en mag je zeker goeie framerates vergeten.

Mijn Specs


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Intronic schreef op 21 September 2003 @ 17:50:
[...]
Dat deden ze bij 3dmark zeker ook? Hele stukken niet renderen is iets anders als wat jij zegt hoor.
Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook. Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat. Als ik moet beginnen opnoemen wat ik met mijn ati allemaal scheef heb zien renderen, kom ik minstens aan even veel als bij nvida.

Wat mij betreft heb ik voorlopig met de games die ik SPEEL ( niet bench want bijvoorbeeld in aquamark merk ik ook het ontbreken van light op het gras. )geen enkel probleem gezien bij gelijk welke bèta van nvidia met mijn fx . Wat betreft dx9 toepassingen wacht ik graag en hoopvol de det 50 serie af.


EDIT : Sorry voor de edit knop niet te gebruiken, wist al niet meer dat ik hiervoor ook al reply had gepost 8)7

[ Voor 6% gewijzigd door MPAnnihilator op 21-09-2003 20:26 . Reden: Edit ]

Mijn Specs


Acties:
  • 0 Henk 'm!

  • Mojo
  • Registratie: Augustus 2003
  • Laatst online: 29-08 15:18

Mojo

The Power Within

Verwijderd schreef op 21 September 2003 @ 19:46:
yep dat is te duur. ik wil gewoon iets van +/- 200 euro uitgeven.

Ik heb net weer wat huiswerk gedaan ik kom tot de conclusie dat de ATI 9500 Pro eigenlijk gewoon een downgeclockte 9700 Pro is, klopt dit ? En als dat klopt kan ik dan de 9500 Pro met andere koeling overclocken naar 9700 Pro specs. ?

Of is de ATI 9600 Pro dan weer sneller ?

Want als dat is dan draai ik makelijk mijn TI 4200 eruit !
Je kan eigenlijk 2 dingen doen, een ATi radeon 9600 (pro) kopen, deze is zeer goed te overclocken (zeggen de review site's ook) of even wachten en een volgende generatie videokaart kopen. Dit is dus de ATi R(V)420 of de nVidia nV4x.
Let wel op dat men hier met volgende generatie videokaarten niet de nV 38 en de ATi R360 bedoelt, dit zijn slechts geupgrade versies van de R350 en nV35.

Als ik jou was zou ik nog even wachten en nog even verder gaan met je Ti. In welk systeem komt de kaart eigenlijk, want als het een 1 GHz'je is dan is het verschil tussen Ti 4200 64 MB en nieuwe kaart minder groot dan bij een sterker systeem. Ik wil hiermee zeggen dat de bottleneck bij MOHAA niet per ce de videokaart hoeft te zijn.

Let wel; je moet zelf je eigen keus maken en voor jezelf bepalen wat het beste is. Denk er wel goed over na, want 200 euro is geen kattenpis (voor mij niet in elk geval).

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop


Acties:
  • 0 Henk 'm!

  • Intronic
  • Registratie: Juni 2002
  • Laatst online: 16-08 08:44
-GF-Annihilator schreef op 21 september 2003 @ 20:25:
[...]


Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook. Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat. Als ik moet beginnen opnoemen wat ik met mijn ati allemaal scheef heb zien renderen, kom ik minstens aan even veel als bij nvida.

Wat mij betreft heb ik voorlopig met de games die ik SPEEL ( niet bench want bijvoorbeeld in aquamark merk ik ook het ontbreken van light op het gras. )geen enkel probleem gezien bij gelijk welke bèta van nvidia met mijn fx . Wat betreft dx9 toepassingen wacht ik graag en hoopvol de det 50 serie af.


EDIT : Sorry voor de edit knop niet te gebruiken, wist al niet meer dat ik hiervoor ook al reply had gepost 8)7
Krijg je hier voor betaald? :)

Dus jij vind het allemaal goed dat ze stukken weglaten, game developers omkopen enz.? Ze doen er alles aan om zoveel mogelijk fps te krijgen, ze hebben die community daardoor mooi verneukt.

Op de manier zoals nVidia het heeft gedaan, kan ik met m'n GF3 Ti 200 ook wel 7000 3dmarks halen :+

http://www.rage3d.com/boa....php?s=&threadid=33712297 , wat die kerel daar zegt kan best nog eens waar zijn, ze gebruiken gewoon DX8.1 en PS1.4, zodat ze meer FPS krijgen.

Acties:
  • 0 Henk 'm!

Verwijderd

-ETz-Memphis Z schreef op 21 September 2003 @ 13:45:
Als je kijkt naar de scores van de Geforce FX 5900Ultra bij de Aquamark3 Benchmarks, dan besluit ik daaruit dat hij in DirectX9 (is toch een DX9 test niet? :D) ongeveer even snel is als de 9800Pro.
Alleen met drivers die niet alles renderen (met andere woorden die het niet correct doen en waar je dus uberhaupt niet mee kan vergelijken) is nvidia even snel. Als je drivers gebruikt die wel alles correct doen is de FX kaart ongeveer een 40% trager.
Het vreemde aan heel de situatie met Valve vind ik dat zo knappe programmeer koppen, 5x(!!!) zoveel moeten werken aan een engine om hem vlot te krijgen op de Fx'en. En dan nog met het geld van Ati!

Volgens mij klopt hier iets niet. Maar dat denk ik er dan over ;)
Omdat nvidia niet de directx9 standaarden gebruikt daardoor moet valve daar veel tijd en moeite insteken . Valva doet nvidia hier dus een plezier zonder die optimalisaties kon bijna niemand met een FX kaart halflife 2 goed draaien (met alle opties aan dus) .

Acties:
  • 0 Henk 'm!

Verwijderd

-GF-Annihilator schreef op 21 september 2003 @ 17:49:
Als jij omschakelen voor sommige berekeningen van 32 naar 16 bit wegens geen tussenmodus van 24 bits, en te traag in 32 bits die toch niemand aanspreekt nu, als jij dat cheaten noemt, dan heb je dat coole woordje mooi onthouden en perfect kunnen naspreken. Van harte proficiat !
Het gaat niet alleen daarover, je vergeet 'enkele' dingen.

Het cheaten in 3DMark03, de reden die nVidia opgaf was:
nVidia zegt zelfs 3DMark 2003 niet te ondersteunen als primaire benchmark om de prestaties van nieuwe grafische kaarten mee te testen. Als voorbeeldreden noemt de chipbakker dat de eerste scene opgebouwd worden op een inefficiënte manier, met gebruik van DirectX-elementen die vooral door ATi gepromoot worden, maar weinig gebruikt worden in games.
Bron: nVidia ondersteunt 3DMark 2003 niet

Omdat scenes inefficiënt opgebouwd zouden zijn doen ze maar het volgende:
De GPU-fabrikant sprak van een fout in de drivers, maar ondertussen is een verklaring van Futuremark - de producent van 3DMark03 - verschenen waarin wordt gesproken van opzet. In de verklaring van Futuremark worden acht manieren genoemd waarop nVidia de score zou hebben beïnvloed. Het gaat daarbij vooral om het niet renderen van scenes die zich net buiten het camerastandpunt bevinden en om het versimpelen van verschillende vertex shaders. In een nieuwe build van 3DMark03, waarin de cheats niet werken, daalt de score van de GeForceFX 5900 Ultra met 24,1 procent.
Reactie van nVidia:
nVidia: We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad.
Hier spreken ze zichzelf tegen. Wat is het nu? Een bug in de drivers of Futuremark dat nVidia een slechte naam probeert te bezorgen?

Bron: Futuremark bevestigt 'drivertruc' nVidia in 3DMark03

Toen ze inzagen dat ze hiermee enkel zichzelf de das omdeden wat de toekomst betreft hebben ze zich maar bedacht:
nVidia is weer lid geworden van het Futuremark ontwikkelprogramma, en daarmee lijkt een einde gekomen te zijn aan een periode van wrijving tussen de twee bedrijven. Begin dit jaar werd voor het eerst duidelijk dat de relatie tussen de twee was verslechterd. nVidia bleek in december 2002 uit het beta-programma gestapt te zijn omdat ze het niet eens waren met de manier waarop de benchmarks werd geprogrammeerd, en begon openlijk kritiek te uiten op 3dMark 2003.
Bron: nVidia werkt weer samen met Futuremark

-Het feit dat nVidia DirectX9-games slecht ondersteunt:
We have been working very closely with Valve on the development of Half Life 2 and tuning for NVIDIA GPU's. And until a week ago had been in close contact with their technical team. It appears that, in preparation for ATI's Shader Days conference, they have misinterpreted bugs associated with a beta version of our release 50 driver.

[...] In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.
Bron: nVidia reageert op benchmarkresultaten Half-Life 2
AnandTech publiceert details over Half-Life 2 performance

Maar wat dan met Tomb Raider: Angel of Darkness, ook een miscommunicatie over driverbugs?
De resultaten van de benchmark zijn echter schokkend, want de Radeon-kaarten weten de meeste benchmarks met een flinke voorsprong op de GeForce FX-kaarten te winnen, als er van alle mogelijke effecten gebruik wordt gemaakt.
Bron: DirectX 9.0-benchmarks ATi- en nVidia- kaarten

En wat doen we met Aquamark? Lichting wordt niet altijd gerenderd, schaduwen worden niet altijd gerenderd, de kwaliteit van de anisotropische filtering is ferm achteruit gegaan terwijl dat in vorige versies (44.03 en vroeger) perfect ging.

Bron: AquaMark 3-benchmark getest door Tom's Hardware

Is dit allemaal toeval denk je? Allemaal onopzettelijke bugs? In vroegere versies werd alles perfect gerenderd, in de nieuwe zijn die functies blijkbaar per ongeluk weggehaald of beschadigd. Wanneer je deze effecten wél toevoegt heb je een performance-drop van 60 tot 90%. Ik hoor veel vertellen over drivers die de slechte prestaties van de NV30-35 gaan goedmaken, nu zien we op welke manier dat gebeurt.

Steek je kop niet langer in het zand en bekijk de feiten zoals ze zijn. Al geven ze me gratis een FX5900 Ultra, ik moet ze niet hebben. Afwachten maar wat de volgende generatie brengt.

Acties:
  • 0 Henk 'm!

Verwijderd

sokje schreef op 21 September 2003 @ 18:11:
Ik vind het eigenlijk lullig van Microsoft en ATi dat ze geen 32 bit hebben gehouden voor DirectX 9.0 de FX was al in ontwikkeling bij de aankondinging dat er 24 bit precisie nodig was en er geen mogelijkheid meer was voor nVidia op terug te schakelen op 24 bit in plaats van 32 bit. ATi kan geen 32 bit precisie en daarom zijn ze bij Microsoft geweest om aan te vragen of het op 24 bit kon. Ik denk dat als de FX ook op 24 bit had gekunnen, er veel imho minder issues waren geweest want dan hat nVidia niet hoeven cheaten. Aan de andere kant is het wel zo dat als de nVidia op 32 bit draait, dat er dan een grotere beeldkwaliteit moet zijn, maar helaas is dat niet te benchen.

Maar dat zijn mij 2 centjes...
Probleem is dat met 32bit het niet vooruit gaat. In tegenstelling tot wat je denkt is dat wel degelijk te testen. Ja de beeldkwaliteit is beter maar spijtig genoeg zak je dan onder de 30fps (voor halflife 2 bijvoorbeeld) en dan speel je nog in 1024*...zonder AA

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 21 September 2003 @ 18:45:
Word !

What's up dudes

Vraagje wat is de beste keuze voor een nieuwe vid. kaart een ATI 9600 Pro/ 9800 SE of een Nvidia GeForce FX 5600 XP /Ultra. Ik wil graag wat overclocken dus er moet wel een groot koelblok opzitten. Ik hecht trouwens meer aan Frames/sec dan aan de beeldkwaliteit.
Ga voor ATI alle benchmarks voor directx9 tonen aan dat ATI kaarten een stuk beter zijn.
Verder wil ik graag weten of 256 MB nu wel echt nodig is, kan iemand mij dat vertellen ?
Niet echt

Acties:
  • 0 Henk 'm!

Verwijderd

-GF-Annihilator schreef op 21 September 2003 @ 20:25:
[...]

Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook.
Het probleem was dat de techniek die ze gebruikten om te weten wat ze niet moeten renderen je nooit in spelletjes kan gebruiken. Die techniek is dus compleet nutteloos voor spelletjes het enige waarom ze dat er insteken is omdat het dan lijkt dat hun kaart sneller is dan ze werkelijk is.
Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat.
Het probleem is wel dat die techniek alleen in benchmarktools bruikbaar is. ALs jij dus een gewoon spelletje speelt doet dat niks.
Wat mij betreft heb ik voorlopig met de games die ik SPEEL ( niet bench want bijvoorbeeld in aquamark merk ik ook het ontbreken van light op het gras. )geen enkel probleem gezien bij gelijk welke bèta van nvidia met mijn fx . Wat betreft dx9 toepassingen wacht ik graag en hoopvol de det 50 serie af.
Ik denk niet dat die veel verschil zullen geven en de 3.8 drivers van ATI zullen dat waarschijnlijk nog minder maken.

Acties:
  • 0 Henk 'm!

Verwijderd

-GF-Annihilator schreef op 21 September 2003 @ 20:25:
Er zijn er waar het in zat ja, maar voor mij mogen ze dat doen, zolang het maar niet zichtbaar is. Ik heb dus veel liever dat ze stukken niet renderen die je toch niet ziet , dan bijvoorbeeld lichtbronnen niet renderen om welke reden dan ook. Wat zou mij het kunnen schelen als onzichtbare dingen niet gerenderd zouden zijn. Ik heb het nergens zelf kunnen bespeuren. Als't maar vloeiend gaat. Als ik moet beginnen opnoemen wat ik met mijn ati allemaal scheef heb zien renderen, kom ik minstens aan even veel als bij nvida.
En daardoor een hoop potentiële klanten misleiden door te laten blijken dat ze de beste resultaten hebben in 3DMark03? Vind je dat een goede manier van werken?

[ Voor 13% gewijzigd door Verwijderd op 21-09-2003 21:16 ]


Acties:
  • 0 Henk 'm!

Verwijderd

sokje schreef op 21 September 2003 @ 20:39:
[...]

Je kan eigenlijk 2 dingen doen, een ATi radeon 9600 (pro) kopen, deze is zeer goed te overclocken (zeggen de review site's ook) of even wachten en een volgende generatie videokaart kopen. Dit is dus de ATi R(V)420 of de nVidia nV4x.
Let wel op dat men hier met volgende generatie videokaarten niet de nV 38 en de ATi R360 bedoelt, dit zijn slechts geupgrade versies van de R350 en nV35.

Als ik jou was zou ik nog even wachten en nog even verder gaan met je Ti. In welk systeem komt de kaart eigenlijk, want als het een 1 GHz'je is dan is het verschil tussen Ti 4200 64 MB en nieuwe kaart minder groot dan bij een sterker systeem. Ik wil hiermee zeggen dat de bottleneck bij MOHAA niet per ce de videokaart hoeft te zijn.

Let wel; je moet zelf je eigen keus maken en voor jezelf bepalen wat het beste is. Denk er wel goed over na, want 200 euro is geen kattenpis (voor mij niet in elk geval).
de GF TI 4200 zit in een Athlon XP 1600+ (1.4 Ghz) , maar ik wil een Athlon XP 2500+ (Barton, 333 Mhz FSB, 512 kb cach, 1.83 Ghz) dus dan moet er ook een nieuwe vid. kaart in. Maar ik weet niet welke vid. kaart.

kan iemand mij helpen ! }) 8)

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 21 september 2003 @ 21:15:
[...]


de GF TI 4200 zit in een Athlon XP 1600+ (1.4 Ghz) , maar ik wil een Athlon XP 2500+ (Barton, 333 Mhz FSB, 512 kb cach, 1.83 Ghz) dus dan moet er ook een nieuwe vid. kaart in. Maar ik weet niet welke vid. kaart.

kan iemand mij helpen ! }) 8)
FAQ Videoplanken & Beeldkanonnen (01/03/03): vierde link
In principe gaan alle "welke videokaart moet ik kopen?"-topics op slot. Het heet hier Gathering of Tweakers en van een tweaker mag toch wel verwacht worden dat hij zelf een videokaart kan uitzoeken. Bij hoge uitzondering kunnen deze topics openblijven, maar dan moet je echt duidelijk aantonen dat het niet een standaard "welke videokaart moet ik kopen?"-topic is.

[ Voor 60% gewijzigd door Verwijderd op 21-09-2003 21:39 ]

Pagina: 1 ... 9 ... 11 Laatste

Dit topic is gesloten.