zal straks even screenie posten ik haal nogsteeds 7500marks
http://www.beyond3d.com/articles/3dmark03/340/
Zucht, nVidia maakt het wel erg bontAt one we asked Derek how this sat with the optimisations guidelines that were given to press by NVIDIA, specifically the guideline that suggests "An optimization must accelerate more than just a benchmark" To which Derek's reply was "But 3DMark03 is only a benchmark" -- it was suggested that this particular guideline should read "An optimization must accelerate more than just a benchmark unless the application is just a benchmark"!
Tja, eigenlijk vind ik dat ATi haar eigen optimalisaties die ze een tijd terug verwijdert heeft uit haar drivers gewoon weer terug mag zetten, want daarmee deden ze eigenlijk ongeveer hetzelfde wat nVidia nu doet met haar nieuwe Forceware. Alleen gebruikte ATi drivers niet DX8 waar het voldoende was, maar vervingen ze bepaalde shaders met shaders die gelijkwaardig zijn aan de Futuremark shaders, maar waardoor de R3x0 architectuur er effectiever om mee kon gaan.
Overigens vind ik dit stukje toch wel sneu:
Overigens vind ik dit stukje toch wel sneu:
Alle andere graphiccard fabrikanten kunnen zich wel aan de afgesproken richtlijnen houden behalve nVidia.Derek went on to suggest that they may well end up chasing each patch release and re-optimising as Futuremark puts a patch that defeats previous detections!

[ Voor 27% gewijzigd door CJ op 12-11-2003 12:33 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik weet welk merk ik voorlopig niet ga kopen.
Nu zit ik alleen met het probleem, wat voor moederbord moet je dan kopen voor een AXP, de nForce2 is de beste optie
Nu zit ik alleen met het probleem, wat voor moederbord moet je dan kopen voor een AXP, de nForce2 is de beste optie
Ach ik maak me over deze cheats niet druk meer, want Nvidia is gewoon wel genaaid door een paar keuzes in de eindfase vd ontwikkeling van 3dMark03. Zolang ze er maar geen teringzooi bij de echte games van maken.
Zoals trilinair ( of zelfs bilinair ) filteren dat niet actief is :-)Sjah schreef op 12 november 2003 @ 14:06:
Ach ik maak me over deze cheats niet druk meer, want Nvidia is gewoon wel genaaid door een paar keuzes in de eindfase vd ontwikkeling van 3dMark03. Zolang ze er maar geen teringzooi bij de echte games van maken.
Op het eerste gezicht vallen zulke dingen niet op...maar dat is maar op het eerste gezicht. Ze gaan definitly opvallen als je het vergelijkt mer waar WEL trilinair gefiltert wordt.
Natuurlijk, zolang games speelbaar zijn ... :-)
There is no place like ::1
Verwijderd
offtopic:
Gewoon kopen dat nforce2 moederbord, als veel consumenten niet blij met de Forceware drivers en om deze redenen een videokaart van ATI kopen maar wel blij zijn met de voortreffelijke mobo-chipsets en deze kopen, dan gaat Nvidia niet failliet en zien zij toch dat zij het op videokaart gebied anders moeten doen. Koop je geen van beiden dan ziet Nvidia ook dat er iets mis is, maar gaan zij wel failliet en kan ATI en VIA de consument uitmelken.
Je ziet nu al dat door een gebrek aan goede concurrentie je voor een Radeon 9800 nonpro nu duidelijk meer moet betalen (300 euro) dan 6 maanden geleden voor een 9700NonPro (200 euro) terwijl door de vooruitgang in productietechnieken de 9800NP zeker geen hogere kostprijs heeft.
on topic:
Als nvidia haar drivers en compilers optimaliseert voor games en benches, dan zou het juist goed zijn als 3Dmark2003 zou laten zien wat er aan de hand is. Als wij naar de recente games kijken, zien wij dat de performance van de FX kaarten duidelijk is gestegen door de optimalisaties/cheats, maar zien wij daar in 3Dmark2003 door die nieuwe builds niets van terug.
Stel dat de volgende optimalisatie/cheat ronde van Nvidia één der volgende zaken gaat gebeuren:
1. Beeldkwaliteit goed & performance goed
2. Beeldkwaliteit slecht & performance goed
3. Beelkwaliteit goed & performance slecht
4. Beeldkwaliteit slecht & performance slecht
Als ik nu 3Dmark2003 zou willen gebruiken (even geheel afgezien dat 3Dmark2003 volkomen ongeschikt is als performance-indicator voor games) om het verschil tussen een Radeon en een FX te zien, dan heb ik door Futuremark's de-optimalisatie build's een probleem: want stel dat punt 1. of punt 2. van toepassing is in games, dan zie je daar in 3Dmark2003 niets van terug omdat i.t.t. de echte games bij 3Dmark2003 de optimalisaties/cheats de nek worden omgedraaid.
Wat heb ik eraan dat een benchmark mij een middelmatige snelheid met goede beeldkwaliteit toont als in de echte games de performance goed is maar de beeldkwaliteit slecht (of beide goed of juist slecht)? Wat is de waarde van een benchmark als hij iets fundamenteel anders meet dan wat in de praktijk van toepassing is?
Mijn stelling: de nieuwe builds waar de optimalisaties/cheats ongedaan gemaakt worden zorgen er niet voor dat je een beter beeld van de werkelijke gamerealiteit krijgt, maar ze geven juist een slechter beeld van de werkelijke praktijksituatie!
Gewoon kopen dat nforce2 moederbord, als veel consumenten niet blij met de Forceware drivers en om deze redenen een videokaart van ATI kopen maar wel blij zijn met de voortreffelijke mobo-chipsets en deze kopen, dan gaat Nvidia niet failliet en zien zij toch dat zij het op videokaart gebied anders moeten doen. Koop je geen van beiden dan ziet Nvidia ook dat er iets mis is, maar gaan zij wel failliet en kan ATI en VIA de consument uitmelken.
Je ziet nu al dat door een gebrek aan goede concurrentie je voor een Radeon 9800 nonpro nu duidelijk meer moet betalen (300 euro) dan 6 maanden geleden voor een 9700NonPro (200 euro) terwijl door de vooruitgang in productietechnieken de 9800NP zeker geen hogere kostprijs heeft.
on topic:
Als nvidia haar drivers en compilers optimaliseert voor games en benches, dan zou het juist goed zijn als 3Dmark2003 zou laten zien wat er aan de hand is. Als wij naar de recente games kijken, zien wij dat de performance van de FX kaarten duidelijk is gestegen door de optimalisaties/cheats, maar zien wij daar in 3Dmark2003 door die nieuwe builds niets van terug.
Stel dat de volgende optimalisatie/cheat ronde van Nvidia één der volgende zaken gaat gebeuren:
1. Beeldkwaliteit goed & performance goed
2. Beeldkwaliteit slecht & performance goed
3. Beelkwaliteit goed & performance slecht
4. Beeldkwaliteit slecht & performance slecht
Als ik nu 3Dmark2003 zou willen gebruiken (even geheel afgezien dat 3Dmark2003 volkomen ongeschikt is als performance-indicator voor games) om het verschil tussen een Radeon en een FX te zien, dan heb ik door Futuremark's de-optimalisatie build's een probleem: want stel dat punt 1. of punt 2. van toepassing is in games, dan zie je daar in 3Dmark2003 niets van terug omdat i.t.t. de echte games bij 3Dmark2003 de optimalisaties/cheats de nek worden omgedraaid.
Wat heb ik eraan dat een benchmark mij een middelmatige snelheid met goede beeldkwaliteit toont als in de echte games de performance goed is maar de beeldkwaliteit slecht (of beide goed of juist slecht)? Wat is de waarde van een benchmark als hij iets fundamenteel anders meet dan wat in de praktijk van toepassing is?
Mijn stelling: de nieuwe builds waar de optimalisaties/cheats ongedaan gemaakt worden zorgen er niet voor dat je een beter beeld van de werkelijke gamerealiteit krijgt, maar ze geven juist een slechter beeld van de werkelijke praktijksituatie!
Hou nu eens op met iedereen de schuld geven behalve nVidia.
nVidia is niet genaaid door Futuremark, ze zijn zelf uit het Beta programma gestapt.
nVidia is niet genaaid door MS met dx9, ook daar zijn ze zelf opgestapt
nvidia had gewoon last van grootheidswaanzin, wij zijn de grootste, dus jullie doen maar wat wij voorstellen, zo niet, dan stappen we op !!
Een teringzooi bij echte gamez heb je dus al, zoals hierboven aangegeven is het Brilinear verhaal wel storend, vooral omdat het gaat over een kaart van een paar 100 euro, dan wil je zelf bepalen of je bi of tri-linear aan kan zetten bij de verschillende spellen (allang niet meer alleen ut-2003) Ook al is de beeldkwaliteit goed in bri-linear, Tri-linear is beter !!
nVidia is niet genaaid door Futuremark, ze zijn zelf uit het Beta programma gestapt.
nVidia is niet genaaid door MS met dx9, ook daar zijn ze zelf opgestapt
nvidia had gewoon last van grootheidswaanzin, wij zijn de grootste, dus jullie doen maar wat wij voorstellen, zo niet, dan stappen we op !!
Een teringzooi bij echte gamez heb je dus al, zoals hierboven aangegeven is het Brilinear verhaal wel storend, vooral omdat het gaat over een kaart van een paar 100 euro, dan wil je zelf bepalen of je bi of tri-linear aan kan zetten bij de verschillende spellen (allang niet meer alleen ut-2003) Ook al is de beeldkwaliteit goed in bri-linear, Tri-linear is beter !!
Inderdaad, wat maakt mij het uit dat een kaart slech presteerd in 3D-mark. Als in spellen de beeldkwaliteit goed is en de Performance ook, dan vindt ik niet dat je van cheaten mag spreken, maar echte optimalisaties. Dat 3dmark die optimalisaties ongedaan maakt moeten hun weten, maar ik vindt het onterecht. Denk er eens aan dat nVidia e voor gezorgd heeft met hun voormalige cheaten dat 3Dmark 2003 een slechte naam kreeg, nu worden ze gewoon teruggepakt.Verwijderd schreef op 12 november 2003 @ 14:40:
on topic:
Als nvidia haar drivers en compilers optimaliseert voor games en benches, dan zou het juist goed zijn als 3Dmark2003 zou laten zien wat er aan de hand is. Als wij naar de recente games kijken, zien wij dat de performance van de FX kaarten duidelijk is gestegen door de optimalisaties/cheats, maar zien wij daar in 3Dmark2003 door die nieuwe builds niets van terug.
BLAAT
[/b]
Ik vindt dat er een groot verschil is tussen cheats en optimaliseren en wat nVidia nu doet is niet cheaten imho.
[ Voor 6% gewijzigd door Mojo op 12-11-2003 14:47 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Verwijderd
Indien de optimalisaties/cheats goed uitpakken voor de beeldkwaliteit en performance, dan kun je Nvidia weinig verwijten. Indien de beeldkwaliteit en/of performance slecht dan kun je Nvidia veel verwijten en op dit moment is er voor Nvidia nog een hoop werk te doen.
@hjs:
Zeg nou zelf, kun jij met 3Dmark2003 build 340 zien wat bij de FX de werkelijke veranderingen zijn door de nieuwe drivers? Is de beeldkwaliteit beter of slechter, is de perfromance beter of slechter en zo ja, hoe groot zijn dan de verschillen?
2e vraag:
Is het zinvol voor de consument als de veranderingen die de nieuwe drivers bieden niet getoond worden, of heb je er juist meer aan dat zij wel zichtbaar zijn in 3Dmark2003?
@hjs:
Zeg nou zelf, kun jij met 3Dmark2003 build 340 zien wat bij de FX de werkelijke veranderingen zijn door de nieuwe drivers? Is de beeldkwaliteit beter of slechter, is de perfromance beter of slechter en zo ja, hoe groot zijn dan de verschillen?
2e vraag:
Is het zinvol voor de consument als de veranderingen die de nieuwe drivers bieden niet getoond worden, of heb je er juist meer aan dat zij wel zichtbaar zijn in 3Dmark2003?
De verschillen zijn idd erg moeilijk te zien, alleen als je naar dat plaatje kijkt wat het verschil aangeeft zie je het (op b3d).
Wat me vooral dwars zit is niet het feit dat ze weer cheaten\optimalizeren, maar de uitspraken van die Derek. We stellen regels op, maar mogen ze vervolgens weer gewoon aan ons laars lappen, als ons dat beter uitkomt.
Maar waarom optimalisaties in 3dmark? wat heeft de consument eraan?
Het enigste wat je ermee bereikt is dat de consument je kaart koopt om daarna in games tegenvallende resultaten te zien, omdat het spel wat ze nu spelen nou net niet geoptimaliseerd is door het driver team !!
Wat me vooral dwars zit is niet het feit dat ze weer cheaten\optimalizeren, maar de uitspraken van die Derek. We stellen regels op, maar mogen ze vervolgens weer gewoon aan ons laars lappen, als ons dat beter uitkomt.
Maar waarom optimalisaties in 3dmark? wat heeft de consument eraan?
Het enigste wat je ermee bereikt is dat de consument je kaart koopt om daarna in games tegenvallende resultaten te zien, omdat het spel wat ze nu spelen nou net niet geoptimaliseerd is door het driver team !!
[ Voor 32% gewijzigd door hjs op 12-11-2003 15:10 ]
Verwijderd
Oké hjs, het was je vooral om de uitspraken te doen. Wat de optimalisaties voor de minder bekende en toekomstige games betreft: gelukkig hoeft als na verloop van tijd de nieuwe Nvidia compilers uit zijn, dan hoeft Nvidia zelf niet meer veel te optimaliseren, het optimalisatiewerk wordt dan door de compiler/driver gedaan.
Vergelijk het een beetje met de intel pentium4: Toen de P4 uitkwam zag je dat met heel veel programma's een PIII tualatin op 1,26 GHz met SDRAM sneller was dan een P4 op 1,8 GHz met RDRAM. Maar intel ontwikkelde ook compilers waarmee de nieuwe features die de P4 bood wel ondersteund worden (zoals Netburst) en je als nu deze CPU/Mobo combinaties met elkaar vergelijkt in de hedendaagse programma's, dan zal de P4 het ruimschoots winnen.
Dus alles komt nog goed met de FX? Helaas niet, want eigenlijk mag (moet) je Nvidia verwijten dat er al lang goede compilers voor de FX serie beschikbaar hadden moeten zijn. Immers er komen de komende tijd veel games uit waarbij de ontwikkelaars nog niet gebruik hebben kunnen maken van deze compilers. Kijk naar HL2: het is eigenlijk te zot voor woorden dat bij een dergelijke DX9 game de fabrikant genoodzaakt is om voor de FX 5600 serie een tijdrovende DX8.1 codepath te schrijven omdat in DX9 de performance werkelijk beneden pijl was. En dan nog zie je dat een GF4 Ti met een vrijwel vergelijkbare beeldkwaliteit in een DX8.0 codepath anderhalf tot twee maal zo snel is (dat 3Dmark2003 in test 2 en 3 juist doet suggeren dat de FX5600 hierin duidelijk sneller zou moeten zijn zegt heel veel over hun testmethodiek, maar dit terzijde).
Een belangrijke oorzaak waarom de GF 4 wel goed presteerd is dat de gameproducenten daar allang de juiste tools ter beschikking en knowhow hebben om een goede performance te kunnen halen.
Vergelijk het een beetje met de intel pentium4: Toen de P4 uitkwam zag je dat met heel veel programma's een PIII tualatin op 1,26 GHz met SDRAM sneller was dan een P4 op 1,8 GHz met RDRAM. Maar intel ontwikkelde ook compilers waarmee de nieuwe features die de P4 bood wel ondersteund worden (zoals Netburst) en je als nu deze CPU/Mobo combinaties met elkaar vergelijkt in de hedendaagse programma's, dan zal de P4 het ruimschoots winnen.
Dus alles komt nog goed met de FX? Helaas niet, want eigenlijk mag (moet) je Nvidia verwijten dat er al lang goede compilers voor de FX serie beschikbaar hadden moeten zijn. Immers er komen de komende tijd veel games uit waarbij de ontwikkelaars nog niet gebruik hebben kunnen maken van deze compilers. Kijk naar HL2: het is eigenlijk te zot voor woorden dat bij een dergelijke DX9 game de fabrikant genoodzaakt is om voor de FX 5600 serie een tijdrovende DX8.1 codepath te schrijven omdat in DX9 de performance werkelijk beneden pijl was. En dan nog zie je dat een GF4 Ti met een vrijwel vergelijkbare beeldkwaliteit in een DX8.0 codepath anderhalf tot twee maal zo snel is (dat 3Dmark2003 in test 2 en 3 juist doet suggeren dat de FX5600 hierin duidelijk sneller zou moeten zijn zegt heel veel over hun testmethodiek, maar dit terzijde).
Een belangrijke oorzaak waarom de GF 4 wel goed presteerd is dat de gameproducenten daar allang de juiste tools ter beschikking en knowhow hebben om een goede performance te kunnen halen.
nVidia cheat alleen maar voor 3DMark omdat ze zo veel design-wins binnen kunnen slepen. Dat ze het op oneerlijke wijze doen, kan ze niets schelen. Het gaat ze alleen maar om geld, aangezien grote pc-fabrikanten wel waarde hechten aan 3DMark2k3.
En dat is gewoon een hele kwalijke zaak.
Zie bv ook een recente pressrelease van nVidia waarin staat dat de mobile DX9 kaarten zo'n 80% sneller waren dan de rechtstreekse concurrent, terwijl we allemaal weten dat een M10 de NV31m/NV36m er gemakkelijk uit trekt.
En een bedrijf dat op deze manier aan z'n geld probeert te komen, kan bij mij niet echt rekenen op sympathie, ook al maken ze super mobo's mobo chipsets.
En dat is gewoon een hele kwalijke zaak.

Zie bv ook een recente pressrelease van nVidia waarin staat dat de mobile DX9 kaarten zo'n 80% sneller waren dan de rechtstreekse concurrent, terwijl we allemaal weten dat een M10 de NV31m/NV36m er gemakkelijk uit trekt.
Yeah right.PC Magazine recognized NVIDIA for its graphics expertise by stating, "The HP's NVIDIA GeForce FX Go5600 graphics make it the better choice for mobile gaming: its 3DMark03 score was 81% ahead of the nearest competitor..."

En een bedrijf dat op deze manier aan z'n geld probeert te komen, kan bij mij niet echt rekenen op sympathie, ook al maken ze super mobo's mobo chipsets.
[ Voor 7% gewijzigd door CJ op 12-11-2003 16:20 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ze maken geen mobo's ze maken chipsets. En ook over de drivers van die chipsets zijn her en der forse klachten te lezen.CJ schreef op 12 november 2003 @ 15:46:
En een bedrijf dat op deze manier aan z'n geld probeert te komen, kan bij mij niet echt rekenen op sympathie, ook al maken ze super mobo's.
Verder is nvidia idd niet goed/eerlijk bezig maar dat weten we nu wel.
Het heeft er alle schijn van dat ATI momenteel oprecht en goed bezig is echter zij zitten in de luxepositie dat zij zich heel moralistisch kunnen opstellen en nVidia niet.
Of je het nou leuk vind of niet, dit is de manier hoe grote bedrijven all over the globe te werk gaan.
Volgend jaar ziet ATI zich wellicht genoodzaakt tot dergelijke praktijken en denk maar niet dat zij dat niet zullen doen. Sterker nog misschien doen ze het al maar kan ik, nog jij, nog het in de hemel geprezen Beyond3d dat nu detecteren.
Verder is de videokaartenindustrie dermate ingewikkeld dat het lastig is goed te kunnen testen in hoeverre de ene kaart beter is dan de andere in een realistische omgeving. Je zou dan bijvoorbeeld twee identieke machines naast elkaar moeten zetten en in een gecontroleerde omgeving een testpersoon hetzelfde spel om beurten moeten laten spelen.
Alle grote websites proberen hun (technische) kennis en testbeds te vergroten cq verbeteren. Iedereen die zich een beetje orienteert weet wat er gaande is en kan
een keuze maken.
Dat continue geflame op nVidia is verder zinloos.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Nou die duitsers versturen sneller als hier in Nederland.
Ik ben nou eigenaar van een Nvidia 5950 Gainward 1800XP GS.Inbegrepen ook nog een fire wire(heb ik niks aan zit op mijn moederbord)En een high quality 5.1 surroundkaart(altijd handig )
Gisteren besteld nou al in huis wat een service daar bij Alternate.de Zeiden dat ik donderdag of vrijdag zou hebben.
Nou gaan we zometeen gelijk benchmarken
Ik ben nou eigenaar van een Nvidia 5950 Gainward 1800XP GS.Inbegrepen ook nog een fire wire(heb ik niks aan zit op mijn moederbord)En een high quality 5.1 surroundkaart(altijd handig )
Gisteren besteld nou al in huis wat een service daar bij Alternate.de Zeiden dat ik donderdag of vrijdag zou hebben.
Nou gaan we zometeen gelijk benchmarken
Ik heb net mijn FX5800 ULtra met de nieuwe versie van 3d Mark '03 getest en het is echt belabberd
5705 met de oude versie
4938 nu met de nieuwe versie
ik heb geen compare linkjes omdat ik iedere keer submission failed krijg
maar maakt niet uit ik schaam me nu zelfs voor deze score
5705 met de oude versie
4938 nu met de nieuwe versie
ik heb geen compare linkjes omdat ik iedere keer submission failed krijg
Verwijderd
Ik haal met mijn Gainward 1800XP/GS Nvidia 5950Ultra bij:
3dmark03 6450 (500 mhz/950Mhz)
3dmark03 6799 (500Mhz/1000Mhz)
En dan heb ik het nou effe snel , snel gedaan , want hij is nog maar 15 uurtjes oud
Systeem:
AsusP4C800Deluxe
P42.8Ghz 800FSB
1024DDR corsair(pc3200)
3dmark03 6450 (500 mhz/950Mhz)
3dmark03 6799 (500Mhz/1000Mhz)
En dan heb ik het nou effe snel , snel gedaan , want hij is nog maar 15 uurtjes oud
Systeem:
AsusP4C800Deluxe
P42.8Ghz 800FSB
1024DDR corsair(pc3200)
Ga ervan uit dat games lekker draaien erop :-).Verwijderd schreef op 13 november 2003 @ 14:26:
Ik haal met mijn Gainward 1800XP/GS Nvidia 5950Ultra bij:
3dmark03 6450 (500 mhz/950Mhz)
3dmark03 6799 (500Mhz/1000Mhz)
En dan heb ik het nou effe snel , snel gedaan , want hij is nog maar 15 uurtjes oud![]()
Systeem:
AsusP4C800Deluxe
P42.8Ghz 800FSB
1024DDR corsair(pc3200)
Zat er nog een leuk spel in het pakket?
There is no place like ::1
Verwijderd
Nee geen spel(heb ik ook niet nodig bezit al de nodige spellen)
Wel een high quality 5.1 soundkaart inclusief een coax , opt.aansluit voor digitaal geluid.Coax kabel.Firewirekaart met alles erop en eraan.VIVO
Wel een high quality 5.1 soundkaart inclusief een coax , opt.aansluit voor digitaal geluid.Coax kabel.Firewirekaart met alles erop en eraan.VIVO
Mmm, nou ja..als je nog geen geluidskaart hebt...
Maar de games die je hebt draaien dus lekker :-p, ach ja :-)
Maar de games die je hebt draaien dus lekker :-p, ach ja :-)
There is no place like ::1
Verwijderd
Had ik wel op mijn moederbord zitten.Maar deze is wel vele malen beter.Ik had ook nog een headset erbij gekregen.
Al die spellen erbij hoef van mijn kant uit niet , er zitten er ook bij dat ik niet speel en dan vind ik het geen nuttig erbij.Als dat eruit gehaald kan worden dan wel maar anders niet.
Dit is perfect geen fratsen erbij
Al die spellen erbij hoef van mijn kant uit niet , er zitten er ook bij dat ik niet speel en dan vind ik het geen nuttig erbij.Als dat eruit gehaald kan worden dan wel maar anders niet.
Dit is perfect geen fratsen erbij
Verwijderd
ach ja wat maakt het uit...ik neem aan dat je niet de hele dag 3Dmark gaat draaien met zo'n dudre kaart, het gaat erom dat je games er vooruit op gaan en niet 3DMARK 03. dan ken je beter AQUAMARK3 draaien die is veel beter op DX 9.0 gebied. ik vind die 3Dmark 03 geval een beetje onvertrouwbaar van wege het gedoe met cheats van ATI en nVidia drivers enzo.Lennieboy83 schreef op 12 november 2003 @ 20:43:
Ik heb net mijn FX5800 ULtra met de nieuwe versie van 3d Mark '03 getest en het is echt belabberd![]()
5705 met de oude versie
4938 nu met de nieuwe versie
ik heb geen compare linkjes omdat ik iedere keer submission failed krijgmaar maakt niet uit ik schaam me nu zelfs voor deze score
ik zou maar ATI effe daar uit schrappen aangezien nVidia de grootste cheat problemen heeft en na 'n nieuwe patch van 3dmark 2k3 weer opnieuw stront aan de knikker is.Verwijderd schreef op 13 november 2003 @ 21:59:
[...]
ach ja wat maakt het uit...ik neem aan dat je niet de hele dag 3Dmark gaat draaien met zo'n dudre kaart, het gaat erom dat je games er vooruit op gaan en niet 3DMARK 03. dan ken je beter AQUAMARK3 draaien die is veel beter op DX 9.0 gebied. ik vind die 3Dmark 03 geval een beetje onvertrouwbaar van wege het gedoe met cheats van ATI en nVidia drivers enzo.
ATI heeft daar weinig mee te maken this iets tussen nVidia en futermark.
Mocht het niet cheat related zijn dan ligt het eraan dat futermark DirectX spect volged en nvidia native support eist buiten standaarden om iig dat beweerd nvidia en die eisen dat ze volop ondesteuned worden buiten standaarden om.
nVidia detecteerd er weer op los en swapt of modificeer PS code wat na ene patch zoals geowoonlijk niet werkt en daar heeft futere mark niks mee te maken zij ondesteunen de api voor alle hardware en daar valt nVidia ook onder.
want hou er ook rekening mee 'n deel van de developers zullen nVidia slaafs volgen een ander deel niet. dus is zeker realistisch wat futermark doet.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
En als Futuremark nVidia een oor aan wil naaien. nVidia heeft ervoor gezorgd dat 3D-Mark meer een verijdelde demo is geworden en nauwelijks als serieuze benchmark wordt gebruikt. Er is namelijk helemaal geen bewijs dat nVidia aan het cheaten is, alleen dat ze ineens minder presteren, het zijn allemaal speculaties. Ik geloof niet dat nVidia weer zo stom is om te gaan cheaten. Bovendien is het zo dat in alle andere games enzo de Image Quality erg goed is en de performance ook, dus ik zie niet in wat er nou aan de hand/mis is met de Forceware drivers.SuperG schreef op 14 november 2003 @ 08:01:
[...]
ik zou maar ATI effe daar uit schrappen aangezien nVidia de grootste cheat problemen heeft en na 'n nieuwe patch van 3dmark 2k3 weer opnieuw stront aan de knikker is.
ATI heeft daar weinig mee te maken this iets tussen nVidia en futermark.
Mocht het niet cheat related zijn dan ligt het eraan dat futermark DirectX spect volged en nvidia native support eist buiten standaarden om iig dat beweerd nvidia en die eisen dat ze volop ondesteuned worden buiten standaarden om.
nVidia detecteerd er weer op los en swapt of modificeer PS code wat na ene patch zoals geowoonlijk niet werkt en daar heeft futere mark niks mee te maken zij ondesteunen de api voor alle hardware en daar valt nVidia ook onder.
want hou er ook rekening mee 'n deel van de developers zullen nVidia slaafs volgen een ander deel niet. dus is zeker realistisch wat futermark doet.
offtopic:
Futuremark ondersteund geen 3Dfx meer
Futuremark ondersteund geen 3Dfx meer

X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ahum, een heel jaar lang staat nVidia in de spotlight omdat ze dubieus bezig zijn, en dan zouden ze nu ineens gaan met een schone lei beginnen? Hoe graag ik ze ook het voordeel van de twijfel wil geven, dit gaat er bij mij niet echt in.sokje schreef op 14 november 2003 @ 12:02:
[...]
Ik geloof niet dat nVidia weer zo stom is om te gaan cheaten.

nVidia zegt nu dat 3DMark de nieuwe Unified Compiler uitschakeld, terwijl dit helemaal niet kan volgens Futuremark, omdat 3DMark2k3 rechtstreeks DirectX aanspreekt en niet de drivers.
Door de nieuwe patch worden andere shaders gebruikt, die wel een gelijkwaardige kwaliteit op het beeld toveren. De enige manier waardoor dus de performance op nVidia kaarten in kakt, is dat de Forceware/Detonators, voor de release van de 340 patch, bepaalde shaders herkenden (en daarvoor geoptimaliseerd waren), en nu (na de patch) ze niet meer herkennen (wat logisch is aangezien er andere shaders gebruikt worden).
Dit is cheaten en gaat volgens de regels in van Futuremark (en zelfs ook de eigen regels van nVidia) die voorschrijft dat er niet geoptimaliseerd moet worden voor "alleen maar een benchmark", maar dat andere applicaties ook voordeel moeten hebben van die optimalisatie. In dit geval heeft alleen 3DMark dus voordeel van die optimalisatie, dus is dit volgens de eigen opgestelde regels een cheat...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat nVidia dubieus bezig is ben ik het met je eens, echter zijn er games waar deze cheats van nVidia naar voren komen, zo ver ik weet niet. Bovendien, mij hoor je niet klagen als de Image Quality erg goed is en ook de performance. Just my 2 little centsCJ schreef op 14 november 2003 @ 13:42:
[...]
Ahum, een heel jaar lang staat nVidia in de spotlight omdat ze dubieus bezig zijn, en dan zouden ze nu ineens gaan met een schone lei beginnen? Hoe graag ik ze ook het voordeel van de twijfel wil geven, dit gaat er bij mij niet echt in.
nVidia zegt nu dat 3DMark de nieuwe Unified Compiler uitschakeld, terwijl dit helemaal niet kan volgens Futuremark, omdat 3DMark2k3 rechtstreeks DirectX aanspreekt en niet de drivers.
Door de nieuwe patch worden andere shaders gebruikt, die wel een gelijkwaardige kwaliteit op het beeld toveren. De enige manier waardoor dus de performance op nVidia kaarten in kakt, is dat de Forceware/Detonators, voor de release van de 340 patch, bepaalde shaders herkenden (en daarvoor geoptimaliseerd waren), en nu (na de patch) ze niet meer herkennen (wat logisch is aangezien er andere shaders gebruikt worden).
Dit is cheaten en gaat volgens de regels in van Futuremark (en zelfs ook de eigen regels van nVidia) die voorschrijft dat er niet geoptimaliseerd moet worden voor "alleen maar een benchmark", maar dat andere applicaties ook voordeel moeten hebben van die optimalisatie. In dit geval heeft alleen 3DMark dus voordeel van die optimalisatie, dus is dit volgens de eigen opgestelde regels een cheat...
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Mmm, tja.. het probleem is dat ze vaak cheaten door Image Quality omlaag te brengen!sokje schreef op 14 november 2003 @ 14:25:
[...]
Dat nVidia dubieus bezig is ben ik het met je eens, echter zijn er games waar deze cheats van nVidia naar voren komen, zo ver ik weet niet. Bovendien, mij hoor je niet klagen als de Image Quality erg goed is en ook de performance. Just my 2 little cents
En dan ben je minder blij
There is no place like ::1
Nog verwacht wordt: nVIDIA Geforce FX 5900XT
Zou het een 5900 Ultra+ worden? Of een 5900- ?
Zie hier...
Zou het een 5900 Ultra+ worden? Of een 5900- ?
Zie hier...
Een - versie van de 5900, er komt namelijk ook een 5600XT, heb het ergens ooit gelezenIceEyz schreef op 14 november 2003 @ 16:36:
Nog verwacht wordt: nVIDIA Geforce FX 5900XT
Zou het een 5900 Ultra+ worden? Of een 5900- ?
Zie hier...
Klopt heb je gelijk in jahVerwijderd schreef op 13 november 2003 @ 21:59:
[...]
ach ja wat maakt het uit...ik neem aan dat je niet de hele dag 3Dmark gaat draaien met zo'n dudre kaart, het gaat erom dat je games er vooruit op gaan en niet 3DMARK 03. dan ken je beter AQUAMARK3 draaien die is veel beter op DX 9.0 gebied. ik vind die 3Dmark 03 geval een beetje onvertrouwbaar van wege het gedoe met cheats van ATI en nVidia drivers enzo.
Zoveel dubieuzer is nvidia niet bezig, er zijn aanwijzigen dat ze een keer gecheat hebben, net zoals is aangetoond dat ati in bepaalde drivers cheats had ingebouwd voor q3 benchmarks, beide hebben dus geen schone lei (dus waarom ati wel vertrouwen als je dat niet bij nvidia doet)Ahum, een heel jaar lang staat nVidia in de spotlight omdat ze dubieus bezig zijn, en dan zouden ze nu ineens gaan met een schone lei beginnen? Hoe graag ik ze ook het voordeel van de twijfel wil geven, dit gaat er bij mij niet echt in.
Ik vond de uitleg van die 3dmark progger wel overtuigend maar dat wil niet zeggen dat hetgeen nvidia beweert niet gebeurt (dwz dat bepaalde processen nu door de cpu ipv de gpu worden gedaannVidia zegt nu dat 3DMark de nieuwe Unified Compiler uitschakeld, terwijl dit helemaal niet kan volgens Futuremark, omdat 3DMark2k3 rechtstreeks DirectX aanspreekt en niet de drivers.
Opzich is het prima als ze shaders herkennen en die op een bepaalde manier verwerken (sneller), het is natuurlijk wel vreemd dat dat niet meer goed werkt op dezelfde drivers met een update van 3dmark (net wanneer nvidia die legetieme wijzigingen heeft ingebouwd om de prestatie van de fx serie te verhogen)Door de nieuwe patch worden andere shaders gebruikt, die wel een gelijkwaardige kwaliteit op het beeld toveren. De enige manier waardoor dus de performance op nVidia kaarten in kakt, is dat de Forceware/Detonators, voor de release van de 340 patch, bepaalde shaders herkenden (en daarvoor geoptimaliseerd waren), en nu (na de patch) ze niet meer herkennen (wat logisch is aangezien er andere shaders gebruikt worden).
Aangezien deze drivers ook in andere applicaties (games) flink wat performance winst boeken ben ik toch eerder geneigd nvidia te geloven
Optimlaliseren is geen cheaten, zeker niet als de performance winst (zoals bij de laatste nvidia drivers) niet applicatiegebonden is (reken maar dat ati dit soort dingen ook doet, als hebben die natuurlijk het voordeel dat variant van cg in dx9 voor hun kaarten is geoptimaliseerd), maar ja, dat is natuurlijk niet erg als het ati betreft heDit is cheaten en gaat volgens de regels in van Futuremark (en zelfs ook de eigen regels van nVidia) die voorschrijft dat er niet geoptimaliseerd moet worden voor "alleen maar een benchmark", maar dat andere applicaties ook voordeel moeten hebben van die optimalisatie. In dit geval heeft alleen 3DMark dus voordeel van die optimalisatie, dus is dit volgens de eigen opgestelde regels een cheat...
* blouweKip heeft nog ati kaartjes gehad voor de radeon serie en heeft dus de neiging om ati te beoordelen op acties ipv imago
"For my friends, anything; for my enemies, the law."
Hou nou eens op, nVidia is met een rokend pistool in de hand betrapt, en wat ATI met quake deed, is minder dan wat je nu verdedigd, wat nVidia in 3dmark doet.blouweKip schreef op 14 november 2003 @ 20:20:
[...]
Zoveel dubieuzer is nvidia niet bezig, er zijn aanwijzigen dat ze een keer gecheat hebben, net zoals is aangetoond dat ati in bepaalde drivers cheats had ingebouwd voor q3 benchmarks, beide hebben dus geen schone lei (dus waarom ati wel vertrouwen als je dat niet bij nvidia doet)
nvidia is dolende, de interne communicatie is zoek, check alleen al de verschillende uitspraken van nVidia mensen over waarom ze nu 1000 punten gekelderd zijn.
Lees het verhaal van Uttar nog maar eens door, geeft een leuk inzicht (zelfs als de helft maar waar zou zijn)
Yept....nvidia heeft een klein beetje last van miscommunicatie en na de zoveelste cheat begint het toch aardig op te vallen he!hjs schreef op 14 november 2003 @ 23:08:
[...]
Hou nou eens op, nVidia is met een rokend pistool in de hand betrapt, en wat ATI met quake deed, is minder dan wat je nu verdedigd, wat nVidia in 3dmark doet.
nvidia is dolende, de interne communicatie is zoek, check alleen al de verschillende uitspraken van nVidia mensen over waarom ze nu 1000 punten gekelderd zijn.
Lees het verhaal van Uttar nog maar eens door, geeft een leuk inzicht (zelfs als de helft maar waar zou zijn)
En wat dan met trilinear filteren.... wanneer kunnen we weer eens ECHT trilinair filteren .....
There is no place like ::1
Waarom is (bijna) iedereen zo ongelofelijk anti-nVIDIA? Het is één en al gefleem over en weer. nVIDIA heeft een foutje gemaakt door die cheats aan te brengen ja, maar dat gaf ook direct aan dat je 3dMark dus niet zomaar blindelings kan vertrouwen. Ze hebben de cheats ook niet gebruikt voor de Marketing.
nVIDIA en miscommunicatie? Weet iemand hoe de situatie bij ATI is dan? Ik denk dat sommige mensen zich te snel laten beïnvloeden door de media. "nVIDIA is te groot, dat gaat niet goed. Miscommunicatie dit, Marketingfout dat..."
Persoonlijk ben ik een nVIDIA fan. Waarom? Goed logo, 2MX/TI 4200 en een hele mooie werkplaats, zeg maar
Ook durfden ze de vloer aan te vegen met hun eigen FX5800. ATI heeft met de 9800XT heeft met een oog op de toekomst (DirectX 9) een beter product neergezet, maar in hedendaagse spellen is het verschil 5950/9800XT niet groot (genoeg). Bovendien is de 5950 goedkoper dan de XT. Half Life 2 komt nog wel 
Ik denk dat het verstandig zou zijn om 3dMark als de bekende baksteen te laten vallen. Het geeft een leuke indicatie van de prestaties, maar het is geen reëel beeld van de werkelijkheid. Gewone Game-Benchmarks is het beste. Dan krijg je ook geen gezeur over cheats e.d. Verder hoop ik dat XGI iets leuks gaat doen met hun Volari. Meer concurrentie is altijd goed.
nVIDIA en miscommunicatie? Weet iemand hoe de situatie bij ATI is dan? Ik denk dat sommige mensen zich te snel laten beïnvloeden door de media. "nVIDIA is te groot, dat gaat niet goed. Miscommunicatie dit, Marketingfout dat..."
Persoonlijk ben ik een nVIDIA fan. Waarom? Goed logo, 2MX/TI 4200 en een hele mooie werkplaats, zeg maar
Ik denk dat het verstandig zou zijn om 3dMark als de bekende baksteen te laten vallen. Het geeft een leuke indicatie van de prestaties, maar het is geen reëel beeld van de werkelijkheid. Gewone Game-Benchmarks is het beste. Dan krijg je ook geen gezeur over cheats e.d. Verder hoop ik dat XGI iets leuks gaat doen met hun Volari. Meer concurrentie is altijd goed.
Klopt. Quack is maar een klein minuscuul iets vergeleken met clippingplanes e.d.hjs schreef op 14 november 2003 @ 23:08:
[...]
Hou nou eens op, nVidia is met een rokend pistool in de hand betrapt, en wat ATI met quake deed, is minder dan wat je nu verdedigd, wat nVidia in 3dmark doet.
Volgens mij heeft BlouweKip nog niet helemaal door wat er precies aan de hand was met Quack/Quake.
offtopic:
ATi gaf toe dat de game herkend werd door de drivers en legde meteen ook uit dat de performance cijfers wel klopten, maar dat er een bug was die zorgde voor verminderde beeldkwaliteit. En zo ernstig was het ook weer niet, want het tastte maar liefst 5 textures aan. Jaja, maar liefst 5...
Dit werd binnen een week opgelost in nieuwe drivers, die er voor zorgden dat de framerate performance onveranderd werd EN met de juiste IQ. De optimalisaties bleven er in zitten, maar de IQ bleef goed (net zoals nVidia het graag wil hebben toch?).
nVidia wilde graag dat ATi hier de mist in ging en lekte dus ook met alle plezier het nieuws uit aan HardOCP, die op haar beurt niet eens de moeite nam om bij ATi te checken wat er aan de hand was.
ATi gaf toe dat de game herkend werd door de drivers en legde meteen ook uit dat de performance cijfers wel klopten, maar dat er een bug was die zorgde voor verminderde beeldkwaliteit. En zo ernstig was het ook weer niet, want het tastte maar liefst 5 textures aan. Jaja, maar liefst 5...
Dit werd binnen een week opgelost in nieuwe drivers, die er voor zorgden dat de framerate performance onveranderd werd EN met de juiste IQ. De optimalisaties bleven er in zitten, maar de IQ bleef goed (net zoals nVidia het graag wil hebben toch?).
nVidia wilde graag dat ATi hier de mist in ging en lekte dus ook met alle plezier het nieuws uit aan HardOCP, die op haar beurt niet eens de moeite nam om bij ATi te checken wat er aan de hand was.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb hier zoals eerder gezegd nergens bij geen enkele game last van. Dat van generals schijnt trouwens een bug te zijn heb ik ergens gelezen (geen bron) Probeer anders de nieuwe Bèta driver; 52.70.Upke dupke schreef op 14 november 2003 @ 20:07:
[...]
Wel degelijk. In 52.16 geloof ik zijn mijn generals textures zo low quality, dat is niet normaal! Ik weet niet of het bij anderen ook zo is.
En bij welk spel is er dan Image Quality omlaag gebracht naar mijn mening alleen bij 3Dmark en dat is omdat ze andere shaders gebruiken.swampy schreef op 14 november 2003 @ 14:36:
[...]
Mmm, tja.. het probleem is dat ze vaak cheaten door Image Quality omlaag te brengen!
En dan ben je minder blij
Helemaal met je eensblouweKip schreef op 14 november 2003 @ 20:20:
[...]
Zoveel dubieuzer is nvidia niet bezig, er zijn aanwijzigen dat ze een keer gecheat hebben, net zoals is aangetoond dat ati in bepaalde drivers cheats had ingebouwd voor q3 benchmarks, beide hebben dus geen schone lei (dus waarom ati wel vertrouwen als je dat niet bij nvidia doet)
[...]
Ik vond de uitleg van die 3dmark progger wel overtuigend maar dat wil niet zeggen dat hetgeen nvidia beweert niet gebeurt (dwz dat bepaalde processen nu door de cpu ipv de gpu worden gedaan
[...]
Opzich is het prima als ze shaders herkennen en die op een bepaalde manier verwerken (sneller), het is natuurlijk wel vreemd dat dat niet meer goed werkt op dezelfde drivers met een update van 3dmark (net wanneer nvidia die legetieme wijzigingen heeft ingebouwd om de prestatie van de fx serie te verhogen)
Aangezien deze drivers ook in andere applicaties (games) flink wat performance winst boeken ben ik toch eerder geneigd nvidia te geloven
[...]
Optimlaliseren is geen cheaten, zeker niet als de performance winst (zoals bij de laatste nvidia drivers) niet applicatiegebonden is (reken maar dat ati dit soort dingen ook doet, als hebben die natuurlijk het voordeel dat variant van cg in dx9 voor hun kaarten is geoptimaliseerd), maar ja, dat is natuurlijk niet erg als het ati betreft he
* blouweKip heeft nog ati kaartjes gehad voor de radeon serie en heeft dus de neiging om ati te beoordelen op acties ipv imago
Toon dan eens aan bij welke andere spellen er cheats zouden zijn?? Het zou imo best kunnen dat nVidia heeft geoptimaliseerd voor 3dmark en de shaders herkent en beter uitvoerd. Heb ik geen problemen mee hoorhjs schreef op 14 november 2003 @ 23:08:
[...]
Hou nou eens op, nVidia is met een rokend pistool in de hand betrapt, en wat ATI met quake deed, is minder dan wat je nu verdedigd, wat nVidia in 3dmark doet.
nvidia is dolende, de interne communicatie is zoek, check alleen al de verschillende uitspraken van nVidia mensen over waarom ze nu 1000 punten gekelderd zijn.
Lees het verhaal van Uttar nog maar eens door, geeft een leuk inzicht (zelfs als de helft maar waar zou zijn)
IceEyz schreef op 15 november 2003 @ 00:35:
Waarom is (bijna) iedereen zo ongelofelijk anti-nVIDIA? Het is één en al gefleem over en weer. nVIDIA heeft een foutje gemaakt door die cheats aan te brengen ja, maar dat gaf ook direct aan dat je 3dMark dus niet zomaar blindelings kan vertrouwen. Ze hebben de cheats ook niet gebruikt voor de Marketing.
nVIDIA en miscommunicatie? Weet iemand hoe de situatie bij ATI is dan? Ik denk dat sommige mensen zich te snel laten beïnvloeden door de media. "nVIDIA is te groot, dat gaat niet goed. Miscommunicatie dit, Marketingfout dat..."
Persoonlijk ben ik een nVIDIA fan. Waarom? Goed logo, 2MX/TI 4200 en een hele mooie werkplaats, zeg maarOok durfden ze de vloer aan te vegen met hun eigen FX5800. ATI heeft met de 9800XT heeft met een oog op de toekomst (DirectX 9) een beter product neergezet, maar in hedendaagse spellen is het verschil 5950/9800XT niet groot (genoeg). Bovendien is de 5950 goedkoper dan de XT. Half Life 2 komt nog wel
Ik denk dat het verstandig zou zijn om 3dMark als de bekende baksteen te laten vallen. Het geeft een leuke indicatie van de prestaties, maar het is geen reëel beeld van de werkelijkheid. Gewone Game-Benchmarks is het beste. Dan krijg je ook geen gezeur over cheats e.d. Verder hoop ik dat XGI iets leuks gaat doen met hun Volari. Meer concurrentie is altijd goed.
Nee ik blijf bij mijn standpunt dat Futuremark nVidia wil terug pakken door andere shaders te gebruiken en dan te zeggen dat nVidia weer cheat.
[ Voor 86% gewijzigd door Mojo op 15-11-2003 09:51 ]
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ken je het verhaal van die rus nog met zijn anti detector script? mij staat het getal van 75 applicaties bij, welke herkend werden door de nvidia drivers.
Maar ik ga deze discussie niet meer aan, van de zomer hebben we het hier uitgebreid over gehad en daarom word nVidia ook zo geflamed de laatste tijd. Kwestie van eigen schuld dikke bult.
lees hier nog maar eens na, heb ik een beetje bijgehouden vanaf juli wat er allemaal bekend werd van nvidia (ff door het geblaat nu en dan heen lezen
)
http://forum.computertota...e7fb8d61df63db44563188075
Maar ik ga deze discussie niet meer aan, van de zomer hebben we het hier uitgebreid over gehad en daarom word nVidia ook zo geflamed de laatste tijd. Kwestie van eigen schuld dikke bult.
lees hier nog maar eens na, heb ik een beetje bijgehouden vanaf juli wat er allemaal bekend werd van nvidia (ff door het geblaat nu en dan heen lezen
http://forum.computertota...e7fb8d61df63db44563188075
Ik moet zeggen dat je daar een goed punt hebt, ik denk inderdaad ook wel dat nVidia erg fout bezig is geweest en dat het geflame eigenlijk ook wel terecht is. De FX serie presteerde minder dan verwacht en dat wilden ze aan het begin niet toegeven. Nu is het denk ik wel wat beter geworden voor nVidia, de FX 5950 is best OK en de Image Quality ook. Performance is ook in orde, dus ik denk niet dat er veel mensen zullen klagen. IMHO vindt ik het belangrijk dat bij de nieuwste drivers de Image Quality én de Performance goed is. Ik ga dan niet meer kijken naar 3Dmark aangezien dat het enige is wat nog niet echt goed loopt. Volgens mij zijn er geen spellen waar de Image Quality slecht is en waar er gecheat wordt. Wat nVidia nu doet is optimaliseren en dat vindt ik wel OK. Dat er dan wat gedetecteerd wordt, kan ik me wel voorstellen in ieder geval. Ik hoop iig wel dat bij de NV40 alles weer goed komt en er weer een goede concurrentiestrijd komt tussen ATi en nVidia. Dat komt iedereen ten goede.hjs schreef op 15 november 2003 @ 19:46:
Ken je het verhaal van die rus nog met zijn anti detector script? mij staat het getal van 75 applicaties bij, welke herkend werden door de nvidia drivers.
Maar ik ga deze discussie niet meer aan, van de zomer hebben we het hier uitgebreid over gehad en daarom word nVidia ook zo geflamed de laatste tijd. Kwestie van eigen schuld dikke bult.
lees hier nog maar eens na, heb ik een beetje bijgehouden vanaf juli wat er allemaal bekend werd van nvidia (ff door het geblaat nu en dan heen lezen)
http://forum.computertota...e7fb8d61df63db44563188075
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Ik heb de first post van dit topic weer aangepast met de laatste info over de FX5900XT en de FX5600XT. Hier een klein gedeelte uit de post:
Wil je de rest lezen, blader dan even terug naar de first post. Dan wordt-ie tenminste af en toe ook nog gelezen.XT modellen van de FX5900 en FX5600
In de gelekte drivers 52.70 zijn verwijzingen aangetroffen naar 2 nieuwe kaarten, de FX5600XT en de FX5900XT. nVidia gebruikt evenals ATi de naam XT, maar in dit geval zijn het de langzaamste kaarten uit de serie.
De FX5900XT draait op...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ziek.... gewoon ziek. Om een XT uit te brengen...CJ schreef op 15 november 2003 @ 22:52:
Ik heb de first post van dit topic weer aangepast met de laatste info over de FX5900XT en de FX5600XT. Hier een klein gedeelte uit de post:
[...]
Wil je de rest lezen, blader dan even terug naar de first post. Dan wordt-ie tenminste af en toe ook nog gelezen.
Het lijkt me duidelijk dat nvidia hoopt dat mensen bij XT aan "langzaam" gaan denken...
Maar liegen kunnen ze niet bij Nvidia!
There is no place like ::1
Tijdelijk preventief dicht.
Waarom?
Omdat sommigen niet begrijpen dat dit om de GFFX gaat en niet om ATi vs nVidia
Een VB mod zal hier nog verder naar kijken
Omdat sommigen niet begrijpen dat dit om de GFFX gaat en niet om ATi vs nVidia

Een VB mod zal hier nog verder naar kijken
Ok, flink deel aantal mindere posts verwijderd, vragen zoals 'welke videokaart moet ik kopen' horen hier natuurlijk niet.
Verder is de discussie over wel of niet cheaten wel heel erg overheersend in dit topic, en aangezien dit topic daar niet voor bedoelt is het vriendelijke doch dringende verzoek om die discussie ergens anders voort te zetten (lang niet alle posts die hiermee te maken hebben verwijderd, anders zou het topic heloemaal niet meer te volgen zijn).
Dus: gewoon weer discusseren over de FX serie zoals het topic origineel bedoelt was, die cheats kunnen in een ander topic besproken gaan worden mocht een van jullie daar de neiging toe hebben.
Heropend.
Verder is de discussie over wel of niet cheaten wel heel erg overheersend in dit topic, en aangezien dit topic daar niet voor bedoelt is het vriendelijke doch dringende verzoek om die discussie ergens anders voort te zetten (lang niet alle posts die hiermee te maken hebben verwijderd, anders zou het topic heloemaal niet meer te volgen zijn).
Dus: gewoon weer discusseren over de FX serie zoals het topic origineel bedoelt was, die cheats kunnen in een ander topic besproken gaan worden mocht een van jullie daar de neiging toe hebben.
Heropend.
MSI heeft drie nieuwe nVidia kaarten aangekondigd. Ik ben beniewd wat ze gaan kosten.
Het gaat om een FX5700 Ultra, een FX5950 Ultra en een FX5900 SP
Ze staan aangekondigd op http://www.msi-computer.nl
Op de HCC dagen delen ze vouchers uit die recht geven op 15 euro korting als je een MSI moederbord of videokaart koopt, zie: http://www.msi-computer.nl/hcc/
Ze beweren dat hun koeler de kaart op standaard instellingen 8 graden koeler houdt dan de nVidia reference kaart dmv hun Twin Flow Cooling Technologie die ook nog eens heel stil moet zijn (26dB). Dus met hoger klokken moet het wel goed zitten.
Ik wil een FX5700 ultra of FX5900 SP gaan halen op de HCC dagen
Het gaat om een FX5700 Ultra, een FX5950 Ultra en een FX5900 SP
Ze staan aangekondigd op http://www.msi-computer.nl
Op de HCC dagen delen ze vouchers uit die recht geven op 15 euro korting als je een MSI moederbord of videokaart koopt, zie: http://www.msi-computer.nl/hcc/
Ze beweren dat hun koeler de kaart op standaard instellingen 8 graden koeler houdt dan de nVidia reference kaart dmv hun Twin Flow Cooling Technologie die ook nog eens heel stil moet zijn (26dB). Dus met hoger klokken moet het wel goed zitten.
Ik wil een FX5700 ultra of FX5900 SP gaan halen op de HCC dagen
Heb de FX5700 Ultra gezien voor 209 Euro.
:-), maar dat is een "hccnetdagen" actie prijs dus verwacht iets van 230 Euro :-)
:-), maar dat is een "hccnetdagen" actie prijs dus verwacht iets van 230 Euro :-)
There is no place like ::1
Word je nu niet gek ervan?
ATi begint al met die zeik PRO, non PRO, XT, SE, Ultimate, 9200 9500 9600 9700 9800.........
daarbij had nVidia het wat overzichtelijker, low budget (value), mid range en high end (ultra)
Maar nVidia begint ATi weer bij te benen met versies........word je gek van. Gewoon simpel weg een non ultra en een ultra........
ATi begint al met die zeik PRO, non PRO, XT, SE, Ultimate, 9200 9500 9600 9700 9800.........
daarbij had nVidia het wat overzichtelijker, low budget (value), mid range en high end (ultra)
Maar nVidia begint ATi weer bij te benen met versies........word je gek van. Gewoon simpel weg een non ultra en een ultra........
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Psst... kijk eens naar de FX5200 series... als jij daar wijs uit wordt ( 64-bits memory bus vs. 128-bits memory bus, 64 Mb vs 128 Mb, vs 256 Mb geheugen, DDR op 333Mhz of 400Mhz ) waarschuw ons dan!Deathchant schreef op 16 november 2003 @ 19:50:
Word je nu niet gek ervan?
ATi begint al met die zeik PRO, non PRO, XT, SE, Ultimate, 9200 9500 9600 9700 9800.........
daarbij had nVidia het wat overzichtelijker, low budget (value), mid range en high end (ultra)
Maar nVidia begint ATi weer bij te benen met versies........word je gek van. Gewoon simpel weg een non ultra en een ultra........
There is no place like ::1
Right, nVidia heeft: SE, NON-ULTRA, ULTRA, XT etc.Deathchant schreef op 16 november 2003 @ 19:50:
Word je nu niet gek ervan?
ATi begint al met die zeik PRO, non PRO, XT, SE, Ultimate, 9200 9500 9600 9700 9800.........
daarbij had nVidia het wat overzichtelijker, low budget (value), mid range en high end (ultra)
Maar nVidia begint ATi weer bij te benen met versies........word je gek van. Gewoon simpel weg een non ultra en een ultra........
Zelfde onzin dus.
ja dan:
3872 3DMarks
verdere info uit de nieuwste 3d mark 03.
Family AMD Athlon(tm) XP 2800+
Internal Clock 2107 MHz
Internal Clock Maximum 2107 MHz
External Clock 170 MHz
HyperThreadingTechnology N/A
Capabilities MMX, CMov, RDTSC, 3DNow!, Extended 3DNow!, SSE
dxVersion 9.0b
Total Local Video Memory 128 MB
Total Local Texture Memory 128 MB
Total AGP Memory 64 MB
Motherboard Info
Manufacturer MSI <--das de kt4v
Model MS-6712
Memory Info
Total Physical Memory 1024 MB
Free Physical Memory 783 MB
Total Pagefile Memory 983 MB
Free Pagefile Memory 810 MB (heb pagefiling uit gedaan)
creative sblive5.1 als geluidskaart
Nvidia drivers Forceware 52.70
3872 3DMarks te laag toch???
hieronder de scores los:
3DMark Score 3872 3DMarks Game Tests
GT1 - Wings of Fury 147,1 FPS Game Tests
GT2 - Battle of Proxycon 25,7 FPS Game Tests
GT3 - Troll's Lair 23,7 FPS Game Tests
GT4 - Mother Nature 18,9 FPS Game Tests
CPU Score 552 CPUMarks CPU Tests
CPU Test 1 60,1 FPS CPU Tests
CPU Test 2 10,0 FPS CPU Tests
Fill Rate (Single-Texturing) 1040,5 MTexels/s Feature Tests
Fill Rate (Multi-Texturing) 2614,4 MTexels/s Feature Tests
Vertex Shader 11,5 FPS Feature Tests
Pixel Shader 2.0 34,7 FPS Feature Tests
Ragtroll 14,9 FPS Feature Tests
No sounds 30,9 FPS Sound Tests
24 sounds 26,4 FPS Sound Tests
60 sounds 0,0 FPS Not supported Sound Tests
Games draaien verder soepel op hogere resoluties.. zoals max payne2... nfs underground, bf1942 (1600*1200 32bits met hEEEle hoge fps rate) etc...
3872 3DMarks
verdere info uit de nieuwste 3d mark 03.
Family AMD Athlon(tm) XP 2800+
Internal Clock 2107 MHz
Internal Clock Maximum 2107 MHz
External Clock 170 MHz
HyperThreadingTechnology N/A
Capabilities MMX, CMov, RDTSC, 3DNow!, Extended 3DNow!, SSE
dxVersion 9.0b
Total Local Video Memory 128 MB
Total Local Texture Memory 128 MB
Total AGP Memory 64 MB
Motherboard Info
Manufacturer MSI <--das de kt4v
Model MS-6712
Memory Info
Total Physical Memory 1024 MB
Free Physical Memory 783 MB
Total Pagefile Memory 983 MB
Free Pagefile Memory 810 MB (heb pagefiling uit gedaan)
creative sblive5.1 als geluidskaart
Nvidia drivers Forceware 52.70
3872 3DMarks te laag toch???
hieronder de scores los:
3DMark Score 3872 3DMarks Game Tests
GT1 - Wings of Fury 147,1 FPS Game Tests
GT2 - Battle of Proxycon 25,7 FPS Game Tests
GT3 - Troll's Lair 23,7 FPS Game Tests
GT4 - Mother Nature 18,9 FPS Game Tests
CPU Score 552 CPUMarks CPU Tests
CPU Test 1 60,1 FPS CPU Tests
CPU Test 2 10,0 FPS CPU Tests
Fill Rate (Single-Texturing) 1040,5 MTexels/s Feature Tests
Fill Rate (Multi-Texturing) 2614,4 MTexels/s Feature Tests
Vertex Shader 11,5 FPS Feature Tests
Pixel Shader 2.0 34,7 FPS Feature Tests
Ragtroll 14,9 FPS Feature Tests
No sounds 30,9 FPS Sound Tests
24 sounds 26,4 FPS Sound Tests
60 sounds 0,0 FPS Not supported Sound Tests
Games draaien verder soepel op hogere resoluties.. zoals max payne2... nfs underground, bf1942 (1600*1200 32bits met hEEEle hoge fps rate) etc...
Zolang games soepel draaien zou ik me niets aantrekken van mogelijk lage scores.Faisalovic schreef op 16 november 2003 @ 23:52:
ja dan:
3872 3DMarks
.....
No sounds 30,9 FPS Sound Tests
24 sounds 26,4 FPS Sound Tests
60 sounds 0,0 FPS Not supported Sound Tests
Games draaien verder soepel op hogere resoluties.. zoals max payne2... nfs underground, bf1942 (1600*1200 32bits met hEEEle hoge fps rate) etc...
Je systeem is snel genoeg en waarschijnlijk als je je antivirus uitzet krijg je hogere scores!
[ Voor 53% gewijzigd door swampy op 17-11-2003 00:25 ]
There is no place like ::1
Op zich niet zo moeilijk je moet gewoon aanhouden dat de clocksnelheid op 400 MHz bij de 128 bit, zo niet dan heb je een 64 bit versie. Enige uitzondering hierop is de XFX kaart die is 64 bit en 400 MHz. Verder is het aantal megabyte gewoon aangeduid, dus dat is niet zo een probleem. Verder ben ik het wel eens dat al die namen, SE, XT non-ultra en ultra redelijk verwarrend is. Is SE niet hetzelfde als XT, het zijn beiden langzamere versies. Het zou dan zo zitten qua snelheid:swampy schreef op 16 november 2003 @ 22:30:
[...]
Psst... kijk eens naar de FX5200 series... als jij daar wijs uit wordt ( 64-bits memory bus vs. 128-bits memory bus, 64 Mb vs 128 Mb, vs 256 Mb geheugen, DDR op 333Mhz of 400Mhz ) waarschuw ons dan!
SE/XT
Non-Ultra
Ultra
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Vergeet niet dat een Asus Magic kaart altijd 64 bits is, ook een leuk feitje.sokje schreef op 17 november 2003 @ 10:52:
[...]
Op zich niet zo moeilijk je moet gewoon aanhouden dat de clocksnelheid op 400 MHz bij de 128 bit, zo niet dan heb je een 64 bit versie. Enige uitzondering hierop is de XFX kaart die is 64 bit en 400 MHz. Verder is het aantal megabyte gewoon aangeduid, dus dat is niet zo een probleem. Verder ben ik het wel eens dat al die namen, SE, XT non-ultra en ultra redelijk verwarrend is. Is SE niet hetzelfde als XT, het zijn beiden langzamere versies. Het zou dan zo zitten qua snelheid:
SE/XT
Non-Ultra
Ultra
De SE oftewel ( Special Edition ) is inderdaad vaak een langzamere editie. En nu de XT die staat voor "langzamer dan SE" om ook dat mogelijk te maken.
En de beste manier om te kijken naar wat voor kaart je koopt is door naar de memory bandwidth te kijken!
[ Voor 16% gewijzigd door swampy op 17-11-2003 13:25 ]
There is no place like ::1
De Asus Magic loopt dan ook op 333 MHz zover ik weetswampy schreef op 17 november 2003 @ 13:23:
[...]
Vergeet niet dat een Asus Magic kaart altijd 64 bits is, ook een leuk feitje.
De SE oftewel ( Special Edition ) is inderdaad vaak een langzamere editie. En nu de XT die staat voor "langzamer dan SE" om ook dat mogelijk te maken.
En de beste manier om te kijken naar wat voor kaart je koopt is door naar de memory bandwidth te kijken!
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Wow, die PoV gaat zeker proberen om onder een TNT kaart te presteren. Damn..... dat moet bijna onmogelijk zijn.sokje schreef op 17 november 2003 @ 13:32:
[...]
De Asus Magic loopt dan ook op 333 MHz zover ik weetDe Point of View FX 5200 64 bit loopt het geheugen zelfs maar op 270 MHz oid. Is het geheugen op je moederbord vaak nog sneller.
... stelletje gekken die fabrikanten. Ah wel, een ding is zeker.. 8 van de 10 keer dat je een pc koopt met een FX kaart erin ( ja niet gespecificeerd he ) zit er dus een HELE goedkope en langzame 64-bits versie in.
:-)
There is no place like ::1
tjah er zit meestal een "superdeluxe gloednieuwe keisnelle Geforce in met magic functie" oid. Ik ben blij dat ik geluk heb gehad met mijn FX, een vriend van me heeft voor me een videokaart meegenomen die FX dus, ik wist niet eens iets van die 128 of 64 bits toen...swampy schreef op 17 november 2003 @ 13:45:
[...]
Wow, die PoV gaat zeker proberen om onder een TNT kaart te presteren. Damn..... dat moet bijna onmogelijk zijn.
... stelletje gekken die fabrikanten. Ah wel, een ding is zeker.. 8 van de 10 keer dat je een pc koopt met een FX kaart erin ( ja niet gespecificeerd he ) zit er dus een HELE goedkope en langzame 64-bits versie in.
:-)
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Waarom denk je dat de fx5200 anders zo goed verkoopt, de meeste mensen denken nog steeds dat alleen de cpu belangrijk is en gaan daar al het geld inpompen en de videokaart maakt in hun ogen geen zak uit. Wat krijg je dan: Pa is happy want die kan patsen met z'n p4 3,2 Ghz bij de buren ( zo van word liep niet goed op me p3 dus moest een nieuwe hebben), en zoonlief kan wel janken omdat hij geen games kan spelen op de zogenaamde super pc.swampy schreef op 17 november 2003 @ 13:45:
[...]
Wow, die PoV gaat zeker proberen om onder een TNT kaart te presteren. Damn..... dat moet bijna onmogelijk zijn.
... stelletje gekken die fabrikanten. Ah wel, een ding is zeker.. 8 van de 10 keer dat je een pc koopt met een FX kaart erin ( ja niet gespecificeerd he ) zit er dus een HELE goedkope en langzame 64-bits versie in.
:-)
Mensen kijken niet alleen naar de cpu, ook de grootte van de HD/RAM geheugen (sommigen weten het verschil niet
) en het videogeheugen is belangrijk. Als nVIDIA met een 256mb kaart zou komen voor €125 loopt ie als een trein. Of deze dan ook maar een enkel spel kon spelen zou het helemaal mooi zijn. "Met deze videokaart kunt u Unreal 2004 op zeer hoge resoluties spelen!". Klopt, alle textures passen erin... maar verder wordt het niks
YepIceEyz schreef op 17 november 2003 @ 17:12:
Mensen kijken niet alleen naar de cpu, ook de grootte van de HD/RAM geheugen (sommigen weten het verschil niet) en het videogeheugen is belangrijk. Als nVIDIA met een 256mb kaart zou komen voor €125 loopt ie als een trein. Of deze dan ook maar een enkel spel kon spelen zou het helemaal mooi zijn. "Met deze videokaart kunt u Unreal 2004 op zeer hoge resoluties spelen!". Klopt, alle textures passen erin... maar verder wordt het niks
Meeste mensen kopen hun kaart op OF de artwerk op de doos ( ja ja ) OF hoeveel MB het ding heeft.
Daarom ook dus de FX5200 Non Ultra 256Mb
Of natuurlijk mensen kopen die "supersnelle FX kaart met magic functie"
Niet te vergeten..die mensen weten alleen maar "nvidia GeForce kaarten zijn supersnelle kaarten" en vergeten dat ook ATI enzo bestaat :-)
Yeah right...
[ Voor 11% gewijzigd door swampy op 17-11-2003 17:18 ]
There is no place like ::1
Point of View heeft dan eindelijk zijn site geupdate over de FX5950 Ultra
http://www.pointofview-on...24/products/fx/fx5950.php
Specs:
Model Name GeForce FX 5950 Ultra
Video Memory 256 MB
Core Clock 475 Mhz
Memory Clock 950 Mhz
Memory Access Speed 2 ns DDR II
AGP AGP 3.0 (8x / 4x / 2x / 1x) Fast Writes
RAMDAC Dual 400 Mhz
D-Sub Yes
DVI-I Yes
TV-Out Yes
Video-In Optional
DDR 2 geheugen op 950MHz. Kan iemand met die 2.0ns uitrekenen wat de max van dat geheugen is? Dat zou 1000MHz moeten zijn maar dat weet ik niet zeker. 1000 / *ns = MHz * 2 = effective MHz. Dus 1000 / 2= 500 * 2 = 1000MHz.
Voor 465 euro weet ik wel zeker dat dit mijn volgende kaart is.
http://www.pointofview-on...24/products/fx/fx5950.php
Specs:
Model Name GeForce FX 5950 Ultra
Video Memory 256 MB
Core Clock 475 Mhz
Memory Clock 950 Mhz
Memory Access Speed 2 ns DDR II
AGP AGP 3.0 (8x / 4x / 2x / 1x) Fast Writes
RAMDAC Dual 400 Mhz
D-Sub Yes
DVI-I Yes
TV-Out Yes
Video-In Optional
DDR 2 geheugen op 950MHz. Kan iemand met die 2.0ns uitrekenen wat de max van dat geheugen is? Dat zou 1000MHz moeten zijn maar dat weet ik niet zeker. 1000 / *ns = MHz * 2 = effective MHz. Dus 1000 / 2= 500 * 2 = 1000MHz.
Voor 465 euro weet ik wel zeker dat dit mijn volgende kaart is.
Maar ik denk niet dat we de schuld moeten geven aan nVidia dat zie die bagger kaarten maken, het zijn de OEMs die deze kaarten aan de mensen verkopen/aansmeren. Aan de kant van nVidia is het gewoon een stukje slimme marketing, bij de OEMs vind ik het gewoon stom. Waarom stoppen ze er geen fatsoenlijke videokaart in,
dat blijft de vraag imho.
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
Dat komt omdat de kosten van een systeem opeens een stuk hoger komen te liggen en zijn de meeste mensen dan geneigt om een goedkopere te nemen van de concurent die een el cheapo vid kaart erin hebben zitten die 128 mb vid geheugen meer hebben en in hun ogen dus sneller is.sokje schreef op 17 november 2003 @ 17:54:
Maar ik denk niet dat we de schuld moeten geven aan nVidia dat zie die bagger kaarten maken, het zijn de OEMs die deze kaarten aan de mensen verkopen/aansmeren. Aan de kant van nVidia is het gewoon een stukje slimme marketing, bij de OEMs vind ik het gewoon stom. Waarom stoppen ze er geen fatsoenlijke videokaart in,dat blijft de vraag imho.
Het is niet zozeer de kaartenfabrikant die de consument naait maart eerder de aanbieder die ze verkoopt. Ik ken genoeg mensen die hier in getrapt zijn.
Inderdaad, zeker als bepaalde bedrijfjes zo goedkoop mogelijk kaarten maken en op koeling en geheugen gaan beknibbelen.sokje schreef op 17 november 2003 @ 17:54:
Maar ik denk niet dat we de schuld moeten geven aan nVidia dat zie die bagger kaarten maken, het zijn de OEMs die deze kaarten aan de mensen verkopen/aansmeren. Aan de kant van nVidia is het gewoon een stukje slimme marketing, bij de OEMs vind ik het gewoon stom. Waarom stoppen ze er geen fatsoenlijke videokaart in,dat blijft de vraag imho.
Het is daartegen niet de fout van nvidia dat sommige bedrijven FX kaarten verkopen met langzaam lopend geheugen, of non-adaquate koeling.
Cheap Ass OEM makers kopen altijd de goedkoopste oplossing.... en helaas zijn dat vaak niet echt optimale kaarten!
Daartegen hangt het inderdaad van de OEM maker af, sommige hebben hun klanten lief genoeg om midrange kaarten te installeren
[ Voor 8% gewijzigd door swampy op 18-11-2003 02:48 ]
There is no place like ::1
Wat een onzin. OEM's stoppen er heel vaak juist een mid-range kaart, waar dat helemaal niet nodig is. 9600 of 5600 is vaak de standaard, in computers voor mensen die het met een 5200 prima afkunnen, omdat ze nooit games spelen. Ook als je een 9800 wilt is dat mogelijk bij een OEM, maar dan moet je echt specifiek om het durew model vragen (gelukkig maar).
Dat is niet helemaal waar. Zelfs bij Alienware kun je een "Game-Systeem" kopen met een 2.8Ghz P4 en een FX5200.
Ik vraag me af of dit niet een beetje oplichterij is... en dit geldt trouwens ook voor de Aurora (AMD-Based)Area-51 Performance:
Intel Pentium 4 2.8GHz
512MB DDR SDRAM PC-3200
80GB Seagate Barracuda 2MB Cache
NVIDIA GeForce FX 5200 Ultra 128MB
Creative Sound Blaster Audigy 2
Hij is dan nog wel de Ultra versie, dat maakt wel wat goed, het gaat vooral om de 64 bit kaarten, die zijn het ergst, op de 128 bit, kan je nog wel een beetje gamen. Wel vindt ik dat de OEM's zig moeten schamen standaard die ***** kaarten er in te stoppen, ze moesten beter weten.IceEyz schreef op 18 november 2003 @ 16:09:
Dat is niet helemaal waar. Zelfs bij Alienware kun je een "Game-Systeem" kopen met een 2.8Ghz P4 en een FX5200.
[...]
Ik vraag me af of dit niet een beetje oplichterij is... en dit geldt trouwens ook voor de Aurora (AMD-Based)
X-Life Lanparty Core i9 9900K @ 5Ghz, RTX3080, 16GB, Gigabyte Z390, Custom EK Waterloop
En in de PriceWatch duikt de 5600XT met 128MB op voor €117,-
Hij is van Leadtek met Tv-Out en DVI connector.
Eén minpuntje: Op de site is hij nog niet terug te vinden
Hij is van Leadtek met Tv-Out en DVI connector.
Eén minpuntje: Op de site is hij nog niet terug te vinden
Als je dat al oplichterij vindt, dan is dat al oplichterij van Alienware, die weten dondersgoed wat voor kaart erin steken. NVidia staat hier los van.IceEyz schreef op 18 november 2003 @ 16:09:
Dat is niet helemaal waar. Zelfs bij Alienware kun je een "Game-Systeem" kopen met een 2.8Ghz P4 en een FX5200.
[...]
Ik vraag me af of dit niet een beetje oplichterij is... en dit geldt trouwens ook voor de Aurora (AMD-Based)
Zag op nvnews dat er weer nieuwe beta drivers zijn, 53.nogwat.
de 3dmark score is ook weer terug op het oude niveau schijnt, heeft nVidia toch een week nodig gehad om de patch van futuremark te ontcijferen en hun cheats\optimalisaties aan te passen aan de nieuwe shaders in 3dmark03.
de 3dmark score is ook weer terug op het oude niveau schijnt, heeft nVidia toch een week nodig gehad om de patch van futuremark te ontcijferen en hun cheats\optimalisaties aan te passen aan de nieuwe shaders in 3dmark03.
Mmm, voor een kaart die zwaar onder de ti4200 presteert van ik € 117 wel duur.IceEyz schreef op 18 november 2003 @ 21:46:
En in de PriceWatch duikt de 5600XT met 128MB op voor €117,-
Hij is van Leadtek met Tv-Out en DVI connector.
Eén minpuntje: Op de site is hij nog niet terug te vinden
( zoals je weet is XT bij nvidia ( ultra slow ) )
There is no place like ::1
@SuperAars: Absoluut. nVIDIA heeft gewoon een "goeie" kaart afgeleverd. Ik vind alleen dat dit soort kaartjes niet in Game-Systemen verkocht mogen worden. Je gaat geen 1000+ euro aan een ultra-snel, maar niet €50-spel-compatible systeem uitgeven.
Ik heb eens even snel een review van de 5600XT opgezocht. Presteert véél beter dan de 9600SE in normale spellen, maar valt toch weer een stuk terug als we DirectX 9 of AA/AF gaan gebruiken. Verder zijn de 4200/5600XT/9600SE allemaal ongeveer gelijk geprijst. Ik ben benieuwd welke beter gaat verkopen... Waarschijnlijk/Natuurlijk de 5600XT
Ik heb eens even snel een review van de 5600XT opgezocht. Presteert véél beter dan de 9600SE in normale spellen, maar valt toch weer een stuk terug als we DirectX 9 of AA/AF gaan gebruiken. Verder zijn de 4200/5600XT/9600SE allemaal ongeveer gelijk geprijst. Ik ben benieuwd welke beter gaat verkopen... Waarschijnlijk/Natuurlijk de 5600XT
offtopic:
Walom doet GoT zo raar? Ik ram de hele tijd al op "Verstuur Bericht", maar de pagina kan niet worden weergegeven... Ik hoop dat Apollo het overleeft, sterkte Apollo!
Walom doet GoT zo raar? Ik ram de hele tijd al op "Verstuur Bericht", maar de pagina kan niet worden weergegeven... Ik hoop dat Apollo het overleeft, sterkte Apollo!
[ Voor 14% gewijzigd door IceEyz op 19-11-2003 16:52 ]
http://www.3dchipset.com/drivers/beta/nvidia/nt5/5303.php
dat is de download link van de 5303 drivers
no thnx
dat is de download link van de 5303 drivers
no thnx
Volgens nVnews zitten de cheats/optimalisaties er weer in. De 3DMark03 score vliegt weer omhoog, maar de Shadermark resultaten zijn identiek. Dus ergens worden de 3DMark shaders weer herkend en geoptimaliseerd. Weg is dus het beleid van "geen optimalisaties voor 1 enkele benchmark".hjs schreef op 19 november 2003 @ 14:08:
Zag op nvnews dat er weer nieuwe beta drivers zijn, 53.nogwat.
de 3dmark score is ook weer terug op het oude niveau schijnt, heeft nVidia toch een week nodig gehad om de patch van futuremark te ontcijferen en hun cheats\optimalisaties aan te passen aan de nieuwe shaders in 3dmark03.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
...of 3DMark03 is gewoon anti-nVIDIA. Misschien zijn ze wel omgekocht in het voordeel van een derde partij.
[/evil]
Ik denk dat het tijd is om 3DMark de deur te wijzen. Als in elk spel de prestaties tussen ATI-nVIDIA gelijk zijn, waarom dan niet in 3DMark? (Shaders/DirectX 9 niet inbegrepen)
Ik geef tot nu toe het voordeel van de twijfel aan nVIDIA; ik ga ervan uit dat je in een week tijd géén compleet nieuwe cheats kan maken.
Kleine aanvulling op de first-post: De adviesprijs van de 5600XT is $99 en het zou leuk zijn als GeForce en FX aan elkaar stonden, zoals in "GeForceFX 5600 XT"
Verder miergeneuk: 5900 XT, spaties
En als laatste schijnt het dat er ook 64-bit versies van de 5600 XT komen. Kunnen ze die voortaan in Alienware cases stoppen
[/evil]
Ik denk dat het tijd is om 3DMark de deur te wijzen. Als in elk spel de prestaties tussen ATI-nVIDIA gelijk zijn, waarom dan niet in 3DMark? (Shaders/DirectX 9 niet inbegrepen)
Ik geef tot nu toe het voordeel van de twijfel aan nVIDIA; ik ga ervan uit dat je in een week tijd géén compleet nieuwe cheats kan maken.
Kleine aanvulling op de first-post: De adviesprijs van de 5600XT is $99 en het zou leuk zijn als GeForce en FX aan elkaar stonden, zoals in "GeForceFX 5600 XT"
Verder miergeneuk: 5900 XT, spaties
En als laatste schijnt het dat er ook 64-bit versies van de 5600 XT komen. Kunnen ze die voortaan in Alienware cases stoppen
ligt het aan mij of staat de GFX-kaart er echt niet tussen???Faisalovic schreef op 16 november 2003 @ 23:52:
ja dan:
3872 3DMarks
verdere info uit de nieuwste 3d mark 03.
Family AMD Athlon(tm) XP 2800+
Internal Clock 2107 MHz
Internal Clock Maximum 2107 MHz
External Clock 170 MHz
HyperThreadingTechnology N/A
Capabilities MMX, CMov, RDTSC, 3DNow!, Extended 3DNow!, SSE
dxVersion 9.0b
Total Local Video Memory 128 MB
Total Local Texture Memory 128 MB
Total AGP Memory 64 MB
Motherboard Info
Manufacturer MSI <--das de kt4v
Model MS-6712
Memory Info
Total Physical Memory 1024 MB
Free Physical Memory 783 MB
Total Pagefile Memory 983 MB
Free Pagefile Memory 810 MB (heb pagefiling uit gedaan)
creative sblive5.1 als geluidskaart
Nvidia drivers Forceware 52.70
3872 3DMarks te laag toch???
hieronder de scores los:
3DMark Score 3872 3DMarks Game Tests
GT1 - Wings of Fury 147,1 FPS Game Tests
GT2 - Battle of Proxycon 25,7 FPS Game Tests
GT3 - Troll's Lair 23,7 FPS Game Tests
GT4 - Mother Nature 18,9 FPS Game Tests
CPU Score 552 CPUMarks CPU Tests
CPU Test 1 60,1 FPS CPU Tests
CPU Test 2 10,0 FPS CPU Tests
Fill Rate (Single-Texturing) 1040,5 MTexels/s Feature Tests
Fill Rate (Multi-Texturing) 2614,4 MTexels/s Feature Tests
Vertex Shader 11,5 FPS Feature Tests
Pixel Shader 2.0 34,7 FPS Feature Tests
Ragtroll 14,9 FPS Feature Tests
No sounds 30,9 FPS Sound Tests
24 sounds 26,4 FPS Sound Tests
60 sounds 0,0 FPS Not supported Sound Tests
Games draaien verder soepel op hogere resoluties.. zoals max payne2... nfs underground, bf1942 (1600*1200 32bits met hEEEle hoge fps rate) etc...
als het een GFFX5600 serie is kan dit nl best een aardige score zijn
sowieso is een iets duidelijkere post wel handig...
misschien helpt het nog iets om je AGP-aperture size op 256MB te zetten ipv 64MB (zal niet erg veel schelen, maar alle beetjes helpen toch?)
is het verder wel zo verstandig om je pagefile uit te zetten? je hebt wel aardig wat RAM maar toch...
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Zo moeilijk is dat volgens mij niet om de nieuwe 3DMark shaders door andere shaders te laten vervangen via de Forceware.IceEyz schreef op 19 november 2003 @ 17:58:
ik ga ervan uit dat je in een week tijd géén compleet nieuwe cheats kan maken.
nVidia heeft (hoe kinderachtig ook) aangegeven dat ze voor elke patch van Futuremark met een omzeiling komen om er voor te zorgen dat de FX serie er niet bekaaid afkomt in 3DMark, want de grote PC fabrikanten vinden 3DMark nog steeds belangrijk.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Uhm en jij vindt het wel eerlijk dat de nvidia kaart scoort onder z'n echte score die die kan zetten?????? Nee er zitten zeker 2 kanten aan dit verhaal en ze hebben allebei gelijk. Nvidia hardware is niet slecht alleen iets minder als die huidige ati kaarten. Het is niet eerlijk om nvidia maar gelijk te gaan flamen met dat ze altijd maar cheaten want dit is complete crap.CJ schreef op 19 november 2003 @ 18:38:
[...]
Zo moeilijk is dat volgens mij niet om de nieuwe 3DMark shaders door andere shaders te laten vervangen via de Forceware.
nVidia heeft (hoe kinderachtig ook) aangegeven dat ze voor elke patch van Futuremark met een omzeiling komen om er voor te zorgen dat de FX serie er niet bekaaid afkomt in 3DMark, want de grote PC fabrikanten vinden 3DMark nog steeds belangrijk.
En dat is zeker terug te zien in ander game benchmarks want daar liggen de scores altijd rond hetzelfde niveau met een marginale winst voor ati.
De nieuwe nvidia kaarten zijn zeer leuk geprijst FX 5950 ultra E 465 tegen radeon 9800 xt E 560. Als je 5% minder perfomance niet erg vindt dan is de FX 5950 ultra de kaart.
Het is niet 5% minder performance hoor.sjek schreef op 20 november 2003 @ 00:16:
[...]
Uhm en jij vindt het wel eerlijk dat de nvidia kaart scoort onder z'n echte score die die kan zetten?????? Nee er zitten zeker 2 kanten aan dit verhaal en ze hebben allebei gelijk. Nvidia hardware is niet slecht alleen iets minder als die huidige ati kaarten. Het is niet eerlijk om nvidia maar gelijk te gaan flamen met dat ze altijd maar cheaten want dit is complete crap.
En dat is zeker terug te zien in ander game benchmarks want daar liggen de scores altijd rond hetzelfde niveau met een marginale winst voor ati.
De nieuwe nvidia kaarten zijn zeer leuk geprijst FX 5950 ultra E 465 tegen radeon 9800 xt E 560. Als je 5% minder perfomance niet erg vindt dan is de FX 5950 ultra de kaart.
Kijk in DX7 en DX8 games is het... 5% performance verlies. Niet vanuitgaand dat men anti-aliasing gebruikt.
Zodra volledige DX9 gedraait word stijgt het gat enorm en is het performance verlies in vergelijk zowel rondt de 20% op zijn minst.
De FX5950 Ultra is zeer snel, maar bezit nog steeds dezelfde fundamentele fout waardoor ze langzaam zijn met DX9 (in vergelijking met Ati dan he ) ... de fout zit in het design ... en geen enkele driver kan die fout oplossen.
Hell, de FX5950 is een goede kaart, lekker snel... maar of het mee kan komen met bepaalde komende titels... dat is maar de vraag. Ik hoop en VERWACHT dat de nv40 volledige DX9 ondersteunt en dan ook zonder die designfouten he.
In februari zou hij te koop moeten zijn.... hell.. ik hoop ook dat nvidia terugkomt. En met een goede kaart komt waar je op kan vertrouwen dat in komende titels alles lekkker draait maar ook de image quality goed is.
En tja met 52.70 is de FX weer "3dmark bestendig" gemaakt, maar dat betekent bij nvidia gewoon dat er ergens op beknibbeld word. Hopelijk dit keer ZONDER image kwaliteit verlies.
Enjoy your card!
There is no place like ::1
sjek schreef op 20 november 2003 @ 00:16:
[...]
En dat is zeker terug te zien in ander game benchmarks want daar liggen de scores altijd rond hetzelfde niveau met een marginale winst voor ati.
offtopic:
Dan heb je de scores niet gezien als ATi gebruikt maakt van halve precisie en de kantjes er bij af loopt....
Ook ATi is in staat om drivers te maken die er voor zorgen dat de boel sneller loopt op nVidia manieren (dus bv clippingplanes vervangen van shaders door shaders die hun eigen architectuur beter passen, 16 bits precisie gebruiken waar dat voldoende is, omdat dit de beeldkwaliteit niet zichtbaar aantast etc). Maar gelukkig hoeven niet alle fabrikanten zich te verlagen tot truukjes om pure performance te halen.
Op verschillende forums is al gespeculeerd hoe de performance zou zijn als ook ATi dit zou doen. Het resultaat zou dan parallel lopen aan de resultaten die je nu ziet in DX9 games.
Dan heb je de scores niet gezien als ATi gebruikt maakt van halve precisie en de kantjes er bij af loopt....

Ook ATi is in staat om drivers te maken die er voor zorgen dat de boel sneller loopt op nVidia manieren (dus bv clippingplanes vervangen van shaders door shaders die hun eigen architectuur beter passen, 16 bits precisie gebruiken waar dat voldoende is, omdat dit de beeldkwaliteit niet zichtbaar aantast etc). Maar gelukkig hoeven niet alle fabrikanten zich te verlagen tot truukjes om pure performance te halen.
Op verschillende forums is al gespeculeerd hoe de performance zou zijn als ook ATi dit zou doen. Het resultaat zou dan parallel lopen aan de resultaten die je nu ziet in DX9 games.
Ontopic. Hier nog wat leuke reviews over de FX5950Ultra van Gigabyte:
http://www.digit-life.com/articles2/gffx/gffx-29.html
http://www.ocworkbench.co...95u256d-p/5950Ultra-2.htm
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Pfff...grote koeler zeg. Nou ja zal wel functie hebben :-)CJ schreef op 20 november 2003 @ 03:11:
[...]
offtopic:
Dan heb je de scores niet gezien als ATi gebruikt maakt van halve precisie en de kantjes er bij af loopt....
Ook ATi is in staat om drivers te maken die er voor zorgen dat de boel sneller loopt op nVidia manieren (dus bv clippingplanes vervangen van shaders door shaders die hun eigen architectuur beter passen, 16 bits precisie gebruiken waar dat voldoende is, omdat dit de beeldkwaliteit niet zichtbaar aantast etc). Maar gelukkig hoeven niet alle fabrikanten zich te verlagen tot truukjes om pure performance te halen.
Op verschillende forums is al gespeculeerd hoe de performance zou zijn als ook ATi dit zou doen. Het resultaat zou dan parallel lopen aan de resultaten die je nu ziet in DX9 games.
Ontopic. Hier nog wat leuke reviews over de FX5950Ultra van Gigabyte:
http://www.digit-life.com/articles2/gffx/gffx-29.html
http://www.ocworkbench.co...95u256d-p/5950Ultra-2.htm
Mmm, tja... de 9800XT verslaat hij nog niet maar opzich met de scores die hij neerzet zou het een snel en lekker kaartje moeten zijn.
Quake III test...tja...nou daar heb ik dus mijn bedenkingen over!
.. Over het algemeen zodra aniso aangaat schiet de 9800XT over de FX heen. Maar de FX is dichtbij...
Mmm, en alweer "In the shader tests the NVIDIA card mostly loses the battle"
Hoop dat ze in de Nv40 dat opgelost hebben....
Als je naar een game als max pain 2 kijkt dan zie je toch dat shaders een belangrijk onderdeel zijn van de grafische kwaliteit en mogelijkheden. ( voor mensen met een pre- DX9 kaart, eerste level..kijk eens in de spiegels...juist..die gebruiken Pixershader 2.0 en dat kan je kaart niet aan en laten een grijze vlak zien )
Maar de kaart ziet er redelijk uit, is snel genoeg heeft genoeg kracht.... maar het goede komt pas met de Nv40 ( rondt februari toch? )
There is no place like ::1
Verwijderd
Heb gisteren de geforce 5700 Ultra van point of view besteld.
Iemand al ervaringen met deze kaart?
Iemand al ervaringen met deze kaart?
Nope nog niet veel mensen hebben deze kaart maar uitraad ga jij ons straks verblijden met een review van deze kaartVerwijderd schreef op 20 november 2003 @ 12:32:
Heb gisteren de geforce 5700 Ultra van point of view besteld.
Iemand al ervaringen met deze kaart?
Verwijderd
Okayxabre16v schreef op 20 november 2003 @ 15:19:
[...]
Nope nog niet veel mensen hebben deze kaart maar uitraad ga jij ons straks verblijden met een review van deze kaart
maar dat merk, " Point of view" is dat wat?
leek me wel goed.
Verwijderd
Deze heb ik ook besteld, volgens deze review is die FX5700 Ultra wel OK
http://www.hothardware.co.../S&V/geforcefx_5700.shtml
Ik heb eigenlijk liever de MSI maar die is nog niet leverbaar
http://www.hothardware.co.../S&V/geforcefx_5700.shtml
Ik heb eigenlijk liever de MSI maar die is nog niet leverbaar
[ Voor 24% gewijzigd door Verwijderd op 20-11-2003 16:56 ]
Die nieuwe Leadtek (Winfast A380) ziet er trouwens ook wel cool uit, beter dan hun "ghetoblaster/stereo" van daarvoor
.
Hier wat plaatjes van een trage site, maar wel duidelijke, op de text na
: http://www.pcpop.com/productexpress/2003/11/134.shtml.
Iemand deze al in z'n bak hangen? Of loop ik achter wat "nieuws" betreft
?
Hier wat plaatjes van een trage site, maar wel duidelijke, op de text na
Iemand deze al in z'n bak hangen? Of loop ik achter wat "nieuws" betreft
[ Voor 52% gewijzigd door _XipHiaS_ op 20-11-2003 20:47 ]
trouwens wat vind men tegenwoordig van de FX5800?
ik weet dat ding klinkt als een stofzuiger en word warm dat het niet normaal is.
maar zie hem tegenwoordig al liggen voor 200 euro
voor die prijs vraag ik me af hoe hij vergelijkt met een ati 9600TX en een FX5700
heb zelf al een 9800 dus hoeft voor mij niet meer maar ik vraag em wel af wat men ervan ind.
ik weet dat ding klinkt als een stofzuiger en word warm dat het niet normaal is.
maar zie hem tegenwoordig al liggen voor 200 euro
voor die prijs vraag ik me af hoe hij vergelijkt met een ati 9600TX en een FX5700
heb zelf al een 9800 dus hoeft voor mij niet meer maar ik vraag em wel af wat men ervan ind.
Mense, ik ga komende week nieuwe videokaart kopen, ben aant denken aan de ASUS V9560 Geforce FX 5600 Ultra 128 Mb DDR. Is er iemand die ook deze kaart heeft of iets in die richting, laat me ff je mening horen over deze kaart!
Aardig, maar geen koopje ofzo, als je bedenkt dat je voor 50 euro meer de betere en stillere 9700 pro hebt. Maar mochten ze hem niet aan de straatstenen kwijtraken en hem voor 125 ofzo gaan weggeven, dan zie ik het wel een gewilde kaart worden.Bigbot schreef op 23 november 2003 @ 16:23:
trouwens wat vind men tegenwoordig van de FX5800?
ik weet dat ding klinkt als een stofzuiger en word warm dat het niet normaal is.
maar zie hem tegenwoordig al liggen voor 200 euro
voor die prijs vraag ik me af hoe hij vergelijkt met een ati 9600TX en een FX5700
heb zelf al een 9800 dus hoeft voor mij niet meer maar ik vraag em wel af wat men ervan ind.
Ik zit in de shit, ik weet t niet meer.
Ik wil binnenkort een nieuwe videokaart gaan kopen maar welke?
Ik was aant denken aan de Asus geforce fx 5600 ultra 128 mb
Maar nu kreeg ik van Pisart een link naar deze site: http://www.hardocp.com/article.html?art=NTMzLDM=
Hier staat een test van de Radeon 9600XT en de Gforce fx 5600 ultra, waaruit blijkt dat de radeon beter is terwijl ze dezelfde prijs hebben (bij mycom) maar nu staat er bij, de geheugen snelheid en GPU snelheid, wat houd dit in en wat is het belangrijkste???
De GPU snelheud is bij de Radeon sneller en het geheugen snelheid bij de gforce sneller, voor de rest gelijk.
iemand ervaring met een van deze kaarten of meer reviews/tests???
:?:?:?:?:?
Ik wil binnenkort een nieuwe videokaart gaan kopen maar welke?
Ik was aant denken aan de Asus geforce fx 5600 ultra 128 mb
Maar nu kreeg ik van Pisart een link naar deze site: http://www.hardocp.com/article.html?art=NTMzLDM=
Hier staat een test van de Radeon 9600XT en de Gforce fx 5600 ultra, waaruit blijkt dat de radeon beter is terwijl ze dezelfde prijs hebben (bij mycom) maar nu staat er bij, de geheugen snelheid en GPU snelheid, wat houd dit in en wat is het belangrijkste???
De GPU snelheud is bij de Radeon sneller en het geheugen snelheid bij de gforce sneller, voor de rest gelijk.
iemand ervaring met een van deze kaarten of meer reviews/tests???
:?:?:?:?:?
ik ben nu al weer ee week aant w8ten op mijn fx 5900u die was back @ asus estuurd , zat een storing in zomaar ineens echt wazig
maar ja krijg een nieuwe iig
... tja... de 5600 Ultra is niet de snelste dus tja.tommy schreef op 23 november 2003 @ 20:42:
Ik zit in de shit, ik weet t niet meer.
Ik wil binnenkort een nieuwe videokaart gaan kopen maar welke?
Ik was aant denken aan de Asus geforce fx 5600 ultra 128 mb
Maar nu kreeg ik van Pisart een link naar deze site: http://www.hardocp.com/article.html?art=NTMzLDM=
Hier staat een test van de Radeon 9600XT en de Gforce fx 5600 ultra, waaruit blijkt dat de radeon beter is terwijl ze dezelfde prijs hebben (bij mycom) maar nu staat er bij, de geheugen snelheid en GPU snelheid, wat houd dit in en wat is het belangrijkste???
De GPU snelheud is bij de Radeon sneller en het geheugen snelheid bij de gforce sneller, voor de rest gelijk.
iemand ervaring met een van deze kaarten of meer reviews/tests???
:?:?:?:?:?
Maar een FX5700 Ultra die is lekker, snel genoeg ...dat zeker.
De 9600 XT is natuurlijk ook lekker. Beide zijn zeer aan elkaar gewaagd in tegenwoordige games!
Koop geen 5600 Ultra...behalve als zijn prijs onder de honderd euro duikt.
Een 5700 Ultra daartegen is een goede kaart tegen een mooie prijs.
In de testen blijkt dat de 5700ultra en de 9600xt goed aan elkaar gewaagt blijken, dus wat dat betreft moet je daaruit kiezen als je in de prijsklasse zoekt :-)
There is no place like ::1
Wat is de functie van de fastwrite functie voor je vid kaart in bios??? Zoek me helemaal wezeloos maar vind er niets over wat het nou doet.
over bovenstaande: Iets dat de cpu uitschakeld bij het overzetten van data naar het geheugen en terug ofzo; marginale performance winst en erg onstabiel 
TOmmy: 1. Kijk NOOIT alleen naar snelheden; lees wat er achter zit. even een review (liefst meerdere natuurlijk) bekijken zegt meer dan snelheid. Er zijn zelfs genoeg CPU's op 400 mhz die sneller zijn dan je AMD-64 FX'je om maar een voorbeeld te noemen.
2. Zoals ik al zei; ga opzoek naar reviews! Dan zie je waarschijnlijk dat de Radeon 9600XT sneller is dan de GF fx 5600 U. Als je dan liever voor NVIDIA gaat, moet je misschien kijken naar de GF FX 5700, ook een leuke kaart. Maar enfin, je moet het zelf uitvogelen we kunnen je alleen in de juiste richting sturen
.
HF & GL

TOmmy: 1. Kijk NOOIT alleen naar snelheden; lees wat er achter zit. even een review (liefst meerdere natuurlijk) bekijken zegt meer dan snelheid. Er zijn zelfs genoeg CPU's op 400 mhz die sneller zijn dan je AMD-64 FX'je om maar een voorbeeld te noemen.
2. Zoals ik al zei; ga opzoek naar reviews! Dan zie je waarschijnlijk dat de Radeon 9600XT sneller is dan de GF fx 5600 U. Als je dan liever voor NVIDIA gaat, moet je misschien kijken naar de GF FX 5700, ook een leuke kaart. Maar enfin, je moet het zelf uitvogelen we kunnen je alleen in de juiste richting sturen
HF & GL
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Verwijderd
hallo luitjes
ik heb een nvidia fx 5600
maar met de nieuwste drivers 52.16 flikkerd mijn beeld als ik een spel speelt
is er hier een oplossing voor
heb al volop gegoogeld maar niets kunnen vinden
is er een manier om dit optelossen
ik heb een nvidia fx 5600
maar met de nieuwste drivers 52.16 flikkerd mijn beeld als ik een spel speelt
is er hier een oplossing voor
heb al volop gegoogeld maar niets kunnen vinden
is er een manier om dit optelossen
Verwijderd
Heeft iemand nu al een FX5700, ik zelf heb er vanaf gezien aangezien deze ineens € 20 duurder werd van € 209,00 naar € 229,00
Verwijderd
Hoe heb je de refresh rate ingesteld? Dit kun je zien bij de geavanceerde beeldeigenschappen.Verwijderd schreef op 24 november 2003 @ 18:15:
hallo luitjes
ik heb een nvidia fx 5600
maar met de nieuwste drivers 52.16 flikkerd mijn beeld als ik een spel speelt
is er hier een oplossing voor
heb al volop gegoogeld maar niets kunnen vinden
is er een manier om dit optelossen
Verwijderd
alles stond nog standaard.Verwijderd schreef op 25 november 2003 @ 14:17:
[...]
Hoe heb je de refresh rate ingesteld? Dit kun je zien bij de geavanceerde beeldeigenschappen.
maar heb nvidia een mailtje gestuurd daar kreeg ik een link voor andere drivers maar dan met fixes erin zeiden ze
geinstaleerd en voila geen problemen
ftp://evga.com/5303XP.exe
maar iedergeval heel erg bedankt man
Verwijderd
Heb nog steeds een FX5800 Ultra, originele koeler erafgesloopt en zelf een 90mm fan op 7v eropgezet. Geen herrie meer en kaart wordt zelfs minders warm dan met de originele koeler. Ben nog steeds erg tevreden 5700 3dmarksBigbot schreef op 23 november 2003 @ 16:23:
trouwens wat vind men tegenwoordig van de FX5800?
ik weet dat ding klinkt als een stofzuiger en word warm dat het niet normaal is.
maar zie hem tegenwoordig al liggen voor 200 euro
voor die prijs vraag ik me af hoe hij vergelijkt met een ati 9600TX en een FX5700
heb zelf al een 9800 dus hoeft voor mij niet meer maar ik vraag em wel af wat men ervan ind.
[ Voor 6% gewijzigd door Verwijderd op 26-11-2003 11:33 ]
-->sjek schreef op 23 november 2003 @ 23:31:
Wat is de functie van de fastwrite functie voor je vid kaart in bios??? Zoek me helemaal wezeloos maar vind er niets over wat het nou doet.
AGP 4X with Fast Writes is a unique feature implemented on the GeForce 256 GPU™ (Graphics Pocessor Unit). NVIDIA is the only vendor to take advantage of this feature, even though Fast Writes is part of the AGP 2.0 specification. Fast Writes improves all writes from the CPU to the graphics chip including:
• All 2D operations
• Operations involving writing to the frame buffer or sending any data to the graphics chip.
• Loading textures in Direct3D® into local memory.
• Writing push buffers to graphics local memory – this is where most of the performance boost is generated.
As such, systems with Fast Writes can have a dramatic increase over systems without Fast Writes.
-->
Fast Writes capability enables the CPU to send data directly to the graphics bus without going through the system memory. This benefits overall system performance in two ways:
1. Removes the bottleneck previously that exists in systems without Fast Writes.
2. Frees up system memory bus to perform other functions and increase system efficiency.
Nav het nieuwe beleid voor 'Grote Topics' gaat dit topic dicht.
Lees voor meer informatie deze (tijdelijke) sticky:
Waar zijn alle 'Grote Topics' naartoe?
En natuurlijk de (bijgewerkte) policy:
* Welkom in V&B : lees dit eerst aub ! *
Maar alles is niet verloren! De startpost van ook dit topic is in de FAQ verwerkt
Lees voor meer informatie deze (tijdelijke) sticky:
Waar zijn alle 'Grote Topics' naartoe?
En natuurlijk de (bijgewerkte) policy:
* Welkom in V&B : lees dit eerst aub ! *
Maar alles is niet verloren! De startpost van ook dit topic is in de FAQ verwerkt
Oslik blyat! Oslik!
Dit topic is gesloten.