Het grote GeForce FX topic ( Deel 3 )

Pagina: 1 ... 10 11 Laatste
Acties:
  • 1.789 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

Hij prijsd daar een of andere luxe MSI 5600 aan, maar dan mis ik dan toch de AIW's van ATI zelf & Partner's in die lijst.

[ Voor 13% gewijzigd door SG op 15-07-2003 22:21 ]

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 July 2003 @ 17:07:
mmm, volgens mij begrijp jij het ook niet helemaal, aangezien er in 3mark2003 nog veel testen zijn die gebruik maken van dx8.1 ipv 9 dus........ nee 3dmark2003 is geen goede test voor toekomstige games, wacht nou maar gewoon tot hl2 en doom3 ipv al dat geblaat.
Als Half Life 2 en Doom 3 niet snel zullen draaien op PIV 2 Ghz met een GFX 5900 / Radeon 9800 met alle eyecandy.... dan kunnen Valve Software en ID software toch wel inpakken denk ik.

Want de meeste mensen hebben tegen die tijd nog altijd een langzamere computer. (tenminste de non-tweakers dan) Ik ken genoeg mensen die begin dit jaar een PC hebben gekocht, genoeg daarvan zijn gamers of hebben kinderen die gamen. Gemiddeld hebben deze systemen een PIV of AMD rond de 2 GHz. Meestal kopen deze mensen niet elk jaar een nieuwe PC of Videokaart.

Kijk maar eens naar onderstaande link, de meeste mensen gaan voor value of mainstream. Maar 1% van de afzetmarkt zijn die-hards. Ik denk dat dit zelfde ook met PC's gezegd kan worden. Software huizen die voornamelijk spellen produceren kijken ook naar dit soort cijfers. En daarop passen ze hun producten aan.

http://www.tomshardware.c...14/vga_card_guide-01.html

Wat heb je eraan als je een spel produceert en het draait alleen maar fatsoenlijk op een GFX 5900 Ultra? En alle langzamere kaarten die kunnen alleen maar op zeer lage resoluties en lage beeldkwaliteit draaien?
Als ze de Spelindustrie zo gaat werken dan draaien ze zichzelf de nek om.

Trouwens de R 9800 pro en GFX 5900 Ultra zijn momenteel de snelste commercieel verkrijgbare kaarten. De "nieuwe" generatie spellen wat dit jaar uitkomen zullen wel goed moeten draaien op deze kaarten omdat er (nog) niks anders is om op te ontwikkelen. De volgende generatie videokaarten worden pas verwacht begin volgend jaar.

Acties:
  • 0 Henk 'm!

  • Kimberly
  • Registratie: Juli 2002
  • Laatst online: 10-09 14:22
Psycho_NL, ben het helemaal met je eens. Koop zelf ongeveer 1x per jaar een nieuwe videokaart. En die zijn dan meestal mainstream. Ik heb gewoon geen 400+ Euro over voor een videokaart, voor 400+ euro koop ik een cpu+mobo+mem en dat vind ik belangerijker als de videokaart.

Ken zelf wel iemand die direct de nieuwste en duurste dingen koopt, en dan denk ik als ik bij hem op bezoek kom, wat heb je in godsnaam aan 500+ FPS in Q3A? :?

Heb nu zelf 300+ FPS, en als de Doom3 niet werkt dan zoek ik een ander spel uit die ik dan ga spelen, om dan direct een nieuwe videokaart moet kopen omdat ik het spel dan "een beetje" goed kan spelen dat doe ik niet. En natuurlijk zijn er die hards, als ik geld teveel had had ik nu ook wel een P4 3,2GHZ in plaats van een AMD. >:)

Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 15 July 2003 @ 12:02:
[...]
Ik vroeg hoe je aan het feit komt dat de cpu minder een bottleneck vormt bij ATI tegenhangers. Allemaal wel leuk en aardig die linkjes met grafiekjes waar nvidia kaarten in hoge resoluties slechter presteren, maar dat is geen antwoord op mijn vraag.
Waarom dat precies zo is, zul je aan ATI en nvidia moeten vragen, dat hangt namenlijk van hun keuzes bij het GPU-ontwerp en de drivers af. Aan de resultaten uit de praktijk kun je echter zien dat dit een gegeven is. Mag ik je er even fijntjes op wijzen dat jij degene was die dit meende te moeten ontkennen zonder ook maar enige argumentie of praktijkgegevens? Toon mij maar eens waarom jij dit als 'feit' meende te moeten brandmerken, terwijl wij in diverse benchmarks het resultaat van dit gegeven keer op keer weer kunnen zien.
[...]

1. Splintercell is geoptimaliseerd voor geforce4 kaarten. Daarom doet de ti4200 het zo goed. Heeft niets te maken dat de geforce kaarten meer halen uit je systeem.
De Xbox versie van Splinter Cell is de versie welke speciaal en alleen voor een op Geforce-basis GPU variant geoptimaliseerd is. Laten wij eens een kijkje nemen hoe dat met de PC-versie zit. Hiervoor kijken naar de resultaten van een aantal verschillende GPU's uit het middensegment bij een aantal moderne games:

Bron: http://firingsquad.gamers...-vtdr128_review/page5.asp

Van elke test geef ik de score bij 1024*768 en 1280*1024(960)

UT2003 Flyby

9500pro 167 114.2
9600pro 148.3 100.1
TI 4200 143.3 95.5
FX 5600 121 81.9
9500 107.1 70.7


UT2003 Botmatch

9500pro 86.4 76
9600pro 84.4 72.7
TI 4200 81.6 66.2
FX 5600 73.6 55.8
9500 77.1 55.8

Comanche 4 (leunt zwaar op CPU recources)

TI 4200 54.3 48.1
9600pro 53.9 50.6
9500pro 53.6 50.6
9500 53.5 49.3
FX 5600 43.4 34.9

Splinter Cell

9600Pro 33.9 27.3
TI4200 32.5 25.6
9500pro 30.0 24.5
9500 28.4 21.7
FX 5600 23.5 19.0

Wij zien dat de Geforce 4 in alle testen goed presteerd en bij de top 3 zit, bij Comanche met 1024*768 zelfs de snelste kaart is (al is het verschil minimaal). Bij Splinter Cell scoort de GF 4 als 2e, doet het daarmee zeer goed maar niet signifikant beter dan de andere kaarten.

Sterker, wij zien dat de grote winnaar in Splinter Cell is niet zozeer de TI 4200, maar juist de Radeon 9600pro, hij wint met beide reoluties, iets wat hem in de andere games niet lukt. Dus als de PC-versie een bepaalde GPU bovengemiddeld goed voor de dag laat komen, dan is dit eerder de Radeon 9600PRO. Maar een dergelijke stelling zou eveneens onzin zijn.

Leg mij nu eens uit hoe jij in vredesnaam tot de conclusie bent gekomen dat de PC-versie van Splinter Cell een pro Geforce game zou zijn en deze dus bovenmatig sterk zou moeten bevoordelen? Gaarne toelichten!
2. Je moet 3dmark2003 als een gehele test zien. Niet test 2 en 3 eruit halen en dan conclusies trekken.
???
Het punt waar 3Dmark2003 als test compleet de plank misslaat en voor gameperformance irrelevante resultaten laat zien, dat zijn met name test 2 en 3. Dus logisch dat ik deze naar voren haal. Bovendien maken deze testen gebruik van een DX8.0 en DX8.1 code en kunnen wij hier i.t.t. test 4 al wel met echte games vergelijken. Want het eerder genoemde Splinter Cell zet bij de instalatie automatisch DX9.0 op je PC (waaronder 3Dmark2003 ook loopt) en maakt net als test 2 en 3 gebruik van DX8 functies. Tevens is dit qua grafische effecten een bijzonder moderne en aantrekkelijke game (ik vind hem zeker mooier dan 3Dmark2003) en is hiermee een goede indicatie voor vele toekomstige games.
[...]

Lekker krom "sarcastisch" voorbeeld. Onnodig geflame.
Naar mijn mening is er één groot verschil tussen mijn en jouw geflame. Ik probeer met argumenten en gegevens te onderbouwen waarom ik iets verkondig. Jij gaat jammer genoeg niet op een zinvolle wijze in op mijn argumentatie, laat staan dat je zelf met een goed voorbeeld en/of argumentatie komt waaruit zou kunnen blijken dat ik het met mijn constateringen mis zou hebben en dat jou "niettes-Pfff-onzin" geflame wel ergens op gestoeld zou zijn. Want zeg nou zelf, je bij dit punt gemelde schijnargumentatie was, om het voorzichtig te zeggen, nou niet echt een toonbeeld was van een inteligente en goed onderbouwde argument. Niettemin moet ik toegeven dat ik achteraf vind dat ik dit, van mijn kant overigens ironisch bedoelde (en niet sarcastisch, dan zou ik mijzelf niet als Meneer_Eigenwijs erin gezet hebben, nietwaar?) Jip en Janneke verhaal beter had kunnen weglaten.

Bij deze een welgemeend excuus hiervoor!
[...]

Ja en? 3DMark2003 is geen benchmark voor DirectX 7 of 8 games, maar voor DirectX 9 games…..

Denk nou eens na: als game 1/2/3 (DirectX 7/8) 80% van de score uitmaakt, waarom presteren alle GF4 Ti kaarten dan zo laag? Ze zouden hoogstens 20% minder punten moeten halen dan bijv een 9500Pro….
Lees nou eindelijk eens wat ik schrijf, doe eventueel literatuur onderzoek (of gebruik google) en denk zelf eens goed over deze materie na. Dan zul jij eveneens tot de conclusie komen dat de testmethodiek van 3Dmark2003 aan vele kanten rammelt.

En mocht je het toch niet met mij eens zijn, kom dan eens met feiten en argumenten opdat er een serieuze discussie over te voeren valt. Wel graag in een ander topic (zie ook hieronder). Bij voorbaat dank!
’03 is geen benchmark voor games met DirectX 7 en DirectX 8 games, maar zoals gezegd DirectX9 games. Dat DirectX 7 en 8 erin zitten, is om te laten zien hoe kaarten die niet DirectX 9 ondersteunen (ie GF4 TI’s) zullen presteren in toekomstige directx9 games (t.o.v. bijvoorbeeld de 9500Pro) aangezien die kaarten toch ook die games kunnen draaien.
Als ze alleen DirectX 9 in de 3DMark2003 hadden gedaan, dan was het geen echte benchmark geweest aangezien je dan niet kan testen hoe bijvoorbeeld de TI4600 presteert in toekomstige games.
Als Futuremark op een methodisch juiste manier het performanceverschil tussen een DX8 en een DX9 kaart bij een DX9-game had willen meten, dan hadden zij dit op de volgende wijze kunnen (moeten) doen:

-je neemt testen welke op dusdanige DX9-routines en overige functies gebaseerd zijn als toekomstige games waarschijnlijk zullen zijn (en net als menig DX8 game van nu ook nog veelvuldig van DX7, lagere DX functies, CPU-recoures e.d. gebruik maakt zal dat ook voor de toekomstige DX9 game en test gelden).

- Je laat de DX9 kaarten in deze testen ook de DX9 codec uitvoeren en de DX8 kaarten dezelfde test emuleren die met DX8 functies & CPU-routines welke het zelfde resultaat zullen geven dan de oorspronkelijke DX9 routines. Dat meet je en vergelijk je.

Wat gebeurd er echter bij 3Dmark2003 in b.v. test 2 en test 3?

Hier zitten de DX9 kaarten dus ook DX8.1 functies als PS1.4 uit te voeren i.p.v. het veel eenvoudiger te programmeren PS2.0, denkt er nou één iemand dat een producent van een DX9-game voor de DX9 GPU's i.p.v. een eenvoudig te programmeren PS2.0 shaders een speciale DX8.1 code gaat schrijven die gebruik maakt van PS1.4?

En dat de CPU-recources, welke sowieso in games gebruikt worden en zeker als een DX8-GPU bepaalde DX9-routines niet hardwarematig kan ondersteunen zelfs massaal een rol zullen spelen, net als in 3Dmark2003 geheel onbenut worden gelaten?

Natuurlijk niet! De DX9 kaarten zullen in een echte DX9 game ook deze DX9 functies uitvoeren terwijl de DX8 kaarten die deze routines niet ondersteunen dit met hun DX8 functies aangevuld met de CPU-functies emuleren.
Edit: voor alle Geforce FX dudes: sorry voor de wat offtopic geraakte discussie!
Tja, daar had je m.i. eerder aan mogen denken toen je meende mijn oorspronkelijke on-topic post met onbeargumenteerde drogredeneringen te moeten flamen. Maar goed, wat mij betreft zand er over en mocht jij of iemand anders om welke reden dan ook vinden dat ik het met mijn argumentatie helemaal mis heb, maak dat dan gerust kenbaar maakt, maar dan wel graag met argumenten in een ander en hiervoor beter geschikt topic en a.u.b. niet met opmerkingen als "Pfff', "wat een onzin" en meer van dit soort fraais. Nogmaals dank!

Ik hoop dat het nu eindelijk duidelijk is geworden waarom 3Dmark2003 dusdanig veel van de game-werkelijkheid afwijkt dat het geen goede maatstaf is voor de gameperformance.

offtopic:
Voor de mensen die mij persoonlijk kennen en van mijn achtergrond als vroegere medeontwerper en adviseur bij een enkele PC-benchmark rond '91-92 weten en zich daarom wellicht afvragen of mijn aversie tegen 3Dmark2003 daarmee te maken zou kunnen hebben: Deze tijd en functie zijn reeds lang verleden tijd en waren eerder als hobby dan beroep te betittelen en hoewel ik ook bij mijn huidige werk vaak genoeg met benchmarking en de hiervoor noodzakelijke criteria te maken heb, ligt dit op een dusdanig ander vlak dat ik zonder meer kan stellen dat ik dan ook geen enkel commercieel, nog welk ander belang heb om 3Dmark2003 zwart te maken.

Integendeel, ik weet uit mijn eigen ervaring hoe lastig het is om een goede en betrouwbare benchmark te schrijven. Zelf heb ik in het verleden ook vaak genoeg de plank mis geslagen en mij aan enige ontwerpzonden schuldig gemaakt. Ik wens van ganser harte dat Futuremark met hun volgende 3Dmark-versie wel zal lukken om een goede benchmark neer te zetten waar PC-liefhebbers iets aan zullen hebben om de (toekomstige) gameperformance van hun PC te meten en aan de testresultaten van de andere mensen kunnen zien wat b.v. zinvolle updates zijn. Met 3Dmark2001 lukte dat heel redelijk, met de huidige 3Dmark2003 is dit jammer genoeg niet meer goed mogelijk.


@Deorgere:
Het prijsverschil tussen die FX 5600 en de Club 3D Radeon 9700 die ik jou adviseerde was anders niet zo vreselijk groot hoor. En dan had je een flink stuk extra performance gehad en een videokaart die minder snel verouderd.

[ Voor 12% gewijzigd door Verwijderd op 16-07-2003 01:52 ]


Acties:
  • 0 Henk 'm!

Verwijderd

quote i.p.v edit geklikt 8)7

[ Voor 100% gewijzigd door Verwijderd op 16-07-2003 01:31 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Nog even een laatste opmerking over dat 3DMark2k3 gedoe. Zoals ik al eerder zei, zouden alle DX9 kaarten 'native support' moeten hebben voor alle voorgaande DX-en. Daarom vind ik het zelf helemaal niet erg dat er 2 DX8.1 tests in zitten en ook nog zelfs een DX7 test. De meeste games die je op je DX9 kaart speelt zijn nu nog 'oudere' games die alleen maar DX7 en/of DX8 ondersteunen.

Dat nVidia zich niet aan de DX-standaarden houdt (geen PS1.4 in de GF4Ti serie en halfbakken DX9 compliancy in de NV34 en NV31), daar kan Futuremark ook niets aan doen, want FM houdt zich netjes aan de DX9 standaard.

En zoals Futuremark zelf zegt. Wil je oude DX8 videokaarten testen, dan gebruik je 3DM2k1. Wil je de nieuwere generatie DX9 videokaarten testen, dan gebruik je 3DM2k3.

Ontopic. NV36 schijnt de eerste testruns achter de rug te hebben. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 16 July 2003 @ 01:23:
Waarom dat precies zo is, zul je aan ATI en nvidia moeten vragen, dat hangt namenlijk van hun keuzes bij het GPU-ontwerp en de drivers af. Aan de resultaten uit de praktijk kun je echter zien dat dit een gegeven is.
Welke resultaten uit de praktijk? Die grafiekjes met benchmarks die laten zien dat Nvidia kaarten het slechter doen in hoge resoluties? Dat is geen bewijs dat de cpu minder een bottleneck vormt bij ATI tegenhangers.
Verwijderd schreef op 16 July 2003 @ 01:23:
Toon mij maar eens waarom jij dit als 'feit' meende te moeten brandmerken, terwijl wij in diverse benchmarks het resultaat van dit gegeven keer op keer weer kunnen zien.
Keer op keer? Zoals ik al zei, je hebt nog helemaal niet laten zien waarom de cpu minder een bottleneck vormt bij ATI tegenhangers...
Verwijderd schreef op 16 July 2003 @ 01:23:
Sterker, wij zien dat de grote winnaar in Splinter Cell is niet zozeer de TI 4200, maar juist de Radeon 9600pro, hij wint met beide reoluties, iets wat hem in de andere games niet lukt. Dus als de PC-versie een bepaalde GPU bovengemiddeld goed voor de dag laat komen, dan is dit eerder de Radeon 9600PRO. Maar een dergelijke stelling zou eveneens onzin zijn.
Leg mij nu eens uit hoe jij in vredesnaam tot de conclusie bent gekomen dat de PC-versie van Splinter Cell een pro Geforce game zou zijn en deze dus bovenmatig sterk zou moeten bevoordelen? Gaarne toelichten!
Uhm, geen woorden in mijn mond leggen. Ik heb nooit gezegd dat Splintercell een bevoordeelde pro Geforce game is. Ik zei dat het spel was geoptimaliseerd voor Geforce4 kaarten (waarschijnlijk omdat het zeer goed verkochte populaire kaarten zijn/waren en de Splintercell makers hebben daar rekening meegehouden en bepaalde functies van die kaarten in de game verwerkt). Daarom doet de Geforce 4200 het beter in Splintercell dan de Geforce 5600 (wat jij zei...)
Verwijderd schreef op 16 July 2003 @ 01:23:
Naar mijn mening is er één groot verschil tussen mijn en jouw geflame. Ik probeer met argumenten en gegevens te onderbouwen waarom ik iets verkondig. Jij gaat jammer genoeg niet op een zinvolle wijze in op mijn argumentatie, laat staan dat je zelf met een goed voorbeeld en/of argumentatie komt waaruit zou kunnen blijken dat ik het met mijn constateringen mis zou hebben en dat jou "niettes-Pfff-onzin" geflame wel ergens op gestoeld zou zijn.
Ik vroeg om bewijzen voor jouw wat ongewone (en ongenuanceerde) uitspraken. Jij hebt bijvoorbeeld nog steeds geen antwoord gegeven op de "cpu" vraag. Wel geef je een heel betoog vol met linkjes naar benchmark die helemaal niet relevant zijn... Net als bij je laatste reply. Je komt met een heel verhaal met benchmarks die laten zien dat de radeon9600pro het beter doet dan de 4200/5600, stopt dan woorden in mijn mond en zegt dan dat ik niet goed genoeg op zinvolle wijze op jouw argumentatie inga.
Verwijderd schreef op 16 July 2003 @ 01:23:
Want zeg nou zelf, je bij dit punt gemelde schijnargumentatie was, om het voorzichtig te zeggen, nou niet echt een toonbeeld was van een inteligente en goed onderbouwde argument.
Voordat je je excuses aanbiedt, kom je met een mooie verdekte flame...

En je mag best een mening hebben over 3DMark2003, maar hou het dan tot een mening. Ik geloof eerder de makers van 3DMark2003 (Futuremark, Ati, Nvidia, Microsoft, talloze gameproducenten etc) die wel vinden dat het een goede benchmark is dan iemand die 2 testen uit een gehele test haalt en dan conclusies trekt.

Een ding heb je wel gelijk in, deze discussie hoort niet in dit topic thuis. Dit zal dan ook mijn laatste post zijn. Ik heb geen zin om een nieuw topic te openen om deze discussie te vervolgen. Ik heb namelijk geen zin om eerst een bombardement aan irrelevante informatie te krijgen en dan te horen krijg, dat ik niet met argumenten kom en dat ik niet onderbouw.

Acties:
  • 0 Henk 'm!

Verwijderd

Nou en nu aub ff ontopic dit blijft zo maar doorgaan,laten we het lekker over de nv 36 hebben :) .

Acties:
  • 0 Henk 'm!

Verwijderd

OK! ik heb nog niets gehoord over de goedkopere kaarten zoals de 5200fx of een andere radeonkaart in die prijsklasse!
Verder is het zo ?,dat als men een bv. een Asus mobootje aan wilt schaffen dat daar dan ook een Asus videokrt. in moet zitten,dit om conflicten te voorkomen en het systeem zo optimaal te laten draaien?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 16 juli 2003 @ 16:52:
Nou en nu aub ff ontopic dit blijft zo maar doorgaan,laten we het lekker over de nv 36 hebben :) .
Goed plan. NV36 schijnt de eerste testruns met QuakeIII goed 'doorstaan' te hebben. Deze opvolger van FX5600(Ultra) verschijnt over enkele maanden, waarschijnlijk als tegenhanger van RV360.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Sjah schreef op 14 July 2003 @ 18:57:
Wat een onzin dat JC voor de nvidia zou ontwikkelen....
Ehm...

The Way It's Meant To Be Played

NVIDIA is the first of the consumer graphics chip companies to firmly understand what is going to be happening with the convergence of consumer real-time and professional offline rendering. The architectural decision in NVIDIA's next-generation GPU to allow full floating point precision all the way to the frame buffer and texture fetch, instead of just in internal paths, is a good example of far-sighted planning. It has been obvious to me for some time how things are going to come together, but NVIDIA has made moves on both the technical and company strategic fronts that are going to accelerate the timetable over my original estimations.

My current work on Doom is designed around what was made possible on the original GeForce, and reaches an optimal implementation on NVIDIA's next-generation GPU. My next generation of work will be designed around what is made possible on NVIDIA's next-generation GPU.

- John Carmack, id Software

Bron: http://www.nvidia.com/content/areyouready/twimtbp.html

Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op 16 juli 2003 @ 17:36:
[...]


Goed plan. NV36 schijnt de eerste testruns met QuakeIII goed 'doorstaan' te hebben. Deze opvolger van FX5600(Ultra) verschijnt over enkele maanden, waarschijnlijk als tegenhanger van RV360.
Hoe weet je dat ie al heeft gedraaid? :) .

Acties:
  • 0 Henk 'm!

Verwijderd

Sorry hoor, maar dat is dus echt niet meer dan een Nvidia tekstflap van, als me dit goed kan herinneren, een paar maanden terug. Het is zo'n beetje net zo serieus te nemen als dat splash screen in UT2K3 dat ook niet veel meer is dan het resultaat van een bak geld die van eigenaar veranderde. Volgens mij zijn JC's .plan updates toch een betere indicatie van wat er aan de hand is.

Edit: JC's .plan kan men op deze pagina vinden:

http://www.webdog.org/cgi...plm?company=id%20Software

[ Voor 14% gewijzigd door Verwijderd op 16-07-2003 18:40 ]


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
tIs alweer sinds januari dat ik een .plan update gezien heb van um, of doe ik iets fout? Oftewel, waar vindje de nieuwste .plan van hem?


[edit] nee ok, dan doe ik niks fout, hij maakt er gewoon niet zoveel, en als die er 1 maakt, komt het gelijk op bluesnews of shack etc. Zou bijv. weleens willen weten of de detonators van nu een fikse verbetering betekenen tov de toestand in januari. En hoe dat zit met de Catalyst's.

[ Voor 52% gewijzigd door Sjah op 16-07-2003 18:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 16 July 2003 @ 17:10:
OK! ik heb nog niets gehoord over de goedkopere kaarten zoals de 5200fx of een andere radeonkaart in die prijsklasse!
De radeon 9200 en de Nvidia 5200 zijn alleen een serieuse optie als je absoluut niet van plan bent om veeleisende 3D applicaties te runnen, zoals games dat tegenwoordig dus wel zijn.
Verder is het zo ?,dat als men een bv. een Asus mobootje aan wilt schaffen dat daar dan ook een Asus videokrt. in moet zitten,dit om conflicten te voorkomen en het systeem zo optimaal te laten draaien?
Nee hoor. Het komt soms voor dat een vid-kaart van een merk niet goed op een mobo van een ander merk werkt of gewoon past maar echt vaak gebeurd dit niet.

Acties:
  • 0 Henk 'm!

  • Pollewob
  • Registratie: December 2000
  • Niet online
Ik zeg: Het is tijd voor een Deel 4 :)

Acties:
  • 0 Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

danplo schreef op 15 juli 2003 @ 11:05:
Zo wanneer komen die ASUS FX5900 Ultra kaartjes op de markt.
Heb deze kaart al 2 weken geleden beteld op internet, maar nog steeds zijn ze niet leverbaar.
Misschien iemand met meer info hierover ??
Die Creative is wel al 2 weken uit........
Ik had hier ook eens gelezen dat deze ASUS pas in Augustus uit komt...is dit echt zo ???
Iemand met meer info ??

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0 Henk 'm!

Verwijderd

hmmm, en ik die dacht dat ik vandaag lekker naar de winkel ging en een nieuw kaartje ging kopen. Ik vroeg voor een Ati 9500, omdat ik dacht, prijs is goedkoop en kan ik wel ff een paar jaartjes mee, de verkoper bood me een Geforce FX5200 aan en ik dus twijfelen, dan maar naar huis gesneld op reviews te lezen, heb ik hier nu bijna heel dit deel gelezen en ben ik nog niets wijzer, als ik hier uit al deze posts een conclusie ga trekken, dan is wachten de beste oplossing, want ze zijn beiden goed volgens jullie.

Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

I thought I'd post this here as Google will do it's thing and hopefully help anybody else who encounters this bug as I've heard of a few who have.

If your using a mouse specifically a Microsoft mouse and you hear a strange noise when using the scroll wheel in Internet Explorer and you have a GeForceFX 5900 or an Ultra model, the fix is to turn off smooth scrolling in Internet options and the noise should disappear.

This bug is very random and seems to happen with MS mice and the Intellipoint software being installed and it may not happen even if you have the above.

So I hope that helps anyone from tearing their hair out like I have been for the last few days and hopefully this can be fixed with a software update from MS or Nvidia.

Edit: Apprently it's not limited to any MS mouse anything that uses a scroll wheel and happens in explorer and other program etc. , also according to eVGA it has something to do with the voltage levels of the card and Nvidia has been notified and is looking into it.
http://www.driverheaven.net/#article_4464

Acties:
  • 0 Henk 'm!

Verwijderd

tweak_dude schreef op 01 april 2003 @ 18:40:
Is er nou iemand nog serieus van plan een Geforce FX te kopen nu deze zo hard gekickt wordt door de Radeon 9700/9800? (op het gebied van prestaties en geluid)
Hier zit natuurlijk wat in, maar ik denk (persoonlijk) dat een nForce2 Mobo met een nVidia VGA kaart beter werkt dan met een ATI kaart erin. Nou zijn de kaarten dusdanig snel dat je met beide kaarten voorlopig nog wel vooruit kan. Misschien met een ATI kaart langer, maar toch. Ik was toch niet van plan om nu een GeForce FX te kopen, maar een goed betaalbare G4 Ti4400, Ti4600 of Ti4800.

Ik ben er alleen nog niet helemaal uit hoe en wat :?

Acties:
  • 0 Henk 'm!

  • hiostu
  • Registratie: Juli 2000
  • Laatst online: 14-08 06:43
Verwijderd schreef op 16 juli 2003 @ 01:23:
- Je laat de DX9 kaarten in deze testen ook de DX9 codec uitvoeren en de DX8 kaarten dezelfde test emuleren die met DX8 functies & CPU-routines welke het zelfde resultaat zullen geven dan de oorspronkelijke DX9 routines. Dat meet je en vergelijk je.
Hier maak je wel een kleine denkfout, PS zijn niet te emuleren via de CPU. VS echter wel, vandaar dat Xabre (als ik het goed onthouden heb) geen hardware matige opndersteuning hebben voor VS maar wel voor PS. Op die manier kunnen mensen met zo'n kaart toch alle spellen met hetzelfde detail spelen.

De manier van testen die jij hier noemt draagt met zich mee dat er grafisch verschil tussen de verschillende kaarten gaat zitten. Immers de niet DX9 compliant kaarten kunnen de PS2.0 niet weergeven. Dus OF ze moeten helemaal weggelaten worden, of eventueel via PS1.3 en dan multipass. Ik heb echter niet voldoende verstand van de interne werking van PS om te kunnen zeggen of het mogelijk is. Maar om zomaar DX9 zaken te emuleren op een DX8 kaart en de CPU zal niet mogelijk zijn.

Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 05:25

Pubbert

random gestoord

Ik wil wel ff een mooie Deel 4 startpost maken eventueel mits een geforce fx owner dit liever wil doen :)

[ Voor 31% gewijzigd door Pubbert op 17-07-2003 09:57 ]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • hiostu
  • Registratie: Juli 2000
  • Laatst online: 14-08 06:43
warp schreef op 16 juli 2003 @ 18:03:
[...]


Ehm...

The Way It's Meant To Be Played
....

My current work on Doom is designed around what was made possible on the original GeForce, and reaches an optimal implementation on NVIDIA's next-generation GPU. My next generation of work will be designed around what is made possible on NVIDIA's next-generation GPU.

- John Carmack, id Software
Dat is dus gewoon PR geblaat van nvidia in samenwerking met ATI. Hij heeft dit eerder ook al voor ATI gedaan. Dus hier moet je niet te veel van aantrekken.
"The R300 is an ideal rendering target for the DOOM engine, it can do both our highly complex pixel shaders for light surface interactions and can very rapidly render all the stencil shadow volumes which deal with all our dynamic masking of way light operations"

"3D accelerators are all about performance, quality and flexibility and the R300 breaks new ground over anything thats come before it in all three areas."
- John Carmack: http://mirror.ati.com/pro...9700pro/testimonials.html

Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Hier zit natuurlijk wat in, maar ik denk (persoonlijk) dat een nForce2 Mobo met een nVidia VGA kaart beter werkt dan met een ATI kaart erin.
Onzin, daarop zijn ze iig nog niet betrapt ;)

ps. wat moet er dan op een intel mobo?

[ Voor 10% gewijzigd door hjs op 17-07-2003 10:30 . Reden: toegevoegd ]


Acties:
  • 0 Henk 'm!

Verwijderd

Wie maakt deel 4 :) .

Acties:
  • 0 Henk 'm!

Verwijderd

hiostu schreef op 17 July 2003 @ 09:55:
[...]

Hier maak je wel een kleine denkfout, PS zijn niet te emuleren via de CPU. VS echter wel, vandaar dat Xabre (als ik het goed onthouden heb) geen hardware matige opndersteuning hebben voor VS maar wel voor PS. Op die manier kunnen mensen met zo'n kaart toch alle spellen met hetzelfde detail spelen.

De manier van testen die jij hier noemt draagt met zich mee dat er grafisch verschil tussen de verschillende kaarten gaat zitten. Immers de niet DX9 compliant kaarten kunnen de PS2.0 niet weergeven. Dus OF ze moeten helemaal weggelaten worden, of eventueel via PS1.3 en dan multipass. Ik heb echter niet voldoende verstand van de interne werking van PS om te kunnen zeggen of het mogelijk is. Maar om zomaar DX9 zaken te emuleren op een DX8 kaart en de CPU zal niet mogelijk zijn.
offtopic:
Je hebt zonder meer gelijk als je stelt dat er geen sprake is van een echte emulatie maar dat je via een omweg de niet DX9 compliant kaarten middels andere functies laat zorgen dat er een vergelijkbaar effect ontstaat. Dit is echter ook de praktijk in de gewone games, deze worden voor de belangrijke videokaarten geoptimaliseerd (dus op de eerder gestelde vraag of J.C. zijn Doom III voor nvidia kaarten optimaliseerd is het antwoord: Ja. En op de vraag of hij ze ook voor ATI optimaliseerd: Ja! Het resultaat is natuurlijk wel dat er hierdoor grafisch enkele verschillen kunnen ontstaan welke het eerlijk benches tussen de nvidia's en de ATI's bemoeilijken.

Je geeft aan dat als je een benchmark op deze wijze programmeert dat dit eveneens het nadeel heeft dat je verschillende DX8 en DX9 kaarten hiermee net iets anders laat testen en weer heb je helemaal gelijk.

De vraag is echter, is dit een ramp? Want dit is namelijk de praktijksituatie uit de echte games die je op deze manier test. De één geoptimaliseerd voor een DX7, DX8 of DX9 kaart van nvidia (welke soms ook extra mogelijkheden bieden welke niet in de betreffende DX-generatie zitten). Vergeet niet, als je prestaties met games gaat testen, zoals b.v. de welbekende UT2003 demo, dan heb je ook verschil in het testparcour bij de verschillende videokaarten. Is dit nu een (groot) probleem? Deels wel en deels niet, zolang je er maar in slaagt om qua grafische effecten een vergelijkbare test te ontwikkelen (wat bij UT2003 overigens niet helemaal het geval is).

Volgens Futuremark is dit probleem in ieder geval niet onoverkomelijk, want in test 2 en 3 laten zij de DX8.1 en de DX9 kaarten een DX8.1 test uitvoeren en de DX8.0 kaarten weer een DX8.0 test met in grafisch opzicht een vergelijkbaar resultaat en deze worden direct met elkaar vergeleken. Het kan dus wel.

Wat eerder door iemand in dit topic gesteld was, dat was dat 3Dmark2003 een echte DX9 test zou zijn. Welnu, een DX9 kaart voert DX9 test uit welke gemiddeld voor 20% van de totaalscore zou moeten uit maken, twee DX8.1 testen welke voor 53,33% meetellen en een DX7 test welke voor 26.67% meetelt. Een DX8.1 kaart doorloopt twee DX8.1 testen en een DX7 test welke alle drie even zwaar meetellen, een DX8.0 kaart doet twee in DX8.0 code 'nagebootste DX8.1 testen' (beetje kromme omschrijving, ik weet het) en een DX7 test, een DX7 kaart doorloopt natuurlijk alleen de eerste DX7 test.

Wat ik in mijn bovenstaande post wilde stellen, was dat je hier dan natuurlijk niet kunt spreken van een echte DX9 test en indien Futuremark dat had willen doen met 3Dmark2003, dan hadden zij wel andere keuzes gemaakt. In plaats daarvan kozen zij ervoor om als indicatie voor (heel) 2003 bij PC's met DirectX 9 geïnstalleerd dat het zwaartepunt op DX8 zou komen te liggen en DX7 net iets zwaarder meetelt dan DX9. Een m.i. zeer realistische keuze, want pas aan het eind van 2003 en begin 2004 komen er een redelijk aantal echte DX9 games, maar ook dan zullen zij een minderheid vormen t.o.v. van de DX8 en zelfs nog t.o.v. de DX7 games.

De zwaartepunten van 3Dmark2003 zijn dan ook zonder meer realistisch te noemen, net zoals de vereiste om DX9 op de PC te hebben geïnstalleerd omdat het merendeel van de gamers tegen het eind van dit jaar dit ook op zijn PC zal hebben, zelfs al hebben zij nog lang niet allemaal een DX9 videokaart. Alleen de manier waarop er getest wordt, daar zet ik vraagtekens bij. En de keuze voor DX8.1 in test 2 en 3, tja, ik heb niets tegen de mensen van Futuremark maar dat is een keuze welke gezien de gamerealiteit gewoonweg niet te verdedigen valt.

Ik wil hierbij het 3Dmark2003 issue laten rusten en het weer over de huidige en de toekomstige FX kaarten hebben en hoe goed of slecht zij het doen t.o.v. de kaarten van de grote concurrent. Wel in deel 4 natuurlijk.... :)

[ Voor 3% gewijzigd door Verwijderd op 18-07-2003 00:18 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

Tja de discussie is hevig maar volgens de plan van JC zoals ik mij herrinner en opgezocht hebt code ie op NVidia.
I am using an NV30 in my primary work system now, largely so I can test more
of the rendering paths on one system, and because I feel Nvidia still has
somewhat better driver quality (ATI continues to improve, though). For a
typical consumer, I don't think the decision is at all clear cut at the
moment.

For developers doing forward looking work, there is a different tradeoff --
the NV30 runs fragment programs much slower, but it has a huge maximum
instruction count. I have bumped into program limits on the R300 already.

As always, better cards are coming soon.
zoals je ziet is dit 'n plan vanuit de R300/nV30 periode.

Maar het blijft wel 'n moment op name.

http://www.tweakers.net/nieuws/25303/?highlight=carmack
http://www.bluesnews.com/...?id=1&time=20030129210315

ondertussen zijn de better cards er al? dus wat ie nu doet geen idee.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

Heeft iemand al een verwachting wanneer die Asus FX5900 Ultra uit komt.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Er stapelen zich donkere wolken boven nVidia met de komst van Half Life 2.

Op dit moment doet Anti Aliasing het niet in de game op zowel ATi als nVidia kaarten. Dit zorgt voor flinke artifacts wanneer het geactiveerd word. Vandaar het gebrek aan AA in de videofilmpjes.

Valve heeft aangegeven dat het er niet naar uit ziet dat het ooit gaat werken op de huidige generatie nVidia kaarten zoals de FX-serie en de GF4-serie. Maar ze hebben wel aangegeven dat het er naar uit ziet dat het wel met ATi kaarten gaat werken.

Hier de tip van Valve:
It's a problem for any app that packs small textures into larger textures. The small textures will bleed into each other if you have multisample FSAA enabled. The best thing to do right now is either buy an ATI card in the hopes that it will be solved there, or wait until the next generation of cards come out.
Dit zal natuurlijk ook andere games beinvloeden die gebruik maken van de Source Engine zoals Vampire The Masquerade 2.

Bron: http://www.halflife2.net/...2&perpage=15&pagenumber=1

Hier was ook een apart topic over trouwens. Zag ik net pas. :D Half-Life 2: AA possible with R3x0, not with NV3x?

En hier had ik er ook al wat over geschreven: [rml]CJ in "[ PC] Half-Life 2 - Deel 3"[/rml]

[ Voor 13% gewijzigd door CJ op 18-07-2003 12:44 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Verwijderd schreef op 16 July 2003 @ 18:26:
Sorry hoor, maar dat is dus echt niet meer dan een Nvidia tekstflap van, als me dit goed kan herinneren, een paar maanden terug.
Nee het is een quote van JC zelf, niet van nVidia; uiteraard staat hij ook op de nVidia site (want is immers goede PR).
Die is pas oud; toen was de FX nog niet eens uit. De Ti4x00 serie was toen ook totaal geen match voor de 9700. JC kon toen moeilijk anders beweren, of wilde je zeggen van wel? Het is gewoon een feit dat de 9700 heer en meester is over de Geforce4 serie.

Carmack heeft allang in een nieuwere .plan files geschreven dat alles nu veel sneller liep op de nv30/nv35 omdat hij overgegaan is op een nVidia specific driver path.

NB De laatste Doom III demo op de E3 was ook volledig sponsered by nVidia en demo'ed op nVidia hardware, geen ATi te bekennen.

Acties:
  • 0 Henk 'm!

Verwijderd

OK! Maar hoe zit het dan met de 256mb fx kaarten?,kunnen die het opnemen tegen laten we zeggen een 9700 pro of 9800 pro want die zijn er nog niet zo lang!! En heb daar nog niets over kunnen vinden !!
En de prijs valt ook nog wel mee Asus fx5600 256mb voor 235EUROOTJES!
IEMAND?!

Acties:
  • 0 Henk 'm!

  • Chop2000
  • Registratie: Augustus 2000
  • Laatst online: 17:03

Chop2000

Vroem

Verwijderd schreef op 18 juli 2003 @ 18:36:
OK! Maar hoe zit het dan met de 256mb fx kaarten?,kunnen die het opnemen tegen laten we zeggen een 9700 pro of 9800 pro want die zijn er nog niet zo lang!! En heb daar nog niets over kunnen vinden !!
En de prijs valt ook nog wel mee Asus fx5600 256mb voor 235EUROOTJES!
IEMAND?!
256mb is echt useless op een fx5600, hij zal ongv even snel zijn als een ti4200..

niks


Acties:
  • 0 Henk 'm!

  • hiostu
  • Registratie: Juli 2000
  • Laatst online: 14-08 06:43
warp schreef op 18 July 2003 @ 16:06:
[...]


Nee het is een quote van JC zelf, niet van nVidia; uiteraard staat hij ook op de nVidia site (want is immers goede PR).


[...]


Die is pas oud; toen was de FX nog niet eens uit. De Ti4x00 serie was toen ook totaal geen match voor de 9700. JC kon toen moeilijk anders beweren, of wilde je zeggen van wel? Het is gewoon een feit dat de 9700 heer en meester is over de Geforce4 serie.

Carmack heeft allang in een nieuwere .plan files geschreven dat alles nu veel sneller liep op de nv30/nv35 omdat hij overgegaan is op een nVidia specific driver path.

NB De laatste Doom III demo op de E3 was ook volledig sponsered by nVidia en demo'ed op nVidia hardware, geen ATi te bekennen.
Kijk het is niet helemaal onwaar wat je zegt. Maar laat ik het wel zo stellen dat toen de R300 uitkwam JC de NV30 al wel in zijn handen heeft gehad. Het is namelijk zo dat deze man alle kaarten in een vroeg stadium in zijn handen krijgt. Natuurlijk zitten er dan nog wat issues aan en de drivers zijn nog niet af. Maar hij ziet de kaart wel en kan ongeveer een inschatting maken wat hij ervan moet verwachten.

En natuurlijk is de nv30/35 sneller als hij nvidia paths gebruikt, deze gebruiken immers maar 16bit interne precisie voor het renderwerk. Wat dus met zich meedraagt dat de beeldkwaliteit lager is. Gebruiken de kaarten beide de standaard dan is de nv30/35 een stuk langzamer als de R3x0. Echter de nvidia kaart loopt dan op 32bit interne precisie, wat weer beter van kwaliteit is.

Oh en ik kan me niet herinneren dat op de laatste E3 DoomIII aanwezig was... Niet met een realtime demo. Ik kan me vergissen hoor, maar hier heb ik niets van gehoord. En vorig jaar werd alles op de E3 geshowcased op een R300.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
hiostu schreef op 18 July 2003 @ 18:54:
[...]
Oh en ik kan me niet herinneren dat op de laatste E3 DoomIII aanwezig was... Niet met een realtime demo. Ik kan me vergissen hoor, maar hier heb ik niets van gehoord. En vorig jaar werd alles op de E3 geshowcased op een R300.
Doom III was wel aanwezig op de laatst E3. Ergens in een donker obscuur hoekje werd op 1 scherm een rolling demo van Doom III vertoond. Verder geen enkele bombarie er om heen, want Carmack houdt er niet van om een game op meerdere E3s te showen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Verwijderd schreef op 18 July 2003 @ 18:36:
OK! Maar hoe zit het dan met de 256mb fx kaarten?,kunnen die het opnemen tegen laten we zeggen een 9700 pro of 9800 pro want die zijn er nog niet zo lang!! En heb daar nog niets over kunnen vinden !!
En de prijs valt ook nog wel mee Asus fx5600 256mb voor 235EUROOTJES!
IEMAND?!
De 256mb kaart is meestal hopeloos traag, omdat er maar 400 mhz geheugen op zit. Je kan het dus wel vergeten tegen over een Radeon 9600, laat staan sneller.

Acties:
  • 0 Henk 'm!

Verwijderd

CHECK DIT : http://www.guru3d.com/for...9cf48ef22b&threadid=58097 . de nieuwe detonator starstorm drivers 44.90

[ Voor 20% gewijzigd door Verwijderd op 19-07-2003 02:51 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Het zal niet lang duren voordat nVidia een advocaat op Starstorm stuurt om hem te manen te stoppen met deze drivers, net zoals ze dat gedaan hebben bij Omegadrive. :/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • MPAnnihilator
  • Registratie: Juni 2002
  • Laatst online: 26-07 16:02
Even een vraagje omtrent het software modden van een fx5900/ultra naar een quadro variant. Heeft iemand hier al gelezen met welk tooltje dit zou uit te voeren zijn ? Ik wil zo graag eens die 3Dmax 5 hier zien lopen op mijn dan gemodde fx5900ultra :)

Voorlopig al even geprobeerd te zoeken op Guru3D maar helaas niets werkends gevonden :'(

Mijn Specs


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
Dond3r schreef op 17 July 2003 @ 09:56:
Ik wil wel ff een mooie Deel 4 startpost maken eventueel mits een geforce fx owner dit liever wil doen :)
Ik denk dat je onze zegen hebt :)

Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op 16 juli 2003 @ 17:36:
[...]


Goed plan. NV36 schijnt de eerste testruns met QuakeIII goed 'doorstaan' te hebben. Deze opvolger van FX5600(Ultra) verschijnt over enkele maanden, waarschijnlijk als tegenhanger van RV360.
Hoe gaat dit kaartje dan heten? of is dit de goedkope versie van de gf fx 5900??

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
hiostu schreef op 18 July 2003 @ 18:54:
Maar laat ik het wel zo stellen dat toen de R300 uitkwam JC de NV30 al wel in zijn handen heeft gehad. Het is namelijk zo dat deze man alle kaarten in een vroeg stadium in zijn handen krijgt.
Hiermee geef je dus zelf aan dat JC en nVidia eigenlijk wel degelijk twee handjes op één buik zijn ;)

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
CJ schreef op 18 juli 2003 @ 19:08:
Doom III was wel aanwezig op de laatst E3. Ergens in een donker obscuur hoekje werd op 1 scherm een rolling demo van Doom III vertoond. Verder geen enkele bombarie er om heen, want Carmack houdt er niet van om een game op meerdere E3s te showen.
Klopt. Dit was ook te lezen in zo'n E3 verslag op Tom's of Anand's ofzo.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 19 July 2003 @ 14:45:
[...]


Hoe gaat dit kaartje dan heten? of is dit de goedkope versie van de gf fx 5900??
Het is niet de 'goedkope' versie van de FX5900. Die komt ook nog uit en zal gebaseerd zijn op de NV35-core met nog lagere kloksnelheden dan de gewone 5900 en de Ultra. Deze zal dan trouwens een richtprijs hebben van zo'n $299,-.

NV36 is de vervanger van FX5600Ultra, dus bedoeld voor de mainstream markt. En zoals het er nu naar uit ziet, zal NV36 een 256-bits geheugenbus hebben net als de FX5900. Daarmee heeft NV36 een beentje voor op de RV360, en dit zal je dan ook vooral kunnen zien in de prestaties met AA en AF.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
Inno3D heeft nu ook z'n FX5900 kaarten, de Ultra versie ziet er zo als alle Ultra versies uit maar de non-Ultra heeft mooi zwart pcb :9 en een zilverkleurige cooler, ik vraag me af waar de fan(s) zitten, onder een afdekplaat ofzo, slecht te zien op 't plaatje:

Afbeeldingslocatie: http://www.ivmm.com/inno3d/geforcefx/images/products_gf_fx_5900.gif

http://www.ivmm.com/inno3.../products_gf_fx_5900.html

Acties:
  • 0 Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

Is er nog steeds niemand die meer info heeft wanneer die Asus FX5900 Ultra kaartjes uit komen. ??

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0 Henk 'm!

  • Alpha-sphere
  • Registratie: Januari 2001
  • Laatst online: 14-12-2021
Mijn 2 jaar oude GeForce 2 Ti is zojuist overleden. ik kreeg geen beeld meer als ik m'n comp aanzette en met een oude savage 4 kreeg ik wel beeld.

Ik wil dus of een radeon 9700 Pro gaan halen of een FX5800. Nu meen ik ergens gelezen te hebben dat de FX5800 veel geluid produceerd. Klopt dit? Want ik streef op dit moment namelijk naar een stille PC en zo'n FX5800 helpt dan niet echt mee.

Assume there are no rules and it's one big free for all


Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
De FX5800 moet je niet kopen, deze chip wordt meende ik ook niet meer gemaakt, daarbij maakt deze zoals je zelf al aangaaf een bak herrie. Een Radeon9700 of FX5900 is een beter keus.

Acties:
  • 0 Henk 'm!

  • We Are Borg
  • Registratie: April 2000
  • Laatst online: 19:33

We Are Borg

Moderator Wonen & Mobiliteit / General Chat
Alpha-sphere schreef op 20 July 2003 @ 16:26:
Mijn 2 jaar oude GeForce 2 Ti is zojuist overleden. ik kreeg geen beeld meer als ik m'n comp aanzette en met een oude savage 4 kreeg ik wel beeld.

Ik wil dus of een radeon 9700 Pro gaan halen of een FX5800. Nu meen ik ergens gelezen te hebben dat de FX5800 veel geluid produceerd. Klopt dit? Want ik streef op dit moment namelijk naar een stille PC en zo'n FX5800 helpt dan niet echt mee.
FX 5800 niet halen, dan de 9700. Ja hij maakt als het een standaard versie is enorm veel lawaai en is ook al weer uit productie genomen (moet je na gaan :P ) dus niet doen.

Als je alleen die keuze hebt, dan de 9700. FX 5900 is wel weer prima (maar duur) en de 9800 kan ook (ook duurder natuurlijk)

Acties:
  • 0 Henk 'm!

  • hiostu
  • Registratie: Juli 2000
  • Laatst online: 14-08 06:43
warp schreef op 19 July 2003 @ 14:45:
[...]


Hiermee geef je dus zelf aan dat JC en nVidia eigenlijk wel degelijk twee handjes op één buik zijn ;)
dat zeg ik helemaal niet 8)7 , JC krijgt alle kaarten veel eerder. Zo ook de nieuwste matrox en de ATI kaarten.

Acties:
  • 0 Henk 'm!

  • Alpha-sphere
  • Registratie: Januari 2001
  • Laatst online: 14-12-2021
We Are Borg schreef op 20 July 2003 @ 16:34:
[...]

FX 5800 niet halen, dan de 9700. Ja hij maakt als het een standaard versie is enorm veel lawaai en is ook al weer uit productie genomen (moet je na gaan :P ) dus niet doen.

Als je alleen die keuze hebt, dan de 9700. FX 5900 is wel weer prima (maar duur) en de 9800 kan ook (ook duurder natuurlijk)
5900 en 9800 vind ik ook super ok maar mijn budget ligt nu op max €350

Assume there are no rules and it's one big free for all


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

350 euro, dan een Radeon 9700 Pro of een Radeon 9800.
tussen die twee zal qua snelheid weinig verschil zitten, en beide zijn ze flink sneller als een FX 5900

[ Voor 65% gewijzigd door hjs op 20-07-2003 20:18 . Reden: toevoegen ]


Acties:
  • 0 Henk 'm!

Verwijderd

De fan op mijn Radeon 9100 is stuk aan het gaan dus was ik van plan om een nieuw kaartje te halen. De Nvidia producten hier in huis (en van kenissen) werken altijd naar behoren en dit was m'n eerste ATI kaart (en voorlopig laatste) die na 2 maanden dus al gaar ging doen. Nu wil ik dus weer back to Nvidia. Mij budget is laag dus zat ik te denken aan een Geforce FX 5200 non-ultra. Maar mijn vraag is: zijn ALLE 128 MB versies 128 bit? En zal ik misschien nog enige progressie maken (naast het feit dan de geforce dx9 is, de radeon dx8)?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Laatste info over NV36 (de opvolger van FX5600(Ultra) genaamd GeForceFX 5700:

Core: 500 Mhz
Memory: 325 Mhz DDR (650 Mhz effectief)
Memory bus: 256-bit
Transistors: 82 Miljoen

Verder dus 4 pipes, wat de prestaties dus in ieder geval boven die van de FX5600Ultra moeten zetten, en met FSAA dus in ieder geval wel een flink stuk beter moet presteren dan de voorgangers.

Bron: http://www.notforidiots.com/GPURW.php

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
Verwijderd schreef op 20 juli 2003 @ 21:00:
De fan op mijn Radeon 9100 is stuk aan het gaan dus was ik van plan om een nieuw kaartje te halen. De Nvidia producten hier in huis (en van kenissen) werken altijd naar behoren en dit was m'n eerste ATI kaart (en voorlopig laatste) die na 2 maanden dus al gaar ging doen. Nu wil ik dus weer back to Nvidia. Mij budget is laag dus zat ik te denken aan een Geforce FX 5200 non-ultra. Maar mijn vraag is: zijn ALLE 128 MB versies 128 bit? En zal ik misschien nog enige progressie maken (naast het feit dan de geforce dx9 is, de radeon dx8)?
dat je fan gaar is kan op een NVidia kaart dus net zo goed gebeuren, das wel een hele vage reden om ATi gelijk de grond in te boren :{

Acties:
  • 0 Henk 'm!

Verwijderd

Andere reden om weer een Nvidia te kopen voor mij is dat er nog te veel grafische bugs in spellen zitten met een ATI kaart (spreek inmiddels uit ervaring).

Acties:
  • 0 Henk 'm!

  • We Are Borg
  • Registratie: April 2000
  • Laatst online: 19:33

We Are Borg

Moderator Wonen & Mobiliteit / General Chat
hjs schreef op 20 July 2003 @ 20:17:
350 euro, dan een Radeon 9700 Pro of een Radeon 9800.
tussen die twee zal qua snelheid weinig verschil zitten, en beide zijn ze flink sneller als een FX 5900
flink sneller dan de 5900 :? Plz geen onzin verkopen :).

Ben wel van mening dat de persoon idd beter een 9700 Pro kan kopen :)

Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Verwijderd schreef op 20 July 2003 @ 21:00:
De fan op mijn Radeon 9100 is stuk aan het gaan dus was ik van plan om een nieuw kaartje te halen. De Nvidia producten hier in huis (en van kenissen) werken altijd naar behoren en dit was m'n eerste ATI kaart (en voorlopig laatste) die na 2 maanden dus al gaar ging doen. Nu wil ik dus weer back to Nvidia. Mij budget is laag dus zat ik te denken aan een Geforce FX 5200 non-ultra. Maar mijn vraag is: zijn ALLE 128 MB versies 128 bit? En zal ik misschien nog enige progressie maken (naast het feit dan de geforce dx9 is, de radeon dx8)?
FX5200 he....tja....heb je de reviews erover al gelezen?

Fijn he....oftewel geen FX5200 nemen...want dat is nu al zo'n BUDget kaart die misschien NET de GF4 MX serie kan overtreffen..en dan NET.

Een FX5200 Non Ultra kost rond de 80 Euro. Een GF4ti4200 kost rond de 110 Euro....denk effe na wil je!

[ Voor 7% gewijzigd door swampy op 20-07-2003 23:00 ]

There is no place like ::1


Acties:
  • 0 Henk 'm!

Verwijderd

Tja, m'n Engels is niet zo goed (veruit de meeste reviews zijn Engels) dus ik kijk vaak naar prestatiegrafiekjes en dan zie ik toch dat de Ultra versie boven de 9000pro presteert (en ver boven de mx440) dus de non-ultra moet daar toch niet ver vandaan zitten. Tenminste dat dacht ik.

Yep, ik denk dat er binnekort een GF 4 ti deze kant op komt.128 mb versie of 64 mb versie pakken? (64 is ietwat sneller, of is dat al verleden tijd)

[ Voor 22% gewijzigd door Verwijderd op 20-07-2003 23:03 ]


Acties:
  • 0 Henk 'm!

  • LopeZ
  • Registratie: Maart 2001
  • Laatst online: 19:21

LopeZ

Too much is never enough

swampy schreef op 20 July 2003 @ 22:58:
[...]


FX5200 he....tja....heb je de reviews erover al gelezen?

Fijn he....oftewel geen FX5200 nemen...want dat is nu al zo'n BUDget kaart die misschien NET de GF4 MX serie kan overtreffen..en dan NET.

Een FX5200 Non Ultra kost rond de 80 Euro. Een GF4ti4200 kost rond de 110 Euro....denk effe na wil je!
Valt best mee, een gf4mx overtreft hij zeker MITS je niet een 64bits 5200fx neemt. Voor de 110 zou ik persoonlijk eerder een 5200 ultra nemen.

Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

LopeZ schreef op 20 July 2003 @ 23:07:
[...]

Valt best mee, een gf4mx overtreft hij zeker MITS je niet een 64bits 5200fx neemt. Voor de 110 zou ik persoonlijk eerder een 5200 ultra nemen.
Mmm...daar heb je gelijk in, de 5200 Ultra heeft aardige prestaties EN....haalt ook zeer leuke prestaties op het moment dat je met anti-aliasing en FSAA gaat werken!

Iets wat helaas met de GF4 ti serie wat minder is...de FSAA en de Anti- Aliasing! Het kost de kaart al snel te veel frames...en dat is jammer :(

[ Voor 6% gewijzigd door swampy op 20-07-2003 23:15 ]

There is no place like ::1


Acties:
  • 0 Henk 'm!

Verwijderd

Reactie op Formula1fan,

De Ti4200 128 8x AGP is net zo snel als een 64 mb versie of misschien zelfs sneller, en je hebt bijna geen normale TI4200 meer meestal AGP8X maar die kan ook op 4x draaien dus no prob :) .

[ Voor 199% gewijzigd door Verwijderd op 20-07-2003 23:20 . Reden: Ja ik weet het kan ook quot message doen maar ik had per ongeluk de verkeerde gequot. ]


Acties:
  • 0 Henk 'm!

Verwijderd

Zo'n 5200 Ultra lijkt me wel wat maar ik dacht dat die duurder waren...

[ Voor 31% gewijzigd door Verwijderd op 20-07-2003 23:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het is wel beter dan die radeon die je nu hebt ja,hij presteert ongeveer het zelfde als een TI4200 dacht ik.Ik herinner dat ie tegen de 10k aanzat met 3dmark 01.
En een 128 bits 5200 zit tegen de 6000 punten maar vergeet niet dat ie dan ook meer tests kan doen dan de MX440 dus eigenlijk is de MX 440 een stukje sneller.
Bij mycom is ie over de 200 Eurootjes :o (5200 ULTRA) .

[ Voor 43% gewijzigd door Verwijderd op 21-07-2003 01:57 ]


Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
Kan iemand mij vertellen hoe ik VSync kan inschakelen onder Direct3D? Als ik bij mijn NVidia tabblad kijk zie ik alleen maar een optie voor VSync bij OpenGL :?

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
Onder de knop More3d (althans dat zit erbij de drivers die ik heb in, 44.04)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Weer een lekker berichtje over nVidia, wie is de baas daar tegenwoordig, de Siciliaanse mafia?

"I just talked to a friend of mine who had the chance to meet one of the Massive guys, and he said he had a very interesting conversation.

Among other things the Massive guy told him that Nvidia had already optimised/hacked for the original aquamark/Aquanox game.

But then comes another thing, namely Nvidia is trying to make Massive include commands and routines in Aquamark 3 which will run slower on ATI cards, because they need an additional cycle, but will run in one cycle on GFFXes.

My friend said he didn't know whether the Massive guys are actually doing this, but it could destroy the impartiality of the benchmark right from the start.

So maybe someone should look at this once the benchmark is out and the results look fishy".

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
Sjah schreef op 21 July 2003 @ 10:41:
Onder de knop More3d (althans dat zit erbij de drivers die ik heb in, 44.04)
Afbeeldingslocatie: http://www.trforum.nl/stuff/nvidia.jpg

eeuh die heb ik niet :?

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
wlke drivers hebje dan? bij mij zit die naast resostore defaults knop in dat scherm wat jij laat zien.

Acties:
  • 0 Henk 'm!

  • xabre16v
  • Registratie: April 2003
  • Niet online
Versie 44.03 Internationaal, dit is echt heel erg vreemd :? Ik wil VSync graag aan hebben want anders krijg ik op me TFT last van 'beeldscheuring'.

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
Nouja, in 44.04 zit het wel, je vind deze drivers bij www.creative.com

Acties:
  • 0 Henk 'm!

  • misterpro
  • Registratie: Maart 2002
  • Laatst online: 21-05-2024

misterpro

Pretentious Bastard

Heeft op zich niks met drivers te maken, da's gewoon een registry setting

A busstation is where the bus stops
A trainstation is where the train stops
On my desk, I've got a workstation...


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Was al een tijdje bekend; kijk maar een rond op de Beyond3D fora.
Tot nu toe zijn er al 70 game "optimalisaties" (cheats dus) gevonden in de Detonators.. gaat lekker zo met nVidia :(

Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

warp schreef op 22 July 2003 @ 14:49:
[...]


Was al een tijdje bekend; kijk maar een rond op de Beyond3D fora.
Tot nu toe zijn er al 70 game "optimalisaties" (cheats dus) gevonden in de Detonators.. gaat lekker zo met nVidia :(
Er zit nu al meer MB aan cheats in de driver dan aan echte content....tja...dat gaat lekker zo!

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Nog meer tekortkomingen:


DEVELOPERS AT the Meltdown Microsoft DirectX conference heard Nvidia make an interesting comment about its drivers.
One of the developers using FX 5900 hardware for an upcoming title tested the new shaders 2.0 and made a comment that he'd had problems with them.

Apparently, some shaders 2.0 simply do not work making Nvidia's claim that this card is DirectX 9 hardware puzzling, as Pixel Shader 2.0 is one of the essences of DX 9.

Subsequently, Nvidia staff at the conference agreed the shaders are not feeling very well, and that the recent drivers are quite buggy. But hey! They run Quake, UT and 3Dmark just fine.

We are sure that this carelessly honest Nvidia boy will be decapitated for this statement but we are sure that this will brought much more attention to making things work in future revisions.

As you might expect, there are not many ways to test these shaders as DirectX 9 games are still far away in the future. Ironically, the same shaders run just fine in ATI Radeon 9800 class hardware. µ

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

warp schreef op 22 July 2003 @ 14:49:
[...]


Was al een tijdje bekend; kijk maar een rond op de Beyond3D fora.
Tot nu toe zijn er al 70 game "optimalisaties" (cheats dus) gevonden in de Detonators.. gaat lekker zo met nVidia :(
Duhhh, het gaat erom dat dit een van de eerst test is op een Hardware site is welke het aantoont, dit in tegenstelling door de nVidia fanboys van [H], of is het [T] of toch [N] ;) die zien niks. :(

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
hjs schreef op 22 July 2003 @ 16:14:
Duhhh, het gaat erom dat dit een van de eerst test is op een Hardware site is welke het aantoont, dit in tegenstelling door de nVidia fanboys van [H], of is het [T] of toch [N] ;) die zien niks. :(
En sinds wanneer is Beyond3D een fanboy site?
Die hadden het al veel eerder aangetoond dan de amdmb site.

*duh*

Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Beyond3D is dus echt geen fanboy site, ik doelde op [H]ardocp
Sure, al dit komt bij beyond3d vandaan, daar krijgt die gast welke dit artikel schreef (jerky) nu ook les van DaveBaumann ;) link

Acties:
  • 0 Henk 'm!

Verwijderd

Even een klein vraagje.. is het bij Geforce FX kaarten (5600 bijv.) ook aan te raden om een 300(+) watt voeding te hebben (zoals bij ati Radeon 9500/9700)?

Acties:
  • 0 Henk 'm!

  • iets
  • Registratie: Maart 2002
  • Laatst online: 18:38
xabre16v schreef op 21 juli 2003 @ 11:09:
Versie 44.03 Internationaal, dit is echt heel erg vreemd :? Ik wil VSync graag aan hebben want anders krijg ik op me TFT last van 'beeldscheuring'.
Probeer het eens met rivatuner :).

tvw


Acties:
  • 0 Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

Zo wat duurd het toch F*ck*ng lang voor die nieuwe FX5900 Ultra uit komen van Asus....niet normaal meer zeg.....die van Creative is er al een maand bijna.....wanneer wordt deze Asus verwacht ...weet iemand dit...wil deze graag kopen

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0 Henk 'm!

  • DeeM77
  • Registratie: Oktober 2002
  • Laatst online: 11-09 12:44
ik heb er 2 besteld bij Salland en ze hebben mij verteld dat ik ze begin Augustus krijg (ovb)

...and remember: gravity doesn't exist.... Earth just sucks!!!


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
danplo schreef op 22 July 2003 @ 22:41:
Zo wat duurd het toch F*ck*ng lang voor die nieuwe FX5900 Ultra uit komen van Asus....niet normaal meer zeg.....die van Creative is er al een maand bijna.....wanneer wordt deze Asus verwacht ...weet iemand dit...wil deze graag kopen
Lol. Dan zal je net zien dat Asus de re-spin van de NV35 (die op hogere snelheden draait) introduceert op het moment dat de FX5900Ultra eindelijk goed verkrijgbaar wordt. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

En dan kun ja daar weer 2 maand opwachten, waarna de nv40 weer niet te lang op zich wachten wat een dillema.

Acties:
  • 0 Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 13-09 02:49

danplo

The Force is strong with me

Om gek van te worden ja.
Vind het nu wel erg overdreven lang duren.
Net of ze deze kaarten zelf moeten maken.
Wordt tegenwoordig niks meer een veranderd....ja alleen een andere koeler.
Voor de rest komt het zo van nVidia binnen rollen.
Denk dat die Creative hiermee veel klanten wint

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
http://www.bjorn3d.com/b3d_chat.php

vannacht een irc chat met een nvidia driver-maker. Kijken of die stront naar zijn hoofd krijgt. Denk het niet, want ze geven 3 fx5900 ultra's weg.... (!)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Hm... ik denk dat ze wel degelijk stront naar hun hoofd krijgen geslingerd. Ze gaan namelijk in op de beeldkwaliteit, hacks en UT2003... Als ze denken dat ze met gratis 3 FX5900Ultra's de boel goed kunnen praten, dan hebben ze het mooi mis... >:)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

CJ schreef op 24 July 2003 @ 00:37:
Hm... ik denk dat ze wel degelijk stront naar hun hoofd krijgen geslingerd. Ze gaan namelijk in op de beeldkwaliteit, hacks en UT2003... Als ze denken dat ze met gratis 3 FX5900Ultra's de boel goed kunnen praten, dan hebben ze het mooi mis... >:)
Inderdaad, aanpakken die handel, die ratten zitten in Codecreatures ook te cheaten en in HL2 schijnen ze ook het eea van plan te zijn.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 18:48
Ik denk trouwens dat de chat moderated zal zijn, en dat alleen de nvidia vent aan het woord ,antwoordend op vragen. Jammer, ik wil wel wat vuur zien :)

[ Voor 15% gewijzigd door Sjah op 24-07-2003 01:00 ]


Acties:
  • 0 Henk 'm!

  • Alpha-sphere
  • Registratie: Januari 2001
  • Laatst online: 14-12-2021
na wat jullie me hadden geadviseerd over de FX5800 ben ik maar voor de Radeon 9700 Pro gegaan. Ik heb 'm nu sinds maandag maar ben niet echt helemaal tevreden mee. Bij m'n oude GF2 Ti was het inprikken drivers installeren en klaar. Geen gezeik en elk spel deed het. Maar met de Ati kan ik Tactical Ops (speel ik heel vaak) niet eens lekker laten lopen. :(
Ook verwachte ik dat ik bij Battlefield 1942 AA en AF op max kon gooien. Maar helaas loopt het voor geen meter als ik AF helemaal omhoog gooi. Ik koop toch geen top kaart die nu al verouder is? BF1942 is al meer als 9 maanden uit net ietjes later als de Radeon denk ik. Kan ie radeon het nu al niet meer aan? WTF?

Ik neig nu heel erg om weer terug te stappen naar nVidia. Alleen is die FX5900 non ultra wel €110 ballen meer als de ATI. En de FX 5600 kan eigenlijk niet echt in de buurt van de Ati 9700 Pro. Damn die FX5800 voor het falen. Nu moet ik of een slomere kaart kopen of vet bijlappen om die FX5900 te halen :( Denk niet dat ik geld terug kan krijgen dus ergens anders goedkoper halen zit er ook niet in :(

Assume there are no rules and it's one big free for all


Acties:
  • 0 Henk 'm!

  • Halo_Master
  • Registratie: Mei 2000
  • Laatst online: 02-12-2024

Halo_Master

kan het cooler , pleaze?

Alpha-sphere schreef op 24 July 2003 @ 01:40:
na wat jullie me hadden geadviseerd over de FX5800 ben ik maar voor de Radeon 9700 Pro gegaan. Ik heb 'm nu sinds maandag maar ben niet echt helemaal tevreden mee. Bij m'n oude GF2 Ti was het inprikken drivers installeren en klaar. Geen gezeik en elk spel deed het. Maar met de Ati kan ik Tactical Ops (speel ik heel vaak) niet eens lekker laten lopen. :(
Ook verwachte ik dat ik bij Battlefield 1942 AA en AF op max kon gooien. Maar helaas loopt het voor geen meter als ik AF helemaal omhoog gooi. Ik koop toch geen top kaart die nu al verouder is? BF1942 is al meer als 9 maanden uit net ietjes later als de Radeon denk ik. Kan ie radeon het nu al niet meer aan? WTF?

Ik neig nu heel erg om weer terug te stappen naar nVidia. Alleen is die FX5900 non ultra wel €110 ballen meer als de ATI. En de FX 5600 kan eigenlijk niet echt in de buurt van de Ati 9700 Pro. Damn die FX5800 voor het falen. Nu moet ik of een slomere kaart kopen of vet bijlappen om die FX5900 te halen :( Denk niet dat ik geld terug kan krijgen dus ergens anders goedkoper halen zit er ook niet in :(
Ik denk dat je beter een nieuwe cpu kan kopen, die is de botlleneck.1,4 Ghz gaat veel te langzaam voor een radeon 9700 pro. Daar moet op z, n minst 400 mhz bij als je goed gebruik van de kaart wilt maken.
Het is net zoiets als een rolls kopen met een lada motor.

Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)


Acties:
  • 0 Henk 'm!

  • Alpha-sphere
  • Registratie: Januari 2001
  • Laatst online: 14-12-2021
Halo_Master schreef op 24 July 2003 @ 01:43:
[...]


Ik denk dat je beter een nieuwe cpu kan kopen, die is de botlleneck.1,4 Ghz gaat veel te langzaam voor een radeon 9700 pro. Daar moet op z, n minst 400 mhz bij als je goed gebruik van de kaart wilt maken.
Het is net zoiets als een rolls kopen met een lada motor.
Ik was ervan bewust dat mijn CPU een bottleneck zou vormen maar dat ik daardoor zelfs Tactical Ops niet kan spelen lijk me sterk. 'T draait op een oude engine dus je zou wel verwachten dat ie geen problemen zou leveren. Echt gaar man.

komt het niet normaal kunnen spelen van Battlefield met beide AA en AF aan trouwens door die bottleneck van een CPU? Of kan de kaart dat gewoon niet aan en is het te zwaar voor 'm

[ Voor 5% gewijzigd door Alpha-sphere op 24-07-2003 02:19 ]

Assume there are no rules and it's one big free for all


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Uhm... nieuw topic? De 1000 is gepaseerd.

Overigens is de chat met nVidia NU aan de gang. Ze hebben al wat vage antwoorden gegeven... Ben de chat aan het loggen, maar heb een gedeelte gemist. :/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

CJ schreef op 24 July 2003 @ 02:04:
Uhm... nieuw topic? De 1000 is gepaseerd.

Overigens is de chat met nVidia NU aan de gang. Ze hebben al wat vage antwoorden gegeven... Ben de chat aan het loggen, maar heb een gedeelte gemist. :/
Weest niet gevreest, ik heb hem al vanaf een half uur te vroeg open staan. Dus kan wel een logje voorbereiden!

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
swampy schreef op 24 July 2003 @ 02:23:
[...]


Weest niet gevreest, ik heb hem al vanaf een half uur te vroeg open staan. Dus kan wel een logje voorbereiden!
Graag. :) Open je gelijk ook even deel 4? ;)

CJ moet nu toch echt naar bed toe

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 02-09 13:39

swampy

Coconut + Swallow = ?

Open jij even deel vier? Ga ook zo naar bed maar hier is de log file dan, kijk uit...hij is zo'n beetje 202kb groot.

Moet hem nog bewerken zodat hij te gebruiken valt!

http://home.hccnet.nl/x.ligtvoet/bjorn3d.freenode.log

There is no place like ::1


Acties:
  • 0 Henk 'm!

  • Halo_Master
  • Registratie: Mei 2000
  • Laatst online: 02-12-2024

Halo_Master

kan het cooler , pleaze?

Alpha-sphere schreef op 24 July 2003 @ 01:52:
[...]

Ik was ervan bewust dat mijn CPU een bottleneck zou vormen maar dat ik daardoor zelfs Tactical Ops niet kan spelen lijk me sterk. 'T draait op een oude engine dus je zou wel verwachten dat ie geen problemen zou leveren. Echt gaar man.

komt het niet normaal kunnen spelen van Battlefield met beide AA en AF aan trouwens door die bottleneck van een CPU? Of kan de kaart dat gewoon niet aan en is het te zwaar voor 'm
Nou, ik heb geen moeite met mijn systeem, ook niet op standaard snelheid.
Ik draai hem op 1280x1024, 4xFSAA en 8xaniso(quality) en haal gewoon 50 fps minimaal.

Intel PIV 3.0@3600Mhz,2xiwaki md-15R en 1xswiftech mcp600, 4x xlr120 rad in externe boxes,dfi lanparty pro 875B,geil 512 mb pc4200, Ati Radeon 9800 pro,Audigy2,Silicon Graphics F180 (18,1 inch TFT)


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Deze kan dicht. De opvolger staat hier:

Het grote GeForce FX topic (Deel 4)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • BalusC
  • Registratie: Oktober 2000
  • Niet online

BalusC

Carpe diem

:)
Pagina: 1 ... 10 11 Laatste

Dit topic is gesloten.