PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
No offense, maar die antwoord is toch duidelijkHelp!!!! schreef op 07 augustus 2004 @ 19:48:
[...]
He Edward, heb je inmiddels al een beetje kunnen testen met de X800XT ?
Wat zijn nu je algemene indrukken als je vergelijkt tussen de X800XT en de 6800Ultra en wat is je indruk specifiek bij Doom3?
Het gaat me niet zozeer om de precieze framerates maar hoe de kaart aanvoelt als je bijv. Doom3 speelt.
Ben er wel erg benieuwd naar....


c what u meanSI4live schreef op 07 augustus 2004 @ 20:12:
[...]
No offense, maar die antwoord is toch duidelijk. Ik ben eerder benieuwd naar DX spellen

maar ben gewoon benieuwd naar "hoe het aanvoelt" de framerates zelf hoeven niet perse alles te zeggen.
Verder gaat het me zeker niet alleen om D3 zoals ik al schreef.
Denk dat het op zich een interessant is om te horen van iemand die allebei de kaarten heeft hoe hij ze ervaart zowel in OGL (specifiek D3) en DX spellen.
Vallen er nog dingen op, verschil in graphics, rare framedrops etc.
Heb momenteel een X800XT PE in bestelling staan maar ik ben ook erg gecharmeerd van de 6800U.
De 6800U is echter (voormij eigenlijk teveel) duurder en ook moeilijk verkrijgbaar.
Verder "voelt" de ATI mij wat meer solide aan. Denk dat bij de refresh, als nVidia de kinderziektes eruit heeft het sneller in de richting van nVIdia opschuift voor mij.
[Voor 27% gewijzigd door Help!!!! op 07-08-2004 21:13]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat kan ik je ook wel vertellen.Het gaat me niet zozeer om de precieze framerates maar hoe de kaart aanvoelt als je bijv. Doom3 speelt.


Je hoeft echt niet bang te zijn dat je iets mist in Doom3 als je voor een X800XT gaat.
(wil je echter persé 1600x1200 spelen met niet alleen AF maar ook AA dan zal de 6800U pas merkbaar in 't voordeel zijn)
[Voor 5% gewijzigd door Anoniem: 38733 op 07-08-2004 22:25]
Ben nog steeds op zoek naar een X800 XT !

http://www.beyond3d.com/forum/viewtopic.php?t=14874
Ik heb de tweak uitgevoerd op m'n X800XT, en ga van 48,1 naar 58,2 fps in de timedemo.


[Voor 7% gewijzigd door Anoniem: 38733 op 08-08-2004 09:56]

Het is niet helemaal hetzelfde, als JC het in zijn engine inbouwt zou het wel hetzelfde zijn.SI4live schreef op 08 augustus 2004 @ 10:40:
w00w heb het gelezen, maar wat ik me afvraag is of de beeldkwaliteit hetzelfde blijft (als ik het goed heb moet je de shader instructies ofzo veranderen), als het zo is hoop ik dat ATI dit in de nieuwe drivers zet

Wat met Humus code iig wel duidelijk wordt gemaakt is dat het spel "Nv optimized" is, en met wat aanpassingen kan het op Ati net zo snel lopen. Ben benieuwd wat John Carmack hierover te melden heeft, hij schijnt al ingelicht te zijn.

[Voor 33% gewijzigd door Anoniem: 38733 op 08-08-2004 12:13]
De enige reden waarom D3 zo "traag" loop op ati kaarten is omdat het een stuk van hyper-z in de R300-R420 uitschakeld. Hiarchical-z (een deel van hyper-z) is zeer bellangrijk bij het gebruik van stencils & dat werkt dus niet met doom3.Anoniem: 38733 schreef op 08 augustus 2004 @ 11:29:
Ik heb net ff een half uurtje gespeeld, maar ik zie niet 1,2,3 een verschil. Nu is het ook moeilijk vergelijken omdat je niet ff snel kunt switchen, maar ik ben iig geen artifacts of wat dan ook tegengekomen. Het lijkt er net zo perfect uit te zien. Oh ja, ik zie wel een verschil, en dat is dat mijn framerate in 95% van de tijd niet meer onder de 60 komt.
Wat met Humus code iig wel duidelijk wordt gemaakt is dat het spel "Nv optimized" is, en met wat aanpassingen aan de code loopt het op Ati net zo snel. Ben benieuwd wat John Carmack hierover te melden heeft, hij schijnt al ingelicht te zijn.
De "fout" ligt dus bij ATi & Id, ze hadden beter moeten samenwerken.
reden=


"I don't have any solution but I certainly admire the problem." -- Ashleigh Brilliant
Gebruik je AA en/of AF? Schijnt dat de tweak dan pas echt goed helpt. (Zonder AA en/of AF is de winst stukken minder)Anoniem: 114925 schreef op 08 augustus 2004 @ 12:06:
Die tweak van humus werkt bij mijn 9700 pro wel... van 34.5 naar 39.7 frames.
[Voor 5% gewijzigd door Anoniem: 38733 op 08-08-2004 12:11]
D3 tweak is toegepast, kwestie van de oude overschrijven in je directory "Doom3/base/glprogs":
http://www.sunflower.com/~kyleb/humusd3atitweak.zip
[Voor 10% gewijzigd door Anoniem: 38733 op 08-08-2004 12:27]
Niet gebruiken als je op medium Q speelt, dan krijg je artifactsAnoniem: 38733 schreef op 08 augustus 2004 @ 12:24:
Hier vind je trouwens een kant en klaar aangepaste file waar de
D3 tweak is toegepast, kwestie van de oude overschrijven in je directory "Doom3/base/glprogs":
http://www.sunflower.com/~kyleb/humusd3atitweak.zip
1280x1024, Ultra, 4x FSAA (2x TAA) en 16x AF. Wel in Windows veel zooi open (Seti client, Photoshop en een heel aantal Firefox vensters

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Zie apple dusHelp!!!! schreef op 07 augustus 2004 @ 19:48:
[...]
He Edward, heb je inmiddels al een beetje kunnen testen met de X800XT ?
Wat zijn nu je algemene indrukken als je vergelijkt tussen de X800XT en de 6800Ultra en wat is je indruk specifiek bij Doom3?
Het gaat me niet zozeer om de precieze framerates maar hoe de kaart aanvoelt als je bijv. Doom3 speelt.
Ben er wel erg benieuwd naar....

Ik heb dit weekend niet zoveel achter de pc gezeten, veel te warm.
Deze week ga ik zeker de XT testen, ook met de D3 "Humusfix"

Niet op voorraad.
Op High Quality wordt toch standaard 8xAF toegepast?Anoniem: 38733 schreef op 08 augustus 2004 @ 12:11:
[...]
Gebruik je AA en/of AF? Schijnt dat de tweak dan pas echt goed helpt. (Zonder AA en/of AF is de winst stukken minder)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ja, uiteraard. id gaat de helft zo niet het grootste deel van hun klanten expres benadelen. Dat leek jou dus verder wel een logische verklaring?ErikRo schreef op 08 augustus 2004 @ 11:51:
Ik vraag me af of NV code wel sneller is. Denk eerder dat de ATI code juist bewust wordt afgeremd. Die Carmack is heus niet achterlijk en had vast wel een ATI kaartje liggen om te testen.
Yeah well. The Dude abides.
Hmm, weet ik nog zonet niet. Als ik 8xAF forceer in het control panel ga ik toch 4 fps achteruit.
Yeah well. The Dude abides.
Het gaat hier natuurlijk wel om een shader-replacement die niet hetzelfde beeld produceert. Naast de artifacten zijn er ook al kleurverschillen in fog en helderheidsverschillen over het gehele beeld opgemerkt, en wie weet wat er nog meer boven water zal komen.Anoniem: 38733 schreef op 08 augustus 2004 @ 11:29:
Wat met Humus code iig wel duidelijk wordt gemaakt is dat het spel "Nv optimized" is, en met wat aanpassingen kan het op Ati net zo snel lopen. Ben benieuwd wat John Carmack hierover te melden heeft, hij schijnt al ingelicht te zijn.
Hmm, er staat me toch behoorlijke ophef bij uit de tijd dat Nvidia's FX-shader replacements geringe veranderingen in de renderkwaliteit opleverde. Ik ga er dan maar vanuit dat dezelfde mensen deze replacement ook niet zullen tolereren.
Yeah well. The Dude abides.

BTW, is de temp sensor van de X800 pro/XT intern(on die) of extern(een sensor onder koelblok) ik heb op de sapphire x800pro toxic een externe sensor gezien. Daarom deze vraag.
denk dat er een klein verschil zit in optimalisaties die je er zelf in zet, of optimalisaties die zonder je medenweten door de drivers geinstalleerd worden en niet verwijderbaar zijn.Biff schreef op 08 augustus 2004 @ 19:10:
[...]
Hmm, er staat me toch behoorlijke ophef bij uit de tijd dat Nvidia's FX-shader replacements geringe veranderingen in de renderkwaliteit opleverde. Ik ga er dan maar vanuit dat dezelfde mensen deze replacement ook niet zullen tolereren.

PSN: DutchTrickle PVoutput
Jawel, maar Humus ziet dit meteen als aanleiding om te beweren dat alle verhalen dat ATI niet goed presteert in OpenGL (notabene door ATI zelf toegegeven) de prullenbak in kunnen. En je kan op je vingers natellen dat fans nu gaan roepen zie je wel de ATI is ook heel snel (of zoals je hier en daar al kon zien, dat id ATI opzettelijk zou benadelen). Dat het wel ten koste van de image quality gaat lijkt me dan toch een relevant detail.Maverick schreef op 08 augustus 2004 @ 20:25:
[...]
denk dat er een klein verschil zit in optimalisaties die je er zelf in zet, of optimalisaties die zonder je medenweten door de drivers geinstalleerd worden en niet verwijderbaar zijn.
Yeah well. The Dude abides.
is natuurlijk niet helemaal hetzelfde als wat ik wilde weten maar toch ook gewaardeerde informatieAnoniem: 38733 schreef op 07 augustus 2004 @ 22:02:
[...]
Dat kan ik je ook wel vertellen.Op 1280x1024, ultra quality, 2xAA+2xTAA, 16xAF speelt het als een mesje door de boter, 200% vloeiend als een gerenderde movie.
Zelfs in de drukste gevechten geen framedips onder de 30.
Je hoeft echt niet bang te zijn dat je iets mist in Doom3 als je voor een X800XT gaat.
(wil je echter persé 1600x1200 spelen met niet alleen AF maar ook AA dan zal de 6800U pas merkbaar in 't voordeel zijn)

Speel nooit in 1600*1200 dus dat is voor mij niet zo relevant.
Mijn voorkeursresolutie is 1280*1024@85Hz (AA=2 en Lots of AF.)
Dat ziet er op mijn 19" CRT goed uit en levert ook aanvaardbare performance.
Ben iig blij vanuit de praktijk een positief bericht te horen over de XT PE icm D3.
okedward2 schreef op 08 augustus 2004 @ 17:45:
[...]
Zie apple dus
Ik heb dit weekend niet zoveel achter de pc gezeten, veel te warm.
Deze week ga ik zeker de XT testen, ook met de D3 "Humusfix"

Kan je trouwens geen ongelijk geven. Heb dit weekend mijn pc ook amper aangeraakt ivm het weer.
Uiteraard benieuwd naar je bevindingen (incl humusfix).
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 79835
Heb je het dan over het niet kunnen aanzetten van full trilinear filtering bij ATI drivers?Maverick schreef op 08 augustus 2004 @ 20:25:
[...]
denk dat er een klein verschil zit in optimalisaties die je er zelf in zet, of optimalisaties die zonder je medenweten door de drivers geinstalleerd worden en niet verwijderbaar zijn.
Shaders vervangen is cheaten, dat was bij nvidia zo, dus is het bij ATI ook zo.
Nogmaals, ik heb 3 levels doorlopen met de tweak en bemerk vooralsnog geen verlies in kwaliteit of andere gekke dingen. Het lijkt er op dat diegene die artifacts meldden de game in medium quality draaiden, en/of daarnaast ook andere tweaks toegepast hadden. Het kan dus zo zijn dat de tweak niet in balans is in combinatie meer texture compressie (medium q.) Overigens schijnen er hier al fixes voor te zijn.Dat het wel ten koste van de image quality gaat lijkt me dan toch een relevant detail.
Onder een cheat versta ik dat het in Ati's driver toegepast zou worden zonder dat je het weet. Bovendien is deze tweak/fix (jij noemt het cheat) niet officiëel afkomstig van Ati.Shaders vervangen is cheaten, dat was bij nvidia zo, dus is het bij ATI ook zo.
[Voor 3% gewijzigd door Anoniem: 38733 op 09-08-2004 00:59]
Ook met shaders die herschreven zijn tot fp16 zie je het verschil vaak alleen in een directe vergelijking tussen screenshots. Toch zijn benchmarks niet echt zuiver meer zodra de ene kaart meer werk doet dan de andere. Op beyond3d zijn er echter ook een boel mensen die wel degelijk zichtbare verschillen hebben opgemerkt.Anoniem: 38733 schreef op 09 augustus 2004 @ 00:52:
[...]
Nogmaals, ik heb 3 levels doorlopen met de tweak en bemerk vooralsnog geen verlies in kwaliteit of andere gekke dingen.
Yeah well. The Dude abides.
Heb hier de regel ook veranderd, performance toename is identiek.
http://www.beyond3d.com/f...0&postorder=asc&start=240
Yeah well. The Dude abides.
Anoniem: 76476
www.microforce.be schijnt hem ook op voorraad te hebben...Anoniem: 91635 schreef op 06 augustus 2004 @ 09:28:
[...]
Ik weet niet meer waar ze x800xt op voorraad zijn. Ik heb gisteren wel iemand van www.ct-systemen.nl aan de telefoon gehad.
Deze zei dat ze de xfx 6800 ultra op voorraad hadden (4 stuks)
Hmm, ik weet nu bijna 90% zeker dat High Quality standaard 8xAF forceert:Biff schreef op 08 augustus 2004 @ 19:01:
[...]
Hmm, weet ik nog zonet niet. Als ik 8xAF forceer in het control panel ga ik toch 4 fps achteruit.
http://www2.hardocp.com/article.html?art=NjQ0LDM=High Quality is for those that have performance video cards with 256MB of local video card memory. High Quality does not compress normal maps at all, so there are no compression artifacts with any of the normal mapped textures. It does, however, compress specular and diffuse lighting. At High Quality, anisotropic filtering is automatically enabled at 8X. So along with the uncompressed normal map textures, you also are adding 8X anisotropic filtering to the performance and image quality equation. Depending on your system, we have found 128MB video cards that can handle High Quality mode very easily.
Urhm... nVidia doet bijna niets anders dan shaderreplacement in haar speciale compiler... en daar doet bijna niemand nu moeilijk over mits het maar dezelfde IQ oplevert. Als ATi een manier vind om dezelfde IQ te leveren door shaderreplacements, dan zie ik het probleem niet.Biff schreef op 08 augustus 2004 @ 19:10:
[...]
Het gaat hier natuurlijk wel om een shader-replacement die niet hetzelfde beeld produceert. Naast de artifacten zijn er ook al kleurverschillen in fog en helderheidsverschillen over het gehele beeld opgemerkt, en wie weet wat er nog meer boven water zal komen.
Hmm, er staat me toch behoorlijke ophef bij uit de tijd dat Nvidia's FX-shader replacements geringe veranderingen in de renderkwaliteit opleverde. Ik ga er dan maar vanuit dat dezelfde mensen deze replacement ook niet zullen tolereren.
[Voor 33% gewijzigd door CJ op 09-08-2004 13:38]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik vraag me tevens af hoe reviewers dit doen, zij tonen vaak precies dezelfde plaatjes genomen met verschillende videokaarten. Dit is enorm lastig als je hier geen speciaal iets voor hebt.
[Voor 11% gewijzigd door Anoniem: 38733 op 09-08-2004 13:42]
Anoniem: 81502
Anoniem: 79835
Dus je geeft toe dat het niet volledig trilineair filteren een cheat is.Anoniem: 38733 schreef op 09 augustus 2004 @ 00:52:
[...]
Onder een cheat versta ik dat het in Ati's driver toegepast zou worden zonder dat je het weet.
Hij komt van humus, een ATI werknemer. Komt dus wel van ATI, maar niet officeel.Anoniem: 38733 schreef op 09 augustus 2004 @ 00:52:
Bovendien is deze tweak/fix (jij noemt het cheat) niet officiëel afkomstig van Ati.
Bovendien is deze tweak niet toepasbaar in multiplayer mode. Een niet onbelangrijk detail. Net in mp heb je al je fps nodig.
Jaaaaaa eindelijk,ik heb daar de laatste besteldAnoniem: 120358 schreef op 09 augustus 2004 @ 09:32:
Dimension in Rotterdam heeft ook genoeg op voorraad.

ps.De Sapphire
[Voor 5% gewijzigd door Le_Freak ! op 09-08-2004 14:25]
Intel i9-9900K | MSI MPG Z390 Gaming Pro Carbon | MSI RTX 2080Ti Gaming X Trio | Ballistix Sport LT (32GB) | MSI Optix MAG274QRF-QD 1440p | Samsung 970 EVO Plus (2TB) | NZXT Kraken X52 | Valve Index | Fractal Design R6 | Synology DS420j
Ik werk bij de Rijksuniversiteit Groningen. Maar al mijn posts hier komen dus mooi niet van de RuG... niet officieel maar zeker ook niet onofficieel.Anoniem: 79835 schreef op 09 augustus 2004 @ 14:06:
[...]
Hij komt van humus, een ATI werknemer. Komt dus wel van ATI, maar niet officeel.


Wel komisch trouwens dat nV hem niet wilde.. zouden ze er nu spijt van hebben? Hij is tenslotte degene die een vorm van dynamic branching op ATi hardware ontwikkelde, wat voor een enorme boost kan zorgen op ATi hardware, en die dit soort speedboosts ontdekt in D3.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
die HIS ice 2 cooler, kan die ook op geforces gebruikt worden en is deze nou echt zoveel beter dan standaard koelers?
http://graphics.tomshardw...phic/20040723/his-01.html
Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR
Lijkt er niet op, hoe ik de slider ook zet ("application controlled", "4x" of "8x") levert allemaal dezelfde performance op. Alleen als ik de slider op "16x" zet merk ik echt iets,Xymox schreef op 09 augustus 2004 @ 14:47:
Is het dan zo dat de 8x anisotropic setting in Doom3 (High) geforceerd lager gezet kan worden dmv de ATI driver settings (en daarmee wellicht hogere performance krijgt) ?
maar dit is slechts -0,9fps.
Nee, je weet het toch?Dus je geeft toe dat het niet volledig trilineair filteren een cheat is.

Overigens erg flauw dat nVidia-gebruikers iedere keer weer met dit aankomen, als het geen aantoonbare vermindering in IQ oplevert (en dit is nu toch wel aangetoond) dan vind ik het prima. Ik ga toch ook niet iedere keer aanhalen dat Nv aan partial precision doet, oftewel, deels renderen in 16 bit? (wat dus gebeurd, ook in Doom3)
Je schijnt het niet te zien, nou, prima dan.
Een echte Apples to Apples vergelijking kunnen we daarom nooit maken, we zullen het met screenshots moeten doen.

[Voor 63% gewijzigd door Pollewob op 09-08-2004 20:56]
Anoniem: 93354
1024x786
high: 22fps
med: 24.8fps
1024x786 + 4.9beta
high: 23.4fps
med: 26.2Fps
alleen geeft die time demo geen goed beeld van de performance vind ik omdat die score vooral zo is door de framedrops want de gemiddelde fps is hoger geloof ik (heb nog niet gekeken met fraps).
Ik ben nu aan het spelen op 1024 op high en het loopt behoorlijk soepel zelfs als er vijanden komen. Ik ben alleen nog geen echt zware stukken tegen gekomen. Straks even die tweaks doen en misschien met kaart nog wat ocen (core doet 604mhz zonder arties in 3dmark dus hopelijk zorgt dat voor de nodige extra fps). Nu ik zelf zie dat ati ook in d3 niet slecht presteert heb ik toch maar besloten om aan het einde van een maand een x800pro te kopen (helaas geen xt want die vind ik echt te duur, dus dan maar hopen dat ik een modbare pro heb).
[Voor 13% gewijzigd door Anoniem: 93354 op 09-08-2004 15:25]
Hoe weet je dat nVidia hem niet wilde? Weet je ook waarom niet?CJ schreef op 09 augustus 2004 @ 14:55:
[...]Wel komisch trouwens dat nV hem niet wilde.. zouden ze er nu spijt van hebben? Hij is tenslotte degene die een vorm van dynamic branching op ATi hardware ontwikkelde, wat voor een enorme boost kan zorgen op ATi hardware, en die dit soort speedboosts ontdekt in D3.
t lijkt me iig een erg symphatieke gozer en enthusiast voor het vak als je z'n website bekijkt.
Het zou mooi zijn als zijn tweak vervolmaakt kan worden en wellicht middels een update voor D3 of middels drivers officieel uitgebracht kan worden.
Ben bang dat er toch nog ergens een addertje onder het gras zit. John Carmack zal toch wel een goede reden hebben dat ie het opgelost heeft zoals tie het opgelost heeft.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Je moet 'm minimaal 2 keer achter elkaar draaien, dan ben je van het 'cachen' af.alleen geeft die time demo geen goed beeld van de performance vind ik omdat die score vooral zo is door de framedrops want de gemiddelde fps is hoger geloof ik (heb nog niet gekeken met fraps).
Anoniem: 93354
Ik heb nu ook me 9600xt oced getest (500Mhz standaart, nu 540) en het geeft in de timedemo's 1 a 2 fps meer bij het gemiddelde. Ingame zit het rond de 35 a 45 (soms ook rond de 50-60) en het voelt soepel aan. Framedrops heb ik vooral als er veel effecten zoals rook zijn als er vijanden zijn heeft dat niet echt veel invloed op de fps.
Ik ook niet. Als het echt dezelfde IQ oplevert dan is er niks aan de hand. Bij deze hack waren er tot op heden echter wel zichtbare verschillen, en dat dan al zonder dat een gedetailleerde vergelijking dmv screenshots nodig was.CJ schreef op 09 augustus 2004 @ 13:35:
Urhm... nVidia doet bijna niets anders dan shaderreplacement in haar speciale compiler... en daar doet bijna niemand nu moeilijk over mits het maar dezelfde IQ oplevert. Als ATi een manier vind om dezelfde IQ te leveren door shaderreplacements, dan zie ik het probleem niet.
Overigens zijn de compiler en shader replacements van Nvidia niet hetzelfde ding. De compiler is een generieke oplossing die shadercode analyseert en probeert te herstructuren op een manier waarbij de GPU zo min mogelijk last heeft van zijn beperkte aantal registers. Shader replacements zijn daarentegen handgeschreven geoptimaliseerde versies van bekende shaders die door de driver worden herkend en vervangen. Daar kan het dan bijvoorbeeld wel voorkomen dat de programmeurs van Nvidia besluiten dat FP16 accuraat genoeg is voor een bepaalde shader, ook als de programmeur dat zelf niet bedacht had. Heb ik dus ook geen probleem mee als de iq er niet op achteruit gaat.
Yeah well. The Dude abides.
Zoals ie zelf al schreef aan Humus - hij wil dat de verschillende rendering paths er identiek uitzien, omdat de mensen die de Doom 3 artwork moesten maken daar vanuit moesten kunnen gaan.Help!!!! schreef op 09 augustus 2004 @ 15:29:
[...]
Ben bang dat er toch nog ergens een addertje onder het gras zit. John Carmack zal toch wel een goede reden hebben dat ie het opgelost heeft zoals tie het opgelost heeft.
Yeah well. The Dude abides.
Ja zoiets las ik ook op Beyond3d.Biff schreef op 09 augustus 2004 @ 15:52:
[...]
Zoals ie zelf al schreef aan Humus - hij wil dat de verschillende rendering paths er identiek uitzien, omdat de mensen die de Doom 3 artwork moesten maken daar vanuit moesten kunnen gaan.
Maar de vraag blijft toch open voor mij: Waarom precies deze oplossing kiezen als er een andere oplossing mogelijk is waarbij geen IQ probleem is waardoor een groot gedeelte van de kaarten op de markt betere prestaties kan halen.
(ik ga er nu even vanuit dat als JC zelf de aanpassingen zou doen, dat dan ook de af en toe optredende artifacts verdwijnen.)
IIG interessant om te zien hoe dit zich verder ontwikkelt.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
[edit]
http://esprit.campus.luth.se/~humus/
alleen dat van Jehova kan ik zo niet terug vinden, dacht dat wel eens gelezen te hebben op zijn site
[Voor 37% gewijzigd door hjs op 09-08-2004 16:16]
Yep.hjs schreef op 09 augustus 2004 @ 16:10:
Humus (Emil Persson) werkt toch nog maar een paar maanden (weer) bij ATI?
Jehova? Daar geloof ik niks van haha. Humus zit vrij duidelijk aan de progressieve kant in de politieke discussies op beyond3d (en soms misschien wel een beetje té, lijkt mij soms wat op 't naieve af, maar goed) en religie speelt volgens mij geen enkele rol.Humus is toch die Zweeds Jehova getuigen welke altijd van die leuke demo's maakte en gevraagd is om bij ATI te werken?
Ach, check zijn wereldbeeld anders hier

[edit]
http://esprit.campus.luth.se/~humus/
alleen dat van Jehova kan ik zo niet terug vinden, dacht dat wel eens gelezen te hebben op zijn site
[Voor 6% gewijzigd door Biff op 09-08-2004 16:36]
Yeah well. The Dude abides.

[Voor 60% gewijzigd door edward2 op 09-08-2004 17:23]
Niet op voorraad.
Anoniem: 101975
Anoniem: 101975
Nv doet ook aan zulke "niet volledig trilineaire" optimalisaties (ook zo'n tri/bi combo) dus ik snap niet waarom dit steeds wordt aangehaald. mn omdat het bij ati een stuk minder/niet zichtbaar is...Anoniem: 79835 schreef op 09 augustus 2004 @ 14:06:
Dus je geeft toe dat het niet volledig trilineair filteren een cheat is.
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Anoniem: 119483
Anoniem: 93354

Anoniem: 41357
ik had zoiets gelezen in een benchmark, maar dat leek me heel erg sterk,, het verschil in prestaties is toch niet gering, en ook het prijs verschil niet

(btw dont flame me, maar hen geen tijd (28k8 modem) om heel het topic door te lezen

Ja dus je kan een pro naar een XT modden (De x800 pro vivo geeft de meeste slagingskans)
Urhm, je link doet het op dit moment niet voor mij, maar ik neem aan dat hij naar een His X800Pro IceQ review gaat?Deathchant schreef op 09 augustus 2004 @ 15:04:
ja ik kom dus uit het nvidiatopic met deze vraag:
die HIS ice 2 cooler, kan die ook op geforces gebruikt worden en is deze nou echt zoveel beter dan standaard koelers?
http://graphics.tomshardw...phic/20040723/his-01.html
Zo ja.... Ja die kan ook op GeForces gebruikt worden.
Arctic Cooling heeft zelfs twee speciale lijn uitgebracht van de nieuwe Silencers. Eentje voor ATi's (4 stuks) en eentje voor nV-kaarten (ook 4 stuks).
Zie hier een preview: http://pcmoddingmy.com/content.php?review.81
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Konica Minolta Dynax 7D | Mijn foto gallery | Biglines.nl

[Voor 20% gewijzigd door Aspje op 09-08-2004 20:55]
Anoniem: 101975
Yes plz, dat zou ik zeer op prijs stellen. Misschien bestel ik wel zo'n Vga Silencer terwijl ik wacht op m'n waterkoeling.Aspje schreef op 09 augustus 2004 @ 20:54:
Voor de mensen die twijfelen over de arctic cooling vga silencer, ik krijg mijn His X800Pro IceQ II als het goed is woensdag binnen. Als er interesse voor is kan ik er wel een minireview van maken
maar heb alleen een probleempje:
als ik 3dmark03 met mn kaart run:
haal ik niet meer dan 3300 punten!!!!
en in doom3 zit ik tussen de 20 en 40 fps! (1280x1024, ultra q)
dit is toch niet goed????
mn verdere specs zijn:
p4 3.0 ghz (niet oc'ed)
1024 mb ram
asus p4c800 deluxe moederboord
audigy 2 zs soundcard
EDIT: owjah, en ik draai nu op 4.9 beta, ook heb ik 4.7 geprobeerd (hetzelfde effect)
[Voor 28% gewijzigd door edgarf28 op 09-08-2004 22:09]

Tip: gebruik de volgorde, DX 9.b , moederbord drivers, geluid drivers als laatste GFX drivers.
BTW, Is de temp sensor van de X800 pro/XT intern(on die) of extern(een sensor onder koelblok) ik heb op de sapphire x800pro toxic een externe sensor gezien. Daarom deze vraag.
[Voor 71% gewijzigd door DaGreatRV op 09-08-2004 22:11]
jah, dit was ik morgen van plan om te gaan doen...DaGreatRV schreef op 09 augustus 2004 @ 22:07:
OS opnieuw installen, laatste drivers van al je hardware (Omega 2558 is goed)
hoe kan ik dat zien?? (dit ga ik wel ff morgen bekijken, ga eerst slapuh! zzzzzzzzz...)BTW, Is de temp sensor van de X800 pro/XT intern(on die) of extern(een sensor onder koelblok) ik heb op de sapphire x800pro toxic een externe sensor gezien. Daarom deze vraag.
[Voor 38% gewijzigd door edgarf28 op 09-08-2004 22:11]
Anoniem: 109887
dat had ik ook mijn mijn X800 PRO, dan moet je eens kijken bij je Direct3D en OpenGL instellingen. dan zal waarschijnelijk alles op wel op optimale kwaliteit staan, zet deze dan ff naar optimale prestatie. S6 ermeeedgarf28 schreef op 09 augustus 2004 @ 21:40:
zow! ik heb eindelijk (vanmiddag) mn Sapphire x800 XT binnen (van eynstein.nl)
maar heb alleen een probleempje:
als ik 3dmark03 met mn kaart run:
haal ik niet meer dan 3300 punten!!!!
en in doom3 zit ik tussen de 20 en 40 fps! (1280x1024, ultra q)
dit is toch niet goed????
mn verdere specs zijn:
p4 3.0 ghz (niet oc'ed)
1024 mb ram
asus p4c800 deluxe moederboord
audigy 2 zs soundcard

hier ff een screen:
ahh, klopt bij mij staat alles op optimale kwaliteit!Anoniem: 109887 schreef op 09 augustus 2004 @ 22:10:
[...]
dat had ik ook mijn mijn X800 PRO, dan moet je eens kijken bij je Direct3D en OpenGL instellingen dan zal waarschijnelijk alles op wel op optimale kwaliteit zet deze dan ff naar optimale prestatie. S6 ermee![]()
hier ff een screen:
[afbeelding]
ga het nog gelijk ff uitproberen!
bedankt!
Anoniem: 109887
Graag gedaanedgarf28 schreef op 09 augustus 2004 @ 22:12:
[...]
ahh, klopt bij mij staat alles op optimale kwaliteit!
ga het nog gelijk ff uitproberen!
bedankt!

kun je ff je score laten zien, ff vergelijken met mijn X800 PRO.
echt bedankt, ik heb nu: 11544 punten!Anoniem: 109887 schreef op 09 augustus 2004 @ 22:15:
[...]
Graag gedaan![]()
kun je ff je score laten zien, ff vergelijken met mijn X800 PRO.
is dat genoeg/goed voor een x800 XT?
Anoniem: 109887
ik haal 11065 3DMARKS met mijn PRO op Core 505 / Mem 1120edgarf28 schreef op 09 augustus 2004 @ 22:23:
[...]
echt bedankt, ik heb nu: 11544 punten!
is dat genoeg/goed voor een x800 XT?
maar het ligt er natuurlijk ook aan de rest van je pc.
Dat zou ik niet doen, want volgens mij filter je dan bilineair.zet deze dan ff naar optimale prestatie.

De slider zou ik gewoon in het midden zetten, op "gebalanceerd", hiermee gaat je AA en AF op "toepassingsgebonden" maar je mipmap-niveau en structuurvoorkeur blijft zo op hoge kwaliteit. Zo kun je perfect 3dmark03 draaien en moet een score van 11.500/12.000 mogelijk zijn.
Als je daarna een spelletje gaat spelen zet je een vinkje bij "aangepaste instellingen",
hier kan je vervolgens je AA en AF voor spellen instellen.
Anoniem: 109887


Vervolgens als je spellen gaat spelen zet je een vinkje in het vakje "aangepaste instellingen gebruiken", en dan klik je op "aangepast". Hier kun je dan de mate van AA en AF (=eyecandy

Overigens, 3300punten met een X800XT in 3dmark03...., dan is/was er echt ff iets anders aan de hand. Het lijkt er meer op dat je dan AA op 6 hebt staan, AF op 16 en de resolutie op 1600x1200.

(bij een vroeger testje haalde ik namelijk iets van 8000 op 1280x1024 met 4xAA/8xAF)
[Voor 26% gewijzigd door Anoniem: 38733 op 10-08-2004 05:23]
Niet op voorraad.
Als je je benchmarks met anderen wilt vergelijken lijkt het me best wel zinvol om een standaardinstelling te gebruiken zodat je apples met apples vergelijkt. De slider naar optimale prestatie schuiven staat zover ik weet gelijk aan bilineair filteren, volgens mij wil(len) je (we) dit niet.Er is geen geen standaard stand waarop je iets moet zetten, dat hangt van je eigen voorkeur af. Voor benchmarken gebruik je evt optimale prestatie
Ach als je je instelling maar vermeld kan je ook appels vergelijkenAnoniem: 38733 schreef op 10 augustus 2004 @ 11:50:
[...]
Als je je benchmarks met anderen wilt vergelijken lijkt het me best wel zinvol om een standaardinstelling te gebruiken zodat je apples met apples vergelijkt. De slider naar optimale prestatie schuiven staat zover ik weet gelijk aan bilineair filteren, volgens mij wil(len) je (we) dit niet.

En bovendien is het ook wal interressant om op verschillende AF en AA settings te draaien.
Maar ik had het over games eigenlijk.
[Voor 23% gewijzigd door edward2 op 10-08-2004 12:47]
Niet op voorraad.

Zal meteen ff een paar test doen

Anoniem: 103892
Ohja . . . en waar heb je hem vandaan ? En hebben ze toevallig ook de X800 XT van ASUS ?SI4live schreef op 10 augustus 2004 @ 12:52:
Eindelijk krijg ik de Sapphire x800 xt morgen binnen
Zal meteen ff een paar test doen


Volgens mij kan op dit moment geen één winkel de ASUS X800 XT leveren...
Anoniem: 103892
memplus ??? Ze hebben ook een website neem ik aan ? het is iig geen www.memplus.nl, maar wat is het dan ?SI4live schreef op 10 augustus 2004 @ 13:06:
heb hem via memplus
Volgens mij kan op dit moment geen één winkel de ASUS X800 XT leveren...

En nee volgens mij hebben ze XT van ASUS ook nog nergens, maar wil er wel bij zijn als de eerste serie binnen is

sorry was link vergeten, maar dit is hem www.memoryplus.nl.Anoniem: 103892 schreef op 10 augustus 2004 @ 13:11:
[...]
memplus ??? Ze hebben ook een website neem ik aan ? het is iig geen www.memplus.nl, maar wat is het dan ?![]()
En nee volgens mij hebben ze XT van ASUS ook nog nergens, maar wil er wel bij zijn als de eerste serie binnen is
Zie net dat ik de laatste heb besteld

[Voor 9% gewijzigd door Le_Freak ! op 10-08-2004 13:29]
Anoniem: 66398
mn verdere specs zijn:Le_Freak ! schreef op 10 augustus 2004 @ 13:24:
IK weet niet wat je specs zijn maar lijkt me niet echt veel (edgarf28)
p4 3.0 ghz (niet oc'ed)
1024 mb ram
asus p4c800 deluxe moederboord
audigy 2 zs soundcard
cat. 4.9 beta
Anoniem: 91635
Zal binnenkort wat benchmarks laten zien. T'is nu ff te heet. pfff

Screenshots zijn genomen in de volgende settings:
1280x1024, Ultra Q., 4xAA, 16xAF (forced in CP). FPS wordt links bovenin de screenshot weergegeven. Plaatjes zijn klikbaar naar volledig scherm. Screens zijn in jpg met weinig compressie, dus van goede kwaliteit. (Adobe's 8x)
Ik onthoud me verder even van commentaar over de verschillen tussen de Humusfix en het origineel, dat mogen jullie doen.

Origineel:

Humusfix:

Origineel:

Humusfix:

Origineel:

Humusfix:

Origineel:

Humusfix:

Origineel:

Humusfix:

Origineel:

Humusfix:

Origineel:

Humusfix:

[Voor 26% gewijzigd door Anoniem: 38733 op 10-08-2004 21:34]
http://www.rage3d.com/boa...p?t=33774493&page=4&pp=30
EDIT: link gefixedFor everyone, try the lastest tweak:
http://esprit.campus.luth...doom3PerformanceTweak.rar
This should better match the original shader and be faster. So far no reports on artifacts.
Also, extracting this into the base directory instead of editing the file is a better approach since it's not disturbing multiplayer. Note though that in multiplayer you won't see any performance increase since it will use the shader from the .pk4 file.

[Voor 20% gewijzigd door SI4live op 10-08-2004 19:53]

[Voor 62% gewijzigd door Anoniem: 38733 op 10-08-2004 18:19]
Ik heb bijna hetzelfde syteem als jij (zelfde mobo, geheugen, soundcard)edgarf28 schreef op 10 augustus 2004 @ 16:37:
[...]
mn verdere specs zijn:
p4 3.0 ghz (niet oc'ed)
1024 mb ram
asus p4c800 deluxe moederboord
audigy 2 zs soundcard
cat. 4.9 beta

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Is 'ie wel, maar de URL is f**cked up in de quote.Anoniem: 38733 schreef op 10 augustus 2004 @ 18:16:
Volgens mij wel maar zeker weten doe ik 't (nog) niet. (file is niet aanwezig op server)
http://esprit.campus.luth...doom3PerformanceTweak.rar

[Voor 21% gewijzigd door Anoniem: 38733 op 10-08-2004 21:47]

alleen is die humus versi in de achtergrond wat minder donker soms...
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Grootste verschil is dan ook links boveninPuppetmaster schreef op 10 augustus 2004 @ 22:11:
kzie niet veel verschil als je tussen de 2 plaatjes heen en weer switched
alleen is die humus versi in de achtergrond wat minder donker soms...

Dit topic is gesloten.