Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 25 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 1.924 views sinds 30-01-2008

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

Jejking schreef op zaterdag 15 oktober 2005 @ 11:39:
En wat dacht je van dit: er zijn momenteel nog geen benchmarks waaruit ATi's voordeel op dit moment blijkt, tenminste... dan heb ik het over benchies of techdemo's waarin veel Dynamic Branching geprogrammeerd zit. Of zit ik er nu gigantisch naast? Tell me...
Er zijn ook niet zoveel benchmarks waarin aan Vertex Texture Fetching word gedaan toch? ;)
Anyway, de SM3.0 implementatie van ATi is momenteel gewoon beter dan die van nV. Kunnen we lang over doorbabbelen, maar that's simply the way it is. Alleen kan ik me wel voorstellen dat mensen klagen dat je niet moet suggereren dat je alle SM3.0 features 100% ondersteund als dat niet het geval is.... maar goed, het blijft marketing natuurlijk...
Maar voor de rest: wat betreft Soft Shadows en HDR e.d. is de X1800XT toch wel fors wat sneller dan de 7800GTX, zie Extremetech.com's test in SC:CT [afbeelding] en [afbeelding]
Ook dat is waar, hoewel ik ATi zeker nog niet tot definitieve winnaar op dit gebied zou willen uitroepen. Er zijn momenteel geruchten dat nV geen 512mb GTX, maar een 512mb Ultra gaat releasen komende maand.
Verder vallen de benches op Extremetech nogal opvallend slecht uit voor de GTX... ik denk dat de GTX op Extremetech van alle reviews zo'n beetje het "slechtst" presteerd in vergelijk met de X1800XT.
Als je de review van Rage3D erbij pakt, waar de reviewers eens de moeite genomen hebben om de recentste nV drivers te gebruiken, dan zul je zien dat het verschil al heeeel wat kleiner is - en in ieder geval gedeeltelijk toe te schrijven aan het 25% snellere geheugen van de XT.

http://www.rage3d.com/reviews/video/atix1800xt/charts/scctsm_he_016.gif

http://www.rage3d.com/reviews/video/atix1800xt/charts/scctsm_he_416.gif
oeLangOetan schreef op zaterdag 15 oktober 2005 @ 11:36:
A quick example I just tried : mandelbrot set algorithm rendered on moving mid size triangles. G7x architecture really likes it (lot of mads, scalar and vec2 instructions). I compute 129 iterations (-> ~400 instructions) :

7800GTX : 35.6 Mpix/s
X1800XL (my XT is back to ATI) : 13.1 MPix/s

Now I use a loop with a break under condition to early out when more iterations are not needed :

7800GTX : 17.7 MPix/s
X1800XL : 29.4 MPix/s
En in datzelfde stuk staat een testje waarin de GTX nog veel harder kontschopt... deze discussie is al eerder gevoerd. Sommige tests draaien snellen op ATi hardware, en andere op nV hardware... dus een "moet je kijken hoe ATi (of andersom: nV) in deze ene speciefieke test kont schopt" is nogal zinloos.
De uiteindelijke performance van de 2 architecturen in games is het enige wat er toe doet...

[Voor 18% gewijzigd door Cheetah op 15-10-2005 16:14]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

En de meest recente drivers zijn allemaal stuk voor stuk bèta ;)

Ik vind dat mensen eens moeten ophouden met WHQL-drivers te vergelijken met bèta. En ja, ik zou dit ook zeggen als ATi een bèta uitbrengt waarin de AA-performance met 35% omhooggaat in OpenGL!

Imho is ATi een leuk verrassend merk maar de benchmarks moeten gewoon officieel blijven en niet achterbaks via omwegen genaamd bètadrivers, want dan schrijven we met gemak nog 3 topics binnen 4 dagen vol over dat onderwerp (laten we dat maar niet doen overigens ;) )

PS: Ik ben blij dat FireFoxAG toch wel een beetje positief is nu over de R520-reeks, keep it going! 8)

[Voor 9% gewijzigd door Jejking op 15-10-2005 16:52]


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Je vraagt je dan wel eens af, of dat ATI er misschien niet beter aan gedaan had, om nog een maandje te wachten met de reviews
Aan de ene kant, idd wat meer tijd om te optimaliseren en ze hadden zo ook voor een betere directe beschikbaarheid kunnen zorgen. Aan de andere kant, nóg een maand volstrekte stilzwijging had Nvidia
meer in de kaart gespeeld (goed voor de 7800GTX omzet). Nu de mensen hebben kunnen zien wat de X1800XT voor potentie heeft zullen velen besluiten om niet voor een GTX te gaan maar nog even te wachten op de XT.

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Verder vallen de benches op Extremetech nogal opvallend slecht uit voor de GTX... ik denk dat de GTX op Extremetech van alle reviews zo'n beetje het "slechtst" presteerd in vergelijk met de X1800XT.
Misschien dat Extremetech één van de weinige sites is geweest die de GTX benchen op de manier waarop het eigenlijk moet? = HQ incl shimmerfix?

Misschien ben ik wat wantrouwig, maar ik ben er van overtuigd dat iedere reviewer met enigszins "groen" bloed gewoon de default Q mode gebruikt. En zéker als er niet vermeld wordt of er Q of HQ is gebruikt.

Edit; ik zie dat Rage 3D ook gewoon de default Q mode heeft gebruikt. Enkel voor een max iq testje
is er naar HQ overgeschakeld.

[Voor 48% gewijzigd door Apple|IA op 15-10-2005 17:54]


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

Jejking schreef op zaterdag 15 oktober 2005 @ 16:51:
En de meest recente drivers zijn allemaal stuk voor stuk bèta ;)

Ik vind dat mensen eens moeten ophouden met WHQL-drivers te vergelijken met bèta. En ja, ik zou dit ook zeggen als ATi een bèta uitbrengt waarin de AA-performance met 35% omhooggaat in OpenGL!

Imho is ATi een leuk verrassend merk maar de benchmarks moeten gewoon officieel blijven en niet achterbaks via omwegen genaamd bètadrivers, want dan schrijven we met gemak nog 3 topics binnen 4 dagen vol over dat onderwerp (laten we dat maar niet doen overigens ;) )
Net zoals jij stelt dat WHQL met WHQL moet worden vergelijken zouden anderen zeggen dat Available met Available moet worden vergeleken... en de X1800XT schittert op dit moment door zijn unavailability...
Tegen de tijd dat de X1800XT verschijnt is de 81.xx serie uit de betafase, en zodoende is het wel degelijk eerlijk om die driver mee te nemen. Ik hoor trouwens sowieso van de meeste gebruikers dat de 81.84 stabiel is...
PS: Ik ben blij dat FireFoxAG toch wel een beetje positief is nu over de R520-reeks, keep it going! 8)
Ik ben altijd al gematigd positief over de X1800XT geweest... ik heb zelfs al aangegeven deze te overwegen als opvolger voor mijn GTX (en zodoende mijn traditie van aanschaf van elke top ATi kaart sinds de Radeon1 voort te zetten ;)), alleen het extremisme van enige anderen hier deel ik niet.
Zoals ik al eens eerder heb gezegd schuw ik het absoluut niet de pijnpunten aan te wijzen... gezien de optimistische punten toch al flink belicht worden blijven voor mij helaas vaak de pijnpunten over - die de anderen liefst vermijden ;)

Wat ik trouwens wel teleurstellend vond bij release is dat de R520 de grootspraak van ATi marketing betreffende performance ("R520 will dominate") niet heeft kunnen waarmaken... zelfs de "last-minute" speedbump naar 625/1500 tilt hem niet ver boven stock GTX niveau (430/1200, we hebben het dan nog niet eens over GTX TOP (486/1350) gehad), en de GT verslaat gemiddeld genomen de XL. Het IQ plaatje ziet er wel weer redelijk wat beter uit dan bij nV...
ATi zal echter flink wat aan pricing en availability moeten doen om mij echt enthousiast te krijgen.

[Voor 6% gewijzigd door Cheetah op 15-10-2005 18:23]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Apple schreef op zaterdag 15 oktober 2005 @ 17:46:
[...]


Misschien dat Extremetech één van de weinige sites is geweest die de GTX benchen op de manier waarop het eigenlijk moet? = HQ incl shimmerfix?

Misschien ben ik wat wantrouwig, maar ik ben er van overtuigd dat iedere reviewer met enigszins "groen" bloed gewoon de default Q mode gebruikt. En zéker als er niet vermeld wordt of er Q of HQ is gebruikt.

Edit; ik zie dat Rage 3D ook gewoon de default Q mode heeft gebruikt. Enkel voor een max iq testje
is er naar HQ overgeschakeld.
Ik gebruik standaard HQ omdat ik geen shimmering wil zien. Heb iig de laatste tijd geen Q meer geprobeerd.

Denk dat, als shimmering nog steeds (opvallend/significant) zichtbaar is in Q, het terecht is als de reviewsites HQ zouden gebruiken en niet Q.

Ik kan me nl. niet voorstellen dat iemand een kaart van EUR 450 a 550 koopt om met "lage" grafische kwaliteit te spelen.

IMO moeten reviewers zich nog veel meer richten op:
Het vergelijken van FPS met gelijke IQ instellingen
Het weergeven van de FPS zoals HardOcp waarbij je kunt zien hoe erg en vaak de framedrops zijn.

-

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • Dangerous1986
  • Registratie: maart 2004
  • Laatst online: 14-12-2005

Dangerous1986

X1800XT :-)

Als NVidia met een 7800 Ultra Komt , En die krijgt 512MB 1.26ns ( 1500MHz ) en Eventueel 32 Pipes . Zou ATi dat misschien al sneller de R580 op de markt doen ivp Jan -Feb 2006 . Of lijkt jullie dit onwaarschijnlijk.

AMD 3000+ @ 2.7GHz Soon >>> FX60 :) | DFI LanParty UT RDX200 CF | G.E.I.L One Serie 1GB | ATi Radeon X1800XT 512MB | Maxtor DiamondMax 10 250GB 16MB | 3DMark05 Score = 10108


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 07:53
Dangerous1986 schreef op zaterdag 15 oktober 2005 @ 22:12:
Zou ATi dat misschien al sneller de R580 op de markt doen ivp Jan -Feb 2006 . Of lijkt jullie dit onwaarschijnlijk.
jan-feb 2006 mag je blij zijn als de xt's volop te verkrijgen zijn...ik zie die r580 het eerste half jaar sowieso nog niet verschijnen...

[Voor 4% gewijzigd door Mr. Detonator op 15-10-2005 22:17]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 27-09 21:55
Mr. Detonator schreef op zaterdag 15 oktober 2005 @ 22:17:
[...]


jan-feb 2006 mag je blij zijn als de xt's volop te verkrijgen zijn...ik zie die r580 het eerste half jaar sowieso nog niet verschijnen...
Eind november/December lijkt me meer waarschijnlijk.

Maar ATi gaat die R580 hard nodig hebben tegen een eventuele ultra. En de G80 weer tegen de R600.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
FirefoxAG schreef op zaterdag 15 oktober 2005 @ 16:05:
En in datzelfde stuk staat een testje waarin de GTX nog veel harder kontschopt... deze discussie is al eerder gevoerd. Sommige tests draaien snellen op ATi hardware, en andere op nV hardware... dus een "moet je kijken hoe ATi (of andersom: nV) in deze ene speciefieke test kont schopt" is nogal zinloos.
De uiteindelijke performance van de 2 architecturen in games is het enige wat er toe doet...
niemand wilde luisteren toen de resultaten van de GFFX reeks zeer slecht waren in 3DMark03, men schreeuwed "synthetische benchmarks bewijzen niets", 2 jaar later blijkt dat de kaarten ook slecht presteren als er gebruik wordt gemaakt van sm2.0, ik zie nu hetzelfde gebreuren.
nV kaarten hebben traditioneel zeer sterke prestaties in de games die mainstream zijn als de kaarten uitkomen, ati kaarten lopen altijd een stukje voor & kunnen ook de games aan van de next gen, de generatie waarvoor ze gemaakt zijn.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 27-09 21:55
Als die geruchten van die ultra met 1.2 ns mem en 0.09µ waar zijn heeft ati een klein probleem. Want deze zo volgende maand in de schappen moeten liggen. En ATi heeft de R580 pas en Jan/Feb. Dus de X1800 XT verkopen zullen dan wel niet geweldig gaan worden. Want in de huidige games doet de GTX het goed laat staan een hoger geclockte met meer een sneller geheugen en eventueel ook meet pipes.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • fikkie_84
  • Registratie: januari 2004
  • Laatst online: 17:18
oeLangOetan schreef op zaterdag 15 oktober 2005 @ 23:11:
[...]

niemand wilde luisteren toen de resultaten van de GFFX reeks zeer slecht waren in 3DMark03, men schreeuwed "synthetische benchmarks bewijzen niets", 2 jaar later blijkt dat de kaarten ook slecht presteren als er gebruik wordt gemaakt van sm2.0, ik zie nu hetzelfde gebreuren.
nV kaarten hebben traditioneel zeer sterke prestaties in de games die mainstream zijn als de kaarten uitkomen, ati kaarten lopen altijd een stukje voor & kunnen ook de games aan van de next gen, de generatie waarvoor ze gemaakt zijn.
Dus volgens uw redenering moet de x800 generatie dus sm3.0 aan kunnen aangezien dit "next gen" is en aangezien enkel nvidia dit al de vorige generatie ondersteunde is uw uitspraak wel een beetje vreemd te noemen.
het zou dan toch eerder andersom moeten zijn aangezien de vorige generatie van nvidia de nieuwe generatie games wel aankan en de vorige generatie van ati enkel het sm2.0 pad aankan ....
oeLangOetan schreef op zaterdag 15 oktober 2005 @ 23:11:
[...]

niemand wilde luisteren toen de resultaten van de GFFX reeks zeer slecht waren in 3DMark03, men schreeuwed "synthetische benchmarks bewijzen niets", 2 jaar later blijkt dat de kaarten ook slecht presteren als er gebruik wordt gemaakt van sm2.0, ik zie nu hetzelfde gebreuren.
nV kaarten hebben traditioneel zeer sterke prestaties in de games die mainstream zijn als de kaarten uitkomen, ati kaarten lopen altijd een stukje voor & kunnen ook de games aan van de next gen, de generatie waarvoor ze gemaakt zijn.
QFT. :)

Gigabyte heeft overigens 2 dagen geleden een officieel bericht online gezet over de lancering van hun X1K serie. Alle kaarten staan er in en het schijnt dat ze optimistisch zijn over de leverbaarheid van de gehele range.
GIGABYTE TECHNOLOGY Co. Ltd., a world-leading VGA card manufacturer, today announces GV-RX18, GV-RX16 and GV-RX13 series that will feature the revolutionary 90- nanometer Radeon® X1800, X1600 and X1300-series of visual processors. The GV-RX18, GV-RX16 and GV-RX13 are manufactured with 90 nanometer technology that, together with ATI’s new Radeon® X1000-series architecture, generates less heat while achieving new clock speed and memory speed records for tomorrow’s demanding applications.

Features of the new GIGABYTE’s GV-RX18, GV-RX16 and GV-RX13 series include an ultra-threaded 3D core architecture and full support for Microsoft® Direct® X 9.0 Shader Model 3.0 for unprecedented graphics rendering performance and blazingly fast graphics processing speeds. Furthermore, parts of the GV-RX18, GV-RX16 and GV-RX13 series also include GIGABYTE’s unique VGA card solutions, such as powerful Turbo Force Technology and soundless Silent-Pipe thermal design, which delivers the unrivaled 3D performance and system stability for PC gaming. The flag-ship GV-RX18 series features a 512-bit ring-bus memory controller with the fastest available rendering engine, a new cache design and improved Hyper Z™ technology to ensure outstanding data flow.

Providing futuristic image quality, the GV-RX18, GV-RX16 and GV-RX13 series include 3Dc™ image enhancement technology and support for High Dynamic Range (HDR) that takes advantage of subtle light, texture, and color intricacies to create incredibly realistic environments. This is achieved by representing color and intensity values with higher levels of precision to improve the details in terms of characters and scenes. Additionally, it also introduces an advanced anti-aliasing engine, dynamic soft shadow technology, and unique Parallax Occlusion Mapping that, through ray-tracing technology, simulates the natural ray refraction and ensuring unbelievable graphics realism.

In addition to image quality improvement, the GV-RX18, GV-RX16 and GV-RX13 series are all equipped with a new modular video and display platform from ATI called Avivo™ that provides vibrant high fidelity video playback. Avivo™ technology allows the user’s PC to act as a media through its video pipeline design that includes the latest high definition video hardware acceleration. What’s more, with its universal connectivity, Avivo™ makes it easy to connect all kinds of digital devices, such as home theater systems, LCD monitors, HDTVs, projectors, and Notebooks. For more details about the GIGABYTE RX18, RX16 and RX13-series of VGA cards, please visit the official GIGABYTE VGA website: http://tw.giga-byte.com/VGA.
Bron: http://tw.giga-byte.com/VGA

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
fikkie_84 schreef op zondag 16 oktober 2005 @ 02:00:
[...]
Dus volgens uw redenering moet de x800 generatie dus sm3.0 aan kunnen aangezien dit "next gen" is en aangezien enkel nvidia dit al de vorige generatie ondersteunde is uw uitspraak wel een beetje vreemd te noemen.
nee volgens mijn redenering kan is de x800 uitmuntend in sm2.0 & is de x1800 uitmuntend in sm3.0 shaders wat niet kan worden gezegd over de GF6 of de GF7 (=goed in sm2.0, sm3.0 is een "gimmick", hoewel ze de sm3.0 prestaties hebben verbeterd met de G70)

[Voor 17% gewijzigd door oeLangOetan op 16-10-2005 10:07]


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
oeLangOetan schreef op zondag 16 oktober 2005 @ 09:52:
[...]

nee volgens mijn redenering kan is de x800 uitmuntend in sm2.0 & is de x1800 uitmuntend in sm3.0 shaders wat niet kan worden gezecht over de GF6 of de GF7 (=goed in sm2.0, sm3.0 is een "gimmick", hoewel ze de sm3.0 prestaties hebben verbeterd met de G70)
Niks te klagen over de SM3.0 prestaties sinds de laatste paar gereleaste beta drivers eigenlijk :). Ik zie daarom tot de R600 of misschien zelfs R700 ook geen reden om up te graden. Daarentegen twijfel ik er niet aan dat op dit vlak de X1800 serie superieur is aan mijn 7800GTX, dat mag ook zeker aangezien men wel een half jaar langer heeft moeten wachten op deze release. Ik zou het eerder raar hebben gevonden als de X1800 serie gelijkwaardig bleek aan de 7800 serie.

[Voor 22% gewijzigd door shuogg op 16-10-2005 09:59]

specs desktop | specs laptop


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
wejah shuogg, het was zelf de bedoeling dat de R520 vroeger ging lanceren dan de G70, maar dat is allemaal een beetje in het honderd gelopen.. echt spijtig zeker nudat de R580 al zo dicht komt, en met 3x de shading power (waarschijnlijk gaat hij wel niet zo snel lopen) & ik vraag mij af wat nvidia daar tegenover kan zetten... een G70 @ 90nm 32 pipes & 10 vertex shaders, ze gaan geen nieuwe architectuur meer maken voor dx9, ATi zou hun R600 architectuur al eind 2006-begin 2007 lanceren.

  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
oeLangOetan schreef op zondag 16 oktober 2005 @ 10:12:
wejah shuogg, het was zelf de bedoeling dat de R520 vroeger ging lanceren dan de G70, maar dat is allemaal een beetje in het honderd gelopen.. echt spijtig zeker nudat de R580 al zo dicht komt, en met 3x de shading power (waarschijnlijk gaat hij wel niet zo snel lopen) & ik vraag mij af wat nvidia daar tegenover kan zetten... een G70 @ 90nm 32 pipes & 10 vertex shaders, ze gaan geen nieuwe architectuur meer maken voor dx9, ATi zou hun R600 architectuur al eind 2006-begin 2007 lanceren.
Eerlijk gezegd verwacht ik dat ATi met de R580 het DX9 tijdperk af zal sluiten als winnaar qua performance. Ik zie de G70 niet zoveel adem hebben als de R580 wanneer ik de verhalen over de laatste zo hoor. Ik ben eigenlijk ook niet zo erg geinteresseerd meer in DX9, ik heb meer interesse in de eerste DX10 kaarten, temeer omdat ATi ook nog eens komt met een echte unified shader architecture op de desktop.

specs desktop | specs laptop


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 07:53
in de UK wordt ie 28 november verwacht....ben benieuwd

http://img394.imageshack.us/img394/8504/late7hp.jpg

Er zijn ondertussen wel al mondjesmaat xl's te krijgen op enkele plaatsen...alleen dat schijnen nogal heethoofden te zijn... 80graden is geen uitzondering...90 graden zelfs enkele met stockcooling...met waterkoeling rond de 60-70

zie hier: http://www.xtremesystems.org/forums/showthread.php?t=76260

[Voor 64% gewijzigd door Mr. Detonator op 16-10-2005 13:34]


  • Legendary1983
  • Registratie: januari 2004
  • Laatst online: 22-01-2009
met cat. 5.10 kan je geen Adaptive-AA meer aanzetten in ATi Tray Tools :?

Darkmoon Faire [EU] Craoker - Undead Warrior


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
Legendary1983 schreef op zondag 16 oktober 2005 @ 13:58:
met cat. 5.10 kan je geen Adaptive-AA meer aanzetten in ATi Tray Tools :?
Volgens mij moet je weer opnieuw de waardes veranderen..

  • markjuh
  • Registratie: juli 2000
  • Laatst online: 26-07 16:49
Even over de pricing. Als ik kijk bij onze leveranciers staat de XL al wel op de lijst en vanaf volgende week goed leverbaar. Althans, dat zeggen zij. En de prijs van de XL is nagenoeg gelijk met de GT versie van NV. Dus ik denk dat dat wel goed zit. maarja, eerst maar eens levebaar zijn.

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 17:05

Pubbert

random gestoord

http://www.hardwaretotaal...lt.php?keywords=ACT22290x

Hardwaretotaal.nl heeft de X1800XL op voorraad :)

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

oeLangOetan schreef op zaterdag 15 oktober 2005 @ 11:36:
[...]

Ga eens op zoek naar de benchmarks die dynamic of static branching gebruiken, het verschil wordt enorm.

van de reviewer van hardware.fr:

[...]
Ik zei dus game benchmark. Geen synthetische rommel. Kom maar op met die sm3 done right.
SpankmasterC schreef op zaterdag 15 oktober 2005 @ 14:22:
[...]


Natuurlijk zijn er nog geen game benchmarks die het verschil in Branching speed laten zien, aangezien alle huidige SM3 games ontwikkeld zijn op geforce 6/7 serie, en dus amper gebruik maken van dynamic branching omdat de geforce kaarten dit niet goed/snel ondersteunen.
SM3 is meer dan alleen wat dynamic branching.

[Voor 39% gewijzigd door HaLDoL op 17-10-2005 10:03]

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 07:53
dan moet je wel snel zijn, want er staan er maar 1 - 3 op voorraad.
HaLDoL schreef op maandag 17 oktober 2005 @ 10:01:
[...]

Ik zei dus game benchmark. Geen synthetische rommel. Kom maar op met die sm3 done right.

[...]

SM3 is meer dan alleen wat dynamic branching.
Dynamic branching is wel "de feature" van SM3.0. Wat betreft IQ kan zo'n beetje alles wel met SM2.0 gedaan worden. SM3.0 zou juist gebruikt moeten worden om performancewinst te maken en dat doe je vooral door dynamic branching.

Huidige games maken er nog zelden gebruik van omdat nV's huidige implementatie niet snel genoeg is en ze de devs zelfs ook nog aanraden om het spaarzaam te gebruiken. ATi heeft nu blijkbaar high speed branching geimplementeerd die SM3.0 echt tot z'n recht laat komen.

Zo'n benchmark kan wel degelijk een indicatie zijn van de toekomst. Dit bleek ook al ten tijde van de R300 en NV30 toen ze uitkwamen. De meeste tests waren toen DX8 tests en daarin kon de FX5800U prima mee komen met de 9700Pro en was soms sneller. Maar de eerste DX9 tests die toen uitkwamen lieten een gigantisch verschil zien, wat achteraf gezien ook nog eens waarheid werd. Ik kan me nog herinneren dat veel nV-fans toen zeiden dat het allemaal wel zou meevallen, maar die weten nu wel beter.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Legendary1983
  • Registratie: januari 2004
  • Laatst online: 22-01-2009
jimbojansen90 schreef op zondag 16 oktober 2005 @ 17:26:
[met cat. 5.10 kan je geen Adaptive-AA meer aanzetten in ATi Tray Tools :? ]

Volgens mij moet je weer opnieuw de waardes veranderen..
je bedoelt in de register prutsen?

[Voor 15% gewijzigd door Legendary1983 op 17-10-2005 13:36]

Darkmoon Faire [EU] Craoker - Undead Warrior


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

CJ schreef op maandag 17 oktober 2005 @ 12:37:
[...]


Dynamic branching is wel "de feature" van SM3.0. Wat betreft IQ kan zo'n beetje alles wel met SM2.0 gedaan worden. SM3.0 zou juist gebruikt moeten worden om performancewinst te maken en dat doe je vooral door dynamic branching.

Huidige games maken er nog zelden gebruik van omdat nV's huidige implementatie niet snel genoeg is en ze de devs zelfs ook nog aanraden om het spaarzaam te gebruiken. ATi heeft nu blijkbaar high speed branching geimplementeerd die SM3.0 echt tot z'n recht laat komen.

Zo'n benchmark kan wel degelijk een indicatie zijn van de toekomst. Dit bleek ook al ten tijde van de R300 en NV30 toen ze uitkwamen. De meeste tests waren toen DX8 tests en daarin kon de FX5800U prima mee komen met de 9700Pro en was soms sneller. Maar de eerste DX9 tests die toen uitkwamen lieten een gigantisch verschil zien, wat achteraf gezien ook nog eens waarheid werd. Ik kan me nog herinneren dat veel nV-fans toen zeiden dat het allemaal wel zou meevallen, maar die weten nu wel beter.
Het verschil is dat de G70 niet de high end gpu gaat zijn als er volop sm3 games beschikbaar gaan zijn (en de X1800XT ook niet). De FX was slecht in dx9, de G70 is niet niet slecht in SM3, enkel wat minder in branching, daartegenover: ati kan geen vertex texture fetch. De G70 is al een dikke 4 maanden op de markt en ik zie nog altijd geen sm3 game waarin het de beste ati kaart van het moment niet verslaagt (de XL dus). Verwijzen naar de FX periode is dus gewoon belachelijk, zeker als dat je enige argument voor sm3 done right is.
En ik wacht dus nog steeds op een game benchmark waarin blijkt dat ATi's SM3 done right is. Anders bewijzen jullie toch maar dat AT PR het weer eens verkeerd had.

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Tyranium
  • Registratie: december 2003
  • Niet online

Tyranium

Ero-sennin

En ook een van de grootste verschillen tussen NV30 vs. R300 en G70 vs. R520 is wel: NV30 was luidruchtiger, warmer, grotere koeler, verbruikte meer energie. Dit is nu compleet omgedraait; Nu heeft de G70 een kleine singleslot koeler, de R520 een luidruchtigere doubleslot koeler, wordt veel warmer + verbruikt veel meer energie. Okeey, dan is de R520, die maanden later uitkomt, iets sneller.. maar hij heeft op veel andere punten flink moeten inleveren.

  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
CJ schreef op maandag 17 oktober 2005 @ 12:37:
[...]


Dynamic branching is wel "de feature" van SM3.0. Wat betreft IQ kan zo'n beetje alles wel met SM2.0 gedaan worden. SM3.0 zou juist gebruikt moeten worden om performancewinst te maken en dat doe je vooral door dynamic branching.

Huidige games maken er nog zelden gebruik van omdat nV's huidige implementatie niet snel genoeg is en ze de devs zelfs ook nog aanraden om het spaarzaam te gebruiken. ATi heeft nu blijkbaar high speed branching geimplementeerd die SM3.0 echt tot z'n recht laat komen.

Zo'n benchmark kan wel degelijk een indicatie zijn van de toekomst. Dit bleek ook al ten tijde van de R300 en NV30 toen ze uitkwamen. De meeste tests waren toen DX8 tests en daarin kon de FX5800U prima mee komen met de 9700Pro en was soms sneller. Maar de eerste DX9 tests die toen uitkwamen lieten een gigantisch verschil zien, wat achteraf gezien ook nog eens waarheid werd. Ik kan me nog herinneren dat veel nV-fans toen zeiden dat het allemaal wel zou meevallen, maar die weten nu wel beter.
Dynamic Branching zou ik niet direct performancewinst noemen bij de G70 :+
Maar goed, wat anderen al zeggen,het is nu wel anders dan bij de R300 vs. NV30 tijd. In de huidige SM3.0 games en de SM3.0 games die binnenkort uitkomen kan de G70 prima meekomen wat niet gold voor de FX5800 en de eerste DX9 games. Die distinctie moet je wel degelijk maken voordat je de G70 afschildert als een dergelijke flop.

specs desktop | specs laptop


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat niemand hier de 7800GTX afschildert als een flop, waarom zouden we ? Het is een goede kaart, punt. Er wordt gewoon gewezen op het punt dat ATI zijn SM3.0 kaart nét wat beter voorzien is voor SM3.0 ondersteuning. Maar de 7800GTX een slechte kaart ? Dat kan niemand onderbouwen :)

  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
Phuncz schreef op maandag 17 oktober 2005 @ 15:43:
Maar de 7800GTX een slechte kaart ? Dat kan niemand onderbouwen :)
Ik heb al tientallen mensen het zien proberen op o.a. beyond3D, Rage3D en Driverheaven (de fora dus). Het zijn dan ook niet de meest ongebruikelijke sites waar men negatief is over nV maar toch :P

specs desktop | specs laptop


  • SmokeyTheBandit
  • Registratie: november 2000
  • Laatst online: 08-08 12:04

SmokeyTheBandit

DOCer met Pensioen

Phuncz schreef op maandag 17 oktober 2005 @ 15:43:
Ik denk dat niemand hier de 7800GTX afschildert als een flop, waarom zouden we ? Het is een goede kaart, punt. Er wordt gewoon gewezen op het punt dat ATI zijn SM3.0 kaart nét wat beter voorzien is voor SM3.0 ondersteuning. Maar de 7800GTX een slechte kaart ? Dat kan niemand onderbouwen :)
Idd laten we eerlijk wezen nvidia ondersteund deze functie nu al 2 generaties ruim een jaar dus.
ATI ondersteund deze functie nu dus pas en dan mag het ook wel wat beter zijn, ze hebben er dik een jaar langer de tijd voor gehad ! :+

Hoe zit het trouwens met Dual Core optimalisaties in de drivers bij ATI ?

[Voor 8% gewijzigd door SmokeyTheBandit op 17-10-2005 17:10]

Turn it off and on again.


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

shuogg schreef op maandag 17 oktober 2005 @ 17:04:
[...]


Ik heb al tientallen mensen het zien proberen op o.a. beyond3D, Rage3D en Driverheaven (de fora dus). Het zijn dan ook niet de meest ongebruikelijke sites waar men negatief is over nV maar toch :P
Dit is dan ook GoT en we zitten hier in het ATI Nieuwsdiscussie topic ;) Niet het ATI Fanboy topic :D :P
SmokeyTheBandit schreef op maandag 17 oktober 2005 @ 17:07:
[...]


Idd laten we eerlijk wezen nvidia ondersteund deze functie nu al 2 generaties ruim een jaar dus.
ATI ondersteund deze functie nu dus pas en dan mag het ook wel wat beter zijn, ze hebben er dik een jaar langer de tijd voor gehad ! :+
Je kan het ook zo bekijken: waarom heeft nVidia na 2 generaties nog steeds niet een volledige support voor SM3.0 ? Het is maar langs welke kant je door de lens kijkt ;)

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Huidige games maken er nog zelden gebruik van omdat nV's huidige implementatie niet snel genoeg is en ze de devs zelfs ook nog aanraden om het spaarzaam te gebruiken. ATi heeft nu blijkbaar high speed branching geimplementeerd die SM3.0 echt tot z'n recht laat komen.
Probleem is alleen zolang Nv nog een gebrek heeft aan branching performance, de game devs het zeer spaarzaam zullen toepassen, dus voorlopig zullen we het nog niet veel zien vermoed ik. Behalve dan
op Ati gerichte demo's of gamepatches zoals de komende Farcry patch. Ben benieuwd wat hier uit gaat komen.

Btw, "Parallax occlusion mapping", is dit een speciale "Ati only" feature? (dacht zoiets ergens gelezen te hebben in R520 specs)

http://www.noticias3d.com/articulos/200510/ati520/imagenes/sof0084.jpg

[Voor 22% gewijzigd door Apple|IA op 17-10-2005 18:15]


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op zaterdag 15 oktober 2005 @ 23:11:
nV kaarten hebben traditioneel zeer sterke prestaties in de games die mainstream zijn als de kaarten uitkomen, ati kaarten lopen altijd een stukje voor & kunnen ook de games aan van de next gen, de generatie waarvoor ze gemaakt zijn.
Ik zou dat "traditioneel" niet met zulke stellige zekerheid durven zeggen:

* Geforce2GS/Ti/Ultra was sneller dan de Radeon 32/64mb
* Geforce3 Ti500 (en met name Geforce 4 Ti) was sneller dan de Radeon 8500 Pro (64/128mb)

* Radeon 9700/9800 was sneller dan Geforce FX5800/5900 Ultra

Echter als we het gaan hebben over "ondersteuning van de next gen" zijn de SM3.0 Geforce 6800 kaarten wel degelijk "beter" dan de SM2.0b Radeon X800 serie.

Het is dus min of meer stuivertje wisselen tussen ATi en nV... van de vorige generatie (Geforce6) was de featureset van nV wat beter, en van de huidige generatie is de featureset van ATi wat beter.
Daarbij er overigens wel rekening mee houden dat de GTX tegen de tijd dat de XT echt leverbaar word (naar het schijnt eind November) al bijna 6 maanden op de markt is..!

Verder is het leuk om er op te hameren dat Dynamic Branching goed ondersteund word door de R520, maar het nut daarvan is zeer afhankelijk van of de coders het al dan niet besluiten toe te passen in hun games. Gezien er meerdere methoden schijnen te zijn om het effect van Dynamic Branching te berijken is het maar net de vraag of dit zal gebeuren...
oeLangOetan schreef op zondag 16 oktober 2005 @ 09:52:
nee volgens mijn redenering kan is de x800 uitmuntend in sm2.0 & is de x1800 uitmuntend in sm3.0 shaders wat niet kan worden gezegd over de GF6 of de GF7 (=goed in sm2.0, sm3.0 is een "gimmick", hoewel ze de sm3.0 prestaties hebben verbeterd met de G70)
Yupz... om even vrij te vertalen... ATi X800 RuLeZ (uitmuntend), ATi x1800 RuLeZ (uitmuntend) en nV valt tegen... daarbij even vergetende dat GF6 SM3.0 ten minste ondersteund, in tegenstelling tot X800...
De volgens jou zo belangrijke "ondersteuning van de next gen"... post je nu net even daarvoor...
Brilletje, kleurtje... en dergelijke ;)

[Voor 3% gewijzigd door Cheetah op 17-10-2005 18:53]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

Phuncz schreef op maandag 17 oktober 2005 @ 17:30:
Je kan het ook zo bekijken: waarom heeft nVidia na 2 generaties nog steeds niet een volledige support voor SM3.0 ? Het is maar langs welke kant je door de lens kijkt ;)
Bij gebrek aan concurrentie op een bepaald vlak word je ook niet echt gepord om iets substantieel te verbeteren ;)

Nu ATi SM3.0 "volledig" ondersteund zal het een kwestie van tijd zijn voordat nV dit ook gaat doen...
Gezien ATi er al een tijd mee om de oren werd gemept geen SM3.0 te ondersteunen - en ze al beweerden dat nV SM3.0 niet goed deed - moesten ze wel met een betere implementatie komen dan nV. nV reageert daarop weer met verbeteringen, vervolgens ATi weer etc.
Je hebt echter wel gelijk, het is een gemiste kans bij de 7800 serie, echter niet een waarbij ik verwacht dat gebruikers er heel binnenkort nadelen van ondervinden.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • SG
  • Registratie: januari 2001
  • Laatst online: 21-09 22:24

SG

SG surft naar info hardewaren

FirefoxAG schreef op maandag 17 oktober 2005 @ 18:52:
[...]
Ik zou dat "traditioneel" niet met zulke stellige zekerheid durven zeggen:

* Geforce2GS/Ti/Ultra was sneller dan de Radeon 32/64mb
* Geforce3 Ti500 (en met name Geforce 4 Ti) was sneller dan de Radeon 8500 Pro (64/128mb)

* Radeon 9700/9800 was sneller dan Geforce FX5800/5900 Ultra
Ik denk dat je zijn punt mist de 8500 is 'n oud beestje en ja de Gf3/4 waren ergens wel veel beter in

Maar nu kan je met BF2 Gf4 vergeten 8500 kan BF2 wel draaien zij het op ultra low.
Vanwege PS1.4. Wat nV in zijn DX8 kaarten mist.
Met nV keuze is niks mis mee. Dus ATI heeft met X8?0 SM2.0 ook die beleids keuze 'n keer genomen. Niet iedereen houd zijn G-kaart lang. voor hun is de huidge performance belangrijk. Dat zijn dan de Upgraders. Doe je langer met je keuze dan is future proof meer van belang. Als DX8 de mainstream is dan ga je voor die hardware als je regelmatig upgrade. zoals elk jaar. Doe je wat langer kan je beter meer budged vrijmaken en voor de modernste te gaan Dx9.
Nu ga je dus dan voor SM3.0 met 512MB

Dat ATi laat met SM3.0 komt is niet zo slecht. SM3.0 begint pas van belang te worden. Hangt dus van de consument af wat beter is. Uit eindelijk gaan reviews vaak uit van huidige performance zo is dat marketing gewijs voor review volgers ook van groot belang dan feature marketing.

Ik val onder die langere termijn figuren.

Ik zou dus
ipv GF4 voor 8500 gaan
ipv X850 voor 6800 gaan
ipv 7800 voor X1800 gaan.
ipv mainstream mem size voor next gen dus 'n 512MB kaart spreekt mij meer aan.

Daarnaast zal hun beleids keuze van meerdere factoren afhangen. Dus ze zijn niet zo traditioneel.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Apple schreef op maandag 17 oktober 2005 @ 18:06:
[...]


Probleem is alleen zolang Nv nog een gebrek heeft aan branching performance, de game devs het zeer spaarzaam zullen toepassen, dus voorlopig zullen we het nog niet veel zien vermoed ik. Behalve dan
op Ati gerichte demo's of gamepatches zoals de komende Farcry patch. Ben benieuwd wat hier uit gaat komen.

Btw, "Parallax occlusion mapping", is dit een speciale "Ati only" feature? (dacht zoiets ergens gelezen te hebben in R520 specs)

[afbeelding]
Parallax (of het occlusion is??)mapping zit al in Splintercell CT, Far Cry (64 bits versie, draait prima op 32 bits btw) en Doom3 (met 3mood offcourse) en wordt door NV sinds de 6800 ondersteund.
Ja je moet wel weten waar je je eyecandy haalt :D

Niet op voorraad.


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
edward2 schreef op maandag 17 oktober 2005 @ 19:33:
[...]


Parallax (of het occlusion is??)mapping zit al in Splintercell CT, Far Cry (64 bits versie, draait prima op 32 bits btw) en Doom3 (met 3mood offcourse) en wordt door NV sinds de 6800 ondersteund.
Ja je moet wel weten waar je je eyecandy haalt :D
Ah mooi, vond het verschil behoorlijk groot, tof om te weten dat die feature ook op m'n 7800GTX zit :)

specs desktop | specs laptop


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 17:05

Pubbert

random gestoord

FirefoxAG schreef op maandag 17 oktober 2005 @ 18:52:
[...]
Ik zou dat "traditioneel" niet met zulke stellige zekerheid durven zeggen:

* Geforce2GS/Ti/Ultra was sneller dan de Radeon 32/64mb
* Geforce3 Ti500 (en met name Geforce 4 Ti) was sneller dan de Radeon 8500 Pro (64/128mb)

* Radeon 9700/9800 was sneller dan Geforce FX5800/5900 Ultra
De Radeon was bedoeld als concurrentie voor de GeForce2MX, en niet met de Pro/GS/Ti/Ultra. De Radeon8500 was uiteindelijk wel sneller dan Geforce3(ti200/500) omdat de drivers zich steeds verbeterden. De Geforce4Ti was idd wél sneller dan de R8500.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
edward2 schreef op maandag 17 oktober 2005 @ 19:33:
[...]


Parallax (of het occlusion is??)mapping zit al in Splintercell CT, Far Cry (64 bits versie, draait prima op 32 bits btw) en Doom3 (met 3mood offcourse) en wordt door NV sinds de 6800 ondersteund.
Ja je moet wel weten waar je je eyecandy haalt :D
Het gaat mij om het woord "occlusion", is dit iets nieuws of is het eigenlijk niets meer of minder dan normale PM.

[Voor 14% gewijzigd door Apple|IA op 17-10-2005 21:03]


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
Apple schreef op maandag 17 oktober 2005 @ 21:01:
[...]


Het gaat mij om het woord "occlusion", is dit iets nieuws of is het eigenlijk niets meer of minder dan normale PM.
het is nieuw en zou zelf beter zijn dan relief mapping (soft self shadowing vs hard self shadowing), het maakt zeer veel gebruik van dynamic branching & zou daarom ook efficenter zijn dan relief mapping
waarschijlijk wel mogelijk op de G70 maar de performance zou er zeker niet zijn, de G70 kan misschien dezelfde resultaten halen met relief mapping, die techniek is wat meer brute force

  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
oeLangOetan schreef op maandag 17 oktober 2005 @ 21:21:
[...]

het is nieuw en zou zelf beter zijn dan relief mapping (soft self shadowing vs hard self shadowing), het maakt zeer veel gebruik van dynamic branching & zou daarom ook efficenter zijn dan relief mapping
waarschijlijk wel mogelijk op de G70 maar de performance zou er zeker niet zijn, de G70 kan misschien dezelfde resultaten halen met relief mapping, die techniek is wat meer brute force
Interessante techniek dan, benieuwd of het verder veel gebruikt gaat worden binnen afzienbare tijd.

specs desktop | specs laptop


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
edward2 schreef op maandag 17 oktober 2005 @ 19:33:
[...]
Parallax (of het occlusion is??)mapping zit al in Splintercell CT, Far Cry (64 bits versie, draait prima op 32 bits btw) en Doom3 (met 3mood offcourse) en wordt door NV sinds de 6800 ondersteund.
Ja je moet wel weten waar je je eyecandy haalt :D
je hebt het over gewoon parallax mapping, deze was al mogelijk met de r200 (maar met zeer veel artefacten, eigenlijk onbruikbaar), met de FP precisie van de R300 reeks werdt de techniek mogelijk met snelle performance & goede beeldqualiteit, eigenlijk dus een sm2.0 techniek
(ik denk dat het overgens slechts 5 of 6 instructies zijn, tov de 250/300 instructies voor relief mapping)

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Nou ben ik geen 3d expert, dus ik vraag me af, waarom gebruiken ze nog steeds fake technieken? Want dat is dit nog steeds allemaal. Waarom geen real 3d polygonen, loopt dan het aantal verticles teveel op?
Een goed voorbeeld is de map Ice Tombs in UT2004, dit 100% 3d, alleen statisch belicht en met goede performance.

Niet op voorraad.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

SuperG schreef op maandag 17 oktober 2005 @ 19:10:
Maar nu kan je met BF2 Gf4 vergeten 8500 kan BF2 wel draaien zij het op ultra low.
Vanwege PS1.4. Wat nV in zijn DX8 kaarten mist.
Daar noem je ook wat... BF2 is zeggen en schrijven de enige Dx8 ondersteunende game die perse PS1.4 vereist... Ik snap de keuze van EA daarvoor ook niet goed, want juist de snelste Dx8 kaarten (Geforce4) worden hierdoor niet door de game ondersteund. (Ze hebben hiervoor ook een berg kritiek over zich heen gehad, net als de maker van SC:CT voor het niet ondersteunen van PS2.0).

Echter, de "fout" van deze beslissing ligt i.m.o. eerder bij de game- dan bij de videokaartproducent.
En dan nog heb je weinig aan de PS1.4 ondersteuning van de 8500 gezien deze kaart gewoon te traag is om BF2 redelijkerwijs te ondersteunen. De snellere GF4 Ti's trekken in Dx8 rendering zelfs de FX5700 en FX5800 vaak eruit, en de Ti4600 zo nu en dan zelfs de Radeon 9700...
Als ik (nu) een Dx8 renderende kaart zou moeten kopen zou dat dus sowieso een Geforce4 zijn, en geen 8500... de BF2 kwestie daar gelaten trekt de GF4 in tegenstelling tot de 8500 nog steeds de nieuwste games prima, zij het met het Dx8 renderpath.
Niet iedereen houd zijn G-kaart lang. voor hun is de huidge performance belangrijk. Dat zijn dan de Upgraders. Doe je langer met je keuze dan is future proof meer van belang. Als DX8 de mainstream is dan ga je voor die hardware als je regelmatig upgrade. zoals elk jaar. Doe je wat langer kan je beter meer budged vrijmaken en voor de modernste te gaan Dx9.
Daar heb je idd gelijk in, gezien ik zelf zo'n "upgrader" ben bekijk ik het een beetje vanuit die hoek. De enige kaart die ik langer dan een jaar in mijn systeem heb gehad was een Radeon 9800 Pro, en dat laat ook meteen zien hoe goed die kaart was ;)
Dat ATi laat met SM3.0 komt is niet zo slecht. SM3.0 begint pas van belang te worden.
Vanuit het oogpunt van een "niet-upgrader" niet natuurlijk... gezien deze volgens eerdergenoemd voor een Geforce 6 ipv een Radeon X8x0 zou moeten kiezen... (maar dat gaf je zelf ook al aan) ;)
Toch is het grappige dat ik op dit moment in zo'n geval zelf een X8x0 zou adviseren (en ook al meerdere malen gedaan heb), gezien ik er op vertrouw dat de verreweg de meeste gameproducenten voorlopig het PS2.0 path in hun games laten zitten :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

Thund3r schreef op maandag 17 oktober 2005 @ 20:47:
De Radeon was bedoeld als concurrentie voor de GeForce2MX, en niet met de Pro/GS/Ti/Ultra.
Ik weet niet waar je dat vandaan hebt, maar de gewone Radeon 32mb/64mb DDR werd toch echt tegen de Geforce 2GTS/Pro/Ti/Ultra serie gepositioneerd... De Radeon SDR & LE waren de concurrent voor de MX serie.
Maar goed, 'tis ancient historie, en gezien de "nieuws" titel ook nog off-topic :P

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • _ep
  • Registratie: april 2003
  • Laatst online: 05-05-2019

_ep

Igor-to-the-Home!

edward2 schreef op maandag 17 oktober 2005 @ 21:31:
Nou ben ik geen 3d expert, dus ik vraag me af, waarom gebruiken ze nog steeds fake technieken? Want dat is dit nog steeds allemaal. Waarom geen real 3d polygonen, loopt dan het aantal verticles teveel op?
Een goed voorbeeld is de map Ice Tombs in UT2004, dit 100% 3d, alleen statisch belicht en met goede performance.
Ik denk dat het modelleren van deze dingen in het algemeen veel meer werk is dan een 'map' loslaten op een 2D plaatje. Je moet immers als het 'echt' moet in 3D werken, terwijl dit soort fake technieken gewoon 2D zijn. Plus de extra renderingcapaciteiten die nodig zijn voor 'echte' polygonen. Je ziet immers niet voor niets dat 'ronde' voorwerpen vaak nog steeds herkenbaar zijn als niet rond. Dat kost gewoon te veel polygonen om door huidige grafische kaarten verwerkt te kunnen worden. Het modelleren van een cirkel is immers eenvoudig, dus dat is het probleem daar niet. (Disclaimer: ik ben geen grafisch expert, dus wellicht sla ik de plank toch net ff mis :))
FirefoxAG schreef op maandag 17 oktober 2005 @ 21:36:
Vanuit het oogpunt van een "niet-upgrader" niet natuurlijk... [...]
Toch is het grappige dat ik op dit moment in zo'n geval zelf een X8x0 zou adviseren (en ook al meerdere malen gedaan heb), gezien ik er op vertrouw dat de verreweg de meeste gameproducenten voorlopig het PS2.0 path in hun games laten zitten :)
Ik had bijna een X800XTPE gekocht, maar naar goed gebruik besloten zo lang mogelijk te wachten omdat het alleen maar beter kan worden. Nu ga ik (mits de prijs en leverbaarheid ok zijn) toch voor een X1600. Prestaties zijn nu nog iets minder, maar ik ga er van uit dat drivers de kaarten wel op het zelfde nivo kunnen brengen. Tel daarbij op dat voor iemand als ik futureproofheid erg belangrijk is (ik wil graag minimaal 2 en liefst 3 jaar met de kaart kunnen doen) en dan denk ik dat de ondersteuning van nieuwe features toch een voordeel gaat zijn - ondanks het feit dat niet alles op topsnelheid en top-IQ zal kunnen draaien.

offtopic:
Ik had eigenlijk gehoopt inmiddels al iets meer van Nvidia's 7600/7200 gehoord te hebben...

Benieuwd waar ik mee bezig ben? http://www.genexis.eu


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
edward2 schreef op maandag 17 oktober 2005 @ 21:31:
Nou ben ik geen 3d expert, dus ik vraag me af, waarom gebruiken ze nog steeds fake technieken? Want dat is dit nog steeds allemaal. Waarom geen real 3d polygonen, loopt dan het aantal verticles teveel op?
Een goed voorbeeld is de map Ice Tombs in UT2004, dit 100% 3d, alleen statisch belicht en met goede performance.
Ik ben ook geen 3d expert maar ik weet het volgende:
Omdat vertices een grote cpu dependancy hebben (alle veranderingen van vertices worden doorgegeven via de cpu, hoewel niet berekend, hoe meer het er zijn, hoe zwaarder de cpu belasting).
Een andere reden is dat pixel shader performance zo goedkoop, fexibel en schaalbaar is.
Als je een normal mapped pixel wilt bereken heb je ten eerste een "shitload" van pixel procesoren tot uw beschikking, bovendien heb je de keuze tussen verschillende technieken, elk met hun eigen prestatie eigenschappen & kwaliteit en je kunt eenvoudig de normal map veranderen van resolutie als je bijvoorbeeld verder van het object verwijderd bent of als je juist heel dichtbij bent. Het licht wordt ook per pixel berekend, wat fysisch dus het meest correct is, als je enkel met vertices werkt wordt het licht enkel berekend in de hoekpunten van de driehoekjes & dan over de driehoek geïnterpoleerd.
En uiteindelijk zal je voor zeer fijn detail altijd normal mapping techieken nodig hebben.

FFAG, heh, je gelooft het of je gelooft het niet :) ik lig er niet van wakker, er is een andere manier van het beslissen over features bij ATi en nVidia, elk heeft zn voor en nadelen, maar als de performance van een nieuwe generatie ATi kaarten dicht komt bij de performance van nVidia kaarten bij de launch dan weet ik hoe laat het is en moet ik die kaart hebben :) want dat voorspelt alleen goeds voor later

[Voor 18% gewijzigd door oeLangOetan op 17-10-2005 23:04]


  • Aight!
  • Registratie: juli 2004
  • Nu online

Aight!

'A toy robot...'

oeLangOetan schreef op zaterdag 15 oktober 2005 @ 23:11:
[...]

niemand wilde luisteren toen de resultaten van de GFFX reeks zeer slecht waren in 3DMark03, men schreeuwed "synthetische benchmarks bewijzen niets", 2 jaar later blijkt dat de kaarten ook slecht presteren als er gebruik wordt gemaakt van sm2.0, ik zie nu hetzelfde gebreuren.
nV kaarten hebben traditioneel zeer sterke prestaties in de games die mainstream zijn als de kaarten uitkomen, ati kaarten lopen altijd een stukje voor & kunnen ook de games aan van de next gen, de generatie waarvoor ze gemaakt zijn.
Juist, ik zie de benchmarks van de X850XT PE vs 7800GTX op 20xx x 14xx, kon hij nog aardig bij benen. Maar natuurlijk word hij ingemaakt, maar het was nog speelbaar :)

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

_ep schreef op maandag 17 oktober 2005 @ 22:55:
Ik had bijna een X800XTPE gekocht, maar naar goed gebruik besloten zo lang mogelijk te wachten omdat het alleen maar beter kan worden. Nu ga ik (mits de prijs en leverbaarheid ok zijn) toch voor een X1600. Prestaties zijn nu nog iets minder, maar ik ga er van uit dat drivers de kaarten wel op het zelfde nivo kunnen brengen. Tel daarbij op dat voor iemand als ik futureproofheid erg belangrijk is (ik wil graag minimaal 2 en liefst 3 jaar met de kaart kunnen doen) en dan denk ik dat de ondersteuning van nieuwe features toch een voordeel gaat zijn - ondanks het feit dat niet alles op topsnelheid en top-IQ zal kunnen draaien.
Ik kan het je afraden, de X800XT PE veegt in alle opzichten compleet de vloer aan met de X1600... die heeft er al genoeg moeite mee om zich de 6600GT en X800GT van het lijf te houden.

Vanwege zijn 128bits memorybus en 4 fysieke pipes (12 virtueel) kan en zal de X1600 nooit een hoogvlieger worden. Voor huidige game-operaties in de wat hogere reso's en met IQ aan is gewoon een stevige geheugenbandbreedte en fill rate nodig... die de X1600 dus niet kan leveren. Dit zal in de toekomst waarschijnlijk alleen maar "erger" worden. De kaart is eigenlijk te traag voor serieuze SM3.0 operaties.
Ik zou die X800XT PE (16 fysieke pipes, 256bit membus) aanschaffen nu het nog kan... deze komt zelfs vaak nog redelijk goed mee met de X1800XL en ze schijnen steeds schaarser te worden. Als je perse SM3.0 support wilt kun je in het andere geval beter voor een Geforce 6800GT (eveneens 16pipes + 256bit memory) gaan.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 12:00

Krizzie

Progressive Music \o/

Alleen werkt sm3.0 dan niet omdat de kaart het niet soepel kan draaien met veel eye candy aan ;)

als je 2 á 3 jaar met een kaart wil doen, dan moet je nou eigenlijk een X1800 XT kopen en dan over de 2 jaar ofzo de R600 :) Dan kun je bijna zeker wel alle games die uitkomen spelen met detail high :)

Geluidswolk


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
Krizzie schreef op dinsdag 18 oktober 2005 @ 00:25:
Alleen werkt sm3.0 dan niet omdat de kaart het niet soepel kan draaien met veel eye candy aan ;)

als je 2 á 3 jaar met een kaart wil doen, dan moet je nou eigenlijk een X1800 XT kopen en dan over de 2 jaar ofzo de R600 :) Dan kun je bijna zeker wel alle games die uitkomen spelen met detail high :)
Als het mee zit komt de R600 al over iets meer dan een jaar :P
Ik hoop over 2 jaar toch echt te kunnen praten over de prestaties van de R700 :+

specs desktop | specs laptop


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 12:00

Krizzie

Progressive Music \o/

Je klein klein klein zoon misschien wel ja ;)

Edit: Snel je tik fout veranderen he :P

[Voor 33% gewijzigd door Krizzie op 18-10-2005 00:31]

Geluidswolk


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Diegene die de oudste Ati kaart heeft mag 'm bij Ati gratis inruilen voor een X1800XT. :9 :)

http://www.driverheaven.net/showthread.php?t=87853

[Voor 5% gewijzigd door Apple|IA op 18-10-2005 00:46]


  • DoO_darkrush_NL
  • Registratie: mei 2004
  • Laatst online: 10-09-2011

DoO_darkrush_NL

is my name

Aight! schreef op maandag 17 oktober 2005 @ 23:25:
[...]


Juist, ik zie de benchmarks van de X850XT PE vs 7800GTX op 20xx x 14xx, kon hij nog aardig bij benen. Maar natuurlijk word hij ingemaakt, maar het was nog speelbaar :)
Ja okey,

Maar wat maakt het uit of je over 4 jaar een spel op LOW, of ULTRA LOW speelt??? Het gaat erom welke games je nu speelt.

Ik zie trouwens die X800 nog niet zo snel een al te grote voorsprong krijgen op de Geforce 6 reeks hoor. Het is erg spel afhankelijk. En wat je daar noemt op die hoge reso's is vast bij een D3D spel. In OpenGL is het dus precies omgekeerd. En daarnaast, FEAR SP demo loopt beter op een geforce 6 dan op een X800 op speelbare instellingen.

De X1800XT PE zal vast beter zijn dan de 7800GTX, maar wat wil je heh! Een kwartaal achterstand moet zich ook vertalen in 20% meer prestatie. Dat komt ATI nog niet na, maar met betere drivers twijfel ik daar niet aan dat ze dat in specifieke gevallen waar gaan maken. De X1800 is trouwens wel een bakbeest in FEAR!!!

X1800XT PE = Geforce 7800GTX killer
X800 en Geforce 6800 series zijn zeer gewaagd aan elkaar in het voordeel van ATI na uitbrengen van X850XT PE, maar de prestatieverschillen zijn niet noemenswaardig (en ook niet altijd in het voordeel van ATI --> OpenGL + FEAR).

Ik ben zelf altijd voorstander van vernieuwing in de hardwaretechnologie. Nu zou ik dus duidelijk voor de X1800 serie kiezen, aangezien deze naar mijn mening meer vernieuwend is dan de Geforce 7800 serie. Zo heb ik vorig jaar ook voor de geforce 6 gekozen ipv de x800. Hoe eerder bedrijven nieuwe technieken in de hardware stoppen, hoe eerder iets gebruikt gaat worden in games, hoe mooier de games worden voor ons gamers in een kortere periode. Stel dat SM3.0 dit jaar pas voor het eerst op de markt was gekomen... dan had het nu nog 2 jaar geduurt voor de SM3 games op de markt waren in grote aantallen. Nu kunnen we ze volgend jaar al massaal verwachten.

[Voor 21% gewijzigd door DoO_darkrush_NL op 18-10-2005 01:20]

AMD Athlon 64 3200+ I MSI K8N Neo Platinum I 1536mb DDR 400 I Nvidia Geforce 6800 GT 256mb GDDR3 I Creative Audigy 2 ZS Platinum Pro I Creative Megaworks THX 550 I 1x Zalman Casefan I 1X Glacialtech Casefan I Philips CD-Rewriter 48x I PSU 400 Watt No-Name


  • SG
  • Registratie: januari 2001
  • Laatst online: 21-09 22:24

SG

SG surft naar info hardewaren

FirefoxAG schreef op maandag 17 oktober 2005 @ 21:36:
Daar noem je ook wat... BF2 is zeggen en schrijven de enige Dx8 ondersteunende game die perse PS1.4 vereist... Ik snap de keuze van EA daarvoor ook niet goed, want juist de snelste Dx8 kaarten (Geforce4) worden hierdoor niet door de game ondersteund. (Ze hebben hiervoor ook een berg kritiek over zich heen gehad, net als de maker van SC:CT voor het niet ondersteunen van PS2.0).
Die keuze kan misschien hier aan liggen. Als BF2 'n DirectX game engine heeft dan heeft de FX serie performance problemen met SM2.0. Maar de FX ondersteund ook PS1.4 en daar zit zijn performance. Daarnaast is met Ps1.4 ook goed PS2.0 stuff mogelijk.
Daarnaast kan je de 8500 als tegen hanger zien van de late G3 Ti tegen hanger.

De 8500 lijkt dus op de 6800 van nu, toekomst gericht en geen tussen lijn, refresh lijn. Heeft dus ook moeten concureren tegen 'n refresh lijn. Todat de opvolgers opduiken.
De opvolger 7800 kan je dan zien als de 9700Pro, waar hun concurent nog 'n tussen produkt serie heeft. De Gf4Ti als de X850 tussen lijn Die 'n refresh tegenhanger moeten missen
Echter, de "fout" van deze beslissing ligt i.m.o. eerder bij de game- dan bij de videokaartproducent.
En dan nog heb je weinig aan de PS1.4 ondersteuning van de 8500 gezien deze kaart gewoon te traag is om BF2 redelijkerwijs te ondersteunen. De snellere GF4 Ti's trekken in Dx8 rendering zelfs de FX5700 en FX5800 vaak eruit, en de Ti4600 zo nu en dan zelfs de Radeon 9700...
Als ik (nu) een Dx8 renderende kaart zou moeten kopen zou dat dus sowieso een Geforce4 zijn, en geen 8500... de BF2 kwestie daar gelaten trekt de GF4 in tegenstelling tot de 8500 nog steeds de nieuwste games prima, zij het met het Dx8 renderpath.
Fout niet voor de VPU bakkers maar ook niet voor de game makers.
Fout nee het is 'n keuze beleid. Wat GF4 bezitters niet leuk zullen vinden.
Zoals ik als zij misschien is dit juist gedaan voor de FX serie en daar lift de 8500 dan ook op. Te oud maar draaid het wel zij het dat het performance wise zinloos is.
Dat is dus 'n hele goeie verklaring voor de keuze.
Maar niet elke dev house heeft 'n deadline van "It's done when its done. In BF2 wordt 'n feature gemist destructable enviorments. Nou als je 'n nextgen game will maken kan je voor 'n heel breed support gaan maar dat houd in 'n Dx8.0 PS1.1 path toevoegen met bijbehorende detail instellingen en LoD levels om het exceptable te kunnen draaien op Gf4Ti. Kost ook weer dev resources en als je features schrapt is er 'n tijd limiet. Die de game vision van de designer te kort doet. Als je richt op de next gen game dan zijn de feauters die haalbaar zijn veel belangrijker dan ver terug oude hardware te ondersteunen. BF2 heeft menig gamer tot upgraden gejaagd dat doe je niet voor de zoveelste FPS kloon die het moet hebben van een breed target mainstream platform. Maar door unieke feature en gameplay in een nextgen GFX jasje.
Tja De Dev's moeten dan 'n keuze maken in hun beperkte dev tijd tot hoever terug gaan we ondersteunen.

Kijk je naar doomIII ID soft en John Carmack met veel tijd en geen deadline die stoppen veel tijd in optimalisatie en breede ondersteuning. 'n game nextgen maar waarvoor je toch niet zo verplicht wordt tot upgraden met mainstream hardware.

Ik ben net als jij ook 'n regelmatige upgrader aleen ik heb drie game PC dus 1 á 2 jaar upgrade cycle wordt dus per PC 3 á 6 jaar. val ik toch weer in die langetermijn consumenten.

voor Bf2 moet ik nog upgraden. Maar richt me eerder op X3 the reunion.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FirefoxAG schreef op maandag 17 oktober 2005 @ 19:03:
[...]
Bij gebrek aan concurrentie op een bepaald vlak word je ook niet echt gepord om iets substantieel te verbeteren ;)
En wederom draaien we dat om naar: bij gebrek aan nut is het niet nodig om het substantieel te verbeteren. Ik herinner me geen SM3.0 game die sneller op de GF6 draaide dan op de X800 met slechts SM2.0b support. En aangezien SM3.0 enkel optimalisaties inhoudt, zou het dus ook sneller moeten zijn in 2.0 Ik herinner me zelfs geen spel dat SM3.0 support had zes maanden na de release van de kaart.

  • Jovas
  • Registratie: december 2003
  • Laatst online: 21-07 22:50
En, zijn de x1800 kaarten al leverbaar? Laat me raden, nog een maandje of 2? ;)

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 17:05

Pubbert

random gestoord

Macros4 schreef op dinsdag 18 oktober 2005 @ 11:10:
En, zijn de x1800 kaarten al leverbaar? Laat me raden, nog een maandje of 2? ;)
Hardwaretotaal heeft enkele X1800XL's op voorraad, en bij verscheidene shops in Duitsland zijn ze ook al leverbaar hoorde ik.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • User||IA
  • Registratie: april 2002
  • Laatst online: 16-07-2008
Macros4 schreef op dinsdag 18 oktober 2005 @ 11:10:
En, zijn de x1800 kaarten al leverbaar? Laat me raden, nog een maandje of 2? ;)
Nix te doen? 8)7

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

ATI heeft idd blijkbaar weinig gedaan aan z'n imago vwb de leverbaarheid, dus het hele X800 verhaal herhaald zich weer in de vorm van een rasechte paperlauch voor de XI800...

[Voor 7% gewijzigd door edward2 op 18-10-2005 11:35]

Niet op voorraad.


  • Zeus
  • Registratie: juni 2003
  • Nu online
pricewatch: Sapphire Radeon X1800 XL 256MB DDR3 (PCI-e, 2xDVI)
Volgens mij kan je die kaart echt wel krijgen als je hem wilt hebben?
Ik zie niemand die die kaart wil hebben klagen dat hij zo slecht leverbaar is. Dat klagen wordt volgens mij alleen gedaan door mensen met een groene bril.

edit: ik ben net al die shops aan het afgaan, en het lijkt inderdaad of de kaarten overal of uitverkocht zijn of nog binnen moeten komen.

[Voor 22% gewijzigd door Zeus op 18-10-2005 11:43]

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Toch is het nog steeds niet een echte launch zoals de GTX, echt makkelijk leverbaar is het niet. Wat weer niet bevorderlijk is voor de verkoop. Maar de OEM'ers zijn blij en dat is uiteindelijk hetgene waar ATI zijn roots en grootste afzetmarkt heeft.

  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

Phuncz schreef op dinsdag 18 oktober 2005 @ 10:30:
[...]
Ik herinner me zelfs geen spel dat SM3.0 support had zes maanden na de release van de kaart.
Ik herinner me ook geen spel dat 3dc support had zes maanden na de "release" van de kaart.
Ik herinner vandaag de dag zelfs geen enkel spel dat 3dc gebruikt en daardoor ATi kaarten veel sneller maakt.

[Voor 18% gewijzigd door HaLDoL op 18-10-2005 11:59]

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Misschien eens de startpost lezen ?

In topic deel 10 (link staat in deze startpost)
- Crytec: Far Cry (patch 1.3)
- Valve: Half Life 2
- Irrational Games: Tribes Vengeance
- Firaxis: Sid Meier's Pirates
Hier is nog sinds kort Serious Sam 2 bijgekomen.

Oh ja:
Door middel van 3Dc is het mogelijk om de IQ te verbeteren zonder performanceverlies. Het zorgt er voor dat developers meer detail in hun modellen kunnen stoppen op kaarten die 3Dc ondersteunen, in vergelijking tot kaarten die het niet ondersteunen, maar wel met dezelfde snelheid (dus geen performanceverbetering, maar wel IQ verbetering).
En ten derde: 3Dc was een optionele ATI-only feature, SM3.0 is een DirectX9 gebeuren. Wereld van verschil he :)

  • Aight!
  • Registratie: juli 2004
  • Nu online

Aight!

'A toy robot...'

DoO_darkrush_NL schreef op dinsdag 18 oktober 2005 @ 01:16:
[...]


Ja okey,

Maar wat maakt het uit of je over 4 jaar een spel op LOW, of ULTRA LOW speelt??? Het gaat erom welke games je nu speelt.
Kijk bijvoorbeeld hierna:
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7742.png
Kan een X850XT PE nog prima bij benen, ik neem aan dat ze hem op High hebben staan.
Tja nadeel is je hebt geen SM3.0 support. Ik heb nu ook een X850XT maar ik vind het niet erg nuttig om eventjes een kaartje van 400 euro weer in mijn pc te knallen, aangezien ik wel meer kosten heb.

F.E.A.R draait ie nog goed, beter dan mijn oude 6600 GT in iedergeval :P

  • DoO_darkrush_NL
  • Registratie: mei 2004
  • Laatst online: 10-09-2011

DoO_darkrush_NL

is my name

Ja grapjas, Maar je neemt als voorbeeld HF2!!! Een echt pro ATI spel net als doom 3 pro Nvidia is. Niet echt een objectieve vergelijking. Maar ik doelde ook helemaal niet een paar FPS verschil... Ik bedoel dat een GF6 en X800 serie min of meer gelijkwaardig zijn. Dat een X850XT PE beter is snappen we wel (kwam ook nog eens 3 kwartalen later uit die X850XT PE (als grote broer van de X800XT PE), maar dat terzijde).

Een 6600GT ga je ook nooit met een X850XT PE vergelijken.

Maar ik zou idd die X850XT PE houden en niet upgraden. Je kan veel beter wachten op de volgende generatie. Met een 6800Ultra en X850XT PE draai je nu toch nog alles op max.

Ik ga ook echt niet upgraden. Ik wacht liever tot er videokaarten zijn die DX Next ondersteunen.

[Voor 87% gewijzigd door DoO_darkrush_NL op 18-10-2005 13:19]

AMD Athlon 64 3200+ I MSI K8N Neo Platinum I 1536mb DDR 400 I Nvidia Geforce 6800 GT 256mb GDDR3 I Creative Audigy 2 ZS Platinum Pro I Creative Megaworks THX 550 I 1x Zalman Casefan I 1X Glacialtech Casefan I Philips CD-Rewriter 48x I PSU 400 Watt No-Name

Phuncz schreef op dinsdag 18 oktober 2005 @ 12:11:
Misschien eens de startpost lezen ?

In topic deel 10 (link staat in deze startpost)

[...]


Hier is nog sinds kort Serious Sam 2 bijgekomen.
SS2 ondersteunt geen 3Dc meer. ATi was hier niet echt over te spreken. :+
En ten derde: 3Dc was een optionele ATI-only feature, SM3.0 is een DirectX9 gebeuren. Wereld van verschil he :)
3Dc is trouwens een open standaard, dus niet ATi-only. Het staat alle IHVs vrij om 3Dc te integreren. nVidia ondersteunt het trouwens ook al via de drivers, maar het heeft dan zo'n beetje twee keer zo veel geheugen nodig, wat dus eigenlijk meteen het nut van 3Dc te niet doet.

Oh en 3Dc is inmiddels opgenomen in de DX10 standaard, wat dus betekent dat nV dit straks ook waarschijnlijk hardwarematig zal moeten ondersteunen. En ook de Xbox360-games zullen hier veel gebruik van maken. Dus 3Dc is nog lang niet verdwenen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
FirefoxAG schreef op dinsdag 18 oktober 2005 @ 00:05:
[...]
Vanwege zijn 128bits memorybus en 4 fysieke pipes (12 virtueel) kan en zal de X1600 nooit een hoogvlieger worden. Voor huidige game-operaties in de wat hogere reso's en met IQ aan is gewoon een stevige geheugenbandbreedte en fill rate nodig... die de X1600 dus niet kan leveren. Dit zal in de toekomst waarschijnlijk alleen maar "erger" worden. De kaart is eigenlijk te traag voor serieuze SM3.0 operaties.
lol, dat besluit je uit de testen die vooral sm1.1 & sm2.0 testen zijn, maar daar heb je het mis, de X1600 gaat uitmunten in sm3.0 performance er zijn 3 quads op de RV530, shading power is gelijkaardig aan die van de R420 maar met de uitgebreide sm3.0 functionaliteit
Het enige is dat je niet teveel AA en aniso zal moeten gebruiken, te weinig texturing units & een beperkte bandbreedte, maar de kaart is wel meer future proof.
niet alle mensen hebben het geld (en de prioriteiten) om elke jaar een nieuwe grafische kaart te kopen FireFoxAG, daarom is future proof belangrijk voor bv mij :)

[Voor 12% gewijzigd door oeLangOetan op 18-10-2005 13:47]


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

CJ schreef op dinsdag 18 oktober 2005 @ 13:38:
[...]


SS2 ondersteunt geen 3Dc meer. ATi was hier niet echt over te spreken. :+
Oeh that's gotta hurt. Wel een vieze move van hun, eerst massaal promoten met hun eigen spel met de technologie bij ATI en later de ondersteuning eruit halen... Reden ?
[...]


3Dc is trouwens een open standaard, dus niet ATi-only. Het staat alle IHVs vrij om 3Dc te integreren. nVidia ondersteunt het trouwens ook al via de drivers, maar het heeft dan zo'n beetje twee keer zo veel geheugen nodig, wat dus eigenlijk meteen het nut van 3Dc te niet doet.

Oh en 3Dc is inmiddels opgenomen in de DX10 standaard, wat dus betekent dat nV dit straks ook waarschijnlijk hardwarematig zal moeten ondersteunen. En ook de Xbox360-games zullen hier veel gebruik van maken. Dus 3Dc is nog lang niet verdwenen.
Open standaard of niet, echte support ervoor is er dus niet :) Altijd leuk dat dit in latere specs opgenomen wordt. Waarom dan niet in SS2 ?

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 17:05

Pubbert

random gestoord

Het scheen dat onze groene vrienden inneens met een grotere zak geld kwamen, hoewel ik geen nvidia logo zie tijdens het opstarten.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

DoO_darkrush_NL schreef op dinsdag 18 oktober 2005 @ 13:13:
Ja grapjas, Maar je neemt als voorbeeld HF2!!! Een echt pro ATI spel net als doom 3 pro Nvidia is. Niet echt een objectieve vergelijking. Maar ik doelde ook helemaal niet een paar FPS verschil... Ik bedoel dat een GF6 en X800 serie min of meer gelijkwaardig zijn. Dat een X850XT PE beter is snappen we wel (kwam ook nog eens 3 kwartalen later uit die X850XT PE (als grote broer van de X800XT PE), maar dat terzijde).

Een 6600GT ga je ook nooit met een X850XT PE vergelijken.

Maar ik zou idd die X850XT PE houden en niet upgraden. Je kan veel beter wachten op de volgende generatie. Met een 6800Ultra en X850XT PE draai je nu toch nog alles op max.

Ik ga ook echt niet upgraden. Ik wacht liever tot er videokaarten zijn die DX Next ondersteunen.
Zo dan... zo zout heb ik ze nog nooit opgediend zien worden (of was het nou heet? ;) )
Ten eerste: HalfLife 2 = DX9, ATi R3xx en R4xx en R5xx = rondom DX9 en niet HalfLife 2 gebouwd, geen wonder dus dat ATi er goed in presteert omdat het volgens de MS-normen is gebouwd. Doom3 is een ander verhaal, daar is specifiek de architectuur van Nvidia gekozen vanwege Ultrashadow e.d.

ALs ik die test van hierboven zie hebben we het niet over een paar FPS verschil, maar wel iets meer. Bovendien... procentueel gezien is het ernstiger, voordeel voor ATi: 38% . En het ge-emmer dat de X850XTPE ownt omdat hij een half jaar na de X800XTPE en 6800Ultra kwam, dat is gewoon stierenpoep. Het is een availability-refreshproduct, met in totaal welgeteld 20 (schokkend he?) MHz meer op de core en het geheugen. Dat is dus een performanceboost van 4% . In mijn optiek dus veel te weinig, want 38 - 4 = nog steeds 34% ... Praktisch geen verschil dus.

Enne... ik zou ook een X850XTPE kopen ipv een X1600XT, tenminste... mocht blijken dat de X1600XT te zwak is om SM3.0-games @ fulldetail te kunnen spelen, anders zou ik toch voor de X1600XT gaan. Imho B)

  • DoO_darkrush_NL
  • Registratie: mei 2004
  • Laatst online: 10-09-2011

DoO_darkrush_NL

is my name

Jejking schreef op dinsdag 18 oktober 2005 @ 14:06:
[...]


Zo dan... zo zout heb ik ze nog nooit opgediend zien worden (of was het nou heet? ;) )
Ten eerste: HalfLife 2 = DX9, ATi R3xx en R4xx en R5xx = rondom DX9 en niet HalfLife 2 gebouwd, geen wonder dus dat ATi er goed in presteert omdat het volgens de MS-normen is gebouwd. Doom3 is een ander verhaal, daar is specifiek de architectuur van Nvidia gekozen vanwege Ultrashadow e.d.

ALs ik die test van hierboven zie hebben we het niet over een paar FPS verschil, maar wel iets meer. Bovendien... procentueel gezien is het ernstiger, voordeel voor ATi: 38% . En het ge-emmer dat de X850XTPE ownt omdat hij een half jaar na de X800XTPE en 6800Ultra kwam, dat is gewoon stierenpoep. Het is een availability-refreshproduct, met in totaal welgeteld 20 (schokkend he?) MHz meer op de core en het geheugen. Dat is dus een performanceboost van 4% . In mijn optiek dus veel te weinig, want 38 - 4 = nog steeds 34% ... Praktisch geen verschil dus.

Enne... ik zou ook een X850XTPE kopen ipv een X1600XT, tenminste... mocht blijken dat de X1600XT te zwak is om SM3.0-games @ fulldetail te kunnen spelen, anders zou ik toch voor de X1600XT gaan. Imho B)
Waarom is het verschil dan alleen in HF2 (en d3 in nvidia geval) zo groot????? En niet in andere games? Waarom loopt FEAR beter op een gf6 dan een x800? Een X800 is gem. genomen gewoon sneller, daar twijfel ik niet aan. Ik wil ik niet beweren dat ik tegen ATI ben. Sterker nog, ik overweeg er 1 aan te schaffen met de HCC dagen voor ene 2e pc. Maar die vergelijking met alleen HF2 benchmarks slaat echt nergens op.

ennuh, wat betreft die paar FPS verschil, daarmee doel ik op bijna alle andere games dan HF2. (wat is die HF2 benchmark trouwens gedaan in een onmogelijke resolutie. Dat haal je bij de nieuwe generatie games dus nooit).

Maargoed, laten we het maar weer hebben over de ATI nieuwtjes.

[Voor 22% gewijzigd door DoO_darkrush_NL op 18-10-2005 14:29]

AMD Athlon 64 3200+ I MSI K8N Neo Platinum I 1536mb DDR 400 I Nvidia Geforce 6800 GT 256mb GDDR3 I Creative Audigy 2 ZS Platinum Pro I Creative Megaworks THX 550 I 1x Zalman Casefan I 1X Glacialtech Casefan I Philips CD-Rewriter 48x I PSU 400 Watt No-Name


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op dinsdag 18 oktober 2005 @ 13:45:
lol, dat besluit je uit de testen die vooral sm1.1 & sm2.0 testen zijn, maar daar heb je het mis, de X1600 gaat uitmunten in sm3.0 performance er zijn 3 quads op de RV530, shading power is gelijkaardig aan die van de R420 maar met de uitgebreide sm3.0 functionaliteit
Het enige is dat je niet teveel AA en aniso zal moeten gebruiken, te weinig texturing units & een beperkte bandbreedte, maar de kaart is wel meer future proof.
niet alle mensen hebben het geld (en de prioriteiten) om elke jaar een nieuwe grafische kaart te kopen FireFoxAG, daarom is future proof belangrijk voor bv mij :)
Nee, dat besluit ik omdat ik een stel hersens in mijn hoofd heb die kunnen beredeneren dat de zwaar op pixelshading, fill-rate en memory-bandwith "gehandicapte" X1600 te traag is om op hogere resoluties SM3.0 met IQ te renderen.

Gezien de kaart dat toch niet kan ben je dus beter af met een veel krachtigere X800XT PE, die middels het SM2.0(b) path wel op hogere resoluties IQ kan renderen. Grafisch zal dit er veel beter uitzien dan SM3.0 met nul IQ, plus je performance zal daarbij een nog een stuk beter zijn ook.
Gezien de hoeveelheid Dx9.0 SM2.0 kaarten op de markt zullen vrijwel alle gameproducenten dat renderpath voorlopig wel aanhouden. Zo'n beetje alle gameproducenten voorzien nu zelfs nog in een Dx8 renderpath, en hoe lang zijn er nu al Dx9 kaarten op de markt?
Tegen de tijd dat SM2.0 niet meer word ondersteund is die X1600 bij wijze van spreke te traag voor 1024x768 zonder IQ... dus zowel voor "futureproof" als een behoorlijke gaming-experience nu op dit moment zou ik zeker niet daarvoor kiezen... ;)

Maar goed, mag ieder verder voor zich weten hoor... als je zwaar geylt op de ATi's SM3.0 implementatie en daarbij de overall performance van de X1600 wenst te negeren mag dat hoor... jouw geld, en jouw beslissing... vraag je daarbij alleen wel af hoe "Futureproof" de X700 nu is in vergelijk met de 9800XT (= dezelfde situatie: current midrange vs previous high-end - nog afgezien van de hoeveelheid rendering pipelines die bij die 2 kaarten zelfs gelijk zijn i.t.t. X1600 (4 > "12") vs X800XT (16)) ;)

[Voor 9% gewijzigd door Cheetah op 18-10-2005 14:52]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

Jejking schreef op dinsdag 18 oktober 2005 @ 14:06:
Zo dan... zo zout heb ik ze nog nooit opgediend zien worden (of was het nou heet? ;) )
Ten eerste: HalfLife 2 = DX9, ATi R3xx en R4xx en R5xx = rondom DX9 en niet HalfLife 2 gebouwd, geen wonder dus dat ATi er goed in presteert omdat het volgens de MS-normen is gebouwd. Doom3 is een ander verhaal, daar is specifiek de architectuur van Nvidia gekozen vanwege Ultrashadow e.d.
:O
Wat een onzin... cut the fanboy crap... alsof ATi het patent op DX9 heeft en nV er nog nooit van heeft gehoord. Over benchmark picking hebben we het al eerder gehad, en dat zijn onzinnige vergelijkingen. De Half/Life2 engine prefereert ATi hardware (of vermoedelijk: hoge clockspeeds)... punt... We kunnen ook benchmarks uitzoeken waarin de Geforce6 de X800XT ownt. Je schiet er totaal geen ruk mee op om op deze voet te beredeneren dat "X800XT beter is in Dx9 dan 6800 Ultra" visa versa.

En ja, de X800XT PE is overall inderdaad wat sneller dan de 6800 Ultra, hoewel het heel vaak stuivertje wisselen is... echter de oorspronkelijke "tegenstander" van de PE was de 6800 Ultra Extreme (450/1200) die echter nog slechter leverbaar bleek dan de X800XT PE :Z

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FirefoxAG schreef op dinsdag 18 oktober 2005 @ 14:48:
[...]
:O
Wat een onzin... cut the fanboy crap... alsof ATi het patent op DX9 heeft en nV er nog nooit van heeft gehoord.
Dat heeft ie ook niet gezegd, overdrijf dan ook niet he.
(of vermoedelijk: hoge clockspeeds)
Je eist altijd feiten, maar je geeft vermoedens. Ook met de X1600...
En ja, de X800XT PE is overall inderdaad wat sneller dan de 6800 Ultra, hoewel het heel vaak stuivertje wisselen is... echter de oorspronkelijke "tegenstander" van de PE was de 6800 Ultra Extreme (450/1200) die echter nog slechter leverbaar bleek dan de X800XT PE :Z
Ah dus omdat jij het nu zegt, is het ineens wél een goed argument dat een kaart niet leverbaar was ?

Kap er toch mee gewoon hier elke stelling, elk commentaar en elke uiting die niet gelijk is aan jouw mening te bashen alsof jij wél de waarheid kent...

  • Eolis
  • Registratie: september 2005
  • Laatst online: 09-12-2020

Eolis

And the heavens shall tremble

Phuncz schreef op dinsdag 18 oktober 2005 @ 14:59:
[...]

Dat heeft ie ook niet gezegd, overdrijf dan ook niet he.


[...]

Je eist altijd feiten, maar je geeft vermoedens. Ook met de X1600...


[...]

Ah dus omdat jij het nu zegt, is het ineens wél een goed argument dat een kaart niet leverbaar was ?

Kap er toch mee gewoon hier elke stelling, elk commentaar en elke uiting die niet gelijk is aan jouw mening te bashen alsof jij wél de waarheid kent...
Dat wou ik nou net zeggen . . . het valt wel heel erg op dat de beredeneringen van anderen op het gebied van vermoedens door FirefoxAG direct de grond ingetrapt worden, maar dat meneer gerust zelf op basis van vermoedens begint te praten.

Ik ben een absolute voorstander van kritisie en het bekijken van alle kanten als het gaat om nieuwe ontwikkelingen en features, maar dit streeft zijn doel al lang voorbij . . . .

@FirefoxAG, hou nou eens op man met dat geouwehoer van jou en die lompe pogingen om alles wat positief over ATi gezegd wordt direct met grond gelijk te willen maken, want dat lukt je toch niet !!! :o

Ontopic: is er btw al iets bekend over de meegeleverde software (van de bekendste merken) bij de XL en de XT ?

  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 17:05

Pubbert

random gestoord

http://www.komplett.nl/k/...E6-410C-9075-06518B1B62A5

Komplett heeft ook al een aantal X1300Pro's op de plank liggen.

113 Euro valt reuze mee trouwens.

[Voor 26% gewijzigd door Pubbert op 18-10-2005 15:58]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Brainless-NL
  • Registratie: oktober 2002
  • Laatst online: 17:10
Eolis schreef op dinsdag 18 oktober 2005 @ 15:44:
[...]
@FirefoxAG, hou nou eens op man met dat geouwehoer van jou en die lompe pogingen om alles wat positief over ATi gezegd wordt direct met grond gelijk te willen maken, want dat lukt je toch niet !!! :o
Hou er alsjeblieft niet mee op! Firefox is (ookal is hij af en toe wat extreem) bijna de enige (non pro-ati) die echt dingen kan rechtzetten, onderbouwen, relativeren en uitleggen. Ik denk dat het niet gezond is als de meer "pro" mensen alleen maar pro ati zijn. Ik vind zijn kritiek dan ook erg nuttig, maar neem het niet voor zoete koek aan.

[Voor 5% gewijzigd door Brainless-NL op 18-10-2005 15:51]


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Brainless-NL schreef op dinsdag 18 oktober 2005 @ 15:50:
[...]


Hou er alsjeblieft niet mee op! Firefox is (ookal is hij af en toe wat extreem) bijna de enige (non pro-ati) die echt dingen kan rechtzetten, onderbouwen, relativeren en uitleggen. Ik denk dat het niet gezond is als de meer "pro" mensen alleen maar pro ati zijn. Ik vind zijn kritiek dan ook erg nuttig, maar neem het niet voor zoete koek aan.
Euh ja, kritiek goed en wel, maar hij onderbouwt het niet, hij geeft gewoon op een aanvallende toon zijn visie alsof het de visie is die iedereen moet hebben. Er is dus nooit een probleem geweest dat het hier meer pro-ATI is dan ergens anders. Hallo, ATI Nieuwsdiscussietopic anyone ? Misschien logisch dat het hier over ATI gaat en dat de ATI fans hier zitten ? Het is gewoon irriterend dat hier iemand constant zijn mening wil doordringen gebasseerd op meningen en veronderstellingen. Omdat ie kritiek geeft, wil niet zeggen dat hij gelijk heeft.

  • Eolis
  • Registratie: september 2005
  • Laatst online: 09-12-2020

Eolis

And the heavens shall tremble

Brainless-NL schreef op dinsdag 18 oktober 2005 @ 15:50:
[...]


Hou er alsjeblieft niet mee op! Firefox is (ookal is hij af en toe wat extreem) bijna de enige (non pro-ati) die echt dingen kan rechtzetten, onderbouwen, relativeren en uitleggen. Ik denk dat het niet gezond is als de meer "pro" mensen alleen maar pro ati zijn. Ik vind zijn kritiek dan ook erg nuttig, maar neem het niet voor zoete koek aan.
Als jij zijn geblaat van hierboven rechtzetten, onderbouwen en uitleggen vind . . . dan snap ik wel waarom jij heet, zoals je heet. :Z

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Okee, misschien had ik ietsje genuanceerder mogen zijn, bij deze dan een aanvulling op FireFoX's verzoeknummertje ;)

Ik had het over het feit (ja, een feit :+ ) dat ATi een hele tijd samen met Microzacht is opgetrokken tijdens de ontwikkeling van DirectX9 in het pré-9700-tijdperk... Dat heeft ervoor gezorgd dat ATi ten tijde van de GeforceFX een énorme voorsprong had op DX9-rendering gebied. Echter, toen Nvidia doorkreeg dat ze een gigantisch domme zet hadden gedaan, gingen zij óók de DirectX9-weg volgen op de officiële manier, en je hoort mij niet zeggen dat de architectuur van de GF6-reeks slecht is in DX9-modus... in een aantal gevallen gewoon petje af! (en ik denk dat het t.o.v. de X800-reeks alleen maar beter kan worden :) )

Maar ik vraag me dan af wat er zo specifiek voor ATi hardware is geoptimaliseerd in HalfLife 2? Ik heb het namelijk al zo vaak gehoord dat ik er nu wel nieuwsgierig naar begin te worden. Kan iemand me dit uitleggen?
De Half/Life2 engine prefereert ATi hardware (of vermoedelijk: hoge clockspeeds)... punt...
Daar zou ik maar niet al te zeker van zijn FireFoxie... als er in Far Cry en HL2 (DX9-strak-in-het-pak-games) gebenched wordt, dan zie ik dat de X800XL (nou niet bepaald een uitblinker qua MHz'en, unlucky me want ik heb er zelf één, niet te OC'en dat geval :P ) op 6800 Ultra-niveau zit, laat staan wat er gebeurt als er op grote schaal AA & AF aangezet wordt!

Edit: ik zou bijna EverQuest 2 vergeten, daar worden er door ATi-kaarten toch (op hetzelfde IQ-niveau dan) vaak betere prestaties neergezet dan op Nvidia-hardware. Everquest 2 is toch een next-gen-game naar ik mag aannemen? :9~

[Voor 9% gewijzigd door Jejking op 18-10-2005 16:17]

Brainless-NL schreef op dinsdag 18 oktober 2005 @ 15:50:
[...]


Hou er alsjeblieft niet mee op! Firefox is (ookal is hij af en toe wat extreem) bijna de enige (non pro-ati) die echt dingen kan rechtzetten, onderbouwen, relativeren en uitleggen. Ik denk dat het niet gezond is als de meer "pro" mensen alleen maar pro ati zijn. Ik vind zijn kritiek dan ook erg nuttig, maar neem het niet voor zoete koek aan.
De belerende toon schiet echter velen in het verkeerde keelgat. Dat heeft niets met rechtzetten, onderbouwen, relativeren en uitleggen te maken. En ook daar schort het vaak wat aan.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 07:53
effe wat anders.. :)

Sampsa heeft het weer voor elkaar gekregen..... 1000/2000 mhz 8)

http://www.muropaketti.com/3dmark/r520/ghz/ghz.png

http://www.muropaketti.com/3dmark/r520/ghz/02.jpg

http://www.xtremesystems.....php?t=77157&page=1&pp=25

aan een 3dmark score wordt nog aan gewerkt..(maar vermoedelijk rond de 13k)

[Voor 8% gewijzigd door Mr. Detonator op 18-10-2005 16:28]


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

Phuncz schreef op dinsdag 18 oktober 2005 @ 12:11:
Misschien eens de startpost lezen ?

In topic deel 10 (link staat in deze startpost)
Misschien mijn vraag eens lezen? Welk spel met 3dc ondersteuning geeft ATi een overduidelijk snelheidsvoordeel?
En ten derde: 3Dc was een optionele ATI-only feature, SM3.0 is een DirectX9 gebeuren. Wereld van verschil he :)
Helaas niet, sm3 was lange tijd nvidia only en pas sinds dx9.0c ook in dx opgenomen.

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Brainless-NL
  • Registratie: oktober 2002
  • Laatst online: 17:10
Eolis schreef op dinsdag 18 oktober 2005 @ 16:05:
[...]


Als jij zijn geblaat van hierboven rechtzetten, onderbouwen en uitleggen vind . . . dan snap ik wel waarom jij heet, zoals je heet. :Z
Ik had het niet alleen over zijn laatste post, maar over zijn gehele postgedrag. Het is overigens wel duidelijk dat je je aangevallen voelt... Jouw probleem :>

Overigens vind ik dat ik in mijn post goed genoeg heb aangegeven dat ik vind dat alles wat hij zegt niet per definitie de waarheid is, maar dat het gewoon een gezonde portie tegenstand biedt tegen de vele pro-ati mensen hier. Daarom snap ik niet waarom je zo kinderachtig reageert.

ontopic:
Je ziet wel redelijk wat "misgekleurde" puntjes op die screen :) Zullen duidelijk geen benchable clocks zijn.

[Voor 41% gewijzigd door Brainless-NL op 18-10-2005 16:42]


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Best moeilijk om te geloven dat de kaart het ondersteund om op 1000MHz te lopen. Het geheugen ook nog eens een echt wel enorme overclock !

  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
Brainless-NL schreef op dinsdag 18 oktober 2005 @ 16:35:
Je ziet wel redelijk wat "misgekleurde" puntjes op die screen :) Zullen duidelijk geen benchable clocks zijn.
Staat erbij jah.. komt door het geheugen zeggen ze.. dusz de core kan op 1 GHz... _/-\o_

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

HaLDoL schreef op dinsdag 18 oktober 2005 @ 16:34:
[...]

Misschien mijn vraag eens lezen? Welk spel met 3dc ondersteuning geeft ATi een overduidelijk snelheidsvoordeel?
3Dc is een technologie om de IQ te verbeteren, niet om de snelheid te verbeteren.
3Dc kan beide. Het kan gebruikt worden om IQ te verbeteren en om snelheid te winnen.

Stel je voor dat een game veel normal maps gebruikt wat net binnen de 256MB past. Een 3Dc ondersteunende kaart kan dan nog meer detail op het scherm toveren en nog steeds in die 256MB passen dankzij de compressietechnologie. Kaarten die geen 3Dc nodig hebben, maar dan toch die extra IQ willen hebben zullen dan bv 512MB geheugen aan boord moeten hebben. Nadeel is natuurlijk wel dat devs wel extra IQ moeten ondersteunen.

Aan de andere kant heb je bv games die zo veel normal maps gebruiken dat het binnen de 256MB past. Devs kunnen er dan voor zorgen dat de performance omhoog gaat op 3Dc kaarten door gebruik te maken van de compressie technologie.

Het is dus aan de devs hier gebruik van te maken. Far Cry gebruikt inmiddels ook 3Dc in de laatste patches.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

OK mijn excuses dan HaLDoL :)

CJ, dat stukje kan je dan best even in de startpost erbij gooien ;)

  • Dangerous1986
  • Registratie: maart 2004
  • Laatst online: 14-12-2005

Dangerous1986

X1800XT :-)

Bij Alternate.nl staat de X1800XT 512Mb binnen 48 Uur op voorraad is . Maar heb net gebeld en ze zeggen dat ze morgen 10 stuks op voorraad hebben ( Nu nog Negen _/-\o_ )

BTW hier is de Link tevens ook de X1800XL en De XT 256Mb morgen op voorraad. http://www.alternate.nl/h...etails.html?artno=JBXG41&

[Voor 4% gewijzigd door Dangerous1986 op 18-10-2005 18:00]

AMD 3000+ @ 2.7GHz Soon >>> FX60 :) | DFI LanParty UT RDX200 CF | G.E.I.L One Serie 1GB | ATi Radeon X1800XT 512MB | Maxtor DiamondMax 10 250GB 16MB | 3DMark05 Score = 10108


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Dangerous1986 schreef op dinsdag 18 oktober 2005 @ 17:37:
Bij Alternate.nl staat de X1800XT 512Mb binnen 48 Uur op voorraad is . Maar heb net gebeld en ze zeggen dat ze morgen 10 stuks op voorraad hebben ( Nu nog Negen _/-\o_ )

BTW hier is de Link tevens ook de X1800XL en De XT 256Mb http://www.alternate.nl/h...etails.html?artno=JBXG41&
Holy mozes _/-\o_ _/-\o_ _/-\o_ 8)7 8)7 :D

Het zal mij erg benieuwen als ze er echt zo snel zijn ..maar goed, annuleren kan altijd.

Nu nog maximaal 8 ;)

Thanx for the heads up!!

[Voor 25% gewijzigd door edward2 op 18-10-2005 18:04]

Niet op voorraad.


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 07:53
ik denk dat ze morgen/overmorgen weer uitverkocht zijn....

  • Oet
  • Registratie: mei 2000
  • Laatst online: 09:00

Oet

[DPC]TG & MoMurdaSquad AYB

Ja het feit hier posten is bijna gelijk aan een url op /. gooien :P

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Mr. Detonator schreef op dinsdag 18 oktober 2005 @ 18:06:
[...]


ik denk dat ze morgen/overmorgen weer uitverkocht zijn....
Of weer op "nieuw produkt, levertijd afhankelijk" etc." Want het zal voor het eerst in de geschiedenis zijn dat een top ATI kaart zo snel in NL verkrijgbaar is. Dus ik hou rekening met een koude douche morgen ;)

[Voor 8% gewijzigd door edward2 op 18-10-2005 18:22]

Niet op voorraad.


  • Dangerous1986
  • Registratie: maart 2004
  • Laatst online: 14-12-2005

Dangerous1986

X1800XT :-)

edward2 schreef op dinsdag 18 oktober 2005 @ 18:21:
[...]


Of weer op "nieuw produkt, levertijd" etc." Want het zal voor het eerst in de geschiedenis zijn dat een top ATI kaart zo snel in NL verkrijgbaar is. Dus ik hou rekening met een koude douche morgen ;)
Hmmm hoe bedoel je koude douche, Maar ook ATi kan zich veranderen _/-\o_ .

BTW , Volgens mij is NL het eerste land die hem op voorraad heeft :9 .

[Voor 11% gewijzigd door Dangerous1986 op 18-10-2005 18:24]

AMD 3000+ @ 2.7GHz Soon >>> FX60 :) | DFI LanParty UT RDX200 CF | G.E.I.L One Serie 1GB | ATi Radeon X1800XT 512MB | Maxtor DiamondMax 10 250GB 16MB | 3DMark05 Score = 10108


  • Rian
  • Registratie: januari 2005
  • Laatst online: 27-09 21:20
ze zijn nu trouwens ook bij salland automatisering te koop, de X1800XT 256mb/512mb, van Club3D:

http://www.sallandautomat...o.php?pid=16931&catId=376 <256mb, € 500
http://www.sallandautomat...o.php?pid=16933&catId=376 <512mb, € 533

levertijd is wel > 10 dagen 8)7

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04-2020

Cheetah

Try to live without WWW ;)

@Aantal personen hierboven:
Doe eens een poging mijn posts inhoudelijk aan te vallen in plaats van mij persoonlijk aan te vallen :Z
De kwestie persoonlijk maken is i.m.o. erg zwak in een discussie ;)

X1600 slechts vermoedens? Mijn redenatie heet logica in mijn boek... Doe je best en proof me wrong...
Phuncz schreef op dinsdag 18 oktober 2005 @ 14:59:
Dat heeft ie ook niet gezegd, overdrijf dan ook niet he.
Hmm, wat daar stond was toch echt moeilijk voor misinterpretatie vatbaar... het gaat mij om de houding die spreekt uit dat stuk tekst ;)
Ah dus omdat jij het nu zegt, is het ineens wél een goed argument dat een kaart niet leverbaar was ?
Zie je me dat ergens zeggen dan..? Ik geef alleen een stuk informatie: tegenover de X800XT PE werd de 6800 Ultra Extreme gepositioneerd, maar de laatste was nog slechter leverbaar dan de eerste. Niets meer en niets minder... is overigens geschiedenis, je kunt het nakijken. Als ik daarmee de insteek had die jij suggereert zou ik er niet bij hebben vermeld dat de kaart slechter leverbaar was dan de PE.
Eenvoudige conclusie: Ja, ATi had met de PE sowieso de snellere kaart op de markt, omdat de UE kaart van nV nauwelijks leverbaar was. Ik heb niet voor niets 2 X800XT PE's (AGP & PCI-e) en een X850XT PE gehad ;)
Echter in tegenstelling tot diverse anderen hier neem ik nV een paper launch even kwalijk als ik dat bij ATi doe... verschil in houding... neutraal vs gekleurd, je weet wel.
Kap er toch mee gewoon hier elke stelling, elk commentaar en elke uiting die niet gelijk is aan jouw mening te bashen alsof jij wél de waarheid kent...
Bashen? Ach gezien je er al eerder blijk van hebt gegeven iedere kritische noot richting ATi als bashen te beschouwen denk ik dat we dit wel weer kunnen negeren, niet? ;)
Euh ja, kritiek goed en wel, maar hij onderbouwt het niet
Nog afgezien van dat je mijn posts duidelijk niet eens leest (lukt waarschijnlijk niet vanwege aan die bril aangekoekte rode verf? ;)), is dit toch wel een ongelofelijke "de pot verwijt de ketel".
Vrijwel alle reacties van jou op mijn posts zijn aanvallen op mij persoonlijk... zo goed als niets inhoudelijks.
Eolis schreef op dinsdag 18 oktober 2005 @ 15:44:
@FirefoxAG, hou nou eens op man met dat geouwehoer van jou en die lompe pogingen om alles wat positief over ATi gezegd wordt direct met grond gelijk te willen maken, want dat lukt je toch niet !!!
:Z
En wat heb ik in mijn afgelopen post ook alweer "met de grond gelijk" gemaakt? Ik heb alleen beargumenteerd waarom een ATI X800XT PE zowel nu als op de langere duur sneller zal blijven dan de ATI X1600XT, compleet met voorbeeld (SM2.0b X700 vs SM2.0 9800XT)... en ik heb daar nog niemand omheen zien komen.

Kan zijn dat je mijn manier van posten niet altijd even charmant vind, maar ik heb geen tijd/zin/behoefte om te controleren of alles wel politiek correct staat en of ik geen fanboys op hun teentjes trap. Sowieso hou ik al erg weinig rekening met de tenen van fanboys, maar dat hebben jullie al gemerkt nietwaar? :P

Als wat ik zeg niet klopt of niet logisch is hoor ik het graag onderbouwd, want da's nog iets waarmee diverse mensen hier blijkbaar erg veel moeite hebben... Ach ja, als emoties in het spel komen word de onderbouwing vaak wat moeilijk nietwaar ;)

Verder heb ik al 3 topics geleden aangegeven waarom het compleet belachelijk is om mij als groen te bestempelen. Probeer dat onderscheid te maken: "Non ATi fanboy" is ongelijk aan "nV fanboy"... ;)

Ik heb trouwens verder geen zin om woorden vuil te maken aan deze onzin. Het staat jullie nog altijd vrij dat "[Fanboy]ATi propaganda topic - Deel 1 [ATI Fanboys Only!!]" topic te openen... ;)

[Voor 8% gewijzigd door Cheetah op 18-10-2005 18:41]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee