Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 30 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 3.113 views sinds 30-01-2008

  • NinteX
  • Registratie: februari 2004
  • Laatst online: 04-07-2015

NinteX

Gone Forever :W

Astennu schreef op vrijdag 06 januari 2006 @ 18:57:
De X1300 en X1600 clocken idd geweldig. Maar vergeet niet dat er ook een RV560 komt. ( X1600x2) ik weet niet wanneer maar als die voor de 7600 GT bedoelt is is het bye bye 7600 gt :) Of die GT moet op 1 GHz clocken om met die 4 robs en 16 alu's de RV560 bij te houden.
Als de X1600x2 er aan komt heeft het dan wel zin om een X1600XT aan te schaffen. Dat ben ik namelijk van plan :/

Left for greener pastures(NeoGAF/Wii-DS) :W


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Virgo_theone schreef op vrijdag 06 januari 2006 @ 19:17:
[...]

Als de X1600x2 er aan komt heeft het dan wel zin om een X1600XT aan te schaffen. Dat ben ik namelijk van plan :/
Uhmm ik weet niet wanneer die komt. Daar weet CJ mischien meer over. Of kijk ff in de first post. Maar je kunt je X1600 Makkelijk versnellen door er een 2e naast te zetten. Daar heb je geen master card voor nodig. En de moederborden zijn ook iets van 113 euro dus goed betaalbaar.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • NinteX
  • Registratie: februari 2004
  • Laatst online: 04-07-2015

NinteX

Gone Forever :W

Hmm het gaat om een compleet nieuw systeem dat ik binnenkort ga aanschaffen en 190 voor de X1600XT leek me een goede deal maar als er nu al een vervangende kaart komt. Kan ik beter tijdelijk de onboard VGA gebruiken , om vervolgens voor ongeveer hetzelfde geld een betere Radeon te kopen.

Left for greener pastures(NeoGAF/Wii-DS) :W


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Virgo_theone schreef op vrijdag 06 januari 2006 @ 19:49:
Hmm het gaat om een compleet nieuw systeem dat ik binnenkort ga aanschaffen en 190 voor de X1600XT leek me een goede deal maar als er nu al een vervangende kaart komt. Kan ik beter tijdelijk de onboard VGA gebruiken , om vervolgens voor ongeveer hetzelfde geld een betere Radeon te kopen.
Gewoon hier door blijven lezen, goed opletten (wat je volgens mij niet helemaal gedaan hebt want als je wist wat je wilde had je nu al geweten wat je zou gaan kiezen, w.b. nextgen-games of oude spellen) en het nieuws goed volgen, dan kom je er vanzelf wel achter wat nu het beste voor je is...

De feiten zullen het uitwijzen namelijk :)

Maar hoe zouden ze de R520 of opvolgers competitiever kunnen maken ten opzichte van de G70 in de hogere resoluties? Ik vermoed dat het ligt aan de drivers, dus dat we de komende maanden veel gevallen zien waarbij er per resolutie is geoptimaliseerd voor de ATi-kaarten.

Overigens vind ik het niet gek dat ATi wint in de AA-modi, want ATi ligt nog steeds een paar stapjes voor op Nvidia wat betreft load-reducing in eyecandy-modi... Daarom ben ik ook blij met m'n X800XL, kan zoveel AA aanzetten wat ik wil zonder superhoge noemenswaardige vertraging :9

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Virgo_theone schreef op vrijdag 06 januari 2006 @ 19:49:
Hmm het gaat om een compleet nieuw systeem dat ik binnenkort ga aanschaffen en 190 voor de X1600XT leek me een goede deal maar als er nu al een vervangende kaart komt. Kan ik beter tijdelijk de onboard VGA gebruiken , om vervolgens voor ongeveer hetzelfde geld een betere Radeon te kopen.
Ik verwacht de RV560 niet tegelijk met de R580 maar eerder 2-3 maanden later. Je kunt dan mischien beter een goedkope X1600 Pro kopen van 140 en die naar XT clocken. En mocht dat niet genoeg zijn kun je altijd nog een 2e kopen. Of als de RV560 er is die weer verkopen en iets bijleggen voor een nieuwe :) ( Dat doe ik vaak ).

De R520 is concurerend genoeg. Drivers kunnen idd nog wel verbeteren waar de G70 al redelijk aan zijn max zit. Maar de X1800 kan goed mee komen is wel iets slomer. Maar heeft wel HQ AF. En HDR + AA En dat is een groot voordeel. + je hebt ook AVIVO nog. Zodra dat goed werkt zal dat ook zeker een groot pluspunt zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Ik weet niet precies waarom de X1600 zo positief wordt behandeld hier... Ikzelf vind em alles behalve intressant, en dat komt niet doordat ik Pro-NV ben.
de 6800GS veegt de vloer aan met die X1600XT out-of-the-box. Driver ouder/minder goed dan de GS? Denk het niet, toen de 6800GS uitkwam in November kreeg je beta drivers op een CD erbij, met de boodschap dat je zo snel mogelijk moest updaten, als dat mogelijk was.
En de meeste eigenaren clocken de GS met gemak 20-25% over, en dat geld ook voor professionele reviewers. En dan heb ik het nog niet eens over het geheugen!
15% voor de X1600Pro? Niet indrukwekkend :Z

Ik dacht dat deze 90nm kaart even lekker de mid range zou opleuken. Niet dus...
Tip voor twijfelaars, haal de 6800GS PCI-E (voor kost slechts 183€) als je wilt gamen, geloof me, je merkt het verschil!

klein voorbeeldje:
http://www.hothardware.com/articleimages/Item747/oc1.png


Ik vind voor de rest de X1800 serie goed hoor :Y)
maar de X1600 is zoals de X600-X700... Negeerbaar

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Ik weet niet precies waarom de X1600 zo positief wordt behandeld hier... Ikzelf vind em alles behalve intressant, en dat komt niet doordat ik Pro-NV ben.
de 6800GS veegt de vloer aan met die X1600XT out-of-the-box. Driver ouder/minder goed dan de GS? Denk het niet, toen de 6800GS uitkwam in November kreeg je beta drivers op een CD erbij, met de boodschap dat je zo snel mogelijk moest updaten, als dat mogelijk was.
6800GS 183 euro
X1600XT 170 euro
X1600pro 125 euro

De 6800GS biedt idd meer snelheid voor de prijs, maar geen AVIVO, slechte dyanamic branching, en geen HQ AF.
En het snelheidsverschil tussen 6800GS en X1600XT wordt alleen maar kleiner, kijk b.v. naar FEAR, BF2 en farcry.

Al met al hebben beide hun sterke en zwakke punten.
Jejking schreef op vrijdag 06 januari 2006 @ 18:32:
[...]
Maar goed, to the point, als je ziet dat de X1600XT iets van 10-15% sneller is dan een X1600Pro, die op zijn beurt weer marginaal sneller is dan een 6600GT, dan vrees ik dat de 7600(GT?) over de X1600-series heen gaat walsen... Ik denk dat ATi toch zware tijden tegemoet gaat, mits er in de lineup bepaalde dingen drástisch gaan veranderen zoals het gat tussen X1600XT en X1800XL :| . Iemand daar nog iets nieuws over te melden? The Source? CJ?
Even wat speculatie.... Als je uitgaat van de GeForce Go 7600, dan is het dus een GF6600GT met G70 ALUs op 450Mhz en 500Mhz GDDR3 mem. Er van uitgaande dat de G70 ALUs dus voor een boost kunnen zorgen (want ze gaan van 1 MADD & 1 MUL ALU naar 2 MADD/MUL ALUs) zou de performance misschien iets boven de 6600GT moeten komen op 450Mhz. De desktop variant zal ongetwijfeld veel hoger geklokt worden (misschien wel 600Mhz+) en in dat geval misschien wel over de X1600XT heen kunnen gaan.

Ik heb een schema gezien (rond November) waar de 7200 desktop voor Februari staat gepland en de 7600 voor Maart tijdens de CeBit. ATi zou rond die tijd RV560 moeten lanceren en de prijs van de X1900XT gaat dan officieel omlaag. RV560 zou nog wel eens voor een verrassing kunnen zorgen tegen de 7600. De X1800XL zakt volgens mij nog wel iets verder in prijs totdat de RV560 er is.
XanderDrake schreef op vrijdag 06 januari 2006 @ 22:39:
de 6800GS veegt de vloer aan met die X1600XT out-of-the-box. Driver ouder/minder goed dan de GS? Denk het niet, toen de 6800GS uitkwam in November kreeg je beta drivers op een CD erbij, met de boodschap dat je zo snel mogelijk moest updaten, als dat mogelijk was.
Je vergeet dat de 6800GS gebaseerd is op de NV4x reeks waarvan de drivers al enorm volwassen waren. Bij de X1600 serie was dit niet het geval en je ziet al dat door de ringbus controller en vernieuwde memory interface de performance al een stuk vooruit is gegaan in vergelijking tot de launch. De AA performance zakt bv bij de X1600 serie relatief minder dan bij de 6800GS in shaderintensieve games en in diezelfde games (zoals F.E.A.R., CoD, BF2) doet de 50M minder tellende chip het helemaal niet slecht.

Bedenk je wel... 4 pipes vs 12 pipes, 128-bit vs 256-bit, 4 texture units vs 12 texture units. Zelfde geldt voor de X1600XT vs 6600GT, 4 pipes vs 8 pipes, 4 texture units vs 8 texture units. Voor een kaart die eigenlijk maar 4 pipes heeft levert het dus absoluut geen slechte performance. Maar door de prijs wordt-ie vaak afgekraakt, maar daar is de laatste tijd al het een ander recht gezet. Een kaart met 8 pipes (en triplepumped shaders) zou er misschien beter bovenuit kunnen steken mits-ie in hetzelfde segment wordt geprijsd.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

wagnef schreef op vrijdag 06 januari 2006 @ 22:54:
6800GS 183 euro
X1600XT 174 euro
Is 9€ een compleet prijs-categorie verschil?
De 6800GS biedt idd meer snelheid voor de prijs, maar geen AVIVO, slechte dyanamic branching, en geen HQ AF.
AVIVO mist de GS inderdaad, maar ik had het over gamen :9 de "slechte" dynamic branching komt in mijn ogen niet echt naar boven.
En HQ AF in mid range :X :? ? op welke resolutie?
En het snelheidsverschil tussen 6800GS en X1600XT wordt alleen maar kleiner, kijk b.v. naar FEAR, BF2 en farcry.
Wordt kleiner? hoezo worden? Het punt van drivers heb ik al besproken.
En jah, even op FEAR terugkomend:
http://www.xbitlabs.com/images/video/geforce-6800gs/fear_pure.gif
Ik vind dit bijna schokkend... Voor een nieuwe ontwikkelde kaart.
Al met al hebben beide hun sterke en zwakke punten.
True true.

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • epo
  • Registratie: november 2000
  • Laatst online: 21:35
De 6800GS is dan ook bijna gelijk aan de "oude" ultra :) De x1600xt is dan ook gewoon een buttkaart,
absoluut niet gelijk aan de topper x800/850xt.
Mijn x1800xt gaat trouwens ook de deur uit, komt een 7800gt in voor 155 euro :) en daarna de x1900xtx of de G71....
Anyway ik verwacht weinig op driver gebied, ding lag lang genoeg in de kast om die optimized te ontwikkelen. En nogmaals dynamic branching... voordat dat echt wordt gebruikt is de kaart al lang ancient. De kaart is leuk voor 2d, maar voor 3d kan je beter je geld ergens anders voor uitgeven.

[Voor 65% gewijzigd door epo op 06-01-2006 23:13]


  • Aight!
  • Registratie: juli 2004
  • Laatst online: 22:26

Aight!

'A toy robot...'

fuck die X1800XL is cheap, nu al 343 bij azerty.

Ligt het aan mij of gaat het een stuk sneller dan toen bij X800Pro/XT/6800GT/6800Ultra.
Of vragen ze er nu gewoon te veel voor bij de launch?

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Lijkt me gewoon dat ATI de X1800XL aan het dumpen is, omdat de X1900 voor de deur staat.

It takes two fools to argue.


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
ff een nieuwtje ;)
De agp x1600pro is opgedoken!
http://www.pconline.com.c...pic/sa_16pro_agp_9107.jpg

De chinezen hebben hem meteen gebenched en dit zijn de feiten:
P4 3.6G(Socket775、1M L2 Cache、1066FSB)
ECS PT880Pro(Native AGP/PCI-Express)
Apacer DDR400 512Mx2
Timing:3-3-3-8
Hitach 7K250 80G 8M SATA
RadeonX1600Pro AGP

Benchmarks:

3Dmark2001SE 1024x768 >> 17615

3Dmark03 1024x768 >> 7222
3Dmark03 1280x1024 >> 5196

3Dmark05 1024x768 >> 3894
3Dmark05 1280x1024 >> 3165

Farcry Training 1024x768 >> 73.16
Farcry Training 1280x1024 >> 52.21


Halflife2 T3 1024x768 >> 92.89
Halflife2 T3 1280x1024 >> 65.38

Doom3 1024x768 >> 47.5
Doom3 1280x1024 >> 31.3

en nog iets:
hij is zelfs al leverbaar: vanaf 136,99 >:)
http://www.geizhals.at/eu/a181697.html

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
epo schreef op vrijdag 06 januari 2006 @ 23:08:
De 6800GS is dan ook bijna gelijk aan de "oude" ultra :) De x1600xt is dan ook gewoon een buttkaart,
absoluut niet gelijk aan de topper x800/850xt.
Mijn x1800xt gaat trouwens ook de deur uit, komt een 7800gt in voor 155 euro :) en daarna de x1900xtx of de G71....
Anyway ik verwacht weinig op driver gebied, ding lag lang genoeg in de kast om die optimized te ontwikkelen. En nogmaals dynamic branching... voordat dat echt wordt gebruikt is de kaart al lang ancient. De kaart is leuk voor 2d, maar voor 3d kan je beter je geld ergens anders voor uitgeven.
Dynamic branching komt in de next gen games die gewoon DX 9.0 zullen zijn en nog lang geen DX 10. Want die komen in 2007 pas. Dus je kunt er echt wel gebruik van maken voordat de kaart veroudert is. Wat CJ ook zegt de Xbox 360 gebruikt het ook. En dat zal de game defs puchen om dynamicbranching in hun games te bakken. En als ze dat eenmaal hebben gaan ze het voor het pc platform er echt niet uit halen.

En 7800 GT voor 155 euro ? ding is minimaal 316 euro of zo. Dus dan koop je em wel heel erg goedkoop 2e hands. Zlef houd ik me X1800 XL tot eind deze maand. Dan verkoop ik em en komt er een X1900 XT. Ik gok dat de XTX te duur word en bijna hetzelfde is op het hand picked na mischien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

@CJ
Bij tijd en wijle wordt de discussie hier wel heel technisch, zelfs voor mensen die het topic/videokaartenbusines aandachtig volgen. Dat is op zich leuk en interessant maar soms is het amper nog te volgen. Voor mij dan.... :o

Alhoewel het niet ATI specifiek is zou het een waardevolle toevoeging aan de Startpost kunnen zijn als je dingen als ROPS / ALU' s / Pixelpipelines/Vertex Units /Shaders etc. onder een apart kopje kort en bondig zou kunnen uitleggen. Denk dat je veel mensen daar een plezier mee zou doen. :) Maar misschien is het ook wel wat veel werk.. :X

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Astennu schreef op zaterdag 07 januari 2006 @ 10:21:
Dynamic branching komt in de next gen games die gewoon DX 9.0 zullen zijn en nog lang geen DX 10. Want die komen in 2007 pas. Dus je kunt er echt wel gebruik van maken voordat de kaart veroudert is. Wat CJ ook zegt de Xbox 360 gebruikt het ook. En dat zal de game defs puchen om dynamicbranching in hun games te bakken. En als ze dat eenmaal hebben gaan ze het voor het pc platform er echt niet uit halen.
Ik ben wat sceptisch over het echte voordeel van dynamic branching in dit geval. Ik denk ook niet dat deze functie de X1600 "te hulp" komt schieten, op tijd tenminste.
En 7800 GT voor 155 euro ? ding is minimaal 316 euro of zo. Dus dan koop je em wel heel erg goedkoop 2e hands. Zlef houd ik me X1800 XL tot eind deze maand. Dan verkoop ik em en komt er een X1900 XT. Ik gok dat de XTX te duur word en bijna hetzelfde is op het hand picked na mischien.
Je kan een 7800GT nieuw krijgen voor 299€ these days :9~ Heel aantrekkelijk
Aight! schreef op zaterdag 07 januari 2006 @ 00:49:
fuck die X1800XL is cheap, nu al 343 bij azerty.

Ligt het aan mij of gaat het een stuk sneller dan toen bij X800Pro/XT/6800GT/6800Ultra.
Of vragen ze er nu gewoon te veel voor bij de launch?
Dat denk ik ook! Grappig genoeg daalt bijv. de 7800GT snel tot het prijs niveau van een 6800GT!
een 6800GT is nu ongeveer 260€, 7800GT dus 299€ :)
Help!!!! schreef op zaterdag 07 januari 2006 @ 11:38:
@CJ
Bij tijd en wijle wordt de discussie hier wel heel technisch, zelfs voor mensen die het topic/videokaartenbusines aandachtig volgen. Dat is op zich leuk en interessant maar soms is het amper nog te volgen. Voor mij dan.... :o

Alhoewel het niet ATI specifiek is zou het een waardevolle toevoeging aan de Startpost kunnen zijn als je dingen als ROPS / ALU' s / Pixelpipelines/Vertex Units /Shaders etc. onder een apart kopje kort en bondig zou kunnen uitleggen. Denk dat je veel mensen daar een plezier mee zou doen. :) Maar misschien is het ook wel wat veel werk.. :X
Hehe... Ikzelf zou daar ook erg veel baad bij hebben B)

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • NinteX
  • Registratie: februari 2004
  • Laatst online: 04-07-2015

NinteX

Gone Forever :W

Inderdaad zo een uitleg zou erg handig zijn.
Of opnemen in het "lees dit eerst" gebeuren.

Left for greener pastures(NeoGAF/Wii-DS) :W


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Er zijn strax altijd nog mensen die een X1600 kopen en daar 3 jaar mee willen doen. En dan help het echt wel. Dan zou het nog wel eens zo kunnen zijn dat je tegen die tijd met een X1600 sneller bent in sm 3.0 games dan met een 7600 die strax zekers sneller zal zijn in huidige games. Maar dat je bv in unreal 3 met een X1600 veel betere FPS krijgt. Maar dat is mijn visie :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Astennu schreef op zaterdag 07 januari 2006 @ 12:13:
Er zijn strax altijd nog mensen die een X1600 kopen en daar 3 jaar mee willen doen. En dan help het echt wel.
Maar wat als de huidige games niet echt snel meer draaien :/ Ik durf niet eens te gokken hoe het zit over één jaar. Laat staan drie :X

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
XanderDrake schreef op zaterdag 07 januari 2006 @ 12:22:
[...]
Maar wat als de huidige games niet echt snel meer draaien :/ Ik durf niet eens te gokken hoe het zit over één jaar. Laat staan drie :X
Er zijn nu ook mensen die WOW met ene GF 2 MX of iets van een GF 3 of een Radeon 8500 te zitten spelen. Vergis je daar maar niet in. Maar idd op dit moment is het niet een geweldig aantrekkelijke game kaart. Maar als je veel desktop werk doet en video bewerken raad ik toch een ATi met AVIVO aan. En je kunt er prima een spelletje op spelen. Wil je echt alleen maar gamen kun je ook beter voor een highend kaart gaan. OF dan idd die 6800 GS. Maar X1600 Pro is wel een stuk goedkoper dan de GS scheeld toch een 60-70 euro en dat hebben sommige er niet voor over.

[Voor 3% gewijzigd door Astennu op 07-01-2006 12:46]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • NinteX
  • Registratie: februari 2004
  • Laatst online: 04-07-2015

NinteX

Gone Forever :W

Huidige games is de kaart niet helemaal geschikt voor maar die benchmarks zijn nog op oude drivers de laatste catalyst drivers hebben het openGL probleem opgelost wat ATi kaarten hadden. Ook heb je bij oudere games niet echt veel profijt van AA , maar deze kaart heeft daar weinig snelheidsvermindering van. Over een jaar zijn de drivers flink verbeterd en heb ik voor weinig geld wel een aardig kaartje denk zolang hij nu maar Need for speed most wanted, HL2 draait vind ik het best.
Over een paar weken heb ik mijn nieuwe systeem waarschijnlijk met een X1600XT en zal ik wel verslag uitbrengen. Ik game nu op me gamecube en het grootste grafische geweld wat ik heb gezien is de 9700pro van mijn broer ik zal wel tevreden zijn :)

[Voor 21% gewijzigd door NinteX op 07-01-2006 12:51]

Left for greener pastures(NeoGAF/Wii-DS) :W


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Hoe kan je de fan-speed wijzigen van een X1800XT??

Edit: laat maar; is al klaar. 8)7

[Voor 29% gewijzigd door Format-C op 07-01-2006 13:38]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • _ep
  • Registratie: april 2003
  • Laatst online: 05-05-2019

_ep

Igor-to-the-Home!

Joepi schreef op zaterdag 07 januari 2006 @ 00:59:
ff een nieuwtje ;)
De agp x1600pro is opgedoken!
Goed nieuws! Toch maar eens kijken of dat niet beter is dan een X800 op de lange termijn. Zoals Astennu al zegt (voor een andere situatie, maar toch), de X800 is nu sneller dan de X1600, maar door de nieuwe structuur kan dat straks wel eens omslaan*.
offtopic:
En ja, ik ben inderdaad zo iemand die wel een jaar of 3 met zijn nieuwe kaart wil doen. En nee, ik ga echt nog niet upgraden naar PCI-express op dit moment :)

Hopelijk komt bijvoorbeeld 3dmark06 snel uit, dat zou al een indicatie moeten kunnen geven...

Komt er nu ook nog een X1600XT AGP, of alleen de Pro? Want de XT is toch wel een stukje sneller...

* Moet je wel even denken aan verschillen tussen Pro/XL/XT e.d., maar je snapt wat ik bedoel.

Benieuwd waar ik mee bezig ben? http://www.genexis.eu


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Met welk programmaatje kan ik de fan speed van ATi regelen?

-Geen ATitool aub. ;)

Ik heb hier de X1800XT van Edward2, en die wordt 90 graden op de 700/800 PE BIOS. :X

[Voor 35% gewijzigd door Format-C op 07-01-2006 14:45]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
RappieRappie schreef op Saturday 07 January 2006 @ 14:15:
Met welk programmaatje kan ik de fan speed van ATi regelen?

-Geen ATitool aub. ;)

Ik heb hier de X1800XT van Edward2, en die wordt 90 graden op de 700/800 PE BIOS. :X
Voor het handmatig regelen van je fanspeed werkt Ati tool wel goed. Anders Overclocker;
http://www.driverheaven.net/zardon/overclocker.zip

Als je het extra voltage van het PE bios niet nodig hebt om op 700/800 te kunnen draaien zou ik de kaart gewoon terugflashen naar de standaard bios, de kaart wordt onnodig warmer door de hogere Vcore. ;)

[Voor 7% gewijzigd door Apple|IA op 07-01-2006 15:12]


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Apple schreef op zaterdag 07 januari 2006 @ 15:10:
[...]


Voor het handmatig regelen van je fanspeed werkt Ati tool wel goed. Anders Overclocker;
http://www.driverheaven.net/zardon/overclocker.zip

Als je het extra voltage van het PE bios niet nodig hebt om op 700/800 te kunnen draaien zou ik de kaart gewoon terugflashen naar de standaard bios, de kaart wordt onnodig warmer door de hogere Vcore. ;)
Atitool loopt vast op 700/800 en deze BIOS. :r

Dus dat programma gebruik ik niet.

Maarre: ik heb nu met Rivatuner de fanspeed vastgezet op 60%.
De idle temp is nu 41 graden, en de stressed temp is 70 graden. :9 (Het was 54/91)

Op naar de 750MHz coresnelheid. :7

BTW: bedankt voor dat tooltje Apple. Ik kon hem nergens vinden. _/-\o_

O ja:

http://img399.imageshack.us/img399/8279/x1800xt1uf.jpg :>

[Voor 7% gewijzigd door Format-C op 07-01-2006 15:22]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Die 750 core moet wel kunnen . Als je al ziet dat firefox @ stock al 730 core haald. En het geheugen zal wel tot 900 kunnen 850 moet in ieder geval geen probleem zijn.

Maar met je gemoddebios kun je makkelijk 750 core draaien :) Ik neem aan dat die iets van 1.4v op de core heeft.

[Voor 11% gewijzigd door Astennu op 07-01-2006 15:44]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Ik heb nog een vraag over dyanamic branching.
Zorg dit alleen voor meer snelheid bij SM3.0 games of ook voor meer iQ.
( in de first post staat alleen de architectuur beschreven.)

  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
Astennu.. kheb je ff toegevoegd bij msn.. (ff vraagiej)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
wagnef schreef op Saturday 07 January 2006 @ 16:14:
Ik heb nog een vraag over dyanamic branching.
Zorg dit alleen voor meer snelheid bij SM3.0 games of ook voor meer iQ.
( in de first post staat alleen de architectuur beschreven.)
Alleen voor snelheid als ik het goed begrijp. Het plaatje word opgedeelt in vlakjes en die worden weer toegewezen aan een ROB of shader. Bij de X1800 zijn deze vlakjes veel kleiner dan bij de G70.

Maar ik kan het eigenlijk niet goed uitleggen en ik kan er ook best wel naast zitten :D Denk dat CJ het beter kan uitleggen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
Moet je nou nog een kaart kopen van ±200eu zonder SM3.0?

Kijk naar bv. naar Fear of AoE3 :|

Ben je dan niet beter af met een x1600?

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Astennu schreef op zaterdag 07 januari 2006 @ 16:45:
[...]
Alleen voor snelheid als ik het goed begrijp.
Het is een beetje een "en en" verhaal. Als je snelheid wint houd je ruimte over om je IQ te verhogen (meer AA/AF, of in-game meer effecten). :)

Volgens Microsoft: Dynamic branching = Saves performance by skipping complex shading on irrelevant pixels.

[Voor 18% gewijzigd door Apple|IA op 07-01-2006 16:55]

XanderDrake schreef op Saturday 07 January 2006 @ 12:08:
[...]
Ik ben wat sceptisch over het echte voordeel van dynamic branching in dit geval. Ik denk ook niet dat deze functie de X1600 "te hulp" komt schieten, op tijd tenminste.
Tja, devs hebben nog niet echt met dynamic branching gestrooid omdat de NV40 er gewoon te traag voor was en ook de G70 is er geen snelheidswonder in.

Er is een benchmark die goed de shadermogelijkheden laat zien van de kaarten, namelijk Shadermark. Deze is vrij accuraat en laat ook zien dat bv de G70 een kei is in allerlei andere shaders, maar met dynamic branching door de mand valt.

Van Xbit Labs:

X1800XT - X1600XT - 7800GTX - GF6800Ultra - X1300Pro
Dynamic Branching: 171.4 - 119 - 103.8 - 54.4 - 49.2
Dynamic Branching + 10 Textures: 163 - 110.6 - 95 - 47 - 45.8
Heavy Dynamic Branching: 83.2 - 55.2 - 40.2 - 25.4 - 22.2

Bron: http://www.xbitlabs.com/a...play/radeon-x1000_21.html
http://www.xbitlabs.com/a...play/radeon-x1000_27.html
http://www.xbitlabs.com/a...play/radeon-x1000_33.html

Zoals je ziet kan zelfs een X1300Pro de GF6800U bijhouden. En een X1600XT is sneller dan een 7800GTX.

Dit was de test die ook al vroegtijdig de SM2.0 mankementen aantoonde in de FX reeks. En het grappige was toen dat veel nVidia aanhangers riepen dat dit allemaal niet zou uitmaken en dat er nog lang geen games waren die gebruik maakten van SM2.0. Ik durf er om te wedden dat de mensen die toen een 9800Pro/XT of zelfs een 9600XT hebben gekocht langer van hun kaart hebben kunnen genieten dan de mensen met een FX5900. Want de SM2.0 games kwamen er en nog tijdens de levensduur van de kaarten. Ik denk dat hetzelfde gaat gebeuren met dynamic branching.

Overigens heb ik de second post FAQ een beetje geordend en ga er toch maar eens wat tech-dingen in proberen te gooien. Aanvullingen/verbeteringen op de dingen die ik gepost heb zijn zeer welkom via de mail. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
XpertVision X1600 Pro Golden met zalman coolertje out of the box ;)

Een van de weinige x1600pro reviews, zo niet de enige!
Er wordt wel alles uit de kast gehaald qua tweaks bij VR-Zone })

http://www.vr-zone.com.sg/?i=3092&s=1

Maar: waarom breekt de x1600pro zo katastrofaal in bij CoD2? :?

  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Humoristisch hoe vaak wordt verwezen naar de FX reeks in dit soort discussies... Alsof nVidia die fout ooit nog eens zal maken?
Welke toekomstige games maken ook daadwerkelijk veel gebruik van dynamic branching (db)?
Het is lijkt me duidelijk dat in FEAR er niet genoeg wordt gebruik gemaakt van db, als ik uit ga van CJ's beredenering. In FEAR wint de "oude" 6800GS namelijk ruim van de X1600XT.
Wanneer gaan we de echte voordelen zien van goede db acceleratie?

Anyway, ik ben ondertussen heel erg benieuwd naar de scores in 3Dmark2006. Zijn die dan wel representatief, denken jullie?

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • NinteX
  • Registratie: februari 2004
  • Laatst online: 04-07-2015

NinteX

Gone Forever :W

Als de beeldkwaliteit van de 1600XT inderdaad veel verschild van de 6800GS dan is het logisch dat de Geforce het in benchmarks beter doet. Adaptive anti-alising en alle andere technische snufjes zijn denk "zwaarder" als het "gewone" spul waar de 6800GS het mee doet. ATi kaarten zijn meestal met de launch bagger. Maar zodra de drivers goede ondersteuning geven razen ze de nvidia kaarten meestal voorbij.

Left for greener pastures(NeoGAF/Wii-DS) :W


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Humoristisch hoe vaak wordt verwezen naar de FX reeks in dit soort discussies... Alsof nVidia die fout ooit nog eens zal maken?
Welke toekomstige games maken ook daadwerkelijk veel gebruik van dynamic branching (db)?
Een antwoord hierop is eigenlijk vrij makkelijk volgens mij. Zolang Nvidia DB niet goed onder de knie heeft, zal iedere TWIMTBP game dev er geen of zeer spaarzaam gebruik van maken. Men gaat immers haar "sponsor" niet belachelijk maken.
Aangezien 99 v/d 100 games TWIMTBP zijn zal het nog wel een poosje duren eer dat we heavy DB
veelvuldig gaan zien. Een uitzondering zal zijn een enkele zeldzame GITG game of een door Ati gesponsorde game patch. Jammergenoeg is game PR Ati´s zwakke punt dus hier zie ik weinig lichtpuntjes.

Als Nv DB op orde had hadden we het allang veelvuldig gezien, Cevat Yerli van Crytek merkte in een interview op dat ze geen DB konden gebruiken in de Farcry SM3.0 patch omdat de SM3.0 kaart waar het toendertijd om draaide (Nv40) het niet aankon. Volgens hem jammer omdat het een geweldige feature is, dé mainfeature van SM3.0

[Voor 39% gewijzigd door Apple|IA op 07-01-2006 20:42]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Apple schreef op zaterdag 07 januari 2006 @ 20:33:
[...]


Een antwoord hierop is eigenlijk vrij makkelijk volgens mij. Zolang Nvidia DB niet goed onder de knie heeft, zal iedere TWIMTBP game dev er geen of zeer spaarzaam gebruik van maken. Men gaat immers haar "sponsor" niet belachelijk maken.
Aangezien 99 v/d 100 games TWIMTBP zijn zal het nog wel een poosje duren eer dat we heavy DB
veelvuldig gaan zien. Een uitzondering zal zijn een enkele zeldzame GITG game of een door Ati gesponsorde game patch. Jammergenoeg is game PR Ati´s zwakke punt dus hier zie ik weinig lichtpuntjes.

Als Nv DB op orde had hadden we het allang veelvuldig gezien, Cevat Yerli van Crytek merkte in een interview op dat ze geen DB konden gebruiken in de Farcry SM3.0 patch omdat de SM3.0 kaart waar het toendertijd om draaide (Nv40) het niet aankon. Volgens hem jammer omdat het een geweldige feature is, dé mainfeature van SM3.0
Ben ik het niet helemaal mee eens. Wat dacht je van alle games die op de Xbox 360 uikomen. Daar gaat echt wel veel geoptimaliseerd worden voor de Xenos. En daar kan de X1K serie mooi een graantje van mee pikken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Tyranium
  • Registratie: december 2003
  • Niet online

Tyranium

Ero-sennin

Virgo_theone schreef op zaterdag 07 januari 2006 @ 20:24:
Als de beeldkwaliteit van de 1600XT inderdaad veel verschild van de 6800GS dan is het logisch dat de Geforce het in benchmarks beter doet. Adaptive anti-alising en alle andere technische snufjes zijn denk "zwaarder" als het "gewone" spul waar de 6800GS het mee doet. ATi kaarten zijn meestal met de launch bagger. Maar zodra de drivers goede ondersteuning geven razen ze de nvidia kaarten meestal voorbij.
Jammer, maar de beeldkwaliteit van de X1600XT verschilt niet veel van de 6800GS. Alleen als je HQ AF aanzet is de filtering met de X1600XT mooier, jammer alleen dat de X1600XT daar in de meeste (nieuwe) games te langzaam voor is, en toekomstige games zullen dat zeker niet helpen. ;)

En mooi dat in de toekomst meer games zullen komen met DB, maar dat zal zeker niet de enige graphics verbetering zijn in die spellen (mag ik hopen), waardoor de spellen ook op veel andere punten alleen maar zwaarder zullen worden, en op die meeste (alle?) andere punten wint de 6800GS het toch van de X1600XT, waardoor (ik denk) dat de 6800GS altijd de betere keuze zal blijven boven de X1600XT, die gewoon de "standaard" performance mist. :)

Alleen als je veel met 2D gaat doen is de X1600XT denk ik beter door AVIVO.

Edit: De RV560 = dus de X1700XT en dus de opvolger van de X1600XT? Hopelijk komt die zo snel mogelijk en word dat wel een waardige midrange kaart. :)

[Voor 7% gewijzigd door Tyranium op 07-01-2006 21:01]

XanderDrake schreef op Saturday 07 January 2006 @ 19:59:
Humoristisch hoe vaak wordt verwezen naar de FX reeks in dit soort discussies... Alsof nVidia die fout ooit nog eens zal maken?
Welke toekomstige games maken ook daadwerkelijk veel gebruik van dynamic branching (db)?
Het is lijkt me duidelijk dat in FEAR er niet genoeg wordt gebruik gemaakt van db, als ik uit ga van CJ's beredenering. In FEAR wint de "oude" 6800GS namelijk ruim van de X1600XT.
Wanneer gaan we de echte voordelen zien van goede db acceleratie?

Anyway, ik ben ondertussen heel erg benieuwd naar de scores in 3Dmark2006. Zijn die dan wel representatief, denken jullie?
F.E.A.R. heeft haast geen dynamic branching. Het zou me zelfs verbazen als er ook maar een klein beetje SM3.0 in zit. Als dat zo was dan had men het ook wel heel erg groot geadverteerd. Je moet dus geen dingen door elkaar halen en wel even weten in welke games wat gebruikt wordt. In F.E.A.R. worden voornamelijk veel shaders gebruikt en lange shaders. En aan pure shaderpower heeft bv een 6800GS voldoende van in huis.

6800GS presteert vaak beter dan een 6800GT en benadert soms zelfs de 6800U. Tja, dan is het niet gek dat een GF6800GS wint van een X1600XT. Daarnaast heeft F.E.A.R. ook veel baat bij de 12 TMUs die in de GF6800GS zitten, terwijl de X1600XT het er maar met 4 moet doen. Tel daarbij op de 12 ROPs die er voor zorgen dat het beeld sneller gevuld kan worden en AA sneller kan worden uitgevoerd, en de enorme sloot aan bandbreedte...

Op de vraag wanneer we de eerste echte DB voordelen zien... Hoe lang duurde het voordat we de eerste echte DX9 games op de markt zagen nadat de 9700Pro op de markt kwam? Far Cry kwam in begin 2004 uit. De 9700Pro in Augustus 2002.

Als de eerste leaks waarheid zijn over 3DMark2006 dan is een X1800XT tot bijna 2x sneller (of meer) dan een 7800GTX. Ben benieuwd of HDR + AA standaard wordt en hoeveel dynamic branching erin gebruikt gaat worden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Virgo_theone schreef op zaterdag 07 januari 2006 @ 20:24:
Als de beeldkwaliteit van de 1600XT inderdaad veel verschild van de 6800GS dan is het logisch dat de Geforce het in benchmarks beter doet. Adaptive anti-alising en alle andere technische snufjes zijn denk "zwaarder" als het "gewone" spul waar de 6800GS het mee doet. ATi kaarten zijn meestal met de launch bagger. Maar zodra de drivers goede ondersteuning geven razen ze de nvidia kaarten meestal voorbij.
Ga er niet van uit dat je Adaptive AA serieus kunt gebruiken met de X1600XT... de kaart heeft regelmatig al voldoende moeite om zich zonder veel specifieke IQ opties (AA/AF) op "High" settings staande te houden op 1280x1024 en soms zelfs al 1024x768...

IQ opties zijn leuk, maar vrij zinloos als ze niet te gebruiken zijn omdat performance te veel te wensen overlaat om ze in te schakelen. De X1800XT heeft hetzelfde probleem met FP16 HDR+AA... het is op zich een prachtige feature, en een erg mooie kaart... maar de basisperformance met (FP16) HDR is op hoge resoluties onvoldoende, zelfs zonder AA. HDR (zeker HDR+AA) is op X1800's zodoende praktisch gezien onbruikbaar op - in ieder geval - reso's van 1600x1200 en daarboven. Ik vind ATi's HDR issues eigenlijk dringender dan nVidia's Dynamic Branching issues... het probleem van nVidia is een "indien in de toekomst > dan" probleem, terwijl de X1800's HDR problemen reeds op dit moment erg levend zijn. Dit is ook de reden dat ik uiteindelijk toch bij de GTX TOP gebleven ben.

Ik heb mijn Widescreen/HDR review trouwens ondertussen afgerond, en hoop dat ik 'm binnenkort op Tweakers mag plaatsen. De sterke punten van beide architecturen komen er mooi uit :)
Heb alleen nog geen reactie ontvangen... moet zo het niet kan opzoek naar een alternatieve "ophangplek" ;)
CJ schreef op zaterdag 07 januari 2006 @ 21:16:
6800GS presteert vaak beter dan een 6800GT en benadert soms zelfs de 6800U.
Over het algemeen is de 6800GT met zijn 16 pipelines net sneller dan een niet overklokte 6800GS ;)
Daarnaast heeft F.E.A.R. ook veel baat bij de 12 TMUs die in de GF6800GS zitten, terwijl de X1600XT het er maar met 4 moet doen. Tel daarbij op de 12 ROPs die er voor zorgen dat het beeld sneller gevuld kan worden en AA sneller kan worden uitgevoerd, en de enorme sloot aan bandbreedte...
Het verrassende is dat FEAR op de X1600XT sinds de ATi driverfix juist wat beter schijnt te presteren dan de 6800GS ;)
Op de vraag wanneer we de eerste echte DB voordelen zien... Hoe lang duurde het voordat we de eerste echte DX9 games op de markt zagen nadat de 9700Pro op de markt kwam? Far Cry kwam in begin 2004 uit. De 9700Pro in Augustus 2002.

Als de eerste leaks waarheid zijn over 3DMark2006 dan is een X1800XT tot bijna 2x sneller (of meer) dan een 7800GTX. Ben benieuwd of HDR + AA standaard wordt en hoeveel dynamic branching erin gebruikt gaat worden.
3DMark loopt over het algemeen 1-2 jaar voor op de gamedev's... gezien gebruikmaking van DB een vrij stevige verandering van werkwijze bij de dev's vereist denk ik inderdaad dat de eerste "echte" DB games tegen eind dit jaar / begin volgend jaar zullen beginnen te verschijnen.
Ik heb echter sterk het vermoeden dat veel dev's een overgangsperiode met zowel een static als dynamic branching pad zullen hanteren, omdat ook de oudere DirecX9 kaarten voorlopig ondersteund moeten blijven natuurlijk :)

Of Xenos de dev's zal "dwingen" tot het gebruik van DB valt nog te bezien. Ik denk dat Xenos in combinatie met de triple core IBM PowerPC meer dan voldoende power in huis heeft om 1080i ook middels een static pad met zeer hoge IQ te draaien.

[Voor 60% gewijzigd door Cheetah op 07-01-2006 21:42]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

FirefoxAG schreef op Saturday 07 January 2006 @ 21:22:
[...]
Over het algemeen is de 6800GT met zijn 16 pipelines net sneller dan een niet overklokte 6800GS ;)
Ligt er maar net aan welke site je kijkt en welke game... http://www.xbitlabs.com/a...splay/geforce-6800gs.html Bijna alles gelijk spel. En de GF is nog richting de 500Mhz te klokken en schiet er dan helemaal voorbij.

Voor een kaart met 4 ROPs doet de X1600XT het niet onverdienstelijk tegen een kaart met 12.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Nieuwsflash: Microsoft adviseert ATi hardware voor Vista

Het volgende bericht komt van The Inq die nu ook op de CES 2006 aanwezig is. Het schijnt dat Microsoft op dit moment (dus kan natuurlijk altijd veranderen) de voorkeur geeft aan ATi hardware vanwege superieure driversupport. Ben benieuwd wat dit voor gevolgen gaat hebben, zeker nu SM4.0 er aan komt en MS ATi hardware gebruikt in Xenos die al een flinke stap richting unified doet.
WE MANAGED to see a rather interesting Microsoft document that recommends to people who want to show off Vista to use ATI over Nvidia. It says that: "ATI is preferred to Nvidia at this time due to superior driver support". It turns out that the real Vista Beta 2 is still a few weeks away and that the beta 2 we saw was the December build, a beta 2 but not the complete one.
The same Microsoft document recommends a comple of notebooks, the Acer Ferrari 3400, powered by ATI's Mobility Radeon 9700, the Acer Ferrari 4000 powered by ATI Mobility Radeon X700, HP Pavilion zd8230 powered by ATI Mobility Radeon X600 with 128MB of dedicated DDR, the former IBM Thinkpad T43 powered by ATI Mobility Radeon X300 64MB and Toshiba Tecra M4 the only one powered by Geforce 6 GO 6600/6200TC.

Microsoft also said that the Toshiba machine with Nvidia hardware won't run the Glass fancy interface. I am sure that Nvidia is working on it and ATI's X1000 Radeons are not on the list either. We know that X1000 generation gets its support in the final Beta 2 scheduled for February now.

Microsoft recomends people use a 3GHz Pentium CPU or AMD equivalent, 1GB of memory and a S-ATA drive along with DVD recorder and similar stuff. This spec will run Vista just fine.

Microsoft's own machines that we saw at the Microsoft booth are using Radeon 9600 / 9700 hardware and you can check them here.
http://www.theinq.net/?article=28825

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Een antwoord hierop is eigenlijk vrij makkelijk volgens mij. Zolang Nvidia DB niet goed onder de knie heeft, zal iedere TWIMTBP game dev er geen of zeer spaarzaam gebruik van maken. Men gaat immers haar "sponsor" niet belachelijk maken.
Aangezien 99 v/d 100 games TWIMTBP zijn zal het nog wel een poosje duren eer dat we heavy DB
veelvuldig gaan zien. Een uitzondering zal zijn een enkele zeldzame GITG game of een door Ati gesponsorde game patch. Jammergenoeg is game PR Ati´s zwakke punt dus hier zie ik weinig lichtpuntjes.
De invloed van TWIMTBP zal wel aanwezig zijn, maar game dev's met TWIMTBP zullen zeker niet toe willen kijken hoe GITG dev's mogen/kunnen uitleven met de nieuwste ATI snufjes. De mooiste/zwaarste/complexte games worden namelijk altijd in benchmark meegenomen en is dus gratis reclame voor de game dev. Een voorbeeld hiervan is Crytec, deze zijn m.b.v. ATI's R300 en DX9 zeer groot geworen.
Als Nv DB op orde had hadden we het allang veelvuldig gezien, Cevat Yerli van Crytek merkte in een interview op dat ze geen DB konden gebruiken in de Farcry SM3.0 patch omdat de SM3.0 kaart waar het toendertijd om draaide (Nv40) het niet aankon. Volgens hem jammer omdat het een geweldige feature is, dé mainfeature van SM3.0
Misschien laat de FARCRY patch wel lang op zich wachten doordat Crytec ook DB in de patch wil pompen voor X1k serie. :)

[Voor 9% gewijzigd door wagnef op 08-01-2006 00:31]


  • NinteX
  • Registratie: februari 2004
  • Laatst online: 04-07-2015

NinteX

Gone Forever :W

Microsoft kiest dus voor ATi ben benieuwd wie er op de lange termijn meer aanhang krijgt. Het steeds recyclen van architectures word Nvidia denk niet in dank afgenomen. Want echt veel vernieuwing komt er dan niet.

Left for greener pastures(NeoGAF/Wii-DS) :W


  • Milmoor
  • Registratie: januari 2000
  • Laatst online: 18-10 09:25

Milmoor

Footsteps and pictures.

Ik ben zeer benieuwd hoe videokaarten in de toekomst met hun analoge output zullen omgaan. 1900x1200 en hoger begint het speelveld van de schermen met digitale ingang te worden. De 400 Mhz Ramdac zal nog wel lange tijd beschikbaar blijven, maar zal men nog aandacht besteden aan de kwaliteit voor de hogere resoluties? Het signaal ook daar mooi zuiver krijgen zou wel eens meer kunnen kosten dan de fabrikant eraan wenst te besteden.
offtopic:
Snif, mijn 24" 16:10 CRT met 1900x1200 native resolution raakt verouderd...

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.

wagnef schreef op zaterdag 07 januari 2006 @ 22:36:
[...]
Misschien laat de FARCRY patch wel lang op zich wachten doordat Crytec ook DB in de patch wel pompen voor X1k serie. :)
Ik denk dat we nog langer op de patch kunnen wachten...

De patch is al lang en breed klaar, maar wordt volgens mij tegen gehouden door Ubisoft. En volgens mij houdt Ubisoft de patch achter omdat ze wachten op G71. Maar G71 heeft weer vertraging volgens het laatste geruchten (1, 2 van The Inq waarin o.a. verteld wordt dat nV nog wat langer aan de GTX512 vasthoudt, maar dat de X1900XTX deze met 25% of meer verslaat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op zaterdag 07 januari 2006 @ 23:07:
[...]


Ik denk dat we nog langer op de patch kunnen wachten...

De patch is al lang en breed klaar, maar wordt volgens mij tegen gehouden door Ubisoft. En volgens mij houdt Ubisoft de patch achter omdat ze wachten op G71. Maar G71 heeft weer vertraging volgens het laatste geruchten (1, 2 van The Inq waarin o.a. verteld wordt dat nV nog wat langer aan de GTX512 vasthoudt, maar dat de X1900XTX deze met 25% of meer verslaat.
De G71 chips komen volgens mij pas net de fabrieken uit. Dus ik gok dat die er rond cebit zal zijn. Mischien samen met de 7600en de 7300 ??

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
CJ schreef op Saturday 07 January 2006 @ 23:07:
[...]
Maar G71 heeft weer vertraging volgens het laatste geruchten (1, 2 van The Inq waarin o.a. verteld wordt dat nV nog wat langer aan de GTX512 vasthoudt, maar dat de X1900XTX deze met 25% of meer verslaat.
Lol, een deja vu? Iemand die moeite heeft om haar eerste 90nm kaart met goede yields te produceren? :)

  • grizzlybeer
  • Registratie: juli 2000
  • Niet online
CJ schreef op zaterdag 07 januari 2006 @ 23:07:
... waarin o.a. verteld wordt dat nV nog wat langer aan de GTX512 vasthoudt, maar dat de X1900XTX deze met 25% of meer verslaat.
Op een of andere manier heb ik bij dit soort berichten het gevoel dat er wel een kern van waarheid inzit...

Verder vind ik dat ATi het goed doet de laatste tijd. Naast het feit dat ze de (aankomende) poerformance leader zullen zijn, is het mooie (ook) dat ze er goed inzitten bij zowel Intel (chipsetpartner) als Microsoft (Xbox360), toch 2 van de 3 belangrijkste IT bedrijven ter wereld (naast IBM). Voor zover ik weet is dit bij nVidia niet het geval.

  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Apple schreef op zaterdag 07 januari 2006 @ 23:51:
Lol, een deja vu? Iemand die moeite heeft om haar eerste 90nm kaart met goede yields te produceren? :)
De eerste 90nm chips van nVidia zijn al lang en breed in om loop, namelijk de Geforce 6100/6150 en nForce 410 chips. Ik neem aan dat het 90nm procedé al nagenoeg volwassen is nu deze chips op zéér lage kosten aangeboden worden.
grizzlybeer schreef op zondag 08 januari 2006 @ 00:57:
Op een of andere manier heb ik bij dit soort berichten het gevoel dat er wel een kern van waarheid inzit...

Verder vind ik dat ATi het goed doet de laatste tijd. Naast het feit dat ze de (aankomende) poerformance leader zullen zijn, is het mooie (ook) dat ze er goed inzitten bij zowel Intel (chipsetpartner) als Microsoft (Xbox360), toch 2 van de 3 belangrijkste IT bedrijven ter wereld (naast IBM). Voor zover ik weet is dit bij nVidia niet het geval.
Ik vind ook dat ATi niet slecht bezig is. Maar deze vergelijking vind ik te ver gaan. Een mooi voorbeeld hiervan is dit,
http://www.techpowerup.com/reviews/ATI/NVDesperate/images/stocks.gif
Direct afkomstig na de release van de 7800 GTX 512.
ATi had een "presentatie" gemaakt over dat de GTX512 niet lang mee zou gaan en bla bla bla.
Ik moest wel lachen toen ik direct daarna dit plaatje zag :+
FirefoxAG schreef op zaterdag 07 januari 2006 @ 21:22:
Ga er niet van uit dat je Adaptive AA serieus kunt gebruiken met de X1600XT... de kaart heeft regelmatig al voldoende moeite om zich zonder veel specifieke IQ opties (AA/AF) op "High" settings staande te houden op 1280x1024 en soms zelfs al 1024x768...
Copy that.
Zoals ik al zei, leuk die HQ AF, maar op welke resolutie? De X1600 lijkt niet te zijn gereleased voor deze features
Over het algemeen is de 6800GT met zijn 16 pipelines net sneller dan een niet overklokte 6800GS ;)
Inderdaad, de 6800GS is stock helemaal niet sneller dan de 6800GT en ZEKER NIET sneller dan de 6800Ultra. Waar inshemelsnaam heb je dat vandaan :? .
Het verrassende is dat FEAR op de X1600XT sinds de ATi driverfix juist wat beter schijnt te presteren dan de 6800GS ;)
Heb je daar bewijs van :) ?

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • grizzlybeer
  • Registratie: juli 2000
  • Niet online
OK, nVidia is harder gestegen als je naar een heel jaar kijkt. Maar (toevalligerwijs) als je het laatste 1/2 jaar neemt, dan is de stijging exact gelijk:

http://finance.yahoo.com/...ATYT&l=off&z=m&q=l&c=nvda

  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

En als je naar één dag kijkt zie je dit 8)7 :
http://ichart.finance.yahoo.com/z?s=ATYT&t=1d&q=l&l=off&z=m&c=NVDA&a=v&p=s

Sorry, ik zal niet meer tech-fondsen aandeel koersen plaatsen, nagenoeg geen toegevoegde waarde...

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • grizzlybeer
  • Registratie: juli 2000
  • Niet online
XanderDrake schreef op zondag 08 januari 2006 @ 02:18:
En als je naar één dag kijkt zie je dit 8)7 :

Sorry, ik zal niet meer tech-fondsen aandeel koersen plaatsen, nagenoeg geen toegevoegde waarde...
Maar je begrijpt hopelijk toch dat ik probeer te zeggen dat ATi het de afgelopen 6 maanden (= een langere, qua ontwikkelingen interessante periode) precies even goed/slecht (dat mag je zelf beoordelen) gedaan heeft als nVidia (qua relatieve toename van hun marktkapitalisatie).
XanderDrake schreef op zondag 08 januari 2006 @ 02:06:
[...]

De eerste 90nm chips van nVidia zijn al lang en breed in om loop, namelijk de Geforce 6100/6150 en nForce 410 chips. Ik neem aan dat het 90nm procedé al nagenoeg volwassen is nu deze chips op zéér lage kosten aangeboden worden.
Dat zegt nagenoeg niets. Een budgetchip met ong 100M transistoren kan je niet vergelijken met een highend chip met 300M+ transistoren. Als een chip met minder transistoren het goed doet, wil dat niet automatisch zeggen dat de high end chip het ook opeens goed doet op hetzelfde proces. De complexiteit van de chips gaat immers ook flink omhoog.
Inderdaad, de 6800GS is stock helemaal niet sneller dan de 6800GT en ZEKER NIET sneller dan de 6800Ultra. Waar inshemelsnaam heb je dat vandaan :? .
Je leest mijn posts zeker niet (goed)? Ik zei dat de GT 'net' sneller was. Dat wil niet meteen zeggen dat hij overal overtuigend sneller is. Dat is meer van 'win some, loose some'. En ik had daar toch echt een link in staan in die post. :X

Voor degenen die niet goed lezen, wat hier in dit topic te weinig gebeurd, hier weer de link:

http://www.xbitlabs.com/a...splay/geforce-6800gs.html

Paar cijfers:
Serious Sam 2: GS wint in alle eyecandy modes van de GT met ruime marge
UT2K4: GS gaat gelijk op, maar wint bepaalde maps met overtuiging (zie Torlan, Metallurgy)
AoE3: GS wint van de GT
Colin McRae Rally 3: GS wint op alle fronten met gemak van de GT
Warhammer 40K: GS wint pure speed met ruim gemak van de GT
Project Snowblind: GS wint overall van de GT
Far Cry: GS wint op alle eyecandy modes van de GT

Het scheelt vaak niet veel, maar de tests die de GS wint, wint hij vaak zeer overtuigend dat zelfs een 6800U het niet bij kan houden. Tel daarbij de goede overklokbaarheid bij op en een 6800U kan het helemaal niet meer bijbenen, want die stopt meestal wel bij de 450Mhz.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Tyranium
  • Registratie: december 2003
  • Niet online

Tyranium

Ero-sennin

Virgo_theone schreef op zaterdag 07 januari 2006 @ 22:56:
Microsoft kiest dus voor ATi ben benieuwd wie er op de lange termijn meer aanhang krijgt. Het steeds recyclen van architectures word Nvidia denk niet in dank afgenomen. Want echt veel vernieuwing komt er dan niet.
Steeds recyclen van architecturen? Dat is echt complete onzin. Je kan toch niet verwachten dat nVidia (of Ati) bij elke refresh een nieuwe architectuur heeft? Wat denk je dat Ati sinds de R300 doet? Alleen nu de R520 er is, is er bij Ati wat verandering, maar daarvoor hebben ze de R350, R360,(even uit me hoofd, mss niet 100% correct) R420, R480 mooi uitgemolken. nVidia heeft sinds de NV40 een nieuwe architectuur, niks verbazend dat ze die nu nog een keertje gebruiken voor de G7x, en pas wachten met iets echt nieuws als DX10 er is.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
de kaart heeft regelmatig al voldoende moeite om zich zonder veel specifieke IQ opties (AA/AF) op "High" settings staande te houden op 1280x1024 en soms zelfs al 1024x768
Zoals ik al zei, leuk die HQ AF, maar op welke resolutie? De X1600 lijkt niet te zijn gereleased voor deze features
Waarom heeft iedereen de neiging om AA en AF onder één kap te schuiven. AA geeft idd veel performancedrop en zal in geval van de X1600 niet veel gebuikt kunnen worden. HQ AF daarentigen geeft meestal minder dan 10 % drop dus goed te gebruiken. (beetje overklokken zal deze drop al ongedaan maken)

  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

CJ schreef op zondag 08 januari 2006 @ 03:31:
Paar cijfers:
Serious Sam 2: GS wint in alle eyecandy modes van de GT met ruime marge
UT2K4: GS gaat gelijk op, maar wint bepaalde maps met overtuiging (zie Torlan, Metallurgy)
AoE3: GS wint van de GT
Colin McRae Rally 3: GS wint op alle fronten met gemak van de GT
Warhammer 40K: GS wint pure speed met ruim gemak van de GT
Project Snowblind: GS wint overall van de GT
Far Cry: GS wint op alle eyecandy modes van de GT
FEAR: de 6800GS verliest alles
FarCry zonder AA: de GS verliest nagenoeg alles
Battlefield2 zonder AA: de GS verliest nagenoeg alles
Quake4: (andere review) de GS verliest nagenoeg alles.
3Dmark2005: (andere review) de GS haalt +/- 150 punten minder dan de GT
enz enz enz.

Het is precies zoals de niche van de GS, goedkopere 110nm NV42 core met 12 pipes vervangt duurdere 130nm NV40 / NV45 core met 16 pipes. Ze presteren identiek, of het is stuiver wisselen.
Maar hij is zeker niet sneller.
Het scheelt vaak niet veel, maar de tests die de GS wint, wint hij vaak zeer overtuigend dat zelfs een 6800U het niet bij kan houden. Tel daarbij de goede overklokbaarheid bij op en een 6800U kan het helemaal niet meer bijbenen, want die stopt meestal wel bij de 450Mhz.
En waar de GS wordt vergeleken met de Ultra? Hij kan niet sneller zijn dan een Ultra, dat is helemaal niet de taak van de GS.

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Ik probeer Far Cry op te starten met patch 1.3 en Catalyst 5.13 (X1800XT) , maar het spel start niet op.

Weet iemand of dat met de drivers te maken heeft oid? :|

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
RappieRappie schreef op zondag 08 januari 2006 @ 12:16:
Ik probeer Far Cry op te starten met patch 1.3 en Catalyst 5.13 (X1800XT) , maar het spel start niet op.

Weet iemand of dat met de drivers te maken heeft oid? :|
De 1.4 was er toch ook al ? Maar ik heb geen mensen gehoord die 1.3 neit konden draaien op een X1800 XT alleen dat je geen HDR + AA kon. En de prestatie bagger was.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Het wordt nu wel heel spannend: "NVIDIA will be showing off the G71 performance to their partners in within a week and they promised an ATi R580 killer. We shall see about it."

http://www.vr-zone.com/?i=3088

It takes two fools to argue.


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
wel raar dat nvidia al weet dat ze de R580 kunnen "killen" als ze hem nog niet eens hebben gezien 8)7 :+ (Marketing praat :9 )

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
En het omgekeerde is dan wel waar ofzo? Ik hoor hier aan alle kanten dat R580 een killer wordt, maar ook daar hebben we nog niks van gezien.

Overigens moeten ze die GPU niet zien, ik denk wel dat nVidia in staat is om bv 48 ALU's te simuleren (omgekeerd ook).

[Voor 31% gewijzigd door XWB op 08-01-2006 15:27]

It takes two fools to argue.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

jimbojansen90 schreef op zondag 08 januari 2006 @ 15:17:
wel raar dat nvidia al weet dat ze de R580 kunnen "killen" als ze hem nog niet eens hebben gezien 8)7 :+ (Marketing praat :9 )
Ze hebben hem dus blijkbaar wel gezien, en dat is niet zo moeilijk... er zijn reeds aardig wat samples van de R580 in omloop, dus nVidia heeft waarschijnlijk al inzage in de prestaties van de chip.

Ik ben erg benieuwd naar de uiteindelijke reviews... het "enige" verschil tussen R520 en R580 is dat de R580 3x zo veel pixelprocessors heeft (en dus 3x zo veel pixelopteraties (per pixel berekeningen) per clock kan processen). R580 kan echter nog steeds "slechts" 16 volledige pixels per clock processen (16 pipes, 16 TMU's)... de vraag is hoe goed (huidige) game-architecturen daar gebruik van zullen maken, want de uiteindelijke prestaties van R580 nu zullen daar van af hangen.

De G71 kan namelijk 32 volledige pixels per clock renderen (32 pipelines), maar kan minder pixelopertaties per clock aan dan de R580 (32 vs 48 pixelprocessors). Dus in vergelijk met R580 rendert G71 2x zo veel pixels per clock (32 vs 16) maar kan tegelijk 33% minder pixeloperaties per clock aan (32 vs 48).
Daarnaast krijgt de G71 echter in tegenstelling tot de R580 een 150~200mhz speedbump ten opzichte van zijn voorganger, de GTX512. Uitgaande van de 150mhz speedbump heeft de G71 t.o.v. de GTX512 een ruim 25% hogere corespeed, en 25% meer pipelines (dus ook 25% meer TMU's als het goed is). Theoretisch kan de G71 dus tot 50% sneller zijn dan de GTX512, eventuele andere architectuuraanpassingen buiten beschouwing gelaten.

Argh, droge analyses op basis van architectuurgegevens vergen veel energie 8)7

[Voor 63% gewijzigd door Cheetah op 08-01-2006 16:12]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Puppetmaster
  • Registratie: december 2001
  • Laatst online: 21:29
Hacku schreef op zondag 08 januari 2006 @ 15:25:
En het omgekeerde is dan wel waar ofzo? Ik hoor hier aan alle kanten dat R580 een killer wordt, maar ook daar hebben we nog niks van gezien.
niet van de G71, de G70 is allang bekend en daarvan (in GTX512 versie) werdt gezegd dat de 1900 em met 25% oid voorbij zou gaan...

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • SG
  • Registratie: januari 2001
  • Laatst online: 09-10 20:01

SG

SG surft naar info hardewaren

Zo dus G71 is meer conservatief architektuur. Rauwe power. Dit houd in dat nV bij Releases goed gaat scoren in Game benche marking aangezien er natuurlijk altijd nog veel Ouwere game als bench wordt gebruikt.
Als ATI dan in enkele next gen games de voortouw neemt krijg je al gouw met de ouwe games 'n 10 vs 3 win verhouding.

Ben dus benieuwed naar de resultaten van vooral de nieuwe games.

Aangezien ik wil weten welke de betere is voor de toekomst mijn r580 zou ik toch zeker minstens 3 jaar houden en dan boeid UT2004 en Q3A niet.
Al wordt dit dan wel 'n gok.

G71 & R580 voldoen sowieso voor alle huidige en ouwere games.

Wat zou Unreal 3 doen of UT2007 Of welke ander highprofile nextgen game.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Het lijkt er op dat nVidia voor de GF6/7 serie met een antwoord op de Avivo H.264 ondersteuning komt:
nieuws: PureVideo-software van nVidia gepresenteerd

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

SuperG schreef op zondag 08 januari 2006 @ 16:30:
Zo dus G71 is meer conservatief architektuur. Rauwe power. Dit houd in dat nV bij Releases goed gaat scoren in Game benche marking aangezien er natuurlijk altijd nog veel Ouwere game als bench wordt gebruikt.
Als ATI dan in enkele next gen games de voortouw neemt krijg je al gouw met de ouwe games 'n 10 vs 3 win verhouding.

Ben dus benieuwed naar de resultaten van vooral de nieuwe games.

Aangezien ik wil weten welke de betere is voor de toekomst mijn r580 zou ik toch zeker minstens 3 jaar houden en dan boeid UT2004 en Q3A niet.
Al wordt dit dan wel 'n gok.

G71 & R580 voldoen sowieso voor alle huidige en ouwere games.

Wat zou Unreal 3 doen of UT2007 Of welke ander highprofile nextgen game.
Dat is precies wat ik er ook van denk. De texture en shaderarme game zullen waarschijnlijk het beste lopen op de G71 en ubershaders zullen voor de X1900 zijn.
De R1900XTX wint dan bv in Elder Scrolls Oblivion en U3 ;) (speculatie modus) tenzijn NV toch het eea heeft veranderd.

[Voor 3% gewijzigd door edward2 op 08-01-2006 16:39]

Niet op voorraad.

FirefoxAG schreef op zondag 08 januari 2006 @ 15:32:
[...]
Ze hebben hem dus blijkbaar wel gezien, en dat is niet zo moeilijk... er zijn reeds aardig wat samples van de R580 in omloop, dus nVidia heeft waarschijnlijk al inzage in de prestaties van de chip.

Ik ben erg benieuwd naar de uiteindelijke reviews... het "enige" verschil tussen R520 en R580 is dat de R580 3x zo veel pixelprocessors heeft (en dus 3x zo veel pixelopteraties (per pixel berekeningen) per clock kan processen), maar nog steeds "slechts" 16 volledige pixels per clock kan processen (16 pipes)... de vraag is hoe goed (huidige) game-architecturen daar gebruik van zullen maken, want de uiteindelijke prestaties van R580 nu zullen daar van af hangen.

De G71 kan namelijk 32 volledige pixels per clock renderen (32 pipelines), maar kan minder pixelopertaties per clock aan dan de R580 (32 vs 48 pixelprocessors). Dus in vergelijk met R580 rendert G71 2x zo veel pixels per clock (32 vs 16) maar kan tegelijk 33% minder pixeloperaties per clock aan (32 vs 48).
Daarnaast krijgt de G71 echter in tegenstelling tot de R580 een 150~200mhz speedbump ten opzichte van zijn voorganger, de GTX512. Uitgaande van de 150mhz speedbump heeft de G71 t.o.v. de GTX512 een ruim 25% hogere corespeed, en 25% meer pipelines (dus ook 25% meer TMU's als het goed is). Theoretisch kan de G71 dus tot 50% sneller zijn dan de GTX512, eventuele andere architectuuraanpassingen buiten beschouwing gelaten.

Argh, droge analyses op basis van architectuurgegevens vergen veel energie 8)7
Je kent het verschil tussen een ROP en een Fragment Pipe (vaak de Pixel processor genoemd) ? Uit je verhaal lijkt het namelijk alsof je geen verschil maakt tussen het aantal ROPs en het aantal Fragment Pipes.... en het lijkt alsof je ook geen rekening houdt met de 2 volle ALUs in G7x. Er is een verschil tussen het aantal pixels dat bewerkt kan worden in de fragment pipe en wat er ook daadwerkelijk geoutput kan worden door de ROPs.

G71 heeft (waarschijnlijk) 16 ROPs en dus 32 Fragment Pipes. Ook al renderen die 32 Fragment Pipes dus 32 Pixels, dan nog kunnen er maar 16 pixels per clockcycle door de ROPs geoutput worden. Hetzelfde geldt voor de G70. Er zitten wel 24 Fragment Pipes in, maar er kunnen maar 16 pixels per clock geoutput worden door de 16 ROPs. 1 ROP output 1 pixel per clockcycle.

G70 kan echter tot 3x zo veel MADD berekening uitvoeren (meest voorkomende berekening in games) per cycle dan een NV40 doordat de 2 ALUs per fragment pipe nu volledig identiek zijn en door de verhogen van 16 naar 24 fragment pipes. De ALU throughput is dan ook de belangrijkste factor in de performance winst van een G70 tov een NV40.

Nu is dat geen enkel probleem omdat de ROPs vaak nog uit hun neus zitten te vreten. Vandaar dat ATi dus voor een verdriedubbeling gaat van de pixelshaderpower en de ROPs efficienter probeert te laten werken (lees: minder vaak te laten wachten).

En ook nVidia gaat de ROPs dus meer belasten. Hun beredenering is dat in gevallen waarin je shadergebonden bent, pixel output zelden de max bereikt. En het behouden van 16 ROPs scheelt enorm veel transistoren. In gevallen dat er wel meer dan 16 pixels klaar zijn in een cyclus, worden ze gebuffered ("in flight" gehouden) totdat de ROP er klaar voor is.

Nu is het dus maar de vraag welke architectuur beter geschikt is voor het verwerken van al die threads die straks binnen de gehele pipeline verwerkt moeten worden. nVidia gaat dit keer voor brute kracht en ATi gaat voor efficientie met hun ultra threaded architecture.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • FUBAR
  • Registratie: oktober 2000
  • Laatst online: 20:20

FUBAR

F*ed up beyond all recognition

FirefoxAG schreef op zondag 08 januari 2006 @ 16:37:
Het lijkt er op dat nVidia voor de GF6/7 serie met een antwoord op de Avivo H.264 ondersteuning komt:
nieuws: PureVideo-software van nVidia gepresenteerd
en een stuk beter ook, ik zit met een x800xt pe die ze op dit vlak gewoon niet gaan ondersteunen, hoewel de hardware er in principe net zo geschikt voor is |:(

To be, or not to ...ehh.... what was the question?


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
RappieRappie schreef op zondag 08 januari 2006 @ 12:16:
Ik probeer Far Cry op te starten met patch 1.3 en Catalyst 5.13 (X1800XT) , maar het spel start niet op.

Weet iemand of dat met de drivers te maken heeft oid? :|
Je hebt ook nog patch 1.32 + 1.33 nodig. 1.4 beta (HDR+AA) zwerft ondertussen ook op het net rond.

http://www.gamershell.com/download_10224.shtml (alle patches vind je rechts)

[Voor 10% gewijzigd door Apple|IA op 08-01-2006 17:12]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
ATi en Nvidia zijn weer echt aan het knokken tegen elkaar. Dus ik ben benieuwd wie de slag van snelste kaart gaat winnen en wie de beste Purevideo/avivo krijgt.

Ik vraag me alleen wel af waarom een 6200 snel genoeg is vor P720 en een X1300 max p480 kan :\

[Voor 24% gewijzigd door Astennu op 08-01-2006 17:28]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Hacku schreef op zaterdag 07 januari 2006 @ 00:55:
Lijkt me gewoon dat ATI de X1800XL aan het dumpen is, omdat de X1900 voor de deur staat.
De X1800XL en XT schijnen gewoon te blijven gehandhaafd, de X1900XT en XTX zijn bedoeld als ultra hi-end om te concurreren met de (verdwijnende) GTX/512 en de komende G71.
De X1600 verdwijnt wel, en schijnt door een X1700 vervangen te worden.

Dit alles volgens Gibbo van oc.uk.

http://forums.overclocker...hp?p=6225648&postcount=13

[Voor 3% gewijzigd door Apple|IA op 08-01-2006 17:32]


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Apple schreef op zondag 08 januari 2006 @ 17:29:
De X1600 verdwijnt wel, en schijnt door een X1700 vervangen te worden.
Goh... verrassend :*) .

Die PureVideo techniek ziet er echt ideaal uit! Je kan nu dus een IGP mobo met de GeForce 6100 halen voor twee dubbeltjes, en zo een toch redelijk presterende/renderende/goedkope mediacentre bouwen!

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
XanderDrake schreef op zondag 08 januari 2006 @ 17:39:
[...]

Goh... verrassend :*) .

Die PureVideo techniek ziet er echt ideaal uit! Je kan nu dus een IGP mobo met de GeForce 6100 halen voor twee dubbeltjes, en zo een toch redelijk presterende/renderende/goedkope mediacentre bouwen!
Jah ik vraag me nou af waarom ATi dat niet kan. ATi kaarten blijken super goed te zijn in berekeningen doen die niets te maken hebben met 3D maar hier zie je daar niets van terrug. Ik heb het idee dat het een software limmit is.

Over die X1600 en X1700. Toen de X700 kwam was de X600 ook nog gewoon verkrijgbaar alleen het maken werd idd wel gestopt. De X1800 is ook ELO maar zal nog wel een tijdje verkijgbaar zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Astennu schreef op zondag 08 januari 2006 @ 17:26:
ATi en Nvidia zijn weer echt aan het knokken tegen elkaar. Dus ik ben benieuwd wie de slag van snelste kaart gaat winnen en wie de beste Purevideo/avivo krijgt.

Ik vraag me alleen wel af waarom een 6200 snel genoeg is vor P720 en een X1300 max p480 kan :\
Purevideo met Avivo vergelijken is eigenlijk 'not done'. Avivo houdt meer in dan alleen de videoweergave mogelijkheden.

nVidia en ATi werken op verschillende manieren wat betreft video-acceleratie. ATi gebruikt de pixelshaders om video te versnellen. Dus het aantal beschikbare pixelshaderengines is hier van belang + de snelheid.

nVidia gebruikt een aparte engine en daar is de snelheid van de core voor van belang. Een kaart met een corespeed van 300 Mhz zal bv boven de 50% CPU belasting hebben, terwijl een kaart met een corespeed van 550Mhz daar dik onder zal zitten.

[Voor 3% gewijzigd door CJ op 08-01-2006 17:48]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op zondag 08 januari 2006 @ 17:47:
[...]


Purevideo met Avivo vergelijken is eigenlijk 'not done'. Avivo houdt meer in dan alleen de videoweergave mogelijkheden.

nVidia en ATi werken op verschillende manieren wat betreft video-acceleratie. ATi gebruikt de pixelshaders om video te versnellen. Dus het aantal beschikbare pixelshaderengines is hier van belang + de snelheid.

nVidia gebruikt een aparte engine en daar is de snelheid van de core voor van belang. Een kaart met een corespeed van 300 Mhz zal bv boven de 50% CPU belasting hebben, terwijl een kaart met een corespeed van 550Mhz daar dik onder zal zitten.
Uhmm dus op dit moment lijkt mij dat Nvidia een betre keuze heeft gemaakt. Maar daar heb je weer extra ruimte op je chip voor nodig. En een X1600 heeft al 12 shaders dus die kan dan toch ook wel tot de 1080P komen ? Maar de Rv560 zal het dan helemaal goed moeten kunnen doen en daar zelfs een X1800 inhalen. Of heb ik het nu verkeerd ? Want bij ATi zijn de shaders units en de clockspeed van de chip belangrijk bij nvidia alleen de clockspeed.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
De G71 kan namelijk 32 volledige pixels per clock renderen (32 pipelines), maar kan minder pixelopertaties per clock aan dan de R580 (32 vs 48 pixelprocessors). Dus in vergelijk met R580 rendert G71 2x zo veel pixels per clock (32 vs 16) maar kan tegelijk 33% minder pixeloperaties per clock aan (32 vs 48).
Maar heeft de G71 wel genoeg geheugenbandbreedte om al deze 32 pipes te voeden?
ATI heeft bewust voor 'slechts' 16 robs gekozen om zo een goed evenwicht tussen geheugenbandbreedte en rendering-snelheid te creëren.

Even vanuitgaand dat 7800GTX 512 de referentie is. Deze heeft meer geheugenbandbreedte (1730 vs 1600) en heeft veel meer shader performance (24x550Mhzx2(2 alu's per fragment shader) = 26400) dan de X1800XTPE (700x16x1,5 (1 grote en 1 kleine ALU per fragment shader) = 16800)

De X1800XTPE maakt duidelijk dat het met beduidend mindere specs de 7800 512 kan bijhouden. De G71 zal efficienter moeten zijn ( zowel geheugenbandbreedte als ALU's) dan G70 om de X1900XTX bij te kunnen houden.

[Voor 23% gewijzigd door wagnef op 08-01-2006 18:13]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
wagnef schreef op zondag 08 januari 2006 @ 18:07:
[...]


Maar heeft de G71 wel genoeg geheugenbandbreedte om al deze 32 pipes te voeden?
ATI heeft bewust voor 'slechts' 16 robs gekozen om zo een goed evenwicht tussen geheugenbandbreedte en rendering-snelheid te creëren.

Even vanuitgaand dat 7800GTX 512 de referentie is. Deze heeft meer geheugenbandbreedte (1730 vs 1600) en heeft veel meer shader performance (24x550Mhzx2(2 alu's per fragment shader) = 26400) dan de X1800XTPE (700x16x1,5 (1 grote en 1 kleine ALU per fragment shader) = 16800)

De X1800XTPE maakt duidelijk dat het met beduidend mindere specs de 7800 512 kan bijhouden. De G71 zal efficienter moeten zijn ( zowel geheugenbandbreedte als ALU's) dan G70 om de X1900XTX bij te kunnen houden.
Volgens mij is het veel complexer dan hoe jij het nu even uitrekend. Je ziet ook dat de GTX soms sneller is dan de X1800. terwijl de X1800 veel hogere core speeds heeft. En dan er even van uit gaan dat de G71 snellre gaat lopen dan de X1900. Kan nog best wel een klapper worden. In de huidige games gaat het voor ATi denk ik fout af lopen. Maar in de toekomst komt het wel goed. Ik vraag me ook af wat NFS MW gebruikt. Want die loop op 1280-1024 Alles max dus ik denk 4x AA en 8x AF. regelmatig tegen de 30-35 fps aan en dan merk ik dat duidelijk in de game play ( maar ik ben in dat opzigt ook weel heel veel eisend andere vinden 20 nog goed lopen. ). Ik hoop dat ik met de X1900 dan wel 1600-1200 kan draaien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Je ziet ook dat de GTX soms sneller is dan de X1800. terwijl de X1800 veel hogere core speeds heeft.
Dat heb ik ook verrekend, Ik kwam toch tot de conclusie dat de 7800GTX op 550 Mhz qua spec. zwaarder is dan de X1800 op 700Mhz.
Wat ik niet heb meegerekend zijn de vertex pipes, hierbij heeft ATI met 700Mhz idd wat voordeel

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
wagnef schreef op zondag 08 januari 2006 @ 20:24:
[...]


Dat heb ik ook verrekend, Ik kwam toch tot de conclusie dat de 7800GTX op 550 Mhz qua spec. zwaarder is dan de X1800 op 700Mhz.
Wat ik niet heb meegerekend zijn de vertex pipes, hierbij heeft ATI met 700Mhz idd wat voordeel
Ik heb het ook over de GTX normaal die als ik me niet vergis 430 MHz loopt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Ik heb Mobility Radeon afdeling in de firstpost een beetje aangepast. Nieuw is dit gedeelte:
Eind Januari/begin Februari 2006 zal ATi de Mobility Radeon X1800XT lanceren. Op welke desktop core de M58 precies gebaseerd is, durft nog niemand te zeggen. Het lijkt er op dat het hier toch om een R520 achtige core gaat. Dell zal binnenkort een nieuwe serie laptops lanceren met Yonah CPU en al deze laptops zullen de mogelijkheid hebben om de Mobility X1800XT chipset te gebruiken. De Mobility X1800XT is bedoeld als tegenhanger van de 7800GTX MXM kaart en zal draaien op 446Mhz core en 495Mhz mem.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

CJ schreef op zondag 08 januari 2006 @ 16:45:
Je kent het verschil tussen een ROP en een Fragment Pipe (vaak de Pixel processor genoemd) ?
Ja, ik probeerde alleen het technische verschil tussen de 2 architecturen een beetje begrijpelijk te maken voor de wat minder goed ingelezen mensen hier ;)
Dat ze (vermoedelijk) beide 16 rops hebben was al bekend... overigens doet een ROP (of in ieder geval nV's ROP) meer dan alleen pixels outputten, en kan een pixel pipeline meer dan alleen pixels renderen, maar laten we het daar maar even niet over hebben :P
CJ schreef op maandag 09 januari 2006 @ 02:42:
De Mobility X1800XT is bedoeld als tegenhanger van de 7800GTX MXM kaart en zal draaien op 446Mhz core en 495Mhz mem.
Ik mag hopen dat die mobility X1800XT dan over een R580 core beschikt, want de Geforce 7800GTX Go veegt de vloer aan met een R520 op die snelheden.
De 7800GTX Go is qua architectuur 1 op 1 vergelijkbaar met de desktop 7800GTX, en loopt op slechts iets lagere clocks dan zijn desktoptegenhanger (400/530 i.p.v. 430/600 > 7 om 13% verschil)
De Mobility X1800XT doet 40 om 52% klokverschil met zijn desktoptegenhanger :/

Puur naar clocks gekeken bevind de X1800XT M zich - uitgaande van R520 - in een nog ongunstigere performanceverhouding t.o.v. de GTX Go dan de desktop X1800XT zich bevind t.o.v. de GTX512.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

FirefoxAG schreef op maandag 09 januari 2006 @ 03:23:
[...]
Ja, ik probeerde alleen het technische verschil tussen de 2 architecturen een beetje begrijpelijk te maken voor de wat minder goed ingelezen mensen hier ;)
Dat ze (vermoedelijk) beide 16 rops hebben was al bekend... overigens doet een ROP (of in ieder geval nV's ROP) meer dan alleen pixels outputten, en kan een pixel pipeline meer dan alleen pixels renderen, maar laten we het daar maar even niet over hebben :P
Alle ROPs doen meer dan alleen maar pixels outputten. :) Zie ook de FAQ die ik heb aangemaakt in de second post, waar dit ook in staat. :) De FAQ heb ik daarom juist van een uitleg voorzien omdat meer mensen blijkbaar niet weten wat een ROP, TMU, ALU, MADD, MUL, Fragment Pipe etc is en er dus vraag naar een uitleg was. De komende tijd ga ik dat dus wat meer uitbreiden.

Overigens is ATI's ROP geavanceerder dan nV's ROP omdat dit AA toestaat op alle HDR blending modes. Maar dat wisten we al. En sinds RV530 heeft ATi ook een verdubbelde Z/Stencil fillrate (in vergelijking tot de color fillrate) in de ROPs in gebouwd.

Als je de technische verschillen tussen de architecturen van nVidia en ATi wil aangeven dan kom je al gauw uit bij de ROPs en ALU configuraties (en de interne werking van de ALUs), omdat de rest eigenlijk gewoon heel erg veel op elkaar lijkt. Imo maakte je het namelijk een stuk onduidelijker. ;)

Er zijn hier al genoeg mensen die ROPs en Fragment Pipes over één kam scheren en dat terwijl op dit moment ATi mensen juist probeert af te leren dat het woord "pipeline" niet meer in de traditionele zin van het woord gebruikt kan worden bij hun architecturen en vooral ook met het oog op Unified Architectures. Anders was X1600XT ook wel als 12 pipeline architectuur gebracht door ATi, maar ipv gebruikte men zeer terecht de woorden "12 pixelshader engines/processors". Helaas zijn er ook enkele fabrikanten die hier (expres) de fout in gaan en mensen zo misleiden.
Ik mag hopen dat die mobility X1800XT dan over een R580 core beschikt, want de Geforce 7800GTX Go veegt de vloer aan met een R520 op die snelheden.
De 7800GTX Go is qua architectuur 1 op 1 vergelijkbaar met de desktop 7800GTX, en loopt op slechts iets lagere clocks dan zijn desktoptegenhanger (400/530 i.p.v. 430/600 > 7 om 13% verschil)
De Mobility X1800XT doet 40 om 52% klokverschil met zijn desktoptegenhanger :/

Puur naar clocks gekeken bevind de X1800XT M zich - uitgaande van R520 - in een nog ongunstigere performanceverhouding t.o.v. de GTX Go dan de desktop X1800XT zich bevind t.o.v. de GTX512.
Mobility X1800XT is R520 als ik het goed heb begrepen.

M58 -> R520 -> Mobility X1800XT
M59 -> R580 -> Mobility X1900XT

Zelfs al outperformed de snelste Mobility Radeon, de GTX Go niet, dan is dat voor ATi nog geen punt. Voor ATi is Thermal Design Power (TDP, de maximale hoeveel stroom die als warmte afgevoerd mag worden) het belangrijkste. Bij nV's topmodel ligt de TDP op 66-68W (was geloof ik 65W bij de Go 6800U). Bij ATi ligt dit bij 35W. Dus ondanks dat het misschien niet sneller is, verbruikt-ie wel een stuk minder stroom.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39

  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Gristus wat een lag! ik ziet hier op een damn 1gbit verbinding en moet nog 3 minuten wachten totdat een simpel plaatje binnenkomt :) .....

Verder een behoorlijk lekkere score inderdaad >:)

[Voor 9% gewijzigd door XanderDrake op 09-01-2006 13:32]

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • TripNRaVeR
  • Registratie: september 2004
  • Laatst online: 16-06-2012

TripNRaVeR

Voorzitter..

damn 12k voor de r580 in 3dmark05 das toch lekker :D

TripNDroid Mobile Engineering


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Apple schreef op zondag 08 januari 2006 @ 17:10:
[...]


Je hebt ook nog patch 1.32 + 1.33 nodig. 1.4 beta (HDR+AA) zwerft ondertussen ook op het net rond.

http://www.gamershell.com/download_10224.shtml (alle patches vind je rechts)
OK, bedankt, ik zal et es proberen.

Apple; hoe is jouw performance in NFSMW??

Mijn GTX is volgens mij sneller in NFS dan de X1800XT @ 700/800. :'(

In de rest van de games is de X1800 sneller: Far Cry, BF2, Splinter Cell: CT, FEAR, CoD2.
Alleen dat NFSMW steekt me, want dat spel roeleert. ;(

Zijn er ook "tweaked" ATi drivers die nog een boostje kunnen geven misschien?

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
http://img219.imageshack.us/img219/4807/0002193884qy.jpg
http://img219.imageshack.us/img219/345/untitled8pp.jpg
is wat handiger dan zo'n slome site

[Voor 3% gewijzigd door jimbojansen op 09-01-2006 13:40]


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

Leuke X1800XT review

Opsomming, de X1800XT 512mb wint 50% van de games vs de 7800GTX 256mb zonder AA, maar wint alles op 4x AA of 6x AA.

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Ehm, wat is dat/dit?

Volgens mij gewoon een X1800XT. Zwaar aan de ice...

[Voor 9% gewijzigd door Format-C op 09-01-2006 13:59]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 27-06 13:56
RappieRappie schreef op maandag 09 januari 2006 @ 13:57:
[...]


Ehm, wat is dat/dit?

Volgens mij gewoon een X1800XT. Zwaar aan de ice...
ik weet het niet.. ze zeggen dat het een R580 (X1900) is..

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Niet echt snel dan. :O

Dit doet de X1800XT die k hier heb, en waarschijnliojk hou ;) , kheb al wel iets hoger gehaald, maar tis wel best zo:


http://img505.imageshack.us/img505/384/attachment1rr.jpg

@700/800 )

Hoger dan 720 oid loopt 3DMark05 vast. Iemand tips om hoger te komen? Of is dat VPU recover ofzo die ingrijpt op die OC speed?

[Voor 93% gewijzigd door Format-C op 09-01-2006 14:24]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-06 14:39
Ik denk dat ze in Taiwan ook niet pepaald staan te trappelen juridische rompslomp over zich heen te krijgen ... :P

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
De G71 gaat lomp worden.

Hij krijgt volgens die tabel dus 24 robs

Core @ 750 mhz en geheugen @ 950 !!! Dit is echt ziek. Dit is dus geen eens 1.1 ns geheugen meer wat 1.1ns = 900 MHz.

Dus ik vraag me af hoe het met de beschikbaarheid moet. En waarom ATi niet een stapje verder gaat qua geheugen.

Ik zie niet wat de X1900 hier tegen moet beginnen in de oudere games. De GTX 512 is al te veel voor een normale X1800 XT TOP. Laat staan dit monster met nog 200 MHz extra en 8 robs er bij !!.

[Voor 25% gewijzigd door Astennu op 09-01-2006 14:17]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
@ Astennu: kheb mijn vorige post gewijzigd. Enig idee over mijn vraag?

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
RappieRappie schreef op maandag 09 januari 2006 @ 14:23:
@ Astennu: kheb mijn vorige post gewijzigd. Enig idee over mijn vraag?
Ik denk dat je je V-Gpu moet verhogen. Of de cooler sneller moet laten draaien. maar als ik dat krijg was het door dat de core niet stabiel was. mijn XL kan niet tegen voltage verhogingen maar jou XT wel dus je kunt gewoon eens wat proberen tot 1.4 volt. Die 1.4v wordt volgens mij ook door die "TOP" bios gebruikt.

Edit:

Zie dit eens:

http://www.legionhardware.com/Bench/Gigabyte_Radeon_X1800XT/FEAR_1280.gif

X1600XT haald de 7800 GT daar even in in de hoogste aa en AF setting :D Best grappig. Dit komt denk ik doordat de 6x AA van ATi goed geoptimaliseerd is en bijna niet dropt. De 8x van Nvidia is gewoon heel zwaar want de GTX en de GT droppen daar bijde heel erg. Mar toch wel leuk om te zien.

[Voor 34% gewijzigd door Astennu op 09-01-2006 14:38]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 12-10 02:06
Astennu schreef op maandag 09 januari 2006 @ 14:30:
[...]


Ik denk dat je je V-Gpu moet verhogen. Of de cooler sneller moet laten draaien. maar als ik dat krijg was het door dat de core niet stabiel was. mijn XL kan niet tegen voltage verhogingen maar jou XT wel dus je kunt gewoon eens wat proberen tot 1.4 volt. Die 1.4v wordt volgens mij ook door die "TOP" bios gebruikt.
Op deze kaart zit de Sapphire XT PE bios.

Idle @ 23.6C, load @ 4850MHz -all core- 58C

Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.



Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee