Toon posts:

[Algemeen] ATi Nieuws & Discussie Topic - Deel 16 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 4.429 views sinds 30-01-2008

Acties:
  • 0Henk 'm!

  • Cyberblizzard
  • Registratie: Februari 2003
  • Niet online
Is het nog mogelijk om met behulp van aanpassingen demo's van nVidia te draaien op ATI-kaarten?
Met Catalysts van een paar jaar geleden kon je mits enkele aanpassingen de Dawn-demo afspelen. Hetzelfde geldt voor X800-demo's, maar dat is sinds een tijdje ook niet meer mogelijk...

Welkom in het Antropoceen! - Fietsen, goed voor iedereen!


Acties:
  • 0Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 13-05 16:34

swampy

Coconut + Swallow = ?

De FX kaarten bezaten functies die standaard niet in DX9 zaten... en daardoor zijn de FX demos dus niet goed te draaien op ati hardware. Het feit dat de FX demos op FX hardware op ... 1fps draait... is voor sommige FX fans dertegen totaal onbelangrijk!

Nu dertegen is er de situatie dan nvidia PS3.0 shaders ondersteund... Ati maar 2.0b! Dertegen heeft ati weer 3dc "normal mapping". En dat is moeilijker te emuleren....

het zal dertegen vast wel kunnen..op een bepaald level! Gepatchte driver DLL's enzo..maar emulatie kost kracht en ik vraag me af of het dit keer wel echt mogelijk is!

[Voor 12% gewijzigd door swampy op 10-05-2005 02:45]

There is no place like ::1


Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
De gelekte Xbox360 specs incl ATI GPU:
nieuws: Volledige specificaties Xbox 360 'gelekt'
De videokaart van ATi draait op 500MHz en is uitgerust met 10MB DRAM en 48 pipelines. Het interne geheugen bestaat uit 512MB GDDR3 werkend op 700MHz
Wat jammer dat dit lekkers voorlopig niet op de desktop te krijgen is.... :( :9

Ook bizar dat de verwachte duurste versie USD 369,= is.
Als je dan ziet wat je voor dat geld aan hardware krijgt en wat je voor hetzelfde geld aan PC hardware kunt kopen moet je toch wel ff :'(

ps: t is natuurlijk wel de vraag of de specs juist zijn.... Ik snap die 48pipes icm Unified shader niet helemaal.

Custom ATI Graphics Processor
- 500 MHz
- 10 MB embedded DRAM
- 48-way parallel floating-point shader pipelines
- unified shader architecture

Memory
- 512 MB GDDR3 RAM
- 700 MHz DDR

Memory Bandwidth
- 22.4 GB/s memory interface bus bandwidth
- 256 GB/s memory bandwidth to EDRAM
- 21.6 GB/s frontside bus

[Voor 55% gewijzigd door Help!!!! op 10-05-2005 13:21]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 13-05 16:34

swampy

Coconut + Swallow = ?

was blaat!

[Voor 98% gewijzigd door swampy op 10-05-2005 13:12]

There is no place like ::1


Acties:
  • 0Henk 'm!

  • DutchDevil79
  • Registratie: November 2002
  • Laatst online: 04-06 21:09

DutchDevil79

I race, therfore I am

Help!!!! schreef op dinsdag 10 mei 2005 @ 13:02:
De gelekte Xbox360 specs incl ATI GPU:
nieuws: Volledige specificaties Xbox 360 'gelekt'


[...]


Wat jammer dat dit lekkers voorlopig niet op de desktop te krijgen is.... :( :9

Ook bizar dat de verwachte duurste versie USD 369,= is.
Als je dan ziet wat je voor dat geld aan hardware krijgt en wat je voor hetzelfde geld aan PC hardware kunt kopen moet je toch wel ff :'(
Jah maar spelconsoles worden ook altijd met verlies verkocht. Microsoft haalt de winst uit de marges die ze voor de spellen krijgen. De PS2 wortd ook ver onder produktie prijs verkocht, maar vanwege de hoeveelheid spellen die er voor verkocht worden maakt sony vette winst. PC hardware moet weer wel met winst verkocht worden want ik heb nog nooit een spelontwikkelaar ATI of NVidia een percentage van hun omzet zien geven (ten tweede is de verkoop van games op de console vele malen hoger dan op PC gebied).

iRacing Profiel


Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
pur_DutchDevil schreef op dinsdag 10 mei 2005 @ 13:21:
[...]


Jah maar spelconsoles worden ook altijd met verlies verkocht. Microsoft haalt de winst uit de marges die ze voor de spellen krijgen. De PS2 wortd ook ver onder produktie prijs verkocht, maar vanwege de hoeveelheid spellen die er voor verkocht worden maakt sony vette winst. PC hardware moet weer wel met winst verkocht worden want ik heb nog nooit een spelontwikkelaar ATI of NVidia een percentage van hun omzet zien geven (ten tweede is de verkoop van games op de console vele malen hoger dan op PC gebied).
je hebt een punt maar als deze hardware zou kloppen dan moeten ze wel achterlijk veel spellen per console verkopen om er nog winst uit te peuren lijkt me..... :o

Wat ik verder ook niet snap (gesteld dat de GPU specs kloppen) is waarom ze deze architectuur niet ook gelijk op de desktop releasen. Waarom krijg je op de pc nu eerst een verder uitgemolken R300 architectuur.
Of is die nieuwe Xbox GPU niet makkelijk 1 op 1 in de PC desktop over te zetten danwel levert de unified shader architectuur in zijn huidige staat nog niet genoeg power voor de PC?

[Voor 20% gewijzigd door Help!!!! op 10-05-2005 13:30]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 18:55

Aight!

'A toy robot...'

Xbox 360 heeft een hele andere achitectuur, daarbij hoeven hun ook nooit rekening te houden met de mensen die allemaal andere configs hebben. Iedereen heeft maar 1 xbox met dezelfde hardware :).

De pc heeft gewoon weg meer bottlenecks waar ATI rekening moet houden dan een console. Console ligt zowizo altijd voor kwa hardware op de PC. Graphics ook wel.

Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Aight! schreef op dinsdag 10 mei 2005 @ 13:55:
Xbox 360 heeft een hele andere achitectuur, daarbij hoeven hun ook nooit rekening te houden met de mensen die allemaal andere configs hebben. Iedereen heeft maar 1 xbox met dezelfde hardware :).

De pc heeft gewoon weg meer bottlenecks waar ATI rekening moet houden dan een console. Console ligt zowizo altijd voor kwa hardware op de PC. Graphics ook wel.
Wat ik me herinner is dat bijv. de XBox 1 qua graphics ongeveer gelijk lag met PC bij introductie.
Wel heb ik de indruk dat de consolemarkt belangrijker wordt gevonden dan de PC markt waardoor ATI en NV nu hun nieuwste ontwerpen allereerst naar de console proberen te brengen.
Bovendien moet een console een paar jaar mee terwijl bij een PC veel sneller nieuwe zaken geimplementeerd kunnen worden...

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wat ik verder ook niet snap (gesteld dat de GPU specs kloppen) is waarom ze deze architectuur niet ook gelijk op de desktop releasen.
Een Unified Architectuur van ATI mogen we in 2006 verwachten (gekend als R600). Deze gpu in de xbox 360 (R500) kan je als voorloper zien.

World War One


Acties:
  • 0Henk 'm!

Anoniem: 93354

Help!!!! schreef op dinsdag 10 mei 2005 @ 13:24:
[...]

je hebt een punt maar als deze hardware zou kloppen dan moeten ze wel achterlijk veel spellen per console verkopen om er nog winst uit te peuren lijkt me..... :o

Wat ik verder ook niet snap (gesteld dat de GPU specs kloppen) is waarom ze deze architectuur niet ook gelijk op de desktop releasen. Waarom krijg je op de pc nu eerst een verder uitgemolken R300 architectuur.
Of is die nieuwe Xbox GPU niet makkelijk 1 op 1 in de PC desktop over te zetten danwel levert de unified shader architectuur in zijn huidige staat nog niet genoeg power voor de PC?
Waarom zou je met iets heel snels komen als je netzogoed nog 12 maanden je oude ontwerp kan uitmelken? het is nou niet zo dat het ontwikkelen van een gpu gratis is, ze willen zoveel mogelijk winst maken natuurlijk.

En een console moet 4+ jaar meegaan dus dan moet je wel wat op de tijd vooruit lopen.

Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Anoniem: 93354 schreef op dinsdag 10 mei 2005 @ 15:35:
[...]


Waarom zou je met iets heel snels komen als je netzogoed nog 12 maanden je oude ontwerp kan uitmelken? het is nou niet zo dat het ontwikkelen van een gpu gratis is, ze willen zoveel mogelijk winst maken natuurlijk.

En een console moet 4+ jaar meegaan dus dan moet je wel wat op de tijd vooruit lopen.
Dit soort chips zijn enorm complex en de infrastructuur benodigd om twee verschillende ontwerpen parallel te ontwikkelen en supporten kost veel resources. (twee dure ontwikkelteams, twee tapeouts, twee maal testen etc. etc.)

Waarom zou je voor een "verouderd" ontwerp al deze resources gebruiken. Die kun je wellicht voor andere nuttigere zaken inzetten.

Een reden die ik kan verzinnen is risicospreiding of het feit dat de chip zoals die in de Xbox zit niet 1 op 1 over te zetten is in de PC. Alhoewel de eerste XBOX chip niet veel verschilde van de PC GPU dus dat gaat ook niet helemaal op volgensmij.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • Bever!
  • Registratie: Maart 2004
  • Laatst online: 18:25
er is gewoon nog geen nut voor een kaart met 48 pipes, je zit met 16 in enkele gevallen tegen je limiet. denk dat ati ook wat ervaring op wil doen met die unified architecture?

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Bever! schreef op dinsdag 10 mei 2005 @ 16:25:
er is gewoon nog geen nut voor een kaart met 48 pipes, je zit met 16 in enkele gevallen tegen je limiet. denk dat ati ook wat ervaring op wil doen met die unified architecture?
Nee, omdat er geen games voor zijn op DIT moment. Dat kan natuurlijk in de toekomst snel veranderen, zo'n console moet jaren mee.

Dit zal al aardig slurpen met 1600x1200 x16AF en 8xAA:

http://image.com.com/gamespot/images/2005/128/reviews/928117_20050509_screen004.jpg

http://badboy.xtremetuners.com/gwcom3.jpg


Bovendien, iets moet de eerste stap zetten, of de software, of de hardware, aangezien simuleren niet 100% ideaal is.

48 renderpipes met 10 edram, is trouwens wel erg veel, ik head het niet verwacht iig. Ik lig naast de deur te wachten op de 1e verkoopdag als dit real is.

[Voor 15% gewijzigd door edward2 op 10-05-2005 17:17]

Niet op voorraad.


Acties:
  • 0Henk 'm!

Anoniem: 115890

Heb daarnet pc zaak een belletje gegeven en ze zeggen dat ik waarschijnlijk me X850XT PE krijg :) zal meteen benchmarks posten etc.

Acties:
  • 0Henk 'm!

Anoniem: 93354

edward2 schreef op dinsdag 10 mei 2005 @ 17:14:
[...]


Nee, omdat er geen games voor zijn op DIT moment. Dat kan natuurlijk in de toekomst snel veranderen, zo'n console moet jaren mee.

Dit zal al aardig slurpen met 1600x1200 x16AF en 8xAA:

[afbeelding]

[afbeelding]


Bovendien, iets moet de eerste stap zetten, of de software, of de hardware, aangezien simuleren niet 100% ideaal is.

48 renderpipes met 10 edram, is trouwens wel erg veel, ik head het niet verwacht iig. Ik lig naast de deur te wachten op de 1e verkoopdag als dit real is.
Alleen is het jammer dat zulk soort gfx op de pc beperkt blijven tot shooters. Ik vind het het geld eigelijk niet meer waard om een dure gfx kaart te kopen voor de pc voor die paar shooters die ik speel (waarvan ik de meeste maar 1x speel).

Acties:
  • 0Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Mja, shooters is wat de AAA-gamewereld is. Strategie en racegames zijn er ook met aardige graphics (Juiced, NFS:MW, Earth: 2160, etc.). Het zal niet lang duren voor de rest volgt hoor :-)

Acties:
  • 0Henk 'm!

  • Cyberblizzard
  • Registratie: Februari 2003
  • Niet online
Mooie demo om je systeem eens zwaar mee te belasten:
http://downloads.guru3d.c...ded87213f7edf153271a17bb5
ATI and Crytek have released a non-interactive tech-demo (local mirror ~ 161MB), showcasing the new version of the Cryengine, used to develop Far Cry. All video scenes were made in real time.

The ATI-Crytek demo uses same next-generation CryENGINE that will be used to create the successor to Far Cry. Since the CryENGINE enables immediate playability of a created game without the lengthy wait for compiling, enthusiasts into creating "mods" will have an easy way to make new gaming content for themselves. The ATI/Crytek demo shows just how easy it can be, especially since it is optimized to run on ATI's RADEON X800 XT series and the new RADEON PCI Express graphics boards. Download the demo and see for yourself how photo-realistic "machinima" cinematic computing will change your future gaming experience!
De demo duurt ongeveer vijf minuten maar mijn gigabyte ram zit toch bijna vol als ik het draai.

Welkom in het Antropoceen! - Fietsen, goed voor iedereen!


Acties:
  • 0Henk 'm!

  • schnumi
  • Registratie: Oktober 2001
  • Niet online

schnumi

Discothéque! Boom cha!

pur_DutchDevil schreef op dinsdag 10 mei 2005 @ 13:21:
[...]


Jah maar spelconsoles worden ook altijd met verlies verkocht. Microsoft haalt de winst uit de marges die ze voor de spellen krijgen. De PS2 wortd ook ver onder produktie prijs verkocht, maar vanwege de hoeveelheid spellen die er voor verkocht worden maakt sony vette winst. PC hardware moet weer wel met winst verkocht worden want ik heb nog nooit een spelontwikkelaar ATI of NVidia een percentage van hun omzet zien geven (ten tweede is de verkoop van games op de console vele malen hoger dan op PC gebied).
Euhh niet allemaal hoor.

De Nintendo Gamecube heeft altijd winst opgeleverd. Juist door die lage prijs moesten Microsoft en Sony hun consoles onder de productieprijs verkopen.

"The more you take the less you feel, The less you know the more you believe, The more you have the more it takes today"


  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Zow, had bijna een 6800GT gekocht bij Alternate, maar door een of andere fout ging dat niet door. Nu maar een Club3D X800XL besteld bij Komplett. Hopen dat ik er goed aan doe...

Edit: Is het een goed idee om er een Zalman VF700Cu op te zetten of is de standaard koeler goed en stil genoeg? Ik wil natuurlijk wel een beetje overclocken.

[Voor 32% gewijzigd door SayWhatAgain! op 11-05-2005 11:39]


  • Yokozuna
  • Registratie: Januari 2001
  • Laatst online: 28-09-2019

Yokozuna

drum- & forumfreak

Zow, had bijna een 6800GT gekocht bij Alternate, maar door een of andere fout ging dat niet door.
Jep, een fout van jezelf :) Je had namelijk meteen voor een X800XL moeten gaan, gezien die in 80% of meer van de gevallen sneller is dan de 6800GT.

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

lol :) Toch nog goed gekomen met mij...

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Far Cry Patch 1.32 change log

• Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware
Crytek heeft er al eentje :)

[Voor 4% gewijzigd door edward2 op 11-05-2005 19:31]

Niet op voorraad.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
edward2 schreef op woensdag 11 mei 2005 @ 19:30:
[...]


Crytek heeft er al eentje :)
HAHA. :) :) Nu IK nog..... :9 :P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

In de topsic start staat dat de X800XL en 0,11 micron core heeft zonder low-k. Dat low-k zorgt voor een lager stroomverbruik/hitte vorming als ik het goed begrepen heb. Nu heb ik net mijn Club3D X800XL VIVO (AGP) binnen gekregen, en op de doos staat toch echt "0.11 micron low-k fabrication process". Jokken ze nou een beetje of bestaat die core inmiddels?

Edit: doe ik er trouwens verstandig aan eerst de oude omega's van mijn 9800pro compleet te verwijderen (met ATI uninstall tool) en dan de X800XL erin te gooien? Of boeit dat niet?

[Voor 22% gewijzigd door SayWhatAgain! op 12-05-2005 13:07]


  • Yokozuna
  • Registratie: Januari 2001
  • Laatst online: 28-09-2019

Yokozuna

drum- & forumfreak

Waarom probeer je hem niet te overclocken, merk je vanzelf of het een low-k productieproces is :)

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

uhm...ik moet hem er nog inzetten :X Dan ff die Ati overclock tool erover en dan de VF700Cu er op zetten. En waar merk ik dan aan dat het een low-k is? Maar ik moet eerst verder met een opdracht vanmiddag...

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
nieuwe generatie zou volgende maand ofzo uitkomen? En alleen de high end toch nog, dus tegen een prijs van ruim 500 euro? Zou dit betekenen dat de huidige generatie snel in prijs zal zakken? (Low-end, high- end etc. )

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De volgende generatie is eerder iets voor Q4, en kan je verwachten aan 600-700€ introductie, zoals altijd.

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Maar goed: kan het nou zijn dat de R430 nu ook op 0.11 low-k geproduceerd wordt? Ze hebben op de doos over "TV-out" gewoon een "VIVO" stickertje geplakt...

  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
SayWhatAgain! schreef op donderdag 12 mei 2005 @ 14:32:
Maar goed: kan het nou zijn dat de R430 nu ook op 0.11 low-k geproduceerd wordt? Ze hebben op de doos over "TV-out" gewoon een "VIVO" stickertje geplakt...
nee het is gewoon 0.11 zonder low-k. Dat is welbekend :) Anders zouden ze de x850's ook wel op 0.11 hebben gemaakt aangezien dat goedkoper is. 0.11 zonder low-k haalt simpelweg de snelheden niet van 0.13 low-k.

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Okay, ik vraak maar omdat dat specifiek op de doos staat vermeld. Ik ga hem straks inbouwen.

  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
ja ach... Er stond bij mij ook een keer heel groot "8x AGP!" op de doos terwijl het een geforce 4 mx4000 pci was :)

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Beetje n00b vraag: hoe/waar kan ik de temp van mijn Club3D X800XL uitlezen?

  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
in je driver tab?

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Nee? Ik heb de nieuwste Omega drivers...

  • Bever!
  • Registratie: Maart 2004
  • Laatst online: 18:25
installeer ff ati tray tools, of ati tool. met beiden kan je het zien

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Dank je. Ik kwam er net zelf achter... Zo meteen even kijken met Atitool en dan de VF700Cu er op zetten. De standaard koeler is best lawaaiig.

Anoniem: 127429

okay, mijn x850xt prikt erin en lijkt het goed te doen ... cat 5.4 erop met CCC ... van dit laatste ben ik niet zo verlekkerd dus had ik dit graag verwijderd. Maar nergens lijk ik een downloadlink te vinden naar de cat 5.4 zonder CCC driver ???

Wie helpt me even op weg ?

+ hoe verwijder ik effectief ati-drivers ?

+ ik ken geen temp-meting meer doen via rivatuner ???? (het betreffende icoontje komt er niet in voor)

Acties:
  • 0Henk 'm!

  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 18:55

Aight!

'A toy robot...'

Driver Cleaner?

Acties:
  • 0Henk 'm!

Anoniem: 127429

Ik denk dat ik 'm nu lekker heb draaien ... Nu zoek ik enkel nog een proggie om de fanspeed in 2D wat lager te houden ... ik dacht dat dit met ati-tools kon, maar na installatie vond ik nergens deze optie terug. Hoe kan ik mijn fanspeed van mijn graka iets verlagen ?

Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
http://www.radeon2.ru/atitray/

Ati tray tools, als je dit control panel eenmaal hebt gezien flikker je de rest
de vuilnisbak in. Er zit zelfs een fps meter in. :) (om de framerate in games te zien).

Acties:
  • 0Henk 'm!

  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 18:55

Aight!

'A toy robot...'

Ziet er wel strak uit die tray tools, die oude vond ik altijd bagger.

Acties:
  • 0Henk 'm!

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Ik heb mijn Club3D X800XL nu draaien met een VF700 er op @stock speeds (komt nog verandering in) en de temps zijn 37 idle en 57 full load. Maar hoe weet ik nou of ie een 0.11 lowk is? Het staat op de doos, maar in de SP staat dat dat niet bestaat...

Acties:
  • 0Henk 'm!

Anoniem: 127429

Anoniem: 38733 schreef op vrijdag 13 mei 2005 @ 09:15:
http://www.radeon2.ru/atitray/

Ati tray tools, als je dit control panel eenmaal hebt gezien flikker je de rest
de vuilnisbak in. Er zit zelfs een fps meter in. :) (om de framerate in games te zien).
Right u are ... Zalig tooltje ... de fan op mijn x850xt draait standaard aan 13% (core 38°, env 36°) en maar sjans ook want vanaf 20% maakt die een pukke-herrie zeg ! Ik begrijp niet goed waarom men zo'n brakke fan op zo'n superkaart monteert ... nou ja ...

Thx a million voor dit tooltje !! CCC ligt er inderdaad al af, net als ati-tool :r In een oogopslag alles onder je muis ... prachtig gewoon !

Lijkt erop dat de kaart nu volledig scherp staat:
Cat 5.4 zonder CCC, stock clocks (cpu ook niet oc)
Idle temp : 40° (met fan op 10 %)
3dmark05 => 5900
3dmark03 => 12200

Het verschil tussen de twee benches is wel groot ... bij mijn 6800GT scoorde ik 5600 marks in 05 en 12700 in 03 ... Hoe komt het dat bij ati dit verder uit elkaar ligt ?

Leuke extra van Asus is dat ook het mem op de achterkant voorzien is van een sink, idem aan de PE versie _/-\o_

[Voor 39% gewijzigd door Anoniem: 127429 op 13-05-2005 14:38]


Acties:
  • 0Henk 'm!

  • D2DM
  • Registratie: Februari 2000
  • Laatst online: 12:13
beetje jammer dat top-end gebeuren allemaal agpx4/8 is en niet een extra inkeping voor agpx2/4/8 (zoals 9700pro, 9800)

R7 5700x, B350 Prime Plus, 48GB ddr4 op 3200Mt/s, 960Pro, Ultrastar He10, gtx970, uwqhd.
Someone set up us the cow.


Acties:
  • 0Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 15:08
SayWhatAgain! schreef op vrijdag 13 mei 2005 @ 10:55:
Ik heb mijn Club3D X800XL nu draaien met een VF700 er op @stock speeds (komt nog verandering in) en de temps zijn 37 idle en 57 full load. Maar hoe weet ik nou of ie een 0.11 lowk is? Het staat op de doos, maar in de SP staat dat dat niet bestaat...
Volgens mij is deze vraag al beantwoord. De x800xl is op het 0,11 procedé gemaakt en die kent geen low-k. Ati laat haar chips produceren bij TSMC en deze biedt alleen low-k op het 0,13 en het 0,09 procedé, geef je zoektocht maar op. De xl heeft nimmer low-k ook al zegt de doos anders.
De informatie op de doos wijkt wel vaker af met het werkelijke product. En vaak plakken ze stickers op andere dozen om productiekosten te besparen..

Acties:
  • 0Henk 'm!

  • SayWhatAgain!
  • Registratie: Januari 2004
  • Laatst online: 05-06 20:21

SayWhatAgain!

I dare you, I double dare you!

Okay, ik geloof het! :p

Acties:
  • 0Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 15:07
Wat info, weet niet of het al gepost is... volg deze topics nooit :)

Value
RV515 > MP date Oct.
RV515 LE 250Mhz DDR1 TSOP / 128bit / 512MB / AIB, Retail, OEM
RV515 PRO 400Mhz DDR2 / 128bit / 512MB / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 256MB / OEM
RV515 SE 250Mhz DDR1 TSOP / 64bit / 256MB / LP design / AIB, Retail, OEM
RV515 SE HM 500Mhz GDDR3 / 32bit / 32MB / LP design / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 128MB / LP design / OEM

RX550, based on RV370 core, 500/250
128/64bit
pcb: pin to pin compatible with current X300 and X600 pro
standard config: 256MB / 128bit
Target product: 6200TC 256
MP: Mid June
>> X300SE HM continue

Mainstream
RV530 > MP date Sept
RV530 DDR1 TSOP / 64&128bit / 64&128MB / LP design
RV530PRO DDR2 / 128bit / 256&512MB / 4 layer
RV530XT GDDR3 / 128bit / 256MB / 8 layer
>> X700 and X600 PRO continue

Performance
R520 > MP date July / Aug
R520XT PE & XT GDDR3 / 256bit / 512MB / Dual slot cooling / PCI-E (aug)
R520 PRO GDDR3 / 256bit / 256MB / Dual slot cooling / PCI-E or AGP (sept)
>> X800PRO, X800XL continue

Acties:
  • 0Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
:o
*kus :)

Acties:
  • 0Henk 'm!

  • Neogenic
  • Registratie: April 2002
  • Laatst online: 17-03-2022
Ik zit toch nog steeds te twijfelen tussen de 6800GT en de Radeon X800 XL. Ik denk wel dat de X800XL de wat betere allround kaart is maar de 6800GT ondersteunt wel SM3.0 en de X800XL niet.

Ik vind het belangrijk dat de kaart toch wel weer minimaal 2-3 jaar mee kan gaan net zoals m'n huidige Hercules 9700Pro. Nu kun je met SM2.0b nog prima meekomen maar hoe zit dat over 1 tot 2 jaar?? De gametechnologie gaat zo snel, je weet nooit hoe snel de ontwikkelaars de spellen meer gaan richten op SM3.0 waardoor die kaarten meer voordeel gaan krijgen.

Of toch maar wachten op de R5xx kaarten maar die hebben natuurlijk weer een ultrahoge releaseprijs, tegen de tijd dat die qua prijs/kwaliteit verhouding betaalbaar zijn ben je al weer een jaar verder. |:(

Acties:
  • 0Henk 'm!

  • Neogenic
  • Registratie: April 2002
  • Laatst online: 17-03-2022
dikki dik schreef op donderdag 12 mei 2005 @ 13:34:
nieuwe generatie zou volgende maand ofzo uitkomen? En alleen de high end toch nog, dus tegen een prijs van ruim 500 euro? Zou dit betekenen dat de huidige generatie snel in prijs zal zakken? (Low-end, high- end etc. )
Dat zou je wel denken ja maar als je nu kijkt naar de huidige prijzen van bv. de 9800Pro/FX5900 t.o.v. de nieuwe generatie Nvidia/Ati kaarten snap ik niet dat die oudere kaarten uberhaupt nog verkocht worden. Wat dat betreft zit er qua prijs/kwaliteit verhouding niet altijd even veel logica in.

Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Neogenic schreef op vrijdag 13 mei 2005 @ 23:12:
Ik zit toch nog steeds te twijfelen tussen de 6800GT en de Radeon X800 XL. Ik denk wel dat de X800XL de wat betere allround kaart is maar de 6800GT ondersteunt wel SM3.0 en de X800XL niet.

Ik vind het belangrijk dat de kaart toch wel weer minimaal 2-3 jaar mee kan gaan net zoals m'n huidige Hercules 9700Pro. Nu kun je met SM2.0b nog prima meekomen maar hoe zit dat over 1 tot 2 jaar?? De gametechnologie gaat zo snel, je weet nooit hoe snel de ontwikkelaars de spellen meer gaan richten op SM3.0 waardoor die kaarten meer voordeel gaan krijgen.

Of toch maar wachten op de R5xx kaarten maar die hebben natuurlijk weer een ultrahoge releaseprijs, tegen de tijd dat die qua prijs/kwaliteit verhouding betaalbaar zijn ben je al weer een jaar verder. |:(
idd zit met hetzelfde probleem :9
ik dacht van sm 2.0 verschilt niet erg veel van sm 3.0. Als je je bedenkt dat vrijwel alle ontwikkelaars zowel sm 2.0 als sm 3.0 in hun games verwerken ( op uitzondering van splintercell chaos thoery :/ ) is de keuze al een stuk makkelijker denk ik.

Battlefield 2 stats - Specs PC - X360 Gamertag


Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Neogenic schreef op vrijdag 13 mei 2005 @ 23:21:
[...]


Dat zou je wel denken ja maar als je nu kijkt naar de huidige prijzen van bv. de 9800Pro/FX5900 t.o.v. de nieuwe generatie Nvidia/Ati kaarten snap ik niet dat die oudere kaarten uberhaupt nog verkocht worden. Wat dat betreft zit er qua prijs/kwaliteit verhouding niet altijd even veel logica in.
Dat is idd waar, maar meestal dalen ze wel. Dit was ook zo bij mijn 9700 die ik toendertijds kocht voor 300 euro een maand later was hij 100 euro minder waard, dat viel best wel tegen. De vraag is echter wanneer dit gebeurd, maar dat is natuurlijk moeilijk te voorspellen.

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 18:55

Aight!

'A toy robot...'

Sapphire Ultimate is ook een geduchte tegen stander van de HIS ICEQ series.

VF700 Vs Silencer....

Ze kosten ongeveer hetzelfde:
His X800XL € 338
Sapphire Ultimate X800XL €330

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Ik had nog een paar vraagjes

Is het werkelijk zo dat de beeldkwaliteit sinds de laatste drivers van de 6800 serie op het zelfde niveau zit als de x800 serie, gaat dit niet ten kosten van de performance?

Sommmige zeggen dat de x800 sneller aanvoelt als de 6800 serie, kan iemand dit bevestigen?

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat je al erg goede ogen moet hebben om een onderscheid te kunnen maken ingame. Screenshots vergelijken kan je wel wat verschillen zien, maar als het allemaal tegen 60fps knalt, ga je nauwelijks verschil zien lijkt me.

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
dikki dik schreef op vrijdag 13 mei 2005 @ 23:22:
[...]
idd zit met hetzelfde probleem :9
ik dacht van sm 2.0 verschilt niet erg veel van sm 3.0. Als je je bedenkt dat vrijwel alle ontwikkelaars zowel sm 2.0 als sm 3.0 in hun games verwerken ( op uitzondering van splintercell chaos thoery :/ ) is de keuze al een stuk makkelijker denk ik.
SC chaos theory is waarschijnlijk geen uitzondering, STALKER lijkt nu ook SM1.1 / SM3.0 game te worden. Maar gedult, het ATi sm3.0 stuk is onderweg...

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
oeLangOetan schreef op zaterdag 14 mei 2005 @ 13:14:
[...]


SC chaos theory is waarschijnlijk geen uitzondering, STALKER lijkt nu ook SM1.1 / SM3.0 game te worden. Maar gedult, het ATi sm3.0 stuk is onderweg...
irritante nvidia campagne, gewoon triest :/

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Kapitein Prozac
  • Registratie: September 2002
  • Laatst online: 03-06 01:46
dikki dik schreef op zaterdag 14 mei 2005 @ 09:21:
Ik had nog een paar vraagjes

Is het werkelijk zo dat de beeldkwaliteit sinds de laatste drivers van de 6800 serie op het zelfde niveau zit als de x800 serie, gaat dit niet ten kosten van de performance?

Sommmige zeggen dat de x800 sneller aanvoelt als de 6800 serie, kan iemand dit bevestigen?
Het ontloopt elkaar niet veel, alleen rook en explosies vind ik mooier met mijn nieuwe X850 XT dan met mijn Asus V9999 GE.

Mac Mini Core i5 2.5 Ghz 16 GB 250 GB SSD OS 10.11.x | HP Pavilion 32 | PC; hier | Samsung Galaxy S9


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Neogenic schreef op vrijdag 13 mei 2005 @ 23:12:
Ik zit toch nog steeds te twijfelen tussen de 6800GT en de Radeon X800 XL. Ik denk wel dat de X800XL de wat betere allround kaart is maar de 6800GT ondersteunt wel SM3.0 en de X800XL niet.

Ik vind het belangrijk dat de kaart toch wel weer minimaal 2-3 jaar mee kan gaan net zoals m'n huidige Hercules 9700Pro. Nu kun je met SM2.0b nog prima meekomen maar hoe zit dat over 1 tot 2 jaar?? De gametechnologie gaat zo snel, je weet nooit hoe snel de ontwikkelaars de spellen meer gaan richten op SM3.0 waardoor die kaarten meer voordeel gaan krijgen.

Of toch maar wachten op de R5xx kaarten maar die hebben natuurlijk weer een ultrahoge releaseprijs, tegen de tijd dat die qua prijs/kwaliteit verhouding betaalbaar zijn ben je al weer een jaar verder. |:(
Ik zou zeggen, ga voor de X800XL. Waarom? Hij kakt minder vaak in dan de 6800GT qua minimum FPS. De PS3.0/VS3.0 die in de 6x00-series gebakken zit zal niet toekomstbestendig blijken te zijn. Ik las eergisteren ergens een review over SLI-series, en het performanceniveau met alle PS3.0/VS3.0-opties aan bleef op hetzelfde niveau! Geen prestatiewinst te zien, helaas... :(

Ik zou eigenlijk willen zeggen, wacht nog even op de R520, dat doe ik ook namelijk. Tenzij het geld écht brandt in je zak en je videokaart er dusdanig slecht aan toe is dat reanimatie geen baat meer heeft (zoals bij mij dus 7(8)7 )...

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Jejking schreef op zaterdag 14 mei 2005 @ 15:11:
[...]


Ik zou zeggen, ga voor de X800XL. Waarom? Hij kakt minder vaak in dan de 6800GT qua minimum FPS. De PS3.0/VS3.0 die in de 6x00-series gebakken zit zal niet toekomstbestendig blijken te zijn. Ik las eergisteren ergens een review over SLI-series, en het performanceniveau met alle PS3.0/VS3.0-opties aan bleef op hetzelfde niveau! Geen prestatiewinst te zien, helaas... :(

Ik zou eigenlijk willen zeggen, wacht nog even op de R520, dat doe ik ook namelijk. Tenzij het geld écht brandt in je zak en je videokaart er dusdanig slecht aan toe is dat reanimatie geen baat meer heeft (zoals bij mij dus 7(8)7 )...
bedankt voor je advies je hebt me nu helemaal overgehaald :) . Naast het feit dat ik gelezen heb dat de ati kaart in de toekomst eventueel met AMR kan gebruikt worden, bij aanschaf van een kaart die het ondersteund. Ook mooi om te weten dat de beeldkwaliteit vrijwel gelijk is en zelfs soms nog iets mooier. Net zoals twee jaar geleden ga ik weer voor ati :Y)

Overigens de reden van aankoop is dat ik bij de release van battlefield 2 het spel soepel wil kunnen spelen. BF vietnam draait niet zo lekker meer op mijn 9700, 3500+ en 1 gig ram. Niet dat ik het een ramp vind bij dat spel, maar het zegt genoeg over zijn opvolger. :9 Ben helemaal BF fan. B)

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Astennu
  • Registratie: September 2001
  • Laatst online: 11:41
Ik vraag me af wanneer we de R520 zien. Dit is net als de R420 gewoon een speed boost van de R300.

Waarschijnlijk 20 of meer pipes. met 8 of meer vertex shaders.

De R600 zou een gpu worden die gelijk is wat er nu in de Xbox 2 zit.

Alleen ik ben nu al me X850 pro aan het verkopen omdat ik er strax als de R520 er is geen geld meer voor kan krijgen maar zou dit nu 3 maanden duuren of langer ? iemand een idee :) en G70 zou die al die unified shaders hebben of is dit iets dat ATi bed8t heeft :?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Astennu schreef op zaterdag 14 mei 2005 @ 16:22:
Ik vraag me af wanneer we de R520 zien. Dit is net als de R420 gewoon een speed boost van de R300.

Waarschijnlijk 20 of meer pipes. met 8 of meer vertex shaders.

De R600 zou een gpu worden die gelijk is wat er nu in de Xbox 2 zit.

Alleen ik ben nu al me X850 pro aan het verkopen omdat ik er strax als de R520 er is geen geld meer voor kan krijgen maar zou dit nu 3 maanden duuren of langer ? iemand een idee :) en G70 zou die al die unified shaders hebben of is dit iets dat ATi bed8t heeft :?
ik zou denken van ik sla wel een generatie over en daarna verkoop ik mijn kaart, dan maak je waarschijnlijk nog minder verlies ook. Vooral als je hem tegen de tijd van de prijsdalingen koopt.

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dikkiedik schreef:
bedankt voor je advies je hebt me nu helemaal overgehaald :)
Graag gedaan hoor :), ik ben momenteel ook aan het sparen voor een pc die mijn oude pc van 3 jaar een serieuze identiteitscrisis gaat bezorgen... Lels! 8) Een AMD64 San Diego (FX57) + R520 zou mooi zijn, ware het niet dat dat stomme Dell geen AMD levert :'( . Maar misschien zet ik mijn pc zelf in elkaar. Ook leuk! :*) . Ik hoop in ieder geval dat ATi vaart zet achter de R520, en met een beetje geluk gebeurt dat ook omdat de geruchten gaan dat de Nvidia G70 op Computex gelanceerd gaat worden
Astennu schreef op zaterdag 14 mei 2005 @ 16:22:
Ik vraag me af wanneer we de R520 zien. Dit is net als de R420 gewoon een speed boost van de R300.

Waarschijnlijk 20 of meer pipes. met 8 of meer vertex shaders.

De R600 zou een gpu worden die gelijk is wat er nu in de Xbox 2 zit.
Inderdaad, de R520 is weer een speedbump, maar met behoorlijk wat aanpassingen ten opzichte van de huidige uitgemolken R300-architectuur. Zeg maar dat dit een combo wordt van de R300 en R600... Het aantal pipes zal iig geen 20 of 28 worden, dan heb je ongelijke quads (5x4 en 7x4) dus dat gaat waarschijnlijk niet door. Ik denk cq. vermoed dat het eerst 24 en later 32 zijn, mocht de G70 gehakt maken van de R520 24-pipes versie... 8 Vertexshaders klopt wel, alleen dan Hybrideversies. Ik ben benieuwd...
Alleen ik ben nu al me X850 pro aan het verkopen omdat ik er strax als de R520 er is geen geld meer voor kan krijgen maar zou dit nu 3 maanden duuren of langer ? iemand een idee :) en G70 zou die al die unified shaders hebben of is dit iets dat ATi bed8t heeft :?
Kan je doen, wie zal het zeggen of de R520 binnenkort uit is (ik hoop natuurlijk van wel :D ). Zodra de budgetversies van de R520 op de markt zijn, kan jij het schudden. Dus zorg ervoor dat jouw kaart weg is voordat dit monster in de winkels ligt. Overigens, volgens mij heeft de G70 heeft geen Unified Shader Architecture omdat Nvidia aangegeven heeft dat plan van Microsoft niet te willen volgen. Misschien een voordeel voor ATi à la DX9?

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dikki dik schreef op zaterdag 14 mei 2005 @ 13:49:
[...]


irritante nvidia campagne, gewoon triest :/
Lol :o , volgens mij zijn het nog steeds de ontwikkelaars die de spellen maken ( en dus de optie voor sm 2.0 weglaten ) en niet nVidia. ;)

Ik begin me nu echt af te vragen wat sneller gaat worden, R520 of G70. Volgens mij gaat er (net als bij deze generatie) niet veel verschil in zitten tussen beide topmodellen.

[Voor 31% gewijzigd door Tyranium op 14-05-2005 21:14]


Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Tyranium schreef op zaterdag 14 mei 2005 @ 21:09:
[...]


Lol :o , volgens mij zijn het nog steeds de ontwikkelaars die de spellen maken ( en dus de optie voor sm 2.0 weglaten ) en niet nVidia. ;)
dat geloof je toch zeker zelf niet, Weetje hoeveel mensen er hier nog met een sm 2.0 kaart zitten. Die ontwikkelaars willen indruk op je maken met hun game en dat doen ze niet door sm2.0 eruit te halen. En volgens mij zat dat er zelfs eerst wel in, het levert hun dus zelfs nog meer werk op. Duidelijk dat Nvidia hier agter zit. :/

Battlefield 2 stats - Specs PC - X360 Gamertag


Acties:
  • 0Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dikki dik schreef op zondag 15 mei 2005 @ 09:51:
[...]


dat geloof je toch zeker zelf niet, Weetje hoeveel mensen er hier nog met een sm 2.0 kaart zitten. Die ontwikkelaars willen indruk op je maken met hun game en dat doen ze niet door sm2.0 eruit te halen. En volgens mij zat dat er zelfs eerst wel in, het levert hun dus zelfs nog meer werk op. Duidelijk dat Nvidia hier agter zit. :/
Denk je nou echt dat die ontwikkelaars het risico willen nemen al dat geld mis te lopen van mensen met een sm 2.0 kaart, omdat nVidia het zo lief aan hun vraagt? Het is gewoon te veel werk om alledrie die opties erin te bouwen en ze willen wel dat hun games de nieuwste technologieen hebben, dus bouwen ze er sm 3.0 en een opgeleukte versie van sm 1.1 in (ook voor wat oudere kaarten). Je kan het ook anders zien: het is gewoon jammer dat Ati (nog) geen sm 3.0 in hun videokaarten heeft zitten. :)

Acties:
  • 0Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Tyranium schreef op zondag 15 mei 2005 @ 11:18:
[...]
Denk je nou echt dat die ontwikkelaars het risico willen nemen al dat geld mis te lopen van mensen met een sm 2.0 kaart, omdat nVidia het zo lief aan hun vraagt? Het is gewoon te veel werk om alledrie die opties erin te bouwen en ze willen wel dat hun games de nieuwste technologieen hebben, dus bouwen ze er sm 3.0 en een opgeleukte versie van sm 1.1 in (ook voor wat oudere kaarten). Je kan het ook anders zien: het is gewoon jammer dat Ati (nog) geen sm 3.0 in hun videokaarten heeft zitten. :)
Het heeft onder andere temaken met de slechte prestaties van de GFFX serie dat met voor een sm1.1 pad kiest. De radeon 9xxx zou waarschijnlijk het sm3.0 -> sm2.0 pad ook niet aankunnen.

Dan blijft er nog 1 segment kaarten over, de radeon X series die uit de boot vallen tov de geforce 6 en de volgende generatie ati kaarten,... tjah een lastige keuze, ofwel ga je voor een sm2.x pad maar dan kun je de nVidia subsidies wel vergeten... moeilijke keuzes voor de developers... alternatief kun je voor 3 verschillende codepaden gaan maar dan wordt je QA de helft langer...

Het zal eenvoudiger worden als sm2.0 de baseline wordt.

[Voor 3% gewijzigd door oeLangOetan op 15-05-2005 12:33]


Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
oeLangOetan schreef op zondag 15 mei 2005 @ 12:32:
[...]


Het heeft onder andere temaken met de slechte prestaties van de GFFX serie dat met voor een sm1.1 pad kiest. De radeon 9xxx zou waarschijnlijk het sm3.0 -> sm2.0 pad ook niet aankunnen.

Dan blijft er nog 1 segment kaarten over, de radeon X series die uit de boot vallen tov de geforce 6 en de volgende generatie ati kaarten,... tjah een lastige keuze, ofwel ga je voor een sm2.x pad maar dan kun je de nVidia subsidies wel vergeten... moeilijke keuzes voor de developers... alternatief kun je voor 3 verschillende codepaden gaan maar dan wordt je QA de helft langer...

Het zal eenvoudiger worden als sm2.0 de baseline wordt.
sm 2.0 pad bij het spel hl2 draait op een 9700 toch ook prima. Je kan altijd nog bepaalde effecten wat lager zetten...

Maar Nvidia zit hier dus achter ;)

Battlefield 2 stats - Specs PC - X360 Gamertag


Acties:
  • 0Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dikki dik schreef op zondag 15 mei 2005 @ 15:17:
[...]


sm 2.0 pad bij het spel hl2 draait op een 9700 toch ook prima. Je kan altijd nog bepaalde effecten wat lager zetten...

Maar Nvidia zit hier dus achter ;)
Onwikkelaars willen gewoon een vooruitstrevend spel maken, dus gebruiken ze sm3.0, maar omdat alle oudere kaarten het spel dan niet kunnen spelen doen ze er ook nog sm1.1 in. Maar het duurt denk ik gewoon te lang en is te duur om er ook nog is sm2.0(b) erin te doen. Met sm3.0 heeft Ati gewoon een kans gemist die ze met de r520 recht gaan zetten.
En je kan ook zeggen dat Ati er achter zit dat er in HL2 ook nog sm2.0 zit i.p.v. dat nVidia ervoor zorgt dat het er in spellen als SC: Chaos Theory alleen sm1.1/3.0 zit. ;)

Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Tyranium schreef op zondag 15 mei 2005 @ 15:26:
[...]

Onwikkelaars willen gewoon een vooruitstrevend spel maken, dus gebruiken ze sm3.0, maar omdat alle oudere kaarten het spel dan niet kunnen spelen doen ze er ook nog sm1.1 in. Maar het duurt denk ik gewoon te lang en is te duur om er ook nog is sm2.0(b) erin te doen. Met sm3.0 heeft Ati gewoon een kans gemist die ze met de r520 recht gaan zetten.
Als ze een vooruitstrevend spel willen maken moeten ze ervoor zorgen dat dat ook gebeurt. Dit behalen ze niet door sm 2.0 eruit te halen. Bovendien zullen de spellenmakers die tijd er gerust wel voor over hebben. Dat bij vrijwel alle spellen sm2.0 nog wordt behouden en spellen met een Nvidia licensie niet zegt al genoeg. Het is zelfs zo dat crytek maar 3 weken de tijd nodig had om sm 3.0 in far cry te implenteren, naast sm 2.0. Veel moeite kost het dus niet. Terwijl het verschil in beeldkwaliteit en perfomance tussen sm2.0 en sm3.0 vele malen kleiner is als tussen sm2.0 en 1.1, wat uit tests is gebleken.
Tyranium schreef op zondag 15 mei 2005 @ 15:26:
En je kan ook zeggen dat Ati er achter zit dat er in HL2 ook nog sm2.0 zit i.p.v. dat nVidia ervoor zorgt dat het er in spellen als SC: Chaos Theory alleen sm1.1/3.0 zit. ;)
daar geef ik je gelijk, hoewel het verschil natuurlijk wel veel kleiner is. 6800 bezitters zullen het gemis aan sm3.0 een stuk minder erg vinden als sm2.0 voor ati.

Ik vind overigens dat beide partijen zich niet met spellenmakers moeten bemoeien, want het is nu zo van.... oh ik koop een ati omdat ik half life 2 goed wil kunnen spelen of zal ik toch maar een Nvidia omdat ik stalker goed wil kunnen spelen. Die kaarten moeten beide een even grote kans krijgen, de strijd moet niet om licensies gaan maar de strijd moeten ze zelf leveren. Zowel de campagne van Ati en Nvidia vind ik niet kunnen en uitermate triest.

[Voor 4% gewijzigd door dikki dik op 15-05-2005 16:19]

Battlefield 2 stats - Specs PC - X360 Gamertag


Acties:
  • 0Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

dikki dik schreef op zondag 15 mei 2005 @ 16:17:
Ik vind overigens dat beide partijen zich niet met spellenmakers moeten bemoeien, want het is nu zo van.... oh ik koop een ati omdat ik half life 2 goed wil kunnen spelen of zal ik toch maar een Nvidia omdat ik stalker goed wil kunnen spelen. Die kaarten moeten beide een even grote kans krijgen, de strijd moet niet om licensies gaan maar de strijd moeten ze zelf leveren. Zowel de campagne van Ati en Nvidia vind ik niet kunnen en uitermate triest.
Hier geef ik je compleet gelijk in. Hopelijk gaat dit ook gebeuren vanaf de G70/R520, omdat beide gewoon (goed) SM3.0 ondersteunen. :)

Acties:
  • 0Henk 'm!

  • Hertog_Martin
  • Registratie: Juli 2002
  • Laatst online: 16:36
ik ga een nieuw systeem aanschaffen en aangezien ik lang (3/4 jaar) met het moederbord wil doen ga ik voor pci-express, bij momenteel geldgebrek moet ik echter een budget kaart nemen

de x300se lijkt de goedkoopste oplossing, hoor er niet veel positiefs over vooral door de 64 bit interface oid, maar hoe vergelijkt ie met m'n gf4 ti4200 64mb en hoe zijn de opengl prestaties voor 3d applicaties en hoe draait ie in spellen als ut2004 en farcry?

Acties:
  • 0Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
dikki dik schreef op zondag 15 mei 2005 @ 16:17:
Ik vind overigens dat beide partijen zich niet met spellenmakers moeten bemoeien, want het is nu zo van.... oh ik koop een ati omdat ik half life 2 goed wil kunnen spelen of zal ik toch maar een Nvidia omdat ik stalker goed wil kunnen spelen. Die kaarten moeten beide een even grote kans krijgen, de strijd moet niet om licensies gaan maar de strijd moeten ze zelf leveren. Zowel de campagne van Ati en Nvidia vind ik niet kunnen en uitermate triest.
Het is heel bellangrijk dat ATi en nVidia zich sterk bezig houden met de game developers, als dat niet gebeurt zouden vele issues veel te laat aan het licht komen. De reden dat de meeste spelen zonder fouten werken wanneer ze uitkomen is het resultaat van een goede samenwerking.
De developers moeten ook weten hoe ze het best optimaliseren, de funcities in d3d zijn meestal voor interpretatie vatbaar en het verkeerde gebruik ervan kan tot "onverklaarbare" lage performance lijden. Het is aan ATi en nVidia om uit te leggen hoe de funcies correct gebruikt moeten worden, hoe zij voor die functies hebben geoptimaliseerd.
Een goede samenwerking is HEEL bellangrijk.

Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
oeLangOetan schreef op zondag 15 mei 2005 @ 17:51:
[...]

Het is heel bellangrijk dat ATi en nVidia zich sterk bezig houden met de game developers, als dat niet gebeurt zouden vele issues veel te laat aan het licht komen. De reden dat de meeste spelen zonder fouten werken wanneer ze uitkomen is het resultaat van een goede samenwerking.
De developers moeten ook weten hoe ze het best optimaliseren, de funcities in d3d zijn meestal voor interpretatie vatbaar en het verkeerde gebruik ervan kan tot "onverklaarbare" lage performance lijden. Het is aan ATi en nVidia om uit te leggen hoe de funcies correct gebruikt moeten worden, hoe zij voor die functies hebben geoptimaliseerd.
Een goede samenwerking is HEEL bellangrijk.
maar je snapt wat ik bedoel ;) Ik geef je er overigens helemaal gelijk in.

@ martin als ik jou was had ik een 6600 gt genomen, die schijnen goed te presteren voor de prijs die je ervoor betaalt. Iets rond de 190 euro dacht ik.

Battlefield 2 stats - Specs PC - X360 Gamertag


Acties:
  • 0Henk 'm!

Anoniem: 143959

is er al een x700 xt AGP? :?

Acties:
  • 0Henk 'm!

  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
hahha, Nee

Ten eerste: Er is nooit een x700xt in de winkel verschenen

Ten tweede: De pci-e to agp (rialto) chip is al wel klaar, maar voor de x700 serie nog niet gebruikt.

Acties:
  • 0Henk 'm!
Rialto wordt al zeker gebruikt voor de X700 serie. Sapphire, GeCube en Powercolor hebben al een X700 en X700Pro AGP. In NL nog slecht te verkrijgen, maar ze zijn er wel getuige het feit dat op verschillende forums mensen al pics hebben gepost van hun kaarten.

http://www.gecube.com/mbu/files/product/GC-RX700PGA-C3-b.jpg

http://akiba.ascii24.com/akiba/news/2005/04/01/images/images769808.jpg

Zie ook:
http://www.vr-zone.com/?i=2137&s=1

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

Anoniem: 127429

Ik merk net dat mijn x850xt een 9 pins tv-out connector heeft => mijn 5-pins svhs kabel past er niet op ... Bijgeleverd heb ik wel een overloopstuk dat :

ene kant:
9 pins svhs (f)

andere kant:
2 x geel composiet (f)
2 x zwart svhs 5 pins (f)

Nu, als ik deze gebruik om mijn 5 pins svhs aan te sluiten wordt mijn tv niet herkend ... wat doe ik verkeerd ? (ps: ik werk met ati-traytools)

Acties:
  • 0Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
offtopic:
goeie vacantie gehad cj? :)

[Voor 4% gewijzigd door oeLangOetan op 16-05-2005 11:12]


Acties:
  • 0Henk 'm!
offtopic:
Yep, zeer goede vakantie gehad 8) Heb af en toe in een internet café wel even op het forum gezeten om toch maar niets te missen. :7


Anyway, de E3 staat voor de deur en ik denk dat het Get In The Game programma toch wel een flinke boost gaat krijgen nu de Xbox360 en de Revolution beide een ATi chip gebruiken. . nVidia had in het begin ook redelijk veel voordeel met een reeks consoletitels die eerst op de Xbox uit kwam en later naar de PC geport werd (bv Halo). ATi vertoonde hier vaak nog (kleine) bugs vertoonde of mindere performance leverde (dankzij bv gebrek aan DST). Ik heb zelf het gevoel dat dit straks gaat omdraaien aangezien veel games dus nu van huis uit op ATi hardware wordt gemaakt (bv Halo3 die verschijnt rond de launch PS3 en Gears of War van Epic). Veel populaire games worden bv eerst geprogrammeerd voor de Xbox360 en later omgezet naar de PC. Natuurlijk heeft nVidia nu de PS3, maar de Xbox ligt toch dichter bij een PC dan de PS3.

ATi zal daarnaast een aantal PC-titels gaan showcasen op 'nieuwe hardware' waarvan veel mensen dachten dat het echte nVidia titels zouden zijn, zoals F.E.A.R. ("SM3.0") en Prey ("Doom3 engine OMG ATi zuigt met OGL!"). Een teken dat OGL een nieuwe vlucht gaat nemen bij ATi? Het schijnt dat er iets is verandert waarvan we nu de vruchten gaan merken... Daarnaast zien we Alan Wake van Remedy en natuurlijk ook Black & White 2 die deel uit maken van het GITG programma. Ook de U3-engine schijnt "the engine of choice" te zijn voor de Xbox360 en dus van huis uit goed te lopen op ATi-hardware.

Ik kan in ieder geval niet wachten op alle goodness die ons nu te wachten staat. 8) Het zou trouwens wel een stunt zijn als ATi ineens een R500-based desktop VPU zou uitbrengen ipv een hybrid R520. R400 was immers eerst bedoeld voor de PC. Maar goed dat zal niet gebeuren. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Hertog_Martin
  • Registratie: Juli 2002
  • Laatst online: 16:36
dikki dik schreef op zondag 15 mei 2005 @ 18:05:
[...]

@ martin als ik jou was had ik een 6600 gt genomen, die schijnen goed te presteren voor de prijs die je ervoor betaalt. Iets rond de 190 euro dacht ik.
daar ben ik me goed van bewust, maar dat is meteen ruim 3 keer duurder. ik gooi er later dit jaar wel een serieuze pci-e kaart in, maar wil nu gewoon gaan voor pci-e mobo maar heb nog geen geld voor een goede pci-e kaart, maar ja er moet toch IETS in totdat ik een 6600gt kan betalen

Acties:
  • 0Henk 'm!

  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
OMg wat een stupide conclusie in de review. En sinds wanneer heeft ATI "more vibrant colours"? Je hoort zon kaart af te raden als er een beter alternatief is voor dezelfde prijs... Hoe bedoel je biased... 8)7

En niet beginnen met te zeggen dat ik biased ben (heb een 9700 en 9800 pro gehad :P )

[Voor 38% gewijzigd door Brainless-NL op 16-05-2005 20:34]


Acties:
  • 0Henk 'm!

Anoniem: 127429

ik heb het ondertussen reeds gevonden :p

Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11:41
CJ schreef op maandag 16 mei 2005 @ 13:45:
offtopic:
Yep, zeer goede vakantie gehad 8) Heb af en toe in een internet café wel even op het forum gezeten om toch maar niets te missen. :7


Anyway, de E3 staat voor de deur en ik denk dat het Get In The Game programma toch wel een flinke boost gaat krijgen nu de Xbox360 en de Revolution beide een ATi chip gebruiken. . nVidia had in het begin ook redelijk veel voordeel met een reeks consoletitels die eerst op de Xbox uit kwam en later naar de PC geport werd (bv Halo). ATi vertoonde hier vaak nog (kleine) bugs vertoonde of mindere performance leverde (dankzij bv gebrek aan DST). Ik heb zelf het gevoel dat dit straks gaat omdraaien aangezien veel games dus nu van huis uit op ATi hardware wordt gemaakt (bv Halo3 die verschijnt rond de launch PS3 en Gears of War van Epic). Veel populaire games worden bv eerst geprogrammeerd voor de Xbox360 en later omgezet naar de PC. Natuurlijk heeft nVidia nu de PS3, maar de Xbox ligt toch dichter bij een PC dan de PS3.

ATi zal daarnaast een aantal PC-titels gaan showcasen op 'nieuwe hardware' waarvan veel mensen dachten dat het echte nVidia titels zouden zijn, zoals F.E.A.R. ("SM3.0") en Prey ("Doom3 engine OMG ATi zuigt met OGL!"). Een teken dat OGL een nieuwe vlucht gaat nemen bij ATi? Het schijnt dat er iets is verandert waarvan we nu de vruchten gaan merken... Daarnaast zien we Alan Wake van Remedy en natuurlijk ook Black & White 2 die deel uit maken van het GITG programma. Ook de U3-engine schijnt "the engine of choice" te zijn voor de Xbox360 en dus van huis uit goed te lopen op ATi-hardware.

Ik kan in ieder geval niet wachten op alle goodness die ons nu te wachten staat. 8) Het zou trouwens wel een stunt zijn als ATi ineens een R500-based desktop VPU zou uitbrengen ipv een hybrid R520. R400 was immers eerst bedoeld voor de PC. Maar goed dat zal niet gebeuren. :+
Dat zou idd wel mooi zijn. Ik herinner me de tijd van de Xbox nog. die beelden die dat ding weergaf waren veel beter dan de pc. Toen heeft het nog even geduurt voor de GF 3 kwam en die gaf gelijke beelde weer. Ook Ati had toen de 8500 ( nog steeds mijn afvo :) ). dus nu is de vraag hoe lang duurt het tot Ati zijn Universal shader model voor de PC laat zien ?

want ik vraag me af of ATi de G70 kan verlaan met een speedbumped R300 core. Nvidia is ook niet gek. De R300 was gewoon te veel voor de GF FX dat was duidelijk. FX zat niet echt goed in elkaar en heeft veel steken laten vallen. Toen was een hele nieuwe chip niet nodig. De X800 houd het erg goed tegen over de GF 6. 50/50 winnen ze tests van elkaar. Maar ik denk dat Nvidia daar deze keer verandering in wil brengen met de G70 en dus de lat een stuk hoger zal leggen. Persoonlijk denk ik dat een R520 het niet gaat halen als alleen de clockspeeds en het aanstal piplines wordt vergroot. Ik denk dat er dan ook wat nieuwe technieken bij moeten komen. Wat de GF 6 nu al haalt met een lagere clock meer FPS. Dus ATi zal denk ik toch met iets beters moeten komen.

Ik hoop echt op de R600 ( de pc versie van de R500 ?? ) als die er komt wil ik er gerust 500 a 600 euro voor neer tellen :P. Want dan azl hij makkelijk 2x zo snel zijn als de huidige X850 XT PE.

[Voor 3% gewijzigd door Astennu op 17-05-2005 09:34]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11:41
Kan iemand mishien een X850 Pro bios voor me dumpen met ATi tool ? Kheb namelijk het volgende probleem:

Ik heb dus een X850 Pro kaartje met nu een XT bios er in. Alleen gister heb ik de stock cooler er weer op gezet alleen nu wil deze alleen bij startup inschakelen. Als ik naar de dynamic fan control kijk schkeld de cooler pas vanaf 90 c in. Dit lijkt me veel te laat voor een pro kaart. Verder draaide hij vervolgens op 120C nog niet. Khad ook al een manual fan control geprobeert en de fan op 100% gezet maar dan draait i niet. Op 34% een klein beetje.

Ksnap er geen hol meer van :D Er zat een VF700 op dus ik had er eerst geen last van maar de kaart gaat weg. Dus stock fan er weer op.

K heb ook al op www.techpowerup.com gekeken maar die hebben alleen maar XT bios files.

Als iemand een tip kan geven graag.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

Anoniem: 127429

Al geprobeerd met ati-traytools ? kun je de fan zowel handmatig als via temp-sensor instellen ...

Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11:41
Anoniem: 127429 schreef op dinsdag 17 mei 2005 @ 12:29:
Al geprobeerd met ati-traytools ? kun je de fan zowel handmatig als via temp-sensor instellen ...
Jah ik heb daar in de Tab Fan gekeken daar reageerde hij ook niet op. K zal vanaaf eens verder snuffelen maar ik vind het toch een vaag probleem.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dit is niet om jullie mooie dag te verpesten jongens, maar voor Astennu:

1. Lees eens de regels in DIT topic door. Géén vragen over problemen met je videokaart, en daar valt je bios dus óók onder.
2. Je hebt al een topic lopen in Die-Hard Overclocking & Cooling, dus maak daar je topic af, en niet hier. Houd dit Topic schoon!.


Conclusie: wat je nu aan het doen bent hier is heel erg fout. Ik maak er geen report van, dat vraagt alleen maar om haat en nijd e.d., maar laat mijn punt heel duidelijk zijn!

Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11:41
Jejking schreef op dinsdag 17 mei 2005 @ 18:08:
Dit is niet om jullie mooie dag te verpesten jongens, maar voor Astennu:

1. Lees eens de regels in DIT topic door. Géén vragen over problemen met je videokaart, en daar valt je bios dus óók onder.
2. Je hebt al een topic lopen in Die-Hard Overclocking & Cooling, dus maak daar je topic af, en niet hier. Houd dit Topic schoon!.


Conclusie: wat je nu aan het doen bent hier is heel erg fout. Ik maak er geen report van, dat vraagt alleen maar om haat en nijd e.d., maar laat mijn punt heel duidelijk zijn!
Yes Sir :? je kunt ook zitten zijken :?

Kvraag alleen maar voor een bios omdat hier veel mensen zitten met ATi kaarten wat is daar nu zo fout aan :? TZal wel aan mij liggen. Kzal voortaan niet met problemen komen (toen in deel 6 mocht het nog wel en ga niet elke keer de regels opnieuw lezen indien deze veranderen) maar ik vind dat een vraag of een bios moet kunnen.

[Voor 10% gewijzigd door Astennu op 17-05-2005 19:10]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
maar ik vind dat een vraag of een bios moet kunnen.
Tuurlijk, daar is niks mis mee, ik denk dat Jejking wat overdrijft.

Btw, voor bios files kan je eens een kijkje nemen @ http://www.mvktech.net/in...d=26&func=selectcat&cat=1

World War One


Acties:
  • 0Henk 'm!

  • Brainless-NL
  • Registratie: Oktober 2002
  • Laatst online: 12-05 09:14
k ben het met Jejking eens. Het komt vaak voor dat newbies direct op de regels gewezen worden, terwijl meer "elite" GoT'ters zich vaak niet aan de regels houden, omdat ze dit zogenaamd niet hoeven ofzo?

NOFI. Just making a point.

Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Okee, misschien was mijn reactie iets té heftig, maar dan nog...
Als ik deze reactie niet had geplaatst, had je morgen CJ over je heen gehad met dito message, dus het was sowieso wel gekomen denk...

Maar goed, beton erover 8)

Weer ontopic: met wat ik vandaag heb gezien aan spul over de PlaystationIII met de G70 erin, hoop ik voor ATi dat de R520 weer een allesverpulverend product zal zijn, anders kunnen ze misschien wel eens een probleempje gaan krijgen met afhakende mensen...

Gelukkig zal met de komst van de R520 de PS3.0/VS3.0-voordelen-discussie van de baan zijn (pfew :D ). Maar de G70 met 300+ miljoen transistoren liep op ongeveer 550 MHz. Naar mijn mening moet de R520 dan in staat zijn om de G70 hard aan te pakken, want die liep op 700+ MHz. Lijkt me een mooie zet om je eerste product op 0,09u + low-K meteen boven de 700 MHz te krijgen, want ik dacht dat Nvidia ook gebruik maakte van Low-K (ik kán het fout hebben natuurlijk) :*) .

Ook architecturaal gezien schelen beide kaarten weinig van hun voorgangers, de G70 is een gespeedbumpte versie van de NV40, maar heeft de R520 PS3.0/VS3.0 er bijgekregen + nog een paar hebbedingetjes (waarvan ik vergeten ben wat het was :X ). Conclusie: het wordt close...

Acties:
  • 0Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Brainless-NL schreef op dinsdag 17 mei 2005 @ 20:31:
k ben het met Jejking eens. Het komt vaak voor dat newbies direct op de regels gewezen worden, terwijl meer "elite" GoT'ters zich vaak niet aan de regels houden, omdat ze dit zogenaamd niet hoeven ofzo?

NOFI. Just making a point.
Mja, en als iedereen een appart topic opent om een bios te hebben is het ook niet goed :p
Weer ontopic: met wat ik vandaag heb gezien aan spul over de PlaystationIII met de G70 erin, hoop ik voor ATi dat de R520 weer een allesverpulverend product zal zijn, anders kunnen ze misschien wel eens een probleempje gaan krijgen met afhakende mensen...

Gelukkig zal met de komst van de R520 de PS3.0/VS3.0-voordelen-discussie van de baan zijn (pfew :D ). Maar de G70 met 300+ miljoen transistoren liep op ongeveer 550 MHz. Naar mijn mening moet de R520 dan in staat zijn om de G70 hard aan te pakken, want die liep op 700+ MHz. Lijkt me een mooie zet om je eerste product op 0,09u + low-K meteen boven de 700 MHz te krijgen, want ik dacht dat Nvidia ook gebruik maakte van Low-K (ik kán het fout hebben natuurlijk)
Weet je wel waar je over praat? Je haalt heel wat zaken door elkaar.

1) Niemand zegt dat er een G70 in de PS3 zit, dat zijn geruchten

2) De R500 zit in de xbox360, niet de R520, de R500 is met z'n nieuwe architectuur (dat pas in 2006 naar de pc komt) in theorie meer dan dubbel zo snel als de huidige kaarten

3) Kloksnelheden van de G70 & R520 zijn niet bekend, vanwaar haal jij nou die 700MHz, je verwart weer de xbox360 gpu (R500) met de R520

[Voor 70% gewijzigd door XWB op 17-05-2005 21:45]

World War One


Acties:
  • 0Henk 'm!

  • Zeus
  • Registratie: Juni 2003
  • Laatst online: 18:54
Vriend, zowel de G70 als de R520 zijn vrij verschillend van de chips in de next-gen consoles.
De g70 is nog altijd op .11mu waar de R520 al op 90nm gaat draaien.
Snelheden zijn nog niet bekend.

edit:
snel editen en wat info bijvoegen he? spuit11 ! :P

[Voor 14% gewijzigd door Zeus op 17-05-2005 21:45]

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


Acties:
  • 0Henk 'm!
Zoals al eerder gezegd, graag ontopic blijven en alleen discussieren over de nieuwsfeitjes. Dit was de hoofdreden waarom dit topic werd toegestaan en er een eind kwam aan de Grote Radeon topics. Daarom heb ik het ook uitdrukkelijk in de topicstart gezet en ook 'oldschool' Got-ters dienen zich hieraan te houden. :7

Over G70 in de PS3, dat is volgens mij wel bijna zeker. nVidia heeft zelf al aangegeven dat er dit jaar nog PS3 tech op de desktop uit komt. G70 is de eerstvolgende halte deze zomer... lijkt me niet dat G80 ook al dit jaar uit komt.

G70 op 0,11u voor de desktop en RSX voor de PS3 op 0,09u + low-k. Mijn inschatting is dat de G70 24 pipes op 400 mhz zal hebben, terwijl de RSX 24 pipes zoals gezegd op 550Mhz heeft. Een kleine calculatie laat dan zien dat de performance van de RSX iets meer dan verdubbelt, terwijl de G70 een tussenstop is (en dus een speedboost van de NV40-tech). Maar goed, misschien heb ik het wel helemaal verkeerd (en dit hoort trouwens in het nV topic :P)

Mijn verwachting voor ATi. R520 op ongeveer 650 Mhz. Aantal pipelines... minder dan de meeste mensen verwachten. Ik ga uit van 16 + 8 hybrid.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Leuke theorie, wat de G70 betreft kan je mss gelijk hebben, de NV40 doet het nl heel goed op lagere kloksnelheid tov het R300 architectuur.

Alleen lijkt de kloksnelheid van de R520 me te hoog? Ik denk eerder ~600MHz met meer pipes, 32 is te veel, 24 zou best wel kunnen.

World War One


Acties:
  • 0Henk 'm!
De kloksnelheid van ATi lijkt me niet al te hoog gegrepen. Ik geloof dat de eerste samples al met gemak 600 mhz haalde en ze richting 700 mhz gingen.

Cat 5.5 is trouwens uit.

CP: http://www2.ati.com/drivers/5-5_xp-2k_dd_cp_wdm.exe
CCC: http://www2.ati.com/drivers/5-5_xp-...ccc_wdm_enu.exe
Releasenotes: http://www2.ati.com/drivers/Catalyst_55_release_notes.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 11:41
CJ schreef op dinsdag 17 mei 2005 @ 21:55:
Zoals al eerder gezegd, graag ontopic blijven en alleen discussieren over de nieuwsfeitjes. Dit was de hoofdreden waarom dit topic werd toegestaan en er een eind kwam aan de Grote Radeon topics. Daarom heb ik het ook uitdrukkelijk in de topicstart gezet en ook 'oldschool' Got-ters dienen zich hieraan te houden. :7

Over G70 in de PS3, dat is volgens mij wel bijna zeker. nVidia heeft zelf al aangegeven dat er dit jaar nog PS3 tech op de desktop uit komt. G70 is de eerstvolgende halte deze zomer... lijkt me niet dat G80 ook al dit jaar uit komt.

G70 op 0,11u voor de desktop en RSX voor de PS3 op 0,09u + low-k. Mijn inschatting is dat de G70 24 pipes op 400 mhz zal hebben, terwijl de RSX 24 pipes zoals gezegd op 550Mhz heeft. Een kleine calculatie laat dan zien dat de performance van de RSX iets meer dan verdubbelt, terwijl de G70 een tussenstop is (en dus een speedboost van de NV40-tech). Maar goed, misschien heb ik het wel helemaal verkeerd (en dit hoort trouwens in het nV topic :P)

Mijn verwachting voor ATi. R520 op ongeveer 650 Mhz. Aantal pipelines... minder dan de meeste mensen verwachten. Ik ga uit van 16 + 8 hybrid.
WAt bedoel je met die hybrid ? 16 pipes en 8 vertex ? want 16 is ook vaak de max vertex denk ik net ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Astennu schreef op dinsdag 17 mei 2005 @ 22:44:
[...]


WAt bedoel je met die hybrid ? 16 pipes en 8 vertex ? want 16 is ook vaak de max vertex denk ik net ?
Hij bedoelt denk ik dat het 16pipelines zijn en 8 vertexes, die ook als pipelines gebruikt kunnen worden (waardoor het totaal op 24 komt, wanneer er geen vetexes gebruikt worden)..
Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee