Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 47 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 3.804 views sinds 30-01-2008

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
wagnef schreef op zondag 31 december 2006 @ 13:50:
[...]

Dit is natuurlijk onzin.
Procenten zijn juist uitgevonden voor een objectieve vergelijking. Als deze 12fps t.o.v. 10fps in jouw voorbeeld wordt doorgeschaald naar lichtere instellingen, dan is de kans aanwezig dat dit resulteert in 60fps t.o.v. 50fps.
Verschillen aantonen met fps is grote onzin, fps zegt helemaal niks als er geen referentie is. 10 fps verschil bij 20fps is natuurlijk een veel groter verschil dan bij 100fps. Bij procenten is de refentie altijd meegenomen.

Een lompe geheugenbandbreedte van de R600 zorgt vooral voor minder bottlenecks bij de zware beweringen zoals rook etc. Dit resulteerd juist in een hoge minimale fps. Het zou namelijk kunnen dat de G80 een hoger gemiddelde haald doordat de max fps veel hoger is door de grotere fillrate.
De wijze waarmee deze review is gebracht is zeker wel in het voordeel van ATI, maar ondanks deze gekleurde pet ben ik wel met deze denkwijze eens.
Als je gamed is de minimale fps verantwoordelijk voor de gameplay, niet de max. fps. En daarom denk ik ook dat de G80, hoe snel deze ook mag zijn, niet dezelfde stabiele gameplay zal brengen als de R600 wanneer het echt zwaar gaat worden.
Lol.. een minimale fps tussen 10-25fps blijft toch hetzelfde.. het blijft kappen.
Dus zou de R600 al een heel stuk sneller moeten zijn , wat ik denk dat niet het geval is.
Net zoals de G80 sneller is dan de 7950GX2 zijn de minima's in bepaalde games toch praktisch dezelfde. En ik ga eerder voor een stabielere average fps die dan bv. @ 50fps ligt dan een minimale fps van 20 ipv 15 met een gemiddelde van 40fps. Gameplay wordt pas stabiel hoger dan 30fps.

Edit : Zoals ik al zei.. nvidia heeft nog belange niet de 'goede' drivers uit voor de G80 en dat is merkbaar in bepaalde games. En misschien is de core clock van de R600 bijna maxed out ? Zoals dit ook het geval was bij de R580 terwijl men met een G80 makkelijk 630/2000 kan halen met strakke GDDR3 timings. En dat resulteerd en een winst van 8-10fps in bijna alle games.

[Voor 9% gewijzigd door X-LimiTed op 31-12-2006 14:11]


  • Saturnus
  • Registratie: februari 2005
  • Niet online
quote:
X-LimiTed schreef op zondag 31 december 2006 @ 14:03:
[...]


De clocksnelheid zou 820Mhz moeten zijn.

Procesing Power is 105GSO/s
De R600 doet 128 shader operations per seconde.
105000000000 / 128 = 820312500 Hz = 820MHz.
Verder idd , omlaag geschroefde Nvidia scores.

Zoals ik al zei : De site is al down _/-\o_
Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen... 8)7

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Saturnus schreef op zondag 31 december 2006 @ 14:08:
[...]

Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen... 8)7
Site werkt weer.. nevermind.

[Voor 3% gewijzigd door X-LimiTed op 31-12-2006 14:17]


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Saturnus schreef op zondag 31 december 2006 @ 14:08:
[...]

Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen... 8)7
dat de site down is wil dus zeggen dat het allemaal verzonnen is ?

nog niet aan gedacht dat zo'n site onder druk van ati gesloten wordt ?

  • Evano
  • Registratie: april 2006
  • Laatst online: 18:55
Nevermind ja..

Dus 't is alsnog een lulverhaaltje..

Maar ik heb wel zoeits van, als het een geweldige kaart gaat worden, wacht ik er wel rustig op..
dus ik treur er niet om dat het fake was...

  • Saturnus
  • Registratie: februari 2005
  • Niet online
Hij mag dan verdwijnen en weer verschijnen...ik twijfel nog steeds...
1. Geen plaatjes.
2. Nieuwe site. (tjah...als ik opeens een R600 heb zal er ook zo over gedacht worden...)

Maar stel het klopt...dan spreekt dit wel aan:
- Hardware Quad-DVI output support (Limited to workstation editions)
Het is dus op één of andere manier mogelijk 4 beeldschermen aan te sluiten?

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
blacktarantulaX schreef op zondag 31 december 2006 @ 14:18:
Nevermind ja..

Dus 't is alsnog een lulverhaaltje..

Maar ik heb wel zoeits van, als het een geweldige kaart gaat worden, wacht ik er wel rustig op..
dus ik treur er niet om dat het fake was...
Het is volgens mij geen fake.. en daar ben ik bijna 100% zeker van :)
Buiten dat de review een beetje rood gekleurd is.. 'is het realistisch.'
En met GDDR3 R600 vs. G80 GDDR3 zal het een mooie gelijke strijd gaan worden.
Wat ik enigsinds niet slecht vind.

  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Saturnus schreef op zondag 31 december 2006 @ 14:29:
Hij mag dan verdwijnen en weer verschijnen...ik twijfel nog steeds...
1. Geen plaatjes.
hij heeft de site gewoon effe ge-update :)

Update - Authenticity Of This Article

This article is authentic. Our R600 sample is an RTM sample used in the MS CERT process for driver validation (especially for Vista). We are not publishing pictures of the card itself right now, as the card contains major ID tags that we can not remove yet for source protection. We will add pictures of the card itself once we can remove these tags.



Update - Oblivion Benchmark is TSSAA/AAA quality


Due to upcoming questions regarding the frame rates on our Oblivion test: We ran the Oblivion Benchmark with activated TSSAA (Transparency Super Sampling Anti-Aliasing) on nVidia and AAA (Adaptive Anti-Aliasing) on the ATI cards because Oblivion profits substantially from these advanced AA modes.

  • Saturnus
  • Registratie: februari 2005
  • Niet online
Raar hoor...even snel met paint erover en het probleem is weg...

  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Saturnus schreef op zondag 31 december 2006 @ 18:33:
Raar hoor...even snel met paint erover en het probleem is weg...
je weet natuurlijk niet wat voor id-tags dat zijn he...of wel ?

misschien is de kaart wel helemaal niet herkenbaar als ze dat afdekken/shoppen.....of hebben ze bij iedere kaart de id-tags op een andere plaats zitten, zodat alsnog te achterhalen is waar het vandaan komt...bij ati zijn ze ook niet zo stom om 100 kaarten met allemaal dezelfde id-tags-op dezelfde plaats -uit te geven 8)7

iedereen probeert zich weer in allerlei bochten te wringen om de review maar zo fake mogelijk te laten lijken :X

  • Saturnus
  • Registratie: februari 2005
  • Niet online
Nee, ik begreep inderdaad niet wat id-tags waren. :P

Maar als ze dat wel verspreiden krijgen ze problemen met ATI?

[Voor 38% gewijzigd door Saturnus op 31-12-2006 18:49]


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Saturnus schreef op zondag 31 december 2006 @ 18:48:
Nee, ik begreep inderdaad niet wat id-tags waren. :P
wat voor id-tags het exact zijn weet ik zelf natuurlijk ook niet, maar ik kan me er wel iets bij voorstellen...als ik ati was, maakte ik die tags in ieder geval zo dat ze altijd herkenbaar zijn, ook al worden ze afgedekt of weggeshopt...ook kunnen ze iets anders aan de kaart ''veranderd'' hebben, wat de reviewer natuurlijk niet weet, want hij heeft geen vergelijkingsmateriaal...als ik onder nda zou staan, en ik kreeg een r600 sample in handen, had ik het ook zo gedaan :)
quote:
Saturnus schreef op zondag 31 december 2006 @ 18:48:


Maar als ze dat wel verspreiden krijgen ze problemen met ATI?
lijkt mij wel ja...dan zullen ze in de toekomst nooit meer test-samples krijgen van ati....anders had je al lang reviews gezien van andere (grote) sites

zegt ''nda'' je niks ?

[Voor 57% gewijzigd door Mr. Detonator op 31-12-2006 18:55]

Spannend allemaal he? ;)

En bedenk je dat dit een voorproefje was met een vroege sample met drivers die nog niet helemaal af waren... (nou ja, de drivers van de G80 zijn ook nog niet helemaal 'af', dus dat zegt ook nog niet zo veel).

En misschien is het allemaal wel fake. :+

[Voor 11% gewijzigd door CJ op 31-12-2006 18:58]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
CJ schreef op zondag 31 december 2006 @ 18:54:
Spannend allemaal he? ;)

En bedenk je dat dit een voorproefje was met een vroege sample met drivers die nog niet helemaal af waren...
zeker denk ik daaraan....maar denk jij er dan ook aan dat de g80 resultaten uit deze review wat aan de lage kant zijn ?

dat compenseerd elkaar dan misschien wel weer :)

[edit] nou post ik effe niks meer...zie dat de laatste pagina zowat 50% uit posts van mij bestaat....dadelijk gaan ze nog denken dat ik een fanboy ben :+

[Voor 17% gewijzigd door Mr. Detonator op 31-12-2006 19:10]


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Mr. Detonator schreef op zondag 31 december 2006 @ 19:00:
[...]


zeker denk ik daaraan....maar denk jij er dan ook aan dat de g80 resultaten uit deze review wat aan de lage kant zijn ?

dat compenseerd elkaar dan misschien wel weer :)

[edit] nou post ik effe niks meer...zie dat de laatste pagina zowat 50% uit posts van mij bestaat....dadelijk gaan ze nog denken dat ik een fanboy ben :+
Volgens mij had ATI gewoon niet verwacht dat de G80 zo good ging worden.
Meer kan ik niet over zeggen. Idd.. ik stop ook even met posten reply teveel :D
Ik ga er helemaal in op. Het wordt een R580 vs. G71 strijd.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:28

Astennu

-= RX 5700 XT 50th =-

Dit is gewoon CJ's 1 april grap van volgend jaar :P Net als die power point slides :P

Maar ff serieus ik weet nog niet wat ik er van moet denken. Zien er redelijk geloofwaardig uit qua score. Iets sneller dan de G80 wat te verwachten was. Sneller dan de X1950 XTX CF.

Echt is die 10% winst nooit genoeg om een G81 bij te houden. Ik had er eigenlijk wat meer van verwacht al helemaal omdat er een 512 Bit bus op zou zitten. Dan zou je denken dat de core die bandbrete dus ook echt nodig zou hebben. Gezien de prestatie was een 384 bit bus met GDDR 4 ook snel genoeg geweest. Aangezien de G80 ongeveer hetzelfde scoort. Er zijn wel uitzonderingen waar het verschil 40% was maar dat zou ook aan de drivers kunnen liggen. Ik had in ieder geval verwacht dat het hoger zou zijn meer richting minimaal 20% maar dat zou wel een groot gat zijn dus misschien niet realistisch om dat te denken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Astennu schreef op zondag 31 december 2006 @ 21:09:
Dit is gewoon CJ's 1 april grap van volgend jaar :P Net als die power point slides :P

Maar ff serieus ik weet nog niet wat ik er van moet denken. Zien er redelijk geloofwaardig uit qua score. Iets sneller dan de G80 wat te verwachten was. Sneller dan de X1950 XTX CF.

Echt is die 10% winst nooit genoeg om een G81 bij te houden. Ik had er eigenlijk wat meer van verwacht al helemaal omdat er een 512 Bit bus op zou zitten. Dan zou je denken dat de core die bandbrete dus ook echt nodig zou hebben. Gezien de prestatie was een 384 bit bus met GDDR 4 ook snel genoeg geweest. Aangezien de G80 ongeveer hetzelfde scoort. Er zijn wel uitzonderingen waar het verschil 40% was maar dat zou ook aan de drivers kunnen liggen. Ik had in ieder geval verwacht dat het hoger zou zijn meer richting minimaal 20% maar dat zou wel een groot gat zijn dus misschien niet realistisch om dat te denken.
De R600 is volgens mij zelf niet in staat een 8800GTX 630/2000 bij te houden >:)
Ik praktisch overal 10 frames meer , wat ~10% zal zijn of meer :D Zal in NFSU carbon van
50fps naar 60fps :D

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:28

Astennu

-= RX 5700 XT 50th =-

Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Astennu schreef op zondag 31 december 2006 @ 21:38:
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.
Theoretisch is het allemaal heel mooi dat is waar.
Maar je moet het praktisch bekijken. De bandbreedte van een G80 wordt volgens mij nog helemaal niet gebruikt , voor een X1950XTX zal dat ook wel het geval zijn. Dus ik denk eigenlijk dat het nog een beetje te vroeg is om al direct naar 512-bit over te stappen. Tegen de tijd dat men echt een 512-Bit kaart zal nodig hebben zullen zowel G80 als R600 al lang voorbij gestreefd zijn. Zie ook de 9700Pro.Kwam vernieuw via de 9800XT. Ik denk dat we in dezelfde situatie zitten.
De eerste R600@GDDR3 en de 2de R600@GDDR4 al zal het verschil praktisch in games volgens mij nog kleiner zijn dan het verschil tussen een 1900XTX en 1950XTX.omdat we hier van hoog geclocked GDDR3 geheugen spreken met strakkere timings.
En de sample zou aan een core van 820Mhz moeten draaien volgens berekeningen..
Dus ik denk wel dat dit een final versie sample zal zijn wegens die hoge corespeed.
quote:

iedereen probeert zich weer in allerlei bochten te wringen om de review maar zo fake mogelijk te laten lijken
Yap , maar waarschijnlijk zal deze review wel kloppen net zoals de veraf geleakte review van de G80 ongeveer klopte.

[Voor 7% gewijzigd door X-LimiTed op 31-12-2006 21:52]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:28

Astennu

-= RX 5700 XT 50th =-

Nja je zag dat de R580 core al meer nodig had dan 800 MHz GDDR 3. Ze R600 core is zo i zo sneller dan de R580 core dus dan is 1400 MHz GDDR 4 met 256 Bit denk ik niet genoeg.

De 9800 XT was wel de laatste kaart met DDR 1 de X800 had GDDR 3 wat een veel hogere clockspeed had dan DDR 1 waardoor er niet meteen een grotere bus nodig was. De generatie er na de X1800 en X1900 hadden genoeg aan super snel GDDR 3 en later GDDR 4 dus de stap moet nu wel gemaakt worden voor de high end.

Ik verwacht dat Nvidia en ATi beide goed weten wat ze doen en dat ze die bus daar niets voor niets op zetten. Je gaat geen 512 Bit bus op een kaart zetten en die niet gebruiken. Dan lever je per kaart die je verkoopt gewoon veel geld in.

Misschien heeft de sample kaart wel een lage core clock als die 820 MHz zou kloppen zou de final nog wel eens die 1000 MHz kunnen hebben. En dan wordt het verhaal heel anders.

Misschien is dit wel de XT ? Dus een XT op 800 MHz met 900 MHz GDDR 3 en komt er nog een XTX met 1000 MHz en 1100/1200 MHz GDDR 4 ? Who knows.... Maar ik denk dat de stap van 800 naar 1000 wat te groot is. ATi laat het verschil meestal iets kleiner. Bij de X1800 was het wel 100 MHz tussen de XL en de XT. Maar bij de X1900 XT en XTX was het maar 25. Bij Nvidia is het verschil tussen de GTX en de GTS echter wel groot. Dus ik luit het niet helemaal uit.

[Voor 12% gewijzigd door Astennu op 31-12-2006 22:10]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
quote:
Astennu schreef op zondag 31 december 2006 @ 21:38:
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.
nVidia heeft zeker een hele goede kaart met de G80. Het is bijna twee keer zo snel als de R580. Daarom is het juist goed dat ATI een 512bit bus heeft. Als dit niet het geval was geweest had ATI op gebied van fillrate afgelegt. Daarom is de 512bit bus zo belangrijk om de concurentiepositie te handhaven.
Denk je werkelijk dat de R600 meer heeft aan een 384bit bus? De 384bit bus vind ik een rare beslissing. Je krijgt niet logische geheugenhoeveelheden en ik geloof niet dat game-developers iets gaan optimaliseren voor 640 of 768MB. Logisch zijn grenzen van 512Mb (oude generatie) of 1GB (nieuwe generatie R600 en wellicht G81). Daarom is de keuze voor een 512bit bus zo belangrijk.
De G80 loopt ondanks de leuke snelheid, het risico dat het tussen wal en schip gaat vallen met de ontwikkeling van toekomstige games die 1GB vragen. Natuurlijk zullen in de eerste jaar weinig games komen die zoveel geheugen vragen. Maar voor degene die langer dan 1 jaar wilt doen met een high-end product lijkt R600 meer future-proof te zijn.
Bij de Radeon 9700 was de 256Bit ook een goede beslissing. Of denk je dat een 9700pro met 96Mb en 192bit bandbreedte meer succes had gehad?

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Astennu schreef op zondag 31 december 2006 @ 22:09:
Nja je zag dat de R580 core al meer nodig had dan 800 MHz GDDR 3. Ze R600 core is zo i zo sneller dan de R580 core dus dan is 1400 MHz GDDR 4 met 256 Bit denk ik niet genoeg.

De 9800 XT was wel de laatste kaart met DDR 1 de X800 had GDDR 3 wat een veel hogere clockspeed had dan DDR 1 waardoor er niet meteen een grotere bus nodig was. De generatie er na de X1800 en X1900 hadden genoeg aan super snel GDDR 3 en later GDDR 4 dus de stap moet nu wel gemaakt worden voor de high end.

Ik verwacht dat Nvidia en ATi beide goed weten wat ze doen en dat ze die bus daar niets voor niets op zetten. Je gaat geen 512 Bit bus op een kaart zetten en die niet gebruiken. Dan lever je per kaart die je verkoopt gewoon veel geld in.

Misschien heeft de sample kaart wel een lage core clock als die 820 MHz zou kloppen zou de final nog wel eens die 1000 MHz kunnen hebben. En dan wordt het verhaal heel anders.

Misschien is dit wel de XT ? Dus een XT op 800 MHz met 900 MHz GDDR 3 en komt er nog een XTX met 1000 MHz en 1100/1200 MHz GDDR 4 ? Who knows.... Maar ik denk dat de stap van 800 naar 1000 wat te groot is. ATi laat het verschil meestal iets kleiner. Bij de X1800 was het wel 100 MHz tussen de XL en de XT. Maar bij de X1900 XT en XTX was het maar 25. Bij Nvidia is het verschil tussen de GTX en de GTS echter wel groot. Dus ik luit het niet helemaal uit.
Dit is gewoon de januari versie met GDDR3 die ze getest hebben. De (XTX volgens mij die in maart de XT zal worden als de R600 met GDDR4 komt.) Waarom ze er al een 512bit bus op gestoken hebben? Gewoon om tijd te winnen t.o.v van hun volgende release i.v.m nvidia. (Denk ik toch :+ )

Edit :
Bij games zijn ze ook niet van 512mb naar 1024mb gesprongen.
Er was ook eerst de stap naar 768MB RAM. Maar tegen de tijd dat dit een vereiste word
zitten we inderdaad wel al een hele tijd verder.

[Voor 5% gewijzigd door X-LimiTed op 31-12-2006 22:21]


  • Evano
  • Registratie: april 2006
  • Laatst online: 18:55
Wat ik mij afvraag over de R600 is het verbruik.
Het is een feit dat deze R600 nog beter dan de G80 zal presteren (ookal is het maar een beetje), maar zal het verbruik dan ook nóg hoger liggen?

Want voor mijn toekomstige systeem wilde ik een R600 nemen, en die voeden met mijn huidige OCZ GameXStream 600W.. maar als het verbruik nog hoger ligt dan van de G80, weet ik niet of die het wel aankan :S

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
blacktarantulaX schreef op zondag 31 december 2006 @ 22:29:
Wat ik mij afvraag over de R600 is het verbruik.
Het is een feit dat deze R600 nog beter dan de G80 zal presteren (ookal is het maar een beetje), maar zal het verbruik dan ook nóg hoger liggen?

Want voor mijn toekomstige systeem wilde ik een R600 nemen, en die voeden met mijn huidige OCZ GameXStream 600W.. maar als het verbruik nog hoger ligt dan van de G80, weet ik niet of die het wel aankan :S
De load van de R600 ligt tussen de 230-250Watt.

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

quote:
X-LimiTed schreef op zondag 31 december 2006 @ 23:10:
[...]


De load van de R600 ligt tussen de 230-250Watt.
Bron? :?

The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?

  • __Deathscythe__
  • Registratie: december 2005
  • Laatst online: 21:07
quote:
Jejking schreef op maandag 01 januari 2007 @ 01:14:
[...]

Bron? :?

The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?
laten we nou maar eerst eens wachten tot dat er een review van het productie exemplaar en dan zien we vanzelf wel hoeveel het gebruik. :P

happy new year :)

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Jejking schreef op maandag 01 januari 2007 @ 01:14:
[...]

Bron? :?

The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?
staat op de site van de review..

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:28

Astennu

-= RX 5700 XT 50th =-

quote:
wagnef schreef op zondag 31 december 2006 @ 22:17:
[...]

nVidia heeft zeker een hele goede kaart met de G80. Het is bijna twee keer zo snel als de R580. Daarom is het juist goed dat ATI een 512bit bus heeft. Als dit niet het geval was geweest had ATI op gebied van fillrate afgelegt. Daarom is de 512bit bus zo belangrijk om de concurentiepositie te handhaven.
Denk je werkelijk dat de R600 meer heeft aan een 384bit bus? De 384bit bus vind ik een rare beslissing. Je krijgt niet logische geheugenhoeveelheden en ik geloof niet dat game-developers iets gaan optimaliseren voor 640 of 768MB. Logisch zijn grenzen van 512Mb (oude generatie) of 1GB (nieuwe generatie R600 en wellicht G81). Daarom is de keuze voor een 512bit bus zo belangrijk.
De G80 loopt ondanks de leuke snelheid, het risico dat het tussen wal en schip gaat vallen met de ontwikkeling van toekomstige games die 1GB vragen. Natuurlijk zullen in de eerste jaar weinig games komen die zoveel geheugen vragen. Maar voor degene die langer dan 1 jaar wilt doen met een high-end product lijkt R600 meer future-proof te zijn.
Bij de Radeon 9700 was de 256Bit ook een goede beslissing. Of denk je dat een 9700pro met 96Mb en 192bit bandbreedte meer succes had gehad?
Dat zeg ik niet. Het is een goede keuze van ATi om voor de 512 Bit bus te gaan maar ik denk dat ze die dan ook willen benutten. De 9700 Pro had zijn 256 Bit bus aardig nodig met dat relatief trage DDR 1 op 325 MHz Het geheugen verhogen hielp heel erg voor de FPS. Ik neem aan dat ATi die 512 Bit bus heeft. En als deze review sample niet de final clocks loopt denk ik dat die 512 Bit bus prima gebruikt gaat worden bij de Final kaarten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Astennu schreef op maandag 01 januari 2007 @ 11:47:
[...]


Dat zeg ik niet. Het is een goede keuze van ATi om voor de 512 Bit bus te gaan maar ik denk dat ze die dan ook willen benutten. De 9700 Pro had zijn 256 Bit bus aardig nodig met dat relatief trage DDR 1 op 325 MHz Het geheugen verhogen hielp heel erg voor de FPS. Ik neem aan dat ATi die 512 Bit bus heeft. En als deze review sample niet de final clocks loopt denk ik dat die 512 Bit bus prima gebruikt gaat worden bij de Final kaarten.
Dat zullen we zien :) Al vind ik 820Mhz al een tamelijk hoger snelheid 8)
Veel hoger zal je volgens mij denk ik niet moeten op rekenen.

Edit : Na een paar andere reviews van een 8800Gtx te lezen zijn die scores volgens mij toch enorm
laag hoor :O ik zie in andere reviews dat de 8800GTX in BF2 en BF2142 tot wel bijna 50% sneller is op hogere AA modes dan 4xAA idem voor COD2 , oblivion zelfde geld voor FEAR daar is de G80 beter dan een crossfire setup wat uit die review niet blijkt. Maar wel rekening houdend dat dit op hogere AA modes is. Dus eigenlijk is dit een review waar je 'nog niet' veel uit kan besluiten omdat zowel de G80 , R600 , X1950XTX genoeg potentieel hebben voor 4xAA , mits goede drivers.

[Voor 29% gewijzigd door X-LimiTed op 01-01-2007 12:59]


  • Joepi
  • Registratie: december 1999
  • Laatst online: 12-03 22:17
Zou die buitengewoon goede R600-Olivion-benchmark het gevolg van 1GB ram op de card kunnen zijn?
Apringt er zo opvallend uit ... :?

  • Valcanus
  • Registratie: juli 2006
  • Laatst online: 19-08-2008
Ik vind het allemaal maar koffiedik kijken en ik vind de scores voor de 8800 GTX ook laag. Ik wacht het wel af zodra de echte reviews komen. Een 8800 GTX heb je nu voor rond 550 en als Nv slim is dan laten ze de prijs naar rond de 500/520 euro dalen met de lanch van de R600. Mocht het dan blijken dat de R600 maar lichtelijk sneller is dan de 8800 GTX dan wordt het voor mij een kaart uit het groene kamp met mijn nieuwe pc build. Is het prestatieverschil groter als in de review genoemde 2 fps in sommige games dan wil ik daar rustig 70 euro meer voor betalen en dan wordt het een kaart uit het rode kamp.

Trouwens wel leuk om te lezen dat ATI er iets minder mooi uitziet in BF2 als NV, maar dat ATI weer straalt in HF2, dus ook CS source en laten CS source en BF2 nu net de games zijn die ik veel speel online. Afwachten dus want NV moet zeker de fogproblemen nog even oplossen met Valve in CS source. Het wordt dus spannend en als het een gelijke strijd is tussen de twee kampen, dan geef ik de voorkeur aan mijn bankrekening ;)

  • uploader26
  • Registratie: maart 2004
  • Laatst online: 28-03-2009
Yep, dat lijkt mij wel het slimste om te doen. De kaarten zullen elkaar dermate weinig ontlopen, dat het volgens mij puur aankomt op de games die je speelt in combinatie met het prijskaartje, om te bslissen welke kaart je volgende gaat worden.

Ik persoonlijk hoop echt dat Nvidia zorgt voor goede Vista drivers bij de launch...

AMD 64 X2 4200@2.7Ghz | Asus A8N-SLi | 2048MB Corsair TwinX | XFX 8800GTX | 400GB Seagate Barracuda | Samsung 204b 20.1inch | G5+G15


  • Valcanus
  • Registratie: juli 2006
  • Laatst online: 19-08-2008
quote:
uploader26 schreef op maandag 01 januari 2007 @ 13:56:

Ik persoonlijk hoop echt dat Nvidia zorgt voor goede Vista drivers bij de launch...
Ja ik ook dat is toch wel een belangrijk punt en natuurlijk hoe snel Valve Cs source op de rit heeft met NV. Je kan wel blijven wachten, maar dan blijf je bezig eens moet je toch een keer de knoop doorhakken. Als ATI goede stabiele drivers heeft in deze twee games en Nv nog steeds met de fogbug zit dan weegt dat weer mee in ATI zijn voordeel. Vista drivers zijn zeker belangrijk, aangezien ik gelijk naar Vista toe ga.

  • rickiii
  • Registratie: maart 2000
  • Laatst online: 01-04 10:34
Is het trouwens bekend wanneer ATI eventuele ondersteuning voor de GLX_EXT_texture_from_pixmap extentie in Linux gaat leveren? Ik wil eigenlijk niet met een extra X-server (XGL) werken in Linux, maar als ik nog 2 maanden moet wachten, dan ga ik het toch maar doen.

Ik denk altijd heel goed na voordat ik iets stoms zeg


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
rickiii schreef op maandag 01 januari 2007 @ 16:02:
Is het trouwens bekend wanneer ATI eventuele ondersteuning voor de GLX_EXT_texture_from_pixmap extentie in Linux gaat leveren? Ik wil eigenlijk niet met een extra X-server (XGL) werken in Linux, maar als ik nog 2 maanden moet wachten, dan ga ik het toch maar doen.
geen idee, ik werk al 3 maanden met beryl op ubuntu edgy en het werkt fatsoenlijk (enkel soms problemen met wat flikkerende dropshadows), niet alle omgevingen gebruiken glx_ext_tfp trouwens.
Ik zou niet wachten en gewoon xgl installeren met een extra xserver, het zou me niet verbazen dat het nog een half jaar duurt voordat er support is voor glx_ext_tfp, het zal niet echt een prioriteit zijn als ze snel de R600 op linux willen ondersteunen.

  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
http://downloads.guru3d.com/download.php?det=1544
ATI Catalyst 7.1 Beta Window Vista

  • Oet
  • Registratie: mei 2000
  • Laatst online: 07:58

Oet

[DPC]TG & MoMurdaSquad AYB

quote:
Als ik zo lees dat je een ASUS logo'd driver krijgt, dan denk ik aan een megeleverde driver van een nieuwe grafische kaart ofzo (R600 anyone? ;))

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • jimbojansen
  • Registratie: mei 2005
  • Laatst online: 29-03 21:30
quote:
Ik heb hem geinstalleerd en ik heb er dikke problemen mee gehad.. Ik had er geen zin meer in dus heb XP der maar weer op gezet. Zijn hier al meer berichten over of ben ik de enigste?

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
Valcanus schreef op maandag 01 januari 2007 @ 13:41:
ik vind de scores voor de 8800 GTX ook laag.
Zolang je geen timedemos tot je beschikking hebt is het moeilijk oordelen. Maar als ik
naar hun 3DMark05 score kijk lijken ze inderdaad nogal aan de conservatieve kant te zijn wat betreft de 8800GTX.

http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark05-16001200.jpg

Mijn systeem, met 'slechts' een Opteron@2,7 (hun systeem C2E@3,2Ghz.!!!) en de 8800GTX niet overgeklokt;

http://img412.imageshack.us/img412/203/05ny0.jpg

Het zou mij trouwens niets verbazen als ik met hun processor over de R600 score heen zou gaan.


Btw, het artikel is weer geupdate;
quote:
Update - Site, Upcoming 2560×1600 Benchmark, Pictures


Happy new year! We are sorry that the site slowed down a bit. However, here are the great news: tomorrow we will be testing 2560×1600, and we will be able to provide limited pictures of the card approx. on January 5th/6th already. For everyone to understand why we cannot just “black out” the ID Tags: The major tag is a fine punched hologram foil wrap which cannot be taken off because it is glued onto the front metal around the DVI ports. Taking off the fan is impossible without removing it. We will definitely keep you updated, and appreciate all comments we have received so far.
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Apple schreef op dinsdag 02 januari 2007 @ 01:34:
[...]


Zolang je geen timedemos tot je beschikking hebt is het moeilijk oordelen. Maar als ik
naar hun 3DMark05 score kijk lijken ze inderdaad nogal aan de conservatieve kant te zijn wat betreft de 8800GTX.

[afbeelding]

Mijn systeem, met 'slechts' een Opteron@2,7 (hun systeem C2E@3,2Ghz.!!!) en de 8800GTX niet overgeklokt;

[afbeelding]

Het zou mij trouwens niets verbazen als ik met hun processor over de R600 score heen zou gaan.


Btw, het artikel is weer geupdate;


[...]


http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Ik heb een Intel Core 2 Duo E6600 @ 2.7Ghz en een 8800GTX 630/2000
Zal zo meteen even een screenie plaatsen.

Al een voorwoord.. Het ligt rond de 13.000 Punten.
Ik zal eentje posten van 3Dmark05 en 06 om te bekijken hoe laag die scores zijn voor de 8800GTX

Niet Oc'ed haal ik 13500Punten , Oc'ed haal ik dus 13100Punten , cpu bottleneck dus :(

[Voor 16% gewijzigd door X-LimiTed op 02-01-2007 02:28]


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 01:54:
[...]


Ik heb een Intel Core 2 Duo E6600 @ 2.7Ghz en een 8800GTX 630/2000
Zal zo meteen even een screenie plaatsen.
Doe eens je 8800 zonder overklok, da's interessanter imo.

Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/

[Voor 12% gewijzigd door Apple|IA op 02-01-2007 02:10]


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Apple schreef op dinsdag 02 januari 2007 @ 02:07:
[...]


Doe eens je 8800 zonder overklok, da's interessanter imo.

Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
Weet je wat het verschil is , @ computerbase is alles getest op een FX60 @ 2.6Ghz.
Dus de 8800GTX scores zijn daarom veel lager. Enkel al door de Q6700@3.2Ghz vs. X6800 stock. is een onbegonnen strijd , dus al ik het zo opnieuw bekijk.. is die R600 helemaal niet zo bijzonder
en helemaal praktisch 0,0% zelf beter , de R600 zou slechter zijn als je een 8800GTX @ Intel Q6700@3.2Ghz zou zetten. Daarom dat dit minima's ook zo verschillende zijn die worden grotendeels door de cpu bepaald :)
quote:
Apple schreef op dinsdag 02 januari 2007 @ 02:07:
[...]


Doe eens je 8800 zonder overklok, da's interessanter imo.

Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
Momenteel is 97.44 inderdaad een betere driver.

De 8800GTX word gebottlenecked terwijl de R600 dat niet meer is.
Daardoor heeft de 8800GTX hier ook lagere scores. Bovendien dit is



3Dmark06 1600*1200 4xAA 16xAF

http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark06-16001200.jpg

http://i114.photobucket.com/albums/n241/X-z0re/untitled-4.jpg


http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark05-16001200.jpg

3Dmark05 1600*1200 4xAA 16xAF


http://i114.photobucket.com/albums/n241/X-z0re/untitled-3.jpg

Hier is vooral mijn cpu de bottleneck , aangezien als ik OC dat mijn score lager is als ik de cpu niet verder OC.

Edit : Verder heb ik de review @ computerbase gelezen en ik vraag me echt af hoe het komt dat bij
die jongen het verschil tussen een X6800 en FX60 beiden stock maar 500 Punten verschil heeft in 3Dmark05 en 200 punten verschil in 3Dmark06. Terwijl als ik vergelijk met mijn vriend Wizkristof.
die een X2 @ 2.7Ghz heeft het verschil tussen 1000-1500 is in 3Dmark06 en soms wel tot 2000-3000 is in 3Dmark05

[Voor 24% gewijzigd door X-LimiTed op 02-01-2007 02:50]


  • m277755
  • Registratie: februari 2004
  • Laatst online: 22-10-2012

m277755

leest meer dan hij typt

quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 01:54:
Niet Oc'ed haal ik 13500Punten , Oc'ed haal ik dus 13100Punten , cpu bottleneck dus :(
Waarom denk je dat je cpu de bottleneck is als je score lager wordt? De enige reden die ik kan bedenken dat je score lager zou worden met een langzamere videokaart is dat de kaart te warm wordt op de hogere snelheid en gaat throttlen (oftewel langzamer gaan draaien om de warmte te beperken)

Je kan trouwens beter naar de sm2 en sm3 scores kijken voor de snelheid van de videokaart (en of de cpu de bottleneck is) Aangezien de cpu score daar niet overdreven in mee wordt geteld. De 3dmark06 score is wat mij betreft vrij nutteloos omdat de onderdelen van de pc voor de meeste 3d programma's niet in de goede verhouding worden getest.

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
m277755 schreef op dinsdag 02 januari 2007 @ 04:52:
[...]


Waarom denk je dat je cpu de bottleneck is als je score lager wordt? De enige reden die ik kan bedenken dat je score lager zou worden met een langzamere videokaart is dat de kaart te warm wordt op de hogere snelheid en gaat throttlen (oftewel langzamer gaan draaien om de warmte te beperken)

Je kan trouwens beter naar de sm2 en sm3 scores kijken voor de snelheid van de videokaart (en of de cpu de bottleneck is) Aangezien de cpu score daar niet overdreven in mee wordt geteld. De 3dmark06 score is wat mij betreft vrij nutteloos omdat de onderdelen van de pc voor de meeste 3d programma's niet in de goede verhouding worden getest.
quote:
Hier is vooral mijn cpu de bottleneck , aangezien als ik OC dat mijn score lager is als ik de cpu niet verder OC.
Je moet eerst even lezen hé dan zie je wel wat ik zeg..
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.

  • Joepi
  • Registratie: december 1999
  • Laatst online: 12-03 22:17
quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 12:48:
[...]


[...]

Je moet eerst even lezen hé dan zie je wel wat ik zeg..
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Wat heb je dan konkreet aan verschil alleen in SM 2.0 en 3.0?

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Joepi schreef op dinsdag 02 januari 2007 @ 13:13:
[...]


Wat heb je dan konkreet aan verschil alleen in SM 2.0 en 3.0?
Beiden een verschil van rond de 100 punten.. met een OC van 300Mhz :D op de CPU?
Mja daar , wat vooral een verschil is , mijn CPU heeft maar een score van 2300
en een Intel Q6700 @ 3.2 heeft een score van rond 6000 Punten.
En dat verschil alleen heeft een verschil van 1000Punten in de 3Dmark06 en 3Dmark05 zelf meer.

[Voor 33% gewijzigd door X-LimiTed op 02-01-2007 13:23]


  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 19-12-2018
quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 13:16:
[...]
Beiden een verschil van rond de 100 punten.. met een OC van 300Mhz :D op de CPU?
Mja daar , wat vooral een verschil is , mijn CPU heeft maar een score van 2300
en een Intel Q6700 @ 3.2 heeft een score van rond 6000 Punten.
En dat verschil alleen heeft een verschil van 1000Punten in de 3Dmark06 en 3Dmark05 zelf meer.
Ik ben van mening dat je toch totaal de boot gemist hebt. Daar je bij 1600x1200 en hogere resoluties met AA en veel eye candy toch echt een minimale CPU bottleneck zult hebben. Waarschijnlijk is deze er zelfs helemaal niet. En oke.. leuk dat 3DMark06 ook 4 cores ondersteund bij de CPU test, waar dus ook die gigantische score aan te wijten is, maar de vraag is natuurlijk: Zie je dat terug in de geteste games? Waarschijnlijk niet en ook hier zal weer gelden dat een AMD of intel CPU vergelijkbaar met een FX60 of hoger geen bottleneck vormt in de games. Mede omdat bijna alle geteste games géén multi core support hebben. Dus een quad core óf een single core, het zal allemaal dicht bij elkaar zitten..

Tegenwoordig grijpen de mensen toch wel erg snel naar het modewoord CPU-bottleneck IMO .. ;)

Verder las ik het volgende:
quote:
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Dit is natuurlijk te wijten aan de door 3dmark meegenomen CPU test in het gemiddelde van de score :) Niet door de snellere GPU door de toegenomen CPU-kracht.

[Voor 43% gewijzigd door PassieWassie op 02-01-2007 14:28]

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
PassieWassie schreef op dinsdag 02 januari 2007 @ 14:21:
[...]


Ik ben van mening dat je toch totaal de boot gemist hebt. Daar je bij 1600x1200 en hogere resoluties met AA en veel eye candy toch echt een minimale CPU bottleneck zult hebben. Waarschijnlijk is deze er zelfs helemaal niet.
Lol.. je moet lezen.. 1600*1200 4AA 16AF @ 2.7Ghz = 7700 Punten.
En 1600*1200 4AA 16AF @ 3.0Ghz = 8200 Punten.

Er is dus wel degenlijk een verschil. Wat ik hiermee wil zeggen is als je een Q6700 gebruikt
dat je eindscore zeer veel afhangt van je proccesor dat gebruikt wordt ,zoals je weet is 3dmark05 en 06 zeer afhankelijk van de gebruikte CPU. Het is een soort van optel som van alle punten en dan wordt het door iets gedeeld. Als je nu bv. 3500+3200+ CPU = 6000 ga je uiteraard veel meer halen dan je 3500+3200+ CPU = 2300 bij elkaar gaat optellen.. dat probeer ik te zeggen , ik weet uiterraard ook wel dat de punten van de VGA praktisch gelijk blijven. Maar door het verschil tussen de CPU's heb je een verschil. Daardoor dat dit een oneerlijke benchmarks is aangezien de 8800GTX gestest is met een X6800 die belange niet een Q6700 is. Begrijp je wat ik bedoel?
Als je wat benchmarked weet je dat zelf ook wel.

Edit : Ik heb ook je Edit gelezen. Ik snap je , maar je moet wel niet vergeten dat de minimum fps in gamez bijna 100% bepaald worden door de gebruikte cpu. De average zullen bijna dezelfde zijn.
En een quad core kan wel.. veel makkelijker een strategie rijke omgeving renderen dan een dual core. Dus daardoor is er ook een groot verschil tussen de minima's tussen de R600 en de 8800GTX.

[Voor 13% gewijzigd door X-LimiTed op 02-01-2007 14:28]


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 12:48:
[...]


Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
een cpu-bottleneck bestaat niet naar mijn mening :)

als je voorgenoemde cpu op 3.4 zet ipv 3.2, haal je een hogere score..zo simpel is het

je zou eerder kunnen spreken van een vga-bottleneck als je score niet omhoog gaat zodra je je cpu overklokt...

Als je zo redeneert, is er dus áltijd een bottleneck.... gpu of cpu

  • 8819
  • Registratie: juli 2000
  • Laatst online: 21-12-2016
er zit zeker een verschil

Ik kwam met een sli 7900gt's op 7800 3dmark2006 met een amd x2 cpu op 2,3g
Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set nog niet optimaal presteerde.

  • Ocho53
  • Registratie: maart 2006
  • Laatst online: 16-01-2007
Waar ik best wel benieuwt naar ben, is of de R600 ook physics kan doen net zoals de G80.

  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 19-12-2018
quote:
suijkerbuijk schreef op dinsdag 02 januari 2007 @ 16:28:
er zit zeker een verschil

Ik kwam met een sli 7900gt's op 7800 3dmark2006 met een amd x2 cpu op 2,3g
Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set CPU ;) nog niet optimaal presteerde.
Jullie snappen het blijkbaar niet.. de CPU score wordt meegenomen in de score! Dus GPU 1000 + CPU 1000 = 2000. Met een overgeklokte CPU is dit bijvoorbeeld : GPU 1000 + CPU 1200 = 2200 punten. Wat dus niet komt door de GPU die ineens sneller is geworden ! Misschien dat de VGA's iets sneller kunnen op bepaalde momenten door de snellere CPU, maar hoofdzakelijk is de hogere score te wijten aan de toegenomen CPU-score in het gemiddelde.

[Voor 12% gewijzigd door PassieWassie op 02-01-2007 16:51]

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Update - Server Migration

We are currently migrating our servers to better serve you. Please excuse the short downtime we had today. We will update our article in about 10 hours with the R600 Ultra-HD resolution test and advanced information regarding power consumption and heat dissipation.
Zeker spannend :9

Wie gaat er wakker blijven vannacht? ;)

[Voor 6% gewijzigd door aca op 02-01-2007 16:38]

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla

quote:
Ocho53 schreef op dinsdag 02 januari 2007 @ 16:32:
Waar ik best wel benieuwt naar ben, is of de R600 ook physics kan doen net zoals de G80.
En waarom zou de R600 dat niet kunnen doen? De hele X1K serie kan al physics berekenen...

De R580 kan al physics doen en wel 9x zo snel als een G71. Zelfs een X1600XT is al 4x sneller in physicsberekeningen dan een 7900GTX. Dus met de physicsberekeningen zit het wel goed.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Legendary1983
  • Registratie: januari 2004
  • Laatst online: 22-01-2009
sjonge jonge is het weer zover met de nVidia fanboys dat ze weer in het ATi topic kom spammen met hun 8800''tjes, voor het wedstrijdje mijn e-penis is groter dan die van jouw.. :/

dat jullie 3dmark geil zijn zegt nog niks definitiefs over de prestaties van een r600 ten opzicht van de 8800 en als ik zie dat jullie nog het meeste druk maken om de CPU dan de GPU zegt ook wel weer genoeg..

het is informatief dat je het even duidelijk maakt, maar om er steeds weer voordurend er op te wijzen begint ook een beetje saai en herhaaldelijk te worden...

dus als je graag wil patsen met je 3dmark score doe dat dan in het desbetreffende topic en niet in een nieuwe topic waar mensen liever op de hoogte gehouden willen worden van de vooruitgangen van ATi dan de vooruitgangen van 3dmark score's...

tis nu gewoon wachten op een uiteindelijk benchmark met gelijke systemen en dan zullen we zien wie de grote winnaar is...

[Voor 14% gewijzigd door Legendary1983 op 02-01-2007 16:56]

Darkmoon Faire [EU] Craoker - Undead Warrior


  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 19-12-2018
quote:
Legendary1983 schreef op dinsdag 02 januari 2007 @ 16:50:
sjonge jonge is het weer zover met de nVidia fanboys dat ze weer in het ATi topic kom spammen met hun 8800''tjes, voor het wedstrijdje mijn e-penis is groter dan die van jouw.. :/
Ik denk dat ze beginnen te twijfelen aan hun wel erg dure investering ;)

@ Hieronder :O

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
PassieWassie schreef op dinsdag 02 januari 2007 @ 16:35:
[...]


Jullie snappen het blijkbaar niet.. de CPU score wordt meegenomen in de score! Dus GPU 1000 + CPU 1000 = 2000. Met een overgeklokte CPU is dit bijvoorbeeld : GPU 1000 + CPU 1200 = 2200 punten. Wat dus niet komt door de GPU die ineens sneller is geworden ! Misschien dat de VGA's iets sneller kunnen op bepaalde momenten door de snellere CPU, maar hoofdzakelijk is de hogere score te wijten aan de toegenomen CPU-score in het gemiddelde.
Ja.. dat bedoel ik dus. :)
Nog eens.. minimum fps zijn te wijten aan de CPU voor een groot deel.
quote:
PassieWassie schreef op dinsdag 02 januari 2007 @ 16:52:
[...]


Ik denk dat ze beginnen te twijfelen aan hun wel erg dure investering ;)
Ik niet :) Verder , dit is inderdaad een A-T-I topic. Ik wou alleen die foute benchmarks even recht zetten. En dat het een oneerlijk strijd is. Verder is mijn mening als dat de R600 is dat die tekort zal komen om een 8800GTX te verslaan. Het zal waarschijnlijk evenaren worden. Het is wel een feit dat ATI in de 3 extra maanden.. niks heeft gedaan om de kaart te verbeteren t.o.v de 8800GTX en ook het feit dat de 8800GTX al naar 550,- euro dropt en da R600 rond de 650,- zal gaan kosten. En 100 euro verschil voor een bijna evengoede kaart.. lijkt me teveel. En nu blijken de rollen omgekeerd ?
Nvidia heeft het eens voor elkaar gekregen IQ + Performance , misschien beter dan de R600

Edit : Deze reactie is op basis van de review als die zou blijken waar te zijn.
Is de R600 echt beter ,en die 100 euro meer waard , dan moet je die kopen natuurlijk.

[Voor 51% gewijzigd door X-LimiTed op 02-01-2007 17:04]


  • Ocho53
  • Registratie: maart 2006
  • Laatst online: 16-01-2007
quote:
En waarom zou de R600 dat niet kunnen doen? De hele X1K serie kan al physics berekenen...

De R580 kan al physics doen en wel 9x zo snel als een G71. Zelfs een X1600XT is al 4x sneller in physicsberekeningen dan een 7900GTX. Dus met de physicsberekeningen zit het wel goed.
Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Ocho53 schreef op dinsdag 02 januari 2007 @ 17:01:
[...]


Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?
Ja , die G80 kan games renderen en op hetzelfde moment physics berekenen zonder performance verlies. Wat bij ATI nog niet kan. Bij ATI kan je door in crossfire een kaart gebruiken voor Physics en een kaart voor performance.

  • winwiz
  • Registratie: september 2000
  • Laatst online: 30-03 20:45
Je ziet nu ook gebeuren wat ik al een paar maanden geleden zag aankomen.....

ATI: Oké we gaan op ongeveer +10% snelheid zitten van G80...... (Hoor ik daar tegenvallen roepen??)
NVIDIA: (nu) Hoeveel ruimte hebben we nu nog?? We streven op +20% t.o.v. G80 met de G81...en we gaan overclocken toestaan..... dat zal ze krijgen :9~
ATI: (straks). Zoals verwacht zijn ze nu sneller...... Oke jongens handrem mag eraf. Ga in ieder geval naar +25% t.o.v. 1e release. Houdt in ieder geval wat reserve.... je weet het nooit daar....

Ryzen 2700X stock + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

quote:
Ocho53 schreef op dinsdag 02 januari 2007 @ 17:01:
[...]


Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?
NEE. Dat is een grote misvatting. Er zit geen apart gedeelte voor physics in. De G80 gebruikt gewoon een gedeelte van de 128 shaderengines om de physics te berekenen.

Huidige X1900 kaarten zouden in staat moeten zijn om tegelijkertijd physics en graphics te berekenen, maar zoals het er naar uit ziet heeft AMD bij deze serie kaarten liever dat je een aparte dedicated physics-GPU gebruikt zoals bv een X1600.

CrossFire Physics vereist dus niet dat je twee gelijke kaarten moet gebruiken. Een X1900 voor graphics en een X1600 voor physics zou prima moeten werken. Ook R600 zal op dezelfde manier met physics om gaan, maar doordat deze enorm veel krachtige shaderengines heeft zullen zowel physics als graphics op 1 kaart kunnen gebeuren net zoals bij G80. De voorkeur blijft echter een aparte physics kaart, aangezien dit in de meeste gevallen toch sneller zal blijken te zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
suijkerbuijk schreef op dinsdag 02 januari 2007 @ 16:28:
er zit zeker een verschil


Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set nog niet optimaal presteerde.
draai de zaken nou eens om....en klok je kaart over..

dan zul je zien dat je óók een hogere score haalt.. hoe kan dat dan met een ''cpu-botleneck'' ?!

  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
winwiz schreef op dinsdag 02 januari 2007 @ 17:08:
Je ziet nu ook gebeuren wat ik al een paar maanden geleden zag aankomen.....

ATI: Oké we gaan op ongeveer +10% snelheid zitten van G80...... (Hoor ik daar tegenvallen roepen??)
Denk je dat ze maar een pot-meter open hoeven te draaien op de r600 ofzo ?

als dat zo was, haden ze de kaart al máanden geleden uitgebracht met het knopje op 100% 8)7

nog niet aan gedacht dat ze er de laatse maanden álles aan hebben gedaan om die 10% winst te krijgen ?

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Mr. Detonator schreef op dinsdag 02 januari 2007 @ 17:15:
[...]


Denk je dat ze maar een pot-meter open hoeven te draaien op de r600 ofzo ?

als dat zo was, haden ze de kaart al máanden geleden uitgebracht met het knopje op 100% 8)7

nog niet aan gedacht dat ze er de laatse maanden álles aan hebben gedaan om die 10% winst te krijgen ?
Als ze die 10% gaan krijgen als nvidia hun nieuwe driver uitbrengt die veel improvements zou moeten meebrengen. En inderdaad.. de XXX versies zijn toegestaan.. en die zijn toch wel een pak sneller hoor , met 10% kom je er niet , meer.

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
CJ schreef op dinsdag 02 januari 2007 @ 17:09:
[...]


NEE. Dat is een grote misvatting. Er zit geen apart gedeelte voor physics in. De G80 gebruikt gewoon een gedeelte van de 128 shaderengines om de physics te berekenen.

Huidige X1900 kaarten zouden in staat moeten zijn om tegelijkertijd physics en graphics te berekenen, maar zoals het er naar uit ziet heeft AMD bij deze serie kaarten liever dat je een aparte dedicated physics-GPU gebruikt zoals bv een X1600.

CrossFire Physics vereist dus niet dat je twee gelijke kaarten moet gebruiken. Een X1900 voor graphics en een X1600 voor physics zou prima moeten werken. Ook R600 zal op dezelfde manier met physics om gaan, maar doordat deze enorm veel krachtige shaderengines heeft zullen zowel physics als graphics op 1 kaart kunnen gebeuren net zoals bij G80. De voorkeur blijft echter een aparte physics kaart, aangezien dit in de meeste gevallen toch sneller zal blijken te zijn.
Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor.. en die berekend normaal alles onafh. zonder performance verlies.
Dat is hetgeen ik afleid.. uit wat Nvidia zegt.

  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 17:29:
[...]


Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor..
niet helemaal....De Quantum-engine zal gebruik maken van de shaders van de G80-gpu om natuurkundige berekeningen te versnellen.

bron

zelf denk ik eerlijk gezegd niet dat dat hele physics-gebeuren een succes wordt...zowel bij ati als bij nvidia

[Voor 11% gewijzigd door Mr. Detonator op 02-01-2007 18:07]


  • Apoca
  • Registratie: november 2001
  • Laatst online: 19:36

Apoca

Array Technology Industry

En per wanneer zat dat nu ook alweer in de drivers die physics?

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Apoca schreef op dinsdag 02 januari 2007 @ 18:05:
En per wanneer zat dat nu ook alweer in de drivers die physics?
het spel moet het natuurlijk ook ondersteunen...alleen met een driver kom je er niet

  • Apoca
  • Registratie: november 2001
  • Laatst online: 19:36

Apoca

Array Technology Industry

Ja dat snap ik ook wel. Maar het is toch nog steeds niet aanwezig in de drivers of wel?

Spellen die bv de Unreal Engine 3 geheel gebruiken, zouden hier dus dan mee uit de voeten kunnen.

[Voor 36% gewijzigd door Apoca op 02-01-2007 18:12]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Apoca schreef op dinsdag 02 januari 2007 @ 18:09:
Ja dat snap ik ook wel. Maar het is toch nog steeds niet aanwezig in de drivers of wel?
[offtopic]
volgens mij niet nee...maar met welk spel wou je het dan gaan gebruiken ?
quote:
Apoca schreef op dinsdag 02 januari 2007 @ 18:09:
Spellen die bv de Unreal Engine 3 geheel gebruiken, zouden hier dus dan mee uit de voeten kunnen.
heb je ook ooit benchmarks gezien mét en zónder physics, want volgens mij scheelde dat niet zo veel/niks ?

je kan beter dat geld wat je aan de tweede physics/video kaart besteed, aan een wat duurdere videokaart uitgeven...heb je naar mijn idee meer winst

[Voor 45% gewijzigd door Mr. Detonator op 02-01-2007 18:18]

quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 17:29:
[...]


Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor.. en die berekend normaal alles onafh. zonder performance verlies.
Dat is hetgeen ik afleid.. uit wat Nvidia zegt.
De marketingmachine van nVidia werkt weer goed... werkte ATIs marketingmachine maar zo goed. :P

Zoals Mr. Detonator ook al zei... het zijn de shaders die het werk doen. nVidia heeft er maar gewoon een leuk naampje aan vast geplakt. Niet meteen alles geloven wat de marketingmachine je wil aansmeren... ;)

Drivers die physics activeren zal ATI releasen wanneer de eerste games uit komen die ook daadwerkelijk Havok Physics ondersteunen. De eersten zijn Hellgate: London en Alone In The Dark 4. Daarnaast zullen alle toekomstige Blizzard games gebruik maken van Havok Physics. Havok is gewoon enorm ingeburgerd in de game-scene en voor vele developers is het dus een fluitje van een cent om over te stappen op Havok Physics die gebruik maakt van de GPU. Vandaar dat ik verwacht dat de GPU physics van zowel ATI als nVidia meer succes zullen hebben dan een PhysX van Ageaia.

Overigens zijn de physicsdrivers van ATI al klaar. Het is dus alleen wachten op de games. Wanneer die uit zijn zal physics gewoon in de Catalyst drivers zitten. Er komt dus geen aparte physicsdriver uit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Apoca
  • Registratie: november 2001
  • Laatst online: 19:36

Apoca

Array Technology Industry

quote:
Mr. Detonator schreef op dinsdag 02 januari 2007 @ 18:11:
[...]
Je kan beter dat geld wat je aan de tweede physics/video kaart besteed, aan een wat duurdere videokaart uitgeven...heb je naar mijn idee meer winst
Ja dat is natuurlijk ook weer waar, maar ja ik ga pas na de 2e generatie DX10 kaartjes weer over op een nieuwe ATi GPU. Tot die tijd kan die 100 euro voor een X1600 kaartje der ook wel vanaf.

Ps. Physic met dus een extra X1600 werkt ook op non crossfire mobo's he. Kan dat niet duidelijk uit de informatie die hier rondom te krijgen is opmaken.

[Voor 60% gewijzigd door Apoca op 02-01-2007 19:04]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.

en RS690 en RS690c samplen nu, en MP in februari, echter door productie problemen? is er pas volume productie mogelijk in H2. Deze chip is sneller dan de C61 van nVidia, maar tegen Q3 zal nVIdia hier voor AM2+ weer een opvolger van introduceren, dus vraag mij af wat het probleem is waardoor volume niet mogelijk is.

[Voor 37% gewijzigd door The Source op 02-01-2007 18:41]


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
Ik hoop dan dat de GDDR4 verlengt is tot Q2 2007 anders zien we volgens mij geen daglicht van ee
R600 voor Juni :?
quote:
The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.

en RS690 en RS690c samplen nu, en MP in februari, echter door productie problemen? is er pas volume productie mogelijk in H2. Deze chip is sneller dan de C61 van nVidia, maar tegen Q3 zal nVIdia hier voor AM2+ weer een opvolger van introduceren, dus vraag mij af wat het probleem is waardoor volume niet mogelijk is.
Misschien dit: http://www.theinquirer.net/default.aspx?article=36663 ?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 19-12-2018
quote:
Mr. Detonator schreef op dinsdag 02 januari 2007 @ 18:11:
[...]
heb je ook ooit benchmarks gezien mét en zónder physics, want volgens mij scheelde dat niet zo veel/niks ?
Op de site van ageia staat een benchmark programma om een scene uit een game te renderen met en zonder PPU. Met PPU gaat het toch echt een stuk sneller dan via de CPU. In hoeverre de optimalisaties van de engine de huidige CPU's de nek doen omdraaien is mij niet bekend.

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 30-03 13:03
Het zal wel sneller wezen in zo'n benchmark, maar er zijn geen games die physics gebruiken, op 1 of 2 na dan. En dan waren die physics van R6 ook nog niks bijzonders ook... :O

Nee, ik denk dat dat physics gebeuren nog wel 2 jaar op zich laat wachten. Als het daarmee nog wat wordt that is. Persoonlijk denk ik van wel; als we in 2008 8 cores-CPU's hebben geeft dat wel wat physics ruimte voor in de games. :P Met een core of 4 voor physics naast de 4 cores die voor games zouden kunnen worden gebruikt zal dat wel lukken denk ik. :P Liever 1 CPU met veel cores dan een kast stampvol met hitteproducerende en lawaaierige losse kaarten en een ultraduur moederbord met 8 PCI-e slots...

[Voor 4% gewijzigd door Format-C op 02-01-2007 19:22]

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

1701 A.D. v1.01 Patch
Errors corrected

- A ship following a trade route and stopping in front of the warehouse,
failing to continue along that trade route.
- A team win in multi-player was sometimes impossible to achieve.
- Ships belonging to an AI (which had given up) could get stuck at the edge of
the map.
- The AI failing to react to the destruction of a foreign culture.
- A display problem which occurred in multi-player save games.
- Possible Blood brotherhood with more than one culture.
- Errors in the balance sheet when a save game had been saved and then
re-loaded.
- Computer opponents could erect a warehouse on a location unsuitable for
construction.
- Construction could be carried out „free of charge” during lags in
multi-player matches.
- Existing fraternizations are now terminated when a foreign culture is
destroyed.
- Occasionally an escort’s companions stayed in one place as soon as the escort
target was sent on patrol.
- Patrol points “jumping” after a battle.
- Escort ships leaving the escort after a battle.
- A foreign culture’s special action still being carried out after that culture
had been destroyed.
- Bonus coins can no longer be redeemed in multi-player matches.
- Occasionally a so-called “Freeze” in the "The Legacy of the Ancestors"
scenario.
- Sometimes the “Eichendorff” AI stopping production.
- Problems with the AI portraits once an AI had been destroyed.
- Setting the video settings to "very high" on an ATI video card, does not
result in the statue on the village center not being displayed.
- Players spying upon an opponent’s ships.
- Damaged trade routes after a saved game was loaded.
- Damaged trade routes whenever a warehouse was renamed.
- Ships appearing to be floating inside one another upon completion.

Balancing:

- The AI ships now react more intelligently when faced outnumbered by the
enemy.
- Storm strength now adjusts to fit island size.
- The Queen’s fleets are now somewhat more powerful.
- Die Queen now demands two additional tribute payments or sends one additional
fleet.
- The normal AI no longer adjusts to suit the player but instead advances on
its own.
- The foreign cultures’ landmarks are now immune to catastrophes.
- The Revolutionary doesn’t stay in the city as long as before.
- The AI no longer advances right after the player does, but instead waits a
short while.

New:

- Players can now choose whether they must fulfil all of the conditions for win
just one.
- A tool tip was added for the time limit for reaching independence.
- A multi-player game no longer pauses when Escape is pressed.
- The delay in saving has been removed from the multi-player game.
- The interface can now be hidden to allow better screenshots.
- Clouds can now also be hidden to allow better screenshots.
- Inhabitant message no longer come as often as before.
- Trees can now be planted both over the menu and using the pipette. It is no
longer necessary to enter a cheat to do so.
- In multi-player the clients now also show both the game name and the
password.
- Pirate ships are now likely to leave some flotsam floating on the water when
sunk.

Graphics:

- A number of adjustments have been made for the new G80 graphics chip from
Nvidia in order to take full advantage of its potential, e.g. 8x & 16x CSAA
support (Coverage Sampling Aliasing).


Gepost omdat er veel problemen zijn rond deze game voor zowel ATI als Nvidia.

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

En wat heeft dat met nieuws van ATI temaken? :)

Geluidswolk


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
Viral marketing? ;) (koop geen G80 maar wacht "even" op de R600).

  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

idd de R600 zal geen problemen hebben met de PCI-Express architechtuur en zal ook beter ondersteund worden in Vista.

Maardan de mensen met hun R580/R580+ kaarten en andere R5.xx kaarten zitten ook wel oke hoor, of je nu een PCI-Express x8 slot hebt of een x16 je hoeft niet bang te zijn dat je kaart het niet doet, want werken zal die zeker wel, waarbij een G80 in de soep loopt ;)

Ook nu een sterk voordeel van ATi kaartjes.

En dat ik veel F.E.A.R> doet op de Computerclub, is me X1900XTX + X1950 XTX CFE setup nog snel zat, voor mij nog geen R600 iig, maare ik zijn er mensen met een enkele X1800 of X1900 dan zou ik zeggen go for it, en als jullie hem hebben graag wat mooie scherpe foto's :9

Hier bij wens ik iederen een toewenselijk 2007. 8)

[Voor 32% gewijzigd door Gold Leader op 02-01-2007 22:22]

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

quote:
Obi-Wan Kenobi schreef op dinsdag 02 januari 2007 @ 22:19:
idd de R600 zal geen problemen hebben met de PCI-Express architechtuur en zal ook beter ondersteund worden in Vista.

Maardan de mensen met hun R580/R580+ kaarten en andere R5.xx kaarten zitten ook wel oke hoor, of je nu een PCI-Express x8 slot hebt of een x16 je hoeft niet bang te zijn dat je kaart het niet doet, want werken zal die zeker wel, waarbij een G80 in de soep loopt ;)

Ook nu een sterk voordeel van ATi kaartjes.
sjah, in hoeverre dat een voordeel is....

De 8800 serie van nVidia is gewoon veel beter dan de R580 in snelheid, beeldkwaliteit en geluidsproductie van de stockkoeler. En hoeveel mensen zijn er nou die meer dan één G80 nodig hebben? En met een enkele 8800 videokaart heb je altijd PCI-E 16x bandbreedte, dus dan is er niets aan de hand lijkt mij zo.
quote:
En dat ik veel F.E.A.R> doet op de Computerclub, is me X1900XTX + X1950 XTX CFE setup nog snel zat, voor mij nog geen R600 iig, maare ik zijn er mensen met een enkele X1800 of X1900 dan zou ik zeggen go for it, en als jullie hem hebben graag wat mooie scherpe foto's :9
Jij hebt het wel erg vaak over je X1900XTX + X1950XT CFE, het komt in ongeveer de helft van je posts naar voren. :+
quote:
Hier bij wens ik iederen een toewenselijk 2007. 8)
jij ook een goed 2007 toegewenst!

PS: Morgen gaat mijn X1900XT CF terug naar de internetshop. Ik krijg roze beeld over de Crossfire kabel/connector en dat ligt echt aan de VGA. Zodra ik die videokaart terug heb doe ik hem gelijk in de verkoop, want met een enkele X1900XTX red ik het ook wel tot de R600 er is :P

Goud is geen geld


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

@ frankknopers
Dat dan weer wel, stelde alleen dat het voor mij snelzat is, en voor de gene die Fear vaak doen is de upgrade ook het niet waard tenzei ze R600 CF gaan doen dat is een ander verhaal.

Eerlijk gezegt, zie ik het naapje "8800GTX" meer voorbij komen als een ATi benaamde kaart :/

En ja als de R600 presteerd hoe die benchmarks het laten zien sla ik hem toch over, lekker tot de R700 wachten ooit hehe, ben benieuwd wat dat gaat leveren en doen qua technieken hehe, tenzei dat de GDDR4 model zo goed is in Flight Sim X dan is het nog wel goed over na te gaan denken.

[Voor 173% gewijzigd door Gold Leader op 02-01-2007 23:56]

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
quote:
Obi-Wan Kenobi schreef op dinsdag 02 januari 2007 @ 23:46:
@ frankknopers
Dat dan weer wel, stelde alleen dat het voor mij snelzat is, en voor de gene die Fear vaak doen is de upgrade ook het niet waard tenzei ze R600 CF gaan doen dat is een ander verhaal.

Eerlijk gezegt, zie ik het naapje "8800GTX" meer voorbij komen als een ATi benaamde kaart :/

En ja als de R600 presteerd hoe die benchmarks het laten zien sla ik hem toch over, lekker tot de R700 wachten ooit hehe, ben benieuwd wat dat gaat leveren en doen qua technieken hehe
ik was me net aan ''t bedenken wat ik hierop ging antwoorden, maar je hebt 'm weer eens net op tijd ge-edit _/-\o_

is wel knap trouwens om 'n bericht 164 173% te wijzigen :)

[Voor 3% gewijzigd door Mr. Detonator op 02-01-2007 23:59]


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

@ Mr. Detonator

hehe geeft niet hoor, maar me post is niet gemeen bedoeld maar het kwam mij wel een beetje te veel over.

maare wat zalde Refresh van de R600 worden R650 net als R350 dat was van R300? of toch R680 net als dat van R580 was van R520?

heh ik denk R650 zou meer qua verhouding overheen komen maar kan het verkeerd hebben hiero hehe :) Anyways 2007 wordt een zeer intressant jaartje qua 3D techniek enzovoorts.

[Voor 56% gewijzigd door Gold Leader op 02-01-2007 23:59]

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
het lijkt erop dat de beruchte site nou écht uit de lucht is

of zouden er straks foto's opstaan ? :X

[Voor 53% gewijzigd door Mr. Detonator op 03-01-2007 00:04]


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

heh wie weet, maare idd echte foto's zou wel meer op echte bewijs op neer komen hoe realistisch de review ook was.

Mischien was die reviewer wel een medewerker heh wie weet dat ie ontslag heeft gehad, echt de wereld kan echt gek in elkaar zitten :X maar ja of dat het geval is, dat is maar een vage speculatie, we zullen toch maar even moeten afwachten, een ding lang zal het gelukkig niet meer gaan duren :) 3 a 4 weken is zo om.

wat ook wel raar is waarom zou DX10.1 niet DX 10.0b heten? ook wel vaag.

[Voor 8% gewijzigd door Gold Leader op 03-01-2007 00:13]

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • m277755
  • Registratie: februari 2004
  • Laatst online: 22-10-2012

m277755

leest meer dan hij typt

Ik wil niet graag mosterd na de maaltijd brengen, maar jullie posten veel sneller dan ik lees O-)
quote:
X-LimiTed schreef op dinsdag 02 januari 2007 @ 12:48:
Je moet eerst even lezen hé dan zie je wel wat ik zeg..
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Een regel in een ander bericht die niets zegt over het eerste bericht (het bericht waaruit in quote) gaat me niet helpen begrijpen wat je bedoelt. In het eerste bericht zeg je dat je met overklok een lagere score haalt dan zonder overklok en daar reageer ik op.

Verder mag je ook wel lezen wat ik typ. Je zegt dat een hogere score in 3dmark06 met een snellere processor bewijs is dat de videokaart gebottleneckt wordt door de processor. Het is echter geen bewijs voor of tegen die uitspraak omdat de processor in 3dmark veel zwaarder meegewogen wordt dan in spellen. Als je dezelfde instellingen gebruikt als jij in 3dmark06, maar dan met een geforce 7300gs erin zal je zien dat de totale score veel hogere uitvalt met een quadcore intel dan met een opteron op 2,7 ghz. Is de 7300gs dan ook beperkt door de processor?
quote:
RappieRappie schreef op dinsdag 02 januari 2007 @ 19:21:
Het zal wel sneller wezen in zo'n benchmark, maar er zijn geen games die physics gebruiken, op 1 of 2 na dan. En dan waren die physics van R6 ook nog niks bijzonders ook... :O

Nee, ik denk dat dat physics gebeuren nog wel 2 jaar op zich laat wachten. Als het daarmee nog wat wordt that is. Persoonlijk denk ik van wel; als we in 2008 8 cores-CPU's hebben geeft dat wel wat physics ruimte voor in de games. :P Met een core of 4 voor physics naast de 4 cores die voor games zouden kunnen worden gebruikt zal dat wel lukken denk ik. :P
Ik denk dat er wel een markt is voor physics op iets anders dan een processor. Als ik kijk hoe mijn processor (x2 op 2,7 ghz) havok physics in half-life 2 (en met name Gary's mod voor hl2) afhandelt is er nog wel ruimte voor verbetering. Situatie met niet al te veel objecten gaan prima, maar met veel objecten gaat het al snel mis.

Voor mij zou een Ageia kaart te duur zijn voor de voordelen die hij biedt, maar een deel van de physics door de videokaart laten doen (zoals in de planning staat bij beide bedrijven) lijkt me wel wat. Het is lastig physics berekeningen parellel uit te voeren om dat alle objecten van elkaar afhankelijk kunnen zijn. Videokaarten kunnen beter omgaan met van elkaar afhankelijke berekeningen en zijn daarom meer geschikt voor physics dan processoren

Ik ben wel bereid de videoinstellingen wat lager te zetten als dat betekent dat er meer objecten met elkaar kunnen botsen enz als daarmee het spel interessanter wordt (maar dat is in handen van de ontwikkelaars).
quote:
wat ook wel raar is waarom zou DX10.1 niet DX 10.0b heten? ook wel vaag.
Van directx 5, 6 , 7 en 8 is een .1 of zelfs .2 versie geweest. Het zal wel te maken hebben met hoe belangrijk de veranderingen zijn ten opzichte van de .0 versie.

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
AMD's R600 to suffer another delay

Spin the respin action, Feb launch looking unlikely

By Theo Valich: Wednesday 03 January 2007, 08:30
THE FIRST AMD/ATI graphics chip just cannot enter the world without much screaming and wriggling.

In fact, it's looking more like Nvidia is going to be to the market first with an 80 nanometre version of the G80 graphics chip, rather than ATI's 720 million transistor monster.

The last revision of the prototype chip - upon which a certain "pre-review" is based - also suffers from problems which are serious enough to get another re-spin, sources tell me. This re-spin puts a hold on the launch for another couple of weeks, and now R600 is looking like an early March launch, probably the week before SnowBIT in Hangover. However, AMD/ATI is making severe changes to the whole line up and we can say that this launch, when it happens, will be very, very shocking for the 3D industry.

I am not talking about pseudo-penismarks here.

We learned about the performance and feature characteristics and they're looking pretty impressive in more than one way, although you can expect that Dr. Spinola's engine is getting into defensive mode, saying people "don't understand what the R600 is".

However, engineer teams are working around the clock to make this launch as good as possible.

One small note on the tech demos. Prepare for your mandibles to drop, because Adrienne should look like a high-school attempt at 3D graphics compared to ATI's thing. µ
* aca zucht

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 20:33
update:

However, we will start uploading and proofreading our ATI R600 Test - Part 2 shortly, so stay tuned. We actually do have quite some surprises…

[Voor 10% gewijzigd door Mr. Detonator op 03-01-2007 10:41]


  • OruBLMsFrl
  • Registratie: juni 2001
  • Laatst online: 01:27

OruBLMsFrl

Silence Promo Crew

quote:
Mr. Detonator schreef op woensdag 03 januari 2007 @ 00:03:
het lijkt erop dat de beruchte site nou écht uit de lucht is

of zouden er straks foto's opstaan ? :X
Site is weer in de lucht op een andere server en beloofd een grote update op 5/6 januari waaronder 2560x1600 tests, ben benieuwd. Dat stukje hierboven komt op mij weinig geloofwaardig over. Er zijn grote problemen, ze moeten de kaart die al te laat is nog 3 weken uitstellen, maar als de R600 komt gaat hij de hele industrie in meerdere opzichten opschudden. Ondertussen heeft de concurrent zijn kaarten in alle winkels liggen en komt de 8900 snel dichterbij. De R600 doet mij op het moment wat te veel denken aan vaporware met veel hype, specs en claims. Helaas vallen dat soort verhalen uiteindelijk toch vaak tegen.

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.


  • Evano
  • Registratie: april 2006
  • Laatst online: 18:55
Nou, alles rondom de R600 is wel vaag nu :/
Want overal hier zie ik quotes van sites die zeggen dat de R600 vertraagd is tot begin maart;
kijk ik vervolgens op die vage Level505.com site, staat er bijna onderaan dit:
If you just bought a GeForce 8800, especially the GTX version, you might want to return your card on January 22nd when ATI R600 cards become available throughout the US at 630 USD (MSRP Price) which roughly equals the current price for a GeForce 8800GTX.
Naja het zal allemaal wel vind ik... ik wacht gewoon rustig tot ie uitkomt..

Overigens zeggen ze ook op Level505.com dat rond 5 januari er heel misschien beperkte plaatjes te zien zullen zijn..

  • markjuh
  • Registratie: juli 2000
  • Laatst online: 18-02 15:27

  • epo
  • Registratie: november 2000
  • Nu online
quote:
Obi-Wan Kenobi schreef op dinsdag 02 januari 2007 @ 22:19:
idd de R600 zal geen problemen hebben met de PCI-Express architechtuur en zal ook beter ondersteund worden in Vista.

Maardan de mensen met hun R580/R580+ kaarten en andere R5.xx kaarten zitten ook wel oke hoor, of je nu een PCI-Express x8 slot hebt of een x16 je hoeft niet bang te zijn dat je kaart het niet doet, want werken zal die zeker wel, waarbij een G80 in de soep loopt ;)

Ook nu een sterk voordeel van ATi kaartjes.
Right...... Vooral het 1ste en het laatste stuk is onzin..... Middelste stuk, tja er zijn wat problemen ja..
Alsof ATI kaarten probleemloos zijn. Mijn X1950XTX begint inmiddels ook kuren te vertonen... shit happens. Ben er eigenlijk toch niet zo happy mee, hij lijkt een beetje op mijn oude 9800PRO met destijds DDR2, dat ding was ook uniek qua geheugen, maar vertoonde ook een aantal rare fratsen.

En laat de R600 nu maar eens uitkomen, dat gaat nog wel een paar maanden duren. Wachten iig niet waard.

[Voor 10% gewijzigd door epo op 03-01-2007 13:23]


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

@ epo

Is geen onzin is een feit, ATi PCI-Express kaarten zijn goed backwards compliant met PCI-E x8 als x16 de new gen kaarten van de concurrent echter niet, je moet het niet als onzin zien maar als feit, simple and plain.

Kan zijn dat je toevallig een brakke kaart heb toch? Waarom niet terug sturen aangezien je toch garrantie hebt ;)

Dat de R580 het goed ondersteund zal met de R600 zeker wel zijn, anders heeft het ook geen zin om het uit te brengen, AMD.ATi heeft liever een product dat perfect werkt in plaats van half goed, want dat is niet goed genoeg, de kaart moet kloppen volgens de PCI-Express architecture anders gaat het down hill net als met die G80 gevallen.

En als ATi kaarten ook probs hebben met de PCI-E Architecture dan had dat allang als nieuws post verschenen wat ook niet is gebeurd, dus valt wel erg mee hoor ;)

[Voor 70% gewijzigd door Gold Leader op 03-01-2007 15:08]

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum

Nieuw topic komt er zo aan. Deel 47 zal het laatste topic zijn waarin er informatie over de X1K serie in de startpost te vinden is. Daarna ga ik de boel nog verder opschonen om ruimte te maken voor de ATI Radeon X2800. :*)

Gelieve ook in het nieuwe topic zo veel mogelijk ontopic te blijven en geflame te vermijden. :>

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

@ CJ no probs mate ;) en idd X2800 hadden we idd een sterk gevoel voor hehe :)

Nog bedankt voor alle info enzovoort, mischien een rare vraag heh, kent je mensen van AMD.ATi ook, bedoel waar je soms die info van krijg enzovoorts.

[Voor 14% gewijzigd door Gold Leader op 03-01-2007 15:32]

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

Ik stel voor dat de topicstart vanaf heden AMD groen wordt met hier en daar nieuwe ATi logo. :P

Goud is geen geld

quote:
frankknopers schreef op woensdag 03 januari 2007 @ 15:36:
Ik stel voor dat de topicstart vanaf heden AMD groen wordt met hier en daar nieuwe ATi logo. :P
Het topic blijft voorlopig rood. Niet alleen om verwarring te voorkomen (* CJ ziet alle verdwaalde en verwarde nV aanhangers al per ongeluk in het ATI topic verschijnen :9), maar ook omdat AMD er voor gekozen heeft om rood de kleur te laten blijven voor al hun videokaarten en ook hiervoor de naam "ATI Radeon" te blijven gebruiken. :)

Edit: Nieuw topic staat hier: [Algemeen] ATi Nieuwsdiscussie Topic - Deel 48

Deze mag op slot.

[Voor 9% gewijzigd door CJ op 03-01-2007 16:05]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Ultraman
  • Registratie: februari 2002
  • Laatst online: 16:33

Ultraman

Moderator Harde Waren

Boefje

En done

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.



Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True