[Algemeen] ATi Nieuwsdiscussie Topic - Deel 47 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 5.540 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Maar Oblivion daarintegen heb ik toch nog niet onder de 30fps gezeten , zelf niet met 8xAA 16xAF.
Probeer dit eens, maar dan @1600x1200?

http://www.hardforum.com/showthread.php?t=1119256

[ Voor 193% gewijzigd door Anoniem: 38733 op 30-12-2006 23:06 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Ik vind die review ook niet helemaal zo sterk uitblinken in objectiviteit. Als de ATi wint zegt hij er steeds bij dat dit verschil met de nieuwere ATi drivers nog groter wordt. En elke keer dat nVidia de hoogste score noteert wordt dit nooit toegegeven, maar wordt weer het argument van drivers opgevist.

Die FEAR score vind ik ook nogal vaag, opeens walst de X1900XT CF dik over de andere videokaarten heen.. Ik dacht dat FEAR op de G80 minstens even snel zou draaien.
Ook vaag dat er niets van de fysieke eigenschappen van de kaart is getoond. Denk aan foto's, informatie over de geluidsproductie, het stroomverbruik, de temperatuur, het aantal stroomconnectors, lengte van de kaart, type koeling (nanofoil? 8) )

Hoe dan ook, het is leuk leesvoer om je lekker te maken voor deze uber GPU.

[ Voor 18% gewijzigd door frankknopers op 31-12-2006 00:16 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

Anoniem: 162692

frankknopers schreef op zondag 31 december 2006 @ 00:11:
Ik vind die review ook niet helemaal zo sterk uitblinken in objectiviteit. Als de ATi wint zegt hij er steeds bij dat dit verschil met de nieuwere ATi drivers nog groter wordt. En elke keer dat nVidia de hoogste score noteert wordt dit nooit toegegeven, maar wordt weer het argument van drivers opgevist.

Die FEAR score vind ik ook nogal vaag, opeens walst de X1900XT CF dik over de andere videokaarten heen.. Ik dacht dat FEAR op de G80 minstens even snel zou draaien.
Ook vaag dat er niets van de fysieke eigenschappen van de kaart is getoond. Denk aan foto's, informatie over de geluidsproductie, het stroomverbruik, de temperatuur, het aantal stroomconnectors, lengte van de kaart, type koeling (nanofoil? 8) )

Hoe dan ook, het is leuk leesvoer om je lekker te maken voor deze uber GPU.
De G80 heeft in bepaalde problemen nog tamelijk veel driver fixes nodig.
Volgens bepaalde mensen zouden ze met een volgende driver veel beter moeten presteren waar de G80 nu gelijk met een 7950GX2 presteerd , of ongeveer.

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 13-04 09:06
Om toch nog terug te komen op die review, de volgende zin staat op de 1e pagina:
Multi-GPU cluster solutions will be available for the workstation market only until March, 2007.
Het lijkt mij dat dit inhoudt dat Crossfire ook pas wordt ondersteund vanaf de versie met GDDR4. Als dit zo is, dan is het echt compleet gaar... Uberhaupt is het al raar dat er zo snel achter elkaar 2 versies van de kaart uitkomen, laat staan dat ze dan op de GDDR3 versie geen crossfire willen. Ik kan me ergens voorstellen dat dit gedaan wordt om te voorkomen dat GDDR3 en GDDR4 kaarten gemixed worden, maar Crossfire is tot nu toe een vrij adaptieve techniek gebleken, dan zou dit toch ook best mogelijk moeten zijn...
Rare uitspraak, en zou nog veel raarder zijn als hij waar bleek te zijn...

Acties:
  • 0 Henk 'm!

  • R-O-Y
  • Registratie: Juni 2006
  • Laatst online: 08-02 00:26

R-O-Y

Ik maak mijn zinnen nooit

multi gpu clusters zullen alleen beschikbaar zijn voor workstations tot maart 2007.

Dat is volgens mij wat er staat in die quote. Wat ik hieruit opmaak is dat het daarna (na maart 2007) ook voor andere dingen beschikbaar is. Hoe vat jij dat stuk tekst op dat je gequote hebt?

Youtube Download ubersnel.nl


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 21-04 14:26
http://www.dailytech.com/article.aspx?newsid=5524
The published results are very promising with AMD’s ATI R600 beating out NVIDIA’s GeForce 8800 GTX in most benchmarks. The performance delta varies from 8% up to 42% depending on the game benchmark.

When DailyTech contacted the site owner to get verification of the benchmarks, the owner replied that the benchmark screenshots could not be published due to origin-specific markers that would trace the card back to its source -- the author mentioned the card is part of the Microsoft Vista driver certification program.

If Level505's comments seem a little too pro-ATI, don't be too surprised. When asked if the site was affiliated in any way to ATI or AMD, the owner replied to DailyTech with the statement that "two staff members of ours are directly affiliated with AMD's business [development] division."
Dus wel betrouwbaar de cijfers, misschien zelfs aan de te hoge kant omdat ze gekleurde pet ophebben.

[ Voor 6% gewijzigd door The Source op 31-12-2006 02:36 ]


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

SpankmasterC schreef op zondag 31 december 2006 @ 00:43:
Het lijkt mij dat dit inhoudt dat Crossfire ook pas wordt ondersteund vanaf de versie met GDDR4.
Als we die review mogen geloven:
Most probably we will extend this article with two R600 cards around January 8th, 2007.
Zal de in januari te lanceren kaart ook gewoon crossfire ondersteunen
frankknopers schreef op zondag 31 december 2006 @ 00:11:
Ik vind die review ook niet helemaal zo sterk uitblinken in objectiviteit. Als de ATi wint zegt hij er steeds bij dat dit verschil met de nieuwere ATi drivers nog groter wordt. En elke keer dat nVidia de hoogste score noteert wordt dit nooit toegegeven, maar wordt weer het argument van drivers opgevist.
We have to note again that these results come from a pre-release driver which has not been optimized yet. Therefore, we expect to see a further increase in performance soon. nVidia will undoubtedly optimize their drivers over time as well, especially in combination with the upcoming Windows Vista.
Ik vind het wel meevallen met overpositieve comments. Ik kan de cijfers natuurlijk niet controleren, maar qua commentaar heb ik veel ergere reviews gezien de afgelopen jaren.

Acties:
  • 0 Henk 'm!

Anoniem: 107626

frankknopers schreef op zondag 31 december 2006 @ 00:11:
[..]
Denk aan foto's, informatie over de geluidsproductie, het stroomverbruik, de temperatuur, het aantal stroomconnectors, lengte van de kaart, type koeling (nanofoil? 8) )
Inderdaad. Een foto zegt meer dan duizend woorden.

* Anoniem: 107626 vraagt zich af wat voor scores we over een week voor de CF R600 kunnen verwachten van de inmiddels befaamde level505 :P

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Level505 heeft de review geupdate;
Update - Authenticity Of This Article

This article is authentic. Our R600 sample is an RTM sample used in the MS CERT process for driver validation (especially for Vista). We are not publishing pictures of the card itself right now, as the card contains major ID tags that we can not remove yet for source protection. We will add pictures of the card itself once we can remove these tags.



Update - Oblivion Benchmark is TSSAA/AAA quality


Due to upcoming questions regarding the frame rates on our Oblivion test: We ran the Oblivion Benchmark with activated TSSAA (Transparency Super Sampling Anti-Aliasing) on nVidia and AAA (Adaptive Anti-Aliasing) on the ATI cards because Oblivion profits substantially from these advanced AA modes.

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 13-04 09:06
R-O-Y schreef op zondag 31 december 2006 @ 01:42:
multi gpu clusters zullen alleen beschikbaar zijn voor workstations tot maart 2007.

Dat is volgens mij wat er staat in die quote. Wat ik hieruit opmaak is dat het daarna (na maart 2007) ook voor andere dingen beschikbaar is. Hoe vat jij dat stuk tekst op dat je gequote hebt?
Ik vond het erg toevallig dat multi GPU clusters vanaf maart beschikbaar zijn, terwijl de GDDR4 kaarten ook vanaf maart beschikbaar zijn. Kan gewoon toeval zijn, maar uberhaupt zou het rare praktijk zijn om CF niet meteen te ondersteunen. Er kan ook gewoon 4+ GPU crossfire bedoeld worden, in dat geval is het niet heel erg...
Maar mochten ze niet meteen CF ondersteunen, dan zou het toch ontzettend raar zijn.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

LOL.

Het ziet er naar uit dat mijn 8800GTX nog een tijdje in mijn PC blijft zitten. :)

Als de benchmarks kloppen valt het me toch "ietwat" tegen wat de de R600 laat zien. Had er iets meer van verwacht.

Wat nergens op slaat:

die site zegt bij die laatste benchmark van Anno 1701 dat de R600 wel 42% sneller is dan een 8800GTX... 24,2FPS voor de R600 versus 17FPS voor de GTX. :O Beide onspeelbaar. En natuurlijk zijn de procentuele verschillen groot als je resultaten krijgt met zulke lage FPS. 12FPS tegen 10FPS om een voorbeeldje te noemen immers al 20%. En dat terwijl er maar 2FPS verschil in zit. :O

[ Voor 66% gewijzigd door Format-C op 31-12-2006 11:33 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 16-04 16:35
Mr. Detonator schreef op zaterdag 30 december 2006 @ 16:52:
het volgende klinkt ook een beetje vreemd: 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle

dat zouden er dan toch 256 moeten zijn ipv 128 ?
Nee
Een normale 64 4way simd architectuur kan slechts 64 operaties uitvoeren (op 256 input kanalen), maar met co issue (of dual issue) wordt dat 128 operaties. Het komt erop neer dat deze architectuur klok voor klok altijd sneller is dan een 128 scalaire architectuur.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
oeLangOetan schreef op zondag 31 december 2006 @ 12:18:
[...]

Het komt erop neer dat deze architectuur klok voor klok altijd sneller is dan een 128 scalaire architectuur.
klopt...alleen ''jammer'' dat je ze niet klok voor klok kan vergelijken omdat ze allebei totaal verschillende snelheden gebruiken
The Source schreef op zondag 31 december 2006 @ 02:35:
http://www.dailytech.com/article.aspx?newsid=5524


[...]


Dus wel betrouwbaar de cijfers, misschien zelfs aan de te hoge kant omdat ze gekleurde pet ophebben.
dat wou ik al niet zeggen :X

de crossfire score's komen goed overeen met andere tech/review-sites, alleen de g80 score is weer een stuk lager dan op de meeste andere site's :/


dailytech heeft het artikel ook al overgenomen

[ Voor 44% gewijzigd door Mr. Detonator op 31-12-2006 13:13 ]


Acties:
  • 0 Henk 'm!

Anoniem: 149755

RappieRappie schreef op zondag 31 december 2006 @ 11:27:
Wat nergens op slaat:

die site zegt bij die laatste benchmark van Anno 1701 dat de R600 wel 42% sneller is dan een 8800GTX... 24,2FPS voor de R600 versus 17FPS voor de GTX. :O Beide onspeelbaar. En natuurlijk zijn de procentuele verschillen groot als je resultaten krijgt met zulke lage FPS. 12FPS tegen 10FPS om een voorbeeldje te noemen immers al 20%. En dat terwijl er maar 2FPS verschil in zit. :O
Dit is natuurlijk onzin.
Procenten zijn juist uitgevonden voor een objectieve vergelijking. Als deze 12fps t.o.v. 10fps in jouw voorbeeld wordt doorgeschaald naar lichtere instellingen, dan is de kans aanwezig dat dit resulteert in 60fps t.o.v. 50fps.
Verschillen aantonen met fps is grote onzin, fps zegt helemaal niks als er geen referentie is. 10 fps verschil bij 20fps is natuurlijk een veel groter verschil dan bij 100fps. Bij procenten is de refentie altijd meegenomen.

Een lompe geheugenbandbreedte van de R600 zorgt vooral voor minder bottlenecks bij de zware beweringen zoals rook etc. Dit resulteerd juist in een hoge minimale fps. Het zou namelijk kunnen dat de G80 een hoger gemiddelde haald doordat de max fps veel hoger is door de grotere fillrate.
De wijze waarmee deze review is gebracht is zeker wel in het voordeel van ATI, maar ondanks deze gekleurde pet ben ik wel met deze denkwijze eens.
Als je gamed is de minimale fps verantwoordelijk voor de gameplay, niet de max. fps. En daarom denk ik ook dat de G80, hoe snel deze ook mag zijn, niet dezelfde stabiele gameplay zal brengen als de R600 wanneer het echt zwaar gaat worden.

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Mr. Detonator schreef op zondag 31 december 2006 @ 12:32:
[...]


klopt...alleen ''jammer'' dat je ze niet klok voor klok kan vergelijken omdat ze allebei totaal verschillende snelheden gebruiken


[...]


dat wou ik al niet zeggen :X

de crossfire score's komen goed overeen met andere tech/review-sites, alleen de g80 score is weer een stuk lager dan op de meeste andere site's :/


dailytech heeft het artikel ook al overgenomen
De clocksnelheid zou 820Mhz moeten zijn.

Procesing Power is 105GSO/s
De R600 doet 128 shader operations per seconde.
105000000000 / 128 = 820312500 Hz = 820MHz.
Verder idd , omlaag geschroefde Nvidia scores.

Zoals ik al zei : De site is al down _/-\o_

[ Voor 4% gewijzigd door Anoniem: 162692 op 31-12-2006 14:04 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09:02
Nja ik wil zo i zo de GDDR 4 versie. Ik ga niet nu een kaart kopen waarvan ik weet dar er een maand later een versie is die sneller is. Ik vraag me zo i zo af of ze het wel gaan splitsen. Misschien is de GDDR3 versie met 900 MHz wel de XT en de GDDR4 versie met 1100/1200 MHz de XTX. Aaan de andere kant vraag ik me af of 1100 MHz GDDR4 wel veel nut heeft. MHz is wel hoger maar latency's ook dus prestatie winst is dan niet hoog. GDDR 4 kan tot 2000 MHz dus rond de 1400 MHz begint het echt interessant te worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 149755 schreef op zondag 31 december 2006 @ 13:50:
[...]

Dit is natuurlijk onzin.
Procenten zijn juist uitgevonden voor een objectieve vergelijking. Als deze 12fps t.o.v. 10fps in jouw voorbeeld wordt doorgeschaald naar lichtere instellingen, dan is de kans aanwezig dat dit resulteert in 60fps t.o.v. 50fps.
Verschillen aantonen met fps is grote onzin, fps zegt helemaal niks als er geen referentie is. 10 fps verschil bij 20fps is natuurlijk een veel groter verschil dan bij 100fps. Bij procenten is de refentie altijd meegenomen.

Een lompe geheugenbandbreedte van de R600 zorgt vooral voor minder bottlenecks bij de zware beweringen zoals rook etc. Dit resulteerd juist in een hoge minimale fps. Het zou namelijk kunnen dat de G80 een hoger gemiddelde haald doordat de max fps veel hoger is door de grotere fillrate.
De wijze waarmee deze review is gebracht is zeker wel in het voordeel van ATI, maar ondanks deze gekleurde pet ben ik wel met deze denkwijze eens.
Als je gamed is de minimale fps verantwoordelijk voor de gameplay, niet de max. fps. En daarom denk ik ook dat de G80, hoe snel deze ook mag zijn, niet dezelfde stabiele gameplay zal brengen als de R600 wanneer het echt zwaar gaat worden.
Lol.. een minimale fps tussen 10-25fps blijft toch hetzelfde.. het blijft kappen.
Dus zou de R600 al een heel stuk sneller moeten zijn , wat ik denk dat niet het geval is.
Net zoals de G80 sneller is dan de 7950GX2 zijn de minima's in bepaalde games toch praktisch dezelfde. En ik ga eerder voor een stabielere average fps die dan bv. @ 50fps ligt dan een minimale fps van 20 ipv 15 met een gemiddelde van 40fps. Gameplay wordt pas stabiel hoger dan 30fps.

Edit : Zoals ik al zei.. nvidia heeft nog belange niet de 'goede' drivers uit voor de G80 en dat is merkbaar in bepaalde games. En misschien is de core clock van de R600 bijna maxed out ? Zoals dit ook het geval was bij de R580 terwijl men met een G80 makkelijk 630/2000 kan halen met strakke GDDR3 timings. En dat resulteerd en een winst van 8-10fps in bijna alle games.

[ Voor 9% gewijzigd door Anoniem: 162692 op 31-12-2006 14:11 ]


Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Anoniem: 162692 schreef op zondag 31 december 2006 @ 14:03:
[...]


De clocksnelheid zou 820Mhz moeten zijn.

Procesing Power is 105GSO/s
De R600 doet 128 shader operations per seconde.
105000000000 / 128 = 820312500 Hz = 820MHz.
Verder idd , omlaag geschroefde Nvidia scores.

Zoals ik al zei : De site is al down _/-\o_
Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen... 8)7

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Saturnus schreef op zondag 31 december 2006 @ 14:08:
[...]

Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen... 8)7
Site werkt weer.. nevermind.

[ Voor 3% gewijzigd door Anoniem: 162692 op 31-12-2006 14:17 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Saturnus schreef op zondag 31 december 2006 @ 14:08:
[...]

Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen... 8)7
dat de site down is wil dus zeggen dat het allemaal verzonnen is ?

nog niet aan gedacht dat zo'n site onder druk van ati gesloten wordt ?

Acties:
  • 0 Henk 'm!

  • Evano
  • Registratie: April 2006
  • Laatst online: 22-04 22:09
Nevermind ja..

Dus 't is alsnog een lulverhaaltje..

Maar ik heb wel zoeits van, als het een geweldige kaart gaat worden, wacht ik er wel rustig op..
dus ik treur er niet om dat het fake was...

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Hij mag dan verdwijnen en weer verschijnen...ik twijfel nog steeds...
1. Geen plaatjes.
2. Nieuwe site. (tjah...als ik opeens een R600 heb zal er ook zo over gedacht worden...)

Maar stel het klopt...dan spreekt dit wel aan:
- Hardware Quad-DVI output support (Limited to workstation editions)
Het is dus op één of andere manier mogelijk 4 beeldschermen aan te sluiten?

Acties:
  • 0 Henk 'm!

Anoniem: 162692

blacktarantulaX schreef op zondag 31 december 2006 @ 14:18:
Nevermind ja..

Dus 't is alsnog een lulverhaaltje..

Maar ik heb wel zoeits van, als het een geweldige kaart gaat worden, wacht ik er wel rustig op..
dus ik treur er niet om dat het fake was...
Het is volgens mij geen fake.. en daar ben ik bijna 100% zeker van :)
Buiten dat de review een beetje rood gekleurd is.. 'is het realistisch.'
En met GDDR3 R600 vs. G80 GDDR3 zal het een mooie gelijke strijd gaan worden.
Wat ik enigsinds niet slecht vind.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Saturnus schreef op zondag 31 december 2006 @ 14:29:
Hij mag dan verdwijnen en weer verschijnen...ik twijfel nog steeds...
1. Geen plaatjes.
hij heeft de site gewoon effe ge-update :)

Update - Authenticity Of This Article

This article is authentic. Our R600 sample is an RTM sample used in the MS CERT process for driver validation (especially for Vista). We are not publishing pictures of the card itself right now, as the card contains major ID tags that we can not remove yet for source protection. We will add pictures of the card itself once we can remove these tags.



Update - Oblivion Benchmark is TSSAA/AAA quality


Due to upcoming questions regarding the frame rates on our Oblivion test: We ran the Oblivion Benchmark with activated TSSAA (Transparency Super Sampling Anti-Aliasing) on nVidia and AAA (Adaptive Anti-Aliasing) on the ATI cards because Oblivion profits substantially from these advanced AA modes.

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Raar hoor...even snel met paint erover en het probleem is weg...

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Saturnus schreef op zondag 31 december 2006 @ 18:33:
Raar hoor...even snel met paint erover en het probleem is weg...
je weet natuurlijk niet wat voor id-tags dat zijn he...of wel ?

misschien is de kaart wel helemaal niet herkenbaar als ze dat afdekken/shoppen.....of hebben ze bij iedere kaart de id-tags op een andere plaats zitten, zodat alsnog te achterhalen is waar het vandaan komt...bij ati zijn ze ook niet zo stom om 100 kaarten met allemaal dezelfde id-tags-op dezelfde plaats -uit te geven 8)7

iedereen probeert zich weer in allerlei bochten te wringen om de review maar zo fake mogelijk te laten lijken :X

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Nee, ik begreep inderdaad niet wat id-tags waren. :P

Maar als ze dat wel verspreiden krijgen ze problemen met ATI?

[ Voor 38% gewijzigd door Saturnus op 31-12-2006 18:49 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Saturnus schreef op zondag 31 december 2006 @ 18:48:
Nee, ik begreep inderdaad niet wat id-tags waren. :P
wat voor id-tags het exact zijn weet ik zelf natuurlijk ook niet, maar ik kan me er wel iets bij voorstellen...als ik ati was, maakte ik die tags in ieder geval zo dat ze altijd herkenbaar zijn, ook al worden ze afgedekt of weggeshopt...ook kunnen ze iets anders aan de kaart ''veranderd'' hebben, wat de reviewer natuurlijk niet weet, want hij heeft geen vergelijkingsmateriaal...als ik onder nda zou staan, en ik kreeg een r600 sample in handen, had ik het ook zo gedaan :)
Saturnus schreef op zondag 31 december 2006 @ 18:48:


Maar als ze dat wel verspreiden krijgen ze problemen met ATI?
lijkt mij wel ja...dan zullen ze in de toekomst nooit meer test-samples krijgen van ati....anders had je al lang reviews gezien van andere (grote) sites

zegt ''nda'' je niks ?

[ Voor 57% gewijzigd door Mr. Detonator op 31-12-2006 18:55 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Spannend allemaal he? ;)

En bedenk je dat dit een voorproefje was met een vroege sample met drivers die nog niet helemaal af waren... (nou ja, de drivers van de G80 zijn ook nog niet helemaal 'af', dus dat zegt ook nog niet zo veel).

En misschien is het allemaal wel fake. :+

[ Voor 11% gewijzigd door CJ op 31-12-2006 18:58 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
CJ schreef op zondag 31 december 2006 @ 18:54:
Spannend allemaal he? ;)

En bedenk je dat dit een voorproefje was met een vroege sample met drivers die nog niet helemaal af waren...
zeker denk ik daaraan....maar denk jij er dan ook aan dat de g80 resultaten uit deze review wat aan de lage kant zijn ?

dat compenseerd elkaar dan misschien wel weer :)

[edit] nou post ik effe niks meer...zie dat de laatste pagina zowat 50% uit posts van mij bestaat....dadelijk gaan ze nog denken dat ik een fanboy ben :+

[ Voor 17% gewijzigd door Mr. Detonator op 31-12-2006 19:10 ]


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Mr. Detonator schreef op zondag 31 december 2006 @ 19:00:
[...]


zeker denk ik daaraan....maar denk jij er dan ook aan dat de g80 resultaten uit deze review wat aan de lage kant zijn ?

dat compenseerd elkaar dan misschien wel weer :)

[edit] nou post ik effe niks meer...zie dat de laatste pagina zowat 50% uit posts van mij bestaat....dadelijk gaan ze nog denken dat ik een fanboy ben :+
Volgens mij had ATI gewoon niet verwacht dat de G80 zo good ging worden.
Meer kan ik niet over zeggen. Idd.. ik stop ook even met posten reply teveel :D
Ik ga er helemaal in op. Het wordt een R580 vs. G71 strijd.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09:02
Dit is gewoon CJ's 1 april grap van volgend jaar :P Net als die power point slides :P

Maar ff serieus ik weet nog niet wat ik er van moet denken. Zien er redelijk geloofwaardig uit qua score. Iets sneller dan de G80 wat te verwachten was. Sneller dan de X1950 XTX CF.

Echt is die 10% winst nooit genoeg om een G81 bij te houden. Ik had er eigenlijk wat meer van verwacht al helemaal omdat er een 512 Bit bus op zou zitten. Dan zou je denken dat de core die bandbrete dus ook echt nodig zou hebben. Gezien de prestatie was een 384 bit bus met GDDR 4 ook snel genoeg geweest. Aangezien de G80 ongeveer hetzelfde scoort. Er zijn wel uitzonderingen waar het verschil 40% was maar dat zou ook aan de drivers kunnen liggen. Ik had in ieder geval verwacht dat het hoger zou zijn meer richting minimaal 20% maar dat zou wel een groot gat zijn dus misschien niet realistisch om dat te denken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Astennu schreef op zondag 31 december 2006 @ 21:09:
Dit is gewoon CJ's 1 april grap van volgend jaar :P Net als die power point slides :P

Maar ff serieus ik weet nog niet wat ik er van moet denken. Zien er redelijk geloofwaardig uit qua score. Iets sneller dan de G80 wat te verwachten was. Sneller dan de X1950 XTX CF.

Echt is die 10% winst nooit genoeg om een G81 bij te houden. Ik had er eigenlijk wat meer van verwacht al helemaal omdat er een 512 Bit bus op zou zitten. Dan zou je denken dat de core die bandbrete dus ook echt nodig zou hebben. Gezien de prestatie was een 384 bit bus met GDDR 4 ook snel genoeg geweest. Aangezien de G80 ongeveer hetzelfde scoort. Er zijn wel uitzonderingen waar het verschil 40% was maar dat zou ook aan de drivers kunnen liggen. Ik had in ieder geval verwacht dat het hoger zou zijn meer richting minimaal 20% maar dat zou wel een groot gat zijn dus misschien niet realistisch om dat te denken.
De R600 is volgens mij zelf niet in staat een 8800GTX 630/2000 bij te houden >:)
Ik praktisch overal 10 frames meer , wat ~10% zal zijn of meer :D Zal in NFSU carbon van
50fps naar 60fps :D

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09:02
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Astennu schreef op zondag 31 december 2006 @ 21:38:
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.
Theoretisch is het allemaal heel mooi dat is waar.
Maar je moet het praktisch bekijken. De bandbreedte van een G80 wordt volgens mij nog helemaal niet gebruikt , voor een X1950XTX zal dat ook wel het geval zijn. Dus ik denk eigenlijk dat het nog een beetje te vroeg is om al direct naar 512-bit over te stappen. Tegen de tijd dat men echt een 512-Bit kaart zal nodig hebben zullen zowel G80 als R600 al lang voorbij gestreefd zijn. Zie ook de 9700Pro.Kwam vernieuw via de 9800XT. Ik denk dat we in dezelfde situatie zitten.
De eerste R600@GDDR3 en de 2de R600@GDDR4 al zal het verschil praktisch in games volgens mij nog kleiner zijn dan het verschil tussen een 1900XTX en 1950XTX.omdat we hier van hoog geclocked GDDR3 geheugen spreken met strakkere timings.
En de sample zou aan een core van 820Mhz moeten draaien volgens berekeningen..
Dus ik denk wel dat dit een final versie sample zal zijn wegens die hoge corespeed.

iedereen probeert zich weer in allerlei bochten te wringen om de review maar zo fake mogelijk te laten lijken
Yap , maar waarschijnlijk zal deze review wel kloppen net zoals de veraf geleakte review van de G80 ongeveer klopte.

[ Voor 7% gewijzigd door Anoniem: 162692 op 31-12-2006 21:52 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09:02
Nja je zag dat de R580 core al meer nodig had dan 800 MHz GDDR 3. Ze R600 core is zo i zo sneller dan de R580 core dus dan is 1400 MHz GDDR 4 met 256 Bit denk ik niet genoeg.

De 9800 XT was wel de laatste kaart met DDR 1 de X800 had GDDR 3 wat een veel hogere clockspeed had dan DDR 1 waardoor er niet meteen een grotere bus nodig was. De generatie er na de X1800 en X1900 hadden genoeg aan super snel GDDR 3 en later GDDR 4 dus de stap moet nu wel gemaakt worden voor de high end.

Ik verwacht dat Nvidia en ATi beide goed weten wat ze doen en dat ze die bus daar niets voor niets op zetten. Je gaat geen 512 Bit bus op een kaart zetten en die niet gebruiken. Dan lever je per kaart die je verkoopt gewoon veel geld in.

Misschien heeft de sample kaart wel een lage core clock als die 820 MHz zou kloppen zou de final nog wel eens die 1000 MHz kunnen hebben. En dan wordt het verhaal heel anders.

Misschien is dit wel de XT ? Dus een XT op 800 MHz met 900 MHz GDDR 3 en komt er nog een XTX met 1000 MHz en 1100/1200 MHz GDDR 4 ? Who knows.... Maar ik denk dat de stap van 800 naar 1000 wat te groot is. ATi laat het verschil meestal iets kleiner. Bij de X1800 was het wel 100 MHz tussen de XL en de XT. Maar bij de X1900 XT en XTX was het maar 25. Bij Nvidia is het verschil tussen de GTX en de GTS echter wel groot. Dus ik luit het niet helemaal uit.

[ Voor 12% gewijzigd door Astennu op 31-12-2006 22:10 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 149755

Astennu schreef op zondag 31 december 2006 @ 21:38:
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.
nVidia heeft zeker een hele goede kaart met de G80. Het is bijna twee keer zo snel als de R580. Daarom is het juist goed dat ATI een 512bit bus heeft. Als dit niet het geval was geweest had ATI op gebied van fillrate afgelegt. Daarom is de 512bit bus zo belangrijk om de concurentiepositie te handhaven.
Denk je werkelijk dat de R600 meer heeft aan een 384bit bus? De 384bit bus vind ik een rare beslissing. Je krijgt niet logische geheugenhoeveelheden en ik geloof niet dat game-developers iets gaan optimaliseren voor 640 of 768MB. Logisch zijn grenzen van 512Mb (oude generatie) of 1GB (nieuwe generatie R600 en wellicht G81). Daarom is de keuze voor een 512bit bus zo belangrijk.
De G80 loopt ondanks de leuke snelheid, het risico dat het tussen wal en schip gaat vallen met de ontwikkeling van toekomstige games die 1GB vragen. Natuurlijk zullen in de eerste jaar weinig games komen die zoveel geheugen vragen. Maar voor degene die langer dan 1 jaar wilt doen met een high-end product lijkt R600 meer future-proof te zijn.
Bij de Radeon 9700 was de 256Bit ook een goede beslissing. Of denk je dat een 9700pro met 96Mb en 192bit bandbreedte meer succes had gehad?

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Astennu schreef op zondag 31 december 2006 @ 22:09:
Nja je zag dat de R580 core al meer nodig had dan 800 MHz GDDR 3. Ze R600 core is zo i zo sneller dan de R580 core dus dan is 1400 MHz GDDR 4 met 256 Bit denk ik niet genoeg.

De 9800 XT was wel de laatste kaart met DDR 1 de X800 had GDDR 3 wat een veel hogere clockspeed had dan DDR 1 waardoor er niet meteen een grotere bus nodig was. De generatie er na de X1800 en X1900 hadden genoeg aan super snel GDDR 3 en later GDDR 4 dus de stap moet nu wel gemaakt worden voor de high end.

Ik verwacht dat Nvidia en ATi beide goed weten wat ze doen en dat ze die bus daar niets voor niets op zetten. Je gaat geen 512 Bit bus op een kaart zetten en die niet gebruiken. Dan lever je per kaart die je verkoopt gewoon veel geld in.

Misschien heeft de sample kaart wel een lage core clock als die 820 MHz zou kloppen zou de final nog wel eens die 1000 MHz kunnen hebben. En dan wordt het verhaal heel anders.

Misschien is dit wel de XT ? Dus een XT op 800 MHz met 900 MHz GDDR 3 en komt er nog een XTX met 1000 MHz en 1100/1200 MHz GDDR 4 ? Who knows.... Maar ik denk dat de stap van 800 naar 1000 wat te groot is. ATi laat het verschil meestal iets kleiner. Bij de X1800 was het wel 100 MHz tussen de XL en de XT. Maar bij de X1900 XT en XTX was het maar 25. Bij Nvidia is het verschil tussen de GTX en de GTS echter wel groot. Dus ik luit het niet helemaal uit.
Dit is gewoon de januari versie met GDDR3 die ze getest hebben. De (XTX volgens mij die in maart de XT zal worden als de R600 met GDDR4 komt.) Waarom ze er al een 512bit bus op gestoken hebben? Gewoon om tijd te winnen t.o.v van hun volgende release i.v.m nvidia. (Denk ik toch :+ )

Edit :
Bij games zijn ze ook niet van 512mb naar 1024mb gesprongen.
Er was ook eerst de stap naar 768MB RAM. Maar tegen de tijd dat dit een vereiste word
zitten we inderdaad wel al een hele tijd verder.

[ Voor 5% gewijzigd door Anoniem: 162692 op 31-12-2006 22:21 ]


Acties:
  • 0 Henk 'm!

  • Evano
  • Registratie: April 2006
  • Laatst online: 22-04 22:09
Wat ik mij afvraag over de R600 is het verbruik.
Het is een feit dat deze R600 nog beter dan de G80 zal presteren (ookal is het maar een beetje), maar zal het verbruik dan ook nóg hoger liggen?

Want voor mijn toekomstige systeem wilde ik een R600 nemen, en die voeden met mijn huidige OCZ GameXStream 600W.. maar als het verbruik nog hoger ligt dan van de G80, weet ik niet of die het wel aankan :S

Acties:
  • 0 Henk 'm!

Anoniem: 162692

blacktarantulaX schreef op zondag 31 december 2006 @ 22:29:
Wat ik mij afvraag over de R600 is het verbruik.
Het is een feit dat deze R600 nog beter dan de G80 zal presteren (ookal is het maar een beetje), maar zal het verbruik dan ook nóg hoger liggen?

Want voor mijn toekomstige systeem wilde ik een R600 nemen, en die voeden met mijn huidige OCZ GameXStream 600W.. maar als het verbruik nog hoger ligt dan van de G80, weet ik niet of die het wel aankan :S
De load van de R600 ligt tussen de 230-250Watt.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Anoniem: 162692 schreef op zondag 31 december 2006 @ 23:10:
[...]


De load van de R600 ligt tussen de 230-250Watt.
Bron? :?

The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?

Acties:
  • 0 Henk 'm!

  • __Deathscythe__
  • Registratie: December 2005
  • Laatst online: 07:04
Jejking schreef op maandag 01 januari 2007 @ 01:14:
[...]

Bron? :?

The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?
laten we nou maar eerst eens wachten tot dat er een review van het productie exemplaar en dan zien we vanzelf wel hoeveel het gebruik. :P

happy new year :)

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Jejking schreef op maandag 01 januari 2007 @ 01:14:
[...]

Bron? :?

The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?
staat op de site van de review..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09:02
Anoniem: 149755 schreef op zondag 31 december 2006 @ 22:17:
[...]

nVidia heeft zeker een hele goede kaart met de G80. Het is bijna twee keer zo snel als de R580. Daarom is het juist goed dat ATI een 512bit bus heeft. Als dit niet het geval was geweest had ATI op gebied van fillrate afgelegt. Daarom is de 512bit bus zo belangrijk om de concurentiepositie te handhaven.
Denk je werkelijk dat de R600 meer heeft aan een 384bit bus? De 384bit bus vind ik een rare beslissing. Je krijgt niet logische geheugenhoeveelheden en ik geloof niet dat game-developers iets gaan optimaliseren voor 640 of 768MB. Logisch zijn grenzen van 512Mb (oude generatie) of 1GB (nieuwe generatie R600 en wellicht G81). Daarom is de keuze voor een 512bit bus zo belangrijk.
De G80 loopt ondanks de leuke snelheid, het risico dat het tussen wal en schip gaat vallen met de ontwikkeling van toekomstige games die 1GB vragen. Natuurlijk zullen in de eerste jaar weinig games komen die zoveel geheugen vragen. Maar voor degene die langer dan 1 jaar wilt doen met een high-end product lijkt R600 meer future-proof te zijn.
Bij de Radeon 9700 was de 256Bit ook een goede beslissing. Of denk je dat een 9700pro met 96Mb en 192bit bandbreedte meer succes had gehad?
Dat zeg ik niet. Het is een goede keuze van ATi om voor de 512 Bit bus te gaan maar ik denk dat ze die dan ook willen benutten. De 9700 Pro had zijn 256 Bit bus aardig nodig met dat relatief trage DDR 1 op 325 MHz Het geheugen verhogen hielp heel erg voor de FPS. Ik neem aan dat ATi die 512 Bit bus heeft. En als deze review sample niet de final clocks loopt denk ik dat die 512 Bit bus prima gebruikt gaat worden bij de Final kaarten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Astennu schreef op maandag 01 januari 2007 @ 11:47:
[...]


Dat zeg ik niet. Het is een goede keuze van ATi om voor de 512 Bit bus te gaan maar ik denk dat ze die dan ook willen benutten. De 9700 Pro had zijn 256 Bit bus aardig nodig met dat relatief trage DDR 1 op 325 MHz Het geheugen verhogen hielp heel erg voor de FPS. Ik neem aan dat ATi die 512 Bit bus heeft. En als deze review sample niet de final clocks loopt denk ik dat die 512 Bit bus prima gebruikt gaat worden bij de Final kaarten.
Dat zullen we zien :) Al vind ik 820Mhz al een tamelijk hoger snelheid 8)
Veel hoger zal je volgens mij denk ik niet moeten op rekenen.

Edit : Na een paar andere reviews van een 8800Gtx te lezen zijn die scores volgens mij toch enorm
laag hoor :O ik zie in andere reviews dat de 8800GTX in BF2 en BF2142 tot wel bijna 50% sneller is op hogere AA modes dan 4xAA idem voor COD2 , oblivion zelfde geld voor FEAR daar is de G80 beter dan een crossfire setup wat uit die review niet blijkt. Maar wel rekening houdend dat dit op hogere AA modes is. Dus eigenlijk is dit een review waar je 'nog niet' veel uit kan besluiten omdat zowel de G80 , R600 , X1950XTX genoeg potentieel hebben voor 4xAA , mits goede drivers.

[ Voor 29% gewijzigd door Anoniem: 162692 op 01-01-2007 12:59 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Zou die buitengewoon goede R600-Olivion-benchmark het gevolg van 1GB ram op de card kunnen zijn?
Apringt er zo opvallend uit ... :?

Acties:
  • 0 Henk 'm!

Anoniem: 182822

Ik vind het allemaal maar koffiedik kijken en ik vind de scores voor de 8800 GTX ook laag. Ik wacht het wel af zodra de echte reviews komen. Een 8800 GTX heb je nu voor rond 550 en als Nv slim is dan laten ze de prijs naar rond de 500/520 euro dalen met de lanch van de R600. Mocht het dan blijken dat de R600 maar lichtelijk sneller is dan de 8800 GTX dan wordt het voor mij een kaart uit het groene kamp met mijn nieuwe pc build. Is het prestatieverschil groter als in de review genoemde 2 fps in sommige games dan wil ik daar rustig 70 euro meer voor betalen en dan wordt het een kaart uit het rode kamp.

Trouwens wel leuk om te lezen dat ATI er iets minder mooi uitziet in BF2 als NV, maar dat ATI weer straalt in HF2, dus ook CS source en laten CS source en BF2 nu net de games zijn die ik veel speel online. Afwachten dus want NV moet zeker de fogproblemen nog even oplossen met Valve in CS source. Het wordt dus spannend en als het een gelijke strijd is tussen de twee kampen, dan geef ik de voorkeur aan mijn bankrekening ;)

Acties:
  • 0 Henk 'm!

Anoniem: 107573

Yep, dat lijkt mij wel het slimste om te doen. De kaarten zullen elkaar dermate weinig ontlopen, dat het volgens mij puur aankomt op de games die je speelt in combinatie met het prijskaartje, om te bslissen welke kaart je volgende gaat worden.

Ik persoonlijk hoop echt dat Nvidia zorgt voor goede Vista drivers bij de launch...

Acties:
  • 0 Henk 'm!

Anoniem: 182822

Anoniem: 107573 schreef op maandag 01 januari 2007 @ 13:56:

Ik persoonlijk hoop echt dat Nvidia zorgt voor goede Vista drivers bij de launch...
Ja ik ook dat is toch wel een belangrijk punt en natuurlijk hoe snel Valve Cs source op de rit heeft met NV. Je kan wel blijven wachten, maar dan blijf je bezig eens moet je toch een keer de knoop doorhakken. Als ATI goede stabiele drivers heeft in deze twee games en Nv nog steeds met de fogbug zit dan weegt dat weer mee in ATI zijn voordeel. Vista drivers zijn zeker belangrijk, aangezien ik gelijk naar Vista toe ga.

Acties:
  • 0 Henk 'm!

  • rickiii
  • Registratie: Maart 2000
  • Laatst online: 13-12-2024
Is het trouwens bekend wanneer ATI eventuele ondersteuning voor de GLX_EXT_texture_from_pixmap extentie in Linux gaat leveren? Ik wil eigenlijk niet met een extra X-server (XGL) werken in Linux, maar als ik nog 2 maanden moet wachten, dan ga ik het toch maar doen.

Ik denk altijd heel goed na voordat ik iets stoms zeg


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 16-04 16:35
rickiii schreef op maandag 01 januari 2007 @ 16:02:
Is het trouwens bekend wanneer ATI eventuele ondersteuning voor de GLX_EXT_texture_from_pixmap extentie in Linux gaat leveren? Ik wil eigenlijk niet met een extra X-server (XGL) werken in Linux, maar als ik nog 2 maanden moet wachten, dan ga ik het toch maar doen.
geen idee, ik werk al 3 maanden met beryl op ubuntu edgy en het werkt fatsoenlijk (enkel soms problemen met wat flikkerende dropshadows), niet alle omgevingen gebruiken glx_ext_tfp trouwens.
Ik zou niet wachten en gewoon xgl installeren met een extra xserver, het zou me niet verbazen dat het nog een half jaar duurt voordat er support is voor glx_ext_tfp, het zal niet echt een prioriteit zijn als ze snel de R600 op linux willen ondersteunen.

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 21-04 14:26
http://downloads.guru3d.com/download.php?det=1544
ATI Catalyst 7.1 Beta Window Vista

Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 20-04 18:01

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Als ik zo lees dat je een ASUS logo'd driver krijgt, dan denk ik aan een megeleverde driver van een nieuwe grafische kaart ofzo (R600 anyone? ;))

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 04-04 17:52
Ik heb hem geinstalleerd en ik heb er dikke problemen mee gehad.. Ik had er geen zin meer in dus heb XP der maar weer op gezet. Zijn hier al meer berichten over of ben ik de enigste?

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Anoniem: 182822 schreef op maandag 01 januari 2007 @ 13:41:
ik vind de scores voor de 8800 GTX ook laag.
Zolang je geen timedemos tot je beschikking hebt is het moeilijk oordelen. Maar als ik
naar hun 3DMark05 score kijk lijken ze inderdaad nogal aan de conservatieve kant te zijn wat betreft de 8800GTX.

Afbeeldingslocatie: http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark05-16001200.jpg

Mijn systeem, met 'slechts' een Opteron@2,7 (hun systeem C2E@3,2Ghz.!!!) en de 8800GTX niet overgeklokt;

Afbeeldingslocatie: http://img412.imageshack.us/img412/203/05ny0.jpg

Het zou mij trouwens niets verbazen als ik met hun processor over de R600 score heen zou gaan.


Btw, het artikel is weer geupdate;
Update - Site, Upcoming 2560×1600 Benchmark, Pictures


Happy new year! We are sorry that the site slowed down a bit. However, here are the great news: tomorrow we will be testing 2560×1600, and we will be able to provide limited pictures of the card approx. on January 5th/6th already. For everyone to understand why we cannot just “black out” the ID Tags: The major tag is a fine punched hologram foil wrap which cannot be taken off because it is glued onto the front metal around the DVI ports. Taking off the fan is impossible without removing it. We will definitely keep you updated, and appreciate all comments we have received so far.
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 38733 schreef op dinsdag 02 januari 2007 @ 01:34:
[...]


Zolang je geen timedemos tot je beschikking hebt is het moeilijk oordelen. Maar als ik
naar hun 3DMark05 score kijk lijken ze inderdaad nogal aan de conservatieve kant te zijn wat betreft de 8800GTX.

[afbeelding]

Mijn systeem, met 'slechts' een Opteron@2,7 (hun systeem C2E@3,2Ghz.!!!) en de 8800GTX niet overgeklokt;

[afbeelding]

Het zou mij trouwens niets verbazen als ik met hun processor over de R600 score heen zou gaan.


Btw, het artikel is weer geupdate;


[...]


http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Ik heb een Intel Core 2 Duo E6600 @ 2.7Ghz en een 8800GTX 630/2000
Zal zo meteen even een screenie plaatsen.

Al een voorwoord.. Het ligt rond de 13.000 Punten.
Ik zal eentje posten van 3Dmark05 en 06 om te bekijken hoe laag die scores zijn voor de 8800GTX

Niet Oc'ed haal ik 13500Punten , Oc'ed haal ik dus 13100Punten , cpu bottleneck dus :(

[ Voor 16% gewijzigd door Anoniem: 162692 op 02-01-2007 02:28 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 01:54:
[...]


Ik heb een Intel Core 2 Duo E6600 @ 2.7Ghz en een 8800GTX 630/2000
Zal zo meteen even een screenie plaatsen.
Doe eens je 8800 zonder overklok, da's interessanter imo.

Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/

[ Voor 12% gewijzigd door Anoniem: 38733 op 02-01-2007 02:10 ]


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 38733 schreef op dinsdag 02 januari 2007 @ 02:07:
[...]


Doe eens je 8800 zonder overklok, da's interessanter imo.

Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
Weet je wat het verschil is , @ computerbase is alles getest op een FX60 @ 2.6Ghz.
Dus de 8800GTX scores zijn daarom veel lager. Enkel al door de Q6700@3.2Ghz vs. X6800 stock. is een onbegonnen strijd , dus al ik het zo opnieuw bekijk.. is die R600 helemaal niet zo bijzonder
en helemaal praktisch 0,0% zelf beter , de R600 zou slechter zijn als je een 8800GTX @ Intel Q6700@3.2Ghz zou zetten. Daarom dat dit minima's ook zo verschillende zijn die worden grotendeels door de cpu bepaald :)
Anoniem: 38733 schreef op dinsdag 02 januari 2007 @ 02:07:
[...]


Doe eens je 8800 zonder overklok, da's interessanter imo.

Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
Momenteel is 97.44 inderdaad een betere driver.

De 8800GTX word gebottlenecked terwijl de R600 dat niet meer is.
Daardoor heeft de 8800GTX hier ook lagere scores. Bovendien dit is



3Dmark06 1600*1200 4xAA 16xAF

Afbeeldingslocatie: http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark06-16001200.jpg

Afbeeldingslocatie: http://i114.photobucket.com/albums/n241/X-z0re/untitled-4.jpg


Afbeeldingslocatie: http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark05-16001200.jpg

3Dmark05 1600*1200 4xAA 16xAF


Afbeeldingslocatie: http://i114.photobucket.com/albums/n241/X-z0re/untitled-3.jpg

Hier is vooral mijn cpu de bottleneck , aangezien als ik OC dat mijn score lager is als ik de cpu niet verder OC.

Edit : Verder heb ik de review @ computerbase gelezen en ik vraag me echt af hoe het komt dat bij
die jongen het verschil tussen een X6800 en FX60 beiden stock maar 500 Punten verschil heeft in 3Dmark05 en 200 punten verschil in 3Dmark06. Terwijl als ik vergelijk met mijn vriend Wizkristof.
die een X2 @ 2.7Ghz heeft het verschil tussen 1000-1500 is in 3Dmark06 en soms wel tot 2000-3000 is in 3Dmark05

[ Voor 24% gewijzigd door Anoniem: 162692 op 02-01-2007 02:50 ]


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 01:54:
Niet Oc'ed haal ik 13500Punten , Oc'ed haal ik dus 13100Punten , cpu bottleneck dus :(
Waarom denk je dat je cpu de bottleneck is als je score lager wordt? De enige reden die ik kan bedenken dat je score lager zou worden met een langzamere videokaart is dat de kaart te warm wordt op de hogere snelheid en gaat throttlen (oftewel langzamer gaan draaien om de warmte te beperken)

Je kan trouwens beter naar de sm2 en sm3 scores kijken voor de snelheid van de videokaart (en of de cpu de bottleneck is) Aangezien de cpu score daar niet overdreven in mee wordt geteld. De 3dmark06 score is wat mij betreft vrij nutteloos omdat de onderdelen van de pc voor de meeste 3d programma's niet in de goede verhouding worden getest.

Acties:
  • 0 Henk 'm!

Anoniem: 162692

m277755 schreef op dinsdag 02 januari 2007 @ 04:52:
[...]


Waarom denk je dat je cpu de bottleneck is als je score lager wordt? De enige reden die ik kan bedenken dat je score lager zou worden met een langzamere videokaart is dat de kaart te warm wordt op de hogere snelheid en gaat throttlen (oftewel langzamer gaan draaien om de warmte te beperken)

Je kan trouwens beter naar de sm2 en sm3 scores kijken voor de snelheid van de videokaart (en of de cpu de bottleneck is) Aangezien de cpu score daar niet overdreven in mee wordt geteld. De 3dmark06 score is wat mij betreft vrij nutteloos omdat de onderdelen van de pc voor de meeste 3d programma's niet in de goede verhouding worden getest.
Hier is vooral mijn cpu de bottleneck , aangezien als ik OC dat mijn score lager is als ik de cpu niet verder OC.
Je moet eerst even lezen hé dan zie je wel wat ik zeg..
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 12:48:
[...]


[...]

Je moet eerst even lezen hé dan zie je wel wat ik zeg..
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Wat heb je dan konkreet aan verschil alleen in SM 2.0 en 3.0?

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Joepi schreef op dinsdag 02 januari 2007 @ 13:13:
[...]


Wat heb je dan konkreet aan verschil alleen in SM 2.0 en 3.0?
Beiden een verschil van rond de 100 punten.. met een OC van 300Mhz :D op de CPU?
Mja daar , wat vooral een verschil is , mijn CPU heeft maar een score van 2300
en een Intel Q6700 @ 3.2 heeft een score van rond 6000 Punten.
En dat verschil alleen heeft een verschil van 1000Punten in de 3Dmark06 en 3Dmark05 zelf meer.

[ Voor 33% gewijzigd door Anoniem: 162692 op 02-01-2007 13:23 ]


Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 13:16:
[...]
Beiden een verschil van rond de 100 punten.. met een OC van 300Mhz :D op de CPU?
Mja daar , wat vooral een verschil is , mijn CPU heeft maar een score van 2300
en een Intel Q6700 @ 3.2 heeft een score van rond 6000 Punten.
En dat verschil alleen heeft een verschil van 1000Punten in de 3Dmark06 en 3Dmark05 zelf meer.
Ik ben van mening dat je toch totaal de boot gemist hebt. Daar je bij 1600x1200 en hogere resoluties met AA en veel eye candy toch echt een minimale CPU bottleneck zult hebben. Waarschijnlijk is deze er zelfs helemaal niet. En oke.. leuk dat 3DMark06 ook 4 cores ondersteund bij de CPU test, waar dus ook die gigantische score aan te wijten is, maar de vraag is natuurlijk: Zie je dat terug in de geteste games? Waarschijnlijk niet en ook hier zal weer gelden dat een AMD of intel CPU vergelijkbaar met een FX60 of hoger geen bottleneck vormt in de games. Mede omdat bijna alle geteste games géén multi core support hebben. Dus een quad core óf een single core, het zal allemaal dicht bij elkaar zitten..

Tegenwoordig grijpen de mensen toch wel erg snel naar het modewoord CPU-bottleneck IMO .. ;)

Verder las ik het volgende:
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Dit is natuurlijk te wijten aan de door 3dmark meegenomen CPU test in het gemiddelde van de score :) Niet door de snellere GPU door de toegenomen CPU-kracht.

[ Voor 43% gewijzigd door PassieWassie op 02-01-2007 14:28 ]

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

Anoniem: 162692

PassieWassie schreef op dinsdag 02 januari 2007 @ 14:21:
[...]


Ik ben van mening dat je toch totaal de boot gemist hebt. Daar je bij 1600x1200 en hogere resoluties met AA en veel eye candy toch echt een minimale CPU bottleneck zult hebben. Waarschijnlijk is deze er zelfs helemaal niet.
Lol.. je moet lezen.. 1600*1200 4AA 16AF @ 2.7Ghz = 7700 Punten.
En 1600*1200 4AA 16AF @ 3.0Ghz = 8200 Punten.

Er is dus wel degenlijk een verschil. Wat ik hiermee wil zeggen is als je een Q6700 gebruikt
dat je eindscore zeer veel afhangt van je proccesor dat gebruikt wordt ,zoals je weet is 3dmark05 en 06 zeer afhankelijk van de gebruikte CPU. Het is een soort van optel som van alle punten en dan wordt het door iets gedeeld. Als je nu bv. 3500+3200+ CPU = 6000 ga je uiteraard veel meer halen dan je 3500+3200+ CPU = 2300 bij elkaar gaat optellen.. dat probeer ik te zeggen , ik weet uiterraard ook wel dat de punten van de VGA praktisch gelijk blijven. Maar door het verschil tussen de CPU's heb je een verschil. Daardoor dat dit een oneerlijke benchmarks is aangezien de 8800GTX gestest is met een X6800 die belange niet een Q6700 is. Begrijp je wat ik bedoel?
Als je wat benchmarked weet je dat zelf ook wel.

Edit : Ik heb ook je Edit gelezen. Ik snap je , maar je moet wel niet vergeten dat de minimum fps in gamez bijna 100% bepaald worden door de gebruikte cpu. De average zullen bijna dezelfde zijn.
En een quad core kan wel.. veel makkelijker een strategie rijke omgeving renderen dan een dual core. Dus daardoor is er ook een groot verschil tussen de minima's tussen de R600 en de 8800GTX.

[ Voor 13% gewijzigd door Anoniem: 162692 op 02-01-2007 14:28 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 12:48:
[...]


Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
een cpu-bottleneck bestaat niet naar mijn mening :)

als je voorgenoemde cpu op 3.4 zet ipv 3.2, haal je een hogere score..zo simpel is het

je zou eerder kunnen spreken van een vga-bottleneck als je score niet omhoog gaat zodra je je cpu overklokt...

Als je zo redeneert, is er dus áltijd een bottleneck.... gpu of cpu

Acties:
  • 0 Henk 'm!

Anoniem: 8819

er zit zeker een verschil

Ik kwam met een sli 7900gt's op 7800 3dmark2006 met een amd x2 cpu op 2,3g
Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set nog niet optimaal presteerde.

Acties:
  • 0 Henk 'm!

Anoniem: 170063

Waar ik best wel benieuwt naar ben, is of de R600 ook physics kan doen net zoals de G80.

Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Anoniem: 8819 schreef op dinsdag 02 januari 2007 @ 16:28:
er zit zeker een verschil

Ik kwam met een sli 7900gt's op 7800 3dmark2006 met een amd x2 cpu op 2,3g
Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set CPU ;) nog niet optimaal presteerde.
Jullie snappen het blijkbaar niet.. de CPU score wordt meegenomen in de score! Dus GPU 1000 + CPU 1000 = 2000. Met een overgeklokte CPU is dit bijvoorbeeld : GPU 1000 + CPU 1200 = 2200 punten. Wat dus niet komt door de GPU die ineens sneller is geworden ! Misschien dat de VGA's iets sneller kunnen op bepaalde momenten door de snellere CPU, maar hoofdzakelijk is de hogere score te wijten aan de toegenomen CPU-score in het gemiddelde.

[ Voor 12% gewijzigd door PassieWassie op 02-01-2007 16:51 ]

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Update - Server Migration

We are currently migrating our servers to better serve you. Please excuse the short downtime we had today. We will update our article in about 10 hours with the R600 Ultra-HD resolution test and advanced information regarding power consumption and heat dissipation.
Zeker spannend :9

Wie gaat er wakker blijven vannacht? ;)

[ Voor 6% gewijzigd door Anoniem: 107626 op 02-01-2007 16:38 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 170063 schreef op dinsdag 02 januari 2007 @ 16:32:
Waar ik best wel benieuwt naar ben, is of de R600 ook physics kan doen net zoals de G80.
En waarom zou de R600 dat niet kunnen doen? De hele X1K serie kan al physics berekenen...

De R580 kan al physics doen en wel 9x zo snel als een G71. Zelfs een X1600XT is al 4x sneller in physicsberekeningen dan een 7900GTX. Dus met de physicsberekeningen zit het wel goed.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 102844

sjonge jonge is het weer zover met de nVidia fanboys dat ze weer in het ATi topic kom spammen met hun 8800''tjes, voor het wedstrijdje mijn e-penis is groter dan die van jouw.. :/

dat jullie 3dmark geil zijn zegt nog niks definitiefs over de prestaties van een r600 ten opzicht van de 8800 en als ik zie dat jullie nog het meeste druk maken om de CPU dan de GPU zegt ook wel weer genoeg..

het is informatief dat je het even duidelijk maakt, maar om er steeds weer voordurend er op te wijzen begint ook een beetje saai en herhaaldelijk te worden...

dus als je graag wil patsen met je 3dmark score doe dat dan in het desbetreffende topic en niet in een nieuwe topic waar mensen liever op de hoogte gehouden willen worden van de vooruitgangen van ATi dan de vooruitgangen van 3dmark score's...

tis nu gewoon wachten op een uiteindelijk benchmark met gelijke systemen en dan zullen we zien wie de grote winnaar is...

[ Voor 14% gewijzigd door Anoniem: 102844 op 02-01-2007 16:56 ]


Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Anoniem: 102844 schreef op dinsdag 02 januari 2007 @ 16:50:
sjonge jonge is het weer zover met de nVidia fanboys dat ze weer in het ATi topic kom spammen met hun 8800''tjes, voor het wedstrijdje mijn e-penis is groter dan die van jouw.. :/
Ik denk dat ze beginnen te twijfelen aan hun wel erg dure investering ;)

@ Hieronder :O

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

Anoniem: 162692

PassieWassie schreef op dinsdag 02 januari 2007 @ 16:35:
[...]


Jullie snappen het blijkbaar niet.. de CPU score wordt meegenomen in de score! Dus GPU 1000 + CPU 1000 = 2000. Met een overgeklokte CPU is dit bijvoorbeeld : GPU 1000 + CPU 1200 = 2200 punten. Wat dus niet komt door de GPU die ineens sneller is geworden ! Misschien dat de VGA's iets sneller kunnen op bepaalde momenten door de snellere CPU, maar hoofdzakelijk is de hogere score te wijten aan de toegenomen CPU-score in het gemiddelde.
Ja.. dat bedoel ik dus. :)
Nog eens.. minimum fps zijn te wijten aan de CPU voor een groot deel.
PassieWassie schreef op dinsdag 02 januari 2007 @ 16:52:
[...]


Ik denk dat ze beginnen te twijfelen aan hun wel erg dure investering ;)
Ik niet :) Verder , dit is inderdaad een A-T-I topic. Ik wou alleen die foute benchmarks even recht zetten. En dat het een oneerlijk strijd is. Verder is mijn mening als dat de R600 is dat die tekort zal komen om een 8800GTX te verslaan. Het zal waarschijnlijk evenaren worden. Het is wel een feit dat ATI in de 3 extra maanden.. niks heeft gedaan om de kaart te verbeteren t.o.v de 8800GTX en ook het feit dat de 8800GTX al naar 550,- euro dropt en da R600 rond de 650,- zal gaan kosten. En 100 euro verschil voor een bijna evengoede kaart.. lijkt me teveel. En nu blijken de rollen omgekeerd ?
Nvidia heeft het eens voor elkaar gekregen IQ + Performance , misschien beter dan de R600

Edit : Deze reactie is op basis van de review als die zou blijken waar te zijn.
Is de R600 echt beter ,en die 100 euro meer waard , dan moet je die kopen natuurlijk.

[ Voor 51% gewijzigd door Anoniem: 162692 op 02-01-2007 17:04 ]


Acties:
  • 0 Henk 'm!

Anoniem: 170063

En waarom zou de R600 dat niet kunnen doen? De hele X1K serie kan al physics berekenen...

De R580 kan al physics doen en wel 9x zo snel als een G71. Zelfs een X1600XT is al 4x sneller in physicsberekeningen dan een 7900GTX. Dus met de physicsberekeningen zit het wel goed.
Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Anoniem: 170063 schreef op dinsdag 02 januari 2007 @ 17:01:
[...]


Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?
Ja , die G80 kan games renderen en op hetzelfde moment physics berekenen zonder performance verlies. Wat bij ATI nog niet kan. Bij ATI kan je door in crossfire een kaart gebruiken voor Physics en een kaart voor performance.

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 11:22
Je ziet nu ook gebeuren wat ik al een paar maanden geleden zag aankomen.....

ATI: Oké we gaan op ongeveer +10% snelheid zitten van G80...... (Hoor ik daar tegenvallen roepen??)
NVIDIA: (nu) Hoeveel ruimte hebben we nu nog?? We streven op +20% t.o.v. G80 met de G81...en we gaan overclocken toestaan..... dat zal ze krijgen :9~
ATI: (straks). Zoals verwacht zijn ze nu sneller...... Oke jongens handrem mag eraf. Ga in ieder geval naar +25% t.o.v. 1e release. Houdt in ieder geval wat reserve.... je weet het nooit daar....

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 170063 schreef op dinsdag 02 januari 2007 @ 17:01:
[...]


Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?
NEE. Dat is een grote misvatting. Er zit geen apart gedeelte voor physics in. De G80 gebruikt gewoon een gedeelte van de 128 shaderengines om de physics te berekenen.

Huidige X1900 kaarten zouden in staat moeten zijn om tegelijkertijd physics en graphics te berekenen, maar zoals het er naar uit ziet heeft AMD bij deze serie kaarten liever dat je een aparte dedicated physics-GPU gebruikt zoals bv een X1600.

CrossFire Physics vereist dus niet dat je twee gelijke kaarten moet gebruiken. Een X1900 voor graphics en een X1600 voor physics zou prima moeten werken. Ook R600 zal op dezelfde manier met physics om gaan, maar doordat deze enorm veel krachtige shaderengines heeft zullen zowel physics als graphics op 1 kaart kunnen gebeuren net zoals bij G80. De voorkeur blijft echter een aparte physics kaart, aangezien dit in de meeste gevallen toch sneller zal blijken te zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 8819 schreef op dinsdag 02 januari 2007 @ 16:28:
er zit zeker een verschil


Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set nog niet optimaal presteerde.
draai de zaken nou eens om....en klok je kaart over..

dan zul je zien dat je óók een hogere score haalt.. hoe kan dat dan met een ''cpu-botleneck'' ?!

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
winwiz schreef op dinsdag 02 januari 2007 @ 17:08:
Je ziet nu ook gebeuren wat ik al een paar maanden geleden zag aankomen.....

ATI: Oké we gaan op ongeveer +10% snelheid zitten van G80...... (Hoor ik daar tegenvallen roepen??)
Denk je dat ze maar een pot-meter open hoeven te draaien op de r600 ofzo ?

als dat zo was, haden ze de kaart al máanden geleden uitgebracht met het knopje op 100% 8)7

nog niet aan gedacht dat ze er de laatse maanden álles aan hebben gedaan om die 10% winst te krijgen ?

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Mr. Detonator schreef op dinsdag 02 januari 2007 @ 17:15:
[...]


Denk je dat ze maar een pot-meter open hoeven te draaien op de r600 ofzo ?

als dat zo was, haden ze de kaart al máanden geleden uitgebracht met het knopje op 100% 8)7

nog niet aan gedacht dat ze er de laatse maanden álles aan hebben gedaan om die 10% winst te krijgen ?
Als ze die 10% gaan krijgen als nvidia hun nieuwe driver uitbrengt die veel improvements zou moeten meebrengen. En inderdaad.. de XXX versies zijn toegestaan.. en die zijn toch wel een pak sneller hoor , met 10% kom je er niet , meer.

Acties:
  • 0 Henk 'm!

Anoniem: 162692

CJ schreef op dinsdag 02 januari 2007 @ 17:09:
[...]


NEE. Dat is een grote misvatting. Er zit geen apart gedeelte voor physics in. De G80 gebruikt gewoon een gedeelte van de 128 shaderengines om de physics te berekenen.

Huidige X1900 kaarten zouden in staat moeten zijn om tegelijkertijd physics en graphics te berekenen, maar zoals het er naar uit ziet heeft AMD bij deze serie kaarten liever dat je een aparte dedicated physics-GPU gebruikt zoals bv een X1600.

CrossFire Physics vereist dus niet dat je twee gelijke kaarten moet gebruiken. Een X1900 voor graphics en een X1600 voor physics zou prima moeten werken. Ook R600 zal op dezelfde manier met physics om gaan, maar doordat deze enorm veel krachtige shaderengines heeft zullen zowel physics als graphics op 1 kaart kunnen gebeuren net zoals bij G80. De voorkeur blijft echter een aparte physics kaart, aangezien dit in de meeste gevallen toch sneller zal blijken te zijn.
Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor.. en die berekend normaal alles onafh. zonder performance verlies.
Dat is hetgeen ik afleid.. uit wat Nvidia zegt.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 17:29:
[...]


Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor..
niet helemaal....De Quantum-engine zal gebruik maken van de shaders van de G80-gpu om natuurkundige berekeningen te versnellen.

bron

zelf denk ik eerlijk gezegd niet dat dat hele physics-gebeuren een succes wordt...zowel bij ati als bij nvidia

[ Voor 11% gewijzigd door Mr. Detonator op 02-01-2007 18:07 ]


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 12:20

Apoca

Array Technology Industry

En per wanneer zat dat nu ook alweer in de drivers die physics?

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Apoca schreef op dinsdag 02 januari 2007 @ 18:05:
En per wanneer zat dat nu ook alweer in de drivers die physics?
het spel moet het natuurlijk ook ondersteunen...alleen met een driver kom je er niet

Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 12:20

Apoca

Array Technology Industry

Ja dat snap ik ook wel. Maar het is toch nog steeds niet aanwezig in de drivers of wel?

Spellen die bv de Unreal Engine 3 geheel gebruiken, zouden hier dus dan mee uit de voeten kunnen.

[ Voor 36% gewijzigd door Apoca op 02-01-2007 18:12 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Apoca schreef op dinsdag 02 januari 2007 @ 18:09:
Ja dat snap ik ook wel. Maar het is toch nog steeds niet aanwezig in de drivers of wel?
[offtopic]
volgens mij niet nee...maar met welk spel wou je het dan gaan gebruiken ?
Apoca schreef op dinsdag 02 januari 2007 @ 18:09:
Spellen die bv de Unreal Engine 3 geheel gebruiken, zouden hier dus dan mee uit de voeten kunnen.
heb je ook ooit benchmarks gezien mét en zónder physics, want volgens mij scheelde dat niet zo veel/niks ?

je kan beter dat geld wat je aan de tweede physics/video kaart besteed, aan een wat duurdere videokaart uitgeven...heb je naar mijn idee meer winst

[ Voor 45% gewijzigd door Mr. Detonator op 02-01-2007 18:18 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 162692 schreef op dinsdag 02 januari 2007 @ 17:29:
[...]


Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor.. en die berekend normaal alles onafh. zonder performance verlies.
Dat is hetgeen ik afleid.. uit wat Nvidia zegt.
De marketingmachine van nVidia werkt weer goed... werkte ATIs marketingmachine maar zo goed. :P

Zoals Mr. Detonator ook al zei... het zijn de shaders die het werk doen. nVidia heeft er maar gewoon een leuk naampje aan vast geplakt. Niet meteen alles geloven wat de marketingmachine je wil aansmeren... ;)

Drivers die physics activeren zal ATI releasen wanneer de eerste games uit komen die ook daadwerkelijk Havok Physics ondersteunen. De eersten zijn Hellgate: London en Alone In The Dark 4. Daarnaast zullen alle toekomstige Blizzard games gebruik maken van Havok Physics. Havok is gewoon enorm ingeburgerd in de game-scene en voor vele developers is het dus een fluitje van een cent om over te stappen op Havok Physics die gebruik maakt van de GPU. Vandaar dat ik verwacht dat de GPU physics van zowel ATI als nVidia meer succes zullen hebben dan een PhysX van Ageaia.

Overigens zijn de physicsdrivers van ATI al klaar. Het is dus alleen wachten op de games. Wanneer die uit zijn zal physics gewoon in de Catalyst drivers zitten. Er komt dus geen aparte physicsdriver uit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 12:20

Apoca

Array Technology Industry

Mr. Detonator schreef op dinsdag 02 januari 2007 @ 18:11:
[...]
Je kan beter dat geld wat je aan de tweede physics/video kaart besteed, aan een wat duurdere videokaart uitgeven...heb je naar mijn idee meer winst
Ja dat is natuurlijk ook weer waar, maar ja ik ga pas na de 2e generatie DX10 kaartjes weer over op een nieuwe ATi GPU. Tot die tijd kan die 100 euro voor een X1600 kaartje der ook wel vanaf.

Ps. Physic met dus een extra X1600 werkt ook op non crossfire mobo's he. Kan dat niet duidelijk uit de informatie die hier rondom te krijgen is opmaken.

[ Voor 60% gewijzigd door Apoca op 02-01-2007 19:04 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 21-04 14:26
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.

en RS690 en RS690c samplen nu, en MP in februari, echter door productie problemen? is er pas volume productie mogelijk in H2. Deze chip is sneller dan de C61 van nVidia, maar tegen Q3 zal nVIdia hier voor AM2+ weer een opvolger van introduceren, dus vraag mij af wat het probleem is waardoor volume niet mogelijk is.

[ Voor 37% gewijzigd door The Source op 02-01-2007 18:41 ]


Acties:
  • 0 Henk 'm!

Anoniem: 162692

The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
Ik hoop dan dat de GDDR4 verlengt is tot Q2 2007 anders zien we volgens mij geen daglicht van ee
R600 voor Juni :?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.

en RS690 en RS690c samplen nu, en MP in februari, echter door productie problemen? is er pas volume productie mogelijk in H2. Deze chip is sneller dan de C61 van nVidia, maar tegen Q3 zal nVIdia hier voor AM2+ weer een opvolger van introduceren, dus vraag mij af wat het probleem is waardoor volume niet mogelijk is.
Misschien dit: http://www.theinquirer.net/default.aspx?article=36663 ?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Mr. Detonator schreef op dinsdag 02 januari 2007 @ 18:11:
[...]
heb je ook ooit benchmarks gezien mét en zónder physics, want volgens mij scheelde dat niet zo veel/niks ?
Op de site van ageia staat een benchmark programma om een scene uit een game te renderen met en zonder PPU. Met PPU gaat het toch echt een stuk sneller dan via de CPU. In hoeverre de optimalisaties van de engine de huidige CPU's de nek doen omdraaien is mij niet bekend.

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Het zal wel sneller wezen in zo'n benchmark, maar er zijn geen games die physics gebruiken, op 1 of 2 na dan. En dan waren die physics van R6 ook nog niks bijzonders ook... :O

Nee, ik denk dat dat physics gebeuren nog wel 2 jaar op zich laat wachten. Als het daarmee nog wat wordt that is. Persoonlijk denk ik van wel; als we in 2008 8 cores-CPU's hebben geeft dat wel wat physics ruimte voor in de games. :P Met een core of 4 voor physics naast de 4 cores die voor games zouden kunnen worden gebruikt zal dat wel lukken denk ik. :P Liever 1 CPU met veel cores dan een kast stampvol met hitteproducerende en lawaaierige losse kaarten en een ultraduur moederbord met 8 PCI-e slots...

[ Voor 4% gewijzigd door Format-C op 02-01-2007 19:22 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 162692

1701 A.D. v1.01 Patch
Errors corrected

- A ship following a trade route and stopping in front of the warehouse,
failing to continue along that trade route.
- A team win in multi-player was sometimes impossible to achieve.
- Ships belonging to an AI (which had given up) could get stuck at the edge of
the map.
- The AI failing to react to the destruction of a foreign culture.
- A display problem which occurred in multi-player save games.
- Possible Blood brotherhood with more than one culture.
- Errors in the balance sheet when a save game had been saved and then
re-loaded.
- Computer opponents could erect a warehouse on a location unsuitable for
construction.
- Construction could be carried out „free of charge” during lags in
multi-player matches.
- Existing fraternizations are now terminated when a foreign culture is
destroyed.
- Occasionally an escort’s companions stayed in one place as soon as the escort
target was sent on patrol.
- Patrol points “jumping” after a battle.
- Escort ships leaving the escort after a battle.
- A foreign culture’s special action still being carried out after that culture
had been destroyed.
- Bonus coins can no longer be redeemed in multi-player matches.
- Occasionally a so-called “Freeze” in the "The Legacy of the Ancestors"
scenario.
- Sometimes the “Eichendorff” AI stopping production.
- Problems with the AI portraits once an AI had been destroyed.
- Setting the video settings to "very high" on an ATI video card, does not
result in the statue on the village center not being displayed.
- Players spying upon an opponent’s ships.
- Damaged trade routes after a saved game was loaded.
- Damaged trade routes whenever a warehouse was renamed.
- Ships appearing to be floating inside one another upon completion.

Balancing:

- The AI ships now react more intelligently when faced outnumbered by the
enemy.
- Storm strength now adjusts to fit island size.
- The Queen’s fleets are now somewhat more powerful.
- Die Queen now demands two additional tribute payments or sends one additional
fleet.
- The normal AI no longer adjusts to suit the player but instead advances on
its own.
- The foreign cultures’ landmarks are now immune to catastrophes.
- The Revolutionary doesn’t stay in the city as long as before.
- The AI no longer advances right after the player does, but instead waits a
short while.

New:

- Players can now choose whether they must fulfil all of the conditions for win
just one.
- A tool tip was added for the time limit for reaching independence.
- A multi-player game no longer pauses when Escape is pressed.
- The delay in saving has been removed from the multi-player game.
- The interface can now be hidden to allow better screenshots.
- Clouds can now also be hidden to allow better screenshots.
- Inhabitant message no longer come as often as before.
- Trees can now be planted both over the menu and using the pipette. It is no
longer necessary to enter a cheat to do so.
- In multi-player the clients now also show both the game name and the
password.
- Pirate ships are now likely to leave some flotsam floating on the water when
sunk.

Graphics:

- A number of adjustments have been made for the new G80 graphics chip from
Nvidia in order to take full advantage of its potential, e.g. 8x & 16x CSAA
support (Coverage Sampling Aliasing).


Gepost omdat er veel problemen zijn rond deze game voor zowel ATI als Nvidia.

Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 21-04 13:20

Krizzie

Progressive Music \o/

En wat heeft dat met nieuws van ATI temaken? :)

Geluidswolk


Acties:
  • 0 Henk 'm!

Anoniem: 38733

The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
Viral marketing? ;) (koop geen G80 maar wacht "even" op de R600).

Acties:
  • 0 Henk 'm!

Anoniem: 23009

idd de R600 zal geen problemen hebben met de PCI-Express architechtuur en zal ook beter ondersteund worden in Vista.

Maardan de mensen met hun R580/R580+ kaarten en andere R5.xx kaarten zitten ook wel oke hoor, of je nu een PCI-Express x8 slot hebt of een x16 je hoeft niet bang te zijn dat je kaart het niet doet, want werken zal die zeker wel, waarbij een G80 in de soep loopt ;)

Ook nu een sterk voordeel van ATi kaartjes.

En dat ik veel F.E.A.R> doet op de Computerclub, is me X1900XTX + X1950 XTX CFE setup nog snel zat, voor mij nog geen R600 iig, maare ik zijn er mensen met een enkele X1800 of X1900 dan zou ik zeggen go for it, en als jullie hem hebben graag wat mooie scherpe foto's :9

Hier bij wens ik iederen een toewenselijk 2007. 8)

[ Voor 32% gewijzigd door Anoniem: 23009 op 02-01-2007 22:22 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Anoniem: 23009 schreef op dinsdag 02 januari 2007 @ 22:19:
idd de R600 zal geen problemen hebben met de PCI-Express architechtuur en zal ook beter ondersteund worden in Vista.

Maardan de mensen met hun R580/R580+ kaarten en andere R5.xx kaarten zitten ook wel oke hoor, of je nu een PCI-Express x8 slot hebt of een x16 je hoeft niet bang te zijn dat je kaart het niet doet, want werken zal die zeker wel, waarbij een G80 in de soep loopt ;)

Ook nu een sterk voordeel van ATi kaartjes.
sjah, in hoeverre dat een voordeel is....

De 8800 serie van nVidia is gewoon veel beter dan de R580 in snelheid, beeldkwaliteit en geluidsproductie van de stockkoeler. En hoeveel mensen zijn er nou die meer dan één G80 nodig hebben? En met een enkele 8800 videokaart heb je altijd PCI-E 16x bandbreedte, dus dan is er niets aan de hand lijkt mij zo.
En dat ik veel F.E.A.R> doet op de Computerclub, is me X1900XTX + X1950 XTX CFE setup nog snel zat, voor mij nog geen R600 iig, maare ik zijn er mensen met een enkele X1800 of X1900 dan zou ik zeggen go for it, en als jullie hem hebben graag wat mooie scherpe foto's :9
Jij hebt het wel erg vaak over je X1900XTX + X1950XT CFE, het komt in ongeveer de helft van je posts naar voren. :+
Hier bij wens ik iederen een toewenselijk 2007. 8)
jij ook een goed 2007 toegewenst!

PS: Morgen gaat mijn X1900XT CF terug naar de internetshop. Ik krijg roze beeld over de Crossfire kabel/connector en dat ligt echt aan de VGA. Zodra ik die videokaart terug heb doe ik hem gelijk in de verkoop, want met een enkele X1900XTX red ik het ook wel tot de R600 er is :P

Goud is geen geld


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ frankknopers
Dat dan weer wel, stelde alleen dat het voor mij snelzat is, en voor de gene die Fear vaak doen is de upgrade ook het niet waard tenzei ze R600 CF gaan doen dat is een ander verhaal.

Eerlijk gezegt, zie ik het naapje "8800GTX" meer voorbij komen als een ATi benaamde kaart :/

En ja als de R600 presteerd hoe die benchmarks het laten zien sla ik hem toch over, lekker tot de R700 wachten ooit hehe, ben benieuwd wat dat gaat leveren en doen qua technieken hehe, tenzei dat de GDDR4 model zo goed is in Flight Sim X dan is het nog wel goed over na te gaan denken.

[ Voor 173% gewijzigd door Anoniem: 23009 op 02-01-2007 23:56 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Anoniem: 23009 schreef op dinsdag 02 januari 2007 @ 23:46:
@ frankknopers
Dat dan weer wel, stelde alleen dat het voor mij snelzat is, en voor de gene die Fear vaak doen is de upgrade ook het niet waard tenzei ze R600 CF gaan doen dat is een ander verhaal.

Eerlijk gezegt, zie ik het naapje "8800GTX" meer voorbij komen als een ATi benaamde kaart :/

En ja als de R600 presteerd hoe die benchmarks het laten zien sla ik hem toch over, lekker tot de R700 wachten ooit hehe, ben benieuwd wat dat gaat leveren en doen qua technieken hehe
ik was me net aan ''t bedenken wat ik hierop ging antwoorden, maar je hebt 'm weer eens net op tijd ge-edit _/-\o_

is wel knap trouwens om 'n bericht 164 173% te wijzigen :)

[ Voor 3% gewijzigd door Mr. Detonator op 02-01-2007 23:59 ]

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.