Probeer dit eens, maar dan @1600x1200?Maar Oblivion daarintegen heb ik toch nog niet onder de 30fps gezeten , zelf niet met 8xAA 16xAF.
http://www.hardforum.com/showthread.php?t=1119256
[ Voor 193% gewijzigd door Verwijderd op 30-12-2006 23:06 ]
Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.
Verwijderd
Probeer dit eens, maar dan @1600x1200?Maar Oblivion daarintegen heb ik toch nog niet onder de 30fps gezeten , zelf niet met 8xAA 16xAF.
[ Voor 193% gewijzigd door Verwijderd op 30-12-2006 23:06 ]
[ Voor 18% gewijzigd door frankknopers op 31-12-2006 00:16 ]
Goud is geen geld
Verwijderd
De G80 heeft in bepaalde problemen nog tamelijk veel driver fixes nodig.frankknopers schreef op zondag 31 december 2006 @ 00:11:
Ik vind die review ook niet helemaal zo sterk uitblinken in objectiviteit. Als de ATi wint zegt hij er steeds bij dat dit verschil met de nieuwere ATi drivers nog groter wordt. En elke keer dat nVidia de hoogste score noteert wordt dit nooit toegegeven, maar wordt weer het argument van drivers opgevist.
Die FEAR score vind ik ook nogal vaag, opeens walst de X1900XT CF dik over de andere videokaarten heen.. Ik dacht dat FEAR op de G80 minstens even snel zou draaien.
Ook vaag dat er niets van de fysieke eigenschappen van de kaart is getoond. Denk aan foto's, informatie over de geluidsproductie, het stroomverbruik, de temperatuur, het aantal stroomconnectors, lengte van de kaart, type koeling (nanofoil?)
Hoe dan ook, het is leuk leesvoer om je lekker te maken voor deze uber GPU.
Het lijkt mij dat dit inhoudt dat Crossfire ook pas wordt ondersteund vanaf de versie met GDDR4. Als dit zo is, dan is het echt compleet gaar... Uberhaupt is het al raar dat er zo snel achter elkaar 2 versies van de kaart uitkomen, laat staan dat ze dan op de GDDR3 versie geen crossfire willen. Ik kan me ergens voorstellen dat dit gedaan wordt om te voorkomen dat GDDR3 en GDDR4 kaarten gemixed worden, maar Crossfire is tot nu toe een vrij adaptieve techniek gebleken, dan zou dit toch ook best mogelijk moeten zijn...Multi-GPU cluster solutions will be available for the workstation market only until March, 2007.
Dus wel betrouwbaar de cijfers, misschien zelfs aan de te hoge kant omdat ze gekleurde pet ophebben.The published results are very promising with AMD’s ATI R600 beating out NVIDIA’s GeForce 8800 GTX in most benchmarks. The performance delta varies from 8% up to 42% depending on the game benchmark.
When DailyTech contacted the site owner to get verification of the benchmarks, the owner replied that the benchmark screenshots could not be published due to origin-specific markers that would trace the card back to its source -- the author mentioned the card is part of the Microsoft Vista driver certification program.
If Level505's comments seem a little too pro-ATI, don't be too surprised. When asked if the site was affiliated in any way to ATI or AMD, the owner replied to DailyTech with the statement that "two staff members of ours are directly affiliated with AMD's business [development] division."
[ Voor 6% gewijzigd door The Source op 31-12-2006 02:36 ]
Als we die review mogen geloven:SpankmasterC schreef op zondag 31 december 2006 @ 00:43:
Het lijkt mij dat dit inhoudt dat Crossfire ook pas wordt ondersteund vanaf de versie met GDDR4.
Zal de in januari te lanceren kaart ook gewoon crossfire ondersteunenMost probably we will extend this article with two R600 cards around January 8th, 2007.
frankknopers schreef op zondag 31 december 2006 @ 00:11:
Ik vind die review ook niet helemaal zo sterk uitblinken in objectiviteit. Als de ATi wint zegt hij er steeds bij dat dit verschil met de nieuwere ATi drivers nog groter wordt. En elke keer dat nVidia de hoogste score noteert wordt dit nooit toegegeven, maar wordt weer het argument van drivers opgevist.
Ik vind het wel meevallen met overpositieve comments. Ik kan de cijfers natuurlijk niet controleren, maar qua commentaar heb ik veel ergere reviews gezien de afgelopen jaren.We have to note again that these results come from a pre-release driver which has not been optimized yet. Therefore, we expect to see a further increase in performance soon. nVidia will undoubtedly optimize their drivers over time as well, especially in combination with the upcoming Windows Vista.
Verwijderd
Inderdaad. Een foto zegt meer dan duizend woorden.frankknopers schreef op zondag 31 december 2006 @ 00:11:
[..]
Denk aan foto's, informatie over de geluidsproductie, het stroomverbruik, de temperatuur, het aantal stroomconnectors, lengte van de kaart, type koeling (nanofoil?)
Verwijderd
Update - Authenticity Of This Article
This article is authentic. Our R600 sample is an RTM sample used in the MS CERT process for driver validation (especially for Vista). We are not publishing pictures of the card itself right now, as the card contains major ID tags that we can not remove yet for source protection. We will add pictures of the card itself once we can remove these tags.
—
Update - Oblivion Benchmark is TSSAA/AAA quality
Due to upcoming questions regarding the frame rates on our Oblivion test: We ran the Oblivion Benchmark with activated TSSAA (Transparency Super Sampling Anti-Aliasing) on nVidia and AAA (Adaptive Anti-Aliasing) on the ATI cards because Oblivion profits substantially from these advanced AA modes.
Ik vond het erg toevallig dat multi GPU clusters vanaf maart beschikbaar zijn, terwijl de GDDR4 kaarten ook vanaf maart beschikbaar zijn. Kan gewoon toeval zijn, maar uberhaupt zou het rare praktijk zijn om CF niet meteen te ondersteunen. Er kan ook gewoon 4+ GPU crossfire bedoeld worden, in dat geval is het niet heel erg...R-O-Y schreef op zondag 31 december 2006 @ 01:42:
multi gpu clusters zullen alleen beschikbaar zijn voor workstations tot maart 2007.
Dat is volgens mij wat er staat in die quote. Wat ik hieruit opmaak is dat het daarna (na maart 2007) ook voor andere dingen beschikbaar is. Hoe vat jij dat stuk tekst op dat je gequote hebt?
[ Voor 66% gewijzigd door Format-C op 31-12-2006 11:33 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
NeeMr. Detonator schreef op zaterdag 30 december 2006 @ 16:52:
het volgende klinkt ook een beetje vreemd: 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
dat zouden er dan toch 256 moeten zijn ipv 128 ?
klopt...alleen ''jammer'' dat je ze niet klok voor klok kan vergelijken omdat ze allebei totaal verschillende snelheden gebruikenoeLangOetan schreef op zondag 31 december 2006 @ 12:18:
[...]
Het komt erop neer dat deze architectuur klok voor klok altijd sneller is dan een 128 scalaire architectuur.
dat wou ik al niet zeggenThe Source schreef op zondag 31 december 2006 @ 02:35:
http://www.dailytech.com/article.aspx?newsid=5524
[...]
Dus wel betrouwbaar de cijfers, misschien zelfs aan de te hoge kant omdat ze gekleurde pet ophebben.
[ Voor 44% gewijzigd door Mr. Detonator op 31-12-2006 13:13 ]
Verwijderd
Dit is natuurlijk onzin.RappieRappie schreef op zondag 31 december 2006 @ 11:27:
Wat nergens op slaat:
die site zegt bij die laatste benchmark van Anno 1701 dat de R600 wel 42% sneller is dan een 8800GTX... 24,2FPS voor de R600 versus 17FPS voor de GTX.Beide onspeelbaar. En natuurlijk zijn de procentuele verschillen groot als je resultaten krijgt met zulke lage FPS. 12FPS tegen 10FPS om een voorbeeldje te noemen immers al 20%. En dat terwijl er maar 2FPS verschil in zit.
Verwijderd
De clocksnelheid zou 820Mhz moeten zijn.Mr. Detonator schreef op zondag 31 december 2006 @ 12:32:
[...]
klopt...alleen ''jammer'' dat je ze niet klok voor klok kan vergelijken omdat ze allebei totaal verschillende snelheden gebruiken
[...]
dat wou ik al niet zeggen
de crossfire score's komen goed overeen met andere tech/review-sites, alleen de g80 score is weer een stuk lager dan op de meeste andere site's
dailytech heeft het artikel ook al overgenomen
[ Voor 4% gewijzigd door Verwijderd op 31-12-2006 14:04 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Lol.. een minimale fps tussen 10-25fps blijft toch hetzelfde.. het blijft kappen.Verwijderd schreef op zondag 31 december 2006 @ 13:50:
[...]
Dit is natuurlijk onzin.
Procenten zijn juist uitgevonden voor een objectieve vergelijking. Als deze 12fps t.o.v. 10fps in jouw voorbeeld wordt doorgeschaald naar lichtere instellingen, dan is de kans aanwezig dat dit resulteert in 60fps t.o.v. 50fps.
Verschillen aantonen met fps is grote onzin, fps zegt helemaal niks als er geen referentie is. 10 fps verschil bij 20fps is natuurlijk een veel groter verschil dan bij 100fps. Bij procenten is de refentie altijd meegenomen.
Een lompe geheugenbandbreedte van de R600 zorgt vooral voor minder bottlenecks bij de zware beweringen zoals rook etc. Dit resulteerd juist in een hoge minimale fps. Het zou namelijk kunnen dat de G80 een hoger gemiddelde haald doordat de max fps veel hoger is door de grotere fillrate.
De wijze waarmee deze review is gebracht is zeker wel in het voordeel van ATI, maar ondanks deze gekleurde pet ben ik wel met deze denkwijze eens.
Als je gamed is de minimale fps verantwoordelijk voor de gameplay, niet de max. fps. En daarom denk ik ook dat de G80, hoe snel deze ook mag zijn, niet dezelfde stabiele gameplay zal brengen als de R600 wanneer het echt zwaar gaat worden.
[ Voor 9% gewijzigd door Verwijderd op 31-12-2006 14:11 ]
Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen...Verwijderd schreef op zondag 31 december 2006 @ 14:03:
[...]
De clocksnelheid zou 820Mhz moeten zijn.
Procesing Power is 105GSO/s
De R600 doet 128 shader operations per seconde.
105000000000 / 128 = 820312500 Hz = 820MHz.
Verder idd , omlaag geschroefde Nvidia scores.
Zoals ik al zei : De site is al down![]()
Verwijderd
Site werkt weer.. nevermind.Saturnus schreef op zondag 31 december 2006 @ 14:08:
[...]
Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen...
[ Voor 3% gewijzigd door Verwijderd op 31-12-2006 14:17 ]
dat de site down is wil dus zeggen dat het allemaal verzonnen is ?Saturnus schreef op zondag 31 december 2006 @ 14:08:
[...]
Voelt die Dailytech zich even genaaid...wie is nou zo dom om dat artikel direct over te nemen...
Verwijderd
Het is volgens mij geen fake.. en daar ben ik bijna 100% zeker vanblacktarantulaX schreef op zondag 31 december 2006 @ 14:18:
Nevermind ja..
Dus 't is alsnog een lulverhaaltje..
Maar ik heb wel zoeits van, als het een geweldige kaart gaat worden, wacht ik er wel rustig op..
dus ik treur er niet om dat het fake was...
hij heeft de site gewoon effe ge-updateSaturnus schreef op zondag 31 december 2006 @ 14:29:
Hij mag dan verdwijnen en weer verschijnen...ik twijfel nog steeds...
1. Geen plaatjes.
je weet natuurlijk niet wat voor id-tags dat zijn he...of wel ?Saturnus schreef op zondag 31 december 2006 @ 18:33:
Raar hoor...even snel met paint erover en het probleem is weg...
[ Voor 38% gewijzigd door Saturnus op 31-12-2006 18:49 ]
wat voor id-tags het exact zijn weet ik zelf natuurlijk ook niet, maar ik kan me er wel iets bij voorstellen...als ik ati was, maakte ik die tags in ieder geval zo dat ze altijd herkenbaar zijn, ook al worden ze afgedekt of weggeshopt...ook kunnen ze iets anders aan de kaart ''veranderd'' hebben, wat de reviewer natuurlijk niet weet, want hij heeft geen vergelijkingsmateriaal...als ik onder nda zou staan, en ik kreeg een r600 sample in handen, had ik het ook zo gedaanSaturnus schreef op zondag 31 december 2006 @ 18:48:
Nee, ik begreep inderdaad niet wat id-tags waren.
lijkt mij wel ja...dan zullen ze in de toekomst nooit meer test-samples krijgen van ati....anders had je al lang reviews gezien van andere (grote) sitesSaturnus schreef op zondag 31 december 2006 @ 18:48:
Maar als ze dat wel verspreiden krijgen ze problemen met ATI?
[ Voor 57% gewijzigd door Mr. Detonator op 31-12-2006 18:55 ]
[ Voor 11% gewijzigd door CJ op 31-12-2006 18:58 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
zeker denk ik daaraan....maar denk jij er dan ook aan dat de g80 resultaten uit deze review wat aan de lage kant zijn ?CJ schreef op zondag 31 december 2006 @ 18:54:
Spannend allemaal he?
En bedenk je dat dit een voorproefje was met een vroege sample met drivers die nog niet helemaal af waren...
[ Voor 17% gewijzigd door Mr. Detonator op 31-12-2006 19:10 ]
Verwijderd
Volgens mij had ATI gewoon niet verwacht dat de G80 zo good ging worden.Mr. Detonator schreef op zondag 31 december 2006 @ 19:00:
[...]
zeker denk ik daaraan....maar denk jij er dan ook aan dat de g80 resultaten uit deze review wat aan de lage kant zijn ?
dat compenseerd elkaar dan misschien wel weer
[edit] nou post ik effe niks meer...zie dat de laatste pagina zowat 50% uit posts van mij bestaat....dadelijk gaan ze nog denken dat ik een fanboy ben![]()
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
De R600 is volgens mij zelf niet in staat een 8800GTX 630/2000 bij te houdenAstennu schreef op zondag 31 december 2006 @ 21:09:
Dit is gewoon CJ's 1 april grap van volgend jaarNet als die power point slides
![]()
Maar ff serieus ik weet nog niet wat ik er van moet denken. Zien er redelijk geloofwaardig uit qua score. Iets sneller dan de G80 wat te verwachten was. Sneller dan de X1950 XTX CF.
Echt is die 10% winst nooit genoeg om een G81 bij te houden. Ik had er eigenlijk wat meer van verwacht al helemaal omdat er een 512 Bit bus op zou zitten. Dan zou je denken dat de core die bandbrete dus ook echt nodig zou hebben. Gezien de prestatie was een 384 bit bus met GDDR 4 ook snel genoeg geweest. Aangezien de G80 ongeveer hetzelfde scoort. Er zijn wel uitzonderingen waar het verschil 40% was maar dat zou ook aan de drivers kunnen liggen. Ik had in ieder geval verwacht dat het hoger zou zijn meer richting minimaal 20% maar dat zou wel een groot gat zijn dus misschien niet realistisch om dat te denken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Theoretisch is het allemaal heel mooi dat is waar.Astennu schreef op zondag 31 december 2006 @ 21:38:
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.
Yap , maar waarschijnlijk zal deze review wel kloppen net zoals de veraf geleakte review van de G80 ongeveer klopte.
iedereen probeert zich weer in allerlei bochten te wringen om de review maar zo fake mogelijk te laten lijken
[ Voor 7% gewijzigd door Verwijderd op 31-12-2006 21:52 ]
[ Voor 12% gewijzigd door Astennu op 31-12-2006 22:10 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
nVidia heeft zeker een hele goede kaart met de G80. Het is bijna twee keer zo snel als de R580. Daarom is het juist goed dat ATI een 512bit bus heeft. Als dit niet het geval was geweest had ATI op gebied van fillrate afgelegt. Daarom is de 512bit bus zo belangrijk om de concurentiepositie te handhaven.Astennu schreef op zondag 31 december 2006 @ 21:38:
Dat bedoel ik dus. En Ati zou dan ook geen 512 Bit bus nodig hebben voor die R600 core. Zoals die review sample draait. Dan hadden ze het ook met een goedkopere 384 Bit bus kunnen doen. Echter kun je dan een beetje lastig je ringbus op 384 bit krijgen. Nu gebruiken ze 4 stops met elk 64 bit en met 512 8 van 64 ? of heb ik dit verkeerd onthouden. Anyway. Ik verwacht toch wel wat meer een chip die die 512 bit bus kan benutten dus toch wel 20% in alle gevallen. Maar we zullen zien wat de "echte" kaarten gaan doen.
Verwijderd
Dit is gewoon de januari versie met GDDR3 die ze getest hebben. De (XTX volgens mij die in maart de XT zal worden als de R600 met GDDR4 komt.) Waarom ze er al een 512bit bus op gestoken hebben? Gewoon om tijd te winnen t.o.v van hun volgende release i.v.m nvidia. (Denk ik tochAstennu schreef op zondag 31 december 2006 @ 22:09:
Nja je zag dat de R580 core al meer nodig had dan 800 MHz GDDR 3. Ze R600 core is zo i zo sneller dan de R580 core dus dan is 1400 MHz GDDR 4 met 256 Bit denk ik niet genoeg.
De 9800 XT was wel de laatste kaart met DDR 1 de X800 had GDDR 3 wat een veel hogere clockspeed had dan DDR 1 waardoor er niet meteen een grotere bus nodig was. De generatie er na de X1800 en X1900 hadden genoeg aan super snel GDDR 3 en later GDDR 4 dus de stap moet nu wel gemaakt worden voor de high end.
Ik verwacht dat Nvidia en ATi beide goed weten wat ze doen en dat ze die bus daar niets voor niets op zetten. Je gaat geen 512 Bit bus op een kaart zetten en die niet gebruiken. Dan lever je per kaart die je verkoopt gewoon veel geld in.
Misschien heeft de sample kaart wel een lage core clock als die 820 MHz zou kloppen zou de final nog wel eens die 1000 MHz kunnen hebben. En dan wordt het verhaal heel anders.
Misschien is dit wel de XT ? Dus een XT op 800 MHz met 900 MHz GDDR 3 en komt er nog een XTX met 1000 MHz en 1100/1200 MHz GDDR 4 ? Who knows.... Maar ik denk dat de stap van 800 naar 1000 wat te groot is. ATi laat het verschil meestal iets kleiner. Bij de X1800 was het wel 100 MHz tussen de XL en de XT. Maar bij de X1900 XT en XTX was het maar 25. Bij Nvidia is het verschil tussen de GTX en de GTS echter wel groot. Dus ik luit het niet helemaal uit.
[ Voor 5% gewijzigd door Verwijderd op 31-12-2006 22:21 ]
Verwijderd
De load van de R600 ligt tussen de 230-250Watt.blacktarantulaX schreef op zondag 31 december 2006 @ 22:29:
Wat ik mij afvraag over de R600 is het verbruik.
Het is een feit dat deze R600 nog beter dan de G80 zal presteren (ookal is het maar een beetje), maar zal het verbruik dan ook nóg hoger liggen?
Want voor mijn toekomstige systeem wilde ik een R600 nemen, en die voeden met mijn huidige OCZ GameXStream 600W.. maar als het verbruik nog hoger ligt dan van de G80, weet ik niet of die het wel aankan
Bron?Verwijderd schreef op zondag 31 december 2006 @ 23:10:
[...]
De load van de R600 ligt tussen de 230-250Watt.
laten we nou maar eerst eens wachten tot dat er een review van het productie exemplaar en dan zien we vanzelf wel hoeveel het gebruik.Jejking schreef op maandag 01 januari 2007 @ 01:14:
[...]
Bron?
The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?
Verwijderd
staat op de site van de review..Jejking schreef op maandag 01 januari 2007 @ 01:14:
[...]
Bron?
The Inq kwam daarmee en schroefde het een dag later al terug naar 160/170 Watt, dus waar haal je dit in hemelsnaam vandaan?
Dat zeg ik niet. Het is een goede keuze van ATi om voor de 512 Bit bus te gaan maar ik denk dat ze die dan ook willen benutten. De 9700 Pro had zijn 256 Bit bus aardig nodig met dat relatief trage DDR 1 op 325 MHz Het geheugen verhogen hielp heel erg voor de FPS. Ik neem aan dat ATi die 512 Bit bus heeft. En als deze review sample niet de final clocks loopt denk ik dat die 512 Bit bus prima gebruikt gaat worden bij de Final kaarten.Verwijderd schreef op zondag 31 december 2006 @ 22:17:
[...]
nVidia heeft zeker een hele goede kaart met de G80. Het is bijna twee keer zo snel als de R580. Daarom is het juist goed dat ATI een 512bit bus heeft. Als dit niet het geval was geweest had ATI op gebied van fillrate afgelegt. Daarom is de 512bit bus zo belangrijk om de concurentiepositie te handhaven.
Denk je werkelijk dat de R600 meer heeft aan een 384bit bus? De 384bit bus vind ik een rare beslissing. Je krijgt niet logische geheugenhoeveelheden en ik geloof niet dat game-developers iets gaan optimaliseren voor 640 of 768MB. Logisch zijn grenzen van 512Mb (oude generatie) of 1GB (nieuwe generatie R600 en wellicht G81). Daarom is de keuze voor een 512bit bus zo belangrijk.
De G80 loopt ondanks de leuke snelheid, het risico dat het tussen wal en schip gaat vallen met de ontwikkeling van toekomstige games die 1GB vragen. Natuurlijk zullen in de eerste jaar weinig games komen die zoveel geheugen vragen. Maar voor degene die langer dan 1 jaar wilt doen met een high-end product lijkt R600 meer future-proof te zijn.
Bij de Radeon 9700 was de 256Bit ook een goede beslissing. Of denk je dat een 9700pro met 96Mb en 192bit bandbreedte meer succes had gehad?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Dat zullen we zienAstennu schreef op maandag 01 januari 2007 @ 11:47:
[...]
Dat zeg ik niet. Het is een goede keuze van ATi om voor de 512 Bit bus te gaan maar ik denk dat ze die dan ook willen benutten. De 9700 Pro had zijn 256 Bit bus aardig nodig met dat relatief trage DDR 1 op 325 MHz Het geheugen verhogen hielp heel erg voor de FPS. Ik neem aan dat ATi die 512 Bit bus heeft. En als deze review sample niet de final clocks loopt denk ik dat die 512 Bit bus prima gebruikt gaat worden bij de Final kaarten.
[ Voor 29% gewijzigd door Verwijderd op 01-01-2007 12:59 ]
Verwijderd
Verwijderd
Verwijderd
Ja ik ook dat is toch wel een belangrijk punt en natuurlijk hoe snel Valve Cs source op de rit heeft met NV. Je kan wel blijven wachten, maar dan blijf je bezig eens moet je toch een keer de knoop doorhakken. Als ATI goede stabiele drivers heeft in deze twee games en Nv nog steeds met de fogbug zit dan weegt dat weer mee in ATI zijn voordeel. Vista drivers zijn zeker belangrijk, aangezien ik gelijk naar Vista toe ga.Verwijderd schreef op maandag 01 januari 2007 @ 13:56:
Ik persoonlijk hoop echt dat Nvidia zorgt voor goede Vista drivers bij de launch...
Ik denk altijd heel goed na voordat ik iets stoms zeg
geen idee, ik werk al 3 maanden met beryl op ubuntu edgy en het werkt fatsoenlijk (enkel soms problemen met wat flikkerende dropshadows), niet alle omgevingen gebruiken glx_ext_tfp trouwens.rickiii schreef op maandag 01 januari 2007 @ 16:02:
Is het trouwens bekend wanneer ATI eventuele ondersteuning voor de GLX_EXT_texture_from_pixmap extentie in Linux gaat leveren? Ik wil eigenlijk niet met een extra X-server (XGL) werken in Linux, maar als ik nog 2 maanden moet wachten, dan ga ik het toch maar doen.
Als ik zo lees dat je een ASUS logo'd driver krijgt, dan denk ik aan een megeleverde driver van een nieuwe grafische kaart ofzo (R600 anyone?The Source schreef op maandag 01 januari 2007 @ 21:15:
http://downloads.guru3d.com/download.php?det=1544
ATI Catalyst 7.1 Beta Window Vista
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Ik heb hem geinstalleerd en ik heb er dikke problemen mee gehad.. Ik had er geen zin meer in dus heb XP der maar weer op gezet. Zijn hier al meer berichten over of ben ik de enigste?The Source schreef op maandag 01 januari 2007 @ 21:15:
http://downloads.guru3d.com/download.php?det=1544
ATI Catalyst 7.1 Beta Window Vista
Verwijderd
Zolang je geen timedemos tot je beschikking hebt is het moeilijk oordelen. Maar als ikVerwijderd schreef op maandag 01 januari 2007 @ 13:41:
ik vind de scores voor de 8800 GTX ook laag.
http://level505.com/2006/12/30/the-full-ati-r600-test/1/Update - Site, Upcoming 2560×1600 Benchmark, Pictures
Happy new year! We are sorry that the site slowed down a bit. However, here are the great news: tomorrow we will be testing 2560×1600, and we will be able to provide limited pictures of the card approx. on January 5th/6th already. For everyone to understand why we cannot just “black out” the ID Tags: The major tag is a fine punched hologram foil wrap which cannot be taken off because it is glued onto the front metal around the DVI ports. Taking off the fan is impossible without removing it. We will definitely keep you updated, and appreciate all comments we have received so far.
Verwijderd
Ik heb een Intel Core 2 Duo E6600 @ 2.7Ghz en een 8800GTX 630/2000Verwijderd schreef op dinsdag 02 januari 2007 @ 01:34:
[...]
Zolang je geen timedemos tot je beschikking hebt is het moeilijk oordelen. Maar als ik
naar hun 3DMark05 score kijk lijken ze inderdaad nogal aan de conservatieve kant te zijn wat betreft de 8800GTX.
[afbeelding]
Mijn systeem, met 'slechts' een Opteron@2,7 (hun systeem C2E@3,2Ghz.!!!) en de 8800GTX niet overgeklokt;
[afbeelding]
Het zou mij trouwens niets verbazen als ik met hun processor over de R600 score heen zou gaan.
Btw, het artikel is weer geupdate;
[...]
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
[ Voor 16% gewijzigd door Verwijderd op 02-01-2007 02:28 ]
Verwijderd
Doe eens je 8800 zonder overklok, da's interessanter imo.Verwijderd schreef op dinsdag 02 januari 2007 @ 01:54:
[...]
Ik heb een Intel Core 2 Duo E6600 @ 2.7Ghz en een 8800GTX 630/2000
Zal zo meteen even een screenie plaatsen.
[ Voor 12% gewijzigd door Verwijderd op 02-01-2007 02:10 ]
Verwijderd
Weet je wat het verschil is , @ computerbase is alles getest op een FX60 @ 2.6Ghz.Verwijderd schreef op dinsdag 02 januari 2007 @ 02:07:
[...]
Doe eens je 8800 zonder overklok, da's interessanter imo.
Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.
http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
Momenteel is 97.44 inderdaad een betere driver.Verwijderd schreef op dinsdag 02 januari 2007 @ 02:07:
[...]
Doe eens je 8800 zonder overklok, da's interessanter imo.
Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.
http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
[ Voor 24% gewijzigd door Verwijderd op 02-01-2007 02:50 ]
Waarom denk je dat je cpu de bottleneck is als je score lager wordt? De enige reden die ik kan bedenken dat je score lager zou worden met een langzamere videokaart is dat de kaart te warm wordt op de hogere snelheid en gaat throttlen (oftewel langzamer gaan draaien om de warmte te beperken)Verwijderd schreef op dinsdag 02 januari 2007 @ 01:54:
Niet Oc'ed haal ik 13500Punten , Oc'ed haal ik dus 13100Punten , cpu bottleneck dus
Verwijderd
m277755 schreef op dinsdag 02 januari 2007 @ 04:52:
[...]
Waarom denk je dat je cpu de bottleneck is als je score lager wordt? De enige reden die ik kan bedenken dat je score lager zou worden met een langzamere videokaart is dat de kaart te warm wordt op de hogere snelheid en gaat throttlen (oftewel langzamer gaan draaien om de warmte te beperken)
Je kan trouwens beter naar de sm2 en sm3 scores kijken voor de snelheid van de videokaart (en of de cpu de bottleneck is) Aangezien de cpu score daar niet overdreven in mee wordt geteld. De 3dmark06 score is wat mij betreft vrij nutteloos omdat de onderdelen van de pc voor de meeste 3d programma's niet in de goede verhouding worden getest.
Je moet eerst even lezen hé dan zie je wel wat ik zeg..Hier is vooral mijn cpu de bottleneck , aangezien als ik OC dat mijn score lager is als ik de cpu niet verder OC.
Wat heb je dan konkreet aan verschil alleen in SM 2.0 en 3.0?Verwijderd schreef op dinsdag 02 januari 2007 @ 12:48:
[...]
[...]
Je moet eerst even lezen hé dan zie je wel wat ik zeg..
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Verwijderd
Beiden een verschil van rond de 100 punten.. met een OC van 300MhzJoepi schreef op dinsdag 02 januari 2007 @ 13:13:
[...]
Wat heb je dan konkreet aan verschil alleen in SM 2.0 en 3.0?
[ Voor 33% gewijzigd door Verwijderd op 02-01-2007 13:23 ]
Ik ben van mening dat je toch totaal de boot gemist hebt. Daar je bij 1600x1200 en hogere resoluties met AA en veel eye candy toch echt een minimale CPU bottleneck zult hebben. Waarschijnlijk is deze er zelfs helemaal niet. En oke.. leuk dat 3DMark06 ook 4 cores ondersteund bij de CPU test, waar dus ook die gigantische score aan te wijten is, maar de vraag is natuurlijk: Zie je dat terug in de geteste games? Waarschijnlijk niet en ook hier zal weer gelden dat een AMD of intel CPU vergelijkbaar met een FX60 of hoger geen bottleneck vormt in de games. Mede omdat bijna alle geteste games géén multi core support hebben. Dus een quad core óf een single core, het zal allemaal dicht bij elkaar zitten..Verwijderd schreef op dinsdag 02 januari 2007 @ 13:16:
[...]
Beiden een verschil van rond de 100 punten.. met een OC van 300Mhzop de CPU?
Mja daar , wat vooral een verschil is , mijn CPU heeft maar een score van 2300
en een Intel Q6700 @ 3.2 heeft een score van rond 6000 Punten.
En dat verschil alleen heeft een verschil van 1000Punten in de 3Dmark06 en 3Dmark05 zelf meer.
Dit is natuurlijk te wijten aan de door 3dmark meegenomen CPU test in het gemiddelde van de scoreAls ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
[ Voor 43% gewijzigd door PassieWassie op 02-01-2007 14:28 ]
Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !
Verwijderd
Lol.. je moet lezen.. 1600*1200 4AA 16AF @ 2.7Ghz = 7700 Punten.PassieWassie schreef op dinsdag 02 januari 2007 @ 14:21:
[...]
Ik ben van mening dat je toch totaal de boot gemist hebt. Daar je bij 1600x1200 en hogere resoluties met AA en veel eye candy toch echt een minimale CPU bottleneck zult hebben. Waarschijnlijk is deze er zelfs helemaal niet.
[ Voor 13% gewijzigd door Verwijderd op 02-01-2007 14:28 ]
een cpu-bottleneck bestaat niet naar mijn meningVerwijderd schreef op dinsdag 02 januari 2007 @ 12:48:
[...]
Als ik mijn cpu naar 3.000Ghz OC ipv 2.7 is mijn score rond de 14.000 Punten en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Verwijderd
Jullie snappen het blijkbaar niet.. de CPU score wordt meegenomen in de score! Dus GPU 1000 + CPU 1000 = 2000. Met een overgeklokte CPU is dit bijvoorbeeld : GPU 1000 + CPU 1200 = 2200 punten. Wat dus niet komt door de GPU die ineens sneller is geworden ! Misschien dat de VGA's iets sneller kunnen op bepaalde momenten door de snellere CPU, maar hoofdzakelijk is de hogere score te wijten aan de toegenomen CPU-score in het gemiddelde.Verwijderd schreef op dinsdag 02 januari 2007 @ 16:28:
er zit zeker een verschil
Ik kwam met een sli 7900gt's op 7800 3dmark2006 met een amd x2 cpu op 2,3g
Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set CPUnog niet optimaal presteerde.
[ Voor 12% gewijzigd door PassieWassie op 02-01-2007 16:51 ]
Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !
Verwijderd
Zeker spannendUpdate - Server Migration
We are currently migrating our servers to better serve you. Please excuse the short downtime we had today. We will update our article in about 10 hours with the R600 Ultra-HD resolution test and advanced information regarding power consumption and heat dissipation.
[ Voor 6% gewijzigd door Verwijderd op 02-01-2007 16:38 ]
En waarom zou de R600 dat niet kunnen doen? De hele X1K serie kan al physics berekenen...Verwijderd schreef op dinsdag 02 januari 2007 @ 16:32:
Waar ik best wel benieuwt naar ben, is of de R600 ook physics kan doen net zoals de G80.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
[ Voor 14% gewijzigd door Verwijderd op 02-01-2007 16:56 ]
Ik denk dat ze beginnen te twijfelen aan hun wel erg dure investeringVerwijderd schreef op dinsdag 02 januari 2007 @ 16:50:
sjonge jonge is het weer zover met de nVidia fanboys dat ze weer in het ATi topic kom spammen met hun 8800''tjes, voor het wedstrijdje mijn e-penis is groter dan die van jouw..
Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !
Verwijderd
Ja.. dat bedoel ik dus.PassieWassie schreef op dinsdag 02 januari 2007 @ 16:35:
[...]
Jullie snappen het blijkbaar niet.. de CPU score wordt meegenomen in de score! Dus GPU 1000 + CPU 1000 = 2000. Met een overgeklokte CPU is dit bijvoorbeeld : GPU 1000 + CPU 1200 = 2200 punten. Wat dus niet komt door de GPU die ineens sneller is geworden ! Misschien dat de VGA's iets sneller kunnen op bepaalde momenten door de snellere CPU, maar hoofdzakelijk is de hogere score te wijten aan de toegenomen CPU-score in het gemiddelde.
Ik nietPassieWassie schreef op dinsdag 02 januari 2007 @ 16:52:
[...]
Ik denk dat ze beginnen te twijfelen aan hun wel erg dure investering
[ Voor 51% gewijzigd door Verwijderd op 02-01-2007 17:04 ]
Verwijderd
Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?En waarom zou de R600 dat niet kunnen doen? De hele X1K serie kan al physics berekenen...
De R580 kan al physics doen en wel 9x zo snel als een G71. Zelfs een X1600XT is al 4x sneller in physicsberekeningen dan een 7900GTX. Dus met de physicsberekeningen zit het wel goed.
Verwijderd
Ja , die G80 kan games renderen en op hetzelfde moment physics berekenen zonder performance verlies. Wat bij ATI nog niet kan. Bij ATI kan je door in crossfire een kaart gebruiken voor Physics en een kaart voor performance.Verwijderd schreef op dinsdag 02 januari 2007 @ 17:01:
[...]
Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
NEE. Dat is een grote misvatting. Er zit geen apart gedeelte voor physics in. De G80 gebruikt gewoon een gedeelte van de 128 shaderengines om de physics te berekenen.Verwijderd schreef op dinsdag 02 januari 2007 @ 17:01:
[...]
Maar is het niet zo dat de G80 een appart gedeelte heeft dat de physics kan doen en het andere de grafische berekenningen?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
draai de zaken nou eens om....en klok je kaart over..Verwijderd schreef op dinsdag 02 januari 2007 @ 16:28:
er zit zeker een verschil
Toen ik de cpu verhoogte van 2,3@2,6g had ik een scoor van 8400 3dmark 2006.
Dit houd in dat mijn sli set nog niet optimaal presteerde.
Denk je dat ze maar een pot-meter open hoeven te draaien op de r600 ofzo ?winwiz schreef op dinsdag 02 januari 2007 @ 17:08:
Je ziet nu ook gebeuren wat ik al een paar maanden geleden zag aankomen.....
ATI: Oké we gaan op ongeveer +10% snelheid zitten van G80...... (Hoor ik daar tegenvallen roepen??)
Verwijderd
Als ze die 10% gaan krijgen als nvidia hun nieuwe driver uitbrengt die veel improvements zou moeten meebrengen. En inderdaad.. de XXX versies zijn toegestaan.. en die zijn toch wel een pak sneller hoor , met 10% kom je er niet , meer.Mr. Detonator schreef op dinsdag 02 januari 2007 @ 17:15:
[...]
Denk je dat ze maar een pot-meter open hoeven te draaien op de r600 ofzo ?
als dat zo was, haden ze de kaart al máanden geleden uitgebracht met het knopje op 100%![]()
nog niet aan gedacht dat ze er de laatse maanden álles aan hebben gedaan om die 10% winst te krijgen ?
Verwijderd
Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.CJ schreef op dinsdag 02 januari 2007 @ 17:09:
[...]
NEE. Dat is een grote misvatting. Er zit geen apart gedeelte voor physics in. De G80 gebruikt gewoon een gedeelte van de 128 shaderengines om de physics te berekenen.
Huidige X1900 kaarten zouden in staat moeten zijn om tegelijkertijd physics en graphics te berekenen, maar zoals het er naar uit ziet heeft AMD bij deze serie kaarten liever dat je een aparte dedicated physics-GPU gebruikt zoals bv een X1600.
CrossFire Physics vereist dus niet dat je twee gelijke kaarten moet gebruiken. Een X1900 voor graphics en een X1600 voor physics zou prima moeten werken. Ook R600 zal op dezelfde manier met physics om gaan, maar doordat deze enorm veel krachtige shaderengines heeft zullen zowel physics als graphics op 1 kaart kunnen gebeuren net zoals bij G80. De voorkeur blijft echter een aparte physics kaart, aangezien dit in de meeste gevallen toch sneller zal blijken te zijn.
niet helemaal....De Quantum-engine zal gebruik maken van de shaders van de G80-gpu om natuurkundige berekeningen te versnellen.Verwijderd schreef op dinsdag 02 januari 2007 @ 17:29:
[...]
Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor..
[ Voor 11% gewijzigd door Mr. Detonator op 02-01-2007 18:07 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
het spel moet het natuurlijk ook ondersteunen...alleen met een driver kom je er nietApoca schreef op dinsdag 02 januari 2007 @ 18:05:
En per wanneer zat dat nu ook alweer in de drivers die physics?
[ Voor 36% gewijzigd door Apoca op 02-01-2007 18:12 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
[offtopic]Apoca schreef op dinsdag 02 januari 2007 @ 18:09:
Ja dat snap ik ook wel. Maar het is toch nog steeds niet aanwezig in de drivers of wel?
heb je ook ooit benchmarks gezien mét en zónder physics, want volgens mij scheelde dat niet zo veel/niks ?Apoca schreef op dinsdag 02 januari 2007 @ 18:09:
Spellen die bv de Unreal Engine 3 geheel gebruiken, zouden hier dus dan mee uit de voeten kunnen.
[ Voor 45% gewijzigd door Mr. Detonator op 02-01-2007 18:18 ]
De marketingmachine van nVidia werkt weer goed... werkte ATIs marketingmachine maar zo goed.Verwijderd schreef op dinsdag 02 januari 2007 @ 17:29:
[...]
Zoals ik dacht zat er wel degelijk een apart gedeelte in de G80.
De Quantum Physix X processor.. en die berekend normaal alles onafh. zonder performance verlies.
Dat is hetgeen ik afleid.. uit wat Nvidia zegt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ja dat is natuurlijk ook weer waar, maar ja ik ga pas na de 2e generatie DX10 kaartjes weer over op een nieuwe ATi GPU. Tot die tijd kan die 100 euro voor een X1600 kaartje der ook wel vanaf.Mr. Detonator schreef op dinsdag 02 januari 2007 @ 18:11:
[...]
Je kan beter dat geld wat je aan de tweede physics/video kaart besteed, aan een wat duurdere videokaart uitgeven...heb je naar mijn idee meer winst
[ Voor 60% gewijzigd door Apoca op 02-01-2007 19:04 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
[ Voor 37% gewijzigd door The Source op 02-01-2007 18:41 ]
Verwijderd
Ik hoop dan dat de GDDR4 verlengt is tot Q2 2007 anders zien we volgens mij geen daglicht van eeThe Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
Misschien dit: http://www.theinquirer.net/default.aspx?article=36663 ?The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
en RS690 en RS690c samplen nu, en MP in februari, echter door productie problemen? is er pas volume productie mogelijk in H2. Deze chip is sneller dan de C61 van nVidia, maar tegen Q3 zal nVIdia hier voor AM2+ weer een opvolger van introduceren, dus vraag mij af wat het probleem is waardoor volume niet mogelijk is.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Op de site van ageia staat een benchmark programma om een scene uit een game te renderen met en zonder PPU. Met PPU gaat het toch echt een stuk sneller dan via de CPU. In hoeverre de optimalisaties van de engine de huidige CPU's de nek doen omdraaien is mij niet bekend.Mr. Detonator schreef op dinsdag 02 januari 2007 @ 18:11:
[...]
heb je ook ooit benchmarks gezien mét en zónder physics, want volgens mij scheelde dat niet zo veel/niks ?
Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !
[ Voor 4% gewijzigd door Format-C op 02-01-2007 19:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Verwijderd
Viral marketing?The Source schreef op dinsdag 02 januari 2007 @ 18:31:
Hoorde vandaag uit Taiwan dat R600 delayed is tot Q2. Druk, dus geen tijd gehad om door te vragen of het DDR3 of enkel DDR4 versie is. ATI vertelde mij een paar weken dat de 'R600' in februari zou komen, dus ik vind het gek dat de site met benchmarks spreekt van Jan.
Verwijderd
[ Voor 32% gewijzigd door Verwijderd op 02-01-2007 22:22 ]
sjah, in hoeverre dat een voordeel is....Verwijderd schreef op dinsdag 02 januari 2007 @ 22:19:
idd de R600 zal geen problemen hebben met de PCI-Express architechtuur en zal ook beter ondersteund worden in Vista.
Maardan de mensen met hun R580/R580+ kaarten en andere R5.xx kaarten zitten ook wel oke hoor, of je nu een PCI-Express x8 slot hebt of een x16 je hoeft niet bang te zijn dat je kaart het niet doet, want werken zal die zeker wel, waarbij een G80 in de soep loopt
Ook nu een sterk voordeel van ATi kaartjes.
Jij hebt het wel erg vaak over je X1900XTX + X1950XT CFE, het komt in ongeveer de helft van je posts naar voren.En dat ik veel F.E.A.R> doet op de Computerclub, is me X1900XTX + X1950 XTX CFE setup nog snel zat, voor mij nog geen R600 iig, maare ik zijn er mensen met een enkele X1800 of X1900 dan zou ik zeggen go for it, en als jullie hem hebben graag wat mooie scherpe foto's
jij ook een goed 2007 toegewenst!Hier bij wens ik iederen een toewenselijk 2007.
Goud is geen geld
Verwijderd
[ Voor 173% gewijzigd door Verwijderd op 02-01-2007 23:56 ]
ik was me net aan ''t bedenken wat ik hierop ging antwoorden, maar je hebt 'm weer eens net op tijd ge-editVerwijderd schreef op dinsdag 02 januari 2007 @ 23:46:
@ frankknopers
Dat dan weer wel, stelde alleen dat het voor mij snelzat is, en voor de gene die Fear vaak doen is de upgrade ook het niet waard tenzei ze R600 CF gaan doen dat is een ander verhaal.
Eerlijk gezegt, zie ik het naapje "8800GTX" meer voorbij komen als een ATi benaamde kaart
En ja als de R600 presteerd hoe die benchmarks het laten zien sla ik hem toch over, lekker tot de R700 wachten ooit hehe, ben benieuwd wat dat gaat leveren en doen qua technieken hehe
[ Voor 3% gewijzigd door Mr. Detonator op 02-01-2007 23:59 ]
Dit topic is gesloten.
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq