Nu dertegen is er de situatie dan nvidia PS3.0 shaders ondersteund... Ati maar 2.0b! Dertegen heeft ati weer 3dc "normal mapping". En dat is moeilijker te emuleren....
het zal dertegen vast wel kunnen..op een bepaald level! Gepatchte driver DLL's enzo..maar emulatie kost kracht en ik vraag me af of het dit keer wel echt mogelijk is!
[Voor 12% gewijzigd door swampy op 10-05-2005 02:45]
There is no place like ::1
nieuws: Volledige specificaties Xbox 360 'gelekt'
Wat jammer dat dit lekkers voorlopig niet op de desktop te krijgen is....De videokaart van ATi draait op 500MHz en is uitgerust met 10MB DRAM en 48 pipelines. Het interne geheugen bestaat uit 512MB GDDR3 werkend op 700MHz


Ook bizar dat de verwachte duurste versie USD 369,= is.
Als je dan ziet wat je voor dat geld aan hardware krijgt en wat je voor hetzelfde geld aan PC hardware kunt kopen moet je toch wel ff

ps: t is natuurlijk wel de vraag of de specs juist zijn.... Ik snap die 48pipes icm Unified shader niet helemaal.
Custom ATI Graphics Processor
- 500 MHz
- 10 MB embedded DRAM
- 48-way parallel floating-point shader pipelines
- unified shader architecture
Memory
- 512 MB GDDR3 RAM
- 700 MHz DDR
Memory Bandwidth
- 22.4 GB/s memory interface bus bandwidth
- 256 GB/s memory bandwidth to EDRAM
- 21.6 GB/s frontside bus
[Voor 55% gewijzigd door Help!!!! op 10-05-2005 13:21]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
[Voor 98% gewijzigd door swampy op 10-05-2005 13:12]
There is no place like ::1
Jah maar spelconsoles worden ook altijd met verlies verkocht. Microsoft haalt de winst uit de marges die ze voor de spellen krijgen. De PS2 wortd ook ver onder produktie prijs verkocht, maar vanwege de hoeveelheid spellen die er voor verkocht worden maakt sony vette winst. PC hardware moet weer wel met winst verkocht worden want ik heb nog nooit een spelontwikkelaar ATI of NVidia een percentage van hun omzet zien geven (ten tweede is de verkoop van games op de console vele malen hoger dan op PC gebied).Help!!!! schreef op dinsdag 10 mei 2005 @ 13:02:
De gelekte Xbox360 specs incl ATI GPU:
nieuws: Volledige specificaties Xbox 360 'gelekt'
[...]
Wat jammer dat dit lekkers voorlopig niet op de desktop te krijgen is....![]()
Ook bizar dat de verwachte duurste versie USD 369,= is.
Als je dan ziet wat je voor dat geld aan hardware krijgt en wat je voor hetzelfde geld aan PC hardware kunt kopen moet je toch wel ff
je hebt een punt maar als deze hardware zou kloppen dan moeten ze wel achterlijk veel spellen per console verkopen om er nog winst uit te peuren lijkt me.....pur_DutchDevil schreef op dinsdag 10 mei 2005 @ 13:21:
[...]
Jah maar spelconsoles worden ook altijd met verlies verkocht. Microsoft haalt de winst uit de marges die ze voor de spellen krijgen. De PS2 wortd ook ver onder produktie prijs verkocht, maar vanwege de hoeveelheid spellen die er voor verkocht worden maakt sony vette winst. PC hardware moet weer wel met winst verkocht worden want ik heb nog nooit een spelontwikkelaar ATI of NVidia een percentage van hun omzet zien geven (ten tweede is de verkoop van games op de console vele malen hoger dan op PC gebied).

Wat ik verder ook niet snap (gesteld dat de GPU specs kloppen) is waarom ze deze architectuur niet ook gelijk op de desktop releasen. Waarom krijg je op de pc nu eerst een verder uitgemolken R300 architectuur.
Of is die nieuwe Xbox GPU niet makkelijk 1 op 1 in de PC desktop over te zetten danwel levert de unified shader architectuur in zijn huidige staat nog niet genoeg power voor de PC?
[Voor 20% gewijzigd door Help!!!! op 10-05-2005 13:30]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

De pc heeft gewoon weg meer bottlenecks waar ATI rekening moet houden dan een console. Console ligt zowizo altijd voor kwa hardware op de PC. Graphics ook wel.
Wat ik me herinner is dat bijv. de XBox 1 qua graphics ongeveer gelijk lag met PC bij introductie.Aight! schreef op dinsdag 10 mei 2005 @ 13:55:
Xbox 360 heeft een hele andere achitectuur, daarbij hoeven hun ook nooit rekening te houden met de mensen die allemaal andere configs hebben. Iedereen heeft maar 1 xbox met dezelfde hardware.
De pc heeft gewoon weg meer bottlenecks waar ATI rekening moet houden dan een console. Console ligt zowizo altijd voor kwa hardware op de PC. Graphics ook wel.
Wel heb ik de indruk dat de consolemarkt belangrijker wordt gevonden dan de PC markt waardoor ATI en NV nu hun nieuwste ontwerpen allereerst naar de console proberen te brengen.
Bovendien moet een console een paar jaar mee terwijl bij een PC veel sneller nieuwe zaken geimplementeerd kunnen worden...
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Een Unified Architectuur van ATI mogen we in 2006 verwachten (gekend als R600). Deze gpu in de xbox 360 (R500) kan je als voorloper zien.Wat ik verder ook niet snap (gesteld dat de GPU specs kloppen) is waarom ze deze architectuur niet ook gelijk op de desktop releasen.
Anoniem: 93354
Waarom zou je met iets heel snels komen als je netzogoed nog 12 maanden je oude ontwerp kan uitmelken? het is nou niet zo dat het ontwikkelen van een gpu gratis is, ze willen zoveel mogelijk winst maken natuurlijk.Help!!!! schreef op dinsdag 10 mei 2005 @ 13:24:
[...]
je hebt een punt maar als deze hardware zou kloppen dan moeten ze wel achterlijk veel spellen per console verkopen om er nog winst uit te peuren lijkt me.....
Wat ik verder ook niet snap (gesteld dat de GPU specs kloppen) is waarom ze deze architectuur niet ook gelijk op de desktop releasen. Waarom krijg je op de pc nu eerst een verder uitgemolken R300 architectuur.
Of is die nieuwe Xbox GPU niet makkelijk 1 op 1 in de PC desktop over te zetten danwel levert de unified shader architectuur in zijn huidige staat nog niet genoeg power voor de PC?
En een console moet 4+ jaar meegaan dus dan moet je wel wat op de tijd vooruit lopen.
Dit soort chips zijn enorm complex en de infrastructuur benodigd om twee verschillende ontwerpen parallel te ontwikkelen en supporten kost veel resources. (twee dure ontwikkelteams, twee tapeouts, twee maal testen etc. etc.)Anoniem: 93354 schreef op dinsdag 10 mei 2005 @ 15:35:
[...]
Waarom zou je met iets heel snels komen als je netzogoed nog 12 maanden je oude ontwerp kan uitmelken? het is nou niet zo dat het ontwikkelen van een gpu gratis is, ze willen zoveel mogelijk winst maken natuurlijk.
En een console moet 4+ jaar meegaan dus dan moet je wel wat op de tijd vooruit lopen.
Waarom zou je voor een "verouderd" ontwerp al deze resources gebruiken. Die kun je wellicht voor andere nuttigere zaken inzetten.
Een reden die ik kan verzinnen is risicospreiding of het feit dat de chip zoals die in de Xbox zit niet 1 op 1 over te zetten is in de PC. Alhoewel de eerste XBOX chip niet veel verschilde van de PC GPU dus dat gaat ook niet helemaal op volgensmij.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nee, omdat er geen games voor zijn op DIT moment. Dat kan natuurlijk in de toekomst snel veranderen, zo'n console moet jaren mee.Bever! schreef op dinsdag 10 mei 2005 @ 16:25:
er is gewoon nog geen nut voor een kaart met 48 pipes, je zit met 16 in enkele gevallen tegen je limiet. denk dat ati ook wat ervaring op wil doen met die unified architecture?
Dit zal al aardig slurpen met 1600x1200 x16AF en 8xAA:


Bovendien, iets moet de eerste stap zetten, of de software, of de hardware, aangezien simuleren niet 100% ideaal is.
48 renderpipes met 10 edram, is trouwens wel erg veel, ik head het niet verwacht iig. Ik lig naast de deur te wachten op de 1e verkoopdag als dit real is.
[Voor 15% gewijzigd door edward2 op 10-05-2005 17:17]
Niet op voorraad.
Anoniem: 115890

Anoniem: 93354
Alleen is het jammer dat zulk soort gfx op de pc beperkt blijven tot shooters. Ik vind het het geld eigelijk niet meer waard om een dure gfx kaart te kopen voor de pc voor die paar shooters die ik speel (waarvan ik de meeste maar 1x speel).edward2 schreef op dinsdag 10 mei 2005 @ 17:14:
[...]
Nee, omdat er geen games voor zijn op DIT moment. Dat kan natuurlijk in de toekomst snel veranderen, zo'n console moet jaren mee.
Dit zal al aardig slurpen met 1600x1200 x16AF en 8xAA:
[afbeelding]
[afbeelding]
Bovendien, iets moet de eerste stap zetten, of de software, of de hardware, aangezien simuleren niet 100% ideaal is.
48 renderpipes met 10 edram, is trouwens wel erg veel, ik head het niet verwacht iig. Ik lig naast de deur te wachten op de 1e verkoopdag als dit real is.
http://downloads.guru3d.c...ded87213f7edf153271a17bb5
De demo duurt ongeveer vijf minuten maar mijn gigabyte ram zit toch bijna vol als ik het draai.ATI and Crytek have released a non-interactive tech-demo (local mirror ~ 161MB), showcasing the new version of the Cryengine, used to develop Far Cry. All video scenes were made in real time.
The ATI-Crytek demo uses same next-generation CryENGINE that will be used to create the successor to Far Cry. Since the CryENGINE enables immediate playability of a created game without the lengthy wait for compiling, enthusiasts into creating "mods" will have an easy way to make new gaming content for themselves. The ATI/Crytek demo shows just how easy it can be, especially since it is optimized to run on ATI's RADEON X800 XT series and the new RADEON PCI Express graphics boards. Download the demo and see for yourself how photo-realistic "machinima" cinematic computing will change your future gaming experience!
Euhh niet allemaal hoor.pur_DutchDevil schreef op dinsdag 10 mei 2005 @ 13:21:
[...]
Jah maar spelconsoles worden ook altijd met verlies verkocht. Microsoft haalt de winst uit de marges die ze voor de spellen krijgen. De PS2 wortd ook ver onder produktie prijs verkocht, maar vanwege de hoeveelheid spellen die er voor verkocht worden maakt sony vette winst. PC hardware moet weer wel met winst verkocht worden want ik heb nog nooit een spelontwikkelaar ATI of NVidia een percentage van hun omzet zien geven (ten tweede is de verkoop van games op de console vele malen hoger dan op PC gebied).
De Nintendo Gamecube heeft altijd winst opgeleverd. Juist door die lage prijs moesten Microsoft en Sony hun consoles onder de productieprijs verkopen.
"The more you take the less you feel, The less you know the more you believe, The more you have the more it takes today"
Edit: Is het een goed idee om er een Zalman VF700Cu op te zetten of is de standaard koeler goed en stil genoeg? Ik wil natuurlijk wel een beetje overclocken.
[Voor 32% gewijzigd door SayWhatAgain! op 11-05-2005 11:39]
Jep, een fout van jezelfZow, had bijna een 6800GT gekocht bij Alternate, maar door een of andere fout ging dat niet door.


Crytek heeft er al eentjeFar Cry Patch 1.32 change log
• Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware

[Voor 4% gewijzigd door edward2 op 11-05-2005 19:31]
Niet op voorraad.
HAHA.




PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Edit: doe ik er trouwens verstandig aan eerst de oude omega's van mijn 9800pro compleet te verwijderen (met ATI uninstall tool) en dan de X800XL erin te gooien? Of boeit dat niet?
[Voor 22% gewijzigd door SayWhatAgain! op 12-05-2005 13:07]


nee het is gewoon 0.11 zonder low-k. Dat is welbekendSayWhatAgain! schreef op donderdag 12 mei 2005 @ 14:32:
Maar goed: kan het nou zijn dat de R430 nu ook op 0.11 low-k geproduceerd wordt? Ze hebben op de doos over "TV-out" gewoon een "VIVO" stickertje geplakt...


Anoniem: 127429
Wie helpt me even op weg ?
+ hoe verwijder ik effectief ati-drivers ?
+ ik ken geen temp-meting meer doen via rivatuner ???? (het betreffende icoontje komt er niet in voor)
Anoniem: 127429
Ati tray tools, als je dit control panel eenmaal hebt gezien flikker je de rest
de vuilnisbak in. Er zit zelfs een fps meter in.

Anoniem: 127429
Right u are ... Zalig tooltje ... de fan op mijn x850xt draait standaard aan 13% (core 38°, env 36°) en maar sjans ook want vanaf 20% maakt die een pukke-herrie zeg ! Ik begrijp niet goed waarom men zo'n brakke fan op zo'n superkaart monteert ... nou ja ...Anoniem: 38733 schreef op vrijdag 13 mei 2005 @ 09:15:
http://www.radeon2.ru/atitray/
Ati tray tools, als je dit control panel eenmaal hebt gezien flikker je de rest
de vuilnisbak in. Er zit zelfs een fps meter in.(om de framerate in games te zien).
Thx a million voor dit tooltje !! CCC ligt er inderdaad al af, net als ati-tool

Lijkt erop dat de kaart nu volledig scherp staat:
Cat 5.4 zonder CCC, stock clocks (cpu ook niet oc)
Idle temp : 40° (met fan op 10 %)
3dmark05 => 5900
3dmark03 => 12200
Het verschil tussen de twee benches is wel groot ... bij mijn 6800GT scoorde ik 5600 marks in 05 en 12700 in 03 ... Hoe komt het dat bij ati dit verder uit elkaar ligt ?
Leuke extra van Asus is dat ook het mem op de achterkant voorzien is van een sink, idem aan de PE versie

[Voor 39% gewijzigd door Anoniem: 127429 op 13-05-2005 14:38]
R7 5700x, B350 Prime Plus, 48GB ddr4 op 3200Mt/s, 960Pro, Ultrastar He10, gtx970, uwqhd.
Someone set up us the cow.
Volgens mij is deze vraag al beantwoord. De x800xl is op het 0,11 procedé gemaakt en die kent geen low-k. Ati laat haar chips produceren bij TSMC en deze biedt alleen low-k op het 0,13 en het 0,09 procedé, geef je zoektocht maar op. De xl heeft nimmer low-k ook al zegt de doos anders.SayWhatAgain! schreef op vrijdag 13 mei 2005 @ 10:55:
Ik heb mijn Club3D X800XL nu draaien met een VF700 er op @stock speeds (komt nog verandering in) en de temps zijn 37 idle en 57 full load. Maar hoe weet ik nou of ie een 0.11 lowk is? Het staat op de doos, maar in de SP staat dat dat niet bestaat...
De informatie op de doos wijkt wel vaker af met het werkelijke product. En vaak plakken ze stickers op andere dozen om productiekosten te besparen..


Value
RV515 > MP date Oct.
RV515 LE 250Mhz DDR1 TSOP / 128bit / 512MB / AIB, Retail, OEM
RV515 PRO 400Mhz DDR2 / 128bit / 512MB / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 256MB / OEM
RV515 SE 250Mhz DDR1 TSOP / 64bit / 256MB / LP design / AIB, Retail, OEM
RV515 SE HM 500Mhz GDDR3 / 32bit / 32MB / LP design / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 128MB / LP design / OEM
RX550, based on RV370 core, 500/250
128/64bit
pcb: pin to pin compatible with current X300 and X600 pro
standard config: 256MB / 128bit
Target product: 6200TC 256
MP: Mid June
>> X300SE HM continue
Mainstream
RV530 > MP date Sept
RV530 DDR1 TSOP / 64&128bit / 64&128MB / LP design
RV530PRO DDR2 / 128bit / 256&512MB / 4 layer
RV530XT GDDR3 / 128bit / 256MB / 8 layer
>> X700 and X600 PRO continue
Performance
R520 > MP date July / Aug
R520XT PE & XT GDDR3 / 256bit / 512MB / Dual slot cooling / PCI-E (aug)
R520 PRO GDDR3 / 256bit / 256MB / Dual slot cooling / PCI-E or AGP (sept)
>> X800PRO, X800XL continue
Ik vind het belangrijk dat de kaart toch wel weer minimaal 2-3 jaar mee kan gaan net zoals m'n huidige Hercules 9700Pro. Nu kun je met SM2.0b nog prima meekomen maar hoe zit dat over 1 tot 2 jaar?? De gametechnologie gaat zo snel, je weet nooit hoe snel de ontwikkelaars de spellen meer gaan richten op SM3.0 waardoor die kaarten meer voordeel gaan krijgen.
Of toch maar wachten op de R5xx kaarten maar die hebben natuurlijk weer een ultrahoge releaseprijs, tegen de tijd dat die qua prijs/kwaliteit verhouding betaalbaar zijn ben je al weer een jaar verder.

Dat zou je wel denken ja maar als je nu kijkt naar de huidige prijzen van bv. de 9800Pro/FX5900 t.o.v. de nieuwe generatie Nvidia/Ati kaarten snap ik niet dat die oudere kaarten uberhaupt nog verkocht worden. Wat dat betreft zit er qua prijs/kwaliteit verhouding niet altijd even veel logica in.dikki dik schreef op donderdag 12 mei 2005 @ 13:34:
nieuwe generatie zou volgende maand ofzo uitkomen? En alleen de high end toch nog, dus tegen een prijs van ruim 500 euro? Zou dit betekenen dat de huidige generatie snel in prijs zal zakken? (Low-end, high- end etc. )
idd zit met hetzelfde probleemNeogenic schreef op vrijdag 13 mei 2005 @ 23:12:
Ik zit toch nog steeds te twijfelen tussen de 6800GT en de Radeon X800 XL. Ik denk wel dat de X800XL de wat betere allround kaart is maar de 6800GT ondersteunt wel SM3.0 en de X800XL niet.
Ik vind het belangrijk dat de kaart toch wel weer minimaal 2-3 jaar mee kan gaan net zoals m'n huidige Hercules 9700Pro. Nu kun je met SM2.0b nog prima meekomen maar hoe zit dat over 1 tot 2 jaar?? De gametechnologie gaat zo snel, je weet nooit hoe snel de ontwikkelaars de spellen meer gaan richten op SM3.0 waardoor die kaarten meer voordeel gaan krijgen.
Of toch maar wachten op de R5xx kaarten maar die hebben natuurlijk weer een ultrahoge releaseprijs, tegen de tijd dat die qua prijs/kwaliteit verhouding betaalbaar zijn ben je al weer een jaar verder.

ik dacht van sm 2.0 verschilt niet erg veel van sm 3.0. Als je je bedenkt dat vrijwel alle ontwikkelaars zowel sm 2.0 als sm 3.0 in hun games verwerken ( op uitzondering van splintercell chaos thoery

Dat is idd waar, maar meestal dalen ze wel. Dit was ook zo bij mijn 9700 die ik toendertijds kocht voor 300 euro een maand later was hij 100 euro minder waard, dat viel best wel tegen. De vraag is echter wanneer dit gebeurd, maar dat is natuurlijk moeilijk te voorspellen.Neogenic schreef op vrijdag 13 mei 2005 @ 23:21:
[...]
Dat zou je wel denken ja maar als je nu kijkt naar de huidige prijzen van bv. de 9800Pro/FX5900 t.o.v. de nieuwe generatie Nvidia/Ati kaarten snap ik niet dat die oudere kaarten uberhaupt nog verkocht worden. Wat dat betreft zit er qua prijs/kwaliteit verhouding niet altijd even veel logica in.
VF700 Vs Silencer....
Ze kosten ongeveer hetzelfde:
His X800XL € 338
Sapphire Ultimate X800XL €330
Is het werkelijk zo dat de beeldkwaliteit sinds de laatste drivers van de 6800 serie op het zelfde niveau zit als de x800 serie, gaat dit niet ten kosten van de performance?
Sommmige zeggen dat de x800 sneller aanvoelt als de 6800 serie, kan iemand dit bevestigen?
SC chaos theory is waarschijnlijk geen uitzondering, STALKER lijkt nu ook SM1.1 / SM3.0 game te worden. Maar gedult, het ATi sm3.0 stuk is onderweg...dikki dik schreef op vrijdag 13 mei 2005 @ 23:22:
[...]
idd zit met hetzelfde probleem![]()
ik dacht van sm 2.0 verschilt niet erg veel van sm 3.0. Als je je bedenkt dat vrijwel alle ontwikkelaars zowel sm 2.0 als sm 3.0 in hun games verwerken ( op uitzondering van splintercell chaos thoery) is de keuze al een stuk makkelijker denk ik.
irritante nvidia campagne, gewoon triestoeLangOetan schreef op zaterdag 14 mei 2005 @ 13:14:
[...]
SC chaos theory is waarschijnlijk geen uitzondering, STALKER lijkt nu ook SM1.1 / SM3.0 game te worden. Maar gedult, het ATi sm3.0 stuk is onderweg...

Het ontloopt elkaar niet veel, alleen rook en explosies vind ik mooier met mijn nieuwe X850 XT dan met mijn Asus V9999 GE.dikki dik schreef op zaterdag 14 mei 2005 @ 09:21:
Ik had nog een paar vraagjes
Is het werkelijk zo dat de beeldkwaliteit sinds de laatste drivers van de 6800 serie op het zelfde niveau zit als de x800 serie, gaat dit niet ten kosten van de performance?
Sommmige zeggen dat de x800 sneller aanvoelt als de 6800 serie, kan iemand dit bevestigen?
Mac Mini Core i5 2.5 Ghz 16 GB 250 GB SSD OS 10.11.x | HP Pavilion 32 | PC; hier | Samsung Galaxy S9
Ik zou zeggen, ga voor de X800XL. Waarom? Hij kakt minder vaak in dan de 6800GT qua minimum FPS. De PS3.0/VS3.0 die in de 6x00-series gebakken zit zal niet toekomstbestendig blijken te zijn. Ik las eergisteren ergens een review over SLI-series, en het performanceniveau met alle PS3.0/VS3.0-opties aan bleef op hetzelfde niveau! Geen prestatiewinst te zien, helaas...Neogenic schreef op vrijdag 13 mei 2005 @ 23:12:
Ik zit toch nog steeds te twijfelen tussen de 6800GT en de Radeon X800 XL. Ik denk wel dat de X800XL de wat betere allround kaart is maar de 6800GT ondersteunt wel SM3.0 en de X800XL niet.
Ik vind het belangrijk dat de kaart toch wel weer minimaal 2-3 jaar mee kan gaan net zoals m'n huidige Hercules 9700Pro. Nu kun je met SM2.0b nog prima meekomen maar hoe zit dat over 1 tot 2 jaar?? De gametechnologie gaat zo snel, je weet nooit hoe snel de ontwikkelaars de spellen meer gaan richten op SM3.0 waardoor die kaarten meer voordeel gaan krijgen.
Of toch maar wachten op de R5xx kaarten maar die hebben natuurlijk weer een ultrahoge releaseprijs, tegen de tijd dat die qua prijs/kwaliteit verhouding betaalbaar zijn ben je al weer een jaar verder.

Ik zou eigenlijk willen zeggen, wacht nog even op de R520, dat doe ik ook namelijk. Tenzij het geld écht brandt in je zak en je videokaart er dusdanig slecht aan toe is dat reanimatie geen baat meer heeft (zoals bij mij dus

bedankt voor je advies je hebt me nu helemaal overgehaaldJejking schreef op zaterdag 14 mei 2005 @ 15:11:
[...]
Ik zou zeggen, ga voor de X800XL. Waarom? Hij kakt minder vaak in dan de 6800GT qua minimum FPS. De PS3.0/VS3.0 die in de 6x00-series gebakken zit zal niet toekomstbestendig blijken te zijn. Ik las eergisteren ergens een review over SLI-series, en het performanceniveau met alle PS3.0/VS3.0-opties aan bleef op hetzelfde niveau! Geen prestatiewinst te zien, helaas...
Ik zou eigenlijk willen zeggen, wacht nog even op de R520, dat doe ik ook namelijk. Tenzij het geld écht brandt in je zak en je videokaart er dusdanig slecht aan toe is dat reanimatie geen baat meer heeft (zoals bij mij dus)...


Overigens de reden van aankoop is dat ik bij de release van battlefield 2 het spel soepel wil kunnen spelen. BF vietnam draait niet zo lekker meer op mijn 9700, 3500+ en 1 gig ram. Niet dat ik het een ramp vind bij dat spel, maar het zegt genoeg over zijn opvolger.


Waarschijnlijk 20 of meer pipes. met 8 of meer vertex shaders.
De R600 zou een gpu worden die gelijk is wat er nu in de Xbox 2 zit.
Alleen ik ben nu al me X850 pro aan het verkopen omdat ik er strax als de R520 er is geen geld meer voor kan krijgen maar zou dit nu 3 maanden duuren of langer ? iemand een idee


LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
ik zou denken van ik sla wel een generatie over en daarna verkoop ik mijn kaart, dan maak je waarschijnlijk nog minder verlies ook. Vooral als je hem tegen de tijd van de prijsdalingen koopt.Astennu schreef op zaterdag 14 mei 2005 @ 16:22:
Ik vraag me af wanneer we de R520 zien. Dit is net als de R420 gewoon een speed boost van de R300.
Waarschijnlijk 20 of meer pipes. met 8 of meer vertex shaders.
De R600 zou een gpu worden die gelijk is wat er nu in de Xbox 2 zit.
Alleen ik ben nu al me X850 pro aan het verkopen omdat ik er strax als de R520 er is geen geld meer voor kan krijgen maar zou dit nu 3 maanden duuren of langer ? iemand een ideeen G70 zou die al die unified shaders hebben of is dit iets dat ATi bed8t heeft
Graag gedaan hoorbedankt voor je advies je hebt me nu helemaal overgehaald




Inderdaad, de R520 is weer een speedbump, maar met behoorlijk wat aanpassingen ten opzichte van de huidige uitgemolken R300-architectuur. Zeg maar dat dit een combo wordt van de R300 en R600... Het aantal pipes zal iig geen 20 of 28 worden, dan heb je ongelijke quads (5x4 en 7x4) dus dat gaat waarschijnlijk niet door. Ik denk cq. vermoed dat het eerst 24 en later 32 zijn, mocht de G70 gehakt maken van de R520 24-pipes versie... 8 Vertexshaders klopt wel, alleen dan Hybrideversies. Ik ben benieuwd...Astennu schreef op zaterdag 14 mei 2005 @ 16:22:
Ik vraag me af wanneer we de R520 zien. Dit is net als de R420 gewoon een speed boost van de R300.
Waarschijnlijk 20 of meer pipes. met 8 of meer vertex shaders.
De R600 zou een gpu worden die gelijk is wat er nu in de Xbox 2 zit.
Kan je doen, wie zal het zeggen of de R520 binnenkort uit is (ik hoop natuurlijk van welAlleen ik ben nu al me X850 pro aan het verkopen omdat ik er strax als de R520 er is geen geld meer voor kan krijgen maar zou dit nu 3 maanden duuren of langer ? iemand een ideeen G70 zou die al die unified shaders hebben of is dit iets dat ATi bed8t heeft

Lol


Ik begin me nu echt af te vragen wat sneller gaat worden, R520 of G70. Volgens mij gaat er (net als bij deze generatie) niet veel verschil in zitten tussen beide topmodellen.
[Voor 31% gewijzigd door Tyranium op 14-05-2005 21:14]
dat geloof je toch zeker zelf niet, Weetje hoeveel mensen er hier nog met een sm 2.0 kaart zitten. Die ontwikkelaars willen indruk op je maken met hun game en dat doen ze niet door sm2.0 eruit te halen. En volgens mij zat dat er zelfs eerst wel in, het levert hun dus zelfs nog meer werk op. Duidelijk dat Nvidia hier agter zit.Tyranium schreef op zaterdag 14 mei 2005 @ 21:09:
[...]
Lol, volgens mij zijn het nog steeds de ontwikkelaars die de spellen maken ( en dus de optie voor sm 2.0 weglaten ) en niet nVidia.

Denk je nou echt dat die ontwikkelaars het risico willen nemen al dat geld mis te lopen van mensen met een sm 2.0 kaart, omdat nVidia het zo lief aan hun vraagt? Het is gewoon te veel werk om alledrie die opties erin te bouwen en ze willen wel dat hun games de nieuwste technologieen hebben, dus bouwen ze er sm 3.0 en een opgeleukte versie van sm 1.1 in (ook voor wat oudere kaarten). Je kan het ook anders zien: het is gewoon jammer dat Ati (nog) geen sm 3.0 in hun videokaarten heeft zitten.dikki dik schreef op zondag 15 mei 2005 @ 09:51:
[...]
dat geloof je toch zeker zelf niet, Weetje hoeveel mensen er hier nog met een sm 2.0 kaart zitten. Die ontwikkelaars willen indruk op je maken met hun game en dat doen ze niet door sm2.0 eruit te halen. En volgens mij zat dat er zelfs eerst wel in, het levert hun dus zelfs nog meer werk op. Duidelijk dat Nvidia hier agter zit.

Het heeft onder andere temaken met de slechte prestaties van de GFFX serie dat met voor een sm1.1 pad kiest. De radeon 9xxx zou waarschijnlijk het sm3.0 -> sm2.0 pad ook niet aankunnen.Tyranium schreef op zondag 15 mei 2005 @ 11:18:
[...]
Denk je nou echt dat die ontwikkelaars het risico willen nemen al dat geld mis te lopen van mensen met een sm 2.0 kaart, omdat nVidia het zo lief aan hun vraagt? Het is gewoon te veel werk om alledrie die opties erin te bouwen en ze willen wel dat hun games de nieuwste technologieen hebben, dus bouwen ze er sm 3.0 en een opgeleukte versie van sm 1.1 in (ook voor wat oudere kaarten). Je kan het ook anders zien: het is gewoon jammer dat Ati (nog) geen sm 3.0 in hun videokaarten heeft zitten.
Dan blijft er nog 1 segment kaarten over, de radeon X series die uit de boot vallen tov de geforce 6 en de volgende generatie ati kaarten,... tjah een lastige keuze, ofwel ga je voor een sm2.x pad maar dan kun je de nVidia subsidies wel vergeten... moeilijke keuzes voor de developers... alternatief kun je voor 3 verschillende codepaden gaan maar dan wordt je QA de helft langer...
Het zal eenvoudiger worden als sm2.0 de baseline wordt.
[Voor 3% gewijzigd door oeLangOetan op 15-05-2005 12:33]
sm 2.0 pad bij het spel hl2 draait op een 9700 toch ook prima. Je kan altijd nog bepaalde effecten wat lager zetten...oeLangOetan schreef op zondag 15 mei 2005 @ 12:32:
[...]
Het heeft onder andere temaken met de slechte prestaties van de GFFX serie dat met voor een sm1.1 pad kiest. De radeon 9xxx zou waarschijnlijk het sm3.0 -> sm2.0 pad ook niet aankunnen.
Dan blijft er nog 1 segment kaarten over, de radeon X series die uit de boot vallen tov de geforce 6 en de volgende generatie ati kaarten,... tjah een lastige keuze, ofwel ga je voor een sm2.x pad maar dan kun je de nVidia subsidies wel vergeten... moeilijke keuzes voor de developers... alternatief kun je voor 3 verschillende codepaden gaan maar dan wordt je QA de helft langer...
Het zal eenvoudiger worden als sm2.0 de baseline wordt.
Maar Nvidia zit hier dus achter

Onwikkelaars willen gewoon een vooruitstrevend spel maken, dus gebruiken ze sm3.0, maar omdat alle oudere kaarten het spel dan niet kunnen spelen doen ze er ook nog sm1.1 in. Maar het duurt denk ik gewoon te lang en is te duur om er ook nog is sm2.0(b) erin te doen. Met sm3.0 heeft Ati gewoon een kans gemist die ze met de r520 recht gaan zetten.dikki dik schreef op zondag 15 mei 2005 @ 15:17:
[...]
sm 2.0 pad bij het spel hl2 draait op een 9700 toch ook prima. Je kan altijd nog bepaalde effecten wat lager zetten...
Maar Nvidia zit hier dus achter
En je kan ook zeggen dat Ati er achter zit dat er in HL2 ook nog sm2.0 zit i.p.v. dat nVidia ervoor zorgt dat het er in spellen als SC: Chaos Theory alleen sm1.1/3.0 zit.

Als ze een vooruitstrevend spel willen maken moeten ze ervoor zorgen dat dat ook gebeurt. Dit behalen ze niet door sm 2.0 eruit te halen. Bovendien zullen de spellenmakers die tijd er gerust wel voor over hebben. Dat bij vrijwel alle spellen sm2.0 nog wordt behouden en spellen met een Nvidia licensie niet zegt al genoeg. Het is zelfs zo dat crytek maar 3 weken de tijd nodig had om sm 3.0 in far cry te implenteren, naast sm 2.0. Veel moeite kost het dus niet. Terwijl het verschil in beeldkwaliteit en perfomance tussen sm2.0 en sm3.0 vele malen kleiner is als tussen sm2.0 en 1.1, wat uit tests is gebleken.Tyranium schreef op zondag 15 mei 2005 @ 15:26:
[...]
Onwikkelaars willen gewoon een vooruitstrevend spel maken, dus gebruiken ze sm3.0, maar omdat alle oudere kaarten het spel dan niet kunnen spelen doen ze er ook nog sm1.1 in. Maar het duurt denk ik gewoon te lang en is te duur om er ook nog is sm2.0(b) erin te doen. Met sm3.0 heeft Ati gewoon een kans gemist die ze met de r520 recht gaan zetten.
daar geef ik je gelijk, hoewel het verschil natuurlijk wel veel kleiner is. 6800 bezitters zullen het gemis aan sm3.0 een stuk minder erg vinden als sm2.0 voor ati.Tyranium schreef op zondag 15 mei 2005 @ 15:26:
En je kan ook zeggen dat Ati er achter zit dat er in HL2 ook nog sm2.0 zit i.p.v. dat nVidia ervoor zorgt dat het er in spellen als SC: Chaos Theory alleen sm1.1/3.0 zit.
Ik vind overigens dat beide partijen zich niet met spellenmakers moeten bemoeien, want het is nu zo van.... oh ik koop een ati omdat ik half life 2 goed wil kunnen spelen of zal ik toch maar een Nvidia omdat ik stalker goed wil kunnen spelen. Die kaarten moeten beide een even grote kans krijgen, de strijd moet niet om licensies gaan maar de strijd moeten ze zelf leveren. Zowel de campagne van Ati en Nvidia vind ik niet kunnen en uitermate triest.
[Voor 4% gewijzigd door dikki dik op 15-05-2005 16:19]
Hier geef ik je compleet gelijk in. Hopelijk gaat dit ook gebeuren vanaf de G70/R520, omdat beide gewoon (goed) SM3.0 ondersteunen.dikki dik schreef op zondag 15 mei 2005 @ 16:17:
Ik vind overigens dat beide partijen zich niet met spellenmakers moeten bemoeien, want het is nu zo van.... oh ik koop een ati omdat ik half life 2 goed wil kunnen spelen of zal ik toch maar een Nvidia omdat ik stalker goed wil kunnen spelen. Die kaarten moeten beide een even grote kans krijgen, de strijd moet niet om licensies gaan maar de strijd moeten ze zelf leveren. Zowel de campagne van Ati en Nvidia vind ik niet kunnen en uitermate triest.

de x300se lijkt de goedkoopste oplossing, hoor er niet veel positiefs over vooral door de 64 bit interface oid, maar hoe vergelijkt ie met m'n gf4 ti4200 64mb en hoe zijn de opengl prestaties voor 3d applicaties en hoe draait ie in spellen als ut2004 en farcry?
Het is heel bellangrijk dat ATi en nVidia zich sterk bezig houden met de game developers, als dat niet gebeurt zouden vele issues veel te laat aan het licht komen. De reden dat de meeste spelen zonder fouten werken wanneer ze uitkomen is het resultaat van een goede samenwerking.dikki dik schreef op zondag 15 mei 2005 @ 16:17:
Ik vind overigens dat beide partijen zich niet met spellenmakers moeten bemoeien, want het is nu zo van.... oh ik koop een ati omdat ik half life 2 goed wil kunnen spelen of zal ik toch maar een Nvidia omdat ik stalker goed wil kunnen spelen. Die kaarten moeten beide een even grote kans krijgen, de strijd moet niet om licensies gaan maar de strijd moeten ze zelf leveren. Zowel de campagne van Ati en Nvidia vind ik niet kunnen en uitermate triest.
De developers moeten ook weten hoe ze het best optimaliseren, de funcities in d3d zijn meestal voor interpretatie vatbaar en het verkeerde gebruik ervan kan tot "onverklaarbare" lage performance lijden. Het is aan ATi en nVidia om uit te leggen hoe de funcies correct gebruikt moeten worden, hoe zij voor die functies hebben geoptimaliseerd.
Een goede samenwerking is HEEL bellangrijk.
maar je snapt wat ik bedoeloeLangOetan schreef op zondag 15 mei 2005 @ 17:51:
[...]
Het is heel bellangrijk dat ATi en nVidia zich sterk bezig houden met de game developers, als dat niet gebeurt zouden vele issues veel te laat aan het licht komen. De reden dat de meeste spelen zonder fouten werken wanneer ze uitkomen is het resultaat van een goede samenwerking.
De developers moeten ook weten hoe ze het best optimaliseren, de funcities in d3d zijn meestal voor interpretatie vatbaar en het verkeerde gebruik ervan kan tot "onverklaarbare" lage performance lijden. Het is aan ATi en nVidia om uit te leggen hoe de funcies correct gebruikt moeten worden, hoe zij voor die functies hebben geoptimaliseerd.
Een goede samenwerking is HEEL bellangrijk.

@ martin als ik jou was had ik een 6600 gt genomen, die schijnen goed te presteren voor de prijs die je ervoor betaalt. Iets rond de 190 euro dacht ik.
Ten eerste: Er is nooit een x700xt in de winkel verschenen
Ten tweede: De pci-e to agp (rialto) chip is al wel klaar, maar voor de x700 serie nog niet gebruikt.


Zie ook:
http://www.vr-zone.com/?i=2137&s=1
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 127429
ene kant:
9 pins svhs (f)
andere kant:
2 x geel composiet (f)
2 x zwart svhs 5 pins (f)
Nu, als ik deze gebruik om mijn 5 pins svhs aan te sluiten wordt mijn tv niet herkend ... wat doe ik verkeerd ? (ps: ik werk met ati-traytools)
goeie vacantie gehad cj?

[Voor 4% gewijzigd door oeLangOetan op 16-05-2005 11:12]
Yep, zeer goede vakantie gehad


Anyway, de E3 staat voor de deur en ik denk dat het Get In The Game programma toch wel een flinke boost gaat krijgen nu de Xbox360 en de Revolution beide een ATi chip gebruiken. . nVidia had in het begin ook redelijk veel voordeel met een reeks consoletitels die eerst op de Xbox uit kwam en later naar de PC geport werd (bv Halo). ATi vertoonde hier vaak nog (kleine) bugs vertoonde of mindere performance leverde (dankzij bv gebrek aan DST). Ik heb zelf het gevoel dat dit straks gaat omdraaien aangezien veel games dus nu van huis uit op ATi hardware wordt gemaakt (bv Halo3 die verschijnt rond de launch PS3 en Gears of War van Epic). Veel populaire games worden bv eerst geprogrammeerd voor de Xbox360 en later omgezet naar de PC. Natuurlijk heeft nVidia nu de PS3, maar de Xbox ligt toch dichter bij een PC dan de PS3.
ATi zal daarnaast een aantal PC-titels gaan showcasen op 'nieuwe hardware' waarvan veel mensen dachten dat het echte nVidia titels zouden zijn, zoals F.E.A.R. ("SM3.0") en Prey ("Doom3 engine OMG ATi zuigt met OGL!"). Een teken dat OGL een nieuwe vlucht gaat nemen bij ATi? Het schijnt dat er iets is verandert waarvan we nu de vruchten gaan merken... Daarnaast zien we Alan Wake van Remedy en natuurlijk ook Black & White 2 die deel uit maken van het GITG programma. Ook de U3-engine schijnt "the engine of choice" te zijn voor de Xbox360 en dus van huis uit goed te lopen op ATi-hardware.
Ik kan in ieder geval niet wachten op alle goodness die ons nu te wachten staat.


Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
daar ben ik me goed van bewust, maar dat is meteen ruim 3 keer duurder. ik gooi er later dit jaar wel een serieuze pci-e kaart in, maar wil nu gewoon gaan voor pci-e mobo maar heb nog geen geld voor een goede pci-e kaart, maar ja er moet toch IETS in totdat ik een 6600gt kan betalendikki dik schreef op zondag 15 mei 2005 @ 18:05:
[...]
@ martin als ik jou was had ik een 6600 gt genomen, die schijnen goed te presteren voor de prijs die je ervoor betaalt. Iets rond de 190 euro dacht ik.
OMg wat een stupide conclusie in de review. En sinds wanneer heeft ATI "more vibrant colours"? Je hoort zon kaart af te raden als er een beter alternatief is voor dezelfde prijs... Hoe bedoel je biased...

En niet beginnen met te zeggen dat ik biased ben (heb een 9700 en 9800 pro gehad

[Voor 38% gewijzigd door Brainless-NL op 16-05-2005 20:34]
Dat zou idd wel mooi zijn. Ik herinner me de tijd van de Xbox nog. die beelden die dat ding weergaf waren veel beter dan de pc. Toen heeft het nog even geduurt voor de GF 3 kwam en die gaf gelijke beelde weer. Ook Ati had toen de 8500 ( nog steeds mijn afvoCJ schreef op maandag 16 mei 2005 @ 13:45:
offtopic:
Yep, zeer goede vakantie gehadHeb af en toe in een internet café wel even op het forum gezeten om toch maar niets te missen.
Anyway, de E3 staat voor de deur en ik denk dat het Get In The Game programma toch wel een flinke boost gaat krijgen nu de Xbox360 en de Revolution beide een ATi chip gebruiken. . nVidia had in het begin ook redelijk veel voordeel met een reeks consoletitels die eerst op de Xbox uit kwam en later naar de PC geport werd (bv Halo). ATi vertoonde hier vaak nog (kleine) bugs vertoonde of mindere performance leverde (dankzij bv gebrek aan DST). Ik heb zelf het gevoel dat dit straks gaat omdraaien aangezien veel games dus nu van huis uit op ATi hardware wordt gemaakt (bv Halo3 die verschijnt rond de launch PS3 en Gears of War van Epic). Veel populaire games worden bv eerst geprogrammeerd voor de Xbox360 en later omgezet naar de PC. Natuurlijk heeft nVidia nu de PS3, maar de Xbox ligt toch dichter bij een PC dan de PS3.
ATi zal daarnaast een aantal PC-titels gaan showcasen op 'nieuwe hardware' waarvan veel mensen dachten dat het echte nVidia titels zouden zijn, zoals F.E.A.R. ("SM3.0") en Prey ("Doom3 engine OMG ATi zuigt met OGL!"). Een teken dat OGL een nieuwe vlucht gaat nemen bij ATi? Het schijnt dat er iets is verandert waarvan we nu de vruchten gaan merken... Daarnaast zien we Alan Wake van Remedy en natuurlijk ook Black & White 2 die deel uit maken van het GITG programma. Ook de U3-engine schijnt "the engine of choice" te zijn voor de Xbox360 en dus van huis uit goed te lopen op ATi-hardware.
Ik kan in ieder geval niet wachten op alle goodness die ons nu te wachten staat.Het zou trouwens wel een stunt zijn als ATi ineens een R500-based desktop VPU zou uitbrengen ipv een hybrid R520. R400 was immers eerst bedoeld voor de PC. Maar goed dat zal niet gebeuren.

want ik vraag me af of ATi de G70 kan verlaan met een speedbumped R300 core. Nvidia is ook niet gek. De R300 was gewoon te veel voor de GF FX dat was duidelijk. FX zat niet echt goed in elkaar en heeft veel steken laten vallen. Toen was een hele nieuwe chip niet nodig. De X800 houd het erg goed tegen over de GF 6. 50/50 winnen ze tests van elkaar. Maar ik denk dat Nvidia daar deze keer verandering in wil brengen met de G70 en dus de lat een stuk hoger zal leggen. Persoonlijk denk ik dat een R520 het niet gaat halen als alleen de clockspeeds en het aanstal piplines wordt vergroot. Ik denk dat er dan ook wat nieuwe technieken bij moeten komen. Wat de GF 6 nu al haalt met een lagere clock meer FPS. Dus ATi zal denk ik toch met iets beters moeten komen.
Ik hoop echt op de R600 ( de pc versie van de R500 ?? ) als die er komt wil ik er gerust 500 a 600 euro voor neer tellen

[Voor 3% gewijzigd door Astennu op 17-05-2005 09:34]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb dus een X850 Pro kaartje met nu een XT bios er in. Alleen gister heb ik de stock cooler er weer op gezet alleen nu wil deze alleen bij startup inschakelen. Als ik naar de dynamic fan control kijk schkeld de cooler pas vanaf 90 c in. Dit lijkt me veel te laat voor een pro kaart. Verder draaide hij vervolgens op 120C nog niet. Khad ook al een manual fan control geprobeert en de fan op 100% gezet maar dan draait i niet. Op 34% een klein beetje.
Ksnap er geen hol meer van

K heb ook al op www.techpowerup.com gekeken maar die hebben alleen maar XT bios files.
Als iemand een tip kan geven graag.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 127429
Jah ik heb daar in de Tab Fan gekeken daar reageerde hij ook niet op. K zal vanaaf eens verder snuffelen maar ik vind het toch een vaag probleem.Anoniem: 127429 schreef op dinsdag 17 mei 2005 @ 12:29:
Al geprobeerd met ati-traytools ? kun je de fan zowel handmatig als via temp-sensor instellen ...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
1. Lees eens de regels in DIT topic door. Géén vragen over problemen met je videokaart, en daar valt je bios dus óók onder.
2. Je hebt al een topic lopen in Die-Hard Overclocking & Cooling, dus maak daar je topic af, en niet hier. Houd dit Topic schoon!.
Conclusie: wat je nu aan het doen bent hier is heel erg fout. Ik maak er geen report van, dat vraagt alleen maar om haat en nijd e.d., maar laat mijn punt heel duidelijk zijn!
Yes SirJejking schreef op dinsdag 17 mei 2005 @ 18:08:
Dit is niet om jullie mooie dag te verpesten jongens, maar voor Astennu:
1. Lees eens de regels in DIT topic door. Géén vragen over problemen met je videokaart, en daar valt je bios dus óók onder.
2. Je hebt al een topic lopen in Die-Hard Overclocking & Cooling, dus maak daar je topic af, en niet hier. Houd dit Topic schoon!.
Conclusie: wat je nu aan het doen bent hier is heel erg fout. Ik maak er geen report van, dat vraagt alleen maar om haat en nijd e.d., maar laat mijn punt heel duidelijk zijn!


Kvraag alleen maar voor een bios omdat hier veel mensen zitten met ATi kaarten wat is daar nu zo fout aan

[Voor 10% gewijzigd door Astennu op 17-05-2005 19:10]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Tuurlijk, daar is niks mis mee, ik denk dat Jejking wat overdrijft.maar ik vind dat een vraag of een bios moet kunnen.
Btw, voor bios files kan je eens een kijkje nemen @ http://www.mvktech.net/in...d=26&func=selectcat&cat=1
NOFI. Just making a point.
Als ik deze reactie niet had geplaatst, had je morgen CJ over je heen gehad met dito message, dus het was sowieso wel gekomen denk...
Maar goed, beton erover

Weer ontopic: met wat ik vandaag heb gezien aan spul over de PlaystationIII met de G70 erin, hoop ik voor ATi dat de R520 weer een allesverpulverend product zal zijn, anders kunnen ze misschien wel eens een probleempje gaan krijgen met afhakende mensen...
Gelukkig zal met de komst van de R520 de PS3.0/VS3.0-voordelen-discussie van de baan zijn (pfew


Ook architecturaal gezien schelen beide kaarten weinig van hun voorgangers, de G70 is een gespeedbumpte versie van de NV40, maar heeft de R520 PS3.0/VS3.0 er bijgekregen + nog een paar hebbedingetjes (waarvan ik vergeten ben wat het was

Mja, en als iedereen een appart topic opent om een bios te hebben is het ook niet goedBrainless-NL schreef op dinsdag 17 mei 2005 @ 20:31:
k ben het met Jejking eens. Het komt vaak voor dat newbies direct op de regels gewezen worden, terwijl meer "elite" GoT'ters zich vaak niet aan de regels houden, omdat ze dit zogenaamd niet hoeven ofzo?
NOFI. Just making a point.

Weet je wel waar je over praat? Je haalt heel wat zaken door elkaar.Weer ontopic: met wat ik vandaag heb gezien aan spul over de PlaystationIII met de G70 erin, hoop ik voor ATi dat de R520 weer een allesverpulverend product zal zijn, anders kunnen ze misschien wel eens een probleempje gaan krijgen met afhakende mensen...
Gelukkig zal met de komst van de R520 de PS3.0/VS3.0-voordelen-discussie van de baan zijn (pfew). Maar de G70 met 300+ miljoen transistoren liep op ongeveer 550 MHz. Naar mijn mening moet de R520 dan in staat zijn om de G70 hard aan te pakken, want die liep op 700+ MHz. Lijkt me een mooie zet om je eerste product op 0,09u + low-K meteen boven de 700 MHz te krijgen, want ik dacht dat Nvidia ook gebruik maakte van Low-K (ik kán het fout hebben natuurlijk)
1) Niemand zegt dat er een G70 in de PS3 zit, dat zijn geruchten
2) De R500 zit in de xbox360, niet de R520, de R500 is met z'n nieuwe architectuur (dat pas in 2006 naar de pc komt) in theorie meer dan dubbel zo snel als de huidige kaarten
3) Kloksnelheden van de G70 & R520 zijn niet bekend, vanwaar haal jij nou die 700MHz, je verwart weer de xbox360 gpu (R500) met de R520
[Voor 70% gewijzigd door XWB op 17-05-2005 21:45]
De g70 is nog altijd op .11mu waar de R520 al op 90nm gaat draaien.
Snelheden zijn nog niet bekend.
edit:
snel editen en wat info bijvoegen he? spuit11 !

[Voor 14% gewijzigd door Zeus op 17-05-2005 21:45]
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "

Over G70 in de PS3, dat is volgens mij wel bijna zeker. nVidia heeft zelf al aangegeven dat er dit jaar nog PS3 tech op de desktop uit komt. G70 is de eerstvolgende halte deze zomer... lijkt me niet dat G80 ook al dit jaar uit komt.
G70 op 0,11u voor de desktop en RSX voor de PS3 op 0,09u + low-k. Mijn inschatting is dat de G70 24 pipes op 400 mhz zal hebben, terwijl de RSX 24 pipes zoals gezegd op 550Mhz heeft. Een kleine calculatie laat dan zien dat de performance van de RSX iets meer dan verdubbelt, terwijl de G70 een tussenstop is (en dus een speedboost van de NV40-tech). Maar goed, misschien heb ik het wel helemaal verkeerd (en dit hoort trouwens in het nV topic

Mijn verwachting voor ATi. R520 op ongeveer 650 Mhz. Aantal pipelines... minder dan de meeste mensen verwachten. Ik ga uit van 16 + 8 hybrid.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Alleen lijkt de kloksnelheid van de R520 me te hoog? Ik denk eerder ~600MHz met meer pipes, 32 is te veel, 24 zou best wel kunnen.
Cat 5.5 is trouwens uit.
CP: http://www2.ati.com/drivers/5-5_xp-2k_dd_cp_wdm.exe
CCC: http://www2.ati.com/drivers/5-5_xp-...ccc_wdm_enu.exe
Releasenotes: http://www2.ati.com/drivers/Catalyst_55_release_notes.html
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
WAt bedoel je met die hybrid ? 16 pipes en 8 vertex ? want 16 is ook vaak de max vertex denk ik net ?CJ schreef op dinsdag 17 mei 2005 @ 21:55:
Zoals al eerder gezegd, graag ontopic blijven en alleen discussieren over de nieuwsfeitjes. Dit was de hoofdreden waarom dit topic werd toegestaan en er een eind kwam aan de Grote Radeon topics. Daarom heb ik het ook uitdrukkelijk in de topicstart gezet en ook 'oldschool' Got-ters dienen zich hieraan te houden.![]()
Over G70 in de PS3, dat is volgens mij wel bijna zeker. nVidia heeft zelf al aangegeven dat er dit jaar nog PS3 tech op de desktop uit komt. G70 is de eerstvolgende halte deze zomer... lijkt me niet dat G80 ook al dit jaar uit komt.
G70 op 0,11u voor de desktop en RSX voor de PS3 op 0,09u + low-k. Mijn inschatting is dat de G70 24 pipes op 400 mhz zal hebben, terwijl de RSX 24 pipes zoals gezegd op 550Mhz heeft. Een kleine calculatie laat dan zien dat de performance van de RSX iets meer dan verdubbelt, terwijl de G70 een tussenstop is (en dus een speedboost van de NV40-tech). Maar goed, misschien heb ik het wel helemaal verkeerd (en dit hoort trouwens in het nV topic)
Mijn verwachting voor ATi. R520 op ongeveer 650 Mhz. Aantal pipelines... minder dan de meeste mensen verwachten. Ik ga uit van 16 + 8 hybrid.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hij bedoelt denk ik dat het 16pipelines zijn en 8 vertexes, die ook als pipelines gebruikt kunnen worden (waardoor het totaal op 24 komt, wanneer er geen vetexes gebruikt worden)..Astennu schreef op dinsdag 17 mei 2005 @ 22:44:
[...]
WAt bedoel je met die hybrid ? 16 pipes en 8 vertex ? want 16 is ook vaak de max vertex denk ik net ?
Dit topic is gesloten.