klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel
Nee, dat heb ik idd gemist en dat kwam ook niet uit eerdere verklaringen.KneoK schreef op maandag 12 mei 2008 @ 19:46:
[...]
Als je de laatste paar posts gelezen had dan had je nu niet geroepen dat de renderbugs onder DX10.1 ontstaanHet is juist de DX10.0 only hardware die problemen heeft met de implementatie. In ieder geval op nVidia hardware en vrijwel zeker ook op Ati DX10.0 hardware.
Ik dacht ook dat de 10dx code (met dx10.1 implementatie) niet wezenlijk zou verschillen met de dx10 code zonder dx10,1 support, maar blijkbaar is dx10.1 dieper geworteld (dx10 basis) en dienen er ook aanpassingen in dx10 te gebeuren.
Verder, ik merk ook geen render artefacts onder dx10, al is de (ingame) AA niet zo dekkend over de gehele linie als CP forced AA. Ik zou dan nog steeds SS willen zien met de zgn. renderbugs.
Niet op voorraad.
Ik weet niet wie Fudo die info hebt ingefluisterd, maar hij is wel zeker van zichzelf, ondanks dat 95% van de rest van de wereld beweert dat het gewoon 256-bit wordtwaterking schreef op maandag 12 mei 2008 @ 21:48:
Serieus.. ik lees al 2 pagina's vrijwel alleen maar flames.
Niemand nieuws? Op fudzilla las ik over een 512 bit bus voor de r770xt. ben benieuwd of hij daarmee kan concurreren tegen het "nvidia" geweld onder de naam gt200
Anoniem: 23009

Maar fudo zal wel op safe spelen met z'n 512-bit door naderhand te beginnen over 2x 256-bit, en dat hij toch gelijk had. Maar imho is het gewoon onzin wat hij schrijft. Sensatie opwekken zoals hij wel vaker doet.
Dat krijg je als Cheetah gaat "discussiëren"waterking schreef op maandag 12 mei 2008 @ 21:48:
Serieus.. ik lees al 2 pagina's vrijwel alleen maar flames.
Niemand nieuws? Op fudzilla las ik over een 512 bit bus voor de r770xt. ben benieuwd of hij daarmee kan concurreren tegen het "nvidia" geweld onder de naam gt200
Ik dacht dat CJ juist ergens had gezegd dat fudo aan de beterende hand was qua comments en geloofwaardigheidleonpwner1 schreef op maandag 12 mei 2008 @ 23:39:
Maar fudo zal wel op safe spelen met z'n 512-bit door naderhand te beginnen over 2x 256-bit, en dat hij toch gelijk had. Maar imho is het gewoon onzin wat hij schrijft. Sensatie opwekken zoals hij wel vaker doet.

De meeste mensen deugen!
Er staat nergens dat er 4 miljoen dollar is "betaald". Er is alleen 4 miljoen dollar betrokken bij geweest... maar dat wil niet per se zeggen dat dit overgemaakt is van de ene bankrekening op de ander. In gevallen als deze zit het naast de gebruikelijke marketingactiviteiten (bundels, vouchers, gebruik maken van de naam etc) ook voornamelijk in manuren.
NV heeft een enorm groot dev-support team (ik geloof 300-400 man). Bij sommige games sturen ze grote supportteams om de devs bij te staan bij het ontwikkelen. Een half jaar lang 20 man laten mee draaien (zelfs de wereld over laten vliegen, overnachtingen regelen etc) en je zit al gauw op een hele hoge kostenpost. Reken maar eens uit... maandsalaris... x aantal mensen on-site... x aantal maanden support. Dit neemt NV voor hun rekening om er voor te zorgen dat de games goed draaien op hun hardware.
Dus ook al wordt er niet rechtstreeks geld over gemaakt, indirect gebeurt dit wel. Zo werkt het TWIMTBP programma al jaren. Daarom kunnen ze zeggen dat er geen bedragen of omkoopsommen zijn overgemaakt. Crysis is ook een goed voorbeeld waar een groot dev-support team van NV on-site gewerkt heeft met CryTek. Dit heeft NV in enkele interviews aangegeven en ook CryTek heeft gezegd dat ze NV devs inhouse hadden. Dat grapje is echt niet gratis.
AMD doet dit ook, maar lang niet zo uitgebreid... en de enige imo actieve devsupportmedewerker is vorig jaar augustus vertrokken bij AMD.
En in het geval van AC... mensen zagen geen eens grote verschillen in IQ ondanks het zogenaamd niet goed werken van het DX10.1 path. Ze zagen zelfs een verbetering in IQ. De Radeon community doet er dan gewoon goed aan de komende patch dus ook niet installeren als teken dat Ubisoft er maar voor moet zorgen dat ze hun zaakjes goed voor elkaar hebben. Zoals het artikel op TG Daily zegt in de conclusie:
Overigens is het dikke onzin dat een DX10.1 path voor problemen kan zorgen op DX10 videokaarten. De game heeft 2 paden... DX10 en DX10.1. Die laatste is later toegevoegd en zou - zoals ik het begrepen heb van mijn dev-bronnen - geen enkele invloed mogen hebben op het originele DX10 path, tenzij de devs het compleet verneukt hebben. En dat lijkt me sterk... gezien de developersupport die NV gegeven heeft aan AC... dat ze zoiets over het hoofd zouden kunnen zien... Nee... dacht het niet....Solution is simple: if you run ATI hardware, just don't patch the game (once that the patch comes out) and enjoy all the advantages of DirectX 10.1 - e.g. one pass less to render.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En FUD vermoed dat de GT200 GTX versie 499$ gaat kosten mja dat had iedereen wel kunnen bedenken....Behind closed doors at Computex
AMD plans to show off its RV770XT and PRO cards at Computex, but it won't launch it until late June.
We've learned that AMD plans a launch and retail /etail availability of RV770XT and PRO based products in the last week of June.
We've told you before that the real retail availability is planned for Q3 2008 and Q3 as you might know will start with the first day of July. If AMD decided to launch the card at Computex, the retail cards would follow after three weeks and the company doesn’t want that.
Nvidia set up a launch and the availability rule and ATI obeys it.
Ik vind het echt tijd worden voor wat benshmarks
[ Voor 3% gewijzigd door Astennu op 13-05-2008 10:01 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 107626
Het is gewoon een kwalijke zaak dat nV zulke manieren nodig heeft om de competitie om zeep te helpen. Hun kaartjes zijn goed genoeg zou je denken, dan maakt die 20% ook niet uit. Maar goed het balletje kwam al snel aan t rollen toen ATi goede publiciteit kreeg en vervolgens UbiSoft gehaast aankondigde dat ze een patch gingen uitbrengen. Dit zijn natuurlijk allemaal speculaties, maar gezien nV's staat van dienst, word je al snel bevooroordeeld. Dat klopt dan weer wel. Maar vooruit, laten we nV deze keer eens het voordeel van de twijfel geven.Cheetah schreef op maandag 12 mei 2008 @ 21:03:
oeLangOetan heeft i.m.o. wel gelijk dat een dergelijke discussie 'dood' is, alleen om een iets andere reden dan hij aandraagt: namelijk dat het zinloos is om te discussieren met bevooroordeelde mensen die niets anders willen horen, lezen of zien dan iets dat wat ze vooraf al vonden bevestigd

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
oeh
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
*kuch* da's een week later... *kuch*
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
The Flying Dutchman
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Ik heb ook al clockspeeds binnen.
[ Voor 25% gewijzigd door CJ op 13-05-2008 12:56 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dus goed en slecht nieuws.....CJ schreef op dinsdag 13 mei 2008 @ 12:44:
Ik kreeg net door dat de 11de echt niet kan... het is ofwel de 16de of de 18de. De 18de kreeg ik vanochtend door met een week later voor de XT ivm levering van GDDR5 (en GDDR5 levert bv Qimonda al in 3,6, 4,0 en 4,5 Ghz).
Ik heb ook al clockspeeds binnen.Maar wacht nog even op verificatie van een andere bron.
Het is echter lager geklokt dan ik had verwacht.
Goede nieuws is dat de XT er vrij snel achter aan komt.
Nu nog even afwachten wat die clocks dan worden. Is er spraken van clock domains met dus hogere shader dan core clocks ? of mag je daar nog iets over zeggen ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Op een of andere manier had ik meer verwacht. Maar aan de andere kant 240 shaders is bijna het dubbele. Memory bus is verdubbeld. En dit alles in een chip. Dus ik gok 9800 GX2 performance als niet iets meer.De ontwerptekeningen van de Nvidia Geforce 9900GTX en 9900GTS zijn uitgelekt. Op basis van het ontwerp lijkt de GT200-gpu te bestaan uit twee geïntegreerde grafische rekeneenheden.
De pcb biedt volgens het naar Vr-zone gelekte D10U-referentieontwerp ruimte voor zestien gddr3-geheugenchips, met een maximale geheugencapaciteit van 1GB. Het geheugen zou, zoals al eerder werd gesuggereerd, een 512bit brede bus krijgen.
De GT200-gpu die zich op de 26,6cm lange dualslot-videokaart bevindt, zou gekoeld worden door een Coolermaster TM71-koeler. Hoewel nog onbekend is of de GT200 op het 55nm- of 65nm-procedé wordt gebakken, is het niet ondenkbaar dat Nvidia de gpu in eerste instantie op basis van een 65nm-ontwerp zal uitbrengen. In totaal zou de chip de beschikking hebben over 240 streamprocessors. Volgens de geruchtenstroom ligt de tdp van het GTX-model op 240W. Naar verwachting komen zowel de 9900GTX als de 9900GTS nog deze zomer op de markt.
Nu dus de grote vraag wat gaan de ATi kaartjes doen. Op dit moment zou een RV770 XT nog langzamer worden dan een 3870 X2. Twee samen zijn iets sneller dan de huidige X2 en dus hier en daar iets sneller dan de GX2 mits CF goed ondersteund wordt.
Het begint weer lekker spannend te worden
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
CJ told us GT200 could have 8 ROP partitions connected with 64-bit each making up the 512-bit memory interface and up to 10 clusters of 24 SPs = 240 stream processors.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat leuk dat je meer weet over de implementatie dan de lead AC developperCJ schreef op dinsdag 13 mei 2008 @ 01:23:
Overigens is het dikke onzin dat een DX10.1 path voor problemen kan zorgen op DX10 videokaarten. De game heeft 2 paden... DX10 en DX10.1. Die laatste is later toegevoegd en zou - zoals ik het begrepen heb van mijn dev-bronnen - geen enkele invloed mogen hebben op het originele DX10 path, tenzij de devs het compleet verneukt hebben. En dat lijkt me sterk... gezien de developersupport die NV gegeven heeft aan AC... dat ze zoiets over het hoofd zouden kunnen zien... Nee... dacht het niet....
Feit blijft dat de game een boel gedonder geeft op DX10 kaarten, m.n. gerapporteerd op nVidia hardware. Het lijkt er gezien Ubisofts uitleg sterk op dat de DX10.1 coding geintegreerd is met en/of verweven is door de standaard DX10 coding en op non 10.1 ondersteunende hardware voor problemen zorgt. Volgens hun uitleg is deze coding (die volgens jouw bronnen dus later is toegevoegd) niet goed getest op DX10.0 hardware, z.g.n. 'untested code', maar wel in de final build terechtgekomen.
Het is dan niet zo'n gek plan om die coding tot nader order/onderzoek te disablen/verwijderen. Da's exact hoe ik, als softwareontwikkelaar/projectleider, het ook zou oplossen.
Gezien nV naar verwachting op vrij korte termijn met DX10.1 compliant hardware komt vind ik het idee dat zij achter de patch zitten vrij onwaarschijnlijk. Daarnaast is het ook nog eens zo dat nVidia met 'slechts' een single 9800GTX qua AA performance een veel duurdere 3870X2 bijhoudt, ondanks de 20% boost van de laatste. Dezelfde trend zie je ook bij de goedkopere hardware (8800GT(S) vs 3870), dus ook in dat opzicht is er geen 'noodzaak' voor verwijdering uit nV's oogpunt.
Wat ik me wel uitstekend kan voorstellen is dat nV van Ubisoft heeft geeist dat de problemen op hun hardware zsm gefixed worden. Blijkbaar heeft Ubi er vervolgens voor gekozen om de coding van de ATi dev's eruit te halen...
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
HahaCJ schreef op dinsdag 13 mei 2008 @ 13:14:
Als je de bron van dat artikel op de frontpage leest dan zie je het volgende:
[...]
Maar geef jij hun die info of lezen hun dit op GOT en posten ze het alsof ze het van jou gekregen hebben ? En ik neem aan dat jij toch wel betrouwbare informatie aan die gaste zou geven. Aangezien ze jou elke keer vermelden
Ik vraag me ook af hoe efficiënt die 8x64Bit bus is. Vergeleken met een 8x32 Bit.
[ Voor 8% gewijzigd door Astennu op 13-05-2008 13:20 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
descahling van CrossFire is altijd veel zuiniger als nVidia's SFR eweest, dus daar ligt ATi's voordeel, ATi deed altijd veel meer met veel minder.
[ Voor 35% gewijzigd door Anoniem: 23009 op 13-05-2008 13:23 ]
Maak dan twee patches een voor de DX10.1 users en een voor al het overige. Zo moeilijk kan dat niet zijn. DX10.1 werkt verder goed dus zorg dan gewoon dat dat in stand kan blijven.Cheetah schreef op dinsdag 13 mei 2008 @ 13:18:
[...]
Wat leuk dat je meer weet over de implementatie dan de lead AC developper
Feit blijft dat de game een boel gedonder geeft op DX10 kaarten, m.n. gerapporteerd op nVidia hardware. Het lijkt er gezien Ubisofts uitleg sterk op dat de DX10.1 coding geintegreerd is met en/of verweven is door de standaard DX10 coding en op non 10.1 ondersteunende hardware voor problemen zorgt. Volgens hun uitleg is deze coding (die volgens jouw bronnen dus later is toegevoegd) niet goed getest op DX10.0 hardware, z.g.n. 'untested code', maar wel in de final build terechtgekomen.
Het is dan niet zo'n gek plan om die coding tot nader order/onderzoek te disablen/verwijderen. Da's exact hoe ik, als softwareontwikkelaar/projectleider, het ook zou oplossen.
Gezien nV naar verwachting op vrij korte termijn met DX10.1 compliant hardware komt vind ik het idee dat zij achter de patch zitten vrij onwaarschijnlijk. Daarnaast is het ook nog eens zo dat nVidia met 'slechts' een single 9800GTX qua AA performance een veel duurdere 3870X2 bijhoudt, ondanks de 20% boost van de laatste. Dezelfde trend zie je ook bij de goedkopere hardware (8800GT(S) vs 3870), dus ook in dat opzicht is er geen 'noodzaak' voor verwijdering uit nV's oogpunt.
Wat ik me wel uitstekend kan voorstellen is dat nV van Ubisoft heeft geeist dat de problemen op hun hardware zsm gefixed worden. Blijkbaar heeft Ubi er vervolgens voor gekozen om de coding van de ATi dev's eruit te halen...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 156281
Bwa, dat is toch niet altijd waar imo. 8800GT is singlecard iets sneller dan een HD 3870, en de SLI opstelling blijft sneller dan HD 3870 CFX. Lijkt me wat kort door de bocht dus. Besides, denk niet dat nV voor een 9900GX2 gaat, als een single chip al 240W verbruikt. Denk dat de HD 4870X2 al moeite zal hebben om de GTX te verslaan tbh.Anoniem: 23009 schreef op dinsdag 13 mei 2008 @ 13:22:
ik denk dat een HD 4870 X2 een GX2 er met gemak er uit trekt aangezien dat CrossFire veel beter schaalt dan SLI wat eigenlijk SFR is heh.
descahling van CrossFire is altijd veel zuiniger als nVidia's SFR eweest, dus daar ligt ATi's voordeel, ATi deed altijd veel meer met veel minder.
Astennu schreef op dinsdag 13 mei 2008 @ 13:19:
[...]
Haha![]()
Maar geef jij hun die info of lezen hun dit op GOT en posten ze het alsof ze het van jou gekregen hebben ? En ik neem aan dat jij toch wel betrouwbare informatie aan die gaste zou geven. Aangezien ze jou elke keer vermelden
Denk dat ik het nu wel kan zeggen... voor zover dat nog niet duidelijk was.... Maar ik werk vrij nauw samen met o.a. VR-Zone. Ik heb er echter voor gekozen om op de achtergrond te werken en niet rechtstreeks artikelen/berichten te schrijven. Degene die dat doet krijgt namelijk nog veel meer shit om z'n oren als iets de lezer niet bevalt... en hier in dit topic heb ik m'n handen er soms al vol aan... laat staan dat ik shit uit de hele wereld over me heen krijg...
[ Voor 3% gewijzigd door CJ op 13-05-2008 13:32 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Developpers zijn er vaak zeer huiverig voor om meerdere builds van 1 stuk software te moeten ondersteunen.Astennu schreef op dinsdag 13 mei 2008 @ 13:23:
Maak dan twee patches een voor de DX10.1 users en een voor al het overige. Zo moeilijk kan dat niet zijn. DX10.1 werkt verder goed dus zorg dan gewoon dat dat in stand kan blijven.
Dit is ook niet zo vreemd: toekomstige patches moeten dan ook in tweevoud uitgevoerd worden, in ieder geval totdat het DX10.0 en 10.1 path geintegreerd in 1 patch kan worden aangeleverd. Gezien de relatief geringe marktpenetratie van 10.1 compliant hardware die snel genoeg is om AA te doen in AC kan er uit kostenoverwegingen en qua eenvoud m.b.t. logistiek allicht voor de huidige oplossing gekozen zijn.
Het zou me trouwens weinig verbazen als Ubisoft in plaats van 10.1 coding te disabelen gewoon een iets oudere op DX10.0 hardware ontwikkelde build pakt en de coding daarvan released in de patch. Het is in dat geval inderdaad zeer de vraag of ze nog de moeite willen doen om uit te gaan zoeken waar het in de 10.1 build misgaat op 10.0 hardware. Weinig irritanter en kostbaarder dan duizenden of tienduizenden regels code waar bugs in zitten die random crashes veroorzaken door te zeefen. Believe me, I know.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik weet hoe DX10 en de DX10.1 update werken. Tenminste 'zouden' moeten werken als het goed geimplementeerd is.Cheetah schreef op dinsdag 13 mei 2008 @ 13:18:
[...]
Wat leuk dat je meer weet over de implementatie dan de lead AC developper
DX10.1 is een uitbreiding op DX10, puur en alleen om bepaalde dingen gemakkelijker te maken en om dingen te fixen die niet goed waren geregeld in DX10 (zoals AA). Als een game een DX10.1 codepath heeft en dit op een DX10 kaart gespeeld wordt, dan maakt de game by default gebruik van het DX10.0 codepath. DX10.1 zou een aparte codepath moeten zijn die naast het DX10 codepath bestaat en wat geen enkele invloed heeft op het DX10 codepath... op geen enkele manier. Zo is dat in het verleden ook gegaan met DX9a/b/c, DX8.0/8.1 etc.
Wanneer dat wel het geval is, dan heeft de dev het gigantisch verneukt en mag Ubisoft het gehele Q&A team wel ontslaan, want zoiets kan/mag gewoon niet door de testfase heen komen. Het grappige is dat NV devrel de laatste mensen waren die aan AC hebben gewerkt en niet het AMD team. Je zou zeggen dat dit hun al zou zijn opgevallen als er problemen waren...
En op dit moment zijn er voor zover ik weet geen meldingen dat er zich dezelfde problemen voordoen op de HD2900XT als op de GF8 serie, wat dus wel zou moeten want beiden maken gebruik van het DX10.0 path. Nu maar eens zien of de problemen op GF8 kaarten ook echt opgelost worden met de nieuwe patch.
Zelfs Ubisoft's woordvoerder Michael Beadle zegt nu dat gebruikers van een DX10.1 kaart die geen enkele probleem hebben met de game, de patch niet moeten installeren:
Bron: http://www.techreport.com/discussions.x/14707Beadle made the further point that users of DirectX 10.1 graphics cards may simply want to avoid applying the patch to the game, if they're not encountering any problems with it.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Voor degenen met een HD3870(X2) kaart (al dan niet in CF) die het nog steeds niet gedaan hebben... download de Vantage Hotfix drivers!!
De naam doet er op lijken alsof het een driver is die puur en alleen bedoeld is om de scores in Vantage te boosten en wat bugs in Vantage op te lossen, maar niets is minder waar. De Vantage hotfix fixed ook CF scaling (zowel X2 als X4) in veel DX10 games.
Gears of War

Lost Planet

World in Conflict

Bron: http://www.rage3d.com/articles/vantage-hotfix/index.php?p=1
De Vantage Hotfix drivers zijn dus een voorproefje op wat komen gaat in Catalyst 8.5...
[ Voor 3% gewijzigd door CJ op 13-05-2008 14:10 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Holy dammCJ schreef op dinsdag 13 mei 2008 @ 14:10:
Rage3D artikel: Hotfix Schmotfix
Voor degenen met een HD3870(X2) kaart (al dan niet in CF) die het nog steeds niet gedaan hebben... download de Vantage Hotfix drivers!!
De naam doet er op lijken alsof het een driver is die puur en alleen bedoeld is om de scores in Vantage te boosten en wat bugs in Vantage op te lossen, maar niets is minder waar. De Vantage hotfix fixed ook CF scaling (zowel X2 als X4) in veel DX10 games.
Gears of War
[afbeelding]
Lost Planet
[afbeelding]
World in Conflict
[afbeelding]
Bron: http://www.rage3d.com/articles/vantage-hotfix/index.php?p=1
De Vantage Hotfix drivers zijn dus een voorproefje op wat komen gaat in Catalyst 8.5...
Ik heb trouwens met me X2 soms ineens probs met CF bv in wow dat het gaat stotteren terwijl de fps hoog is. Cat AI uit en dus CF uit en het is weg. Enige oplossing is dan Totale reinstall en het werkt weer. Moet er toch eens achter zien te komen wat dit is.
En me broer heeft met zijn X1900 op win XP SP3 en CA al 2x een crash gehad dat het hele zaakje niet meer wil starten. Of dat hier iets mee te maken heeft ? non patched versie. Gebeurde wel altijd als bv windows update of in het andere geval mcaffee iets met de PC heeft. Maar daar na was gewoon een bios reset nodig. PC heeft met andere games nooit probs gehad. PC is ook niet overclocked.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ghehe i realy dont careSplinter Cell schreef op dinsdag 13 mei 2008 @ 15:27:
Wow, dat zijn behoorlijke verschillen. Ik hoop dat 8.5 nog meer in zijn mars heeft. Jammer dat ze Crysis niet getest hebben.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
idd, imho bioshock & portal > crysis
Dat schreef ik gisteren dus ook al min of meer. En verder ontbreekt nog steeds elk bewijs in de vorm van SS's.CJ schreef op dinsdag 13 mei 2008 @ 13:58:
[...]
Ik weet hoe DX10 en de DX10.1 update werken. Tenminste 'zouden' moeten werken als het goed geimplementeerd is.
DX10.1 is een uitbreiding op DX10, puur en alleen om bepaalde dingen gemakkelijker te maken en om dingen te fixen die niet goed waren geregeld in DX10 (zoals AA). Als een game een DX10.1 codepath heeft en dit op een DX10 kaart gespeeld wordt, dan maakt de game by default gebruik van het DX10.0 codepath. DX10.1 zou een aparte codepath moeten zijn die naast het DX10 codepath bestaat en wat geen enkele invloed heeft op het DX10 codepath... op geen enkele manier. Zo is dat in het verleden ook gegaan met DX9a/b/c, DX8.0/8.1 etc.
De "Vantage-fix" heeft helaas geen invloed op de Crysis perf, dat staat in het bijpassende draadje op rage3d.
Als die GT200 fysiek gebaseerd is op 2 G92b's, dus geen dx10(?), heb ik er waarschijnlijk niet eens interesse meer in.Ze verdienden echt een schop onder der reet als ze bijna 2 jaar na data nog steeds met een G80 varaiant komen...
Niet op voorraad.
Even wat anders:
Het viel me op dat intel nu met de X58 chipset physics wil gaan doen. nVidia gaat dat via CUDA doen. Maar wat heeft AMD straks ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
nieuws: AMD: 'Voorlopig geen physics op de gpu'Astennu schreef op dinsdag 13 mei 2008 @ 16:55:
Even wat anders:
Het viel me op dat intel nu met de X58 chipset physics wil gaan doen. nVidia gaat dat via CUDA doen. Maar wat heeft AMD straks ?
De plannen van intel zijn een mysterie, hun AVX instructieset zou krachtig genoeg moeten zijn om zware 'physics' te berekenen.Astennu schreef op dinsdag 13 mei 2008 @ 16:55:
Het viel me op dat intel nu met de X58 chipset physics wil gaan doen.
Als het een op 2 G92b's gebaseerde GPU wordt zou ik erg teleurgesteld zijn. Je krijgt in feite gewoon een 9800GX2, die onder alle omstandigheden 100% schaalt.Astennu schreef op dinsdag 13 mei 2008 @ 16:55:
Het zou me niets verbazen als hij geen DX10.1 heeft. Maar het is wel de juiste stap om die ondersteuning er wel in te stoppen. Echter met TWIMTBP hoeft nV niet bang te zijn. Er zullen dan gewoon geen games komen met support voor DX10.1.
Hier zal Crysis nog nog niet optimaal op draaien op 1 kaart (in highres en AA etc.) en mis hij de elegantie van de 10.1.
Niet op voorraad.
Inderdaad... als... maar wat schreef Ubisoft nu: "We need to rework the implementation".CJ schreef op dinsdag 13 mei 2008 @ 13:58:
Ik weet hoe DX10 en de DX10.1 update werken. Tenminste 'zouden' moeten werken als het goed geimplementeerd is.
Met andere woorden: het is niet goed geimplementeerd
Screenshots van stabiliteitsproblemen, random lock-ups en crashes?edward2 schreef op dinsdag 13 mei 2008 @ 16:49:
En verder ontbreekt nog steeds elk bewijs in de vorm van SS's.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik denk dat je er vanuit kan gaan dat GT200 een doorontwikkeling is op G80/G92 technologie.edward2 schreef op dinsdag 13 mei 2008 @ 17:10:
Als het een op 2 G92b's gebaseerde GPU wordt zou ik erg teleurgesteld zijn. Je krijgt in feite gewoon een 9800GX2, die onder alle omstandigheden 100% schaalt.
Ik weet niet of je dat bedoeld, maar gemiddeld genomen doen beide GPU fabrikanten meerdere graphicskaartcicli met 1 basis GPU ontwerp. Geforce 1 -> 2, Geforce 3 -> 4, Geforce 6 -> 7. ATi precies hetzelfde met de R300 -> R4xx, en nu ook met R(V)6xx -> 7xx.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ja maar de G92 was toch al de doorontwikkeling van G80? Het is welliswaar meer zoals G70 -> G71, maar ze hebben er wel een hele nieuwe serie van gemaakt. Een GT200 met 512-bit geheugeninterface en DX10.1 vind ik daar dan weer totaal niet tussen passen eigenlijk.Cheetah schreef op dinsdag 13 mei 2008 @ 17:54:
[...]
Ik denk dat je er vanuit kan gaan dat GT200 een doorontwikkeling is op G80/G92 technologie.
Ik weet niet of je dat bedoeld, maar gemiddeld genomen doen beide GPU fabrikanten meerdere graphicskaartcicli met 1 basis GPU ontwerp. Geforce 1 -> 2, Geforce 3 -> 4, Geforce 6 -> 7. ATi precies hetzelfde met de R300 -> R4xx, en nu ook met R(V)6xx -> 7xx.
Welke stabiliteitsproblemen? Dan mogen ze UT3 wel terugpatchen naar Dos, dit spel heeft daar mi niet meer of minder last van dan een gem. PC spel. (ik moet de eerste crash nog krijgen, gespeeld, nog niet uit, met een HD3870X2, 8800Ultra en een 9800GX2).Cheetah schreef op dinsdag 13 mei 2008 @ 17:45:
screenshots van stabiliteitsproblemen, random lock-ups en crashes?
Maar hier begon het allemaal mee:
Oftewel visuele renderbugs en die laten zich wel vast leggen op SS's.In addition to addressing reported glitches, the patch will remove support for DX10.1, since we need to rework its implementation.
Doorontwikkeling is een wijd begrip, dat varieert van een exacte copie van functies, features en perf. door een shrink, tot een ... geëvolueerde chip met toevoeging van extra functies. (shaderAA?)
Waar ik bang voor ben dat het straks fysiek "slechts" 2x een G92 blijkt te zijn in functies en perf.. echter niet afhankelijk van SLI rendering en dus in veel gevallen nauwelijks een vooruitgang is tov een 9800GX2.
[ Voor 8% gewijzigd door edward2 op 13-05-2008 19:25 ]
Niet op voorraad.
Had er ff niet aan gedacht dat ik Win XP draai en daar is natuurlijk geen Vantage hotfix voor. dus de XP users moeten nog even wachten
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Fixed broken post-effects on DirectX 10.1 enabled cards
Niet op voorraad.
Forever raver!
Specs: Workstation Server
Dat is dus precies genoeg voor 3870x2 in crossfire (of 2x 2900xt zoals ik heb
Als de 750W dat niet heeft, werkt het dus niet met 3870x2 in crossfire.
Je hebt er dus eigenlijk 4 nodig (best ernstig eigenlijk

Uhuh, fixed my ass. Ze hebben het renderpath er maar uitgesloopt en zeggen dat ze het gefixt hebben, dat is een mooie. Overigens claimden ze zelf dat er geen crashes op "DX10.1 enabled cards" optraden, maar juist op de "DX10.0 enabled cards".Fixed broken post-effects on DirectX 10.1 enabled cards
Ok thnx voor de info. Heb gelijk maar me bestelling laten wijzigen. Ben benieuwd of die kabels lang genoeg zijn om ze achter mijn backplate van de Antec P182 weg te werken. Maargoed das weer een ander verhaal voor in een ander topic.tjtristan schreef op dinsdag 13 mei 2008 @ 21:04:
De Zalman 850W heeft in ieder geval 2x pci-e 8pins en 2x pci-e 6 pins (modulair).
Dat is dus precies genoeg voor 3870x2 in crossfire (of 2x 2900xt zoals ik heb).
Als de 750W dat niet heeft, werkt het dus niet met 3870x2 in crossfire.
Je hebt er dus eigenlijk 4 nodig (best ernstig eigenlijk)
Forever raver!
Specs: Workstation Server
Daarin staat het volgende:
I spoke to Richard Huddy, AMD's head of developer relations, on Friday in an attempt to find out when we can expect to see the path implemented again, because I'm sure that owners of Radeon HD 3000-series graphics cards aren't too happy that they're missing out on a 20 percent performance increase (when AA is enabled). Huddy said that he is working hard with his team to get DirectX 10.1 support back into the title for Radeon HD 3000 graphics card owners.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die jumper is om je TV-out van PAL naar NTSC aan te passen.Anoniem: 23009 schreef op zaterdag 10 mei 2008 @ 23:10:
Nou ik hoop dat er ook een HD 4850 AGP komt aangezien ik al erg tevreden bent met me Sapphire HD 3850 AGP 512MB die ik van me vader vandaag heb gekregen hehe
[afbeelding] [afbeelding] [afbeelding]
ik vraag me af wat die jumper voor is, weet iemand dat?
hier nog meer pics ervan:
http://www.3dfx.ch/galler...er-Grapics-cards/3850AGP/
DX 10.1 op de AGP bus kan nog best leuk worden hehe, hij zit in een Dual OpteronDP 248 CG met 2x 1GB PC3200 ECC Reg van Kingston HyperX en een MSI MS-9130 K8T Master2-FAR Mobo.
me pa had hem gegeven omdat het reconditioneren van me Gainward 6800 UE AGP was mislukt, die kwam van een stofschade, en het herstellen ervan was mislukt vandaar dat ik deze mocht hebben heh Ik was van zo als dat zou kunnen hij zo van geen probleem als jij er maar happy mee bent heheen dat ben ik zekers.
![]()
![]()
Aangezien dit monster al alle games lekker trekt ik hoop dat de HD 4850 AGP het ook trekt met gratis FSAA x4 of zoIk denk dat er nog zat interesse is in de AGP markt
Als er info is over een HD 4850 AGP dan hoor ik het graag als iedere andere AGP gamer denk ik
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
CJ weet jij toevallig of dit klopt ? dit zou dan juli - augustus worden voor de nieuwe HD4870 X2 ?Same as last time
We've learned that R700, a dual RV770 product, won't launch alongside with RV770 products. As we've said before, both RV770 are scheduled for late June launch and it looks like the dual chip card won't launch simultaneously.
R700 will launch at least one month later and you can probably blame the complicated design and drivers for such an inconvenient timing.
The way it looks now, GT200 based cards will launch first and then will AMD follow with its high end card.
Zou wel jammer zijn als nVidia eerder is met de GT200 GTX die de HD4870 X2 ook nog een weg blaast.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Die-sizes leaks:


http://en.chiphell.com/?p=11
Dit betekent dat de RV770 tegen de 900M transistoren heeft.... dat is weer een beetje meer dan de RV670 op 666M en de R600 op 720M. Die-size is nog steeds kleiner dan G92 maar wel met 34% meer transistoren dan de RV670.
[ Voor 30% gewijzigd door CJ op 14-05-2008 21:47 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Als die RV770 XT er maar is vind ik het prima. X2 hoeft voor mij even niet. Tenzij ze hele implementatie anders is dat echt altijd schaalt want nu had ik te vaak geen winst van me kaartje in games die niet zo bekend zijn en ik wel graag speel.
En aangezien de X2 er nog niet zal zijn gok ik dat ze een nieuw PCB aan het maken zijn en de opzet dus ook verandert hebben. Als ze de huidige PCB gewoon hadden gebruikt was hij al lang klaar geweest. Dus ben benieuwd wat we straks te zien krijgen.
[ Voor 24% gewijzigd door Astennu op 15-05-2008 09:02 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Veel meer info: http://www.tgdaily.com/content/view/37453/135/In terms of performance, we heard some interesting claims. A 4870 should perform on par with or better than a dual-chip 3870 X2. Our sources explained to us that using a PCIe Gen1 controller 3870 X2 was a mistake, since the board was hungry for data and didn't sync well with this interface. Don’t expect the ATI team to repeat that mistake with the 4870 X2. However, we admit that we have no idea what kind of connection two RV770 GPUs will have.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ooh, halverwege juni! Damn, eind deze maand krijg ik mijn vakantiegeld en als een goede tweaker ga ik natuurlijk niet op vakantie maar gebruik ik dat om een nieuwe pc in elkaar te sleutelenCJ schreef op donderdag 15 mei 2008 @ 09:19:
Interessant stukje op TG Daily:
[...]
Veel meer info: http://www.tgdaily.com/content/view/37453/135/
Moet ik nu maar even afwachten totdat de 4 serie uitkomt en dan daar er eentje van kopen, of ik kan dan een 3870X2 voor wat minder op de kop tikken, dat kan ook natuurlijk.
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Uhmm toch wel te weinig bandbreedte. Zou je niet zeggen als je de schaalbaarheid zag tussen de X2 en 2x een HD3870 in CF. Die was gelijk. Maar had dus misschien beter kunnen zijn. Nja we zullen het wel zien. Ik begin in ieder geval met een HD4870. En dat de performance net zo goed zou zijn als een X2 nou dat is wel super want soms is die 80% sneller dan een enkele kaart !!CJ schreef op donderdag 15 mei 2008 @ 09:19:
Interessant stukje op TG Daily:
[...]
Veel meer info: http://www.tgdaily.com/content/view/37453/135/
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 100386
Is er dan niets bekend over de RV670 mobile? Ik wil geen nVidia, man wat een ramp drivers vind ik dat zeg

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."
Ik was hier ook naar opzoek. Echter de HD2600 die je in veel laptops ziet heeft bijna alleen maar GDDR2 en is op 500 MHz geclockt. Waar door de 8600 M GT sneller is. Deze is gelijk aan de M GS. En HD2600 XT''s heb ik nog niet kunnen vinden. Deze zou wel sneller moeten zijn dan de GT mja nergens te krijgenSp!tF!re schreef op donderdag 15 mei 2008 @ 13:11:
Heel leuk, die HD4 serie, maar waar is de HD3 mobile serie?Eventueel kan ik nog naar een 17" kijken als er daar wel een ATi in zit (ik heb nu maar één laptop die voldoet aan mijn eisen
1680x1050 op 15" en dan een mat scherm, ik wil geen bling-bling.. Zit alleen een 8600M GT in en ik heb liever de HD2600Pro, die is alleen schaars in dit soort laptops
)..
Is er dan niets bekend over de RV670 mobile? Ik wil geen nVidia, man wat een ramp drivers vind ik dat zegEn het CP is brak, bah! Eerst maar mijn examens zien en dan kijken of ik de laptop echt nodig heb
(maar ik verwacht natuurlijk van wel!)... CJ, kun jij iets zeggen over de mobile? Die zouden er nu toch ongeveer moeten zijn lijkt me?
Liever wil ik ook die HD3870 mobility in me laptop hebben. Dat lijkt me wel wat. AA gebruik je op een laptop toch niet vaag want dan heb je een 17"scherm met 1920-1200 of zo. Dus dan draai je gewoon native zonder AA. Dus dan heb je ook niet zo last van de iets mindere AA performance. En de 8800 GTX heeft maar 96 shaders ipv 128. En ik weet niet welke clockspeeds de HD3870 draait maar als die een beetje hoog zijn kan hij wel eens even snel zijn.
Edit:
Haha leuk man. FUD had een post gemaakt over die AC patch 1.02 en zij dat DX10.1 verbeterd was. Ik heb dus meteen even een mailtje gestuurd dat ze dat even goed na moesten trekken omdat DX10.1 waarschijnlijk juist niet meer werkt en er performance drops zouden zijn. Nu hebben ze het bericht aan gepast. Er zullen vast wel meer mensen zijn die FUD gemailt hebben dat het niet klopte.
[ Voor 11% gewijzigd door Astennu op 15-05-2008 13:31 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
En terecht dat de media hier aandacht aan besteed.
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 107626
Over een paar jaar hebben we 2 marketing supermachten: nV en intel. Je ziet nu al dat ze elkaar in de haren vliegen. Dat wordt in de toekomst alleen maar erger. En in tegenstelling tot AMD kan Intel flink wat dollars de marketing in pompen. En reken maar dat als nV later een dergelijk truukje tegen Intel uitvoert, ze flink de wind van voren zullen krijgen.Astennu schreef op donderdag 15 mei 2008 @ 15:15:
Zeker weten want het is toch wel een schande. Helaas zal het binnenkort toch wel weer vergeten zijn. TWIMTBP is gewoon te machtig aan het worden.
Zijn er al mensen die dit hebben getest? Zo ja wat zijn je bevindingen? Ik hik er nog steeds tegenaan om een HD3870X2 te kopen nl.CJ schreef op dinsdag 13 mei 2008 @ 14:10:
Rage3D artikel: Hotfix Schmotfix
Voor degenen met een HD3870(X2) kaart (al dan niet in CF) die het nog steeds niet gedaan hebben... download de Vantage Hotfix drivers!!
De naam doet er op lijken alsof het een driver is die puur en alleen bedoeld is om de scores in Vantage te boosten en wat bugs in Vantage op te lossen, maar niets is minder waar. De Vantage hotfix fixed ook CF scaling (zowel X2 als X4) in veel DX10 games.
Gears of War
[afbeelding]
Lost Planet
[afbeelding]
World in Conflict
[afbeelding]
Bron: http://www.rage3d.com/articles/vantage-hotfix/index.php?p=1
De Vantage Hotfix drivers zijn dus een voorproefje op wat komen gaat in Catalyst 8.5...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Met het oog op de naderende HD4870x2?CJ schreef op donderdag 15 mei 2008 @ 16:30:
Ik zou nog even wachten met het kopen van een HD3870X2.... tenzij je echt veel haast hebt.
Omdat dan de prijzen van de 3 serie omlaag gaan of eerder vanwege de betere prestaties?
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
stond een paar posts terug :Met het oog op de naderende HD4870x2?
Omdat dan de prijzen van de 3 serie omlaag gaan of eerder vanwege de betere prestaties?
In terms of performance, we heard some interesting claims. A 4870 should perform on par with or better than a dual-chip 3870 X2. Our sources explained to us that using a PCIe Gen1 controller 3870 X2 was a mistake, since the board was hungry for data and didn't sync well with this interface. Don’t expect the ATI team to repeat that mistake with the 4870 X2. However, we admit that we have no idea what kind of connection two RV770 GPUs will have.
Anoniem: 100386

Forever raver!
Specs: Workstation Server
Tja, zo gaat het altijd.CaptainM schreef op donderdag 15 mei 2008 @ 17:48:
Dit is weer typisch zo'n geval van slechte timing. Net nu ik op het punt sta om twee HD3870X2's te bestellen, lees ik dit nieuws. Ik denk dat ik dit geld dan even goed weg moet stoppen en er niet van moet snoepen totdat die 4870's uitkomen. Ik moet sowieso nog wachten op de Intel Q9450 processor. Wachten is zo kut! Ik heb hier kast, moederplank, voeding, geheugen, velociraptor komt eraan en ik kan er nog niets mee
Anoniem: 156281
Haal dan een budget graka en een E2100 cpu'tje om die kleine periode te overbruggen. Kost weinig en nadien verkoop je ze voor 80% van de nieuwprijsCaptainM schreef op donderdag 15 mei 2008 @ 17:48:
Dit is weer typisch zo'n geval van slechte timing. Net nu ik op het punt sta om twee HD3870X2's te bestellen, lees ik dit nieuws. Ik denk dat ik dit geld dan even goed weg moet stoppen en er niet van moet snoepen totdat die 4870's uitkomen. Ik moet sowieso nog wachten op de Intel Q9450 processor. Wachten is zo kut! Ik heb hier kast, moederplank, voeding, geheugen, velociraptor komt eraan en ik kan er nog niets mee
RV770PRO = 1.25 faster vs 8800GT
RV7700XT = 1.25 faster vs 9800GTX
Ja zakken, maar met huidige $ max paar tientjes.TroonStaal schreef op donderdag 15 mei 2008 @ 16:40:
[...]
Met het oog op de naderende HD4870x2?
Omdat dan de prijzen van de 3 serie omlaag gaan of eerder vanwege de betere prestaties?
[ Voor 54% gewijzigd door The Source op 15-05-2008 20:06 ]
losing face in front of millions?Hekking schreef op donderdag 15 mei 2008 @ 14:55:
'As you can see Ubisoft a publisher that likes to cow Nvidia for TWIMTBPayed titles comments this issue as "Fixed broken post-effects on DirectX 10.1 enabled cards ". Good job Nvidia and Ubisoft for making a really big issue and losing face in front of millions'![]()
En terecht dat de media hier aandacht aan besteed.
Wie boeit dit nou ook echt maar iets?
'You like a gay cowboy and you look like a gay terrorist.' - James May
Uhmm niet slecht maar. de GT200 is 80% sneller dan de 9800 GTX dus dat wordt nog wat....The Source schreef op donderdag 15 mei 2008 @ 20:04:
RV770XT (160W) GDDR5 = 1.3 faster vs RV770PRO (110W) GDDR3
RV770PRO = 1.25 faster vs 8800GT
RV7700XT = 1.25 faster vs 9800GTX
[...]
Ja zakken, maar met huidige $ max paar tientjes.
Maar het valt me opzich niet echt tegen. Ik hoop alleen wel dat dit met AA is want anders is de 9800 GTX met AA net zo snel.
[ Voor 13% gewijzigd door Astennu op 15-05-2008 21:23 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik ben iig nog dik tevreden over mijn HD3870 X2, echt een supergoede kaart. Ik speel er nu Call of Jaurez mee in DX10 mode met alles op hoogste detail en 1920x1200 en ik vind het eerlijk gezegd nog mooier dan Crysis qua licht en textures..
Framerate is met 70 tot 100 fps ook dik in orde (geen AA). Zelfs met 4xAA haal ik 90% van de tijd nog een goed speelbare fps. Ik heb het idee dat CoJ gewoon veel meer uit de ATI hardware haalt, want de kaart wordt in die game nog een stuk warmer dan in andere games.
Goud is geen geld
straf, een stuk beter dan ik verwacht had eigenlijk (dat zijn waarschijnlijk cijfers van AMD?)The Source schreef op donderdag 15 mei 2008 @ 20:04:
RV770XT (160W) GDDR5 = 1.3 faster vs RV770PRO (110W) GDDR3
RV770PRO = 1.25 faster vs 8800GT
RV7700XT = 1.25 faster vs 9800GTX
De vraag is nu nog hoe?
hogere kloksnelheden, verbeterde ALU's, betere scheduller etc (waarschijnlijk een beetje vanalles)
[ Voor 15% gewijzigd door oeLangOetan op 15-05-2008 22:11 ]
Klinkt niet onaardig, maar sneller waarinThe Source schreef op donderdag 15 mei 2008 @ 20:04:
RV770XT (160W) GDDR5 = 1.3 faster vs RV770PRO (110W) GDDR3
RV770PRO = 1.25 faster vs 8800GT
RV7700XT = 1.25 faster vs 9800GTX
[...]
Ja zakken, maar met huidige $ max paar tientjes.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
http://www.nordichardware.com/news,7743.html
volgens mij was deze nog niet langsgekomen
-
Dat was eigenlijk wilde speculatie, vooral op b3d, het idee is wel leuk maar wellicht zeer moeilijk te implementeren.Anoniem: 156281 schreef op vrijdag 16 mei 2008 @ 00:32:
Dus geen gepoold geheugen voor de X2? Toch een zwaar minpunt imo.
[ Voor 19% gewijzigd door oeLangOetan op 16-05-2008 08:22 ]
Dus. Lastig kiezen. Helemaal als je 2 RV7xx kaarten voor de prijs van 1 GT200 zou kunnen kopen.
Alleen zit je dan ook op 300W.
[ Voor 61% gewijzigd door Format-C op 16-05-2008 08:36 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Haalt een overgeclockte 9800 GTX 20% hogere FPS ? In dat geval ja...RappieRappie schreef op vrijdag 16 mei 2008 @ 08:26:
Dus die nieuwe RV770XT is net zo snel als een overklokte 9800GTX. En De Pro net zo snel als een overklokte GT. Misschien net een tikkeltje sneller. De RV7xx wordt dus gepwnd door de GT200, alleen gebruikt die veel meer stroom en zal hoogstwaarschijlijk een keer zo duur zijn.
Dus. Lastig kiezen. Helemaal als je 2 RV7xx kaarten voor de prijs van 1 GT200 zou kunnen kopen.
Alleen zit je dan ook op 300W.
Ik zie een paar problemen. 1 beschikbaar heid van de XT door GDDR5.
2: Nvidia komt eerder op de markt met de GT200 dan ATi met de RV770
3: Geen indicatie van hogere AA sample rates - z sample rate
4: geen indicatie van een shader clock domain maar gewoon dezelfde clocks als de RV670 nu
5: X2 geen shared memory pool nog steeds een bridge chip er tussen
Voordelen die ik wel zag staan is dus nieuwe implementatie van Crossfire. Heel erg belangrijk. Hopelijk betere scaling in meer games.
Maar dus even afwachten hoe het met de andere zaken zit. Als die sample rate niet gefixt is kan het nog wel eens vervelend worden. Dan houd je de problemen die we nu ook met de HD3870 zien.
Fud heeft het er dus over dat ze net even wat sneller zijn. Maar dan is de X2 er nog niet en loopt ATi qua performance zeker 50% achter.Days before Nvidia
RV770XT with GDDR5 memory support and RV770PRO with GDDR3 support based cards will launch on June 16th, just days before Nvidia's Geforce GTX 280 product codenamed GT200.
ATI wants to spoils Nvidia's party but at the end, it will all come to the fact what will be faster. From what we know it looks that GT200 based products should end up faster than RV770XT but we believe that R700 with its two RV770 chips should be the real GT200 competitor.
As we said in a separate post, R700 dual chip card will launch at some point in August which gives Nvidia quite a lead.
[ Voor 22% gewijzigd door Astennu op 16-05-2008 08:55 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Mwah, iets minder, maar die G92 klokt heel aardig iig. Meer dan 10% aan FPS is er wel uit te persen. Echt goed heb ik het niet getest. Ik game meer op mijn PS3 nu.Astennu schreef op vrijdag 16 mei 2008 @ 08:49:
[...]
Haalt een overgeclockte 9800 GTX 20% hogere FPS ? In dat geval ja...
Tja, en dat GDDR5; dat is idd wel weer een gokje van ATi. Maar volgens mij houden ze daar wel van daaro.
[ Voor 18% gewijzigd door Format-C op 16-05-2008 09:47 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 100386
Anoniem: 100386 schreef op donderdag 15 mei 2008 @ 17:47:
Heeft iemand al iets gehoord van de volgende generatie van de audio-chips die AMD / Ati op zijn kaarten heeft ? Of vervallen die helemaal ?
Anoniem: 23009
een GT200 80% sneller dan een G92 GTX heh lijkt me sterk iig aangezien dat de G92 GTX niet eens 15% sneller is als een G80 GTX heh, meestal zijn de echte resultaten een stuk minder als de meeste mensen hopen op, ik denk eerder iets van hooguit 30% wat we meestal zien met nieuwe generaties vergeleken met de oude
De meeste willen wel dat ie 80% sneller wordt maar ik hou me liever wat in de realistische marges, aangezien dat overdrijven ook een vak is, wat een grote nadeel opbrengt met al die roddel sites.

[ Voor 56% gewijzigd door Anoniem: 23009 op 16-05-2008 10:16 ]
3. De RV770XT zou volgens mijn bronnen in de 7xx Mhz geklokt moeten zijn... dat is dus vergelijkbaar met de RV670XT (HD3870) en toch is-ie sneller.Astennu schreef op vrijdag 16 mei 2008 @ 08:49:
[...]
3: Geen indicatie van hogere AA sample rates - z sample rate
4: geen indicatie van een shader clock domain maar gewoon dezelfde clocks als de RV670 nu
5: X2 geen shared memory pool nog steeds een bridge chip er tussen
Een GF8800GT is gemiddeld zo'n 1,15-1,20x sneller dan een RV670 en een RV770Pro is volgens de officiele cijfers dus 1,25x sneller als een 8800GT. De boost van HD3870 naar HD4850 is dus vrij groot... ondanks dat de kloksnelheden niet veel verschillen. Dus het lijkt er op dat AA sample rate en Z sample rate wel degelijk zijn aangepast, want alleen door meer shaders krijg je die boost niet.
Bridge chip was al bekend... er gingen echter geruchten dat deze geintegreerd zou worden in de RV770.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De introductieprijs voor de HD4850 zal dan rond $200,00 bedragen.
Dat zijn erg mooie prijzen.
[ Voor 19% gewijzigd door Indy91 op 16-05-2008 11:27 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Dat zijn het zeker! Jammer alleen dat (volgens die site) de X2 pas aan het eind van de zomer uit komt.Indy91 schreef op vrijdag 16 mei 2008 @ 11:26:
Fudzilla komt met het bericht dat de suggested etail prijs voor de HD4870, $229,00 zal bedragen.
De introductieprijs voor de HD4850 zal dan rond $200,00 bedragen.
Dat zijn erg mooie prijzen.
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Nette prijs inderdaad. Kan ik dan mijn oude x800xl de deur uit doenIndy91 schreef op vrijdag 16 mei 2008 @ 11:26:
Fudzilla komt met het bericht dat de suggested etail prijs voor de HD4870, $229,00 zal bedragen.
De introductieprijs voor de HD4850 zal dan rond $200,00 bedragen.
Dat zijn erg mooie prijzen.

http://specs.tweak.to/5253
GT200: 180% 9800GTX speed, prijs $499,00
HD4870: 125% 9800GTX speed, prijs $229,00
GT200 is 44% sneller dan HD4870 maar daarentegen 117% duurder
AMD/ATi heeft tot en met de medio augustus (R700 release) dan weliswaar niet de absolute performance crown in handen, maar wel de prijs/performance crown.
Stel de HD4870 X2 behaalt slechts een 150% scaling (worst case scenario), dan nog is de HD4870 X2 waarschijnlijk sneller dan de GT200. (1,5 x 125% 9800GTX speed > 180% 9800GTX speed)
Als AMD/ATi de verwachte prestaties en prijs kan waarmaken, dan kan in mijn optiek de nabije toekomst er erg gunstig uitzien voor wat betreft de verkoopcijfers van de RV770 en R700.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Dat is niet helemaal waar. 8800 GTX = 128 Shaders met 384 bit bus en 9800 GTX = 128 Shaders 256 Bit bus alleen hogere clocks.Anoniem: 23009 schreef op vrijdag 16 mei 2008 @ 10:12:
de bridge chip van het X2 model zou die weer net als met de 3870 X2 een PCI-E 1.1 x8 bus krijgen of zal dit hopelijk een PCI-E 2.0 x16 bus krijgen, want dan zou de X2 echt tot zijn recht komen qua maximale performance.
een GT200 80% sneller dan een G92 GTX heh lijkt me sterk iig aangezien dat de G92 GTX niet eens 15% sneller is als een G80 GTX heh, meestal zijn de echte resultaten een stuk minder als de meeste mensen hopen op, ik denk eerder iets van hooguit 30% wat we meestal zien met nieuwe generaties vergeleken met de oude
De meeste willen wel dat ie 80% sneller wordt maar ik hou me liever wat in de realistische marges, aangezien dat overdrijven ook een vak is, wat een grote nadeel opbrengt met al die roddel sites.
GT200 = 240 shaders 512 Bit bus. Dus 80% is makkelijk mogelijk gezien de stats wellicht gaat hij nog wel harder.
Als ATi echt 20% sneller is als de 9800 GTX en dan niet in een paar games maar in de meerderheid is het een goed teken voor de X2 ja. Dan zouden ze de kroon nu echt even terug kunnen pakken tot nVidia misschien toch iets verzint om een GT200 GX2 te maken. Of krijg je misschien weer dat GT200 in SLi een HD4870 X2 in CF kan verslaan door scaling problemen maar dat zullen we allemaal nog wel zien.
Nee dat is ook wel zo. Maar had gehoopt op een shader clock domain waardoor de shaders toch over de 1 GHz kondenCJ schreef op vrijdag 16 mei 2008 @ 10:46:
[...]
3. De RV770XT zou volgens mijn bronnen in de 7xx Mhz geklokt moeten zijn... dat is dus vergelijkbaar met de RV670XT (HD3870) en toch is-ie sneller.
Een GF8800GT is gemiddeld zo'n 1,15-1,20x sneller dan een RV670 en een RV770Pro is volgens de officiele cijfers dus 1,25x sneller als een 8800GT. De boost van HD3870 naar HD4850 is dus vrij groot... ondanks dat de kloksnelheden niet veel verschillen. Dus het lijkt er op dat AA sample rate en Z sample rate wel degelijk zijn aangepast, want alleen door meer shaders krijg je die boost niet.
Bridge chip was al bekend... er gingen echter geruchten dat deze geintegreerd zou worden in de RV770.
[ Voor 46% gewijzigd door Astennu op 16-05-2008 12:29 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Astennu schreef op donderdag 15 mei 2008 @ 13:29:
[...]
Liever wil ik ook die HD3870 mobility in me laptop hebben. Dat lijkt me wel wat. AA gebruik je op een laptop toch niet vaag want dan heb je een 17"scherm met 1920-1200 of zo. Dus dan draai je gewoon native zonder AA. Dus dan heb je ook niet zo last van de iets mindere AA performance. En de 8800 GTX heeft maar 96 shaders ipv 128. En ik weet niet welke clockspeeds de HD3870 draait maar als die een beetje hoog zijn kan hij wel eens even snel zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ATI Mobility Radeon HD3870: ~8638, ~55W
ATI Mobility Radeon HD3850: ~7077-7828, ~35-42W
ATI Mobility Radeon HD3670: ~4304, ~32W
ATI Mobility Radeon HD3650: ~3404-3828, ~15-22W
ATI Mobility Radeon HD3470: ~2044, ~14W
ATI Mobility Radeon HD3450: ~1756, ~8W
ATI Mobility Radeon HD3430: ~1500, ~7W
[ Voor 4% gewijzigd door CJ op 16-05-2008 13:23 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 100386
7.1 surround .... zou dat dan eindelijk ook DolbyHD/DTS-MA inhouden ?? Dan hebben wij eindelijk volledig BR-compatibiliteit
Zie ook: http://ati.amd.com/produc...adeon-HD-2000-Compare.pdf
D'r zit echter wel iets anders interessants in dat lijstje voor de IQ liefhebber.
[ Voor 5% gewijzigd door CJ op 16-05-2008 14:16 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bekijk die PDF die ik hiervoor gelinkt had eens. Staat ook al bij de HD2K serie geadverteerd. Niks nieuws onder de zon dus.leonpwner1 schreef op vrijdag 16 mei 2008 @ 14:17:
Ik keek meer op van de Game physics processings capability. Hardwarematige physics acceleratie op de GPU?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Aangestuurd via Havok werkt dat al lang toch? Ik dacht dat de Havok software allang overweg kon met de hardware power van GPU's. Als ik HL2 episode 1 en 2 speel zet het spel ook automatisch AA/AF/HDR/Bloom/Physics aan op mijn 8800GTX en krijg ik rechtsonderin het kopje "click for 3rd party credits" en daar staat ook Havokleonpwner1 schreef op vrijdag 16 mei 2008 @ 14:17:
Ik keek meer op van de Game physics processings capability. Hardwarematige physics acceleratie op de GPU?
Mwah 24xCFAA is leuk en aardig, maar in veel spellen is dat soms echt onmogelijk zwaar. Maar voor de echte IQ fantast met geld teveel - altijd leuk. Daar zal ik niet wakker van liggen
De meeste mensen deugen!
De 24x CFAA zit er sinds de HD2K al in.Cassius schreef op vrijdag 16 mei 2008 @ 14:44:
Mwah 24xCFAA is leuk en aardig, maar in veel spellen is dat soms echt onmogelijk zwaar. Maar voor de echte IQ fantast met geld teveel - altijd leuk. eld en geluid krijgt ... kom maar op!
CJ doelt waarschijnlijk op de "high performance anisotropic filtering".
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Dat dacht ik ook ja. Maar die 24X CFAA kan ook nuttig worden bij de HD4x als die AA sample rate verhoogt is kan het zijn dat die HD4x 24x aa 2x zo snel kan doenIndy91 schreef op vrijdag 16 mei 2008 @ 14:59:
[...]
De 24x CFAA zit er sinds de HD2K al in.
CJ doelt waarschijnlijk op de "high performance anisotropic filtering".
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit topic is gesloten.