God does not play dice
http://forums.guru3d.com/showthread.php?t=275814
[ Voor 3% gewijzigd door Bullus op 12-10-2008 20:58 ]
|2600k|Asus 290|
Heb je dan al es Crysis of Crysis warhead geprobeerd of een ander spel waarbij de frames nou eenmaal niet zo hoog zijn (40-). Dan gaf de HD4870X2 bij mij een uiterst storend licht haperend beeld, terwijl je dat als het aan een lage framerate zou liggen pas verwacht bij 20-25 fps en niet 30-40 fps. Zal waarschijnlijk micro-stuttering zijn en voor mij genoeg reden hem terug te sturen.RappieRappie schreef op zondag 12 oktober 2008 @ 16:31:
Ik vind 1 ding echt HEEL opvallend tov nVidia. Ik draaide járenlang nVidia... zoals jullie wel weten.
Maar bij nVidia heb je veel meer last van tearing en van rare rendering (ziet er choppy uit, vooral vloeren. Het leek wel stotteren, maar dan met hoge framerates) zonder V-Sync...
ATi doet dit echt véél beter. Bij ATi heb je eigenlijk helemaal geen V-Sync nodig. Zelfs in FEAR heb ik er niet echt last van. En dat terwijl met de nV kaarten de hele game zich de pleuris tearde. Opmerkelijk vind ik.
Met ATi heb ik het uit staan. En het mooie is; zonder vsync haal je driedubbele framerates. Of in het geval van FEAR 10 dubbel.600FPS max.
Jeetje wat is dit ding snel zeg! Doet echt helemaal niks onder voor GTX280 SLi. Sterker nog; het voelt zelfs béter aan.

Ik denk dat mijn volgende kaart een HD5870X2 wordt.
Zou de H5870X2 wel een echte dual core GPU zijn met shared memory zodat je wellicht van dit hatelijke AFR probleem afkomt? Dacht daar laatst iets over te lezen..
anathema
In ieder geval, als een spel niet constant 60 fps kan draaien speel ik het niet. Dan moet ik wel zeggen dat ik alleen shooters speel. Bij een stategie-game maakt het me niet zoveel uit.
Verder was er nog een oorzaak dat het beeld op TFT schermen schokkerig oogt. Stel dat je 40fps haalt in een spel. Dan is elke frame dus 25ms. Als een frame zolang op je monitor staat kun je er meerdere malen naar kijken. Dat is heel vervelend. Diezelfde framerate op een CRT oogt al veel fijner. Er staan over beide dingen hele stukken op internet, dat moet je maar eens lezen. Het ligt lang niet altijd aan de videokaart
[ Voor 9% gewijzigd door R-O-Y op 13-10-2008 00:33 ]
En ik ben tot nu toe geen andere games tegengekomen die slecht draaien op de HD4870X2.
Ik ben nog nooit zo tevreden met een graka geweest.
Inderdaad, ik ook niet.R-O-Y schreef op maandag 13 oktober 2008 @ 00:32:
In ieder geval, als een spel niet constant 60 fps kan draaien speel ik het niet.
[ Voor 47% gewijzigd door Format-C op 13-10-2008 15:25 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Na een maand of twee/drie met de 4870x2 concludeer ik dat de drivers toch wel ATI's zwakke punt zijn. Valt allemaal een beetje tegen, ik loop tegen best veel probleempjes aan. AA forceren wil bij een hoop spellen niet lekker. Als je dan gaat googlen kom je erachter dat iedereen dat heeft bij een bepaald spel, en bijna overal lees je er dan bij dat het voor Nvidia-users geen probleem is. The witcher bv, om daar AA te forceren zou ik de exe moeten renamen naar Oblivion.exe, dat werkt inderdaad, maar na iedere cutscene reset dit zich weer naar geen AA, zeer irritant. Zit je met je 4870x2 en je komt niet verder dan 4x AA uit het ingame menu en de drivers op 'application'. Ander voorbeeld, Brothers in Arm Hell's highway, spel is spuuglelijk zonder AA. De UT3 engine zou het niet ondersteunen, renamen naar verschillende exe's schijnt hier niet te helpen, Oblivion.exe werkt wel maar levert daarbij allerlei gekke artifacts op. Bij Nvidia schijnt het geen probleem op te leveren.
Iets anders, als ik mijn TV die ik middels de Svideo kabel heb aangesloten op clone zet dan springt de resolutie van mijn desktop LCD ook op 1024x768. Volgens het ATI forum is het niet mogelijk om in clone stand een verschillende resolutie te hanteren. Nvidia? Je raadt het al, geen probleem. Ook zag ik in 8.8 een optie om op de TV film in volledig scherm af te laten spelen, heb ik geselecteerd maar werkte gewoon niet, bleef gewoon mijn mediaplayer scherm zien. In de 8.9 set kan ik de optie niet eens meer vinden. Bij Nvidia werkte dit ook lekker, kon op mijn pc gewoon andere vensters openen terwijl video gewoon fullscreen bleef spelen op mn TV.
Sorry voor de rant maar ik dacht ik schrijf het even van me af.
Verwijderd
bijv: AI aan en uit zetten? Noem het dan gewoon CF aan en uit zetten switch. Dat is toch gewoon niet duidelijk voor nieuwe gebruikers. Maarja ik ken het altijd blijven tweaken he, soms moet je er gewoon met je tengels vanaf blijven.
Verwijderd
Op mijn 8800GTX ben ik zelf nog geen games tegen gekomen die slecht draaien zonder crysisRappieRappie schreef op maandag 13 oktober 2008 @ 13:34:
Crysis speel ik niet. Het is al 1000x gezegd, maar dat spel draait gewoon k.t.
En ik ben tot nu toe geen andere games tegengekomen die slecht draaien op de HD4870X2.
Ik ben nog nooit zo tevreden met een graka geweest.
[...]
Inderdaad, ik ook niet.
Verder heb ik nog NOOIT last gehad van tearing met mijn vga, ook niet in fear.
En ik heb nooit vsync aan
Je realiseert je hopelijk wel dat de engines die je noemt van huis uit geen AA ondersteunen en dat het forceren via drivers een 'hack' is die ook voor (kleine) artifacts kan zorgen. Dit is al meerdere keren aangehaald in dit topic en elders. Dat je van nVidia en AMD hacks ingebouwd krijgt in de drivers is echter een service en niet officieel ondersteunt. Gaat er iets mis, dan is dat jammer, maar helaas.Verwijderd schreef op maandag 13 oktober 2008 @ 17:47:
Als we het toch over drivers hebben;
Na een maand of twee/drie met de 4870x2 concludeer ik dat de drivers toch wel ATI's zwakke punt zijn. Valt allemaal een beetje tegen, ik loop tegen best veel probleempjes aan. AA forceren wil bij een hoop spellen niet lekker. Als je dan gaat googlen kom je erachter dat iedereen dat heeft bij een bepaald spel, en bijna overal lees je er dan bij dat het voor Nvidia-users geen probleem is. The witcher bv, om daar AA te forceren zou ik de exe moeten renamen naar Oblivion.exe, dat werkt inderdaad, maar na iedere cutscene reset dit zich weer naar geen AA, zeer irritant. Zit je met je 4870x2 en je komt niet verder dan 4x AA uit het ingame menu en de drivers op 'application'. Ander voorbeeld, Brothers in Arm Hell's highway, spel is spuuglelijk zonder AA. De UT3 engine zou het niet ondersteunen, renamen naar verschillende exe's schijnt hier niet te helpen, Oblivion.exe werkt wel maar levert daarbij allerlei gekke artifacts op. Bij Nvidia schijnt het geen probleem op te leveren.
Je kan toch ook niet verwachten dat je een game simpelweg kan renamen naar bv Oblivion.exe en alles dan perfect werkt. Aan "Oblivion.exe" zit in de drivers een profiel gekoppeld die zorgt dat bepaalde optimalisaties voor de engine van Oblivion actief worden. Soms werkt dit op een andere game, maar het is absoluut geen garantie.
Als je in The Witcher niet genoeg hebt aan de 4xAA via de ingame settings, dan heb je bij AMD nog altijd de mogelijkheid om de custom filters aan te zetten. Er gaat niets boven 12x of 24x Edge Detect AA wanneer de performance het toestaat om dit aan te zetten.. en dit ziet er nog altijd beter uit dan een geforceerde 8x of 16xAA. Overigens vind ik AA in The Witcher niet echt high priority. De game ziet er met weinig AA nog goed uit.
De problemen die jij omschrijft lijken voornamelijk juist om dit geval te gaan... AA in games die officieel geen AA ondersteunen of games die alleen maar beperkte AA mogelijkheden geven via de ingame panel. Om dan meteen de drivers als zwak punt aan te geven vind ik wel een beetje te gemakkelijk afgeven op AMD... het ligt namelijk vaak meestal aan de developer van de games die besluit om geen DX10 AA te implementeren of die beperkte AA mogelijkheden geeft... Wat betreft stabiliteit en performance doen de drivers namelijk absoluut niet onder voor nVidia.
Brothers In Arms is een TWIMTBP game waardoor van huis uit een driverprofiel in de NV drivers zit waardoor AA goed werkt. Bij AMD is het dan gewoon wachten op een 'fix'. Officieel gezien zouden van Catalyst 8.3 alle games die gebruik maken van de Unreal Engine 3, dus ook de nieuwste BIA, AA moeten ondersteunen wanneer het geforceerd wordt in Catalyst Control Center. Hoe het moet staat zelfs in de releasenotes van die drivers.
Zo werkt het bv voor UT3 en Mass Effect prima. Voor DX10 games geldt dat je de game dan in DX9 mode draaien, waarna je AA kan forceren in de CCC (bv zoals in Bioshock). Werkt het niet gelijk in een nieuwe game, dan komt dit waarschijnlijk omdat de engine aangepast is en bepaalde dingen net even naar andere plekken wil schrijven, waardoor AA niet meer goed functioneert. Een driverfix zou dit kunnen oplossen.This release of Catalyst™ introduces anti-aliasing support for all Unreal Engine 3.0 based games (running in DirectX 9 mode). Users can enable Anti-Aliasing for titles such as Gears of War and Unreal Tournament 3 by simply enabling Anti-Aliasing within the ATI Catalyst™ Control Center.
Onder DX10 werkt dit niet omdat DX10 andere methodes heeft om wel correct AA weer te geven in engines als de UE3. Dat is het hele punt van DX10 en vooral ook van DX10.1.
Wanneer een developer dit niet gebruikt en de videokaart fabrikant zich in allerlei bochten moet wringen om dit toch te ondersteunen omdat de klant verwend is, wiens schuld is dit dan?
NV != AMD. Ze stellen andere prioriteiten. Heb je problemen....Iets anders, als ik mijn TV die ik middels de Svideo kabel heb aangesloten op clone zet dan springt de resolutie van mijn desktop LCD ook op 1024x768. Volgens het ATI forum is het niet mogelijk om in clone stand een verschillende resolutie te hanteren. Nvidia? Je raadt het al, geen probleem. Ook zag ik in 8.8 een optie om op de TV film in volledig scherm af te laten spelen, heb ik geselecteerd maar werkte gewoon niet, bleef gewoon mijn mediaplayer scherm zien. In de 8.9 set kan ik de optie niet eens meer vinden. Bij Nvidia werkte dit ook lekker, kon op mijn pc gewoon andere vensters openen terwijl video gewoon fullscreen bleef spelen op mn TV.
http://support.ati.com/ic...894&surveyID=486&type=web
http://forums.amd.com/gam....cfm?catid=279&entercat=y
http://forums.amd.com/gam....cfm?catid=260&entercat=y
Begrijpelijk dat je een beetje gefrustreerd bent, maar dit topic is niet bedoeld voor rants.Sorry voor de rant maar ik dacht ik schrijf het even van me af.
CF AAN/UIT zou de lading niet meer dekken. Cat AI ON/OFF doet namelijk veel meer. Zie voorgaande posts. CF op bv een X2 zou transparant moeten werken. En dat doet het ook in de meeste gevallen. Maar voor de verontruste gebruiker kan ik melden dat er wel wat verbeteringen in de pipeline zitten. AMD luistert wel naar de community en probeert een zo groot mogelijke doelgroep te bereiken. De eerste verandering is bv de mogelijkheid om op HD4000 kaarten je fanspeed binnen de drivers aan te passen. En er komen meer veranderingen aan. Vergeet echter niet dat het driverteam van AMD uit een handjevol mensen bestaat (ik geloof zo'n 12 man), die zich vol overgave op de drivers storten om een betere gebruikerservaring te garanderen. Voor zo'n klein aantal mensen hebben ze de afgelopen jaren toch enorm veel vooruitgang geboekt, zeker als je het vergelijkt met de massale driverteams van nVidia.Verwijderd schreef op maandag 13 oktober 2008 @ 18:26:
Geen nieuws, wel goede feedback. Kan zijn dat je nog wat meer moet wennen aan ATi's interface. Toch lijkt me de gebruiksvriendelijkheid achteruit gegaan, ook voor nvidia naar mijn mening. Ik bedoel wat goed werkt moet men zo laten of verbeteren, niet terug gaan in ontwikkeling.
bijv: AI aan en uit zetten? Noem het dan gewoon CF aan en uit zetten switch. Dat is toch gewoon niet duidelijk voor nieuwe gebruikers. Maarja ik ken het altijd blijven tweaken he, soms moet je er gewoon met je tengels vanaf blijven.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
vorig jaar mijn x1900xt 512mb vervangen door een 8800gts 640mb. resultaat duidelijk merkbaar en dankzij 20% overclock (zowel core als mem) nog eens veel sneller. prima stap dus. inmiddels een 4870 512mb en ZEER tevereden. (hiervoor een 8800gts g92 512mb)
het vreemde is:
ik heb in mijn 2e pc een 2ehands 8800gts 320mb (op 1280x1024 even snel als een 640mb versie) en een 4400+ x2 cpu.
voor mijn zoontje een 2ehands x1900xtx 512mb gekocht en ook een 4400+ x2 cpu. wat blijkt? in veel HUIDIGE games draait de x1900xtx vloeiender en is de 8800gts 320mb alleen sneller als hij flink wordt overgeclockt weer, en zelfs dan scheeld het weinig. op settings waarbij het zwaar wordt voor beide kaarten is het speelbaarder op de x1900xtx naar mijn idee! dus ook als de 8800 meer fps laat zien speeld het fijner met de ATi vreemd genoeg...
ik denk dus echt dat de x1900 serie perfekte kaartjes zijn die voor weinig geld nu zijn te bemachtigen voor mensen die leuk willen gamen voor weinig geld.
wellicht is bij een snelle intel core2duo of quad cpu de 8800 pas de betere keuze?
heb trouwens ook een 7900gtx gehad in mijn 2e pc. en geloof me: x1900xt(x) 512mb maakt er gehakt van in ieder spel die maar wat shaders gebruikt.....
ik heb nog veel meer kaarten gehad (koop ook vaak voor fun iets oudere kaartjes om even mee te prutsen) en heb van beide merken veel plezier gehad. toch blijkt ook bij mij steeds dat op de langere termijn de ati's de betere keuze zijn. met uitzondering van de 2900 serie, die vind ik echt bagger
Misschien is dat gewoon nog geen lange termijnmeljor schreef op maandag 13 oktober 2008 @ 19:05:
...
met uitzondering van de 2900 serie, die vind ik echt bagger
[ Voor 20% gewijzigd door The Flying Dutchman op 13-10-2008 19:08 ]
The Flying Dutchman
klopt, maar voorwaarde voor een goede kaart is natuurlijk wel dat hij op het moment van release ook zijn best doet om mee te komenMisschien is dat gewoon nog geen lange termijn.
2900 was echt te zwak in veel games, vooral met AA (slechts 4x AA was hem vaak al teveel) en dat was echt niet ok. 3870 is niet veel beter maar maakte het met zijn prijs in ieder geval nog goed.....
Vreemd, bij mij werkt theater mode gewoon in 8.9. Je vindt het in CCC Advanced onder Avivo Video -> Theater Mode.Verwijderd schreef op maandag 13 oktober 2008 @ 17:47:
Ook zag ik in 8.8 een optie om op de TV film in volledig scherm af te laten spelen, heb ik geselecteerd maar werkte gewoon niet, bleef gewoon mijn mediaplayer scherm zien. In de 8.9 set kan ik de optie niet eens meer vinden.
Verwijderd
Had hiervoor een Nvidia kaart en ik zit voor mijn smaak sinds ik deze kaart heb veel te veel in de CCC om instellingen te wijzigen voor verschillende games. Ik hoop dat ATI wat meer geld gaat pompen in het driverteam en dat ze meer betrokken worden bij de ontwikkeling van spellen, een beetje fanatieke gamer heeft het spel al klaar voordat de driver fix komt.
GRID is nog een voorbeeldje, als ik daar AA in CCC aan laat staan heb ik ook geen AA in het spel, ik kan daar dus ook geen 'edge detect' gebruiken en ben aangewezen op de 8xAA ingame preset.
Btw, the witcher draait op de bioware aurora engine, die is toch ATI minded? Als ik in CCC 8xAA Edge detect aanzet en ingame 4xAA dan krijg ik dus 0x AA en dat ziet er niet uit. Zoals ik al zei werkt renamen hier wel maar na iedere cutscene wordt het weer gereset. Ik draai hem nu dus op 'application' in CCC en 4xAA ingame maar met een 4870x2 wil je toch meer. Het ziet er wel ok uit maar er is zeker nog ruimte voor verbetering.
Wat je zegt over DX10 en CCC AA, geld dat alleen voor UE3 games? Kan ik DX9 forceren voor een game die het in het menu niet laat wijzigen?
Crap, heb ik dus toch bioshock helemaal gespeeld zonder AA...
[ Voor 6% gewijzigd door Verwijderd op 13-10-2008 20:07 ]

Of hem zo noemen:
"C:\Program Files\2K Games\BioShock Demo\Builds\Release\Oblivion.exe" -dx9
[ Voor 4% gewijzigd door Format-C op 13-10-2008 19:43 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Je zit ernaast. Ik had een week na launch een 2900XT in mijn computer zitten, en daar kon ik de games van toen prima mee draaien met high settings +4/8x AA + 8/16x AF. Later is de kaart door drivers toch een stuk beter gaan presteren en kwam de kaart nog redelijk op z'n pootjes terecht. imo was de 2900XT lang zo slecht niet als "men" beweerde.meljor schreef op maandag 13 oktober 2008 @ 19:12:
[...]
klopt, maar voorwaarde voor een goede kaart is natuurlijk wel dat hij op het moment van release ook zijn best doet om mee te komen
2900 was echt te zwak in veel games, vooral met AA (slechts 4x AA was hem vaak al teveel) en dat was echt niet ok. 3870 is niet veel beter maar maakte het met zijn prijs in ieder geval nog goed.....
Enige nadeel was wel dat die koeler een gruwelijke kolereherrie maakte
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Tja, gelukkig wordt niemand gedwongen om een Radeon of GeForce te nemen. Als een klant een bepaalde functie wil die niet door een bepaald merk ondersteunt wordt, dan is het simpel... neem het andere merk.Verwijderd schreef op maandag 13 oktober 2008 @ 19:35:
CJ, ik zie je punten en je hebt ook wel gelijk, maar toch ook weer niet. De redenen zijn allen valide, maar de klant is niet geinteresseert in de reden waarom het niet werkt. Het enige wat mij als klant interesseert is dat het bij nvidia dus wel werkt maar bij ATI niet. (of veel lekkerder werkt, nvidia drivers zijn ook niet perfect)
Had hiervoor een Nvidia kaart en ik zit voor mijn smaak sinds ik deze kaart heb veel te veel in de CCC om instellingen te wijzigen voor verschillende games. Ik hoop dat ATI wat meer geld gaat pompen in het driverteam en dat ze meer betrokken worden bij de ontwikkeling van spellen, een beetje fanatieke gamer heeft het spel al klaar voordat de driver fix komt.
Ik blijf het onredelijk vinden om een fabrikant af te rekenen op het feit dat een softwaredeveloper er voor gekozen heeft om iets brak te implementeren waardoor de hardwarefabrikant gedwongen wordt om dit via een driverhack (want het is niet meer dan dat en niet eens compleet foutloos) te implementeren. Wanneer hardwaredevelopers toegeven aan de grillen van softwarefabrikanten en dit soort hacks standaard moeten implementeren, is dit meer een achteruitgang dan vooruitgang. De software en hardware is in staat om iets op een degelijke manier uit te voeren (dus AA + DX10(.1)). Het nadeel is dat de klant gewend raakt aan dit gemak, terwijl het voor de fabrikanten (en hun driverteams) alleen maar voor hoofdpijn zorgt. Ik zeg... de klant moet zich maar beter informeren over de mogelijkheden van hun dure videokaart.
Omgekeerd zitten NV SLI bezitters al jaren tegen het feit aan te hikken dat ze geen multi-monitor support hebben wanneer SLI geactiveerd is. ATI heeft dit nu al een tijdje werkzaam gekregen, maar wel met veel pijn en moeite.
GRID is nog een voorbeeldje, als ik daar AA in CCC aan laat staan heb ik ook geen AA in het spel, ik kan daar dus ook geen 'edge detect' gebruiken en ben aangewezen op de 8xAA ingame preset.
 En dat vindt je gek? Je doet het op de verkeerde manier.... Hehe.
 En dat vindt je gek? Je doet het op de verkeerde manier.... Hehe. GRID heeft ingame AA settings.... dus.... CCC op "use application settings" laten staan. NIKS FORCEREN! Pas dan werkt je custom filter (in dit geval edge detect) door in je CCC je filter op Edge Detect te zetten. Afhankelijk van de gekozen ingame AA setting krijg je 12x Edge Detect (ingame 4xAA) of 24x Edge Detect (ingame 8xAA).
Aurora en ATI... ouch... die hebben een hele pijnlijke geschiedenis met elkaar. Aurora is helemaal TWIMTBP. Pas sinds kort heeft AMD daar lekkere scaling op CrossFire systemen weten te bewerkstelligen.Btw, the witcher draait op de bioware aurora engine, die is toch ATI minded? Als ik in CCC 8xAA Edge detect aanzet en ingame 4xAA dan krijg ik dus 0x AA en dat ziet er niet uit. Zoals ik al zei werkt renamen hier wel maar na iedere cutscene wordt het weer gereset. Ik draai hem nu dus op 'application' in CCC en 4xAA ingame maar met een 4870x2 wil je toch meer. Het ziet er wel ok uit maar er is zeker nog ruimte voor verbetering.
Ik vraag me af of je het hier ook niet weer verkeerd doet...
- CCC op use application setting
- Ingame AA aan
- CCC custom filter op Edge Detect
Yep. Dat zou moeten kunnen... Veel van die DX10 games kan je namelijk ook op XP spelen. En daar wordt dan echt DX9 gebruikt. Daar is het dus ook iets simpeler om AA te forceren.Wat je zegt over DX10 en CCC AA, geld dat alleen voor UE3 games? Kan ik DX9 forceren voor een game die het in het menu niet laat wijzigen?
Crap, heb ik dus toch bioshock helemaal gespeeld zonder AA...
Overigens valt Epic niets te verwijten.... de UE3 engine ondersteunt namelijk prima AA onder DX10... maar veel developers die gebruik maken van de UE3 engine waren te lui om het direct native te ondersteunen, waardoor NV en AMD naar hacks moeten teruggrijpen. Er komen echter steeds meer games die wel correct AA gebruiken onder DX10.
Dit dus hoogstwaarschijnlijk. Overstappen van het ene merk naar het andere merk zonder complete reinstall van Windows kan vaak lagere performance opleveren dan verwacht.WeAreLegion schreef op maandag 13 oktober 2008 @ 20:31:
Of ligt dat toch echt aan windows niet reinstalled?
[ Voor 3% gewijzigd door CJ op 13-10-2008 20:34 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Inderdaad, "toen" was het goede keus. Zou het trouwens nog zin hebben om elke maand de drivers voor de 2900xt te updaten? Ik heb geen problemen, maar is het nuttig voor prestatie/kwaliteit?Visgek24 schreef op maandag 13 oktober 2008 @ 20:19:
imo was de 2900XT lang zo slecht niet als "men" beweerde.
Hmmm daar was ik dus al bang voor. Ik zal van de week windows dan maar opnieuw installeren againCJ schreef op maandag 13 oktober 2008 @ 20:32:
[...]
Dit dus hoogstwaarschijnlijk. Overstappen van het ene merk naar het andere merk zonder complete reinstall van Windows kan vaak lagere performance opleveren dan verwacht.
WeAreLegion schreef op maandag 13 oktober 2008 @ 20:44:
[...]
Hmmm daar was ik dus al bang voor. Ik zal van de week windows dan maar opnieuw installeren againtot nu toe werkt het wel prima verder erg goeie kaart al zeg ik het zelf wel ben er zeer tevreden mee.
Ik weet dat dit hier niet hoort, maar ik kan het niet laten om te reageren. Als het niet aan de schone install ligt, dan misschien aan de cpu.
Welke CPU heb je? Als ik zo naar je 3DMark06 score kijk, is je CPU de bottleneck voor de 4870. En dan is het ook logisch dat je in Crysis geen vooruitgang boekt.
edit hieronder: Ok, maar een 4870 zou beter moeten presteren dan een GTS 640. Ik zie dat hij ook al gereageerd heeft in het ervaringen topic. Daar maar verder.
[ Voor 31% gewijzigd door SR8 op 13-10-2008 21:16 ]
Crysis is echt wel een stuk minder CPU afhankelijk hoor,,,SR8 schreef op maandag 13 oktober 2008 @ 20:59:
[...]
offtopic:
Ik weet dat dit hier niet hoort, maar ik kan het niet laten om te reageren. Als het niet aan de schone install ligt, dan misschien aan de cpu.
Welke CPU heb je? Als ik zo naar je 3DMark06 score kijk, is je CPU de bottleneck voor de 4870. En dan is het ook logisch dat je in Crysis geen vooruitgang boekt.
Dan ga je nog een stuk tevredener worden. Mijn HD3850 kan aardig de strijd aan met een oude 8800GTS. Jouw HD4870 moet zeker anderhalf keer zo snel zijn. Dit is trouwens meer een vraagje voor het ervaringen topic dan voor het nieuwsdiscussie topic.WeAreLegion schreef op maandag 13 oktober 2008 @ 20:44:
[...]
Hmmm daar was ik dus al bang voor. Ik zal van de week windows dan maar opnieuw installeren againtot nu toe werkt het wel prima verder erg goeie kaart al zeg ik het zelf wel ben er zeer tevreden mee.
[ Voor 8% gewijzigd door Depep op 13-10-2008 21:17 ]
met mijn oude 8800gts 640mb haalde ik trouwens ook 14000 punten max. overclock, alleen was de nieuwe gts toch echt beduidend sneller in games.
lage kloksnelheid cpu is ook oorzaak. (mijn hoge scores komen voornamelijk door 3,6ghz quad)
maar kijk dus niet naar 3dmark 06, gebruik dan liever 3dmark vantage. of nog veel liever: ga gamen en feel the difference!
Verwijderd
En ja, zeggen dat ik dan maar een nvidia had moeten kopen is natuurlijk een beetje een dooddoener.
Mag ik dan wel concluderen dat nvidia wat sneller/beter is op het gebied van deze hacks/profiles?
iig bedankt voor de opheldering, noem mij maar de prototype klant, kaar erin en spelen met dat ding.
[ Voor 8% gewijzigd door Verwijderd op 13-10-2008 21:42 ]
Dat klopt.Verwijderd schreef op maandag 13 oktober 2008 @ 21:38:
Hmm, ok, ik ging er dus vanuit dat als je 'application controlled' modus aanzet voor AA dat dan het filter dus ook niet meegenomen wordt! Dus in CCC op bv 8xAA Edge detect zetten en dan 'application controlled' aanvinken?
Laat ik het anders formuleren. nVidia pompt veel geld in het The Way It's Meant To Be Player programma, wat vaak resulteert in eerdere ondersteuning in de drivers van nieuwe games (meestal ook omdat nVidia vaker dan AMD hun eigen medewerkers naar gamedevelopers stuurt om optimaal te coderen voor hun hardware). AMD pompt liever meer geld in de ontwikkeling van nieuwe technieken en gaat er van uit dat dit op de lange termijn er voor zal zorgen dat developers hier voor zullen ontwikkelen. Voor beide dingen valt iets te zeggen.En ja, zeggen dat ik dan maar een nvidia had moeten kopen is natuurlijk een beetje een dooddoener.
Mag ik dan wel concluderen dat nvidia wat sneller/beter is op het gebied van deze hacks/profiles?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
nieuws: VS seponeert antitrustzaak tegen AMD
In 3Dmark is je cpu de bottelnek ja in games zul je dat niet echt merken. Dan is een 5200+ snel zat. Eventueel kun je die altijd nog Oc'en om em 15-20% sneller te maken.WeAreLegion schreef op dinsdag 14 oktober 2008 @ 00:16:
Ok heb reinstall gedaan en haal nu standaard 10195 das al stuk beter. Aangezien er niks overlocked. Ik heb trouwens een AMD X2 5200+ tis geen nieuwe processor dus denk dat dat de bottleneck ik in dit geval. Maar goed ik ga maar eens poosje er mee gamen kijken hoe dat gaat.!
Zal de rest van me ervaringen in desbetreffende topic posten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Jah inderdaad das wel handeel van die static benchmarksAstennu schreef op dinsdag 14 oktober 2008 @ 08:09:
[...]
In 3Dmark is je cpu de bottelnek ja in games zul je dat niet echt merken. Dan is een 5200+ snel zat. Eventueel kun je die altijd nog Oc'en om em 15-20% sneller te maken.
Phoronix bekijkt de multiview mogelijkheden van AMD onder Linux. Op dit moment is het alleen nog functioneel op workstation GPUs (FireGL/FirePro), maar wellicht zal het snel z'n weg vinden naar de gewone consumer GPUs.
Bron: http://www.phoronix.com/s...&item=amd_multiview&num=1MultiView still has a few issues to work through as you can see, but it is darn nice and need we say much better than using Xinerama. This should be an ideal solution once all of the initial bugs are worked out and the support has stabilized over the course of a few releases.
Daarnaast twee andere Radeon gerelateerde artikelen op Phoronix:
Sapphire HD4870 Toxic Vapor-X
RadeonHD 1.2.2 & 1.2.3 Drivers Released
CrossFire compatible games toegevoegd aan FAQ
Yep, je leest het goed. Ik heb een lijst toegevoegd aan de FAQ met games waarvan bevestigd is dat ze scaling vertonen met CrossFire. De bevestiging is afkomstig van zowel reviews, userervaringen, officiele ingame multi-GPU support of van AMD. In eerste instantie gaat het hier om 2-way GPU CF.
Zie je een game die je vaak speelt er niet tussen staan, maar krijg je wel multi-GPU scaling... meldt het me dan even via een private message op dit forum en ik pas de lijst zo spoedig mogelijk aan.
[ Voor 38% gewijzigd door CJ op 14-10-2008 14:45 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
En de 8xmsaa in GRID vind je niet mooi genoeg? waarom zou je dat beter willen, ik vind de antialiasing van GRID echt geweldig, op 4xmsaa ziet het er (19*12 max) ook erg mooi uit.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Als ik vsync uitzet dan draait ie helemaal niet soepel, voortaan speel ik dus met vsync aan.
Voordeel van een lagere resolutie, gewoon edge detect aanzetten.
|2600k|Asus 290|
Verwijderd
Verdiep je eens in het profielen systeem.Verwijderd schreef op dinsdag 14 oktober 2008 @ 18:50:
20481536gamer; Dat is het punt niet, het punt is dat ik de AA modus moet wijzigen in CCC voordat ik GRID ga spelen omdat ik me bv in the witcher wel genoodzaakt zie om AA te forceren (aangezien die ingame niet verder dan 4x gaat)
Je kunt verschillende profielen aanmaken waarin je settings kunt specificeren en zelfs applicaties kunt laten starten. Maak voor elke game waar je dus andere settings dan je sane defaults voor nodig hebt één keer een goed profiel en je kunt gewoon met je ATi CCC tray icoontje het goede profile selecteren in iets van 2 klikjes.
En mogelijk zelfs gelijk de game laten starten.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Hmm, voor performance denk ik niet echt, wel voor specifieke game fixes of optimalisaties.Surgue schreef op maandag 13 oktober 2008 @ 20:33:
[...]
Inderdaad, "toen" was het goede keus. Zou het trouwens nog zin hebben om elke maand de drivers voor de 2900xt te updaten? Ik heb geen problemen, maar is het nuttig voor prestatie/kwaliteit?
Ligt er ook aan hoe recent je huidige drivers zijn denk ik. als je ze al maanden niet geupdate
hebt lijkt het me wel een goed plan om dat eens te doen
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Als mijn PC met een 32Bit OS 4GB RAM heeft en met een 512MB kaart er 3,5GB systeem RAM over blijft, blijft er met een 2GB 4870X2 dan 2GB systeemRAM over omdat er 2GB op die kaart zit, of 3GB omdat het systeem maar 1GB aan videoRAM ziet en het intern wordt gedeeld/verdubbeld naar 2GB?
Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.
Sorry, ik zei niks.Tijgert schreef op dinsdag 14 oktober 2008 @ 22:27:
Vraagje voor de mensen die het hebben:
Als mijn PC met een 32Bit OS 4GB RAM heeft en met een 512MB kaart er 3,5GB systeem RAM over blijft, blijft er met een 2GB 4870X2 dan 2GB systeemRAM over omdat er 2GB op die kaart zit, of 3GB omdat het systeem maar 1GB aan videoRAM ziet en het intern wordt gedeeld/verdubbeld naar 2GB?
[ Voor 11% gewijzigd door Snorro op 14-10-2008 22:58 . Reden: Weer wat geleerd! ]
Klok/klepel, heeft er alles mee te maken.Snorro schreef op dinsdag 14 oktober 2008 @ 22:44:
[...]
Dat je pc enkel 3,5GB ziet ipv 4 heeft met het feit te maken dat je OS 32Bit is.
Heeft niks te maken met videogeheugen.
Met 32 bit kun je 232 adressen adresseren, wat overeenkomt met 4GB. Dat je altijd maar 3,5GB of minder krijgt heeft hier alles mee te maken, namelijk dat de rest van je hardware ook geadresseerd moet worden. Videogeheugen is qua adressering niet anders dan je werkgeheugen, beiden worden van deze 4GB limiet afgehaald. Als je dus een videokaart koopt met veel geheugen (HD4870X2 met 2GB in totaal) dan hou je nogal weinig werkgeheugen over...
Ik heb de laatste 2 jaar veel videokaarten gehad en ik heb eigenlijk het volgende waargenomen (Allemaal Windows XP 32 bit);
800GTS 640MB:
3.25GB herkent
8800GT 512MB:
3.25GB herkent
9800GTX 512MB:
3.25GB herkent
4870 1GB:
3.25GB herkent
Ik heb na iedere kaart minstens 1x mijn pc geformateerd gehad, dus daar kan het niet aan liggen.
Tevens werkt Windows XP x64 net zo goed, dus ik zou wel maar wisselen.
[ Voor 16% gewijzigd door XWB op 14-10-2008 23:21 ]
Offtopic:Bron
TSMC Expected to Land Nvidia`s and AMD`s 40nm Foundry Contracts
Industry watchers point out that although AMD will spin off its manufacturing operations into foundry operation, the planned foundry is not capable of making 40nm chips as the AMD`s 300mm factory in Dresden of Germany it will take over owns only 45nm SOI process technology and a 300mm factory using 32nm process it plans to build in New York won`t come on line until after 2010. AMD will debut its 40nm chip coded RV870 in the middle of next year.
Nvidia has long depended on TSMC for foundry service. The graphics-chip vendor plans to introduce its first 40nm chip codenamed GT216, which will replace its GTX280.
The two graphics-chip vendors have decided to migrate to 40nm process from 55nm, skipping the intermediate 45nm process in order to quickly pare down costs. Industry watchers point out that the two companies are engaged in price competition, inspiring the speculations that the prices will likely fall at least 20% in the coming Christmas shopping season.
Pinched profit reportedly compels the two graphics-chip vendors to complete tape-out of 40nm designs by the end of this year. They are expected to make 40nm chips available in the second half of June next year.
ivm Geheugen weergave: 32-bit windows kan nooit meer dan 4GB gebruiken. 32-bit windows Vista SP1 kan het exacte volume weergeven, maar kan nooit meer dan 4GB gebruiken. Enkel 64-bit windows XP en 64-bit Vista kan 4GB en meer weergeven en gebruiken. 64-bit is duidelijk de toekomst!
2^32/1024byte/1024kilobyte/1024megabyte= 4GB Hiervan wordt het gebruik van de videokaart afgetrokken
Wat ook belangrijk is is dat elk programma maar een maximale hoeveelheid geheugen in eens kan aanspreken. Dit was bekend bij Supreme commander (zelfs met vista 64-bit). Deze kon maar 2GB max aanspreken, maar met de uitbreiding erbij kon hij meer dan 2GB aanspreken (ook mits wat aanpassing in de exe kon dit verholpen worden)
PS: Er zijn hier al zoveel topics over geweest! Gebruik eens de search zou ik zeggen en hou het hier over ATI nieuws!
[ Voor 22% gewijzigd door penetreerbeer op 15-10-2008 14:31 ]
Stukje uit Intel documenten:
Starting with the Pentium Pro processor, the IA-32 architecture also supports an extension of the physical address space to 2^36 bytes (64 GBytes); with a maximum physical address of FFFFFFFFFH. This extension is invoked in either of two ways:
•Using the physical address extension (PAE) flag, located in bit 5 of control register CR4.
•Using the 36-bit page size extension (PSE-36) feature (introduced in the Pentium III processors).
Ontopic:
Is er al enig nieuws over een chipset met een HD4000 serie aan boord, dit zou echt geweldig zijn voor een HTPC ( UVD2, 7.1 over HDMI, ... )?
offtopic: dit is alleen geimplementeerd in Windows Server_Silencer schreef op woensdag 15 oktober 2008 @ 15:34:
Even voor de duidelijkheid een 32bit Intel CPU kan meer dan 4gig aanspreken, namelijk 64gig! Dit is mogelijk door de adresbus van de cpu die 36bit is! Met behulp van paging kan je deze 64gig verdelen onder verschillenden processen. Per proces zit je wel met een limiet van 4gig denk ik, registers zijn nog altijd 32bit.
Stukje uit Intel documenten:
Starting with the Pentium Pro processor, the IA-32 architecture also supports an extension of the physical address space to 2^36 bytes (64 GBytes); with a maximum physical address of FFFFFFFFFH. This extension is invoked in either of two ways:
•Using the physical address extension (PAE) flag, located in bit 5 of control register CR4.
•Using the 36-bit page size extension (PSE-36) feature (introduced in the Pentium III processors).
Ontopic:
Is er al enig nieuws over een chipset met een HD4000 serie aan boord, dit zou echt geweldig zijn voor een HTPC ( UVD2, 7.1 over HDMI, ... )?
Computer says no
en dan nog alleen de enterprise & datacenter edities.Moshe85 schreef op woensdag 15 oktober 2008 @ 16:53:
[...]
offtopic: dit is alleen geimplementeerd in Windows Server
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Juni 2009 voor AM3_Silencer schreef op woensdag 15 oktober 2008 @ 15:34:
Is er al enig nieuws over een chipset met een HD4000 serie aan boord, dit zou echt geweldig zijn voor een HTPC ( UVD2, 7.1 over HDMI, ... )?
Techreport Artikel
 
                    If you're a Radeon user who has been reluctant to try out the Catalyst 8.10 RC2 driver I mentioned last week, you'll be happy to know that ATI has just released their official Catalyst 8.10 driver. The new driver offers performance improvements as well as the ability to manually adjust the GPU fan RPMs. From ATI's release notes: klik!
Score in 3DM op Extreme Settings: X2372.Hacku schreef op woensdag 15 oktober 2008 @ 14:42:
Hebben jullie al een prijs voor de HD4830? Sapphire staat momenteel aan 96.39 excl BTW.
Deze kaart scoort best lekker voor die prijs.
NV heeft een tijd lang gedacht dat de HD4830 slechts 480 SPs, een 192-bit bus en 24 TMUs zou hebben. Dit kwam omdat AMD weer een misinformation campagne op poten had gesteld en fabrikanten verteld had dat dit de specs zouden zijn. Dit is uitgelekt naar websites.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
CrossFire support doet het nog niet echt wat jammer is. NV heeft al wel een profiel klaar liggen voor hun GX2. De HD4870 doet het echter niet verkeerd.
http://www.guru3d.com/art...y-vga-performance-review/
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 18% gewijzigd door Astennu op 16-10-2008 14:41 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Bron : http://cens.com/cens/html/en/news/news_inner_25020.htmlTSMC Expected to Land Nvidia`s and AMD`s 40nm Foundry Contracts
2008/10/14
Taipei, Oct. 14, 2008 (CENS)--Both Nvidia Corp. and AMD Inc. are expected to contract foundry giant Taiwan Semiconductor Manufacturing Co. (TSMC) to make their 40-nanometer graphics chips to stay competitive.
Industry watchers point out that although AMD will spin off its manufacturing operations into foundry operation, the planned foundry is not capable of making 40nm chips as the AMD`s 300mm factory in Dresden of Germany it will take over owns only 45nm SOI process technology and a 300mm factory using 32nm process it plans to build in New York won`t come on line until after 2010. AMD will debut its 40nm chip coded RV870 in the middle of next year.
Nvidia has long depended on TSMC for foundry service. The graphics-chip vendor plans to introduce its first 40nm chip codenamed GT216, which will replace its GTX280.
The two graphics-chip vendors have decided to migrate to 40nm process from 55nm, skipping the intermediate 45nm process in order to quickly pare down costs. Industry watchers point out that the two companies are engaged in price competition, inspiring the speculations that the prices will likely fall at least 20% in the coming Christmas shopping season.
Pinched profit reportedly compels the two graphics-chip vendors to complete tape-out of 40nm designs by the end of this year. They are expected to make 40nm chips available in the second half of June next year.
RV870 dus voor volgend jaar, misschien dan toch een RV780 voor de feestdagen om het gat op te vullen en om te concurreren met de aankomende 55nm chips van Nvidia... misschien dat CJ hier meer over weet
nVidia zal wel met wat nieuws komen maar of ATi dat ook doet ?? ik hoop van wel maar ik verwacht het eerlijk gezegd niet.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het was al bekend dat de RV870 in Juni 2009 op de markt zal komen (zie mijn post in vorige topic), samen met de 40nm versie van Nvidia.Verwijderd schreef op donderdag 16 oktober 2008 @ 15:55:
[...]
Bron : http://cens.com/cens/html/en/news/news_inner_25020.html
RV870 dus voor volgend jaar, misschien dan toch een RV780 voor de feestdagen om het gat op te vullen en om te concurreren met de aankomende 55nm chips van Nvidia... misschien dat CJ hier meer over weet(over die RV780 eh)
Maar ik lees nergens een indicatie dat er een rv780 komt uit je quote! Enkel dat de prijzen zullen zakken voor de eindejaarsfeesten. Dit zal wel gaan over de huidige GPU's die in prijzen zullen zakken, maar 20% vindt ik best veel, en zeker als je ziet hoeveel de GTX-en van Nvidia al gezakt zijn.
Verwijderd
Allemaal een beetje onzeker of nu eerst RV780 of RV870, daarom mijn vorige post...Op korte termijn staan gepland:
RV780/RV870
R800
En toen dook RV780 ineens op op de radar... Dit is de refresh van de RV770 en zal waarschijnlijk aan het eind van 2008, dan wel begin 2009 gelanceerd worden. AMD heeft aangegeven dat ze de 'highend' chips elk half jaar gaan vervangen. December 2008 zou dan de tijd zijn voor de RV780. Deze zal nog binnen de HD4x00 vallen, terwijl de R800 in de HD5x00 serie valt. Deze zal voor de zomer van 2009 uit komen en er is een kans dat deze volledig DX11 zal ondersteunen. De RV780 zal naar alle waarschijnlijkheid hoger geklokt zijn dan de RV770. En het ziet er naar uit dat de stap van RV770 -> RV780 vergelijkbaar is met de stappen van de R300->R350->R360. Kleine optimalisaties die hogere kloksnelheden mogelijk maken zonder dat de die-size groter wordt.
Het zou kunnen zijn dat niet RV780 de opvolger wordt, maar RV870. In dat geval zou R700 worden gezien als de opvolger van RV770. Dus RV770 -> R700 -> RV870 -> R800. Maar aangezien R700 vlak achter RV770 aan komt en niet een half jaar later, lijkt het er op dat er eerst nog een RV780 komt.
Als er effectief een RV780 gepland staat voor eind dit jaar zullen er binnekort wel meer geruchten beginnen opduiken.
http://forums.guru3d.com/...php?p=2875466&postcount=1
Elke week komen er wel drivers uit... soms dagelijks...Lennart_1337 schreef op donderdag 16 oktober 2008 @ 19:28:
Tijdens het validaten (laten signen door MS) gaan ze natuurlijk gewoon verder met drivers maken
Eens in de 4 weken wordt een van die release candidates uitgekozen om naar MS gestuurd te worden voor WHQL certificering. De andere drivers krijgen wij doorgaans nooit te zien, maar OEMs krijgen bijvoorbeeld wel die versies ter beschikking om ze bij PC's te leveren.
Wij lopen gemiddeld zo'n 4 tot 6 weken achter op de drivers die vandaag gemaakt zijn.
Far Cry 2 benchmarks

http://www.pcgameshardwar...?article_id=663809&page=3
[ Voor 18% gewijzigd door CJ op 16-10-2008 21:46 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Ik zag dus als ik in windows zit de fan speed op 20% zat en dan soms 91graden bereikte....
Nu heb ik ze via de nieuwe drivers op 30% tijdens Windows, zit nu op een mooie 60 graden idle.
[ Voor 6% gewijzigd door Verwijderd op 16-10-2008 22:51 ]
Die SLI scaling is wel super zeg. Hopen dat ze dat voor CF ook voor elkaar kunnen krijgen in een nieuwe driver. De Single HD4870 doet het wel erg goed. Ik neem aan dat die GTX260 de nieuwe is ? (met de extra shaders)CJ schreef op donderdag 16 oktober 2008 @ 21:41:
[...]
Elke week komen er wel drivers uit... soms dagelijks...
Eens in de 4 weken wordt een van die release candidates uitgekozen om naar MS gestuurd te worden voor WHQL certificering. De andere drivers krijgen wij doorgaans nooit te zien, maar OEMs krijgen bijvoorbeeld wel die versies ter beschikking om ze bij PC's te leveren.
Wij lopen gemiddeld zo'n 4 tot 6 weken achter op de drivers die vandaag gemaakt zijn.
Far Cry 2 benchmarks
[afbeelding]
http://www.pcgameshardwar...?article_id=663809&page=3
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hehe. Waar denk je dat ik die score die ik hier gisteren postte vandaan haalde? Het nieuws was toen nog niet gepost op VR trouwens.
Overigens ben ik deze week weer benaderd door VR om actief te gaan schrijven en mijn ongezouten mening te geven over bepaalde IHVs. VR wil wat actiever en prikkelender worden. Nadeel daarvan is dat het niet anoniem gebeurt en ik ongetwijfeld wat hate-mail ga krijgen van fanboys, dus ik zit nog te twijfelen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Als boven de 30 dan ook echt speelbaar is, moeten we nog maar afwachten.Astennu schreef op vrijdag 17 oktober 2008 @ 08:07:
[...]
Die SLI scaling is wel super zeg. Hopen dat ze dat voor CF ook voor elkaar kunnen krijgen in een nieuwe driver. De Single HD4870 doet het wel erg goed. Ik neem aan dat die GTX260 de nieuwe is ? (met de extra shaders)
Tja, in dat wereldje moet je een olifantenhuid hebben. Ik zou het gewoon doen, en me van de fanboys niks aantrekkenNadeel daarvan is dat het niet anoniem gebeurt en ik ongetwijfeld wat hate-mail ga krijgen van fanboys, dus ik zit nog te twijfelen.
Ik heb hem gekloond maar ook uit gebreid
verschillende resoluties gebruikt
Me 2 beeld schermen om gedraaid van poort.
Heb al andere converters gebruikt en kabels ingangen op me tv maar niks helpt.
Bios heb ik ook al door gebladerd
Zie ik wat over het hoofd??
Verwijderd
GPU Revenue: up by 55%
CPU Revenue: up by 46%
Total Revenue: up by 32% compared to Q2 08
Total Revenue: up by 14% compared to Q3 07
Gross Margin: up by 51%
http://techreport.com/discussions.x/15719
nieuws: AMD beteugelt verliezen in derde kwartaal
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Oke thnxVerwijderd schreef op vrijdag 17 oktober 2008 @ 11:07:
Dat "Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten." topic is. MEt dit soort vragen zou ik naar het HD48xx ervarings topic gaan.
Verwijderd
Volgens CJ is het aan de AIB om te beslissen of de HD4850X2 wordt gelanceerd, aangezien ik nog nergens iets heb gelezen... klinkt het bericht van LH mij een beetje als gebakken lucht.
Maar wie weet, laat maar komen
Verwijderd
Far Cry 2 is DirectX 10.1
A new driver to support it
Bron : http://www.fudzilla.com/i...ask=view&id=9992&Itemid=1
Nice one for the red team!Verwijderd schreef op vrijdag 17 oktober 2008 @ 14:42:
Ik denk dat dit nog niet gepost is :
Far Cry 2 is DirectX 10.1
A new driver to support it
Bron : http://www.fudzilla.com/i...ask=view&id=9992&Itemid=1
Er staat ook dat ATi met een nieuwe Driver gaat komen dus ik ben benieuwd. Hopelijk ook mooiere IQ. En dit keer niet zo'n grap als bij AC.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Kom maar op met die verbeterde AA performance.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik heb nog niet super veel baat gehad bij mijn X2 tov de HD4850. Ik ben nu een reinstall aan het doen en dan ga ik Flatout UC met de 8.10 drivers proberen. Hopelijk dan wel meer performance want die game krijgt een HD4850 zonder AA al op de knieën. Af en toe al er heel veel in het rond vliegt en er veel auto's zijn is de FPS onder de 30.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb hier ook al iets over gepost op het AMD discussie forum.CJ schreef op vrijdag 17 oktober 2008 @ 11:17:
Het staat ook al op de frontpage, maar het gaat dit kwartaal een stuk beter met AMD dan voorheen.
GPU Revenue: up by 55%
CPU Revenue: up by 46%
Total Revenue: up by 32% compared to Q2 08
Total Revenue: up by 14% compared to Q3 07
Gross Margin: up by 51%
http://techreport.com/discussions.x/15719
nieuws: AMD beteugelt verliezen in derde kwartaal
Link
PS: Aandelen van AMD hebben trouwens vandaag op +25% gestaan. Moest je 10000 euro staan hebben, had je 2500 euro winst gemaakt!penetreerbeer schreef op vrijdag 17 oktober 2008 @ 14:23:
Nog wat meer over de kwartaalresultaten:
AMD heeft zelfs wat geld gemaakt vorig kwartaal:
In Q3 heeft AMD een "winst" van "Continuing Operations" gemaakt van $131M.
CPU afdeling: $143M winst
GPU afdeling: $47M winst
Andere: $59M verlies
(143+47-59=131)
Bron
Verder interessante weetjes te halen uit de kwartaalresultaten:
Aantal werknemers: 15600 Q308 vs 16498 Q307 (dus 1000 minder werkers)
EBITDA: $422M Q308 vs $66M Q307 (Winst voor taxen en afschrijvingen) (was zelfs nog negatief voor Q307)
Verklaring: Dat de EBITDA serieus omhoog gegaan is wil alleen zeggen dat ze veel meer winst gemaakt hebben op de algemene verkopen, wat dus betekend dat AMD als berijf toch serieus aan de betere hand is!
De CPU en graphics afdeling maken veel meer winst dan vorig kwartaal. In vorig kwartaal hebben ze zelfs nog materiaal verkocht voor $193M. Eigenlijk hebben ze $430M euro meer winst gemaakt alleen maar door de verkoop van CPU's (en chipsets) en grafische kaarten (tov vorig kwartaal). Dat is nogal een verschil!! De verkoop doet het toch zo slecht nog niet!
[ Voor 6% gewijzigd door penetreerbeer op 17-10-2008 16:38 ]
Verwijderd
Klopt, is een TWIMTBP titel. Ik was erg positief verrast door de DX10.1 aankondiging, benieuwd of het zo blijft (en of het geen hoax is anyway).Verwijderd schreef op vrijdag 17 oktober 2008 @ 16:41:
Far Cry 2 is ook een TWIMTBP game als ik mij niet vergis, benieuwd of Nvidia er deze keer weer een stokje gaat voorsteken...
Volgens mij klopt het bericht wel.Verwijderd schreef op vrijdag 17 oktober 2008 @ 13:58:
Volgens Legion hardware komt de HD4850X2 ergens de komende weken op de markt.
Volgens CJ is het aan de AIB om te beslissen of de HD4850X2 wordt gelanceerd, aangezien ik nog nergens iets heb gelezen... klinkt het bericht van LH mij een beetje als gebakken lucht.
Maar wie weet, laat maar komen
Hoezo heeft NV heeft een voorsprong in Far Cry 2?Astennu schreef op vrijdag 17 oktober 2008 @ 15:05:
Nice van die DX10.1. Las het net op FUD. Vraag me alleen af of dat nu al goed werkt aangezien de nVidia kaarten in Far Cry 2 weer een voorsprong hebben gekregen op de ATi kaarten. Waar dat bij Crysis na genoeg weg was.
http://www.pcgameshardwar...nd_CPU_benchmarks/?page=3The Radeon HD 4870 with 512 MiByte is beating the new Geforce GTX 260 with 216 Shader ALUs in every test. It even offers enough performance to play at 1,920 x 1,200 with 4x FSAA and 4:1 AF.
[ Voor 29% gewijzigd door CJ op 17-10-2008 17:50 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://game.amd.com/us-en/drivers_catalyst.aspx
hmm geen dx10.1 infoThe information in this article applies to the following configurations:
32 and 64-bit Windows Vista
32 and 64-bit Windows XP
Windows Media Center
This Hotfix improves performance for the DirectX 9 version of Far Cry 2 on CrossFire™ compatible systems.
This Hotfix also improves performance for the DirectX 10 version of Far Cry 2 on both single and CrossFire™ compatible systems
[ Voor 79% gewijzigd door Bullus op 17-10-2008 21:12 ]
|2600k|Asus 290|
Maar het is eigenlijk niet aan de driverteam om aan te geven dat farcry 2 dx10.1 ondersteund,meer dus aan Ubisoft.
En sowieso vanaf 3xxx serie kaarten ondersteunen dx10.1, hoeft de driverteam niets xtra's aan te doen.
[ Voor 53% gewijzigd door Bullus op 17-10-2008 21:39 ]
|2600k|Asus 290|
737-38750: Catalyst 8.10 Hotfix for HD 4650, HD 4550 and HD 4350
http://support.ati.com/ic...swer.asp?questionID=38750
Dit zal het wel gewoon zijn.This Hotfix also improves performance for the DirectX 10 version of Far Cry 2 on both single and CrossFire™ compatible systems
[ Voor 183% gewijzigd door Paprika op 17-10-2008 22:55 ]
Verwijderd
ZOu het? Fudzilla is ook maar een roddel site heVerwijderd schreef op vrijdag 17 oktober 2008 @ 14:42:
Ik denk dat dit nog niet gepost is :
Far Cry 2 is DirectX 10.1
A new driver to support it
Bron : http://www.fudzilla.com/i...ask=view&id=9992&Itemid=1
Toch is alles mogelijk maar ik denk niet dat NVIDIA, AMD de kans gaat geven om sneller te zijn in een spel die NV support, Crysis + Crysis Warhead is een goed voorbeeld.
[ Voor 25% gewijzigd door Verwijderd op 18-10-2008 13:35 ]
Ach, AC is ook een TWIMTBP titel, en door wie werd dat ook alweer gemaakt?Verwijderd schreef op zaterdag 18 oktober 2008 @ 13:32:
[...]
ZOu het? Fudzilla is ook maar een roddel site hemaargoed we zullen het moeten afwachten, toch neem ik die blog als een korreltje zout en aangezien dat FarCry2 een "The Way It's Meant To Be Played" game is..sommige dingen blijken toch weer erg ongeloofwaardig te zijn, niet , wel?
[ Voor 12% gewijzigd door Paprika op 18-10-2008 15:00 ]
Verwijderd
echt veel GITG games zijn er ook weer niet, mischien zou ATI hier meer in moeten verdiepen om het ook op dit gebied recht te trekken? Gewoon maar een vage vraga die er tussen door komt maar het zit wel in me hoofd van wat als heh.
[ Voor 45% gewijzigd door Verwijderd op 18-10-2008 15:43 ]
Zeker als je bedenkt dat WoW in eerste instantie een TWIMTBP game was... net als Call of Juarez overigens. Dus niets staat een developer in de weg om DX10.1 te integreren ondanks dat het onder een bepaalde vlag valt... en dat geldt zeker voor een grote developer als Ubisoft.Edmin schreef op zaterdag 18 oktober 2008 @ 15:43:
maar AMD is er wel mee bezig, getuige de Radeon+WoW zaak.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
 Dit topic is gesloten.
 
                                                            Dit topic is gesloten.
                                                     
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!




:strip_icc():strip_exif()/u/157215/vesalius.jpg?f=community) 
            :strip_icc():strip_exif()/u/193806/22.jpg?f=community) 
            :strip_icc():strip_exif()/u/184755/Herschaalde%2520kopie%2520van%2520thesilentenigma2.jpg?f=community) 
            /u/139379/format-c.png?f=community) 
            :strip_icc():strip_exif()/u/10014/assassin.jpg?f=community) 
            
:strip_icc():strip_exif()/u/61625/seph_ffvii.jpg?f=community) 
            :strip_icc():strip_exif()/u/210142/green.jpg?f=community) 
            :strip_icc():strip_exif()/u/126353/avapf1tweakers.jpg?f=community) 
            /u/233413/crop574768220d598_cropped.png?f=community) 
            :strip_icc():strip_exif()/u/136848/rsz_pure2.jpg?f=community) 
            /u/34200/crop6554f56fe2075_cropped.png?f=community) 
            :strip_icc():strip_exif()/u/48952/Ultraman-60x60-Ray-Animated.jpg?f=community) 
            :strip_icc():strip_exif()/u/42999/kamikaze.jpg?f=community) 
            :strip_icc():strip_exif()/u/180657/texacoiq2.jpg?f=community) 
             
                    /u/46804/crop5f989efcbb253.png?f=community) 
            :strip_icc():strip_exif()/u/142351/IT_crowd60.jpg?f=community) 
            :strip_icc():strip_exif()/u/160898/v_pestcontrol_256x256.jpg?f=community) 
            :strip_exif()/u/158601/prmm3.gif?f=community) 
            :strip_exif()/u/5079/tweak.gif?f=community) 
            :strip_icc():strip_exif()/u/182555/opteronsmall.jpg?f=community) 
            /u/137749/crop5e10e9d5409ab_cropped.png?f=community) 
            :strip_icc():strip_exif()/u/18583/Dragon%2520Age%252060x60.jpg?f=community) 
            :strip_icc():strip_exif()/u/167062/1777paard.jpg?f=community) 
            :strip_exif()/u/40493/avatar114150_1.gif?f=community)