LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
AMD just launched to HD 38xx Series of mobile cards, when Fuad Abazovic from Fudzilla got news, that they are already planning to introduce a mobile version of the upcoming desktop chip RV770 in the third quarter. As the RV770 should habe 800 Shaders (different count than Nvidia), the ATI Radeon HD 4850 or 4870 will get rather hot. Therefore, the clockspeeds will be reduced (compared to the desktop version), to cope with the heat. Still the chip will only fit in large notebooks with a good cooling solution. As soon as there is more information on the M98, it will be featured in our big graphic comparison.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Tja, of je 117% meer wilt betalen voor gemiddeld 10% meer performance... dat moet je zelf weten natuurlijk...edward2 schreef op dinsdag 24 juni 2008 @ 14:04:
[...]
Had die review nog niet eens gezien En het oude beeld is weer terug, ATI GPU's die relatief weinig inboeten onder AA en AF.
Het is wel moeilijk dit keer...HD4870 512 mb CF, HD4870 1 GB CF of wachten op de HD4870X2 of toch voor de grote en altijd 100% presterende GTX280 met betere PhysX support...
Maar staar je niet blind op PhysX support. Havok is nog altijd de nummer 1 gebruikte physics engine en die werkt nog altijd op elk systeem zonder dat je een extra PPU nodig hebt. Het aantal games die gebruik maakt van de PhysX engine valt in het niet in vergelijking tot de games met Havok ondersteuning. De PhysX lijst heeft een aantal leuke titels onder zich, maar de Havok lijst is zeker niet minder indrukwekkend.
Games Supporting Havok
Incl. Assassin's Creed, AoE3, Oblivion, HL2 (all Episodes), FEAR, Bioshock (ook al heeft-ie de UE3), World in Conflict, Hellgate: London, Company of Heroes
Upcoming Havok Titles
Incl. Alan Wake, Starcraft 2, Fall Out 3, Fable 2, Halo Wars
Daarnaast heeft Havok zowel Intel als AMD achter zich staan. Zeker iets wat je niet moet onderschatten.
Het grote voordeel voor ons is dat de GTX280 nu zeker weten in prijs zakt, dus voor degenen die per se een NV kaartje willen hebben zullen ook mooie tijden aanbreken dankzij AMD.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd

Er hoeft dit keer geen resistor te worden gekleurt, alleen een nieuwe trace tussen de soldeer punten kleuren met potlood. ( en daarna uiteraard de nieuwe weerstand meten met je multi-meter)
bron:
http://www.xtremesystems....hp?p=3086806&postcount=62
Wellicht overbodig, maar dit alles op eigen risco van de eindgebruiker
[ Voor 34% gewijzigd door Demon_Eyez op 24-06-2008 15:40 ]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Uiteraard praten we bij PhysX wel over GPU physics acceleratie, en bij Havok momenteel in principe exclusief over CPU physics acceleratie. PhysX zet wat dat betreft performancewise veel meer zoden aan de dijk.CJ schreef op dinsdag 24 juni 2008 @ 14:44:
Maar staar je niet blind op PhysX support. Havok is nog altijd de nummer 1 gebruikte physics engine en die werkt nog altijd op elk systeem zonder dat je een extra PPU nodig hebt. Het aantal games die gebruik maakt van de PhysX engine valt in het niet in vergelijking tot de games met Havok ondersteuning. De PhysX lijst heeft een aantal leuke titels onder zich, maar de Havok lijst is zeker niet minder indrukwekkend.
Games Supporting Havok
Incl. Assassin's Creed, AoE3, Oblivion, HL2 (all Episodes), FEAR, Bioshock (ook al heeft-ie de UE3), World in Conflict, Hellgate: London, Company of Heroes
Upcoming Havok Titles
Incl. Alan Wake, Starcraft 2, Fall Out 3, Fable 2, Halo Wars
Daarnaast heeft Havok zowel Intel als AMD achter zich staan. Zeker iets wat je niet moet onderschatten.
Of Intel het Havok GPU physics programma gaat 'reviven' en AMD daar toegang toe geeft valt nog te bezien. Dat AMD 'er achter staat' zegt, zolang we daar geen bevestiging van hebben, weinig tot niets.
ATi had zich imho veel beter bij het PhysX programma aan kunnen sluiten, zeker gezien ze al vanaf de X1000 serie over GPU physics aan het praten zijn. PhysX heeft dat voor elkaar, en Havok voor zover bekend (nog) niet, if ever. De keuze voor Havok/Intel in plaats van Ageia PhysX/nVidia was overduidelijk een politieke beslissing: ATi wil geen 'nVidia PhysX supported' op hun dozen plakken.
Hoe dan ook doet dit circus niets af van de prachtperformance van de 48 serie i.c.m. het prijspeil. Price/performancewise zien die er momenteel het best uit op mijn 1920x1200 reso met minimaal 4xAA/16xAF, dus is de keuze ook voor mij duidelijk. Mijn complimenten aan ATi... ze laten met de 48 serie een teleurstellende 29 (en i.m.o. ook 38) serie achter zich hebben na 2 jaar eindelijk weer een klant aan me
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik denk dat ze dat pas doen als de HD4870X2 er is.CJ schreef op dinsdag 24 juni 2008 @ 14:44:
Het grote voordeel voor ons is dat de GTX280 nu zeker weten in prijs zakt, dus voor degenen die per se een NV kaartje willen hebben zullen ook mooie tijden aanbreken dankzij AMD.
Ik wil de reviews wel eens zien nu.
De HD4870 wisselt zoals het er nu uitziet stuivertje met de GTX260.
Edit; dat nV niet nog een nieuwere (misschien snellere) driver naar de reviewers stuurt trouwens... Om toch de HD4870 een beetje bij te houden en/of voor te blijven.
[ Voor 14% gewijzigd door Format-C op 24-06-2008 15:08 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Van wat ik gehoord heb gaat AMD samenwerken met Intel/Havok om de code te optimaliseren voor CPU's, maar is dat alles? Kan het daadwerkelijk veel sneller gaan draaien op (o.a.) AMD CPU's door dergelijke support? Op welke manier wilt AMD hier zijn geld weer uithalen op de lange termijn?
The Flying Dutchman
AMD heeft GPU physics trouwens vorig jaar al officieel in de ijskast gezet. En daar zit het nog steeds.Cheetah schreef op dinsdag 24 juni 2008 @ 15:00:
[...]
ATi had zich imho veel beter bij het PhysX programma aan kunnen sluiten, zeker gezien ze al vanaf de X1000 serie over GPU physics aan het praten zijn.
Havok heeft al meer voor elkaar dan je denkt. HavokFX ondersteunt al physics op de GPU. Na de overname door Intel zijn echter echt alle verwijzingen naar HavokFX verdwenen. Ik heb echter uit redelijk betrouwbare bron vernomen dat dit het geheime wapen is.PhysX heeft dat voor elkaar, en Havok voor zover bekend (nog) niet, if ever.
Ik denk dat je AMD te weinig credit geeft. Ze hebben er ook geen moeite mee dat er nVidia SLI moederborden uit komen voor hun CPUs. Ik denk dus dat ze er weinig moeite mee zouden hebben om PhysX support netjes op de dozen te zetten...De keuze voor Havok/Intel in plaats van Ageia PhysX/nVidia was overduidelijk een politieke beslissing: ATi wil geen 'nVidia PhysX supported' op hun dozen plakken.
Het nadeel is echter dat AMD niet afhankelijk wil zijn van NV. Zouden ze een vertaalslag maken zodat CUDA ook werkt op Radeons, dan zijn ze enorm afhankelijk van de grillen van NV. Als NV iets verandert in de code, zou het maar zo kunnen dat de Radeons ineens enorm slecht presteren... zonder dat AMD het ook maar ziet aan komen. En dat wil je je klanten niet aan doen.
Eigenlijk klopt de laatste zin van Ed_L wel... ze liften mee op het succes van de winnaar. PhysX is mogelijk op Radeons. Havok is mogelijk op Radeons en CPUs. NV moet van PhysX wel een open standaard maken om tegen het geweld van Intel aan te kunnen die met Havok de populairste physics engine in handen heeft.leonpwner1 schreef op dinsdag 24 juni 2008 @ 15:15:
Er is iets wat me onduidelijk is omtrent Havok. Zoals we weten is de physics-on-GPU van Havok in de ijskast gezet, en richt Havok zich op afhandeling door de CPU. Nu AMD een licentie op Havok heeft, wat gaat dit AMD dan opleveren?
Van wat ik gehoord heb gaat AMD samenwerken met Intel/Havok om de code te optimaliseren voor CPU's, maar is dat alles? Kan het daadwerkelijk veel sneller gaan draaien op (o.a.) AMD CPU's door dergelijke support? Op welke manier wilt AMD hier zijn geld weer uithalen op de lange termijn?
Op dit moment zijn de pijlen van Havok gericht op CPU optimalisaties, wat niet vreemd is aangezien ze nu in handen zijn van Intel. Hun "HydraCore" technologie werkte al zeer goed wat dit betreft. En als Intel straks met Larrabee komt, moet je niet vreemd opkijken als ze de focus ineens verplaatsen naar GPU physics. En ook dan profiteert AMD mee.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Bepaalde type potloden hebben een geleidende werking, soort bruggetje tussen 2 verbindingen. Hoe meer je 'krast' hoe beter de geleiding en weerstand. Het voordeel is is dat je niet hoeft te solderen bijv waardoor sporen van modding niet aanwezig zijn, immers kan je voorzichtig de boel weggummen.Armando15 schreef op dinsdag 24 juni 2008 @ 15:30:
mag ik vragen hoe zo'n pencilmod werkt? ik snap er nou niks van, moet je nou een (potlood?)streepje zetten tussen de blauwe of de groene puntjes?
Met een eigen weerstand (potmeter) is het immers nauwkeuriger om het voltage aan te passen naar eigen wens.
Eerst nog maar eens zien of AMD die prestaties ook daadwerkelijk hoog kan houden onder een groot aantal verschillende omstandigheden, wanneer er meerdere review sites gaan spelen met de kaarten. Daarnaast moet je natuurlijk ook kijken naar de prijzen op het moment van beschikbaarheid, dus wanneer er zowel GTX als HD4870’s in de winkels liggen.CJ schreef op dinsdag 24 juni 2008 @ 14:44:
[...]
Tja, of je 117% meer wilt betalen voor gemiddeld 10% meer performance... dat moet je zelf weten natuurlijk...![]()
Maar staar je niet blind op PhysX support. Havok is nog altijd de nummer 1 gebruikte physics engine en die werkt nog altijd op elk systeem zonder dat je een extra PPU nodig hebt. Het aantal games die gebruik maakt van de PhysX engine valt in het niet in vergelijking tot de games met Havok ondersteuning. De PhysX lijst heeft een aantal leuke titels onder zich, maar de Havok lijst is zeker niet minder indrukwekkend.
Het grote voordeel voor ons is dat de GTX280 nu zeker weten in prijs zakt, dus voor degenen die per se een NV kaartje willen hebben zullen ook mooie tijden aanbreken dankzij AMD.
Ik verwacht trouwens ook dat via het TWIMBP programma het aantal PhysX’s ondersteunende spellen in de toekomst snel toe zal nemen. Ik kan met goed voorstellen dat Nvidia de software gratis beschikbaar stelt en ondersteuning geeft om hun kaarten maar goed uit de verf te laten komen.
Maar mooi om te zien dat ATI/AMD deze generatie vanaf het begin een dijk van een product heeft neergezet wat Nvidia toch dwingt om sneller in prijs te doen zakken en sneller te innoveren.
Nee hoor helemaal niet sterker nog die is net zo goed of zelfs beter als die van de G80 en de G92. Echter is ATi degene die echt vooruitgang heeft geboekt door alles wat ze hadden aan te passen en te verbeteren. Waardoor die chip eindelijk presteert zoals het hoort.Verwijderd schreef op dinsdag 24 juni 2008 @ 14:52:
Best wel bizar eigenlijk hoe slecht die GT200 presteert als je kijkt naar de specs en de hoeveelheid chip area deze inneemt. Daar ligt ook het speerpunt van de R7xx generatie: een hogere perf/mm2.
Ja bepaald potlood is wel aan te raden omdat die beter geleiden. Je moet ook controleren ander kun je te hoog zitten. Ik raad dit trouwens ten zeerste af met stock cooling. Want het is maar een single slot coolertje. Dus je moet niet te hoog gaat iets hoger kun je misschien wel doen maar het is dan beter om er bv een VF1000 op te zetten. Al zal die cooler zig wel aan passen en gewoon meer herrie gaan maken om de kaart toch netjes onder die 90c te houden. Dus hij zal luidruchtiger worden.Armando15 schreef op dinsdag 24 juni 2008 @ 15:34:
dus je moet een bepaald type potlood hebben en uiterst voorzichtig te werk gaan, zodat je bvb niet teveel streep zet dat je inene 2.0 vcore hebt? en dat dan steeds doormeten? of moet het gewoon ''verbonden'' zijn (de 2 soldeerpuntjes) en krijg je dan een bepaald voltage? ben nieuw op dat gebied
Podlood kan ook vergaan. Sommige plakken het af met een plakbandje om het tegen te gaan. Zelf zet ik er dan liever een 20 slag pot meter tussen kun je mooi regelen en blijft altijd dezelfde waarde geven.
Maar als je aan een van deze dingen begin is het wel einde garantie. Daar moet je wel aan denken
[ Voor 59% gewijzigd door Astennu op 24-06-2008 16:14 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
E8400 + GF 7950GT = 5598 3Dmarks.
E8400 + HD4850 = 11362 3Dmarks.
Dit is opzich niet zo bijzonder, maar het gaat mij erom hij gewoon goed werkt op een 2 jaar oude Asus P5B. PCI-E 1.0a dus.
Volgens mij is er niet iets zoals "quad core supporten". een game support multi-threading of het support 'm niet, ofwel, als een game dual-core "support", ofwel multi-threading, is er geen enkele reden om aan te nemen dat een quadcore niet beter zou performen dan een dual-core.Astennu schreef op dinsdag 24 juni 2008 @ 14:22:
Duidelijk de 2x HD4870 vele malen snel en in de ergste gevallen 20% trager rest van de tijd 60% sneller ik zou het wel weten.....
Trouwens is er iets bekend over een mobile versie van de RV770 ? want de eerste HD3850 laptops komen er nu aan. Echter nu ik die RV770 power heb gezien heb ik liever zo iets in me laptop
[...]
Ah ok. Er zijn wel steeds meer games ja maar nog steeds niet genoeg. Quad core wordt amper ondersteund max wat ik gezien heb ik 80% van een quad.
Maar dan nog steeds gewoon een leuke cpu kopen niet al te duur in investeren in een VGA kaart. Wel minimaal dual core 6000+ of zo is al genoeg. Wil je het leuker maken een C2D 8400 of Phenoim 9850. Maar dat is al overbodig.
Sommige blijven denken als ze een QX9770 pakken en een 8600 GT dat ze dan de beste game pc ooit hebben maar dat is natuurlijk niet zo. Je kunt het beter omdraaien single core 2.0 GHz met een HD4870 of GTX260.
Tenminste, dit is wat mij verteld is , kan zijn dat ik ernaast zit maar het klinkt iig heel logisch
ff on een sidenote, ik heb nu een 8800gts (g80), waar ik vanaf begin af aan al niet erg tevreden mee ben geweest (niet omdat ie niet snel genoeg is/was, maar om andere redenen waar ik nu niet op in ga). heeft er iemand al een benchmark gezien waar de 4850 gebenchmarked wordt/is, en in de tests ook een 8800gts/640 is opgenomen?
[ Voor 10% gewijzigd door Visgek82 op 24-06-2008 16:17 ]
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Tja helaas dus wel. Games komen niet verder dan 3 threads op dit moment. Dus dat houd in dat dat spel 3 cores kan gebruiken. De laatste core blijft dan over voor het OS en de video driver.Visgek24 schreef op dinsdag 24 juni 2008 @ 16:13:
[...]
Volgens mij is er niet iets zoals "quad core supporten". een game support multi-threading of het support 'm niet, ofwel, als een game dual-core "support", ofwel multi-threading, is er geen enkele reden om aan te nemen dat een quadcore niet beter zou performen dan een dual-core.
Tenminste, dit is wat mij verteld is , kan zijn dat ik ernaast zit maar het klinkt iig heel logisch
Maar je krijgt steeds meer multithreaded apps die dus de bewerking op gaan delen in stukjes die verdeeld kunnen worden over cpu's echter is dat bij games nog niet het geval. Alan Wake zou er 5 krijgen dus die heeft mogelijk wat aan een Octa core. Alleen zal niet elke thread een cpu core even zwaar belasten dus het kan best dat een core tijd zat heeft om 2 threads te doen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Erg mooi om te horenForcepoint schreef op dinsdag 24 juni 2008 @ 16:08:
Heb zojuist de HD4850 geinstalleerd, werkt ongeloofelijk goed!
E8400 + GF 7950GT = 5598 3Dmarks.
E8400 + HD4850 = 11362 3Dmarks.
Dit is opzich niet zo bijzonder, maar het gaat mij erom hij gewoon goed werkt op een 2 jaar oude Asus P5B. PCI-E 1.0a dus.
Om hier nog even op terug te komen. De performancedrop met AA+AF is veel minder met de HD4870.m9nossie schreef op dinsdag 24 juni 2008 @ 10:25:
@CJ
Zou je misschien wat meer benchmarks kunnen posten van WoW met AA en zonder AA? Op dit moment gebruik ik de 2900XT maar als ik AA activeer dropt de performance echt zo zwaar dat het niet 100%speelbaar meer is. Ben van plan de 4870 te halen als de AA+AF performance drop minder is.
Ik heb net een paar potjes AV, WSG en AB gespeeld. Met ingame 8xAA en AF was het prima speelbaar met een fps van rond de 70-80. Daarna 4xAA aangezet in game met Edge Detect in de CCC voor 12xCFAA en ook dat was prima speelbaar. Gemiddelde FPS rond de 50-60. Zelfs 8xAA en ED (dus 24xCFAA) was te doen (gemiddelde FPS rond de 40).
Maar toen maakte ik nog even een rondvlucht om Shattrath heen. 8xAA + ED was toch wel effe een zware tol. Mijn FPS dropte ineens naar rond de 15-20. 8xAA plus Narrow Tent (=12x CFAA) gaf me ongeveer dezelfde FPS. 4xAA plus Narrow Tent (=6xCFAA) bracht m'n fps naar 40-50 bij de rondvlucht.
Oh ja... bij al deze modi had ik ook Quality Adaptive AA + Supersampling... dus je kan wel zeggen dat de performance met AA/AF er nu stukken op vooruit is gegaan.
Edge Detect + Quality Adaptive AA (Supersampling) =

Edit: Vergeten te vermelden dat ik ook de high graphics macro aan had staan... Deze dus
1
2
3
4
5
6
| /console groundEffectDensity 256 /console groundEffectDist 200 /console detailDoodadAlpha 100 /console horizonfarclip 2112 /console farclip 999 /console characterAmbient |
[ Voor 9% gewijzigd door CJ op 24-06-2008 23:41 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar jij forceert dus de AA in CCC (Edge Detect) en quality AAA enable je ook, en in het spel zelf zet je dus AA niet aan? Want bijv. in een spel als Company of Heroes kun je in het spel zelf AA aanzetten, als je dit dan ook nog eens in CCC gaat enablen gaat het mis. Je kunt wel AAA nog extra op die AA uit het spel zelf toevoegen, maar als je daarbij de gewone AA in CCC ook nog erbij gaat enablen heb je dubbel. Ik heb dit ook wel eens met Battlefield 2 gedaan en als je in het spel zelf en in CCC AA enabled (en ingame 8x AA) dan gebruikt ie helemaal geen AA meer, want het stikt van de karteltjes. Of zijn dat games waarbij je in het spel geen AA opties hebt?CJ schreef op dinsdag 24 juni 2008 @ 16:23:
[...]
Om hier nog even op terug te komen. De performancedrop met AA+AF is veel minder met de HD4870.
Ik heb net een paar potjes AV, WSG en AB gespeeld. Met ingame 8xAA en AF was het prima speelbaar met een fps van rond de 70-80. Daarna 4xAA aangezet in game met Edge Detect in de CCC voor 12xCFAA en ook dat was prima speelbaar. Gemiddelde FPS rond de 50-60. Zelfs 8xAA en ED (dus 24xCFAA) was te doen (gemiddelde FPS rond de 40).
Maar toen maakte ik nog even een rondvlucht om Shattrath heen. 8xAA + ED was toch wel effe een zware tol. Mijn FPS dropte ineens naar rond de 15-20. 8xAA plus Narrow Tent (=12x CFAA) gaf me ongeveer dezelfde FPS. 4xAA plus Narrow Tent (=6xCFAA) bracht m'n fps naar 40-50 bij de rondvlucht.
Oh ja... bij al deze modi had ik ook Quality Adaptive AA + Supersampling... dus je kan wel zeggen dat de performance met AA/AF er nu stukken op vooruit is gegaan.
Edge Detect + Quality Adaptive AA (Supersampling) =
Dit is behoorlijk offtopic, maar je bent fout ingelicht.Visgek24 schreef op dinsdag 24 juni 2008 @ 16:13:
[...]
Volgens mij is er niet iets zoals "quad core supporten". een game support multi-threading of het support 'm niet, ofwel, als een game dual-core "support", ofwel multi-threading, is er geen enkele reden om aan te nemen dat een quadcore niet beter zou performen dan een dual-core.
Tenminste, dit is wat mij verteld is , kan zijn dat ik ernaast zit maar het klinkt iig heel logisch
ff on een sidenote, ik heb nu een 8800gts (g80), waar ik vanaf begin af aan al niet erg tevreden mee ben geweest (niet omdat ie niet snel genoeg is/was, maar om andere redenen waar ik nu niet op in ga). heeft er iemand al een benchmark gezien waar de 4850 gebenchmarked wordt/is, en in de tests ook een 8800gts/640 is opgenomen?
Waar het om gaat is inhoeveel threads dat de zware rekentaken opgedeeld zijn/kunnen worden.
Als een game zo is gemaatk dat bijv 70% van het rekenwerk in thread A zit en 25% in thread B en 5% in thread C, is de prestatie wints bij een overstap van single-core naar een dualcore ongever 50% (die 70% van thread a kan nu immers 100% van een core gebruiken). bij een overstap naar een quadcore valt geen winst meer te behalen want thread A kan niet meer sneller. Dit is bij veel/de meeste games het geval.
Het is waar dat in een ideale situatie waar de game bijv in n threads kan worden opgedeelt die allemaal 100 / n procent van het rekenwerk op zich kunnen nemen dat de game dan perfect schaalt over elk willekeurig aantal cores. Maar dit behoorlijk moeilijk te maken, en word blijkbaar door gameontwikkelaars niet nuttig genoeg geacht.
Je kunt het vergelijken mat het verplaatsen van iets heel zwaars. Stel je moet 100 ton zand verplaatsen. Dit kan met 10 vrachtwagens (bijna) 10 keer zo snel dan het kan met 1 vrachtwagen. Maar stel nu dat je een (denkbeeldig) voorwerp van 10 ton wat uit 2 stukken bestaat(!) moet verplaatsen.
Dan gaat dat met 2 vrachtwagens 2x zo snel als met 1 maar aan meer dan 2 vrachtwagens heb je helemaal niets!
disclaimer:
deze uitleg is een behoorlijk kort door de bocht omdat het probleem VEEEL ingewikkelder is dan jij het afschildert en ook veel ingewikkelder als ik offtopic op deze manier wil gaan uitleggen
[ Voor 9% gewijzigd door martijnve op 24-06-2008 16:35 ]
Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW
Als je de CFAA modi wilt gebruiken in games dan moet je AA in het CCC op "Application Controlled" laten staan voor zover de game dat toe laat. Daarna kan je gewoon de filters toe passen en die worden dan op de ingame AA settings toegepast.peakaboo schreef op dinsdag 24 juni 2008 @ 16:27:
[...]
Maar jij forceert dus de AA in CCC (Edge Detect) en quality AAA enable je ook, en in het spel zelf zet je dus AA niet aan? Want bijv. in een spel als Company of Heroes kun je in het spel zelf AA aanzetten, als je dit dan ook nog eens in CCC gaat enablen gaat het mis. Je kunt wel AAA nog extra op die AA uit het spel zelf toevoegen, maar als je daarbij de gewone AA in CCC ook nog erbij gaat enablen heb je dubbel. Ik heb dit ook wel eens met Battlefield 2 gedaan en als je in het spel zelf en in CCC AA enabled (en ingame 8x AA) dan gebruikt ie helemaal geen AA meer, want je het stikt van de karteltjes. Of zijn dat games waarbij je in het spel geen AA opties hebt?
Forceer je AA in het CCC en daarna ook nog eens ingame, dan werkt AA vaak niet (correct).
Dus voor WoW heb ik alle AA opties in game geregeld. Je kan hier kiezen uit 1x (=geen AA), 2x, 4x en 8xAA. Koppel je dit aan de filters van de CCC (die je natuurlijk op application controlled hebt staan), dan krijg je:
AA Modus + Filter = .....
2x AA + Box = standaard 2x MSAA
2x AA + Narrow-tent = 4x CFAA
2x AA + Wide-tent = 6x CFAA
4x AA + Box = standaard 4x MSAA
4x AA + Narrow-tent = 6x CFAA
4x AA + Wide-tent = 8x CFAA
4x AA + Edge-detect = 12x CFAA
8x AA + Box = standaard 8x MSAA
8x AA + Narrow-tent = 12x CFAA
8x AA + Wide-tent = 16x CFAA
8x AA + Edge-detect = 24x CFAA
In WoW zien de tent-filters er een beetje blurry uit op de bomen. Maar ik kan me voorstellen dat er mensen zijn die het mooi vinden. Ik vind het echter wat minder omdat ook mijn fonts er ineens waziger door gaan uit zien.
8xMSAA is trouwens sneller dan elke CFAA modi. Maar wat betreft IQ gaat er niets boven 12x/24x Edge Detect + Quality Adaptive AA met supersampling. Alleen moet ik nog even kijken welke games dan nog speelbaar blijven.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Exact mijn punt. Met PhysX hadden ze het in rap tempo weer uit die ijskast kunnen halen.CJ schreef op dinsdag 24 juni 2008 @ 15:29:
AMD heeft GPU physics trouwens vorig jaar al officieel in de ijskast gezet. En daar zit het nog steeds
Is er al ondersteuning voor HavokFX GPU acceleratie in games? Hoe ver is HavocFX GPU acceleratie uberhaupt, want ik kan me niet herinneren het ooit werkend laat staan live te hebben gezien. Nadat Ageia op de markt kwam werd het behoorlijk stil, en voor zover ik kan achterhalen zijn stammen de laatste echte rumors erover van 2 jaar geleden (rond de tijd van X1K).Havok heeft al meer voor elkaar dan je denkt. HavokFX ondersteunt al physics op de GPU.
Daarnaast was het sowieso al het geval dat Ageia een veel bredere physics ondersteuning bood dan Havoc FX, dus ook in dat opzicht heb ik wel mijn vraagtekens.
Het geheime wapen van wanneer? Volgend jaar? Over 2 jaar?Na de overname door Intel zijn echter echt alle verwijzingen naar HavokFX verdwenen. Ik heb echter uit redelijk betrouwbare bron vernomen dat dit het geheime wapen is.
Larrabee staat pas voor 2009 of 2010 gescheduled. Tot dan kun je n.a.w. vergeten dat Intel ook maar gaat nadenken over GPU physics met Havok (FX), laat staan het vrijgeven daarvan aan AMD/ATi.
nVidia is geen concurrent van het AMD CPU departement. Dat AMD zoveel mogelijk ondersteuning wil van mobofabrikanten (w.o. dus ook nV) voor hun CPU's lijkt me behoorlijk logisch.Ik denk dat je AMD te weinig credit geeft. Ze hebben er ook geen moeite mee dat er nVidia SLI moederborden uit komen voor hun CPUs. Ik denk dus dat ze er weinig moeite mee zouden hebben om PhysX support netjes op de dozen te zetten...
Als het gaat om ATi versus nVidia (graphics) dan wordt het natuurlijk een ander verhaal. Dat zijn directe concurrenten, en het lijkt me heel aannemelijk dat er vanuit dat oogpunt de ATi-tak liever geen nVidia features ondersteund. Da's echter een politieke beslissing... technologisch gezien was de keuze voor PhysX op ATi GPU's namelijk een heel erg logische geweest.
Of je nou afhankelijk bent van de grillen van nV of die van Intel...Het nadeel is echter dat AMD niet afhankelijk wil zijn van NV. Zouden ze een vertaalslag maken zodat CUDA ook werkt op Radeons, dan zijn ze enorm afhankelijk van de grillen van NV. Als NV iets verandert in de code, zou het maar zo kunnen dat de Radeons ineens enorm slecht presteren... zonder dat AMD het ook maar ziet aan komen. En dat wil je je klanten niet aan doen.
nV heeft tenminste iets dat nu al werkt op de GPU en blijkbaar nog behoorlijk goed ook. Op Intel kunnen ze nog wel 1-2 jaar wachten, als ze uberhaupt al een licentie krijgen voor Havok FX GPU.
<edit>
En zelfs al krijgt AMD die licentie voor Havok FX, dan kun je er van uitgaan dat Intel zichzelf uiteraard een fijne voorsprong geeft in het traject. Zie ter referentie ook het gelazer nu tussen nV en Intel rond bouwen van moederborden voor de volgende generatie Intel CPU's... en nV heeft al een licentie...
Met PhysX support had ATi op de GPU physics trein kunnen springen voordat deze echt begint te rijden... maargoed, dat zijn precies de politieke overwegingen waar technologie vaak het slachtoffer van wordt. Zelfde met nV en DX10.1. Zou me niet eens verbazen als dat een rol heeft gespeeld bij AMD's beslissing ("jullie werkt ons marketingspeerpunt tegen, dan werken wij dat van jullie tegen")
[ Voor 10% gewijzigd door Cheetah op 24-06-2008 17:30 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik snap hier al weinig van dus dit kan een stomme vraag zijn, maar is er geen 2x AA + Edge-detect??CJ schreef op dinsdag 24 juni 2008 @ 16:37:
[...]
AA Modus + Filter = .....
2x AA + Box = standaard 2x MSAA
2x AA + Narrow-tent = 4x CFAA
2x AA + Wide-tent = 6x CFAA
4x AA + Box = standaard 4x MSAA
4x AA + Narrow-tent = 6x CFAA
4x AA + Wide-tent = 8x CFAA
4x AA + Edge-detect = 12x CFAA
8x AA + Box = standaard 8x MSAA
8x AA + Narrow-tent = 12x CFAA
8x AA + Wide-tent = 16x CFAA
8x AA + Edge-detect = 24x CFAA
Nope, is er simpelweg niet.BlackWolf666 schreef op dinsdag 24 juni 2008 @ 17:19:
[...]
Ik snap hier al weinig van dus dit kan een stomme vraag zijn, maar is er geen 2x AA + Edge-detect??
[ Voor 10% gewijzigd door MensionXL op 24-06-2008 17:27 ]
Heb wat screenshots gemaakt, 100% jpg kwaliteit behouden (via photoshop)
Plaatjes zijn wat groot, dus heb ze in links geplaatst. Hou gewoon de drie vensters bij elkaar en je ziet het verschil.
Settings: AA op application gezet, ingame 4x AA.
Normale AA (box):
http://www.plaatjesupload.../06/24/1214320830-210.jpg
Wide-Tent:
http://www.plaatjesupload.../06/24/1214320922-330.jpg
Narrow-Tent:
http://www.plaatjesupload.../06/24/1214321073-990.jpg
Wide-Tent & Narrow Tent wordt 1 blur bende. Waar Wide-Tent de dikste blur opzich neemt.
//Edit: Edge-detect ook er maar bij gezet:
http://www.plaatjesupload.../06/24/1214321445-460.jpg
[ Voor 12% gewijzigd door Splinter Cell op 24-06-2008 17:34 ]
Ik denk dat het toch ook wel wat smaak afhankelijk is, ik vind persoonlijk die wide-tent de fijnste om naar te kijken denk ik.Splinter Cell schreef op dinsdag 24 juni 2008 @ 17:28:
CJ, waarom zou je Wide-Tent of Narrow-Tent gaan gebruiken? De performance is lager, en je beeldkwaliteit gaat juist naar beneden. Vooral bij Wide-Tent veel meer blurry.
Heb wat screenshots gemaakt, 100% jpg kwaliteit behouden (via photoshop)
Plaatjes zijn wat groot, dus heb ze in links geplaatst. Hou gewoon de drie vensters bij elkaar en je ziet het verschil.
Settings: AA op application gezet, ingame 4x AA.
Normale AA (box):
http://www.plaatjesupload.../06/24/1214320830-210.jpg
Wide-Tent:
http://www.plaatjesupload.../06/24/1214320922-330.jpg
Narrow-Tent:
http://www.plaatjesupload.../06/24/1214321073-990.jpg
Wide-Tent & Narrow Tent wordt 1 blur bende. Waar Wide-Tent de dikste blur opzich neemt.
Edge-detect heb ik niet getest. Want beeldkwaliteit blijft het zelfde als normale AA (zie plaatje). Maar er wordt veel minder AA toegepast en de performance gaat wel dik naar beneden.
The Flying Dutchman
Ze maken me de keuze wel moeilijk...
eerst heb je dit:
2x AA
4x AA
8xAA
vervolgens kies je een custom filter
Box (standaard)
Narrow-Tent (+2 AA samples)
Wide-Tent (+4 AA samples)
Edge-detect (x3 AA samples)
Daarna kun je nog Temporal AA kiezen (verdubbelt de AA?)
Vervolgens kun je bij Adaptive AA kiezen uit:
MultiSampling (en dan weer kiezen uit smooth of sharp)
SuperSampling (en daar weer kiezen uit performance of quality)
Dit test ik ook gelijk even mee.Daarna kun je nog Temporal AA kiezen (verdubbelt de AA?)
Vervolgens kun je bij Adaptive AA kiezen uit:
MultiSampling (en dan weer kiezen uit smooth of sharp)
SuperSampling (en daar weer kiezen uit performance of quality)
Er zijn wel reviews die alle AA modi van AMD onder de loupe nemen. Het voordeel is dat je de verschillen in IQ redelijk goed ziet. Het nadeel is echter dat dit gedaan is op ofwel een HD2900XT of een HD3870. Dit is dus in een compleet ander speelveld aangezien de performancehit op die kaarten veel groter is dan op de HD4800 serie.leonpwner1 schreef op dinsdag 24 juni 2008 @ 16:43:
CJ, heb je misschien een vergelijking ergens met alle AA modi en bijbehorende IQ en performancehit? Ik heb nu een NVIDIA, en ben bang dat ik dalijk door de alliasing het bos niet meer zie doordat ik er ineens zoveel opties bij krijg
http://www.elitebastards....ask=view&id=443&Itemid=29 over Edge Detect
http://www.beyond3d.com/content/reviews/47
http://techreport.com/articles.x/12458/6
Overigens is het vrij overzichtelijk opgesteld in de drivers zoals je kan zien in de screen hierboven van het CCC. Gewoon alles op app-controlled laten staan en eventueel een filter selecteren (default = box, wat de normale AA modus is).
Zoals The Flying Dutchman al aangeeft is het zeer subjectief of je het mooi vindt of niet.Splinter Cell schreef op dinsdag 24 juni 2008 @ 17:28:
CJ, waarom zou je Wide-Tent of Narrow-Tent gaan gebruiken? De performance is lager, en je beeldkwaliteit gaat juist naar beneden. Vooral bij Wide-Tent veel meer blurry.
Het Tech Report artikel geeft bv ook de positieve kanten weer:
Ik zou zeggen, lees dit stuk eens voor de gein over de voordelen en nadelen: http://techreport.com/articles.x/12458/6CFAA's tent filters may not be for everyone. I would encourage you to try them, though, before writing them off. There is ample theoretical backing for the effectiveness of tent filters, and as with any AA method, much of their effectiveness must be seen in full motion in order to be properly appreciated. I prefer the 4X MSAA + wide tent filter to anything Nvidia offers, in spite of myself. I've found that it looks great on the 30" wide-screen LCD attached to my GPU test rig. The reduction in high-frequency pixel noise is a good thing on a sharp LCD display; it adds a certain solidity to objects that just.. works. Oblivion has never looked better on the PC than it does on the Radeon HD 2900 XT.
Bij mij is Temporal AA verdwenen uit het CCC.leonpwner1 schreef op dinsdag 24 juni 2008 @ 17:42:
Daarna kun je nog Temporal AA kiezen (verdubbelt de AA?)
[ Voor 4% gewijzigd door CJ op 24-06-2008 17:51 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die temporal AA uit de screenshot hierboven was trouwens met een HD2900XT.
Mooi. Scheelt mij ook weer een hoop werk.leonpwner1 schreef op dinsdag 24 juni 2008 @ 17:57:
ThanksIk ben er uit, ik ga 8x AA + Wide-Tent + Multi-Sampling gebruiken
Die temporal AA uit de screenshot hierboven was trouwens met een HD2900XT.
Ik heb niets geforceerd alleen in CCC de AA mode op Edge gezet. En AA level bepaal ik in WoW zelf.peakaboo schreef op dinsdag 24 juni 2008 @ 16:27:
[...]
Maar jij forceert dus de AA in CCC (Edge Detect) en quality AAA enable je ook, en in het spel zelf zet je dus AA niet aan? Want bijv. in een spel als Company of Heroes kun je in het spel zelf AA aanzetten, als je dit dan ook nog eens in CCC gaat enablen gaat het mis. Je kunt wel AAA nog extra op die AA uit het spel zelf toevoegen, maar als je daarbij de gewone AA in CCC ook nog erbij gaat enablen heb je dubbel. Ik heb dit ook wel eens met Battlefield 2 gedaan en als je in het spel zelf en in CCC AA enabled (en ingame 8x AA) dan gebruikt ie helemaal geen AA meer, want het stikt van de karteltjes. Of zijn dat games waarbij je in het spel geen AA opties hebt?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://en.expreview.com/2...view-hd-4870-and-hd-4850/
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Website is lekker langzaam.CJ schreef op dinsdag 24 juni 2008 @ 18:12:
De officiele Engelse versie is uit van de Expreview review... dus niet een crappy Google/Babelfish vertaling:
http://en.expreview.com/2...view-hd-4870-and-hd-4850/

Die bomen worden opgebouwd uit transparantetextures daarbij moet je eigenlijk adaptive aa gebruiken. Ik vind de tentfilters sowiezo te blurry, maar dat is idd kwestie van smaak.leonpwner1 schreef op dinsdag 24 juni 2008 @ 17:42:
Thanks Splinter Cell. Ondanks alle kritiek vind ik de wide-tent veruit de mooisteDie bomen zijn met box echt gewoon lelijk en onrealistisch, je ziet de pixels de boom uit groeien. Bij wide-tent loopt het imho veel netter over in elkaar en zie je geen lelijke textures op pixels meer.
Ik vind de HD48 serie erg geslaagd, het wachten is op min fps benchmarks (in CF) voordat ik m'n keuze maak.
Niet op voorraad.
[ Voor 167% gewijzigd door voil op 24-06-2008 18:25 ]
beste siteCJ schreef op dinsdag 24 juni 2008 @ 18:12:
De officiele Engelse versie is uit van de Expreview review... dus niet een crappy Google/Babelfish vertaling:
http://en.expreview.com/2...view-hd-4870-and-hd-4850/
Fatal error: Maximum execution time of 30 seconds exceeded in D:\exp\en\wp-includes\general-template.php on line 8
en gehost op windows bak
Heb even snel gekeken, naar de AA drops tussen 4870 vs GTX 280. Kun je wel uit concluderen dat nVidia dikkere drops laat zien dan de 4870 serie.CJ schreef op dinsdag 24 juni 2008 @ 18:12:
De officiele Engelse versie is uit van de Expreview review... dus niet een crappy Google/Babelfish vertaling:
http://en.expreview.com/2...view-hd-4870-and-hd-4850/
Verwijderd
Is dat nou nodig? Dat hele physics gedoe was toch maar een hype. Allemaal marketingpraat. En die 2~3 games (lees:engines) die de physx api ondersteunt, zetten ook geen zoden aan de dijk. PhysX zat niet in de ijskast. Ageia was op sterven na dood, dus dat zegt wel iets over de populariteit ervan.Cheetah schreef op dinsdag 24 juni 2008 @ 17:16:
Exact mijn punt. Met PhysX hadden ze het in rap tempo weer uit die ijskast kunnen halen.
The Flying Dutchman
De reden dat Ageia niet echt veel succes boekte was simpelweg dat niemand nog eens een extra kaart van €200 wou kopen. Nu dat je géén speciale physics-kaart meer moet kopen is de situatie ook grondig anders. Tevens waren toen de PPU van Ageia uitkwam die physics die we zagen in games 'redelijk simpel', maar als je nu bijvoorbeeld denkt aan Crysis, Far Cry 2 of The Force Unleashed(op de consoles) dan zie je toch dat het gebruik van physics steeds meer op de voorgrond komt en ook steeds intensiever wordt (=meer rekenkracht nodig).Verwijderd schreef op dinsdag 24 juni 2008 @ 19:07:
[...]
Is dat nou nodig? Dat hele physics gedoe was toch maar een hype. Allemaal marketingpraat. En die 2~3 games (lees:engines) die de physx api ondersteunt, zetten ook geen zoden aan de dijk. PhysX zat niet in de ijskast. Ageia was op sterven na dood, dus dat zegt wel iets over de populariteit ervan.
Het evolueert
Alleen heeft nVidia er wel grootse plannen mee:Verwijderd schreef op dinsdag 24 juni 2008 @ 19:07:
[...]
Is dat nou nodig? Dat hele physics gedoe was toch maar een hype. Allemaal marketingpraat. En die 2~3 games (lees:engines) die de physx api ondersteunt, zetten ook geen zoden aan de dijk. PhysX zat niet in de ijskast. Ageia was op sterven na dood, dus dat zegt wel iets over de populariteit ervan.
http://www.nzone.com/object/nzone_physxgames_home.html
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een korte uitleg bij sommigen.
FT3 gebruikt o.a. POM & raytracing in de pixelshader en maakt veel gebruik van dynamic branching.
FT4 is combineert vertex en geometry shaders en streamout.
FT5 legt veel werklast op de vertexshader en streamout.
FT 6 is de meest shaderintensieve test en test de pure rekenkracht.
HD4870 - GTX 260 - HD3870
FT1 Texture Fillrate:
781,46 GTexels/s - 515 - 345
FT2 Color Fillrate:
5,49 GPixels/s - 5,26 - 3,03
FT3 Parallax Occlusion Mapping:
20,56 fps - 23,92 - 7,81
FT4 GPU Cloth:
18,54 fps - 24,13 - 8,62
FT5 GPU Particles:
33,36 fps - 34,39 - 15,85
FT6 Perlin Noise: 53,83 fps - 42,61 - 21,61
Aan de hand hiervan kan je dus zien dat de HD4870 3 tests wint en 3 tests verliest van de GTX260. Waar de HD4870 wint doet hij dat echter vaak wel met een ruime voorsprong, terwijl bij de verliezen hij toch dicht bij de GTX 260 ligt. De Expreview test laat al zien dat dit zich in games door zet in het voordeel van de HD4870, zeker met AA/AF aan. En morgen zullen meer tests dit laten zien.
Overigens doet Powerplay het gewoon echt niet. Idle zit de GPU op 79C en stressed gaat-ie maximaal ongeveer naar 84C. Hij klokt alleen de core speed terug in 2D naar 550Mhz. Het geheugen blijft op 900Mhz staan.
Ook de fanspeed blijft laag. In 2D stand draait-ie op 22% (+/- 1000 RPM). In 3D mode draait-ie op 30% (+/-1730RPM). Je hoort 'm ook eigenlijk nauwelijks.
Dit kan niet kloppen, zeker niet als je deze slide gezien hebt:

Dan verwacht je toch zeker iets anders. Maar goed, met de HD3870 duurde het ook een tijdje voordat Powerplay daar goed werkte. Ik hoorde dat Cat 8.7 wellicht wel een goed werkende Powerplay zou hebben.
[ Voor 21% gewijzigd door CJ op 24-06-2008 19:38 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Toch ben ik nog steeds benieuwd wat er dan niet goed gaat. Zien ze elkaar niet, zijn er artifacts, onstaat er spontaan brand? Ik heb niet eventjes twee kaarten liggen om het uit te proberen.Apoca schreef op maandag 23 juni 2008 @ 19:39:
Over SLI moederbord + Crossfire
Der is wel een projectje geweest om het aan het werk te krijgen, volgens mij liep het wel, maar niet zoals mensen normaal met CF werkte. Dus met andere woorden je had der niks aan.
Het is volgens mij ooit een project geweest uit de tijd dat de eerste CF kaarten op de markt kwamen met de X850 serie. Dus vergeet het maar dat je op een hedendaags SLi mobo een CF setup aan de gang krijgt.
Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.
Ook idle valt het tegen (26W meer), hopelijk wordt dit gefixed in de drivers (hier kun je nooit zeker van zijn).
Hrt zal me niks verbazen als ze met de 4870X2 hitte problemen krijgen, en deze op bijv 600MHz moeten zetten.
[ Voor 22% gewijzigd door mdcobra op 24-06-2008 21:09 ]
Ik heb een Asus P5W DH Deluxe en zit te kijken naar een nieuwe video kaart, net nu de 2 merken hun nieuwste kaarten uitbrengen. Op dit moment zit ik te kijken naar de HD4870 maar vroeg mij af of dit kan op mijn moederbord zonder performance verlies.
Ik heb al rond zitten zoeken maar geen bevredigende antwoorden gevonden. Volgends een webwinkel zou het zonder probleem gaan maar ik wil graag een second opinion. Ik hoop dat er hier iemand is die toevallig het zelfde moederbord heeft en een PCI express 2.0 kaart er in heeft zitten waar ik ervaringen mee kan uitdelen.
Xbox C#, .NET, Vissen
Waarom zou je dit uit willen schakelen? Powerplay gaat je kaart echt niet minder snel maken hoorKiLLaHeRTz schreef op dinsdag 24 juni 2008 @ 21:03:
Mocht powerplay geactiveerd worden, is dit ook weer uit te schakelen?
Je PC wordt er wat stiller van en je hebt minder warmteproductie in je systeem. Powerplay werkt idd nog niet, want mijn HD4850's idlen gewoon op ~80 graden. Onder full-load gaat dit naar 86C ongeveer.
Kaarten worden inderdaad bloedheet, zelf de thumbscrew waarmee de kaart vast is geschroefd in de kast daar kun je je vingers aan branden
Goud is geen geld
The Source schreef op dinsdag 04 september 2007 @ 22:06:
Ik heb even bij mijn bronnen in Taiwan geinformeerd en het lijkt een storm in een glas water. PCI-E 2.0 is gewoon backwards compatible met PCI-E 1.0, 1.0a en 1.1. Dus de lijst met chipsets die hier boven genoemd worden werken allemaal met PCI-E 2.0 VGA kaarten.
Echter, en hier zit de uitzondering, bij mainboards waar een speciale PCI-E switch chip gebruikt wordt om de PCI-E lanes te configureren (denk aan het oude SLI switch kaartje dat tegenwoordig digtiaal door chips gedaan wordt) kan het fout gaan. Asus gebruikt op haar P35 Blitz mainboard een switch chip om Crossfire mogelijk maken, echter die PCI-E switch chip die ze gebruiken zorgt ervoor dat het 2de slot geen PCI-E 2.0 VGA kaarten kan gebruiken.
Kortom, PCI-E 2.0 VGA kaarten werken gewoon in een 1.0, 1.0s en een 1.1 slot mits tenzij je mainboard over meerdere PCI-E x16 sloten beschikt EN gebruik maakt van een 'fout' PCI-E switch chip.
Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.
Met mijn 3870X2 schakelt PowerPlay soms in tijdens het gamen (op de 2de core), hierdoor krijg ik lag. Zal dit ook zijn op de 4870?frankknopers schreef op dinsdag 24 juni 2008 @ 21:15:
[...]
Waarom zou je dit uit willen schakelen? Powerplay gaat je kaart echt niet minder snel maken hoor![]()
Je PC wordt er wat stiller van en je hebt minder warmteproductie in je systeem. Powerplay werkt idd nog niet, want mijn HD4850's idlen gewoon op ~80 graden. Onder full-load gaat dit naar 86C ongeveer.
Kaarten worden inderdaad bloedheet, zelf de thumbscrew waarmee de kaart vast is geschroefd in de kast daar kun je je vingers aan branden
Volgens mij niet,althans in de HD3xxx serie.KiLLaHeRTz schreef op dinsdag 24 juni 2008 @ 21:03:
Mocht powerplay geactiveerd worden, is dit ook weer uit te schakelen?
Het kan trouwens wel bij de mobile-kaarten.
http://ati.amd.com/products/pdf/powerplaywp2.pdfUsers have the option of enabling or disabling POWERPLAY™
at any time by simply toggling a software switch.
blz.7
|2600k|Asus 290|
Is het verschil groot tussen een HD4870 en een HD4850? Aangezien de HD4870 bijna nergens leverbaar is?
Ik zou gewoon een aantal reviews lezen welke hier te vinden zijn in dit topic. Het is hier niet roep maar raak voor een antwoord. Gewoon even een aantal pagina's terug lezen, staat alles wat je wilt weten. En anders even wachten op de release morgensMb.Blade schreef op dinsdag 24 juni 2008 @ 21:46:
Guys ik ga een nieuwe PC kopen.
Is het verschil groot tussen een HD4870 en een HD4850? Aangezien de HD4870 bijna nergens leverbaar is?
[ Voor 48% gewijzigd door Apoca op 24-06-2008 21:49 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Niet zo gek. De verkoop is nog niet gestart... vanaf morgen kan je toch wel een aantal reviews van de 4870 verwachten die je keuze makkelijker moeten maken.sMb.Blade schreef op dinsdag 24 juni 2008 @ 21:46:
Guys ik ga een nieuwe PC kopen.
Is het verschil groot tussen een HD4870 en een HD4850? Aangezien de HD4870 bijna nergens leverbaar is?
Ah ik zit op pagina 2! Heb het even vergeleken..Apoca schreef op dinsdag 24 juni 2008 @ 21:48:
[...]
Ik zou gewoon een aantal reviews lezen welke hier te vinden zijn in dit topic. Het is hier niet roep maar raak voor een antwoord. Gewoon even een aantal pagina's terug lezen, staat alles wat je wilt weten. En anders even wachten op de release morgen
..ziet er inderdaad naar uit dat 4870 wel de moeite waard gaat worden, maar wel al snel 70 euro duurder. En aangezien ik geen die hard gamer meer ben is die andere ook prima voor mij! Stom inderdaad, lees dus net pagina 1 van dit topic!Edmin schreef op dinsdag 24 juni 2008 @ 21:56:
[...]
Niet zo gek. De verkoop is nog niet gestart... vanaf morgen kan je toch wel een aantal reviews van de 4870 verwachten die je keuze makkelijker moeten maken.
iig bedankt guys!
(PC wordt trouwens Asus P5Q-E + Intel Core 2 Duo,E8400 + Corsair TWIN2X4096-8500, prima toch!)
Het verschil is ongeveer 25-30%. Soms iets meer. Soms iets minder.sMb.Blade schreef op dinsdag 24 juni 2008 @ 21:46:
Guys ik ga een nieuwe PC kopen.
Is het verschil groot tussen een HD4870 en een HD4850? Aangezien de HD4870 bijna nergens leverbaar is?
Maar wacht zoals al gezegd de reviews van morgen even af en lees voor de gein even de first post en de rest van dit topic.
En waarschijnlijk is de beschikbaarheid in het begin toch slecht.
Ik vraag me overigens af of mijn sample cherry picked is. Ik hoor van meer mensen die er al 1 in hun bezit hebben dat ze allemaal de max halen van Overdrive. Kan niet wachten tot er thirdparty tools zijn die het mogelijk maken om nog verder te OC-en. 200Mhz OC op GDDR5 geheugen is al gauw 800Mhz effectief winst.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
0:00 is een mooi tijdstip.
Of zit er nog een bepaalde NDA-tijd aan vast?
Verwijderd
In de praktijk worden die reviews pas gepost als het ochtend is in de US. Blijkbaar heeft men nog geen scripts die automatisch een review posten wanneer het toegestaan is.Splinter Cell schreef op dinsdag 24 juni 2008 @ 23:04:
Kunnen we vannacht al de eerste reviews te zien krijgen? Aangezien de kaarten morgen uitkomen.
0:00 is een mooi tijdstip.
Of zit er nog een bepaalde NDA-tijd aan vast?
Ja zou kunnen. Dit was bij de 4850 wel het geval.oeLangOetan schreef op dinsdag 24 juni 2008 @ 23:12:
morgen 3h in de namiddag waarschijnlijk, het is de laatste tijd altijd zo
15:00 (Nederlandse tijd) - 6:00 (tijdsverschil) wordt dus 9:00 Amerikaanse tijd gepost.Verwijderd schreef op dinsdag 24 juni 2008 @ 23:16:
[...]
In de praktijk worden die reviews pas gepost als het ochtend is in de US. Blijkbaar heeft men nog geen scripts die automatisch een review posten wanneer het toegestaan is.
[ Voor 44% gewijzigd door Splinter Cell op 24-06-2008 23:19 ]
4600Wp Z - 4800Wp W - 4800Wp O | SH4.0RS | SH5.0RS | SBR192 accu| Easee Charge Lite | Corsa-e 50kWh | Mercedes EQA 250+ 70kWh | Homey Pro
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die server van expreview is echter gestopt met roken lijkt het.CJ schreef op dinsdag 24 juni 2008 @ 23:32:
Nope.En men kijkt ook niet in de first post om te zien of de review al in de REVIEWLIJST staat alvorens het voor de -tigste keer te posten. Geen wonder dat we zo snel aan de 500 posts zitten.
Ik geef toe bijna 50% van de postings hier is offtopic n.a.v. leaks en postings op andere fora maar wel nuttig vaak en veel van de mensen die dit topic lezen leren der veel van ( incl. ikke
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
productreview: Club3D CGAX-4852DD review door frankknopers
Goud is geen geld
Erg duidelijke review Frank, alleen jammer dat je de HD3870X2 niet hebt meegenomen als je hem toch had liggen.frankknopers schreef op dinsdag 24 juni 2008 @ 23:52:
Ik heb een uitgebreide review van mijn HD4850 geschreven op de frontpage:
Ohh ja en bij de zin onder het kopje Featureset heb je een hoofdletter vergeten bij hD4850, voor de rest super geschreven. Ziet der mooi uit
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Typfouten heb ik er inmiddels al wel uit volgens mij. De HD3870 X2 blijft nog even bij mij en die zal ik ook meenemen in de test. Misschien dat ik dat morgenavond nog kan doen.Apoca schreef op dinsdag 24 juni 2008 @ 23:59:
[...]
Erg duidelijke review Frank, alleen jammer dat je de HD3870X2 niet hebt meegenomen als je hem toch had liggen.
Ohh ja en bij de zin onder het kopje Featureset heb je een hoofdletter vergeten bij hD4850, voor de rest super geschreven. Ziet der mooi uit![]()
Goud is geen geld
[ Voor 10% gewijzigd door Apoca op 25-06-2008 00:15 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
De drang van het nieuwste willen hebbenVincentio schreef op woensdag 25 juni 2008 @ 00:27:
Ik vraag me af wat voor anderen de motivatie is om nu al te upgraden als je zelf al een (redelijk) goede kaart hebt. Zelf heb ik atm een 8800GT en daar zijn alle spellen in principe goed mee te spelen en zo ver als ik kan zien, komen er binnenkort nog geen echt goede games uit die er ook nog eens echt voordeel van zullen hebben.
Er zullen altijd mensen zijn, die het beste van het beste willen hebben.Vincentio schreef op woensdag 25 juni 2008 @ 00:27:
Ik vraag me af wat voor anderen de motivatie is om nu al te upgraden als je zelf al een (redelijk) goede kaart hebt. Zelf heb ik atm een 8800GT en daar zijn alle spellen in principe goed mee te spelen en zo ver als ik kan zien, komen er binnenkort nog geen echt goede games uit die er ook nog eens echt voordeel van zullen hebben.
Met de kaartjes van nu kun je inderdaad, nog gerust een paar jaar door gamen.
Verder heb je zelf een 8800GT die ook nog niet zo oud is. Dus jouw reactie is begrijpelijk. Waarom zou je upgraden, als alles nog prima draait?
Op ATi gebied, da's toch niet zo moeilijk? De R600 & R(v)680 waren min of meer mislukt, in mijn ogen. En zo denken meer mensen er over. Vooral de R600. Die kwam ook nog eens veelste laat en bood niet waar op gehoopt werd. Ook de 38xx serie vond ik persoonlijk te laat komen.
De 48xx serie, veegt de 2xxx/38xx zowat in 1 klap weg. Als je naar de prijs kijkt en de performance. Top. Met name de AA drop is nu erg laag.
Check en dubbel check. De reden voor mij om te kijken wat er nu te krijgen is op ATi gebiedSplinter Cell schreef op woensdag 25 juni 2008 @ 00:42:
[...]
De 48xx serie, veegt de 2xxx/38xx zowat in 1 klap weg. Als je naar de prijs kijkt en de performance. Top. Met name de AA drop is nu erg laag.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Bron: http://www.anandtech.com/video/showdoc.aspx?i=3340&p=6NVIDIA has a pretty solid product lineup now, the problem it is that at the lower end of the lineup the Radeon HD 4850 manages to do a great job of disrupting things:
The Radeon HD 4850 continues to be a better buy than NVIDIA's GeForce 9800 GTX, even if both are priced at $199. The overclocked, 55nm 9800 GTX+ manages to barely outperform the 4850 in a few titles, but loses by a larger margin in others, so for the most part it isn't competitive enough to justify the extra $30. The 4850 also uses significantly less power than the 9800 GTX+, and AMD was quick to point out that by the time the 9800 GTX+ ships that it will also have factory overclocked 4850s. That should make things even more interesting, because honestly, a factory overclocked Radeon HD 4850 is far more attractive to us than an overclocked GTX+.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
R300 is terug voor mijn en me GX2 gaat er binnenkort echter uit, de R700 wordt zijn vervanger dat weer wel en ik hoop dat we ook meer komen te weten over R700 en weer zijn opvolgers.
CJ mijn dank is groot aan jou voor wat hjij ons allemaal hebt laten weten als geleerd in deze moderne ATi wereld en ik hoop dat je nog veel meer ons kan vertellen.
The Force Is With You Jedi Master CJ. and people the Red's are back
Iemand kijkt hier teveel starwarsVerwijderd schreef op woensdag 25 juni 2008 @ 02:05:
zoals ik het zie gaat het vandaag echt gebeuren en idd die 4800 serie is een klap in de vuurpijl en de concurrent zal nu wel angst hebben vanwegen ATi's sterke prijs performance met hun nieuwe telg.
R300 is terug voor mijn en me GX2 gaat er binnenkort echter uit, de R700 wordt zijn vervanger dat weer wel en ik hoop dat we ook meer komen te weten over R700 en weer zijn opvolgers.
CJ mijn dank is groot aan jou voor wat hjij ons allemaal hebt laten weten als geleerd in deze moderne ATi wereld en ik hoop dat je nog veel meer ons kan vertellen.
The Force Is With You Jedi Master CJ. and people the Red's are back
CJ, top van je, ik volg de ATi topic al ruim een half jaar en ik word altijd blij als ik weer wat nieuwe informatie krijg over AMD/ATi!
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
De Bovenstaande review is interessant. Daar gaatn ze ook in op de architectuur van de RV770 tov die van de GT200.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
sommige spellen draaien wel op 8800gt, maar toch ook niet zo soepel hoor. Bijvoorbeeld twee spellen die ik speel, lotro en AoC, kunnen wel wat meer juice gebruiken indien je hen op het hoogste wil draaien. Bovendien geeft ATI veel bang voor weinig bucks. Ik kan een kaartje kopen die de 8800gt echt wegblaast voor 220 euries. geweldig tochVincentio schreef op woensdag 25 juni 2008 @ 00:27:
Ik vraag me af wat voor anderen de motivatie is om nu al te upgraden als je zelf al een (redelijk) goede kaart hebt. Zelf heb ik atm een 8800GT en daar zijn alle spellen in principe goed mee te spelen en zo ver als ik kan zien, komen er binnenkort nog geen echt goede games uit die er ook nog eens echt voordeel van zullen hebben.
En er wordt HD4870 in CF getest !! Leuke indicatie voor wat de X2 kan gaan doen. En dat is echt idioot !!
Voor proefje:

En een geval waar de CF scaling dus niet al te best is:

Dat beeld uit de AC test is wel triest. De 9800 GTX+ die verslagen wordt door de HD4850 verslaat in SLi de HD4870 in CF. Dus die cf drivers moeten nog opgelapt worden voor de HD4xxx serie.
De 9800 GTX+ is trouwens zoals verwacht een 8-10% sneller als de 9800 GTX.
Stroom Verbruik:
Ook heel interessant:


Hier kun je uit op maken dat een HD4850 idle 25 watt gebruikt en een HD4870 70 watt. Hier klopt dus duidelijk iets niet. Powerplay lijkt wel te werken op de HD4850 maar niet op de HD4870.
Als je naar Load kijkt zie je dat een HD4850 73 watt zou gebruiken. De HD4870 145 watt.
Echter is dit niet helemaal eerlijk want je gaat uit van het verschil tussen de single opstelling en de CF opstelling. Het is de vraag of de CF opstelling wel helemaal belast wordt. 73c is namelijk niet veel voor een kaartje.
[ Voor 82% gewijzigd door Astennu op 25-06-2008 08:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Waar spelen de meeste gamers in eigenlijk? Ik dacht 1024x768, 1280x1024, 1600x1200 en 1680x1050. Hoger en lager zullen denk ik relatief weinig voorkomen.
Toch is het wel tof dat ze op 25x16 nog zo'n enorme framerate halen
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
[Sorry voor de vervuiling!]
[ Voor 3% gewijzigd door darthdrinker op 25-06-2008 09:53 ]
Iemand doodmaken met een blije mus.....
Een HD4850 is al zowat in staat in het dx10.1 pad een steady 60 fps te geven op 1600x1200 16AF AA3/3
Niet op voorraad.
1280x1024 is nu de meeste gebruikte resolutie. Maar 1680x1050 begint nu populair te worden door de betaalbare 20 en 22"schermen.TroonStaal schreef op woensdag 25 juni 2008 @ 09:27:
Het is ook wel een resolutie waar denk ik niet zo heel veel mensen gebruik van maken, dus daar maak ik me niet zo heel druk om.
Waar spelen de meeste gamers in eigenlijk? Ik dacht 1024x768, 1280x1024, 1600x1200 en 1680x1050. Hoger en lager zullen denk ik relatief weinig voorkomen.
Toch is het wel tof dat ze op 25x16 nog zo'n enorme framerate halen(alleen is het me niet echt duidelijk of het hier gaat om maximum of gemiddeld aantal fps gaat)
Voor de mensen met een 24" of kleiner scherm is 512 mb genoeg. Heb je 24" of vooral een 30" dan is meer dan 512 MB geheugen aan te raden. Of een game zoals Conan moet al support hebben voor 1 GB. Bij Conan kun je de details behoorlijk opschroeven als je 1 GB hebt.
Ik ben een 30" aan het overwegen en ik speel nu eigenlijk altijd met AA en AF dus ik ga sowieso voor 1 GB VRAM.
Het valt me trouwens op dat de HD4850 in CF beter schaalt dan de HD4870. Ik begin te denken dat de HD4870 wat driver problemen heeft. Zeker omdat ook het idle verbruik van die kaart 3x dat van de HD4850 is.
[ Voor 8% gewijzigd door Astennu op 25-06-2008 09:32 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Ligt er aan, is het een dualcore of een single core S939 proc? Dual dan red je het denk ik nog wel. Met single core word het wel een mega bottlenek. Gezien je van plan bent om een nieuw systeem te halen, kan je opzich de HD4850 al halen en deze later over zetten. Moet wel zeggen dat dit geen nieuws is en offtopic.darthdrinker schreef op woensdag 25 juni 2008 @ 09:28:
Hee mensen ik ben benieuwd of de 4850 ook nog een beetje vooruitkomt in mijn oude 939 systeempje(ben aan het sparen en wachten op de Nehalem). Ik heb de kaart vorige week donderdag besteld maar ik heb em nog steeds niet en er is ook nog niks bekend over levertijden. Hoe kan het dat jullie allemaal al zo'n ding hebben? Nou ja ik blijf dus nog even kwijlen over de benches die hier worden gepost...
[ Voor 17% gewijzigd door Verwijderd op 25-06-2008 09:33 ]
Beetje dual core is voldoende zeker als je met AA AF aan de slag gaat.Verwijderd schreef op woensdag 25 juni 2008 @ 09:32:
[...]
Ligt er aan, is het een dualcore of een single core S939 proc? Dual dan red je het denk ik nog wel. Met single core word het wel een mega bottlenek. Gezien je van plan bent om een nieuw systeem te halen, kan je opzich de HD4850 al halen en deze later over zetten. Moet wel zeggen dat dit geen nieuws is en offtopic.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Niet op voorraad.
Helemaal mee eens. Vanaf 1920-1200 en hoger voor de 1GB gaan als je toch een HD4870 wilt. Mits die 1 GB versie niet ineens 100 euro duurder is. Ik gok dat het verschil 25-35 euro zal zijn.edward2 schreef op woensdag 25 juni 2008 @ 09:50:
De HD4870 met 512 mb gaat op H(D) res met AA nu duidelijk last krijgen van z'n beperkte framebuffer van 512 mb. Zeker in CF, waar je op hoge res wilt spelen, lijkt me 512 mb niet aan te raden. (de perf die je dan tot je beschikking heb komt niet helemaal tot z'n recht)
[ Voor 5% gewijzigd door Astennu op 25-06-2008 10:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik zit met een 22" T220. Twijfel tussen een 512 of 1gb. Ervaring leert dat het qua prijs meestal niet zo heel erg veel uitmaakt (twee/drie tientjes op een nieuwe pc is peanuts) Misschien is het niet heel erg nodig maar ik wil eindelijk wel eens games écht voluit kunnen draaien. Dat heb ik tot nu toe nooit kunnen doen, tenzij het spellen van drie jaar oud zijn.Astennu schreef op woensdag 25 juni 2008 @ 09:31:
[...]
1280x1024 is nu de meeste gebruikte resolutie. Maar 1680x1050 begint nu populair te worden door de betaalbare 20 en 22"schermen.
Voor de mensen met een 24" of kleiner scherm is 512 mb genoeg. Heb je 24" of vooral een 30" dan is meer dan 512 MB geheugen aan te raden. Of een game zoals Conan moet al support hebben voor 1 GB. Bij Conan kun je de details behoorlijk opschroeven als je 1 GB hebt.
Ik ben een 30" aan het overwegen en ik speel nu eigenlijk altijd met AA en AF dus ik ga sowieso voor 1 GB VRAM.
Het valt me trouwens op dat de HD4850 in CF beter schaalt dan de HD4870. Ik begin te denken dat de HD4870 wat driver problemen heeft. Zeker omdat ook het idle verbruik van die kaart 3x dat van de HD4850 is.
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Dit topic is gesloten.