AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
AMD heeft voor zover ik weet de HD4850X2 optioneel gemaakt en het aan de AIBs over gelaten of ze deze willen releasen of niet. Hetzelfde geldt voor de 1GB modellen. De enige vereisten die ze stelden was dat er voldoende 512MB varianten en voldoende HD4870X2s op de markt waren voordat men begon met het leveren van de HD4850X2 en 1GB variant van de HD4870.Indy91 schreef op maandag 22 september 2008 @ 12:14:
Techzine komt met het bericht dat de HD4850X2 niet méér in september zal uitkomen, omdat het voor ATi niet persé zou hoeven om deze kaart snel uit te brengen.
Ze zeggen ook dit:
Techzine heeft het wel vaker mis. Er komt namelijk deze maand nog wel een nieuwe videokaart op de markt. HD4300 en HD4500 anyone?Men verwacht ook geen grafische kaart meer aan het einde van de maand, aangezien deze binnenkort alweer voorbij is.
Overigens is het nieuws van Fudzilla wel weer interessant. Ik hoor namelijk dat er waarschijnlijk wat dingen gewijzigd zijn in de planning om het 9600GT (G94b @ 55nm) in het $99 segment moeilijker te maken.
[ Voor 9% gewijzigd door CJ op 22-09-2008 12:20 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 96% gewijzigd door Edgarz op 22-09-2008 21:49 . Reden: topic change ]

Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Bedankt voor je zeer gezellige en vriendelijke opmerking om mij hierop te wijzen. Ook ervaren tweaker gebruikers kunnen weleens een foutje maken. Je doet je poster alias eer aan, doe jezelf een nieuwe luier om, hork.Hekking schreef op maandag 22 september 2008 @ 17:16:
Ahh, meneer heeft een probleem![]()
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Als jij de eerste was die het "foutje" maakte werd er vast geen probleem van gemaakt. Maar de laatste tijd maken er een hoop mensen deze foutjes ondanks die lompe Waarschuwing onder in beeld.Edgarz schreef op maandag 22 september 2008 @ 21:48:
[...]
Bedankt voor je zeer gezellige en vriendelijke opmerking om mij hierop te wijzen. Ook ervaren tweaker gebruikers kunnen weleens een foutje maken. Je doet je poster alias eer aan, doe jezelf een nieuwe luier om, hork.

Goud is geen geld
- Hexus Powercolor HD4870 1GB PCS+
- Driverheaven HD4670 (CF)
- Tech Power Up Sapphire HD4850 (Custom PCB)
- Motherboards.orgATi Radeon HD4670
- Hot Hardware MSI R4850 512MB
Ook Bit Tech stipt aan dat DX11 verder bouwt op DX10.1 dus zal NV tzt alle functies van DX10.1 wel moeten ondersteunen, ondanks dat ze tot nu toe zeer neerbuigend gedaan hebben over DX10.1 (onder het motto: downplay it until you have it yourself, cause then it's the new holy grail). Verder gaan ze ook in op de Tesselation functie binnen DX11 en de Radeons vanaf de HD2000 Serie. Tesselation in DX11 is een superset van datgene wat de Tesselator in de Xbox360 en Radeons kunnen. Het bouwt er op voort.Instead, D3D10.1's biggest attraction according to the developers we've spoken to is the ability to use MSAA in conjunction with deferred rendering (as used in any game based on Unreal Engine 3, along with several others too) without needing to render the depth to a texture. Instead, with DirectX 10.1, you're able to read from the multi-sample depth buffer when there are multiple render targets – this can improve performance quite considerably (in the region of 20 to 30 percent), because the operation can be completed in just a single pass.
Wil je weten wat DX11 nog meer inhoudt (bv Compute Shaders, Multithreading, Dynamic Shader Linkage) alsmede meer over OpenCL.... dan is het zeker een tip om het artikel op Bit Tech te lezen.What's more, although developers are unlikely to use it for applications shipping today, RV7xx's tessellator does prove to be a useful stepping stone because it allows developers and artists to experiment with tessellation today in a programming environment that's going to be fairly similar to DirectX 11. After all, DirectX 11's graphics pipeline is a superset of DirectX 10 – the major addition being the tessellator.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Aangezien DX11 downwards compatible is zal Nv het inderdaad moeten ondersteunen. Dat was toch al heel lang bekend?CJ schreef op maandag 22 september 2008 @ 22:14:
Ook Bit Tech stipt aan dat DX11 verder bouwt op DX10.1 dus zal NV tzt alle functies van DX10.1 wel moeten ondersteunen, ondanks dat ze tot nu toe zeer neerbuigend gedaan hebben over DX10.1
[ Voor 4% gewijzigd door Format-C op 22-09-2008 22:42 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Herhaling is de beste manier om bepaalde informatie in het hoofd van mensen te krijgen. Hoe vaker ze iets horen, des te sneller zal het blijven hangen. Denk bv aan het TWIMTBP logo in enorm veel games... waardoor veel mensen nog ten onrechte denken dat die games automatisch beter zullen lopen op GeForce kaarten van nVidia.
Daarnaast is het ook een goede aangelegenheid om weer duidelijk te maken dat DX11 games waarschijnlijk ook sneller zullen lopen op DX10.1 hardware dan op DX10 hardware. Wanneer er AA gebruikt wordt kan je al snel een verschil zien van 20-30%. Er zijn zelfs devs die al hebben aangegeven dat ze in hun games alleen een DX10.1 fallback path maken in hun DX11 games/engines die in ontwikkeling zijn.
Natuurlijk zijn er tegen die tijd snellere videokaarten uit alle kampen, maar er zijn ook genoeg mensen die niet elk half jaar een nieuwe videokaart kopen. Voor die mensen is het een leuke geruststelling dat hun HD4870X2 over een jaar of 2 nog redelijk goed mee kan (wellicht op iets lagere instellingen, maar toch...).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Youve got a point. Als je een kaart echt lang wil houden heb je idd meer aan een ATi kaart. Dat kan ik niet ontkennen.CJ schreef op maandag 22 september 2008 @ 22:54:
Yep. Dat was voor velen bekend, maar niet voor iedereen, waardonder dagelijks ook veel nieuwe lezers hier.Er zijn nog genoeg mensen die denken dat DX10.1 niks voor stelt en dat het overbodige luxe is puur omdat NV het niet ondersteunt. Dat blijkt ook wel uit veel posts in dit forum en elders op het internet.
Herhaling is de beste manier om bepaalde informatie in het hoofd van mensen te krijgen. Hoe vaker ze iets horen, des te sneller zal het blijven hangen. Denk bv aan het TWIMTBP logo in enorm veel games... waardoor veel mensen nog ten onrechte denken dat die games automatisch beter zullen lopen op GeForce kaarten van nVidia.
Daarnaast is het ook een goede aangelegenheid om weer duidelijk te maken dat DX11 games waarschijnlijk ook sneller zullen lopen op DX10.1 hardware dan op DX10 hardware. Wanneer er AA gebruikt wordt kan je al snel een verschil zien van 20-30%. Er zijn zelfs devs die al hebben aangegeven dat ze in hun games alleen een DX10.1 fallback path maken in hun DX11 games/engines die in ontwikkeling zijn.
Natuurlijk zijn er tegen die tijd snellere videokaarten uit alle kampen, maar er zijn ook genoeg mensen die niet elk half jaar een nieuwe videokaart kopen. Voor die mensen is het een leuke geruststelling dat hun HD4870X2 over een jaar of 2 nog redelijk goed mee kan (wellicht op iets lagere instellingen, maar toch...).
-Al zijn er ook velen die zodra er DX11 kaarten zijn direkt weer toeslaan... maar zoals je zegt; dat doet lang niet iedereen. Het is alleen te hopen dat DX11 meer brengt dan DX10. MS heeft hard lopen blaten dat DX10 zo geweldig was, en dat het performancewinst zou geven, alleen hebben we er maar bar weinig van teruggezien. En oh oh, wat zou die IQ mooi zijn...

Iedereen is er met open ogen ingestonken, en MS heeft de dollars alweer binnen.
DX10.... LOL.

[ Voor 4% gewijzigd door Format-C op 22-09-2008 23:14 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
En zal dan ook de ondersteuning voor Crossfire met meer dan 2 GPU's verbeterd zijn? Want daar waar het upgraden van 1 naar 2 kaarten inmiddels zeer lucratief is (zie ook de vraag naar een tweede videokaart in de V&A) lijkt dat absoluut niet te gelden voor de dual-GPU kaarten zoals de R680 en de R700. Natuurlijk blijft het lastig om games te programmeren die drie of vier frames vooruit kunnen renderen met goede scaling maar zal dit dankzij DX10.1, DX 11 of zelfs OpenGL 3 kunnen verbeteren?CJ schreef op maandag 22 september 2008 @ 22:54:
[...] Voor die mensen is het een leuke geruststelling dat hun HD4870X2 over een jaar of 2 nog redelijk goed mee kan (wellicht op iets lagere instellingen, maar toch...).
Op dit moment kun je mensen met een GTX 280 wel een tweede voor SLI aanraden, maar een tweede HD4870 X2 toevoegen is in hedendaagse games even zinloos als de stap van dualcore naar quadcore CPU..
[ Voor 4% gewijzigd door frankknopers op 22-09-2008 23:19 ]
Goud is geen geld
Toch een uitdaging om dan niet iedereen over een kam te scheren en beleefdheid op te brengen. Laten we de 'overtreding' wel een beetje in het juiste perspectief plaatsen....er zijn ergere dingen, toch?Krizzie schreef op maandag 22 september 2008 @ 22:04:
[...]
Als jij de eerste was die het "foutje" maakte werd er vast geen probleem van gemaakt. Maar de laatste tijd maken er een hoop mensen deze foutjes ondanks die lompe Waarschuwing onder in beeld.![]()

Niet gelijk een antwoord of de CrossFire ondersteuning voor meer dan 2 GPUs tegen die tijd verbeterd zal zijn, want mijn glazen bol kijkt niet zo ver vooruit... maar dit is misschien wel interessant om te lezen... Eric Deemers als antwoord op de vraag of scaling voor meer dan 2 GPUs beter wordt:frankknopers schreef op maandag 22 september 2008 @ 23:17:
[...]
En zal dan ook de ondersteuning voor Crossfire met meer dan 2 GPU's verbeterd zijn? Want daar waar het upgraden van 1 naar 2 kaarten inmiddels zeer lucratief is (zie ook de vraag naar een tweede videokaart in de V&A) lijkt dat absoluut niet te gelden voor de dual-GPU kaarten zoals de R680 en de R700. Natuurlijk blijft het lastig om games te programmeren die drie of vier frames vooruit kunnen renderen met goede scaling maar zal dit dankzij DX10.1, DX 11 of zelfs OpenGL 3 kunnen verbeteren?
Op dit moment kun je mensen met een GTX 280 wel een tweede voor SLI aanraden, maar een tweede HD4870 X2 toevoegen is in hedendaagse games even zinloos als de stap van dualcore naar quadcore CPU..
Dus op lage resoluties zoals 12x10 en 16x4 heb je volgens AMD weinig aan 4 GPU. Op dit moment komt 4 GPU het beste uit de verf op 25x16... om precies te zijn komt AFR hier het beste uit de verf... AMD is altijd bezig met het onderzoeken naar andere vormen van rendering... getuige ook de CFX Sideport die je als opstapje kan beschouwen naar de toekomst. Zo kan bv GPU1 dingen uit het geheugen van GPU2 lezen en schrijven via de interconnect...Eric: It largely depends ... the more you shift towards being GPU bound, by increasing resolution and AA and AF, the more benefits you'll see from such solutions. If you're going to game at 12x10 or even 16x12, 4-GPUs aren't really what you'd need. But at 25x16 you'd really feel the difference. So yes, AFR is a viable solution under those circumstances..
AMD kan dit op elk moment via de drivers activeren, wanneer ze in hun testlabs op een scenario zijn gestuit waaruit blijkt dat de Sideport een significante performanceboost kan brengen ten opzichte van de PLX chip (die overigens in samenwerking met AMD is getweaked). En op dit moment is dat dus nog niet zo, maar ze zijn wel continue aan het kijken hoe ze multi-GPU scaling kunnen verbeteren. Ze zitten zo'n beetje aan de maximaal haalbare van AFR wanneer profielen goed functioneren, dus kijken ze ook zeker verder naar andere multi-GPU opties.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
|2600k|Asus 290|
Ik geloof daar nog steeds niet veel van. Kan nooit snel zijn als je een GTX260 en een HD4870 aan elkaar knoopt het geheel is te verschillend. Je zult dan altijd de snelheid van de langzaamste kaart hebben want anders raakt het geheel out of sync.Bullus schreef op dinsdag 23 september 2008 @ 08:31:
Hoe denkt AMD/Nv trouwens over de hydra-engine?
Maar ik ben ook wel benieuwd wat AMD en nV toe kunnen voegen aan multi gpu support. Maar eigenlijk is dit al heel oud. 3DFX deed dit al in de tijd van de Voodoo kaarten. En dat werkte toen vaak erg goed. Ik weet niet hoe de scaling daar over het algemeen was. Maar kan me nog herinneren dat de nieuwe Voodoo 3 het erg moeilijk had en volgens mij zelfs verslagen werd door een Voodoo 2 SLI setup. Maar wat ik al zij het is lang geleden
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Wat ik gezien/gelezen heb, maakt het niet uit qua snelheid van de kaarten.
De snelle kaart rendert dan in verhouding, zeg maar 3/4 van het beeld, de langzame maar een 1/4.
http://www.pcper.com/article.php?aid=607To accompany this ability to intelligently divide up the graphics workload, Lucid is offering up scaling between GPUs of any KIND within a brand (only ATI with ATI, NVIDIA with NVIDIA) and the ability to load balance GPUs based on performance and other criteria. The load balancing is based on a couple of key data points: pre-existing knowledge from the Lucid team about the GPU in question and the "response time" of the GPU when being sent data from the HYDRA Engine chip. The HYDRA driver will actually recognize the GPUs in a system and will estimate how much processing power each holds but will then fine tune that estimate based on real-time performance of the GPU in action. If a GPU is sent a "task" to perform and the return time on it is slower than expected, the HYDRA engine will back off slightly and send more "tasks" to the less-loaded GPUs. All of this is updated on the fly, in real time as the game is running.
|2600k|Asus 290|
Een andere optie is om de workload beter handmatig te verdelen. Het maken van shadow maps en environment maps op de ene gpu, en de andere gpu doet het standaard renderwerk (oid).
The Flying Dutchman
Een combinatie van AFR en SFR zoals bij de 7950GX2 zou dan een oplossing zijn. Je hoeft dan maar 2 frames vooruit te werken ipv 4 en dat werkt bij de meeste games wel goed. Als je dan het beeld gewoon op een vast punt opsplitst via driverprofielen voor games dan heb je ook niet het probleem dat je GPU resources moet toewijzen aan het vinden van het juiste snijpunt.The Flying Dutchman schreef op dinsdag 23 september 2008 @ 10:05:
Wat ik het grote nadeel vind van AFR is dat je bij te lage framerate last krijgt van input lagging lijkt me. Als je 4 frames vooruit gaat renderen met 60fps, dan duurt het 66.7 ms (1000 / 60 * 4) voordat input van het toetsenbord of muis te zien is op het beeldscherm. Het lijkt mij dat dit al tegen de grens van het irritante aanzit bij snelle shooters. Daarnaast wordt het bij lagere fps alleen maar erger! Ik vraag me af hoe dit opgelost wordt en eigenlijk hoop ik dan ook dat er betere technieken ontstaan om gewoon aan een single frame te werken met meerdere GPU's, daar zit volgens mij veel meer toekomst in.
Een andere optie is om de workload beter handmatig te verdelen. Het maken van shadow maps en environment maps op de ene gpu, en de andere gpu doet het standaard renderwerk (oid).
Je zou dan mogelijk een nog betere scaling kunnen krijgen dan met het renderen van vier frames achter elkaar.
Uiteindelijk blijft het behelpen met dit soort technieken totdat ray-tracing er eindelijk is. Want dan kun je echt goed parralel de GPU's aan het werk zetten en dan kun je er ook wel meer dan 4 nuttig gebruiken. Ben benieuwd wanneer dat echt door gaat breken.
Goud is geen geld
Krijg je dan niet dat een kaart bijvoorbeeld minder/meer moet doen dan de andere waardoor je niet de optimale prestaties haalt?frankknopers schreef op dinsdag 23 september 2008 @ 12:18:
[...]
Een combinatie van AFR en SFR zoals bij de 7950GX2 zou dan een oplossing zijn. Je hoeft dan maar 2 frames vooruit te werken ipv 4 en dat werkt bij de meeste games wel goed. Als je dan het beeld gewoon op een vast punt opsplitst via driverprofielen voor games dan heb je ook niet het probleem dat je GPU resources moet toewijzen aan het vinden van het juiste snijpunt.
Je zou dan mogelijk een nog betere scaling kunnen krijgen dan met het renderen van vier frames achter elkaar.
Uiteindelijk blijft het behelpen met dit soort technieken totdat ray-tracing er eindelijk is. Want dan kun je echt goed parralel de GPU's aan het werk zetten en dan kun je er ook wel meer dan 4 nuttig gebruiken. Ben benieuwd wanneer dat echt door gaat breken.
Daar komt bij dat behoorlijk wat schermen tegenwoordig ook nog input lag hebben van 30-70 ms. Wat ook 2-4 frames is.The Flying Dutchman schreef op dinsdag 23 september 2008 @ 10:05:
Wat ik het grote nadeel vind van AFR is dat je bij te lage framerate last krijgt van input lagging lijkt me. Als je 4 frames vooruit gaat renderen met 60fps, dan duurt het 66.7 ms (1000 / 60 * 4) voordat input van het toetsenbord of muis te zien is op het beeldscherm. Het lijkt mij dat dit al tegen de grens van het irritante aanzit bij snelle shooters. Daarnaast wordt het bij lagere fps alleen maar erger! Ik vraag me af hoe dit opgelost wordt en eigenlijk hoop ik dan ook dat er betere technieken ontstaan om gewoon aan een single frame te werken met meerdere GPU's, daar zit volgens mij veel meer toekomst in.
Een andere optie is om de workload beter handmatig te verdelen. Het maken van shadow maps en environment maps op de ene gpu, en de andere gpu doet het standaard renderwerk (oid).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Niet alleen AFR, maar eigenlijk elke multi-GPU rendering mode heeft er wel in een bepaalde mate last van. Zelfs single GPUs kunnen last hebben van micro-stuttering.... micro-stuttering omvat veel dingen. De ATI Graphics Division is zich hier zeer van bewust en bekijkt altijd alle mogelijkheden om micro-stuttering tegen te gaan.The Flying Dutchman schreef op dinsdag 23 september 2008 @ 10:05:
Wat ik het grote nadeel vind van AFR is dat je bij te lage framerate last krijgt van input lagging lijkt me.
Wat betreft AFR... steeds meer devs houden vanaf het begin van de ontwikkeling van hun game rekening met AFR:
Het scheelt dat zowel AMD als NV bij de developers er in probeert te drammen dat men rekening moet houden met multi-GPU AFR scaling. Dat scheelt achteraf veel gedoe met driveroptimalisaties/profielen.Eric: The feedback we're getting from devs is actually quite positive. They're starting to take AFR into consideration when coding their games, so I'd say that moving forward things are going to improve for multi-GPUs.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Kan een heel interessant kaartje worden. In verhouding dus wat meer bandbreedte dan de HD4850 heeft tenzij de clocks van het geheugen heel laag zijn.256-bit, fewer pipes
ATI is about to release a new old card called Radeon HD 4830. It is based on the well-known RV770 chip, and this card will have a 256-bit memory interface.
The key difference from Radeon 4850 will be the pipeline numbers, as ATI plans to cut the pipeline count. We don't know how many branches will be cut, but it will end up will fewer pipes than Radeon 4850 and 4870.
ATI still hasn't made up its mind on the price of such a card, and it will be positioned below Radeon HD 4850 and above HD 4670. It is meant to fight Geforce 9800GT-based cards, which are priced slightly above €100.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met AFR kun je geen rekening houden, daarmee wil ik zeggen: niet met het probleem dat ik aankaart, dat je input lag krijgt. Natuurlijk kun je een game programmeren zodat de game met AFR om kan gaan, maar een game kan niet voorspellen wat de gebruiker als input gaat geven en daarom hou je ALTIJD een input lag van 4 frames als je AFR doet met 4 gpu's. Hier kun je geen oplossing voor bedenken, het probleem is gewoon inherent aan AFR.CJ schreef op dinsdag 23 september 2008 @ 14:57:
[...]
Niet alleen AFR, maar eigenlijk elke multi-GPU rendering mode heeft er wel in een bepaalde mate last van. Zelfs single GPUs kunnen last hebben van micro-stuttering.... micro-stuttering omvat veel dingen. De ATI Graphics Division is zich hier zeer van bewust en bekijkt altijd alle mogelijkheden om micro-stuttering tegen te gaan.
Wat betreft AFR... steeds meer devs houden vanaf het begin van de ontwikkeling van hun game rekening met AFR:
[...]
Het scheelt dat zowel AMD als NV bij de developers er in probeert te drammen dat men rekening moet houden met multi-GPU AFR scaling. Dat scheelt achteraf veel gedoe met driveroptimalisaties/profielen.
Ik denk dat AFR dan ook écht aan de limiet zit met 4 gpu's. AMD en nvidia moeten daarom naar mijn mening ook naar andere technieken gaan kijken, gpu's met een shared memory pool bijvoorbeeld en shared framebuffers, shared z-buffers, etc. Dan kun je een single frame wel beter over gpu's verdelen. Maar eigenlijk kun je dan al bijna net zo goed een single gpu met veel meer shaders/rops/texture units bouwen.
Ik ben dus wel erg benieuwd welke kant multi gpu op zal gaan. Raytracing wordt wel eens genoemd als de toekomst, maar ik denk dat we dat voor de komende 5 jaar nog niet hoeven te verwachten.
The Flying Dutchman
Waarom denk je dat ik twee posts terug dat gedeelte schreef over de CrossFireX Sideport?The Flying Dutchman schreef op dinsdag 23 september 2008 @ 16:00:
[...]
Ik denk dat AFR dan ook écht aan de limiet zit met 4 gpu's. AMD en nvidia moeten daarom naar mijn mening ook naar andere technieken gaan kijken, gpu's met een shared memory pool bijvoorbeeld en shared framebuffers, shared z-buffers, etc. Dan kun je een single frame wel beter over gpu's verdelen.
Ze zijn al bezig met veranderingen op het gebied van multi-GPU rendering.AMD is altijd bezig met het onderzoeken naar andere vormen van rendering... getuige ook de CFX Sideport die je als opstapje kan beschouwen naar de toekomst. Zo kan bv GPU1 dingen uit het geheugen van GPU2 lezen en schrijven via de interconnect...
En een chip van meer dan 550m2 met lage yields die enorm groot en heet is... is beter dan veel kleine chips die met elkaar kunnen communiceren? Huge monolithic chips are not the future.Maar eigenlijk kun je dan al bijna net zo goed een single gpu met veel meer shaders/rops/texture units bouwen.
Reviewoverzicht
Benchmarkreviews - Palit Sonic HD4870
Overclockers Online - Sapphire HD4850 Tocix
Pro Clockers - Sapphire Radeon HD4670 CrossFire
Pro Clockers - Sapphire Radeon HD4870 Tocix
Elite Bastards - Sapphire Radeon HD4670
Bit Tech - Powercolor HD4850 PCS+
Hot Hardware - Powercolor HD4870 PCS+ 1GB
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bij gewone processors is parallellisatie een probleem omdat de software daarvoor geschreven moet worden, maar gpu's zijn van zichzelf al in hoge mate geparallelliseerd. Als een chip de leiding neemt en de rest gebruikt als onderdeel van zichzelf zouden de prestaties gelijk moeten zijn aan die van een grote monolitische chip.
Enig probleem dat ik me kan bedenken is de vertraging van communicatie naar een andere kaart in vergelijking met communicatie on chip, maar dat kun je grotendeels compenseren door meerdere chips in één package te zetten.
Een andere voordeel van die aanpak is dat dubbel gehugen niet meer noodzakelijk is omdat een enkele chip de leiding heeft over het geheugenmanagement.
Anandtech reviewt een reference design HD4870 1GB. Hieronder wat quotes uit de review en een tabel....
Lees de gehele review hier: http://www.anandtech.com/video/showdoc.aspx?i=3415We didn't expect the gains we see here, and combined with the original stellar performance of the Radeon HD 4870, we have to say that we are impressed.
...
...
The Radeon HD 4870 1GB is a better buy than both the GTX 260 and core 216 variant.
...
So, what's the bottom line? This is currently the card to get.
Edit: Ik zal later vandaag even de grafiek met specs updaten met de meest recente RV770LE (HD4830) specs. 256-bit dus ipv 192-bit.
[ Voor 8% gewijzigd door CJ op 25-09-2008 14:56 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Van de beloften is weinig waargemaakt. Het spel is in vergelijking met Crysis nauwelijks geoptimaliseerd. nVidia neemt nog altijd opvallend makkelijk de leiding en 2 GPU kaarten presteren nog steeds dramatisch. Alleen met max settings heeft ATi met de HD4870X2 wat in te brengen, maar helaas is dit op geen van de huidige videokaarten speelbaar op 1920x1200.
Al met al erg jammer, ik had hier meer van verwacht...
Ik heb nog nooit gehoord over triple screen met een single AMD kaart, dus ik neem aan dat er een aansluiting gedeelt wordt. Je kunt maximaal twee schermen tegelijk aansluiten.duncanvdlinden schreef op donderdag 25 september 2008 @ 16:53:
Ik ben geintreseerd in de HD 4670. Met name de Asus vanwege de cooling. Nu heeft deze een DVI, een VGA en een HDMI aansluiting. Maar hoe zit dat nou precies, zouden deze 3 aansluitingen tegelijk gebruikt kunnen worden, of wordt er een aansluiting gedeeld?
The Flying Dutchman
Verwijderd
Lijker er ook op dat crossfire echt niet werkt.Depep schreef op donderdag 25 september 2008 @ 17:05:
Techspot heef wat Crysis Warhead benchmarks gedaan.
Van de beloften is weinig waargemaakt. Het spel is in vergelijking met Crysis nauwelijks geoptimaliseerd. nVidia neemt nog altijd opvallend makkelijk de leiding en 2 GPU kaarten presteren nog steeds dramatisch. Alleen met max settings heeft ATi met de HD4870X2 wat in te brengen, maar helaas is dit op geen van de huidige videokaarten speelbaar op 1920x1200.
Al met al erg jammer, ik had hier meer van verwacht...
Kan zo iets niet worden geforceert?
Met nvidia sli kon dat wel.
Ga bijna van uit dat met ati crossfire dat ook kan?
Zal binnen kort met mijn crossfire set testen.
Ik heb deze set net en had problemen met alles stabielt te krijgen .
Verwijderd
Met ATi Tray Tool kan men de CF wel forceren als ik het goed kan herinneren.Verwijderd schreef op donderdag 25 september 2008 @ 17:41:
[...]
Lijker er ook op dat crossfire echt niet werkt.
Kan zo iets niet worden geforceert?
Met nvidia sli kon dat wel.
Ga bijna van uit dat met ati crossfire dat ook kan?
Zal binnen kort met mijn crossfire set testen.
Ik heb deze set net en had problemen met alles stabielt te krijgen .
Zoiets bedoel je?Verwijderd schreef op donderdag 25 september 2008 @ 17:41:
[...]
Lijker er ook op dat crossfire echt niet werkt.
Kan zo iets niet worden geforceert?
^^ Forceert AFR in applicaties waar nog geen profiel voor bestaat. Maar dit was vroeger en kan nu sneller gedaan worden.... Set Catalyst AI op "Advanced" en de drivers forceren in games die nog geen CrossFire profiel hebben, Alternate Frame Rendering. Dit kan echter wel leiden tot screen corruption. Maar goed, je kan het altijd uitproberen.We would encourage developers to talk to their developer relations contacts about how to make their application AFR friendly, and potentially have a profile created for their game. It is possible to enable the full AFR friendly mode by renaming your EXE to one of the following depending on API selection:
1) Direct3D : “AFR-FriendlyD3D.exe”
2) OpenGL : “AFR-FriendlyOGL.exe”
This can be used as a way to check the outright performance gain possible with no driver checking for AFR unfriendly behavior. In addition this mode can be used to check for graphical corruption that may result if the application is AFR unfriendly. It is important to note that AFR does not operate in windowed applications, therefore it is very important to check for AFR related performance and correctness in full screen mode.
ATi Tray Tool (ATT) doet dus precies datgene wat ik hierboven schreef. Die forceert Catalyst AI op "Advanced" waardoor je automisch AFR forceert in de AFR Friendly modus.Verwijderd schreef op donderdag 25 september 2008 @ 18:42:
[...]
Met ATi Tray Tool kan men de CF wel forceren als ik het goed kan herinneren.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ja dat idee had ik ook al, maar nu hoop ik dus dat DVI + HDMI wel tegelijk te gebruiken is. Iemand enig idee? Bij Asus is geen handleiding te downloaden en bij de productpagina wordt er ook niets over verteld.The Flying Dutchman schreef op donderdag 25 september 2008 @ 17:36:
[...]
Ik heb nog nooit gehoord over triple screen met een single AMD kaart, dus ik neem aan dat er een aansluiting gedeelt wordt. Je kunt maximaal twee schermen tegelijk aansluiten.
2x DVI is gewoon te gebruiken dus dan zou HDMI + DVI ook gewoon moeten werken neem ik aan.duncanvdlinden schreef op donderdag 25 september 2008 @ 20:48:
[...]
Ja dat idee had ik ook al, maar nu hoop ik dus dat DVI + HDMI wel tegelijk te gebruiken is. Iemand enig idee? Bij Asus is geen handleiding te downloaden en bij de productpagina wordt er ook niets over verteld.
Maar dit hoort hier eigenlijk niet thuis hé.
Verwijderd
gaat nietduncanvdlinden schreef op donderdag 25 september 2008 @ 20:48:
[...]
Ja dat idee had ik ook al, maar nu hoop ik dus dat DVI + HDMI wel tegelijk te gebruiken is. Iemand enig idee? Bij Asus is geen handleiding te downloaden en bij de productpagina wordt er ook niets over verteld.
je heb 2xdvi waar van 1xdvi gekoppelt is aan hdmi
Ok daar was ik een beetje bang voor, dat hield mij nog tegen te bestellen. Jammer want de cooler sprak mij meer aan dan die bij de Saphire.Verwijderd schreef op donderdag 25 september 2008 @ 21:47:
[...]
gaat niet
je heb 2xdvi waar van 1xdvi gekoppelt is aan hdmi
Ik weet dat ik een beetje offtopic ga, maar een nieuw topic openen op een redelijk simpele vraag leek mij niet nodig.
[ Voor 15% gewijzigd door duncanvdlinden op 25-09-2008 23:51 ]
En omdat niemand dit nodig vindt, worden er dus geen aparte topics geopend, is er dus ook niet op te zoeken, en worden de vragen dus hier gesteld ondanks de waarschuwing die boven het invoerveld staat......duncanvdlinden schreef op donderdag 25 september 2008 @ 23:51:
[...]
Ok daar was ik een beetje bang voor, dat hield mij nog tegen te bestellen. Jammer want de cooler sprak mij meer aan dan die bij de Saphire.
Ik weet dat ik een beetje offtopic ga, maar een nieuw topic openen op een redelijk simpele vraag leek mij niet nodig.



Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Ik hoor niemand over de nieuwe layout van Tweakers.net?
Ik vind het geslaagd, het leest erg prettig
[ Voor 37% gewijzigd door dion_b op 29-09-2008 15:22 ]
Verwijderd
Ga dan naar het 4800 ervarings topic. Daar kan dat, hier gaat het over nieuwsduncanvdlinden schreef op donderdag 25 september 2008 @ 23:51:
[...]
Ok daar was ik een beetje bang voor, dat hield mij nog tegen te bestellen. Jammer want de cooler sprak mij meer aan dan die bij de Saphire.
Ik weet dat ik een beetje offtopic ga, maar een nieuw topic openen op een redelijk simpele vraag leek mij niet nodig.
Dat is ook niet de bedoeling hier. Maar het went wel denk ikVerwijderd schreef op vrijdag 26 september 2008 @ 10:17:
Offtopic,
Ik hoor niemand over de nieuwe layout van Tweakers.net?
Ik vind het geslaagd, het leest erg prettig
Nice, lazer cut RV770 core? Wel een mooi kaartje. Ben ben benieuwd wat ie hier gaat kosten. Zon 100 Euro denk ik. Komt een beetje omdat de HD4850 nog niet veel in prijs is gezakt. Ik heb de mijne gekocht voor 137 en de goedkoopsten zijn nu zon 130.
Dat komt omdat dit het ATI Nieuwsdiscussie topic is en niet het 'wat vinden we van de nieuwe layout?' want die staat ergens anders.Verwijderd schreef op vrijdag 26 september 2008 @ 10:17:
Offtopic,
Ik hoor niemand over de nieuwe layout van Tweakers.net?
Ik vind het geslaagd, het leest erg prettig
Ook even deze linken. Is wel zo leuk om de performance te kunnen inschatten:

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verder is er op instellingen getest waarin de framerates waarschijnlijk toch niet meer speelbaar waren dus dat grafiekje zegt me niet zoveel.
Verwijderd
Die is er toch echt niet, en jouw post heeft ook totaal geen toegevoegde waarde, ik vond een compliment wel op zijn plaats, die anders gewoon ff normaal.
In de waarschuwing staat trouwens niets over complimentjes en wel over prijzen zoals waar jij net over post!(Reinman-zeikmodus)
[ Voor 36% gewijzigd door dion_b op 29-09-2008 15:21 ]
Dat valt nog mee hoor. Zelfs de HD4670 (RV730) weet op die instellingen in de gebruikte games aardig wat framerates. En de RV770 is best goed met AA en AF... ook de HD4830 doet het prima op 1920x1200 met 4xAA/16xAF.primusz schreef op vrijdag 26 september 2008 @ 12:47:
Blijft altijd leuk die grafiekjes die niet op 0 beginnen
Verder is er op instellingen getest waarin de framerates waarschijnlijk toch niet meer speelbaar waren dus dat grafiekje zegt me niet zoveel.
Als je dat in je achterhoofd houdt, dan zijn de grafieken die op 0.8 beginnen nog aardig goed in te schatten op hun waarde.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://www.anandtech.com/video/showdoc.aspx?i=3415&p=10
Sommige games laten meer dan 10% winst zien. De nog een aantal 3-5 en een ouder spel oblivion liet geen winst zien.
Anandtech vind de HD4870 1GB een betere keuze dan de nieuwe GTX260 en ook beter dan de oude als je naar prijs gaat kijken.
[ Voor 19% gewijzigd door Astennu op 26-09-2008 13:20 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Heb jij ff pech dat ie er niet is. En om maar even te quoten uit de waarschuwing:Verwijderd schreef op vrijdag 26 september 2008 @ 12:54:
@Reinman;
Die is er toch echt niet, en jouw post heeft ook totaal geen toegevoegde waarde, ik vond een compliment wel op zijn plaats, die anders gewoon ff normaal.
ATI nieuws wel te verstaan. Jij hebt het over tweakers, hoort hier niet thuis, ga dat ergens anders doen. Dat je complimenten wil maken, kan ook in de .plans, waar de discussie WEL over de layout gaat.Dit is een NIEUWSDISCUSSIE topic
In de waarschuwing staat trouwens niets over complimentjes en wel over prijzen zoals waar jij net over post!(Reinman-zeikmodus)
. Nog maals.Dit is een NIEUWSDISCUSSIE topic
Verder begrijp jij niet wat hier staat. Ik zal het heel simpel voor jouw proberen te maken. Dit is het posten van prijzen van winkels. Ik bespreek daar de nieuwe aankomende kaart en zijn prijs gebied. Waar ik aangeef dat de HD4850 nog niet in prijs is gezakt, waardoor deze nieuwe kaart op een bepaalde plek komt. In dit geval post ik dus geen links van ojee kijk deze goedkope kaart bij deze winkel. Waar deze waarschuwing voor bedoelt is.of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!)
Cry me a river.
Als je de grafiek goed bekijkt, zul je al snel merken dat ze de waarde 1 hebben genomen voor de 9800GT als reverentie. Op die manier kun je dus vrij eenvoudig zien hoeveel beter de HD4830 presteert dan de 9800GT in procenten.primusz schreef op vrijdag 26 september 2008 @ 12:47:
Blijft altijd leuk die grafiekjes die niet op 0 beginnen
Verder is er op instellingen getest waarin de framerates waarschijnlijk toch niet meer speelbaar waren dus dat grafiekje zegt me niet zoveel.
Als je bijvoorbeeld naar Devil May Cry 4 kijkt, die je dat de Radeon 60% beter presteerd. Mocht de 9800GT bijvoorbeeld 30fps halen, dan haalt de HD4830 dus 1.6x30=48fps. Lijkt me toch redelijk duidelijk allemaal.
Verwijderd
http://www.overclockerscl...ews/gigabyte_9800gt/9.htm
Dan lijkt me dit een aardig leuke kaart (budget), hoor...
Call of Duty 4:
AA x 4, AF: Max, Texture Quality: Extra, All Settings Max:
1920x1200 62 fps, daar 15% bij, 71 dus, dat is een perfecte FPS hoor.
[ Voor 31% gewijzigd door Paprika op 26-09-2008 15:18 ]
Het punt is dat dit al 93 topics lang gebeurd ondanks dat in elk topic om de pak 'm beet 20 posts gezegd wordt - mede door de moderators - dat dit geen topic is voor simpele vragen, probleemvragen, vragen die dmv de search of google kunnen worden opgelost of waar men zelf een nieuw topic voor kan openen. Het is een ATI Nieuwsdiscussie topic. De nadruk op ATI en nieuws & discussie. Daar staat nergens "Het grote ATI vragen en problemen topic".duncanvdlinden schreef op vrijdag 26 september 2008 @ 15:46:
Jongens dan zetten we hier allemaal nieuws neer, en dan gaan we vooral niet discusseren daarover. Want dat is allemaal off-topic hiero. Jemig man heb je 1 simpel vraagje, over een kaart waar nog geen topic over loopt. En dan wordt je van 2 kanten beschoten. Maargoed ik ben al weg.
Als je nou de eerste was geweest, dan was het lang zo erg niet... maar aangezien dit al jaren lang gebeurt en er toch een redelijk vette blauwe topicwaarschuwing bij het posten staat, alsook een uitgebreide topicreglement (van ondergetekende) in de first post staat... lijkt het er op dat niemand dit leest. Dit leidt tot veel frustratie van de vaste lezers van dit topic alsmede bij de topicstarter (zie m'n sig).
Reviewoverzicht
Hi Tech Reviews Sapphire HD4670
Rage 3D ATI HD4870X2
HardspellOverclocking Performance Contrasts: HD4850 vs 9800GTX+
[ Voor 5% gewijzigd door CJ op 26-09-2008 16:37 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Ook de Hi-Tech review vind ik niet heel goed. Ze benchen niet tegen kaarten in het zelfde prijs segment, nu is vergelijken een stuk moeilijker.
[ Voor 23% gewijzigd door Verwijderd op 26-09-2008 16:46 ]
Met de Phenom is niets mis zolang je hoge reso's test.Verwijderd schreef op vrijdag 26 september 2008 @ 16:44:
Ben niet echt onder de indruk van die hardspell review. Phenom gebruikt, is nu niet echt de snelste proc. HD4850 maar tot 700 mhz? Met ATT kan die een stuk verder en kan je het voltage ook nog een stap omhoog doen. Beetje gemiste kans.
Ook de Hi-Tech review vind ik niet heel goed. Ze benchen niet tegen kaarten in het zelfde prijs segment, nu is vergelijken een stuk moeilijker.
Dat ze geen ATT gebruiken is wel jammer. Een HD4850 kan wel tot 750 core komen met goede cooling. Met de stock cooler zal dat lastig zijn. Maar in ieder geval hoger dan 700.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
dat er 1 vraag gesteld wordt die offtopic is is vervelend inderdaad om te lezen, maar heel soms ook wel te begrijpen als er iemand een brandende vraag heeft en niet zo snel weet waar hij die moet plaatsen.
wat ik VEEL vervelender nog vind om te lezen is dat er vervolgens 5 a 6 posts gaan over het afblaffen van diegene en de discussie daarover! ik denk dat velen dit met mij eens zullen zijn.
dus kunnen we dit misschien afspreken? : verkeerde vragen of posts of whatever worden niet inhoudelijk beantwoord en slechts EEN iemand antwoord hierop dat het niet toegestaan is en that's it. houd het topic een stuk rustiger en leuker om te lezen imho.
verder voor de geintresseerden: ik heb het hier meermalen gevraagd en eigenlijk geen duidelijk antwoord gekregen: kan er eventueel een geforce 8 voor physics worden gebruikt naast een 4870 voor graphics? ik heb inmiddels een 8800gts (g80) getest naast mijn 4870 op een msi 750i sli bordje en NEE, het kan absoluut NIET
drivers maken er een zootje van en telkens wordt er 1 van beide kaarten niet volledig herkend en/of de driver niet functioneel. hopelijk veranderd dit in de toekomst maar vooralsnog met de huidige drivers dus niet mogelijk helaas..... (sommige van jullie hadden dit al voorspeld maar niet geprobeerd.....)
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
nee, geen blauwe schermen of vastlopers gehad. maar als de ati het goed deed dan was de nvidia kaart alleen niet volledig functioneel (wel zichtbaar zonder uitroeptekens in app. beheer, en ook als kaart selecteerbaar maar alleen 640x480 8bit kleuren en physics niet inschakelbaar.)Verwijderd schreef op zaterdag 27 september 2008 @ 00:18:
Driverts van nVidia en ATI op 1 PC dat geeft blauwe schermen.
als de nvidia kaart goed werkte (die drivers eerst installeren dan dus voor de ati) , dan was het verhaal precies andersom en soms werd de ati dan helemaal niet eens zichtbaar.
kortom: beide kaarten willen baasjes spelen
Wel een beetje vreemd vind ik dit want de meeste gamen toch in 19x12 ipv 16x4 of 25x16. Dus meer dan 2 GPU's is net te weinig en 4 is weer overkill als ik het goed begrijp. Dus het beste om te werken met 19x12 als reso is dus 3 GPU's wat neer komt op bijvoorbeeld een HD4870 + HD4870X2? Misschien iets te simpel gedacht dus correct me if I'm wrong?CJ schreef op dinsdag 23 september 2008 @ 01:26:
[...]
Dus op lage resoluties zoals 12x10 en 16x4 heb je volgens AMD weinig aan 4 GPU. Op dit moment komt 4 GPU het beste uit de verf op 25x16... om precies te zijn komt AFR hier het beste uit de verf... AMD is altijd bezig met het onderzoeken naar andere vormen van rendering... getuige ook de CFX Sideport die je als opstapje kan beschouwen naar de toekomst. Zo kan bv GPU1 dingen uit het geheugen van GPU2 lezen en schrijven via de interconnect...
[...]
Edit:
Zou het qua gaming veel uitmaken als ik van een 6800Ultra AGP naar een HD3850 AGP ga? Of is dit verschil te verwaarlozen en hoef ik deze stap niet uit te voeren? Voor specs zie mijn Sig.
Heb natuurlijk een heel nieuw systeem en ben aan t wachten op de HD4870 1GB. Maargoed, ik kan zo moeilijk afstand doen van me ouwe pctje...
[ Voor 15% gewijzigd door Techno Overlord op 27-09-2008 12:30 ]
Forever raver!
Specs: Workstation Server
Dat klinkt eigenlijk exact hetzelfde als ik met mijn Crossfire setup had, alleen dan dus gewoon met 2 ATI kaarten. In de device manager kreeg ik alleen te zien dat windows de drivers niet kon laden.meljor schreef op zaterdag 27 september 2008 @ 08:30:
[...]
nee, geen blauwe schermen of vastlopers gehad. maar als de ati het goed deed dan was de nvidia kaart alleen niet volledig functioneel (wel zichtbaar zonder uitroeptekens in app. beheer, en ook als kaart selecteerbaar maar alleen 640x480 8bit kleuren en physics niet inschakelbaar.)
als de nvidia kaart goed werkte (die drivers eerst installeren dan dus voor de ati) , dan was het verhaal precies andersom en soms werd de ati dan helemaal niet eens zichtbaar.
kortom: beide kaarten willen baasjes spelen
Voor mij werkte dit: http://www.tomshardware.c...le-crossfirex-please-help
Ik betwijfel of je het hiermee wel aan de praat krijgt, maar je kunt het allicht proberen.1.Start up with only one card in the system
2.Uninstall ATI drivers through the control panel -> add/remove programs
3.Reboot into safe mode (press F8 at boot)
4.Open a command window with admin privileges
5.Run these commands from a command prompt:
-set devmgr_show_nonpresent_devices=1
-start devmgmt.msc
6.Enable show hidden devices
7.Uninstall all display adapters listed (present or non-present/hidden - they appear slightly faded); make sure to check the box to remove driver files if possible
8.Uninstall any non-present/hidden "PCI standard PCI-to-PCI bridge" devices from system devices. It may also help to uninstall other non-present hardware, but be careful about software and non plug-and-play devices (don't remove them).
9.Reboot normally
10.Let windows finish finding new hardware
11.Power down and plug in all new hardware
12.Boot and let windows finish finding new hardware
13.Reboot and let windows finish finding new hardware (if it needs to)
14.Install Catalyst 8.3 or higher
Verwijderd
TSMC heeft de vrijgave voor 40nm een paar maanden uitgesteld. IPV begin 2009 dus een paar maanden later.
Beide ATi en nVidia willen op dit process overschakelen wanneer het beschikbaar is.
Nou vraag ik me toch af wat dit voor invloed gaat hebben op de release van de RV870, R800 en varianten.
Een snelle release zal het dan wel niet worden, tenzij deze ook op 55nm geproduceert zullen worden.
Ik verwacht eerder een nieuwere archictectuur op 40nm dus niet de R(V)8xx. Wie weet komt eerst de RV780 wel om de hoek kijken op 55nm gemaakt met mooie tweaks en kleinere die size.
We zitten toch alweer op bijna een half jaar..
RV8xx gok ik gewoon 40nm. Dus in dit geval vertraging. Ze zouden inderdaad een soort RV780 kunnen maken met nog meer shaders bv 960. Echter wordt dat denk ik een heel warm kaartje. Maar dan ga je wel naar GTX280 performance toe. Echter komt nVidia nog met de 55nm GT200 cores die ook wel weer een 10-15% sneller zullen zijn dan hun 65nm variant.Verwijderd schreef op maandag 29 september 2008 @ 09:38:
Alles leuk en wel maar het hoort hier niet thuis he jongens.
TSMC heeft de vrijgave voor 40nm een paar maanden uitgesteld. IPV begin 2009 dus een paar maanden later.
Beide ATi en nVidia willen op dit process overschakelen wanneer het beschikbaar is.
Nou vraag ik me toch af wat dit voor invloed gaat hebben op de release van de RV870, R800 en varianten.
Een snelle release zal het dan wel niet worden, tenzij deze ook op 55nm geproduceert zullen worden.
Ik verwacht eerder een nieuwere archictectuur op 40nm dus niet de R(V)8xx. Wie weet komt eerst de RV780 wel om de hoek kijken op 55nm gemaakt met mooie tweaks en kleinere die size.
We zitten toch alweer op bijna een half jaar..
CJ heb jij enig idee of AMD nog met een refresh komt ? zoals vroeger de Radeon 9800 XT, X850 en de X1950 kaarten ? Of was de X2 in dit geval de boost kaart en moeten we nu wachten tot de next gen voordat we iets snellers krijgen ?
Een soort van RV780 lijkt me wel leuk nog wat meer performance
[ Voor 11% gewijzigd door Astennu op 29-09-2008 12:33 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als ik me niet vergis waren die refreshes altijd nagenoeg dezelfde performance voor een stuk lagere prijs. Aangezien de hele 4xxx serie al erg concurrerend is op prijs gebied, betwijfel ik of dat nog echt wat toevoegt. Ik denk dat ATi beter af is om gewoon de RV8xx zo snel mogelijk weer neer te zetten, met heel wat meer performance in ongeveer hetzelfde prijs gebied.Astennu schreef op maandag 29 september 2008 @ 12:23:
[...]
RV8xx gok ik gewoon 40nm. Dus in dit geval vertraging. Ze zouden inderdaad een soort RV780 kunnen maken met nog meer shaders bv 960. Echter wordt dat denk ik een heel warm kaartje. Maar dan ga je wel naar GTX280 performance toe. Echter komt nVidia nog met de 55nm GT200 cores die ook wel weer een 10-15% sneller zullen zijn dan hun 65nm variant.
CJ heb jij enig idee of AMD nog met een refresh komt ? zoals vroeger de Radeon 9800 XT, X850 en de X1950 kaarten ? Of was de X2 in dit geval de boost kaart en moeten we nu wachten tot de next gen voordat we iets snellers krijgen ?
Een soort van RV780 lijkt me wel leuk nog wat meer performance
Nee hoor de 9800 Pro en XT brachten wel degelijk een boost met zig mee. Zelfde geld voor de X850. Daar hadden ze een nieuw soort techniek gebruikt waardoor de clocks omhoog konden. En bij de X1950 scheelde het niet heel veel maar ook iets sneller geheugen.Depep schreef op maandag 29 september 2008 @ 13:57:
[...]
Als ik me niet vergis waren die refreshes altijd nagenoeg dezelfde performance voor een stuk lagere prijs. Aangezien de hele 4xxx serie al erg concurrerend is op prijs gebied, betwijfel ik of dat nog echt wat toevoegt. Ik denk dat ATi beter af is om gewoon de RV8xx zo snel mogelijk weer neer te zetten, met heel wat meer performance in ongeveer hetzelfde prijs gebied.
Een getweakte RV770 met hogere clocks of zo. (5-10% boost hebt met ongeveer hetzelfde verbruik), en nog wel OC headroom. Dan heb je ook een leuke HD4890. Al vind ik zelf een RV780 met 960 shaders en dus ook meer texture units een leuker idee
[ Voor 12% gewijzigd door Astennu op 29-09-2008 14:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Nou over de RV780, de RV870 en de R8xx wordt nogal wat gespeculeerd. Sommige denken aan 2 cores op één die. Dus een soort dualcore GPU, hier verschillen de meningen nogal over omdat we nu al soort multi GPU's hebben en het dus niets anders zou zijn als een soort X2 zonder PCIe bridge. Maar wellicht wordt deze zogenaamde dualcorechip door applicaties wel als een echte single core 2x snellere chip behandeld zonder de nadelen van CF.
Iemand op B3D heeft het zelfs over een Master processor met 1 t/m 4 Slaves waarvan het aantal wordt bepaald voor de daar toe bestemde prijsklasse. Dit deed mij meteen denken aan een roadmap van Intel die een 100 cores chip toonde met één master core maar dat was op één Die.
B3D http://forum.beyond3d.com...p?p=1208228&postcount=137
Rage3D http://www.rage3d.net/board/showthread.php?t=33928015
Zeer veel interessante speculatie.
RV780 lijkt me eerder de specs te hebben die nu aan de RV870 worden toegeschreven namelijk met 960SP's en 20% sneller ongeacht wat de naam ook zal zijn.
Deze specs komen overeen met een refresh, ook het aanhouden van 55nm en de uitstel van 40nm duiden daarop.
Maar hoe krijgt ATi die GPU Die formaat nou zoveel kleiner terwijl ze ook nog eens extra Alu's toevoegen?? ( Oh kijk eens even naar die HD46x0 met 320SP's op 145nm, de RV670 was toch ook 55nm
De refresh lijkt in ieder geval rond december te komen wat ook klopt ak de roadmap, juni -> december.
Nu in Oktober even een 4850X2 (bedankt hacku) en een HD4830 voor ons.
Nou ik laat die 4000SP's nog even voor wat het is
Verwijderd
Vreemd, maar wel hoopgevend, misschien (in oktober) dus toch een HD4850X2.Hacku schreef op maandag 29 september 2008 @ 15:06:
Volgens mij is deze slide nog niet langsgekomen:
[afbeelding]
CJ vertelde namelijk dat de release van de HD4850X2 afhangt van de AIB's, en niet van ATI zelf.
Aangezien ik nog niets concreets over de release van de HD4850X2 voorbij heb zien komen, waar danook, zie ik het somber in.
houdt vingers gekruist
Klopt, beide 55nm. Maar de nieuwe RV730 heeft verbeterde shaderunits die kleiner zijn dan die in de vorige serie. Daarnaast is de geheugenbus gekrompen van 256 bit voor de RV670 naar 128 bit voor de RV730. Dat maakt hem al een stuk kleiner.Verwijderd schreef op maandag 29 september 2008 @ 17:06:
[...]
Maar hoe krijgt ATi die GPU Die formaat nou zoveel kleiner terwijl ze ook nog eens extra Alu's toevoegen?? ( Oh kijk eens even naar die HD46x0 met 320SP's op 145nm, de RV670 was toch ook 55nm)
Vind het trouwens wel knap dat ze een nieuwe budgetchip hebben weten te maken op 70 mm², dat is maar de helft groter dan een Atom processor ofzo.. Zoiets zou makkelijk in een geintegreerde oplossing met de chipset gebouwd kunnen worden.
Goud is geen geld
Das bijna dezelfde als wat ik zelf al een tijdje in de first post heb gezet.Hacku schreef op maandag 29 september 2008 @ 15:06:
Volgens mij is deze slide nog niet langsgekomen:
[afbeelding]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De R580+ die in de X1950XT en XTX zat was geen procedé-verkleining. Het was gewoon nog steeds 90nm, maar dan een andere revisie R580. Er waren wat dingen getweaked en de veranderingen waren groot genoeg om er een andere revisie aan te geven, maar niet genoeg om het een compleet andere GPU codenaam mee te geven.Verwijderd schreef op maandag 29 september 2008 @ 17:06:
Was de X1950 ook niet een procedee verkleining en het een en ander iets efficienter gemaakt waarbij ze de clocks niet omhoog lieten gaan om zo zeer goede yields te krijgen?
RV730 -> 128-bit, crossbar memory controller, SPs zijn kleiner in formaat,Maar hoe krijgt ATi die GPU Die formaat nou zoveel kleiner terwijl ze ook nog eens extra Alu's toevoegen?? ( Oh kijk eens even naar die HD46x0 met 320SP's op 145nm, de RV670 was toch ook 55nm)
RV670 -> 256-bit, ringbus memory controller, SPs zijn groter
Vooral het veranderen van de memory controller van 256-bit naar 128-bit, het verkleinen van de SPs (maar tegelijkertijd toch sterker maken), de andere indeling van de SPs (8 clusters van 40 voor de RV730 tegen 4 clusters van 80 voor de RV670), hebben er voor gezorgd dat de GPU toch veel kleiner kon worden met hetzelfde aantal streamprocessors.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
De RV570/RV560 dus wel naar 80nm..beetje een First Post vraagje..
Mem controller is toch best wel groot idd, R600..
De nieuwe MC is wel ingekort dus geen ringbus meer, wat ongetwijfeld ook wel zal schelen.
Is het niet zo dat de dichtheid varierend kan zijn? Of mag je ervan uitgaan dat een 512-bit MC 4x groter is dan een 128-bit MC met precies dezelfde opbouw globaal gezien?
Ik heb eens gezocht of AIB's van ATi nog iets met AGP gaan doen voor de HD4xxx serie.. nog niets concreets gevonden in ieder geval. Als er al een HD4xxx AGP wordt gemaakt zal dat waarschijnlijk pas laat dit jaar zijn of aan het begin van volgende jaar pas zijn vermoed ik. Ook zal prestatie niet zo belangerijk meer zijn aangezien de moederborden ook al oud worden. Maar er zal toch nog wel een markt zijn voor DX10.1 Vista PC's op AGP, die markt wordt natuurlijk nu al vervult.
Als er GPU's zullen overblijven, kunnen we ze wel verwachten. Blijft leuk dat ze ermee door gaan en het kunnen.
AMD heeft zo'n 200M transistors bespaard door van de 512-bit MC in de R600 naar de 256-bit MC te gaan in de RV670. Dus van 720M ging men naar 520M transistors. Uiteindelijk eindigde de RV670 op 666M transistoren. Die extra 146M transistoren werden gebruikt om de GPU volledig DX10.1 compliant te maken alsook enkele tweaks door te voeren.[b][message=30814901,noline]Of mag je ervan uitgaan dat een 512-bit MC 4x groter is dan een 128-bit MC met precies dezelfde opbouw globaal gezien?
Verwacht maar niet te veel van een AGP HD4K kaart. Als er eentje komt zal het eerder een low-end zijn. De HD38x0 serie haalde vaak al de max uit de AGP CPUs (behalve dan bij de vet overgeklokte, maar dat is een veel te klein percentage om nog speciaal daarvoor high end AGP GPUs uit te brengen).Ik heb eens gezocht of AIB's van ATi nog iets met AGP gaan doen voor de HD4xxx serie.. nog niets concreets gevonden in ieder geval. Als er al een HD4xxx AGP wordt gemaakt zal dat waarschijnlijk pas laat dit jaar zijn of aan het begin van volgende jaar pas zijn vermoed ik. Ook zal prestatie niet zo belangerijk meer zijn aangezien de moederborden ook al oud worden. Maar er zal toch nog wel een markt zijn voor DX10.1 Vista PC's op AGP, die markt wordt natuurlijk nu al vervult.
Als er GPU's zullen overblijven, kunnen we ze wel verwachten. Blijft leuk dat ze ermee door gaan en het kunnen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Source? Dit is nieuw voor mij.CJ schreef op maandag 22 september 2008 @ 22:54:
... Er zijn zelfs devs die al hebben aangegeven dat ze in hun games alleen een DX10.1 fallback path maken in hun DX11 games/engines die in ontwikkeling zijn...
Source: Me. Laten we het er op houden dat ik via mijn contacten wel het een en ander gehoord heb.jeroen84 schreef op dinsdag 30 september 2008 @ 10:40:
[...]
Source? Dit is nieuw voor mij.(En evt goed nieuws!)
Je moet het overigens niet al te letterlijk nemen. DX10 kan in principe alles wel wat DX10.1 kan (nou ja, bijna alles dan), maar er zijn vaak meerdere passes nodig. Als ik het goed heb kunnen DX10 kaarten die games wel draaien via het DX10.1 path. Maar dit houdt in dat een game op een DX10 GeForce langzamer zal zijn dan een Radeon met DX10.1. Zie bv Assassin's Creed waar het DX10.1 path voor 25% snelheid zorgde met AA op Radeons, terwijl de GeForce kaarten identieke performance hadden als DX10.
Overigens is het ook veel logischer om een fallback path te maken naar DX10.1 omdat die allerlei dingen goed doet wat in DX10 omslachtig of niet goed gebeurt. Aangezien DX11 zaken zoals AA op de juiste manier afhandelt - lees: de manier zoals DX10.1 het doet - is het voor developers veel gemakkelijk om een DX10.1 path te gebruiken als fallback. DX10 videokaarten moeten er alleen wat meer werk achter zetten wanneer het bv aan komt op correcte AA rendering dan hun DX10.1 generatiegenoten.
Aangezien de HD4x00 een enorm succes is voor AMD, zal dit ook bij developers een rush hebben veroorzaakt en zullen die ook meer Radeons gebruiken tijdens hun ontwikkelfase, net zoals dat gebeurde met de R300 (en je veel later nog steeds de vruchten plukte van dat succes).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De highend en midrange waren al bedient door AMD met de HD4800 en HD4600 Serie. Nu is het de tijd om ook de budgetserie te verversen. De opvolgers van de HD3400 staan te trappelen voor de deur:

De HD4550 wordt door AMD gepositioneerd tegenover de GF9400GT. De HD4300 Serie neemt het op tegen de GF 9400GS/9300. Verwacht niet te veel van de performance in vergelijking tot de grotere broertjes uit de 4600 en 4800 Serie, maar ten op zichte van de HD3450 en HD3470 is dit wel een leuke boost. Voor HTPCs een uiterst geschikte videokaart mede dankzij de goede video capaciteiten van de kaart.
http://www.anandtech.com/video/showdoc.aspx?i=3420Not everyone needs 3D, and these cards are priced very well. And more importantly, these cards offer a real solution to a problem HTPC builders have been faced with for a long time. The Radeon 4350 and 4550 offer quiet or silent video acceleration for full resolution blu-ray playback with the option of enabling 8 channel LPCM audio playback over HDMI. If you want to build an HTPC, one of these cards would be a very good fit.
http://hothardware.com/Ar...HD-4550-Budget-DX101-GPU/
http://www.guru3d.com/art...eon-hd-4550-512mb-review/
http://www.hexus.net/content/item.php?item=15658
[ Voor 24% gewijzigd door CJ op 30-09-2008 12:41 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Jammer dat het stroomverbruik redelijk hoog is.CJ schreef op dinsdag 30 september 2008 @ 12:38:
Newsflash: AMD lanceert de HD4300 en HD4500 Serie
De highend en midrange waren al bedient door AMD met de HD4800 en HD4600 Serie. Nu is het de tijd om ook de budgetserie te verversen. De opvolgers van de HD3400 staan te trappelen voor de deur:
[afbeelding]
De HD4550 wordt door AMD gepositioneerd tegenover de GF9400GT. De HD4300 Serie neemt het op tegen de GF 9400GS/9300. Verwacht niet te veel van de performance in vergelijking tot de grotere broertjes uit de 4600 en 4800 Serie, maar ten op zichte van de HD3450 en HD3470 is dit wel een leuke boost. Voor HTPCs een uiterst geschikte videokaart mede dankzij de goede video capaciteiten van de kaart.
[...]
http://www.anandtech.com/video/showdoc.aspx?i=3420
http://hothardware.com/Ar...HD-4550-Budget-DX101-GPU/
http://www.guru3d.com/art...eon-hd-4550-512mb-review/
http://www.hexus.net/content/item.php?item=15658
[ Voor 4% gewijzigd door Phyxion op 30-09-2008 12:42 ]
'You like a gay cowboy and you look like a gay terrorist.' - James May

En zoals verwacht overklokken deze kaartjes als een gek. 750Mhz is meestal wel haalbaar op de core en meer dan 950Mhz op het geheugen moet ook wel lukken. Daarmee behaal je toch nog zo'n 20% performancewinst voor zo'n klein beetje geld.
Dit plaatje laat trouwens zien hoe schaalbaar de ATI architectuur is:

Ter vergelijking de RV730:

Alle onderdelen van de grotere broertjes zitten er in, maar alleen in mindere mate.
Overigens ook leuk uit de conclusie van Hexus, waaruit blijkt dat een aantal NV partners eigenlijk helemaal geen GF9400GT wilden insturen als directe concurrent ondanks dat de prijs gelijk is. Ze schenen het eindresultaat al te weten, dus dan sturen ze maar liever geen kaart...
Looking across to its immediate competitor, GeForce 9400 GT, the Radeon is the better card. You may be interested to learn that a few NVIDIA partners were unwilling to seed in the card as a comparison, knowing how it would fare, and that tells a story in itself.
[ Voor 35% gewijzigd door CJ op 30-09-2008 14:36 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://www.rage3d.com/board/showthread.php?t=33932940
[ Voor 11% gewijzigd door edward2 op 30-09-2008 19:40 ]
Niet op voorraad.
Kijk dat is nog eens slim van ze. Echter is nu wel de vraag of je er veel aan hebt. Fan zachter zal denk ik geen optie worden omdat er dan kans is op hardware schade. Maar harder voor wat OC werk is natuurlijk wel handigedward2 schreef op dinsdag 30 september 2008 @ 19:36:
Cat beta 8.10 RC2 met fancontrol:
http://www.rage3d.com/board/showthread.php?t=33932940
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
MEGAUPLOAD gaat bij mij altijd sloom (betalen meh), dus voor de geintresseerden:edward2 schreef op dinsdag 30 september 2008 @ 19:36:
Cat beta 8.10 RC2 met fancontrol:
http://www.rage3d.com/board/showthread.php?t=33932940
Vista (32/64 bit), NL mirrior
XP (32/64 bit), NL mirrior
[ Voor 29% gewijzigd door Paprika op 30-09-2008 23:14 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Nvidia’s Cuda GPU acceleration pays off
We’ve seen some videos of how much Cuda with Nvidia graphics card can speed up certain effects in Photoshop CS4 and Premiere CS4. This is all a part of newly announced Creative Suite 4 and support for Nvidia’s Cuda.
Nvidia takes over acceleration on its GPU and it can run tremendously and notably faster than these programs accelerated just by the CPU. In Premiere CS4, in one of the plugins, Nvidia claims up to seven times faster performance compared to raw CPU power.
We’ve seen videos of Photoshop CS4 with and without GPU and the performance of real time image rotation, instant zooming and panning are notably faster with GPU.
Brush resizing and brushstroke preview, high-dynamic tone mapping and colour conversion should run faster, too.
On Adobe After Effects CS4 you can get effects such as depth of field, bilateral blur effects, turbulent noise such as flowing water or waving flags, and cartoon effects accelerated on GPU.
Adobe Premiere Pro CS4 can also accelerate Video but only with Quadro GPUs. Photoshop works with normal Nvidia GPUs. Adobe Premiere Pro CS4 can use the Quadro GPU to accelerate high-quality video effects such as motion, opacity, color, and image distortion. They will enable faster editing of multiple high-definition video streams and graphic overlays and provide a variety of video output choices for high-quality preview, including display port, component TV, or uncompressed 10 or 12-bit SDI.
If you use Elemental RapiHD CUDA Plug-In for Premiere Pro CS4 you can get up to seven times performance gain over CPU. This plug-in can Render Blu-ray quality AVC/H.264 files in real-time, Scrub multiple streams of AVCHD and HDV video, Accelerated workflow with fast high-quality scaling, cross-dissolves, and transition effects.
As Nvidia wants to keep making money on Quadro graphic card series, Premiere effects works only on this ultra expensive professional cards but we can say that it does make a huge difference at least on video . We are working to try this in our lab environment and justify these claims but from the videos we’ve seen, the GPU accelerated Photoshop CS4 and Premiere CS4 do run notably faster than the CPU accelerated ones.
I guess this is what Intel was afraid of in the first place. A senior vice president of Creative Solutions at Adobe made a bold statement saying:"A critical element of CS4 was to capture the enormous power of the GPU. The difference is astounding. Performance is important to creative professionals and with the NVIDIA GPU, they are assured to be able to interact with images and videos in a much faster, smoother, more engaging way."
Let me remind you that this works only on Geforce 8 and 9 series GPUs and it might not run on Radeons, as ATI doesn’t support Cuda at this time. We will investigatete about this.
You can check some of the videos here but the Creative Suite 4, Photoshop CS4, and Premiere CS4 that most of you might care about should be out in October. I guess Nvidia was right, GPU can be used for "smart" things not only gaming.
Bron:
http://www.fudzilla.com/i...sk=view&id=9602&Itemid=34
Maar dit is wel het eerste programma dat intensief gebruikt maakt van CUDA en wat een grote meerwaarde bied. Echter garandeert dit nog geen succes. Sowieso maakt nVidia het zigzelf wel moeilijker omdat je een quadro moet hebben die erg duur zijn.
AMD houd zich nog erg stil. Maar goed die moeten ook nog steeds CPU's blijven verkopen. Echter zouden ze met zo iets wel een interessant platform kunnen bieden dat ook met rekentaken sneller is al een intel Platform. Door een deel van het werk naar de GPU te gooien. Echter moeten dan wel heel wat meer programma's op de GPU kunnen draaien.
Vergeet ook niet dat Intel straks met Larrabee ook een super rekenkaart heeft waar X86 code op kan draaien. En dus voor programeurs veel makkelijker is en bv CUDA. Misschien flopt hij wel als vga kaart maar je kunt er wel andere interessante dingen mee doen.
[ Voor 6% gewijzigd door Astennu op 01-10-2008 00:04 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Geen slecht nieuws. Ik weet alleen niet of AMD met een eigen aankondiging komt.stefanmiler schreef op dinsdag 30 september 2008 @ 23:17:
Dit stond hier nog niet dacht ik: (over CUDA) Wat slecht nieuw voor AMD/ATI
*** knip heel verhaal ***
Overigens maakt CS4 gebruik van OpenGL voor de acceleratie en daar is AMD nu vrij sterk in (FirePro maakt de NV Quadro's in voor veel minder geld). AMD heeft een goede relatie met Adobe en Adobe maakt ook al gebruik van FireGLs tijdens de ontwikkeling en tijdens recente demonstraties van Adobe maakten ze gebruik van Radeons om de acceleratie van CS4 te showcasen...
Om maar even een gesprek tussen een gebruiker en Adobe developer te quoten:
Oh ja, deze is ook leuk... hier zegt hij iets over de machine waarop de nieuwe Photoshop geshowcased wordt door hem:Following the announcement of CS4, there has been a discussion about the GPU acceleration in Photoshop. The debate is about whether or not PS uses CUDA, which I understand is an Nvidia only thing, and that this will cause GPU acceleration to not be available with AMD/ATi cards. Could you shed some light on this subject? Will ATi users be able to take full advantage of their GPU? Thanks.
You'll be fine with a card from either company, so long as it meets the basic specs. The more VRAM you've got, the more data we can load in there at once (useful for high-res work, 3D, and/or lots of docs open at once).
Bron: http://blogs.adobe.com/jnack/2008/09/photoshop_gpu_a.htmlWe'll have more to say once the new version is announced, but very generally I can say you'll want at least 128MB RAM on a card that's Shader Model 3.0 and OpenGL 2.0 compatible. Of course, more brawn is always welcome, and if you anticipate working with numerous large documents and/or 3D, having 512MB RAM on your card is a good idea.
For what it's worth, I've been demoing by tossing around an enormous image on a 2-year-old ATI Radeon 1600 card (256MB) in a MacBook Pro, and it does just fine. If your GPU doesn't meet Photoshop's requirements, you won't lose any features you have today, but certain new things won't be enabled. As I say, we can get into more details soon.
Zo lang de GPU maar minimaal SM3.0 ondersteunt of OGL 2.0 dan moet het ook werken op ATI Radeons.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Ben benieuwd welke kaart straks sneller is in rekenwerk de GTX280 of de HD4870 X2.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Lijkt me vrij duidelijk, een GTX 280 is gespecificeerd op 933 GFlops en een HD4870 X2 doet 2,4 TFlops. Denk niet dat NV dat zomaar in gaat halen.Astennu schreef op woensdag 01 oktober 2008 @ 09:07:
Dat is wel super nieuws CJ. Ik dacht ook dat het voorlopig nVidia only was. Dat gaat wat worden !
Ben benieuwd welke kaart straks sneller is in rekenwerk de GTX280 of de HD4870 X2.
Goud is geen geld
De plug-in zijn juist wel Cuda dus nV specifiek. Alles standaard gpgpu van adobe zelf is openGLAstennu schreef op woensdag 01 oktober 2008 @ 09:07:
Dat is wel super nieuws CJ. Ik dacht ook dat het voorlopig nVidia only was. Dat gaat wat worden !
Ben benieuwd welke kaart straks sneller is in rekenwerk de GTX280 of de HD4870 X2.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Verwijderd
Het leuke is dat Adobe enorm open staat voor samenwerking met GPU fabrikanten en vanwege hun grootte echt niet gevoelig is voor TWIMTBP achtige praktijken. Zij zijn er bij gebaat om een zo groot mogelijke doelgroep aan te spreken zodat ze hun software kunnen verkopen.
De rest van het GPU accelerated gedeelte (het grootste gedeelte dus van CS4) werkt gewoon ook op ATI Radeons.
Oooh kijk eens. Een update van Fudzilla waarin-ie schrijft dat het ook op AMD kaarten werkt.
http://www.fudzilla.com/i...ask=view&id=9718&Itemid=1ATI GPUs will do the job with Photoshop just fine and we wonder will you be able to get some acceleration in Premiere CS4 and After effects CS4 on ATI hardware. So CUDA still has to prove itself worthy.
Geweldig de manier van journalistiek bedrijven door Fud...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
voor de geïnteresseerden:
http://llvm.org/devmtg/2008-08/Rose_AdobePixelBender.pdf
http://llvm.org/devmtg/2008-08/Rose_AdobePixelBender_Hi.m4v
http://labs.adobe.com/wik...oolkit#Video_Card_Support
Verwijderd
Zet deze de fanspeed volledig vast of zet je de maximale speed vast en schakelt de kaart dan indien mogelijk nog naar beneden? Als de fanspeed namelijk volledig vast gezet wordt heeft de echte stilte-freak er denk ik niet zoveel aan.
Iemand die daar al ervaring mee heeft?
Bron: http://www.fudzilla.com/i...ask=view&id=9741&Itemid=1ATI takes massive market share in the UK
Written by Fuad Abazovic
Thursday, 02 October 2008 10:29
The power change
We've talked to a few people selling ATI and they all tell us that their sales are doing great and that the demand at the moment is much greater than for Nvidia based cards.
We've noticed that especially Radeon HD 4870 and 4850 got most of the customer hearts and they are selling like hot cakes. Also, people are adopting the 4670 and 4650 cards rather fast, as they are even more affordable.
Nvidia kind of disappointed British customers with its 9800GTX+ and 8800GT renamed to 9800GT as these cards are not enough to beat Radeon 4870 and 4850, and they cost the same or similar. The UK is not the sole case as we are hearing that all over Europe the demand for ATI cards is up while people want less Nvidia these days.
This is not a happy story if you are selling Nvidia based cards but most of Nvidia AIBs are selling both, so for them this is a win - win situation anyway.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Op de CEATEC beurs in Japan heeft AMD een testopstelling laten zien met een prototype van de HD4800 voor notebooks. De kaart, die uiteindelijk als MXM module in notebooks terecht komt, is gebaseerd op een GPU met de codenaam M98. Deze chip wordt gebakken op 55nm en zou net als de desktopversie van de kaart over de volle 800 shader units beschikken.

http://www.hardware.info/...Mobility_in_ontwikkeling/
[ Voor 40% gewijzigd door frankknopers op 02-10-2008 12:14 ]
Goud is geen geld
Zouden ze dan eindelijk een keertje op tijd komen met de Mobile versies ? Dit was eerst de sterkste kant van ATi. Nu de zwakste. nVidia chips zijn al tijden beter en eerder op de markt.
De HD38xx mobile chips begin je nu pas in laptops te zien. Dat is ook de rede dat ik toch maar geen laptop gekocht heb maar gewoon 2 extra pc's ietsjes duurder maar meer dan 2x zo snel als die laptops. Met Scherm en toetsen bord er bij kwam ik maar 300 euro hoger uit dan een laptop met een HD3850 er in. Alleen nu hebben die desktops HD4850's
[ Voor 3% gewijzigd door Astennu op 02-10-2008 12:45 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Deze tweak werkt niet op HD3850 zo te merken...edward2 schreef op dinsdag 30 september 2008 @ 19:36:
Cat beta 8.10 RC2 met fancontrol:
http://www.rage3d.com/board/showthread.php?t=33932940
Ryzen 7 5800@4.7GHz|Asus prime X570 pro|16GB G-Skill trident z rgb|Gigabyte rtx 2070 super|Custom WC van EK|chietech dragon|Corsair 750w rm x
http://www.pcgameshardwar...?article_id=661745&page=4
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!