Miss you CJ....:'( en nee... ik kan niet aan samples komen
Crysison high-end NVIDIA SLI solution only looks at most marginally better than top Xbox 360 games
Ik kan me dit heel goed voorstellen. Ik denk ook dat AMD er nu nog goed aan doet om een kaart uit te brengen gebaseerd op de "oude" architectuur. Maar ik denk dat ze net als nVidia toch richting de GPU Computing moeten. Wellicht zijn ze daar al druk mee bezig in hun Fusion project. Bulldozer zou namelijk modulair opgebouwd gaan worden. Met cores voor specifieke doel einden. Maar misschien worden die grenzen kleiner. En kunnen ze straks gewoon 60 dan die GPU cores die ook in bulldozer zouden kunnen zitten op een video kaart plakken of gewoon een chip maken waar eigenlijk 60 van die cores aan elkaar geknoopt zitten. Waardoor je een video kaart hebt die je dan ook meteen voor andere dingen kan gebruiken. Heel erg veel toekomst muziek en speculatie. Maar als je dit zo leest zitten nVidia en vooral Intel op het goede spoor. Nu is het nog te vroeg voor dat soort games. Maar in de komende jaren zal dat denk ik wel gaan veranderen.The Source schreef op maandag 17 augustus 2009 @ 00:50:
http://graphics.cs.willia...neyHPG2009/TimHPG2009.pdf
Tim Sweeney - The end of the GPU roadmap
Nee hoor. Als je ziet wat voor een GPU er in een Xbox360 zit. En hoeveel sneller een GTX285 SLI setup is. Snap je niet dat het verschil in verhouding zo klein is. Xbox 360 is gewoon heel erg geoptimaliseerd. Tuurlijk ziet de PC er wel mooier uit maar ik vind het verschil ook veel te klein als je ziet hoe veel duurder zo'n high end PC is en hoeveel meer power die heeft. Kun je na gaan wat voor een GFX je zou krijgen als je een Console met HD4890 gpu zou hebben. Dan kun je pas mooie dingen te zien krijgen ! Ik denk dat een HD4890 vergeleken met de C1 toch wel een keer of 6-8 sneller is al niet meer.Edmin schreef op maandag 17 augustus 2009 @ 09:06:
Daar maakt hij toch wat vreemde sprongen.... wat dacht je hiervan:
[...]
[ Voor 25% gewijzigd door Astennu op 17-08-2009 09:17 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Sweeney is de hater van de GPU. het nieuws dat de grafische kaart als renderer dood was verkondigde hij al in 2000. Het enige nieuwe aan het nieuwe interview is dat de datum van "sterfte" verplaatst is van 2007 naar 2012.Edmin schreef op maandag 17 augustus 2009 @ 09:06:
Daar maakt hij toch wat vreemde sprongen.... wat dacht je hiervan:
Dankzij de kortzichtigheid van deze bril hebben we dus problem met AA in alle UE3 games. Niet omdat het niet kan, maar simpelweg omdat het niet in zijn "death of the GPU roadmap" voorkomt.
Hardop verkondigen dat alleen DX10 er toe doet en vervolgens een lijst met "problemen" opnoemen die in DX11 opgelost zijn. Hij heeft z'n eigen agenda en blijft er op doordrammen als een autistische vingerhoed verzamelaar.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wat je hierboven opnoemt is een Cell ProcessorAstennu schreef op maandag 17 augustus 2009 @ 09:15:
Ik kan me dit heel goed voorstellen. Ik denk ook dat AMD er nu nog goed aan doet om een kaart uit te brengen gebaseerd op de "oude" architectuur. Maar ik denk dat ze net als nVidia toch richting de GPU Computing moeten. Wellicht zijn ze daar al druk mee bezig in hun Fusion project. Bulldozer zou namelijk modulair opgebouwd gaan worden. Met cores voor specifieke doel einden. Maar misschien worden die grenzen kleiner. En kunnen ze straks gewoon 60 dan die GPU cores die ook in bulldozer zouden kunnen zitten op een video kaart plakken of gewoon een chip maken waar eigenlijk 60 van die cores aan elkaar geknoopt zitten. Waardoor je een video kaart hebt die je dan ook meteen voor andere dingen kan gebruiken. Heel erg veel toekomst muziek en speculatie. Maar als je dit zo leest zitten nVidia en vooral Intel op het goede spoor. Nu is het nog te vroeg voor dat soort games. Maar in de komende jaren zal dat denk ik wel gaan veranderen.
Een PC in het klein dus, 1 Processor met een grafische kaart als parallelle verwerker daarnaast geplaats.
Nadel van Cell is dat het om slechts 1 single core CPU gaat, maar een CPU met GPU in een MCM package heeft niet de bandbreedte nadelen die een huidige PC heeft.
Je moet je niet blind staren op nVidia en Intel met "GPU Computing" ze roepen het wel om het hardst maar als het er op aankomt (DP support) is een GTX285 een stuk langzamer dan een RV770.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat van die AA is inderdaad mega irritant (voor diegenen die het wel zienneliz schreef op maandag 17 augustus 2009 @ 09:19:
[...]
Sweeney is de hater van de GPU. het nieuws dat de grafische kaart als renderer dood was verkondigde hij al in 2000. Het enige nieuwe aan het nieuwe interview is dat de datum van "sterfte" verplaatst is van 2007 naar 2012.
Dankzij de kortzichtigheid van deze bril hebben we dus problem met AA in alle UE3 games. Niet omdat het niet kan, maar simpelweg omdat het niet in zijn "death of the GPU roadmap" voorkomt.
Toch lijkt hij wel een punt te hebben dat CPU en GPU naar elkaar toe groeien.
Wat hij in die presentatie zegt klinkt allemaal wel logisch. Maar heb er gewoon te weinig verstand van om het echt te kunnen beoordelen. Iemand met verstand ervan zal ongetwijveld gaten kunnen schieten in zijn ideeen.
ps: nofi maar je weet dat er een edit button bestaat hè
[ Voor 12% gewijzigd door Help!!!! op 17-08-2009 10:33 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Natuurlijk kennen we nu GPGPU, maar in principe gaat het hierbij om het offloaden van taken naar de GPU, omdat de GPU gewoonweg beter geschikt is; en laat dat nu net de reden zijn dat dat ding bestaat. De GPU is uitgevonden om berekeningen van de CPU af te houden en die op een specialistischer (en dus voor die taak sneller) platform plaats te laten vinden.
Natuurlijk evolueren CPUs steeds meer naar snelheden die grafische afhandelingen mogelijk maken. Het punt is echter dat grafische engines ook steeds zwaarder worden. Schakel je AA uit, zoals Sweeney lijkt voor te staan, dan krijg je vanzelf de behoefte aan een hogere resolutie. 1920*1080@60Hz is leuk, maar in 2012 waarschijnlijk al achterhaald.
Ik denk het niet Intel heeft er te veel geld in gestoken. Ik zie die LRB's straks nog wel in servers zitten om daar wat extra rekenkracht te leveren. Maar nog niet zo zeer als echte video kaart.Edmin schreef op maandag 17 augustus 2009 @ 10:57:
Is dat wel zo? Groeien CPU en GPU naar elkaar toe? Het enige fysieke voorbeeld daarvan dat ik ken is LRB, maar daar heb ik nog niets van gezien en het zou me niets verbazen als dit uiteindelijk sterft als een stukje vaporware.
Natuurlijk kennen we nu GPGPU, maar in principe gaat het hierbij om het offloaden van taken naar de GPU, omdat de GPU gewoonweg beter geschikt is; en laat dat nu net de reden zijn dat dat ding bestaat. De GPU is uitgevonden om berekeningen van de CPU af te houden en die op een specialistischer (en dus voor die taak sneller) platform plaats te laten vinden.
Natuurlijk evolueren CPUs steeds meer naar snelheden die grafische afhandelingen mogelijk maken. Het punt is echter dat grafische engines ook steeds zwaarder worden. Schakel je AA uit, zoals Sweeney lijkt voor te staan, dan krijg je vanzelf de behoefte aan een hogere resolutie. 1920*1080@60Hz is leuk, maar in 2012 waarschijnlijk al achterhaald.
En over die software render van tim. 1920x1080 @ 60 hz is natuurlijk niet genoeg. En daar had je al 4 Tflop aan reken kracht voor nodig. Wat moet dat gaan leveren ? CPU's in ieder geval nog lang niet. Video kaarten komen al in de buurt. Een HD4890 zou rond de 1.6 Tflop zitten. Maar die kun je niet zo effectief weg weg zetten. + er zijn nu al mensen die 2560x1600 draaien. En ik zie die resolutie in de komende 3 jaar nog wel iets hoger worden. 1920x1080 is maar de helft van 2560x1600. Dus dan zou je al meer dan 8 Tflop aan power nodig hebben.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Een beter voorbeeld daarvan is Cell.Edmin schreef op maandag 17 augustus 2009 @ 10:57:
Is dat wel zo? Groeien CPU en GPU naar elkaar toe? Het enige fysieke voorbeeld daarvan dat ik ken is LRB, maar daar heb ik nog niets van gezien en het zou me niets verbazen als dit uiteindelijk sterft als een stukje vaporware.
Het probleem is bandbreedte. Om een beetje snelheid in je renderproces te houden moet je sloten bandbreedte hebben.Natuurlijk kennen we nu GPGPU, maar in principe gaat het hierbij om het offloaden van taken naar de GPU, omdat de GPU gewoonweg beter geschikt is; en laat dat nu net de reden zijn dat dat ding bestaat. De GPU is uitgevonden om berekeningen van de CPU af te houden en die op een specialistischer (en dus voor die taak sneller) platform plaats te laten vinden.
Natuurlijk evolueren CPUs steeds meer naar snelheden die grafische afhandelingen mogelijk maken. Het punt is echter dat grafische engines ook steeds zwaarder worden. Schakel je AA uit, zoals Sweeney lijkt voor te staan, dan krijg je vanzelf de behoefte aan een hogere resolutie. 1920*1080@60Hz is leuk, maar in 2012 waarschijnlijk al achterhaald.
Op dit moment heeft een GPU dat al niet (verhouding 1 op 8 voor Gbps/Tflops) en bij een CPU is dat nog veel minder. Zoals Sweeney al aangeeft wil hij een 4Tflops CPU (laten we er vanuit gaan dat de RV870 2Tflop is) en 4Gbps aan data naar de CPU toe. Wat zal dit zijn bij de RV870/ 200Gbps? 300?
Memory evolueert helaas veel langzamer dan CPU/GPU en daar zit het gebrek in. om "software only" rendering mogelijk te maken moet je on-die geheugen hebben. a la Xenos. Maar daar zijn we nog lang niet.
Daarom is de aanstormende "Fusion" ook low-end. je grafische chip wordt beperkt door het onboard DDR3. Wat dat betreft is er nog een groot verschil tussen wat wenselijk is en wat toepasbaar is.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Zo iets als AMD ook voorstelde?Astennu schreef op maandag 17 augustus 2009 @ 11:13:
[...]
Ik denk het niet Intel heeft er te veel geld in gestoken. Ik zie die LRB's straks nog wel in servers zitten om daar wat extra rekenkracht te leveren. Maar nog niet zo zeer als echte video kaart.
Wikipedia: Torrenza


Miss you CJ....:'( en nee... ik kan niet aan samples komen
Is dat niet oud nieuws of was het hier nog niet langs gekomen? (ik heb het namelijk allang gezien.neliz schreef op maandag 17 augustus 2009 @ 11:20:
Evergreen doet Wolfenstein:
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik had de andere pics al gezien van de set-up.. maar misschien moet ik meer lezen dan alleen de headlines (ik zie nu dat dit artikel verwijst naar het artikel dat ik een paar pagina's terug postte-The_Mask- schreef op maandag 17 augustus 2009 @ 11:31:
[...]
Is dat niet oud nieuws of was het hier nog niet langs gekomen? (ik heb het namelijk allang gezien.)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
RV870 is the biggest change since R600
Obama chip
ATI’s CTO (Chief Technology Officer) for graphics, Eric Demers has confirmed that the chip that they call Evergreen, DX11 is the biggest conceptual chance since the time ATI has introduced rather unsuccessful R600. R600 is the last core change in ATI's GPU design.
The RV770 can be seen as R600 done right, with lower power consumption, smaller transistors but brand new GDDR5 memory controller but it was not built from the ground up. At the same time, RV870 should be a huge leap forward in ATI’s chip design compared to R600, RV770, Eric confirms.
This is why ATI has high hopes for its Evergreen DirectX 11, something that we keep calling RV870 and naturally from outside, the card will look like advanced version of RV770 with DirectX 11 support. As U.S. President USA Obama is all about change, we've decided to link the RV870 and the presidential "change" promises. We expect a lot from both.
As we still don’t know many details about the final spec of the chip, we might be surprised about internal architecture. All in all, if it performs well, we should be happy about it.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
[ Voor 6% gewijzigd door Verwijderd op 17-08-2009 13:00 ]
Yes we canVerwijderd schreef op maandag 17 augustus 2009 @ 12:59:
Ik zie de stickers op de koeler al voor me.
Fotootjes van AMD @ Quakecon 2009 op TechPowerUP.

Nee, dat is geen Evergreen.
Dit is er wel één.

[ Voor 68% gewijzigd door -The_Mask- op 17-08-2009 13:59 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als dat een indicatie is voor de beeldkwaliteit...-The_Mask- schreef op maandag 17 augustus 2009 @ 13:54:Fotootjes van AMD @ Quakecon 2009 op TechPowerUP.
[afbeelding]
Nee, dat is geen Evergreen.
Dit is er wel één.![]()
[afbeelding]
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Nou nou nou... dat raakt kant nog wal. OpenGL steekt gewoon heel anders in elkaar dan DirectX. Ik neem aan dat je het zelf ook wel weet, maar ik al het nog even duidelijk neerzetten.CJ schreef op maandag 17 augustus 2009 @ 11:41:
...
omdat het de id Tech 4 engine gebruikt, wat een OpenGL engine is en voor het grootste deel vergelijkbaar met DX9... wat volgens sommigen nog te veel credit is)
...
Dit slaat al helemaal nergens op...Marc Rademaker schreef op maandag 17 augustus 2009 @ 13:54:
...
Fijn dat Evergreen OpenGL goed ondersteunt, maar 't blijft crap
...
Over OpenGL versus Direct3D:
OpenGL 2.1 ~= DirectX 9 (wat inderdaad wellicht wat teveel credit is nog)
OpenGL 3.0 ~= DirectX 10
OpenGL 3.2 ~= DirectX 10.1
Dit is alleen niet het complete verhaal:
In tegenstelling tot DirectX kent OpenGL extensions. Bij DirectX is het zo dat als een functie niet in DirectX zit, dan kun je hem simpelweg niet gebruiken. Bij OpenGL is het zo dat als een functie niet in de core versie van OpenGL zit (bijvoorbeeld OpenGL 2.1), dan kan die functie, mits deze geimplementeerd is in de driver van de fabrikant (AMD, nVidia, etc) toch gebruikt worden via een extensie.
Dat betekend dat je in OpenGL 2.1, met de juiste extensies een beeld niveau kan bereiken dat op DirectX 10 niveau zit.
Dat veel mensen zo neerkijken op OpenGL komt voornamelijk doordat de SDK's voor DirectX domweg heel veel beter zijn en dat de manier van programmeren in OpenGL een beetje ouderwets is (wat niet wil zeggen dat je er geen mooie graphics mee kunt maken, het is gewoon wat minder gemakkelijk).
[ Voor 8% gewijzigd door The Flying Dutchman op 17-08-2009 15:05 ]
The Flying Dutchman
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Geloof me. Ik weet hoe het werkt.The Flying Dutchman schreef op maandag 17 augustus 2009 @ 15:01:
[...]
Nou nou nou... dat raakt kant nog wal. OpenGL steekt gewoon heel anders in elkaar dan DirectX. Ik neem aan dat je het zelf ook wel weet, maar ik al het nog even duidelijk neerzetten.
Waar het me om ging was dat het eigenlijk weinig nieuwswaarde heeft om een OpenGL game die gebruikt maakt van id Tech 4 (en dus nog niet eens OGL 3.x ondersteunt) op een nieuwe next generation DX11 videokaart te showen. Een HD4890 had ook prima volstaan, aangezien een groot gedeelte van de gebruikte DX11 GPU nu uit z'n neus staat te vreten.
Men koppelt hier nu echter 1) een nieuwe DX11 videokaart aan 2) een nieuwe game, waardoor een groot gedeelte van de mensen zal denken dat Wolfenstein wellicht DX11 gebruikt (een beeld dat ik al bevestigd zie op sommige fora), terwijl dit dus absoluut niet het geval is. Maar het werkt wel om de buzz in gang te houden.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Je kan die discussie eigenlijk reduceren tot een C vs C++ discussie. Ik denk dat een officiële C++ opengl api veel kan helpen.The Flying Dutchman schreef op maandag 17 augustus 2009 @ 15:01:
Dat veel mensen zo neerkijken op OpenGL komt voornamelijk doordat de SDK's voor DirectX domweg heel veel beter zijn en dat de manier van programmeren in OpenGL een beetje ouderwets is (wat niet wil zeggen dat je er geen mooie graphics mee kunt maken, het is gewoon wat minder gemakkelijk).
Verwijderd
Ik dacht dat dit de reden was van die demo :CJ schreef op maandag 17 augustus 2009 @ 17:13:
[...]
Geloof me. Ik weet hoe het werkt.
Waar het me om ging was dat het eigenlijk weinig nieuwswaarde heeft om een OpenGL game die gebruikt maakt van id Tech 4 (en dus nog niet eens OGL 3.x ondersteunt) op een nieuwe next generation DX11 videokaart te showen. Een HD4890 had ook prima volstaan, aangezien een groot gedeelte van de gebruikte DX11 GPU nu uit z'n neus staat te vreten.
Men koppelt hier nu echter 1) een nieuwe DX11 videokaart aan 2) een nieuwe game, waardoor een groot gedeelte van de mensen zal denken dat Wolfenstein wellicht DX11 gebruikt (een beeld dat ik al bevestigd zie op sommige fora), terwijl dit dus absoluut niet het geval is. Maar het werkt wel om de buzz in gang te houden.
One of the two available systems, AMD was showing the new Wolfenstein game - though it was only running DX9 code this is an IMPORTANT thing to see as we can tell the GPU is in good working order with a fully functional game, not just SDK demos.
In dat opzicht heb je inderdaad helemaal gelijk.CJ schreef op maandag 17 augustus 2009 @ 17:13:
[...]
Geloof me. Ik weet hoe het werkt.
Waar het me om ging was dat het eigenlijk weinig nieuwswaarde heeft om een OpenGL game die gebruikt maakt van id Tech 4 (en dus nog niet eens OGL 3.x ondersteunt) op een nieuwe next generation DX11 videokaart te showen. Een HD4890 had ook prima volstaan, aangezien een groot gedeelte van de gebruikte DX11 GPU nu uit z'n neus staat te vreten.
Men koppelt hier nu echter 1) een nieuwe DX11 videokaart aan 2) een nieuwe game, waardoor een groot gedeelte van de mensen zal denken dat Wolfenstein wellicht DX11 gebruikt (een beeld dat ik al bevestigd zie op sommige fora), terwijl dit dus absoluut niet het geval is. Maar het werkt wel om de buzz in gang te houden.
The Flying Dutchman
Super leuk en interessant filmpje!
Valt me overigens weer op hoe relaxed die AMD gast weer is. Niet die opgepompte nVidia PR, maar gewoon chill.
En, oh ja, hij bevestigt en passant even dat zij de eerste zullen zijn met DX11 hardware.
(Tenzij je nv's mogelijke stunt van 100 special edition GT300's daartoe wil rekenen.....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Zal binnenkort wel ergens op een van de welbekende websites verschijnen.Avalaxy schreef op maandag 17 augustus 2009 @ 19:33:
Hoe komen jullie bij die stunt? Is dat ergens bevestigd? Volgens mij is het een dikke fabel.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 57% gewijzigd door Ultraman op 08-09-2009 23:51 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
http://game.amd.com/us-en/drivers_catalyst.aspx
http://www2.ati.com/relnotes/Catalyst_98_release_notes.pdf
Moet zeggen de notes zien der weer netjes uit
[ Voor 33% gewijzigd door Apoca op 17-08-2009 20:31 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

http://www.semiaccurate.com/2009/08/13/gt300-have-nvio-chip/
Klopt dit plaatje bij benadering? Zo ja, dan zit ATi der lekker bij met de kosten per die
[ Voor 4% gewijzigd door Apoca op 17-08-2009 20:50 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Paar dagen geleden was hier ook al wat over gezegt, misschien even terug kijken.Apoca schreef op maandag 17 augustus 2009 @ 20:47:
Klopt dit plaatje bij benadering? Zo ja, dan zit ATi der lekker bij met de kosten per die
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Charlie heeft over het algemeen redelijk betrouwbare bronnen.Apoca schreef op maandag 17 augustus 2009 @ 20:47:
[afbeelding]
http://www.semiaccurate.com/2009/08/13/gt300-have-nvio-chip/
Klopt dit plaatje bij benadering? Zo ja, dan zit ATi der lekker bij met de kosten per die
Wat niet in zijn tabelletje was opgenomen, was de prijs van de RV770 (bij benadering). Die kwam (uitgaande van een beetje meer dan 200 cores per wafer) onder de $20 uit, zo was mijn berekening. Het geeft wel een aardig beeld over de verhouding tussen nVidia en AMD waar het om verkoopprijzen gaat van hun hardware.
wat de modbreak betreft: vanwaar de felle reactie? de kans dat zo'n stunt uitgehaald wordt is gewoon mega groot aanwezig. zowel ATi als Nvidia zullen ten alle tijden proberen iets van de fanfare bij een nieuwe launch teniet te doen door desnoods een paperlaunch.
is gewoon marketing en hoort erbij.
dat het nog niet officieel gemeld is is nog geen reden om het er niet over te kunnen hebben: alle geruchten worden hier toch ook gewoon besproken? ook als ze bij voorbaat al niet waar zijn....
[ Voor 4% gewijzigd door meljor op 17-08-2009 23:45 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Radeon XD 5k serie ook een gerucht of een feit?CJ schreef op dinsdag 18 augustus 2009 @ 00:13:
Er komen hier de laatste tijd meer waarheden voorbij dan geruchten...
Dat is trouwens erg oud, het idee van XD bedoel ik.
Het hele niveau van GoT gaat sowieso met sprongen omhoog naar mijn idee.zelfs al is het nog niet elders op het web bekend gemaakt. Jammer van de felle reactie, want er zit toch wel een beetje waarheid in deze geruchten.
[ Voor 5% gewijzigd door -The_Mask- op 18-08-2009 00:26 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
AMD Takes Notebook Discrete Graphics Market Share Lead
Innovative Technologies Found in the ATI Mobility Radeon™ HD 4000 Series Drove Increased Demand from Notebook Manufacturers, Spurring an 87.27% Increase in Sales Quarter-over-Quarter* Press Release
* Source: AMD
* On Tuesday August 18, 2009, 12:01 am EDT
SUNNYVALE, Calif.--(BUSINESS WIRE)--AMD (NYSE: AMD - News) today announced that according to the latest industry data, notebook manufacturers have chosen ATI Mobility Radeon™ Premium graphics processors to drive more than half of today’s discrete graphics notebooks. The data for mobile discrete graphics reveals a 36.5% market share gain, and 87.27% more units sold quarter-over-quarter through the first six months of 2009. AMD now holds the “Number 1” position with an overall 53% mobile discrete market share. The incredible momentum behind ATI Mobility Radeon Premium graphics processors is a result of:
* Advanced performance, leading features, and innovative technology delivered by the ATI Mobility Radeon™ HD 4000 series of graphics processors, such as ATI Mobility Radeon™ HD 4530 and ATI Mobility Radeon™ 4670, including support for the latest Microsoft DirectX® 10.1 enabling a home theater-quality HD multimedia experience, and an energy-efficient design for long battery life at work, at home or at play.
* With well over 200 design wins of current and future commitments from leading manufacturers worldwide, customer adoption of the ATI Mobility Radeon HD 4000 series of graphics processors has increased across a wide range of mobile discrete notebook segments, including the HP Pavilion dv6T, Alienware M17, Acer Aspire 5739G, Toshiba Satellite M500, Sony VAIO FW Series, Samsung R522, Asus W90Vp-X1, MSI GX623 and Dell Studio 15 -- a balanced portfolio of AMD -- and competitor-based notebook platforms.
* An augmented presence in retail, including Best Buy Canada and Future Shop with a focus on the HP Pavilion dv6 Artist Edition Entertainment Notebook PC featuring AMD Turion™ Ultra X2 Dual-Core Mobile Processor and ATI Mobility Radeon™ HD 4650 graphics.
“As consumers increasingly demand greater visual computing capabilities in their notebooks, the market for discrete graphics is only expected to grow,” said Dr. Jon Peddie, founder and principal, Jon Peddie Research. “The increase in volume in the second quarter of this year, and in AMD’s mobile discrete market share, is a testament to consumers’ appetite for visual computing, and manufacturers’ readiness to satisfy it as we move into what has traditionally been the busiest season of the year.”
“AMD has worked diligently to introduce technology that gives people an incredibly compelling visual experience on a notebook platform, and the latest market data showing the phenomenal uptake of ATI Mobility Radeon™ based notebooks validates the quality of both our products and that experience,” said Matt Skynner, Vice President & General Manager, GPU Division, AMD. “We’re moving into the back-to-school and holiday seasons, and there’s also the upcoming Microsoft Windows® 7 operating system. AMD continues to provide the solutions for the mobile discrete market and ATI Mobility Radeon based notebooks.”
Source: finance.yahoo.com
Één van de redenen waarom dit niet werkt is het supersnelle geheugen dat zich op grafische kaarten bevind. Je systeemgeheugen heeft bij lange na niet dezelfde bandbreedte. Daarnaast: je kunt tegenwoordig toch ook voor 100 euro je grafische kaart upgraden naar een heel fatsoenlijk niveau!?meljor schreef op maandag 17 augustus 2009 @ 23:43:
als de tijd toch eens kwam dat we gewoon de gpu zelf konden upgraden, met slechts elke 2 jaar ofzo een nieuwe socket.... that would be the dayvoor een kleine 100 euro (verkoopprijs) een gloednieuwe gpu!
The Flying Dutchman
CJ, gaat AMD nog proberen het XGP project te reanimeren met de nieuwe chips?The Flying Dutchman schreef op dinsdag 18 augustus 2009 @ 09:08:
[...]
Één van de redenen waarom dit niet werkt is het supersnelle geheugen dat zich op grafische kaarten bevind. Je systeemgeheugen heeft bij lange na niet dezelfde bandbreedte. Daarnaast: je kunt tegenwoordig toch ook voor 100 euro je grafische kaart upgraden naar een heel fatsoenlijk niveau!?
Dat was in potentie toch wel een hele mooie manier om je grafische kaart van een laptop te upgraden:

Onderweg lange batterij levensduur, thuis wat meer power uit de externe box.
[ Voor 5% gewijzigd door whiteguy op 18-08-2009 09:42 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Zullen de uitvallende nV chips ook niet mee hebben geholpen aan dit resultaat? OEMs zullen graag betrouwbare hardware in hun systemen willen stoppen om veel RMA's (+ kosten) te voorkomen.penetreerbeer schreef op dinsdag 18 augustus 2009 @ 08:18:
Om het even niet over nieuwe technologie te hebben:AMD Takes Notebook Discrete Graphics Market Share Lead
Premium graphics processors is a result of:
* Advanced performance
* With well over 200 design wins
* An augmented presence in retail
Verwijderd
Ondertussen heeft nVidia een paar DX10.1 compliant kaarten (alhoewel de drivers dit nog niet schijnen te activeren, uitgaande van deze draadjes op het forum), maar deze zijn beperkt beschikbaar en behoorlijk laat op de markt gekomen.
Dat zegt natuurlijk nog niet dat ze het daadwerkelijk gaan blijven gebruiken en ondersteunen.neliz schreef op dinsdag 18 augustus 2009 @ 09:51:
Volgens mij hebben alle RV8X0 chips standaard XGP support.
De HD2000 serie had ook tesselation support
Inderdaadwhiteguy schreef op dinsdag 18 augustus 2009 @ 10:15:
Dat zegt natuurlijk nog niet dat ze het daadwerkelijk gaan blijven gebruiken en ondersteunen.
De HD2000 serie had ook tesselation support
Trouwens, de on-board Tesselator van HD2/3/4 is nu officieel incompatible met DX11.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Lijkt verdacht
I wish jongens.. I wish...Jb1988 schreef op dinsdag 18 augustus 2009 @ 10:25:
Zit neliz nu telkens dingen te posten die hij van CJ krijgt ingefluistert?
Ik weet in principe niet meer of minder dan jullie maar met een beetje bluf en bescheidenheid kom je al ver bij sommige mensen
Re:Tesselation. Ja het HAD al lang aanwezig moeten zijn. we hebben hiervoor N-Patches en TruForm gehad en dat gebekvecht heeft er toe geleid dat we met DX11 pas VOLLE hardwareondersteuning hiervoor krijgen.
Maargoed, dat is het verschil in marketing. nVidia pushed PhysX als een must-have feature en doneert tonnen om dat in games voor elkaar te krijgen en ATI zegt "hier heb je de manual" en betaald niet om een stukje onderscheidende kwaliteit te bieden aan de eindgebruiker.
[ Voor 40% gewijzigd door neliz op 18-08-2009 10:38 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik moet eerlijk zeggen dat dit me totaal niet opgevallen is. Wel een sterk resultaat. Een jaar of twee geleden waren ATi powered notebooks bijna onvindbaar.penetreerbeer schreef op dinsdag 18 augustus 2009 @ 08:18:
Om het even niet over nieuwe technologie te hebben:AMD Takes Notebook Discrete Graphics Market Share Lead
De volgende stap lijkt me om Intel naar de kroon te steken, want de GMA blijft natuurlijk veruit de grootste in notebookland.
Voordat ze daar zijn moeten ze eerst door de "PC=intel" barriere heen. Intel heeft natuurlijk een compleet eigen markt gemaakt met netbooks.Edmin schreef op dinsdag 18 augustus 2009 @ 10:40:
De volgende stap lijkt me om Intel naar de kroon te steken, want de GMA blijft natuurlijk veruit de grootste in notebookland.
ATI was al marktleider in 2004/2005 met M6 en M9 bijvoorbeeld, hulde VPU'sIk moet eerlijk zeggen dat dit me totaal niet opgevallen is. Wel een sterk resultaat. Een jaar of twee geleden waren ATi powered notebooks bijna onvindbaar.
[ Voor 25% gewijzigd door neliz op 18-08-2009 10:55 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
ATi is in het verleden wel sterk geweest in het notebook segment. Maar toen gewoon een hele tijd kompleet afwezig geweest. Veel te laat kwamen ze met low end maximaal midrange laptop chips uit. Terwijl nVidia gewoon ook top modellen zoals de 6800 als laptop GPU aanbood. Gelukkig is AMD daar aan gaan werken. Volgens mij zou er ook vrij snel een notebookchip op basis van de RV8xx serie moeten komen. En dat is natuurlijk slim. DX11 stikker voor de oems. Nieuwste technieken voor de eindgebruiker. Lager stroom verbruik en meer performance. Erg mooi voor discrete.Edmin schreef op dinsdag 18 augustus 2009 @ 10:40:
[...]
Ik moet eerlijk zeggen dat dit me totaal niet opgevallen is. Wel een sterk resultaat. Een jaar of twee geleden waren ATi powered notebooks bijna onvindbaar.
De volgende stap lijkt me om Intel naar de kroon te steken, want de GMA blijft natuurlijk veruit de grootste in notebookland.
Het is alleen jammer dat de AMD Laptop CPU's nog achterlopen bij de Desktop cpu's. Daar wordt volgens mij nog steeds die oude K8 core gebruikt. Ik neem aan dat die binnenkort ook een update krijgt en dan wordt het wel interessante tegenhangers voor de C2D laptops. Al komt Intel ook weer met nieuwe Core i cpu's voor laptops. En Intel verkoopt er ook altijd een IGP bij. Daarom is het voor AMD belangrijk dat de CPU's sneller worden dan kunnen ze in ieder geval ook een AMD chipset slijten. Dat is ook de rede waarom Intel nog steeds marktleider is qua grafische chips. Onboard video chips zijn er gewoon het meeste. Discrete is in verhouding een kleine markt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
GENETX in "[Algemeen] AMD nieuws en discussietopic ..."Astennu schreef op dinsdag 18 augustus 2009 @ 11:23:
[...]
Het is alleen jammer dat de AMD Laptop CPU's nog achterlopen bij de Desktop cpu's. Daar wordt volgens mij nog steeds die oude K8 core gebruikt. Ik neem aan dat die binnenkort ook een update krijgt en dan wordt het wel interessante tegenhangers voor de C2D laptops. Al komt Intel ook weer met nieuwe Core i cpu's voor laptops. En Intel verkoopt er ook altijd een IGP bij. Daarom is het voor AMD belangrijk dat de CPU's sneller worden dan kunnen ze in ieder geval ook een AMD chipset slijten. Dat is ook de rede waarom Intel nog steeds marktleider is qua grafische chips. Onboard video chips zijn er gewoon het meeste. Discrete is in verhouding een kleine markt.
RV870 (Cypress)
SIMD : 20
Shader Clock : 850
Memory Clock : 1200
Bandwidth : 153Gbps
1024Gb GDDR5
enjoy
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Maar 153 GB/s is duidelijk 256 Bit of lager. Dus ik weet zo net niet of deze specs kloppen. Immers maken ze de core 2x zo snel en het geheugen maar 20% sneller.
[ Voor 14% gewijzigd door Astennu op 18-08-2009 12:55 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Tja, de RV790 heeft al niet veel aan extra bandbreedte. Het geheugen overclocken heeft daar al erg weinig zin. Wellicht dat ze hier tegen een andere limiet aan zijn gelopen?Astennu schreef op dinsdag 18 augustus 2009 @ 12:54:
Leuk maar een RV790 core op 1000 MHz heeft al wat aan 1200 MHz GDDR5. Wat moet een Cypress core dan wel niet aan bandbreedte kunnen gebruiken ? een 256 Bit busje met 1200 MHz mem is niet genoeg. Ik verwacht toch eigenlijk dat 5-6 GHz GDDR5 spul voor dit kaartje. Of een dikkere geheugen bus.
Maar 153 GB/s is duidelijk 256 Bit of lager. Dus ik weet zo net niet of deze specs kloppen. Immers maken ze de core 2x zo snel en het geheugen maar 20% sneller.
@blastpe: thx.
Geen poster met een inside info achtergrond... http://forum.beyond3d.com/search.php?searchid=1094101
[ Voor 7% gewijzigd door Edmin op 18-08-2009 13:07 ]
1200 MHz GDDR5 met ~153 GB/s bandbreedte duidt op een 256-bit geheugenbus. GDDR4 op 1150MHz en dezelfde bus heeft namelijk ~74GB/s bandbreedte. Dit keer 2 (voor GDDR5) en je zit al bijna op 150 GB/s. Het beetje extra snelheid doet de rest.Astennu schreef op dinsdag 18 augustus 2009 @ 12:54:
Maar 153 GB/s is duidelijk 256 Bit of lager. Dus ik weet zo net niet of deze specs kloppen. Immers maken ze de core 2x zo snel en het geheugen maar 20% sneller.
Een lagere of hogere bussnelheid zou gegarandeerd andere waarden opleveren.
Vergeet overigens niet de claim dat de RV8xx core een 'revolutie' is ten opzichte van de R600. Wellicht heeft AMD nog meer ruimte gevonden om het gebruik van geheugenbandbreedte verder in te perken. Ze hadden al een efficientere oplossing dan nVidia, als je de benchmarks bekijkt, wellicht is ook nog eens verbeterd.
[ Voor 21% gewijzigd door dahakon op 18-08-2009 13:10 ]
Tussen de HD4850 en HD4870 zit zo'n 20-30% performanceverschil terwijl de core 20% hoger geklokt is en de laatste 80% meer bandbreedte heeft. En de vorige generatie vergelijken met de aankomende is natuurlijk een beetje onzinnig, want je weet nog niet wat voor optimalisaties AMD heeft doorgevoerd in hun memorycontroller. De geschiedenis leert dat ze met elke generatie efficiënter geworden zijn.Astennu schreef op dinsdag 18 augustus 2009 @ 12:54:
Leuk maar een RV790 core op 1000 MHz heeft al wat aan 1200 MHz GDDR5. Wat moet een Cypress core dan wel niet aan bandbreedte kunnen gebruiken ? een 256 Bit busje met 1200 MHz mem is niet genoeg. Ik verwacht toch eigenlijk dat 5-6 GHz GDDR5 spul voor dit kaartje. Of een dikkere geheugen bus.
Maar 153 GB/s is duidelijk 256 Bit of lager. Dus ik weet zo net niet of deze specs kloppen. Immers maken ze de core 2x zo snel en het geheugen maar 20% sneller.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat is wel zo maar dan nog. Wat ik al zij een HD4890 heeft al performance winst als je daar het geheugen gaat overclocken naar 1200 MHz. Zeker als de core ook overgeclockt werd.CJ schreef op dinsdag 18 augustus 2009 @ 13:12:
[...]
Tussen de HD4850 en HD4870 zit zo'n 20-30% performanceverschil terwijl de core 20% hoger geklokt is en de laatste 80% meer bandbreedte heeft. En de vorige generatie vergelijken met de aankomende is natuurlijk een beetje onzinnig, want je weet nog niet wat voor optimalisaties AMD heeft doorgevoerd in hun memorycontroller. De geschiedenis leert dat ze met elke generatie efficiënter geworden zijn.
En de HD4850 was memory bandwidth limited. De eerste HD4870 Frame Buffer size limited. De HD4870 1GB is een hele klap sneller dan de 512 mb. Waar de HD4850 geen echte boost kreeg van 512 naar 1024 mb. Dan worden de verschillen ineens 40-60%.
Maar je hebt gelijk. We zullen zien
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
(iets) Sneller dan de GTX 295 afgaande op specs.
(GTX 275 is gelijk aan HD4890 Stock(850Mhz core 800shaders), uit gaande van 100% scaling GTX sli = HD4890 CF, GTX 295 is 2x lager geklokte GTX 275. Cypress=1600 shaders op 850Mhz=HD4890CF. Dat is exclusief het feit van core verbeteringen)
[ Voor 38% gewijzigd door Verwijderd op 18-08-2009 14:40 ]
CJ schreef op maandag 03 augustus 2009 @ 19:12:
Update*:
Cypress ~P16xxx - P17xxx - P18xxx
Juniper XT ~P95xx
Redwood ~P46xx
* Let er wel op dat dit 'geruchten' zijn totdat de uiteindelijke launch is. Het is wat mij ter ore is gekomen, maar is dus geen garantie voor de uiteindelijke scores. Voor hetzelfde geld wordt ik hier enorm voor de gek gehouden.En de uiteindelijke performance kan verschillen en is afhankelijk van gebruikte CPU en driverversie.
[ Voor 67% gewijzigd door The Flying Dutchman op 18-08-2009 14:42 . Reden: even de `disclaimer' van CJ erbij gezet in de quote ]
The Flying Dutchman
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wat een knaller van een kaart wel zeg. De X2 daarvan moet gewoon ziek worden

BMF
6pin +8 pin power connectors, and PCB is a little bit longer than RV870.
link
RV870

gedaanneliz schreef op dinsdag 18 augustus 2009 @ 16:12:
Ik dacht, die zet ook meteen RV870 pics erbij?
[ Voor 139% gewijzigd door Blastpe op 18-08-2009 16:15 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.

Edit: P/N op de fan is dezelfde als op de HD2900XT:
7121030500G
[ Voor 69% gewijzigd door neliz op 18-08-2009 16:22 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik vraag me af of er wel X2 varianten komen. Zou het niet gewoon zo zijn dat Cypress een dual core oplossing is en dat er een tricore oplossing komt (HD59x0, oftewel Trillian).sleepwalkerbe schreef op dinsdag 18 augustus 2009 @ 16:04:
T blijft toch afwachten op de benchmarks ervan in games en dergelijke. Mijn 4870x2 doen nu ongeveer het zelfde als de Cypress , ben is benieuwd wat voor stroomverbruik die met zich meebrengt.
Wat een knaller van een kaart wel zeg. De X2 daarvan moet gewoon ziek worden
@Meljor hieronder: ja, dat is waar ook... ik benieuwd dan of er dan een dubbele versie (in wat voor opzicht dan ook... X2 of dual-core op chip) in de line up zal komen.
[ Voor 13% gewijzigd door The Flying Dutchman op 18-08-2009 16:34 ]
The Flying Dutchman
100% sneller lijkt me hiermee echter niet haalbaar tov van de rv770/rv790.
kan er iemand op fast forward drukken? word nu erg nieuwsgierig!
volgens charlie had trillian meer te maken met een kaart die drie monitoren aan kan spreken...The Flying Dutchman schreef op dinsdag 18 augustus 2009 @ 16:27:
[...]
Ik vraag me af of er wel X2 varianten komen. Zou het niet gewoon zo zijn dat Cypress een dual core oplossing is en dat er een tricore oplossing komt (HD59x0, oftewel Trillian).
Tot mijn spijt kan ik dat niet duidelijk op de foto zien.neliz schreef op dinsdag 18 augustus 2009 @ 16:12:
Ik dacht, die zet ook meteen RV870 pics erbij ter vergelijk?
[afbeelding]
Edit: P/N op de fan is dezelfde als op de HD2900XT:
7121030500G
Wat ik eruit kan halen: P/N7121???000G
(4870 P/N7121777000G; 4870X2 P/N7120070000G)
PCIe gold finger dan wel edge connectorsuperwashandje schreef op dinsdag 18 augustus 2009 @ 16:07:
dat gedeelte wat je in je pci-e slot steekt (geen idee hoe dat heet.)
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
ik kan de lengte ervan niet zo snel vinden eerlijk gezegd
[ Voor 81% gewijzigd door superwashandje op 18-08-2009 17:05 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Zo'n 9cm voor PCIe x16 (niet echt nauwkeurig gemeten, geen zin om een kaart daadwerkelijk uit z'n slot te halensuperwashandje schreef op dinsdag 18 augustus 2009 @ 17:01:
die ja!
ik kan de lengte ervan niet zo snel vinden eerlijk gezegd
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Wikipedia: PCI ExpressTGEN schreef op dinsdag 18 augustus 2009 @ 17:17:
[...]
Zo'n 9cm voor PCIe x16 (niet echt nauwkeurig gemeten, geen zin om een kaart daadwerkelijk uit z'n slot te halen).
Of je zoekt het gewoon even op op Wikipedia.
Lanes ×16
Total Length 89 mm
Length of variable section 71.65 mm
[ Voor 35% gewijzigd door dahakon op 18-08-2009 17:31 ]
Die plaatjes had ik een paar weken geleden ook al gezien. Lijkt mij meer op een mooie photosjop?Blastpe schreef op dinsdag 18 augustus 2009 @ 16:05:
R800
[afbeelding]
BMF
6pin +8 pin power connectors, and PCB is a little bit longer than RV870.
link
RV870
[afbeelding]
[...]
gedaan
Computer says no
thanks, had al snel even rondgekeken voordat ik naar de supermarkt moestTGEN schreef op dinsdag 18 augustus 2009 @ 17:17:
[...]
Zo'n 9cm voor PCIe x16 (niet echt nauwkeurig gemeten, geen zin om een kaart daadwerkelijk uit z'n slot te halen).
volgens die foto zou het dan zon 24 cm worden....lijkt nog wel te doen geloof ik
[ Voor 9% gewijzigd door superwashandje op 18-08-2009 18:26 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
http://www.xbitlabs.com/a...display/catalyst-9-8.html
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Best logisch in hun geval. Hun doen de standaard maandelijkse vergelijking van de drivers. Zodat je het verloop kunt zien. Dan ga je niet zo maar even alle games veranderen. Want dan valt er niets te vergelijken. Of je moet alles opnieuw gaan lopen testen. Extreem veel werk op de manier hoe hun dat doen.Da_DvD schreef op dinsdag 18 augustus 2009 @ 18:22:
Computerbase heeft er ook één, maar die is waardeloos want de games waarvoor verbeteringen worden genoemd, worden niet getest (of er wordt geen gebruik gemaakt van Crossfire).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
HardOCP: AMD Radeon HD 4770 CrossFire Evaluation
[ Voor 37% gewijzigd door Help!!!! op 18-08-2009 20:39 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
http://www.hardocp.com/ar...770_crossfire_evaluation/
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
hahaha ja ff verkeerde tab gekopieerd.....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

[ Voor 96% gewijzigd door spNk op 18-08-2009 20:57 ]
Nou niet minder als impressive wat een boost in sommige gamesAstennu schreef op dinsdag 18 augustus 2009 @ 18:19:
De eerste Cat 9.8 review die ik tot nu toe tegen gekomen ben:
http://www.xbitlabs.com/a...display/catalyst-9-8.html
Om ook nog even te vermelden in Company of Heroes niet alleen een flinke vooruitgang ook heb ik geen last meer van de irritante memory leak die ik eerst in de dx10 modus van het spel had (spel wou soms wel 4GB geheugen hebben, wat ook crashes veroorzaakte).
Nukezone FTW
-The_Mask- in "[Discussie] multi-core Intel's: Core 2 &..."
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
radeon 7 series
[ Voor 14% gewijzigd door Blastpe op 18-08-2009 21:41 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
"heard when u power on, the screen shows "Radeon 7", this should be read from Evergreen cards BIOS"
Overigens is dit al eerder gesuggereerd
[ Voor 22% gewijzigd door Blastpe op 18-08-2009 21:54 ]
Radeon 7870
Radeon 7850
Radeon 7830
??
|2600k|Asus 290|
Dan kloppen de geruchten toch zoals een tijd terug hier gepost waarschijnlijk toch.Blastpe schreef op dinsdag 18 augustus 2009 @ 21:49:
Ik heb de link gejat van beyond3d![]()
"heard when u power on, the screen shows "Radeon 7", this should be read from Evergreen cards BIOS"
Zou de stunt van nVidia dan zijn dat ze hun nieuwe kaarten Geforce GTX 7 gaan noemen.....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat bedenk je nu even neem ik aan.Bullus schreef op dinsdag 18 augustus 2009 @ 21:50:
Radeon 7880
Radeon 7870
Radeon 7850
Radeon 7830
??
Idd misschien komt er wel een GeForce GTX 7900Help!!!! schreef op dinsdag 18 augustus 2009 @ 21:53:
Zou de stunt van nVidia dan zijn dat ze hun nieuwe kaarten Geforce GTX 7 gaan noemen.....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dit topic is gesloten.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!