Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
PainkillA schreef op dinsdag 27 mei 2008 @ 18:07:
zijn er al afmetingen bekend van de nieuwe kaarten? zijn deze bijv. even lang als een 8800gt?


[ Voor 81% gewijzigd door Apoca op 27-05-2008 18:11 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Niet op voorraad.
Ghehe was gewoon benieuwd of nVidia bij zijn standpunt zou blijven van DX10 is genoeg.CJ schreef op dinsdag 27 mei 2008 @ 15:27:
[...]
offtopic:
Volgens de scores die ik gekregen heb is een GTX 280 net niet twee keer zo snel als een 9800GTX op X-instellingen in Vantage.
[...]
offtopic:
Ja dat weet ik.
Graag posts die alleen maar over de competitie gaan in het topic van de competitie posten..... het is nl wel heel erg offtopic.
Tja dan heb je helemaal geen lol meer in je leven. Omdat ik milieu bewust vind ik niet dat ik dan max een HD3650 mag kopen ? Ik had ook mijn Q6600 zoals velen naar 3600 MHz kunnen clocken waardoor deze 250 watt gebruikt. En mijn HD3870 X2 dik overclocken met volt mods waardoor hij 300 watt zuipt.Cassius schreef op dinsdag 27 mei 2008 @ 17:13:
[...]
Dat staat iets van 5 posts boven je al.
Als ik goed tussen de regels lees in de vorige regels is ATi's grootste troef niet voor de consument, al is veel frames voor weinig geld een grote troef - maar het blijft een bedrijf. En dat ze vervolgens ook relatief veel meer frames halen per transister / vierkante millimeter is natuurlijk bedrijfstechnisch zeer gezond voor de marges en marketing ammunitie.
En Astennu - je zegt al een tijdje dat je milieubewust bent en nu val ik je niet persoonlijk aan; maar ik heb een beetje een irritatie aan mensen die dat overal maar claimen. Een 3870X2 is niet milieubewust, een kilowatt voeding ook niet (ook al is deze efficient, haalt hij het echt niet op efficientie met een 300Watt voeding tijdens 250Watt load bijvoorbeeld).
Imo - mensen die gewoon graag een game spelen of leuke settings en een groot scherm moeten niet continue claimen dat ze zo milieubewust zijn. Het enige waarom ik zou willen dat de kaart zuiniger was is dat de koeler stiller kan zijn en de temps niet in mijn kast oplopen.
Ik heb beide underclocked en zo veel mogelijk afgesteld op Performance per watt. Mijn werk geheugen loopt max maar op 2.1v waar vele 2.3v+ gebruiken. Ik heb express een duudere voeding genomen met een hoger Rendement. Ik denk zelfs dan mijn PC in verhouding met die van andere heel erg zuinig is. Hij is behoorlijk snel verbruik vergeleken met mijn laptop ook erg veel meer performance per watt voor een desktop met deze power is extreem goed. Ik denk dat me dat wel 200-300 watt scheeld in full load.
Echt AMD marketing
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Waarom loopt ATI nu eigenlijk weer achter de feiten aan? Kunnen ze nVidia gewoon niet bijbenen, of heeft het dit keer te maken met gewoon zoveel mogelijk geld MOETEN verdienen in de middenklasse om overeind te blijven?
Houdt dat in dat het zoiets is als 1x6 + 1x8 bij de R600 Overdrive mogelijk maakt?RV770XT Connectors 1/2
Dus 1x6 werkt goed op stock en 2x6 schakeld overdrive in in de driver?
Ze kunnen 'm ook moeilijk tegenover de GTX 280/260 uit zetten als deze een dag later gereleased wordt en ze dus de officiele performancecijfers nog niet hebben.Astennu schreef op dinsdag 27 mei 2008 @ 19:27:
Echt AMD marketingze zetten al hun kaarten dus tov de oude serie en zo te zien verwachten ze dus dat ze de GTX280 net aan kunnen met de R700.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
als dit allemaal klopt qua performance dan:
1) verkoopt nvidia maar weinig van hun nieuwe serie omdat de prijs domweg te hoog is en de hd4000 serie ook prima presteerd in alle huidige games.
2) daalt de prijs van de g92 serie gigantisch (de gx2 en 9800gtx that is) waardoor die ook voor een habbekrats te krijgen zijn en ook prima prestaties leveren.
voorlopig blijven het in ieder geval leuke tijden in de grafische markt. ik heb ATi vervloekt vanwege de matige prestaties van de 2900xt en 3870 maar daardoor zijn de prijzen wel een STUK beter geworden van beide kampen!
ik heb mijn 8800gts 512mb alvast verkocht en hoop op een waardige vervanger voor niet al teveel meerprijs.....de komende 2-3 weken kom ik wel weer door met mijn oude x1900xtx 512mb. (die het nog verbazend goed doet trouwens in de meeste games! blijft een superkaartje.)
klopt, ze hebben de pro vrij laag geclockt om het verschil groter te maken. die pro wordt dus een prima overclocker want is dezelfde chip. alleen gddr3 maar dat mag de pret niet al teveel drukken lijkt me!Edmin schreef op dinsdag 27 mei 2008 @ 21:16:
Dus van RV770Pro naar XT is 30% performance winst? Het lijkt me sterk dat dat alleen aan de GDDR5 ligt, want het verbruik ligt met 160W ook ongeveer 50% hoger. Dat zal dus flink hogere clocks betekenen...
ownage maxim schreef op dinsdag 27 mei 2008 @ 20:47:
Astennu, je 3.6ghz quad gebruikt lang geen 250watt, komt niet eens in de buurt, eerder 160watt.
En dat kan jij bepalen want jij weet precies hoeveel V hij nodig heeft om stabiel op 3.6GHz te draaien?
Komt ook omdat veel mensen naar de xtreme outervison psu calculator kijken, die echt niet realistisch is.
[ Voor 37% gewijzigd door ownage maxim op 27-05-2008 21:50 ]
Nee hoor, alleen die CPU zal echt NOOIT zoveel gebruiken. Om te testen kan ik mijn quadcore op 1.38V op 3800MHz met 2x een 3870 kaart op een 400 watt enermax draaien. Dan kan ik ook nog prima 3dmark06 draaienMensionXL schreef op dinsdag 27 mei 2008 @ 21:45:
[...]
offtopic:
En dat kan jij bepalen want jij weet precies hoeveel V hij nodig heeft om stabiel op 3.6GHz te draaien?Als hij op 1.5V/1.6V draait dan zit hij echt wel tegen de 250W aan hoor
Die nieuwe ati kaartjes zien er wel erg mooi uit moet ik zeggen. Alleen die features zoals 7.1 audio over hdmi, hoeveel mensen gebruiken dat nou werkelijk? Het idle verbruik vind ik wel heel erg mooi. Als de advies prijs maar 329 dollar is wordt het nog goedkoop ook
Het is ook de moeite om vaker te upgraden, je geeft tenminste geen 500E weg

[ Voor 9% gewijzigd door R-O-Y op 28-05-2008 00:23 ]
Ik zit gewoon achter een 19" 1280x1024 Iiyama die een responsetijd heeft van 25ms (481-s) dus al die extra frames zie ik toch nietR-O-Y schreef op woensdag 28 mei 2008 @ 00:20:
[...]
Het is ook de moeite om vaker te upgraden, je geeft tenminste geen 500E wegIk zou nu zo weer een nieuwe kaart kopen, een 3870 is voor veel dingen net niet snel genoeg op een hoge resolutie
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Zoals jij, die denkt dat dat fout is, maar ik kan je vertellen dat ik 160W met mijn Q6600 heb gemeten op 1.4V, en het voltage hakt er kwadratisch op in, dus op 1.5V of zelfs 1.6V zit je zeker tegen de 200/250W aan.ownage maxim schreef op dinsdag 27 mei 2008 @ 21:48:
zelfs op 1.8v kom je nog geen eens op 250watt. Stroomverbruik word vaak zwaar overschat.
Komt ook omdat veel mensen naar de xtreme outervison psu calculator kijken, die echt niet realistisch is.
Waar zie je dat ik het over 1.38V heb? Ik maak duidelijk dat het hier om een onbekend geval gaat waarin ownage maxim dus een ongegronde voorspelling van je verbruik doet. Dit ontkracht ik gewoon.R-O-Y schreef op woensdag 28 mei 2008 @ 00:20:
[...]
Nee hoor, alleen die CPU zal echt NOOIT zoveel gebruiken. Om te testen kan ik mijn quadcore op 1.38V op 3800MHz met 2x een 3870 kaart op een 400 watt enermax draaien. Dan kan ik ook nog prima 3dmark06 draaienWaarom denk iedereen altijd dat een computer zoveel stroom nodig heeft. Net alsof een hoog stroomverbruik "cool" is. Nou geen flauwe opmerkingen maken dat veel verbruik warmte oplevert, dat snap ik ook wel
![]()
En waar zie je mij beweren dat het 'cool' is om een hoog vebruik te hebben? (Niet dat je dit expliciet duidelijk maakt, maar je doelt wel op mij naar mijn inziens)
Maargoed, back ontopic.
Op 3200 MHz 1.3v zit hij al op iets van 140-150 watt want intel heeft wel een 3.2 GHz cpu op 1.25v en die zit al net boven de 130.
Maar goed. OVer de RV770
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
ja 2 a 3 weken van te voren zou je toch meestal wat verwachten. Knap hoor dat het zo stil blijftRappieRappie schreef op woensdag 28 mei 2008 @ 12:05:
Tja, ik vind het al aardig lang duren zonder een enkel leakje van performance.
Niet op voorraad.
GTX 280 (D10U-30): X4098
GTX 260 (D10U-20): X3782
Oh wacht, verkeerd topic.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.extremetech.com/article2/0,2845,2309870,00.asp
[ Voor 34% gewijzigd door Splinter Cell op 28-05-2008 13:52 ]
Heb je dan ook waarden die wel in dit topic thuis horen?CJ schreef op woensdag 28 mei 2008 @ 13:21:
Zoiets?
GTX 280 (D10U-30): X4098
GTX 260 (D10U-20): X3782
Oh wacht, verkeerd topic.
Klinkt goed. Ben benieuwd wat er max uit te halen valtSplinter Cell schreef op woensdag 28 mei 2008 @ 13:51:
Artikel over GDDR 5 geheugen:
[afbeelding]
http://www.extremetech.com/article2/0,2845,2309870,00.asp
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ja ben ook benieuwd. Volgens mij is GDDR 4, ook een beetje mislukt. Heb al tal van reviews gezien, waarbij een GDDR 3 & GDDR 4, het zelfde presteren of dat een GDDR 3 versie, juist iets sneller is.Astennu schreef op woensdag 28 mei 2008 @ 14:12:
[...]
Klinkt goed. Ben benieuwd wat er max uit te halen valt
DDR2 op vga kaarten was een flop maar GDDR 4 niet echt AMD is alleen een van de weinige die het gebruikt. nVidia blijft ook nu vrolijk door gaan met GDDR3.Splinter Cell schreef op woensdag 28 mei 2008 @ 15:25:
[...]
Ja ben ook benieuwd. Volgens mij is GDDR 4, ook een beetje mislukt. Heb al tal van reviews gezien, waarbij een GDDR 3 & GDDR 4, het zelfde presteren of dat een GDDR 3 versie, juist is sneller is.
GDDR4 heeft ook niet kunnen laten zien wat het max kan. Die chips kunnen wel degelijk harder dan de 2500 MHz (2250 MHz) die we tot nu toe gezien hebben. Maar als je GDDR3 op 2200 mhz gaat vergelijken met 2500 MHz GDDR4 is het verschil inderdaad veel te klein. Dat komt pas als je richting de 3.0 gaat die met een HD3870 niet mogelijk was. Waar het daar aan lag weet ik niet misschien wel de modules die er op zaten of de memory controller.
Echter bied GDDR5 wel veel voordelen. Die GDDR4 niet heeft. Verschil GDDR3 en 4 was gewoon te klein. Dat is ook de rede denk ik dat nVidia nog steeds GDDR3 gebruikt. Het is wel duidelijk dat GDDR3 tot nu toe het meest succesvolle video kaart geheugen is. De vraag is of GDDR5 dat ooit zal evenaren. Ik denk dat er dan al weer een opvolger is. Maar de verschillen zijn dit keer wel groot dus ben benieuwd.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Is de release date van moederborden met een 790gx chipset al bekend?
Wat voor benchmark?CJ schreef op woensdag 28 mei 2008 @ 13:21:
Zoiets?
GTX 280 (D10U-30): X4098
GTX 260 (D10U-20): X3782
Oh wacht, verkeerd topic.
3DMark Vantage op de zongenaamde Extreme settings. CJ post dat hier maar ff expres, maar is beetje zinloos in dit topic zonder directe ATi info over die benchmark met die setting
De meeste mensen deugen!
HD 4870XT (R770): X2595
HD 4850Pro (R770): X1981
?
Lijkt er wel aardig op. HD4870 ongeveer 30% sneller dan een HD4850. De GTX280 echter 53% sneller dan de HD3870 en iets meer dan 2x zo snel als de HD4850. Nu vraag ik me alleen af hoe zwaar cpu scores en zo mee tellen anders kan het zijn dat die GTX280 best wel een veel sneller kan zijn dan die 53%.ownage maxim schreef op woensdag 28 mei 2008 @ 20:50:
CJ, klopt deze info van forumdeluxx draadje?
HD 4870XT (R770): X2595
HD 4850Pro (R770): X1981
?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 18% gewijzigd door Apoca op 28-05-2008 22:08 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Soms kan deze jongen nog niet echt veel zeggen...Cassius schreef op woensdag 28 mei 2008 @ 19:32:
[...]
3DMark Vantage op de zongenaamde Extreme settings. CJ post dat hier maar ff expres, maar is beetje zinloos in dit topic zonder directe ATi info over die benchmark met die setting. Soms moet ie even kennis tonen geloof ik
.
Overigens scoort een GX2 op hetzelfde systeem wat ik hiervoor gebruikte X36xx en een 9800GTX zo'n ~X21xx. Tel daarbij op wat er al is gelekt... bv dat een 4870 zo'n 30% sneller dan een GTX... en trek je conclusies. Overigens schaalt Vantage aardig goed mee en dit geeft aan wat je van een R700 kan verwachten.
Ter vergelijking op de Extreme Preset met oudere drivers:
- HD3870X2 CF: X51xx
- HD3870X2: X28xx
- HD3870: X12xx
- HD3859: X11xx
- HD3870X2
@ ownage maxim: neem dat niet serieus. iemand zit de boel daar te fokken door mijn GTX 280/260 scores aan te passen en er RV770 scores van te maken.
[ Voor 41% gewijzigd door CJ op 28-05-2008 23:06 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Die X2 CF schaalt erg goed zegCJ schreef op woensdag 28 mei 2008 @ 22:23:
[...]
Soms kan deze jongen nog niet echt veel zeggen...Over de competitie daarentegen....
Overigens scoort een GX2 op hetzelfde systeem wat ik hiervoor gebruikte X36xx en een 9800GTX zo'n ~X21xx. Tel daarbij op wat er al is gelekt... bv dat een 4870 zo'n 30% sneller dan een GTX... en trek je conclusies. Overigens schaalt Vantage aardig goed mee en dit geeft aan wat je van een R700 kan verwachten.
Ter vergelijking op de Extreme Preset met oudere drivers:
- HD3870X2 CF: X51xx
- HD3870X2: X28xx
- HD3870: X12xx
- HD3859: X11xx
- HD3870X2
@ ownage maxim: neem dat niet serieus. iemand zit de boel daar te fokken door mijn GTX 280/260 scores aan te passen en er RV770 scores van te maken.
Nou interesseert 3dmark me niet echt veel. Al zal het nu wel relatief eerlijk zijn aangezien AMD en nVidia nu pas echt beginnen met optimaliseren.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
HD3850 X 11xx
HD3870 X 12xx
HD4850 X 20xx (geprognosticeerd obv 0,95 x GTX)
9800GTX X 21xx
HD4870 X 27xx (geprognosticeerd obv 1,3 x 9800GTX)
HD3870X2 X 28xx
9800GX2 X 36xx
GTX260 X 37xx
GTX280 X 41xx
HD4870X2 X >5xxx (geprognosticeerd obv 2 x HD4870)
Als ik puur de Vantage benchmarks tegen elkaar afzet dan valt mij op dat:
• De prijs/prestatieverhoudingen tussen de HD4850, HD4870, GTX260 ongeveer kloppen.
• De 9800GTX overpriced zal zijn.
• De GTX280 overpriced zal zijn.
• HD4870X2 over de GTX280 heen zal walsen in de Vantage benchmarks.
Ik realiseer mij natuurlijk wel dat dit kunstmatige benchmarks zijn.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Vantage Score inderdaad.
[ Voor 28% gewijzigd door Krizzie op 29-05-2008 11:30 ]
Verwijderd
...ik heb al veel te lang niets gedaan met benchmarktools blijkbaar.
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Klein overzicht Vantage scores:Indy91 schreef op donderdag 29 mei 2008 @ 11:18:
De lijst met de Vantage X waarden zal er dus als volgt uit kunnen gaan zien:
HD3850 X 11xx
HD3870 X 12xx
HD4850 X 20xx (geprognosticeerd obv 0,95 x GTX)
9800GTX X 21xx
HD4870 X 27xx (geprognosticeerd obv 1,3 x 9800GTX)
HD3870X2 X 28xx
9800GX2 X 36xx
GTX260 X 37xx
GTX280 X 41xx
HD4870X2 X >5xxx (geprognosticeerd obv 2 x HD4870)
Als ik puur de Vantage benchmarks tegen elkaar afzet dan valt mij op dat:
• De prijs/prestatieverhoudingen tussen de HD4850, HD4870, GTX260 ongeveer kloppen.
• De 9800GTX overpriced zal zijn.
• De GTX280 overpriced zal zijn.
• HD4870X2 over de GTX280 heen zal walsen in de Vantage benchmarks.
Ik realiseer mij natuurlijk wel dat dit kunstmatige benchmarks zijn.

Bron: http://www.nordichardware.com/news,7809.html
Goud is geen geld
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Lijkt me derhalve duidelijk dat de GT200 niet DX10.1 compatible zal zijn.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Dus als ik AC koop is het het beste dat ik de patch er niet overheen gooi dus?Indy91 schreef op donderdag 29 mei 2008 @ 13:40:
ComputerBase komt met het bericht dat er in de toekomst géén 10.1 patch meer zal komen van Assassin's Creed.![]()
Lijkt me derhalve duidelijk dat de GT200 niet DX10.1 compatible zal zijn.
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Als je een HD38xx kaart hebt, je draait Vista met SP1 en je hebt geen last van vastlopers/haperende geluiden: zeker geen patch installeren. Scheelt zo'n 20% performance decrease indien AA is enabled.TroonStaal schreef op donderdag 29 mei 2008 @ 13:51:
[...]
Dus als ik AC koop is het het beste dat ik de patch er niet overheen gooi dus?
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Ik heb het alledrie nog niet (nieuwe GPU, Vista en AC) maar het is wel iets waar ik straks mee rekening zal houden. Bedankt!Indy91 schreef op donderdag 29 mei 2008 @ 14:30:
[...]
Als je een HD38xx kaart hebt, je draait Vista met SP1 en je hebt geen last van vastlopers/haperende geluiden: zeker geen patch installeren. Scheelt zo'n 20% performance decrease indien AA is enabled.

De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Forever raver!
Specs: Workstation Server
Zowel nieuwe Nvidia als nieuwe ATI kaarten zullen bij de launch beschikbaar zijn. De NV kaarten zijn al onderweg naar warehouses in europa en zullen volgende weken arriveren. Voor ATI zal het wellicht weer een last minute job worden maar verhalen / beloftes zijn vooralsnog positief. Volgende week heb ik met NV en AMD meetings in Taiwan en dan kan ik meer vertellen hoe het zit met de periode na de launch. Laatste jaar is er altijd een grote batch voor de launch geweest waarna voor 2 of 3 maanden de supply opdroogt, laten we hopen dat het deze keer beter wordt. Ga nu mijn koffer pakken !CaptainM schreef op donderdag 29 mei 2008 @ 15:14:
Hoelang zouden we nog moeten wachten voordat we de HD4870 kunnen aanschaffen? Ik had ergens gelezen dat het medio juni zou zijn. Weet iemand meer hierover? Is ie uberhaupt al ergens te bestellen?
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Het is nu volgens mij erg leuk om jou of The Source te zijnCJ schreef op donderdag 29 mei 2008 @ 13:36:
Vanaf volgende week kan je een hele zooi aan leaks verwachten.
Nog 3 weken !!!
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Niet op voorraad.
Verwijderd

edward2 gamed altijd extreem HQ, ik snap je opmerking maar hij is hier reeds langer bekend dus wij weten zijn opmerking te plaatsenVerwijderd schreef op donderdag 29 mei 2008 @ 17:17:
off-topic @ edward2: als jouw specs kloppen zou dat met je huidige systeem toch ook wel moeten kunnen lijkt me![]()
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Verwijderd schreef op donderdag 29 mei 2008 @ 17:17:
off-topic @ edward2: als jouw specs kloppen zou dat met je huidige systeem toch ook wel moeten kunnen lijkt me![]()
Helaas, HQ dx10 in 1600x1200 in high res en aa slechts 15-20 fps en ik wil wachten totdat ik hem in volle glorie kan spelen (aa hakt er echt in met een GX2 vermoedelijk te weinig vidmem).
Ik kan wel met wat dx9 "hacks" de perf. wat opschroeven, maar nog niet genoeg.
Niet op voorraad.
Verwijderd
GTX 280 is 1.8x zo snel als een HD3870X2 in Crysis op 25x16.edward2 schreef op donderdag 29 mei 2008 @ 16:35:
Ik wil weten hoe de kaarten in Crysis scoren, die wil ik nu eindelijk wel eens spelen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hmm, dat is niet zo best, aangezien de CF/SLI nou niet echt denderend schalen in Crysis, de laatste only met aa op GX2 kaarten.CJ schreef op donderdag 29 mei 2008 @ 21:35:
[...]
GTX 280 is 1.8x zo snel als een HD3870X2 in Crysis op 25x16.
Voorbeeld:
http://www.computerbase.d...0_x2/17/#abschnitt_crysis
Edit:
Hmm, het zou opzich wel kunnen. Het is vooral de GX2 die fors inlevert met aa in de hoogste settings....de X2 houdt zich beter met aa.
Bedankt voor de info trouwens.
[ Voor 55% gewijzigd door edward2 op 29-05-2008 22:13 ]
Niet op voorraad.
Verwijderd
http://www.theinquirer.ne...idia-gt200-sucessor-tapesVerwijderd schreef op donderdag 29 mei 2008 @ 21:52:
't Begint er alsmaar slechter uit te zien voor de HD 4870 kaartjes. De 4870 is trager dan de 3870X2, de GTX 280 zou dus wel es 100% sneller mogen zijn. Maw eventjes een voordeel voor ATi in de mid-high end markt, tot nVidia weer een cutdown à la 8800GT lanceert die de wind uit ATi's zeilen neemt.
Heb je msn edward? Ik heb misschien wel iets wat je graag wilt zien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Wat zegt dat? Dat de die-shrink van de GT200 niet veel verbetering tov de originele kaarten brengt. Zegt niets over de prestatie van de kaarten, en hoe snel de mid-end kaarten van die generatie zullen zijn.
Dat ze (te) kostbaar zijn voor NVVerwijderd schreef op donderdag 29 mei 2008 @ 21:59:
[...]
Wat zegt dat? Dat de die-shrink van de GT200 niet veel verbetering tov de originele kaarten brengt. Zegt niets over de prestatie van de kaarten, en hoe snel de mid-end kaarten van die generatie zullen zijn.
Niet op voorraad.

[ Voor 73% gewijzigd door Hekking op 29-05-2008 22:06 ]
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
The Inquirer zegt dat.Verwijderd schreef op donderdag 29 mei 2008 @ 21:59:
[...]
Wat zegt dat? Dat de die-shrink van de GT200 niet veel verbetering tov de originele kaarten brengt. Zegt niets over de prestatie van de kaarten, en hoe snel de mid-end kaarten van die generatie zullen zijn.
M'n punt is dat de RV770 het helemaal niet zo slecht gaat doen. GT200 wordt sneller dan RV770, maar dat is ook zo'n beetje het enige. Het wordt geen beste tijd voor NVIDIA.
- Ze zitten met lage klokfrequenties.
- Ze zitten met een enorm complexe chip door de 512-bit geheugeninterface en 'traag' GDDR3 geheugen.
- De yields zijn extreem slecht.
- De chip krijgt een enorm TDP mee.
RV770 daarentegen gaat niet alleen goed performen, maar is ook zuinig en stukken goedkoper. Geloof mij, AIB's gaan echt wel happen op die RV770
Dit wordt de 'R600' van NVIDIA, met als enig verschil dat deze chip wel goed gaat presteren.
RV770 speelt het op veilig. Performance is niet verkeerd en d'r zitten wat leuke verbeteringen in voor de IQ/video liefhebber. Daarnaast is het stroomverbruik ook niet verkeerd.... Overigens zal NV met de GT200 flink de nadruk leggen op het lage verbruik in idle toestand, want daar doet-ie het best goed (lager dan een G92 als ik het goed gezien heb). En in principe staat een videokaart toch het overgrote deel te niksen of te 2D-en.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Meer een WhoopAss marketing als je het mij vraagt.
[ Voor 29% gewijzigd door ownage maxim op 29-05-2008 22:24 ]
Verwijderd
ik neem aan dat men een goede VGA kaart aanschaft om je games lekker vlot te kunnen afspelen op hoge reso's en niet alleen voor dat gare 3D mark gebeure

al dat gedoe over 3D mark boeit me niet zo eerlijk gezegd.
Cijfers van games als Crysis , Flight Simulator X Deluxe Edition als Call Of Duty4 als vele andere new gen tietels vind ik veel belangerijker a;s interessanter.
Over dat Error Detection Code hmm laat me denken aan ECC aka Error Correction Code komt wel overheen of zijn dit toch twee verschillende dingen?
Maar ik denk er ook zo over. Ik gok nog steeds dat het een DX10 kaart is. En ze hebben ook niet echt meer nodig met TWIMTBP weerhouden ze ATi van hun DX10.1 voordeel. Hun G80 chip deed het super ATi kan nog steeds die performance niet evenaren dus waarom iets nieuws maken als het oude al goed werkt ?Developer’s scream
We chat with a lot of knowledgeable people in the industry and we've learned quite interesting truth behind GT200 chip. Our developer friends called it brute force chip, with not so much brains.
Putting 240 Shader units in the chip that basically reminds on G80 and G92 design will naturally get things faster. More Shader units at faster clock will always make your card faster, especially at higher resolutions.
G92 with 65nm design has 128 Shaders while GT200 has 240 or almost twice as much. The die size of GT200 is much bigger than GT200 and that is how you get the fastest chip around.
Our developer friends added that the last innovation that Nvidia did was G80 and that G92 is simply a die shrink of the same idea. You can look at GT200 as G92 with 240 Shaders.
This results that GT200 will be hot but it will be powerful, let’s just hope that Nvidia yields of such a huge chip (rumoured bigger than 550mm2) will be acceptable.
Dus die stoppen alle moeite in hun Next gen kaart. Dit is een beetje wat ATi deed met de X800. ATi veranderende daar wel wat dingen maar het was wel een soort R300 x2 met tweaks. Nieuw DX9 versie en zo.
nVidia doet dit alleen nu al 3x achter elkaar met kleinere verschillen.
ATi verandert over het algemeen meer. Maar dat is op dit moment ook een must omdat hun R600 chip niet goed uit de verf kwam maar wel wel veel meer kan dat wij hebben gezien. Hopelijk is dat bij de RV770 opgelost en kan hij de GT200 toch een beetje bij houden en in CF verslaan.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Wat maakt het uit dat de AA een mega klap geeft als je er gewoon erg veel power tegen aan gooid?Our developer friends called it brute force chip, with not so much brains.
Vijf jaar ontwikkeling (G80), je wil de basis wel even kunnen gebruiken en niet na twee jaar weggooien voor een compleet nieuw ontwerp.dus waarom iets nieuws maken als het oude al goed werkt ?
CF wil wel eens beter schalen dan SLI, het jammere is dat SLI een veel groter marktaandeel heeft. Bijna niemand kent CF, SLI echter heeft iedereen als eens horen vallen. Wat natuurlijk jammer is.Hopelijk is dat bij de RV770 opgelost en kan hij de GT200 toch een beetje bij houden en in CF verslaan.
Verwijderd
Ben ik niet helemaal met je eens, een elegante oplossing, welke minder power verbruik verdient in mijn ogen toch de voorkeur. Ik denk dat mijn volgende kaart daarom de HD4850 gaat worden en geen nVidia dit keer. Dat heeft vooral te maken met het verbruik wat ik toch redelijk buitensporig vind. Dat en wat ik begreep klok de HD4850 super over en daar hou ik ook vanUiteindelijk gaat het erom dat je game snel genoeg draait, de manier waarop doet er niet echt toe.
Verwijderd
Ben benieuwd wat er van die GT200 overblijft als je 8xAA aanzet. Misschien gaat de RV770 'm dan gewoon voorbijVerwijderd schreef op vrijdag 30 mei 2008 @ 09:58:
ben het eigenlijk wel met je eens. DX 10 is een beetje kreupel in de AA en hoe lost ATI dat op? Dx10.1 om de performance daar van omhoog te trekken. Wat doet nVidia?
[...]
Wat maakt het uit dat de AA een mega klap geeft als je er gewoon erg veel power tegen aan gooid?
Niet om te flamen hoor; maar SLi werkt ook gewoon beter en in meer games heb ik ervaren.Hacku schreef op vrijdag 30 mei 2008 @ 10:31:
CF wil wel eens beter schalen dan SLI, het jammere is dat SLI een veel groter marktaandeel heeft. Bijna niemand kent CF, SLI echter heeft iedereen als eens horen vallen. Wat natuurlijk jammer is.
[ Voor 25% gewijzigd door Format-C op 30-05-2008 10:39 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dan moeten er eerst wel games worden gemaakt, die DX10.1 ook ondersteunen. Anders kan ATi er nog geen gebruik van maken. Bij AC hebben ze het er direct weer uitgehaald.Verwijderd schreef op vrijdag 30 mei 2008 @ 09:58:
ben het eigenlijk wel met je eens. DX 10 is een beetje kreupel in de AA en hoe lost ATI dat op? Dx10.1 om de performance daar van omhoog te trekken. Wat doet nVidia?
Voordeel is wel dat brute power overal van toepassing zal zijn, in elk game. Voor DX10.1 moet je wachten tot er ondersteuning in je game komt. Je kan nu een HD4850 halen en nog een jaar wachten op DX10.1 ondersteuning (of nooit). Beetje zelfde verhaal als R600 launch. Snelle chip, we moeten enkel de drivers nog optimaliseren. Koop je dus een leuke kaart maar moet je nog maanden wachten voor je hem volledig kan benutten.Ben ik niet helemaal met je eens
Verwijderd
Sja, dat is het hem dus, als dx 10.1 niet gebruikt word is het snelheids voordeel voor ATI weg en kan nVidia winnen met hun brute kracht. Darn shame. Dat vind ik ook het stomme aan vantage, geen 10.1 er in....Niet echt Future als je het mij vraagt.Dan moeten er eerst wel games worden gemaakt, die DX10.1 ook ondersteunen. Anders kan ATi er nog geen gebruik van maken. Bij AC hebben ze het er direct weer uitgehaald.
Nauwja in DX10 is het gewoon een killer voor fps om AA aan te zetten.Ben benieuwd wat er van die GT200 overblijft als je 8xAA aanzet. Misschien gaat de RV770 'm dan gewoon voorbij
Beetje flauw om de rest er af te knippen waarom ik voor die HD4850 gaVoordeel is wel dat brute power overal van toepassing zal zijn, in elk game. Voor DX10.1 moet je wachten tot er ondersteuning in je game komt. Je kan nu een HD4850 halen en nog een jaar wachten op DX10.1 ondersteuning (of nooit). Beetje zelfde verhaal als R600 launch. Snelle chip, we moeten enkel de drivers nog optimaliseren. Koop je dus een leuke kaart maar moet je nog maanden wachten voor je hem volledig kan benutten.
[ Voor 56% gewijzigd door Verwijderd op 30-05-2008 10:46 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik weet niet waar je dit vandaan haalt hoor. De HD4870 is ongeveer even snel als de 3870X2 (zie http://media.bestofmicro....original/05RV770part2.jpg), maar in games waarin CF slecht schaalt ligt dat natuurlijk wel even anders. Ik verwacht dat de HD4870 het in Crysis een stuk beter gaat doen dan de HD3870X2.Verwijderd schreef op donderdag 29 mei 2008 @ 21:52:
't Begint er alsmaar slechter uit te zien voor de HD 4870 kaartjes. De 4870 is trager dan de 3870X2, de GTX 280 zou dus wel es 100% sneller mogen zijn. Maw eventjes een voordeel voor ATi in de mid-high end markt, tot nVidia weer een cutdown à la 8800GT lanceert die de wind uit ATi's zeilen neemt.
Dat de GTX 280 in Crysis 1.8x zo snel is als een HD3870X2 is dus eigenlijk een slecht teken voor nVidia, aangezien het verschil met de HD4870 minder groot gaat zijn. Helaas voor nVidia ligt de prijs wel rond de 1.8x zoveel.
Ik denk dat nVidia op het moment niet erg slim bezig is, door zich op het E350+ segment te richten. De HD4850 haalt in 1 keer de 8800GT, 8800GTS en 9800GTX uit de markt, door op prijs, performance en power gebied beter te zijn en ondertussen is het enige waar nVidia mee komt 2 kaarten waar eigenlijk niet zo heel veel mensen op zitten te wachten. Tel daar nog eens bij op dat de grote core voor nVidia ook niet ideaal is, dan zitten ze op het moment niet echt in een ideale positie.
Weet je toevallig ook welke? Brothers in Arms 3 misschien in de toekomst? -> heeft een link met ATi.CJ schreef op vrijdag 30 mei 2008 @ 10:43:
Er zijn al enkele titels in ontwikkeling die gebruik gaan maken van DX10.1 puur en alleen vanwege het feit dat DX10.1 bepaalde dingen gemakkelijker en efficienter doet. Dan doen ze het nog niet eens puur voor de IQ verbeteringen. Dat dit gebeurt zag je ook in de reacties van een aantal developers na het AC-gedoe.
En Far Cry 2, zal het denk ik sowieso niet worden. Zag gisteren een tech-demo, en daar kwam het nVidia logo ook weer in voor.
[ Voor 4% gewijzigd door Splinter Cell op 30-05-2008 10:51 ]
Enkele titels, we willen het natuurlijk overal zien.CJ schreef op vrijdag 30 mei 2008 @ 10:43:
Er zijn al enkele titels in ontwikkeling die gebruik gaan maken van DX10.1 puur en alleen vanwege het feit dat DX10.1 bepaalde dingen gemakkelijker en efficienter doet. Dan doen ze het nog niet eens puur voor de IQ verbeteringen. Dat dit gebeurt zag je ook in de reacties van een aantal developers na het AC-gedoe.
Het verschil in zuinigheid tussen beide weet ik niet, ik heb dit topic de laatste twee maand niet kunnen volgen. Ik moet nu alles in een quick tempo doorlezen.Dat is niet DX10.1, maar gewoon omdat ie zuiniger is en goed overclocked.
Volgens mij staan er nog 9800GT kaarten op het programma.Ik denk dat nVidia op het moment niet erg slim bezig is, door zich op het E350+ segment te richten. De HD4850 haalt in 1 keer de 8800GT, 8800GTS en 9800GTX uit de markt, door op prijs, performance en power gebied beter te zijn en ondertussen is het enige waar nVidia mee komt 2 kaarten waar eigenlijk niet zo heel veel mensen op zitten te wachten. Tel daar nog eens bij op dat de grote core voor nVidia ook niet ideaal is, dan zitten ze op het moment niet echt in een ideale positie.
[ Voor 27% gewijzigd door XWB op 30-05-2008 10:56 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
160W, dat is 2x 6pin dus. Dat is heel goed, want veel voedingen hebben dit (en anders gebruik je de meegeleverde 6pin naar molex kabels). Ik heb laatst nog een 9800GX2 geplaatst bij iemand, en daar heb je 1x 8pin nodig. Geen kabels meegeleverd (8 pin naar molex is enorm schaars), dus moet je nog speciaal een voeding zoeken die een 8 pin rail heeft.Verwijderd schreef op vrijdag 30 mei 2008 @ 10:58:
HD4870 zou een TDP 160watt mee krijgen en de GTX 280 zou 240 watt TDP krijgen.
240W voor de GTX 280 is wel extreem veel, maar het is ook een ander segment. Ik lees dat de HD4870 ongeveer 329 dollar moet kosten, dat is de helft van de GTX 280 ($ 649).
[ Voor 6% gewijzigd door XWB op 30-05-2008 11:07 ]
Wat dat betreft is een RV770 wel een stuk zuiniger. Maar ja, je kan er van uit gaan dat de R700 wel weer meer verbruikt dan een GTX280.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
klopt, zeker waar en de GTX 280 zal ook wel een stuk meer presteren, maar hij is niet alleen veel duurder in aanschaf ook duurder in "onderhoud"240W voor de GTX 280 is wel extreem veel, maar het is ook een ander segment. Ik lees dat de HD4870 ongeveer 329 dollar moet kosten, dat is de helft van de GTX 280 ($ 649).
@CJ
De HD4 serie zou in idle toch ongeveer 10watt gaan doen? Dacht dat ik dat hier had gelezen?
[ Voor 33% gewijzigd door Verwijderd op 30-05-2008 11:12 ]
Die R700 kan je misschien ook wel terugklokken in 2D zoals Astennu altijd doet. Dan gebruikt die ook niet zoveel stroom idle.CJ schreef op vrijdag 30 mei 2008 @ 11:06:
GTX 280 board power is 236W om precies te zijn. GTX 260 zit op 183W. NV zal echter vooral gaan wjizen op het feit dat de GT200 60% minder stroom verbruikt in idle toestand dan een GF8800Ultra.
Wat dat betreft is een RV770 wel een stuk zuiniger. Maar ja, je kan er van uit gaan dat de R700 wel weer meer verbruikt dan een GTX280.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik zie de marketing grafiekjes al voor me.NV zal echter vooral gaan wjizen op het feit dat de GT200 60% minder stroom verbruikt in idle toestand dan een GF8800Ultra.
R700 = 2x RV770? Komt nVidia opnieuw met een GX2 opstelling (ik mag hopen van niet, 2x zo'n 280 chip op een pcb) ? Als AMD een 4870X2 moet neerzetten om de GTX 280 bij te houden, zijn ze het voordeel van zuinigheid vast kwijt (2x RV770 = 2x 160W).Maar ja, je kan er van uit gaan dat de R700 wel weer meer verbruikt dan een GTX280.
[ Voor 21% gewijzigd door XWB op 30-05-2008 11:12 ]
Verwijderd
Edit: Als ik dit extrapoleer van uit de HD3870CF vs X2 dan zit het op ~20 watt er af.
http://www.madshrimps.be/articles/Jetway-geoffrey-22166.png
en
http://www.yougamers.com/forum/showthread.php?t=73413
Power Consumption (Watts) :
Vista Idle : 138, 143
3DMark06 : 290, 310
VC-1 Decoding : 149, 150
H.264 Decoding : 153, 150
Dus dan zou het voor de HD4870X2 betekenen ~300 watt. Als we nvidia dan het zelfde geven met de GTX2 280??? Zou het 452 watt zijn. Nog maals, wat voor koeler heb je daar voor nodig?

[ Voor 78% gewijzigd door Verwijderd op 30-05-2008 11:38 ]
Voor de Europeanen is het verschil veeeeeel groter (in het voordeel van ATi)Hacku schreef op vrijdag 30 mei 2008 @ 11:05:
Ik lees dat de HD4870 ongeveer 329 dollar moet kosten, dat is de helft van de GTX 280 ($ 649).
Fudzilla komt namelijk met het bericht dat wij Europeanen (traditioneel) de hoofdprijs mogen betalen voor de GT260 en GT280.
Fudzilla komt met een raming van:
- € 400,00 - € 450,00 voor de GT260 ($449,00)
- € 600,00 voor de GT280 ($649,00)
- circa € 150,00 voor de HD4850 ($229,00)
- circa € 230,00 voor de HD4870 ($329 of $349?)
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


[ Voor 30% gewijzigd door Cassius op 30-05-2008 11:40 ]
De meeste mensen deugen!
Dat heeft niks met oplichten te maken. Meer met een (te) duur te produceren produkt dat terug moet worden verdiend. Dan heeft ATi misschien een stuk minder snelheid, maar hun kaarten zijn wel te betalen voor een doorsnee gamer.Cassius schreef op vrijdag 30 mei 2008 @ 11:38:
Ofwel, ATi eerlijk - nVidia oplichterend. Denken ze nu echt dat wij niet weten dat onze euro nu 50% fokkin sterker is dan daar. Doei nVidia
; ze willen gewoon in de high-end markt nog wat marge maken op die peperduur te produceren chips over de rug van de europeanen
!
Wat ik denk, is dat deze dure kaarten nV klanten gaat kosten, en ATi klanten gaat opleveren. En terecht. 600 euro...
[ Voor 8% gewijzigd door Format-C op 30-05-2008 12:08 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Daarom vind ik het ook jammer dat die HD4870 X2 zo laat komt. Want daar had AMD nVidia de ogen mee uit kunnen steken. Maar helaas.....
Misschien gebruikt AMD wel een nieuwe Ref chips op de X2. De X2 van de HD3870 had ook hogere clocks. Dus als de bij de nieuwe X2 de clocks gelijk houden kan het voltage heel misschien wat omlaag waardoor je niet op 2x160 watt uit gaat komen.
Ik hoop een beetje op max 250 zonder al te veel performance verlies.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit topic is gesloten.