ik dacht dat de reviewers het de laatste paar generaties videokaarten wel eens waren: er zit geen opmerkbaar verschil in beeldkwaliteit in de ATI en Nvidia kaarten....
Op extreem hoge res. loopt het verder op tot 40 % met AA in Crysis Warhead en Farcry2 (ik vergelijk even een X2 vs 4890CF btw).RappieRappie schreef op donderdag 02 april 2009 @ 16:37:
2 x 6 pins is ook veel klantvriendelijker. Zo hebben mensen niet het gekloooi met hun voeding en het aansluiten met allerlei losse stekkers e.d.
2 x 6 pins is beter.
[...]
Ah, ok. Ik zal eens koekeloeren.
Edit; in de meeste gevallen is HD4890 CF zo'n 10% tot 15% sneller dan de HD4870X2. Soms iets meer. Dus HD4890 CF is gewoon de kloksnelheid sneller. 13% hogere clocks, en 10 tot 15% betere performance. Vooral op de extreem hoge reso's laten de HD4890's in CF hun power zien. Dus echt boven de 1920x1200...
-> Normaal gesproken is een kaart als je hem 10% overklokt niet automatisch 10% sneller, dus ze hebben idd wel wat zitten tweaken in die core, waardoor de HD4980 dit tov de HD4870 wel is.
Kan natuurlijk ook met de drivers te maken hebben ivm verbeterede CF-perf, zowel software, als hw-matig.
Niet op voorraad.
Nee, die is beiden op een hoog niveau waarbij DX10.1 wel verbeterde AA mogenlijkheden heeft, maar NV weer SSAA heeft, (waar ik voor gevallen ben).meljor schreef op donderdag 02 april 2009 @ 18:57:
ik dacht dat de reviewers het de laatste paar generaties videokaarten wel eens waren: er zit geen opmerkbaar verschil in beeldkwaliteit in de ATI en Nvidia kaarten....
Niet op voorraad.
In de laatste tests waar ze eind gebruikers gingen vragen welke pc het mooiste beeld gaf was ATi duidelijk de winnaar. Ze eindgebruikers wisten niet wat voor een kaart er in de PC zat.luckyjan schreef op donderdag 02 april 2009 @ 18:47:
De meeste merken die de GTX 275 maken leveren pas over 2 weken. De ati is wel snel goedkoper geworden. 209 euro bij 4launch! Ik vind nvidia een beter, scherper beeld geven in games dus ik wacht nog ff op een goed merk met de gtx 275.
Ik zie zelf eigenlijk geen tot weinig verschil tussen beide kaarten. Dus ik heb het idee dat je altijd al een voorkeur voor nVidia gehad hebt. (correct me if i'm wrong).
Ik vind ATi persoonlijk prettiger en geef ook toe dat ik sinds de 8500 daar een voorkeur voor heb. Ook al heb ik daar voor een GF1 en GF2 gehad.
Ik vind de reviews van tweakers altijd erg slecht en onvolledig. Er is ook weinig diepgang die je wel ziet bij bv: Anandtech, Xbit en Computerbase. Die van hardware info zijn al beter maar nog steeds totaal waardeloos.Splinter Cell schreef op donderdag 02 april 2009 @ 19:22:
Tweakers.net heeft 'm net online gegooid:
reviews: Radeon HD 4890: AMD's opgevoerde HD 4870 getest
[ Voor 24% gewijzigd door Astennu op 02-04-2009 19:42 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee ik heb nooit een voorkeur voor een merk gehad. Vorig jaar maakte een vriend op een lanparty mij er op attent toen hij was overgestapt naar een ati2900 (van een nvidia 8600) vond dat zijn beeld iets minder scherp was.
Hij zag het vooral aan de letters in wow. We hebben toen vergeleken met mijn nvidia kaart (een 8800GT) en inderdaad bij mij was het scherper. Hij vond dat een dusdanig probleem dat ie weer overgestapt is naar een nvidia kaart.
Bij de laatste lanparty hebben we gekeken naar iemand die een ati 4850 had en daar constateerden we nog steeds hetzelfde verschil. Geen idee of je dit nog kan aanpassen met bijv. de driver instellingen.
Ik moet wel zeggen dat als die vriend dat niet tegen me gezegd had ik het waarschijnlijk nooit gezien zou hebben. Maar nu ik het weet.... Zelfde idee van een dode pixel als je hem eenmaal gezien hebt zie je hem daarna veel vaker.
Het is dus een subjectieve mening. Op de volgende lanparty (the party in April Eindhoven) zal ik eens iemand proberen te vinden met een 4890.
Hij zag het vooral aan de letters in wow. We hebben toen vergeleken met mijn nvidia kaart (een 8800GT) en inderdaad bij mij was het scherper. Hij vond dat een dusdanig probleem dat ie weer overgestapt is naar een nvidia kaart.
Bij de laatste lanparty hebben we gekeken naar iemand die een ati 4850 had en daar constateerden we nog steeds hetzelfde verschil. Geen idee of je dit nog kan aanpassen met bijv. de driver instellingen.
Ik moet wel zeggen dat als die vriend dat niet tegen me gezegd had ik het waarschijnlijk nooit gezien zou hebben. Maar nu ik het weet.... Zelfde idee van een dode pixel als je hem eenmaal gezien hebt zie je hem daarna veel vaker.
Het is dus een subjectieve mening. Op de volgende lanparty (the party in April Eindhoven) zal ik eens iemand proberen te vinden met een 4890.
Verwijderd
http://www.fudzilla.com/i...k=view&id=12877&Itemid=34
Niet echt nieuws meer maar toch:
Sapphire will go Toxic with HD 4890
Two weeks after the official launch
We are positive that many ATI AIB partners will launch their reference and factory overclocked HD 4890 cards. We know that Asus has its TOP version ready, and that Sapphire, XFX and HIS are also going to do factory overclocked cards.
As you already know, HD 4890 will launch in two versions, overclocked and reference version, but we are pretty sure that both of these versions will use a reference cooler. Non-reference versions will come two weeks after the launch and we know that Sapphire is working on a Vapor-X Toxic version.
These cards will be more expensive than the regular HD 4890's but we believe that Sapphire's Toxic HD 4890 with Vapor-X will be at least cooler, if not even faster. We still don't have a picture of the card but we managed to score a picture of the box.
Dit lost het hele lawaai probleem op en is ook nog eens erg koel. Standaard op 900 mhz geclockt (mem blijft hetzelfde). Lijkt mij toch een van de beste oc variant van de hd4890. Vapor chamber-x heeft zich al meerdere malen bewezen bijv. hier, een review van de hd4870 2gb:
http://www.fudzilla.com/i...k=view&id=12889&Itemid=40
Niet echt nieuws meer maar toch:
Sapphire will go Toxic with HD 4890
Two weeks after the official launch
We are positive that many ATI AIB partners will launch their reference and factory overclocked HD 4890 cards. We know that Asus has its TOP version ready, and that Sapphire, XFX and HIS are also going to do factory overclocked cards.
As you already know, HD 4890 will launch in two versions, overclocked and reference version, but we are pretty sure that both of these versions will use a reference cooler. Non-reference versions will come two weeks after the launch and we know that Sapphire is working on a Vapor-X Toxic version.
These cards will be more expensive than the regular HD 4890's but we believe that Sapphire's Toxic HD 4890 with Vapor-X will be at least cooler, if not even faster. We still don't have a picture of the card but we managed to score a picture of the box.
Dit lost het hele lawaai probleem op en is ook nog eens erg koel. Standaard op 900 mhz geclockt (mem blijft hetzelfde). Lijkt mij toch een van de beste oc variant van de hd4890. Vapor chamber-x heeft zich al meerdere malen bewezen bijv. hier, een review van de hd4870 2gb:
http://www.fudzilla.com/i...k=view&id=12889&Itemid=40
Ik heb zelf ook een 8800 GT gehad. En ik heb dit niet gemerkt. En ik zie altijd de kleinste beeld foutjes die andere die ik ken dan niet gezien hebben. Misschien heeft het ook iets te maken met Kabels + het scherm dat gebruikt wordt. Ik noem maar wat. Als je een goede vergelijking wil doen moet je eigenlijk het zelfde scherm gebruiken om beide kaarten te testen. Dan kun je pas echt het verschil zien.luckyjan schreef op donderdag 02 april 2009 @ 19:57:
Nee ik heb nooit een voorkeur voor een merk gehad. Vorig jaar maakte een vriend op een lanparty mij er op attent toen hij was overgestapt naar een ati2900 (van een nvidia 8600) vond dat zijn beeld iets minder scherp was.
Hij zag het vooral aan de letters in wow. We hebben toen vergeleken met mijn nvidia kaart (een 8800GT) en inderdaad bij mij was het scherper. Hij vond dat een dusdanig probleem dat ie weer overgestapt is naar een nvidia kaart.
Bij de laatste lanparty hebben we gekeken naar iemand die een ati 4850 had en daar constateerden we nog steeds hetzelfde verschil. Geen idee of je dit nog kan aanpassen met bijv. de driver instellingen.
Ik moet wel zeggen dat als die vriend dat niet tegen me gezegd had ik het waarschijnlijk nooit gezien zou hebben. Maar nu ik het weet.... Zelfde idee van een dode pixel als je hem eenmaal gezien hebt zie je hem daarna veel vaker.
Het is dus een subjectieve mening. Op de volgende lanparty (the party in April Eindhoven) zal ik eens iemand proberen te vinden met een 4890.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
'Scherper' beeld is meer iets voor analoog.. De componenten die gebruikt werden (en worden) in het analoge gedeelte kunnen wel degelijk de scherpte en contrast beïnvloeden. Tegenwoordig gebruikt een high-end gamer toch wel dvi/hdmi waarbij dit niet meer uitmaakt.
Verschillende manieren van renderen (met AA en AF) kunnen wel een mooier plaatje in-game opleveren, de tekst bij WoW valt daar echter niet onder..
Verschillende manieren van renderen (met AA en AF) kunnen wel een mooier plaatje in-game opleveren, de tekst bij WoW valt daar echter niet onder..
Dat zou ook kunnen dat ze een D_SUB connector gebruikt hebben. Dan heb je veel slechter beeld. En dat nvidia nog wat betere filters op hun kaarten heeft zitten voor die analoge uitgangen.primusz schreef op donderdag 02 april 2009 @ 20:24:
'Scherper' beeld is meer iets voor analoog.. De componenten die gebruikt werden (en worden) in het analoge gedeelte kunnen wel degelijk de scherpte en contrast beïnvloeden. Tegenwoordig gebruikt een high-end gamer toch wel dvi/hdmi waarbij dit niet meer uitmaakt.
Verschillende manieren van renderen (met AA en AF) kunnen wel een mooier plaatje in-game opleveren, de tekst bij WoW valt daar echter niet onder..
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Inmidels aangepast op AnandtechCJ schreef op donderdag 02 april 2009 @ 14:06:
[...]
Ik hoop dat dit een geintje was van hun review:
[...]
9.4 Beta for HD 4890
Als ik de review van T.Net bekijk dan ben ik nou ook weer niet echt verrast door de Radeon HD 4890. Op bepaalde games is er wel een redelijke winst geboekt, maar soms scheelt het ook helemaal niet zo bijzonder veel. Voor een paar FPS meer moet er wel relatief gezien heel wat meer geld neergelegd worden.
Na de prijsverlaging van de Radeon HD 4870 lijkt me dat de Radeon HD 4870 de meest interessante grafische kaart voor het geld is. Maar goed, als je het beste van het beste wil dan moet er ook wat neergelegd worden.
Het overclockpotentieel dat de Radeon HD 4890 volgens verscheidene bronnen zou hebben is dan wel weer mooi meegenomen natuurlijk.
Ik ben benieuwd naar resultaten van Tweakers hier met de Radeon HD 4890.
Na de prijsverlaging van de Radeon HD 4870 lijkt me dat de Radeon HD 4870 de meest interessante grafische kaart voor het geld is. Maar goed, als je het beste van het beste wil dan moet er ook wat neergelegd worden.
Het overclockpotentieel dat de Radeon HD 4890 volgens verscheidene bronnen zou hebben is dan wel weer mooi meegenomen natuurlijk.
Ik ben benieuwd naar resultaten van Tweakers hier met de Radeon HD 4890.
Ze testen ook maar vier games.hotdog92 schreef op donderdag 02 april 2009 @ 20:57:
Als ik de review van T.Net bekijk dan ben ik nou ook weer niet echt verrast door de Radeon HD 4890. Op bepaalde games is er wel een redelijke winst geboekt, maar soms scheelt het ook helemaal niet zo bijzonder veel. Voor een paar FPS meer moet er wel relatief gezien heel wat meer geld neergelegd worden.
Na de prijsverlaging van de Radeon HD 4870 lijkt me dat de Radeon HD 4870 de meest interessante grafische kaart voor het geld is. Maar goed, als je het beste van het beste wil dan moet er ook wat neergelegd worden.
Het overclockpotentieel dat de Radeon HD 4890 volgens verscheidene bronnen zou hebben is dan wel weer mooi meegenomen natuurlijk.
Ik ben benieuwd naar resultaten van Tweakers hier met de Radeon HD 4890.
Misschien koop ik hem wel, phase changer erop en knallen maar.
[ Voor 3% gewijzigd door nFo op 02-04-2009 21:52 ]
Nee het was met een dvi-dvi aansluiting op zijn monitor (beide kaarten). Ik zal het over een paar weken nog eens bekijken en of dat te zien is op screenshots.Astennu schreef op donderdag 02 april 2009 @ 20:32:
[...]
Dat zou ook kunnen dat ze een D_SUB connector gebruikt hebben. Dan heb je veel slechter beeld. En dat nvidia nog wat betere filters op hun kaarten heeft zitten voor die analoge uitgangen.
Inmiddels is de prijs bij MyCom naar 199,95
gegaan. Zag op de site geen voorraad staan dus heb ze even gebeld. Ze zijn voor vandaag al door de voorraad heen maar morgen kregen ze er weer 100 binnen . Heb gelijk maar even een ordertje geplaatst.
Ok thanks.evl schreef op donderdag 02 april 2009 @ 22:13:
Inmiddels is de prijs bij MyCom naar 199,95gegaan. Zag op de site geen voorraad staan dus heb ze even gebeld. Ze zijn voor vandaag al door de voorraad heen maar morgen kregen ze er weer 100 binnen . Heb gelijk maar even een ordertje geplaatst.
http://www.mycom.nl/Produ...tm_campaign=tweakersclick
Controleer dan voor de gein ook even of er geen AA filter als narrow-tent of wide-tent aan staat in plaats van dat de boel op de default setting van box-filter staat. Dit kan in games met zoals WoW namelijk zorgen voor wazige letters aangezien daar ook overheen gefilterd wordt....en een blurfilter op je chattekst is alles behalve een pretje...luckyjan schreef op donderdag 02 april 2009 @ 19:57:
Het is dus een subjectieve mening. Op de volgende lanparty (the party in April Eindhoven) zal ik eens iemand proberen te vinden met een 4890.
Ik had er namelijk ook zelf last van, tot ik er achter kwam wat de oorzaak was.
Verder is de GTX275 natuurlijk een prima kaartje. Je krijgt gewoon veel waar voor je geld en dat is het belangrijkste voor ons. Door de hevige concurrentie is er nu voor ieder wat wils op elk prijsvlak, of je nu van AMD houdt of van nVidia. Het zou alleen leuker zijn voor de consument als de GTX275 nu ook echt goed verkrijgbaar was ipv bij 1 enkele leverancier (wat in mijn boek gelijk staat aan een paperlaunch). En eind dit jaar/begin volgend jaar zal het alleen maar interessanter worden als Intel zich in de strijd gaat mengen met LRB.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat mij opvalt van de 1000-en reviews dat de idle power over het algemeen (3/4 van de reviews) ongeveer gelijk is aan de 4870
Toch wel jammer kwa performance doet hij het iets beter dan ik verwacht had,ik denk nog even, de RV800 lijkt vrijdichtbij
En die prijzen gaan lekker ja
Toch wel jammer kwa performance doet hij het iets beter dan ik verwacht had,ik denk nog even, de RV800 lijkt vrijdichtbij
En die prijzen gaan lekker ja
[ Voor 11% gewijzigd door mdcobra op 02-04-2009 23:01 . Reden: lekkere prijzen ]
Haha die prijzen. Damm. Maar goed dat ik ff wacht. Straks kun je er misschien wel een voor 190 kopen
Jammer dat die XFX zo duur blijven
[ Voor 15% gewijzigd door Astennu op 02-04-2009 23:03 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Op het moment is het anders vrij duidelijk. De 275 en 4890 zijn enorm aan elkaar gewaag, maar het verschil tussen de goedkoopste modellen in de PW is 15%, de Mycom aanvieding meegenomen zelfs 20%. Dat maakt de 275 never nooit goed.CJ schreef op donderdag 02 april 2009 @ 22:47:
[...]
Verder is de GTX275 natuurlijk een prima kaartje. Je krijgt gewoon veel waar voor je geld en dat is het belangrijkste voor ons. Door de hevige concurrentie is er nu voor ieder wat wils op elk prijsvlak, of je nu van AMD houdt of van nVidia.
Zit nog erg te dubben. Sapphire komt al snel met de Toxic, wat imho betekent dat ze daar de selectie van de chips al gedaan hebben. Gevolg is mogelijk tegenvallende OC potentie van de stock kaart.
Tnx voor de tip. Zal het de volgende keer checken. Zoals jij het omschrijft zou dat idd het probleem kunnen zijn geweest.CJ schreef op donderdag 02 april 2009 @ 22:47:
[...]
Controleer dan voor de gein ook even of er geen AA filter als narrow-tent of wide-tent aan staat in plaats van dat de boel op de default setting van box-filter staat. Dit kan in games met zoals WoW namelijk zorgen voor wazige letters aangezien daar ook overheen gefilterd wordt....en een blurfilter op je chattekst is alles behalve een pretje...
Ik had er namelijk ook zelf last van, tot ik er achter kwam wat de oorzaak was.Het kan zijn dat AMD inmiddels de drivers zo heeft ingesteld dat narrow/wide tent geen invloed meer heeft op chatteksten in games, maar ik heb het verder eigenlijk niet meer getest met de custom filters.
Verder is de GTX275 natuurlijk een prima kaartje. Je krijgt gewoon veel waar voor je geld en dat is het belangrijkste voor ons. Door de hevige concurrentie is er nu voor ieder wat wils op elk prijsvlak, of je nu van AMD houdt of van nVidia. Het zou alleen leuker zijn voor de consument als de GTX275 nu ook echt goed verkrijgbaar was ipv bij 1 enkele leverancier (wat in mijn boek gelijk staat aan een paperlaunch). En eind dit jaar/begin volgend jaar zal het alleen maar interessanter worden als Intel zich in de strijd gaat mengen met LRB.
Jammer die 4890 gaat 'm niet worden, ik heb de meeste reviews doorgelezen en het blijkt dat die koeler gewoon een boel herrie maakt. Ik wil een stille (nieuwe) PC dus ga ik wel voor een andere kaart, waarschijnlijk een GTX 260, die zuiniger en stiller is (volgens de een aantal gebruikersreviews die ik gelezen heb, en daar hecht ik meer waarde aan dan die site reviews met hun belachelijk dure processors en vrijwel geen geluidstests). Ook heb ik uit verschillende user reviews dat nVidia kaarten minder problemen hebben met 24 FPS Blu-Ray/mkv weergave dus dan lijkt voor mijn situatie de keuze voor nVidia de meest geschikte.
Maar ik heb nog tot half mei, misschien is die HD 4770 of nVidia GTS 250 (ja ik weet dat 't een rebrand is maar wel 55nm dus wat zuiniger) ook wel wat, wil wel wat games spelen op 1920 x 1080 (voornamelijk wat oudere games als Oblivion en The Witcher) maar ik hoef niet persé de allerhoogste settings. Scheelt ook in de voeding ook en grootte van de kast ook.
In ieder geval: lijkt me echt zo'n "tussenkaart"die 4890 (net als dat GTX 275 geval van nVidia) en niets nieuws onder de zon. Behalve voor die-hard gamers misschien. Maar die gaan meteen voor de hele reutemeteut met SLI/Crossfire zooi waar ik al niet eens aan wil denken zoveel Watt als die krengen gaan slurpen.
Maar ik heb nog tot half mei, misschien is die HD 4770 of nVidia GTS 250 (ja ik weet dat 't een rebrand is maar wel 55nm dus wat zuiniger) ook wel wat, wil wel wat games spelen op 1920 x 1080 (voornamelijk wat oudere games als Oblivion en The Witcher) maar ik hoef niet persé de allerhoogste settings. Scheelt ook in de voeding ook en grootte van de kast ook.
In ieder geval: lijkt me echt zo'n "tussenkaart"die 4890 (net als dat GTX 275 geval van nVidia) en niets nieuws onder de zon. Behalve voor die-hard gamers misschien. Maar die gaan meteen voor de hele reutemeteut met SLI/Crossfire zooi waar ik al niet eens aan wil denken zoveel Watt als die krengen gaan slurpen.
AMD heeft vanaf het begin van de productie van de RV790 die begon rond week 7/8 gelijk aan speedbinning gedaan. De cores die met gemak 950Mhz+ haalden zijn apart gehouden en daar is de HD4890 OC SKU van gemaakt. Je hebt dus inderdaad kans dat een stock kaart minder ver overklokt, maar over het algemeen doen de meeste RV790s het nog redelijk goed. Wil je echt het creme de la creme van de RV790, dan zou ik toch echt wachten op de OC versies (met o.a. custom coolers).Edmin schreef op donderdag 02 april 2009 @ 23:01:
[...]
Zit nog erg te dubben. Sapphire komt al snel met de Toxic, wat imho betekent dat ze daar de selectie van de chips al gedaan hebben. Gevolg is mogelijk tegenvallende OC potentie van de stock kaart.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En waaneer komen deze OC SKU's uit? Want ik moet zeggen, de RV790 zit me wel te verleiden, zeker omdat het een kaart is die veel beter aan de overklok wil dan de huidige RV770. Als ik dan de RV770 verkoop en een RV790 OC koop, moet er zeker +1Ghz mogelijk zijn, omdat, voor zover ik het nu kan beoordelen, de koelers van de RV770 en RV790 helemaal identiek zijn
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Met Darkasantion. De 4870 1GB die ik nu heb gaat natuurlijk alleen weg voor een OC versie, want de winst moet gemaximaliseerd. Daarbij vind ik vooral de decibel tests met stock koeler flink tegenvallen (trade-off voor temps, I know). Ik vind het niet erg om een koeler te vervangen, maar
garantie!

ASUS lanceert een TOP versie met 900 MHz core en 4 GHz mem en ook XFX zal een dergelijk model lanceren. MSI komt met een HD4890 met 880 MHz core en ook iets hogere geheugensnelheden. Ze zijn er dus al wel, maar of de OC versies ook direct verkrijgbaar zijn weet ik niet. Morgenochtend staat er een klein overzichtje van de verschillende modellen op Hardware.info, maar die zal vast nog niet compleet zijn.Darkasantion schreef op vrijdag 03 april 2009 @ 00:02:
En waaneer komen deze OC SKU's uit? Want ik moet zeggen, de RV790 zit me wel te verleiden, zeker omdat het een kaart is die veel beter aan de overklok wil dan de huidige RV770. Als ik dan de RV770 verkoop en een RV790 OC koop, moet er zeker +1Ghz mogelijk zijn, omdat, voor zover ik het nu kan beoordelen, de koelers van de RV770 en RV790 helemaal identiek zijn
Voor 200 euro zijn dit wel hele interessante kaarten, zeker als ze in Crossfire zo'n 20 tot 30% meer fps geven tov een HD4870 X2 zoals Astennu eerder suggereerde. Gelukkig draaien alle games nog prima op mijn HD4870 X2 van augustus 2008, dus ik hoef niet up te graden.
Als ik nu zou instappen zou ik zeker de voorkeur geven aan de HD4890, omdat Crossfire ondersteuning in de meeste games toch niet verder gaat dan twee GPU's. In dat geval ben je het beste af met twee RV790's met elk een eigen PCI-E 2.0 16x verbinding naar de chipset (Intel X38, X58 en AMD 790FX bijvoorbeeld)
[ Voor 24% gewijzigd door frankknopers op 03-04-2009 01:38 ]
Goud is geen geld
Het valt me bij de review van anandtech op dat de HD4890 daar op 2560x1600 behoorlijk dropt tov 1920x1200. Waar de nVidia kaarten in verhouding minder droppen. Ik zal eens kijken of dat bij meer reviews het geval is. (de HD4870 doet dit overigens ook) misschien is er nog wat ruimte voor optimalisatie voor die resolutie.
Edit: Bij computerbase zie je dit niet zo duidelijk. Dus misschien is er iets anders aan de hand geweest. Owh well.... Zo zie je maar je nooit blind staren op 1 review ook al komt hij van een goede site. Altijd 3-4 review bekijken. Maar dat wisten we eigenlijk al
Edit: Bij computerbase zie je dit niet zo duidelijk. Dus misschien is er iets anders aan de hand geweest. Owh well.... Zo zie je maar je nooit blind staren op 1 review ook al komt hij van een goede site. Altijd 3-4 review bekijken. Maar dat wisten we eigenlijk al
[ Voor 29% gewijzigd door Astennu op 03-04-2009 07:45 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Was het ook niet Anandtech die liet zien dat bij NV de performenace met de 185 driver nu vlakker is verdeeld over de verschillende resoluties? Een beetje minder fps in de 16 en 19 reso en een beetje meer in 25.
Ik kwam een grappige review tegen van de Asus HD4890 Voltage Tweak edition:
http://www.bjorn3d.com/read.php?cID=1537&pageID=6673
Met die kaart kun je het core voltage van 1.31v naar 1.41 verhogen. Niet echt super veel maar toch. Hun hadden dit voltage nodig om de 1000 MHz te halen. In dat geval is het een niet al te beste core geweest. Maar goed het gaat mij vooral even om de optie die je hebt om het voltage aan te passen. Ik denk dat als je die BIOS in een andere kaart flasht je die tool ook kan gebruiken. Asus kennende is het tooltje gelockt en zal hij wel naar de vga bios kijken.
Al zal er ook wel een nieuwe versie van RBE komen waar je wat in kan stellen. Of misschien komt een ander merk of een ander persoon met een progje waardoor je verder kan.
http://www.bjorn3d.com/read.php?cID=1537&pageID=6673
Met die kaart kun je het core voltage van 1.31v naar 1.41 verhogen. Niet echt super veel maar toch. Hun hadden dit voltage nodig om de 1000 MHz te halen. In dat geval is het een niet al te beste core geweest. Maar goed het gaat mij vooral even om de optie die je hebt om het voltage aan te passen. Ik denk dat als je die BIOS in een andere kaart flasht je die tool ook kan gebruiken. Asus kennende is het tooltje gelockt en zal hij wel naar de vga bios kijken.
Al zal er ook wel een nieuwe versie van RBE komen waar je wat in kan stellen. Of misschien komt een ander merk of een ander persoon met een progje waardoor je verder kan.
[ Voor 16% gewijzigd door Astennu op 03-04-2009 09:14 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hardocp had "maar" 1.375 volt nodig om de 1GHz te bereiken in combinatie met 4.7 GHz mem. Ik meen ergens gelezen te hebben dat in de volgende CCC voltage controle in de ATI Overdrive zou komen. (kan het mis hebben natuurlijk)Astennu schreef op vrijdag 03 april 2009 @ 09:13:
Ik kwam een grappige review tegen van de Asus HD4890 Voltage Tweak edition:
http://www.bjorn3d.com/read.php?cID=1537&pageID=6673
Met die kaart kun je het core voltage van 1.31v naar 1.41 verhogen. Niet echt super veel maar toch. Hun hadden dit voltage nodig om de 1000 MHz te halen. In dat geval is het een niet al te beste core geweest. Maar goed het gaat mij vooral even om de optie die je hebt om het voltage aan te passen. Ik denk dat als je die BIOS in een andere kaart flasht je die tool ook kan gebruiken. Asus kennende is het tooltje gelockt en zal hij wel naar de vga bios kijken.
Al zal er ook wel een nieuwe versie van RBE komen waar je wat in kan stellen. Of misschien komt een ander merk of een ander persoon met een progje waardoor je verder kan.
Dat zou helemaal top zijn. Maar dan zul je nooit veel verder kunnen dan 1.4 anders heb je een kans dat gebruikers de boel slopen. MHz omhoog krijg je niet snel schade door. Voltages in combinatie met onvoldoende cooling wel.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik kom vanaf de 512MB versie, dus ik pak zelfs nog meer voordeel, maar de belangrijkste reden voor mij om de koeler te vervangen is omdat ik waterkoeling op mijn HD4870 heb, en dus op de HD4890 ook de kaart goed kan koelen, en dus flink kan overklokken, en dan hopelijk ook nog eens het core voltage kan verhogen om zo de +1Ghz te behalen. Jammer van de garantie, maar eigenlijk zorg ik beter voor mijn kaart, omdat de temps veel lager zijn dan met de stockkoeling. En dan praat ik over ~40 graden load op de HD4890(een geschatte gok)Edmin schreef op vrijdag 03 april 2009 @ 00:17:
Met Darkasantion. De 4870 1GB die ik nu heb gaat natuurlijk alleen weg voor een OC versie, want de winst moet gemaximaliseerd. Daarbij vind ik vooral de decibel tests met stock koeler flink tegenvallen (trade-off voor temps, I know). Ik vind het niet erg om een koeler te vervangen, maargarantie!
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Eigenlijk heb je geen garantie meer als de cooler er af geweest is maar als jij er netjes mee om gaat ziet niemand dat. + Wanneer gaat zo'n kaart nou kapot ? dat is alleen maar als je er continu mee aan het klooien bent er in en er uit trekt en weet ik wat. Dat heb ik met mijn HD4850 ook al veel gedaan en die doet het ook nog prima. Hij is zelfs gevoltmod geweest.
Maar je kunt altijd een keer peg hebben maar zo snel gebeurt dat niet. Het is voor mij al weer jaren geleden dat ik een kaart kapot gehad heb.
Maar je kunt altijd een keer peg hebben maar zo snel gebeurt dat niet. Het is voor mij al weer jaren geleden dat ik een kaart kapot gehad heb.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als de kaart een VT11xx voltage controller heeft dan hoeft er waarschijnlijk geen nieuwe versie te komen.Astennu schreef op vrijdag 03 april 2009 @ 09:13:
Al zal er ook wel een nieuwe versie van RBE komen waar je wat in kan stellen. Of misschien komt een ander merk of een ander persoon met een progje waardoor je verder kan.
Added experimental voltage register access. RBE automatically figures out if the card's equipped with a VT11xx. Just use register 15 for underclocking/undervolting and register 18 for overclocking. Register tweaking will override the voltage table. Still, you should adjust your powerplay settings according to the new register values.
Maar volgens mij kon RBE niet oneindig ver. Volgens mij was er een limiet maar dat weet ik niet zeker. De kaart heeft in ieder geval een dubbele VT1115. Waar de HD4870 er maar 1 heeft. Misschien moet dus nog iets aangepast worden ?THE_FIREFOX schreef op vrijdag 03 april 2009 @ 10:18:
[...]
Als de kaart een VT11xx voltage controller heeft dan hoeft er waarschijnlijk geen nieuwe versie te komen.
[...]
Ik zal eens kijken naar mijn HD4870 X2 die zou ook een VT11xx moeten hebben en misschien kan ik em dan wat hoger clocken.
Edit: Ik zie inderdaad dat ze vanaf 1.19 een extra knopje hebben waar je voor hex key 0x15 tm 0x18 een waarde op kan geven die het voltage omhoog gooit. Ik zal dus eens 1.35v proberen om te kijken of ik dan wel 850 MHz kan
[ Voor 20% gewijzigd door Astennu op 03-04-2009 10:32 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Voor de notebook'ers onder ons, MSI heeft haar GX733 geïntroduceerd. Het 17" toestel is voorzien van een AMD Turion X2 processor en een ATi Mobility Radeon HD4670 512MB.

Persbericht.

Persbericht.
Je kan dezelfde softmod ook via rivatuner doen.Astennu schreef op vrijdag 03 april 2009 @ 10:20:
[...]
Maar volgens mij kon RBE niet oneindig ver. Volgens mij was er een limiet maar dat weet ik niet zeker. De kaart heeft in ieder geval een dubbele VT1115. Waar de HD4870 er maar 1 heeft. Misschien moet dus nog iets aangepast worden ?
Ik zal eens kijken naar mijn HD4870 X2 die zou ook een VT11xx moeten hebben en misschien kan ik em dan wat hoger clocken.
Edit: Ik zie inderdaad dat ze vanaf 1.19 een extra knopje hebben waar je voor hex key 0x15 tm 0x18 een waarde op kan geven die het voltage omhoog gooit. Ik zal dus eens 1.35v proberen om te kijken of ik dan wel 850 MHz kanEchter denk ik dat me full load verbruik dan wel een stukkie omhoog gaat.
Dat kan ik ook nog proberen echter heb ik wel Vista 64 dus dan willen dat soort progjes nog wel eens niet werken. + ik heb een X2 en moet je dus twee kaarten aanpassen. Maar ik zal dit weekend wel eens gaan hobby'en.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Onder Vista64 werkt die softmod met rivatuner bij m'n HD4870's in crossfire wel
Mooi ben benieuwd. Ik zal de kaart van me broer ook even onderhanden nemen
Eerst software testen en dan Bios aanpassen.
[ Voor 22% gewijzigd door Astennu op 03-04-2009 11:56 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ghehe thanks ik zal wel eens even kijken. .Ben zelf altijd meer van de Bios mods geweest dan de softmods. Want dan werken die settings ook gewoon als je de kaart in een andere pc drukt. Een keer goed uitzoeken wat hij kan en klaar is kees. Die HD4870 X2 Hard mod is wel grappig alleen dan is het echt goodby warranty als je die cooler zo gaat aanpassen. Maar goed we gaan nu te veel offtopic.Bullus schreef op vrijdag 03 april 2009 @ 12:23:
check anders deze link
[OC] ATI HD4XXX Overklok Topic - Deel 1
[ Voor 16% gewijzigd door Astennu op 03-04-2009 12:35 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
X-bit heeft een goede review van de 4890. De temps en power in idle+load is hier lager dan de 4870 in tegenstelling tot de review van Tweakers.
http://www.xbitlabs.com/a...adeon-hd4890_6.html#sect0
http://www.xbitlabs.com/a...adeon-hd4890_6.html#sect0
Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244
Heb ook liever de bios mods,maar het werkt niet altijd.
Zo had ik de Diamond XOC bios geflashed op mijn 4870x2, daarmee zou de voltage naar 1.31V gaan ipv 1.265V ,maar een of de andere manier pikt ie dat toch niet.Mischien met de nieuwere RBE wel...?
Zo had ik de Diamond XOC bios geflashed op mijn 4870x2, daarmee zou de voltage naar 1.31V gaan ipv 1.265V ,maar een of de andere manier pikt ie dat toch niet.Mischien met de nieuwere RBE wel...?
|2600k|Asus 290|
Aha, dus die 4890 is nu weer wel een stuk zuiniger, dan zal die CF setup onder load en idle dus ook wel minder zijn dan de 4870x2 als we X-bit mogen geloven. Helaas staat ie er niet tussen in het lijstje.CyberAmp schreef op vrijdag 03 april 2009 @ 12:54:
X-bit heeft een goede review van de 4890. De temps en power in idle+load is hier lager dan de 4870 in tegenstelling tot de review van Tweakers.
http://www.xbitlabs.com/a...adeon-hd4890_6.html#sect0
Ik vind x-bit wel een betrouwbare review neerzet. Los van hoe zuinig de 4890 is. Opvallend dat de 4890 OC (1 Ghz) de GTX285 gewoon vernietigd in de benches, de standaard 4890 kan zeker goed meekomen. De GTX285 heeft echt beroerde energieverbuik...dat is welbekend. De 4850x2 (die je het best drivermatig kunt vermijden) word ook makkelijk ingehaald door de 4890. Al met al, een prima kaart. Ik wacht met smart op de mijne.peakaboo schreef op vrijdag 03 april 2009 @ 13:41:
[...]
Aha, dus die 4890 is nu weer wel een stuk zuiniger, dan zal die CF setup onder load en idle dus ook wel minder zijn dan de 4870x2 als we X-bit mogen geloven. Helaas staat ie er niet tussen in het lijstje.
Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244
Verwijderd
Ik weet het niet hoor maar.. Ik zou toch echt wachten op de HD5XXX reeks, als die zo gaat heten..Edmin schreef op donderdag 02 april 2009 @ 23:01:
[...]
Op het moment is het anders vrij duidelijk. De 275 en 4890 zijn enorm aan elkaar gewaag, maar het verschil tussen de goedkoopste modellen in de PW is 15%, de Mycom aanvieding meegenomen zelfs 20%. Dat maakt de 275 never nooit goed.
Zit nog erg te dubben. Sapphire komt al snel met de Toxic, wat imho betekent dat ze daar de selectie van de chips al gedaan hebben. Gevolg is mogelijk tegenvallende OC potentie van de stock kaart.
Waarom zou ik ze niet gewoon allebei kopen?
Verwijderd
lol, als jij zo`n diehard gamer bent, en je kunt het je veroorloven dan zou ik het zeker doen.
Het is dat mijn oude systeem afgelopen winter stuk is gegaan, daarom heb ik in december een nieuw systeem samengesteld. Als dat nu was gebeurd, dan had ik zeker op de nieuwe reeks gewacht en gebruik gemaakt van onboard video.
Ik heb een keer die fout gemaakt door een 9800xt te kopen, goeie kaart hoor, maar je zou nu beter voor de 5XXX reeks kunnen gaan ofzo..
Het is in het Roemeens, maar deze review is volgens mij de enige die een HD4870 en HD4890 in CrossFireX gooit:

http://lab501.ro/placi-video/hd-4890

http://lab501.ro/placi-video/hd-4890
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dus ik kan mijn Club3D ATI Radeon 4870 1gb samen laten werken met een Sapphire ATI Radeon 4890 1gb?
[ Voor 20% gewijzigd door Razor66 op 03-04-2009 18:46 ]
Ja. De HD4890 werkt in CrossFire met een HD4850 en/of HD4870.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Review van Bit-Tech: Radeon HD 4890 vs GeForce GTX 275
http://www.bit-tech.net/h...4890-vs-geforce-gtx-275/1
http://www.bit-tech.net/h...4890-vs-geforce-gtx-275/1
Wederom een idle-power die hoger ligt dan met een 4870, iets wat niet hoort te kloppen.nFo schreef op vrijdag 03 april 2009 @ 19:41:
Review van Bit-Tech: Radeon HD 4890 vs GeForce GTX 275
http://www.bit-tech.net/h...4890-vs-geforce-gtx-275/1

Voordat je Bittech veroordeelt, kijk eens naar de gebruikte drivers? Juist... Cat 9.4 beta + 9.3 voor de 4870. M.a.w.: misschien moeten we het eens zoeken in de gebruikte BIOS'en in de grafische kaarten?
Ja daar klopt echt niks van. Kijk eens naar het verbruik van de GTX 275 tov 285, 275 verstookt meer! hebben zij een logische verklaring? Nee. Wat meten ze eigenlijk, piek-load, gemiddelde , idle, ik zie geen duidelijke getallen terug. Load onder crysis zonder AA. Is de load 100% continu? imho falende reviewers.Jejking schreef op vrijdag 03 april 2009 @ 20:04:
Voordat je Bittech veroordeelt, kijk eens naar de gebruikte drivers? Juist... Cat 9.4 beta + 9.3 voor de 4870. M.a.w.: misschien moeten we het eens zoeken in de gebruikte BIOS'en in de grafische kaarten?
Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244
Ook de cijfers van Race Driver: GRID vind ik bij Bittech zeer twijfelachtig. Ik heb toch het gevoel dat er daar dingen niet helemaal goed zijn gegaan. Zo claimen ze dat de 4890 heter was tijdens Crysis, terwijl de grafiek verderop het tegenovergestelde laat zien:
Louder? Geloof ik best, blijkt uit meerdere reviews
Produces more heat? Hell no!
Het stuk over de drivers vind ik dan wel weer redelijk, maar ze zijn lang niet sterk genoeg in de verklaring aldaar.
De prijzen die ze vermelden in GBP.... echt enorm hoog.... Vervolgens gooien ze ook nog de laagste ATi prijs aan de kant omdat het 'freakishly low' zou zijn en claimen ze dat:
gooi maar in de prullenbak.
Costs the same? hier nietThe Radeon HD 4890 is consistently a few fps slower than the Nvidia card, which is a shame for ATI considering that its card costs the same, but is louder and produces considerably more heat.
Louder? Geloof ik best, blijkt uit meerdere reviews
Produces more heat? Hell no!
Het stuk over de drivers vind ik dan wel weer redelijk, maar ze zijn lang niet sterk genoeg in de verklaring aldaar.
De prijzen die ze vermelden in GBP.... echt enorm hoog.... Vervolgens gooien ze ook nog de laagste ATi prijs aan de kant omdat het 'freakishly low' zou zijn en claimen ze dat:
terwijl de 4890 duidelijk sneller was in Fallout 3 en RD: GRID...the GTX 275 is either as fast or faster than the Radeon HD 4890 in every game we've tested with
gooi maar in de prullenbak.
[ Voor 21% gewijzigd door Edmin op 03-04-2009 20:25 ]
Waar ik me dan aan irriteer is dit:Jejking schreef op vrijdag 03 april 2009 @ 20:04:
Voordat je Bittech veroordeelt, kijk eens naar de gebruikte drivers? Juist... Cat 9.4 beta + 9.3 voor de 4870. M.a.w.: misschien moeten we het eens zoeken in de gebruikte BIOS'en in de grafische kaarten?
De kaart zou ook minder moeten verbruiken in idle, dit is wijdverspreid bekend en horen zij ook te weten. Waarom dan geen contact opgezocht met ATi en een verklaring voor de cijfers bij de review gezet? Of zelf proberen de schuldige te vinden, hetzij in het bios hetzij in de kaart zelf? Een beetje nuancering en research zou geen kwaad doen.Conversely, the HD 4890 is very power hungry when idle despite the GPU throttling to 240MHz.
Als je ff verder had gelezen, had je geweten dat het over de fps in dx9 ging en niet gold voor dx10.De prijzen die ze vermelden in GBP.... echt enorm hoog.... Vervolgens gooien ze ook nog de laagste ATi prijs aan de kant omdat het 'freakishly low' zou zijn en claimen ze dat:
[...]
terwijl de 4890 duidelijk sneller was in Fallout 3 en RD: GRID...
gooi maar in de prullenbak.
Hier nog een waslijst reviews: http://www.theinquirer.ne...4890-vs-gtx-275-cat-fight
ATI Radeon HD 4890
Fudzilla
Thrusting Reviews
Tech Radar
Hardware Canucks
Computer Shopper
Guru of 3D
Phoronix
Hardware Zone
Tom's Hardware
Overclockers Club (here and here)
Hot Hardware
TechpowerUp (here, here with a little bonus)
OCaholic
Tweak Town (here and here)
Benchmark Reviews
AMD Zone
Elite Bastards (one and two)
Hartware.de
Bjorn3d
Club OC
Xbit Labs
Neoseeker
InsideHW
HardOCP
OC3D (again, here and here)
Nvidia Geforce GTX 275 - Upgrade Sticker Edition
Guru of 3D
Hot Hardware
Ninjalane
Computerbase.de
Hardware Canucks
Overclockers Club
TechpowerUp
Bjorn3d
ATI vs. Nvidia cat fight
Hardware.fr
PC Perps
ExtremeTech
Hexus
PCGHX
Legit Reviews
AnandTech
FiringSquad
Driver Heaven
µ
Links ga ik niet fixen, klik bron
Dit is ook wel leuk om te lezen: http://www.theinquirer.ne...32/1051632/gtx275-shelves
ATI Radeon HD 4890
Fudzilla
Thrusting Reviews
Tech Radar
Hardware Canucks
Computer Shopper
Guru of 3D
Phoronix
Hardware Zone
Tom's Hardware
Overclockers Club (here and here)
Hot Hardware
TechpowerUp (here, here with a little bonus)
OCaholic
Tweak Town (here and here)
Benchmark Reviews
AMD Zone
Elite Bastards (one and two)
Hartware.de
Bjorn3d
Club OC
Xbit Labs
Neoseeker
InsideHW
HardOCP
OC3D (again, here and here)
Nvidia Geforce GTX 275 - Upgrade Sticker Edition
Guru of 3D
Hot Hardware
Ninjalane
Computerbase.de
Hardware Canucks
Overclockers Club
TechpowerUp
Bjorn3d
ATI vs. Nvidia cat fight
Hardware.fr
PC Perps
ExtremeTech
Hexus
PCGHX
Legit Reviews
AnandTech
FiringSquad
Driver Heaven
µ
Links ga ik niet fixen, klik bron
Dit is ook wel leuk om te lezen: http://www.theinquirer.ne...32/1051632/gtx275-shelves
[ Voor 6% gewijzigd door nFo op 03-04-2009 21:29 ]
Denk je dat ik dat niet gezien heb? Het gebruik van een andere Dx versie mag nooit zoveel verschil in temps opleveren. Last time i checked, load = load.BTU_Natas schreef op vrijdag 03 april 2009 @ 20:46:
[...]
Als je ff verder had gelezen, had je geweten dat het over de fps in dx9 ging en niet gold voor dx10.
[ Voor 42% gewijzigd door Edmin op 03-04-2009 21:17 ]
Edmin schreef op vrijdag 03 april 2009 @ 20:19:
Ook de cijfers van Race Driver: GRID vind ik bij Bittech zeer twijfelachtig. Ik heb toch het gevoel dat er daar dingen niet helemaal goed zijn gegaan. Zo claimen ze dat de 4890 heter was tijdens Crysis, terwijl de grafiek verderop het tegenovergestelde laat zien:
[...]
De prijzen die ze vermelden in GBP.... echt enorm hoog.... Vervolgens gooien ze ook nog de laagste ATi prijs aan de kant omdat het 'freakishly low' zou zijn en claimen ze dat:
[...]
terwijl de 4890 duidelijk sneller was in Fallout 3 en RD: GRID...
Dat viel me inderdaad ook al op.Worse still, the GTX 275 is either as fast or faster than the Radeon HD 4890 in every game we've tested with, and at folding. And it's quieter.

Daarnaast erg vreemd dat:
- Bij xbitlabs, de game Stalker:CS in iedere resolutie de HD4890 duidelijk de meerdere is over de GTX285.
- Bij bit-tech, de game Stalker:CS de HD4890 pas vanaf de resolutie 1920x1200, de GTX285 begint in te halen.
- Bij xbitlabs, de game CoD:WaW in iedere resolutie de HD4890 duidelijk sneller is dan de GTX285.
- Bij bit-tech, de game CoD:WaW in iedere resolutie de HD4890 juist trager is dan de GTX285
En de waardering van hun is al helemaal tenenkrommend.
GTX275: performance 9/10, features 9/10, value 8/10
HD4890: performance 8/10, features 8/10, value 7/10
Welke schitterende Features heeft de GTX275 wél dat de HD4890 niet heeft?
En ik heb altijd gedacht dat Value ook iets te maken had met bang-for-buck? Want dan zou de HD4890 op het gebied van Value, op zijn minst toch gelijkwaardig moeten scoren.
[ Voor 11% gewijzigd door Indy91 op 03-04-2009 21:37 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Deze al gespot?
http://www.hisdigital.com/un/product2-436.shtml
http://www.hisdigital.com/un/product2-436.shtml

[ Voor 6% gewijzigd door peakaboo op 03-04-2009 22:08 ]
Leuk systeempieViss schreef op vrijdag 03 april 2009 @ 23:04:
4870X2 & 4890CF @ Vantage: Systeem & Extreme preset = 14.578.
Maar als je die 4870X2 erbij zet, draaien de 4890 toch ook lager of niet ?
Ja, in een review dacht ik.
Snap alleen niet waarom niemand die 8pins connector er op soldeert ?
Geeft toch meer power of maakt dat geen niks uit
[ Voor 33% gewijzigd door nFo op 03-04-2009 23:52 ]
Last time I checked, load A != load B. De ene DX stresst de texture hardware misschien wel meer, de ander kan misschien beter overweg met meer stream procs. Het is niet voor niets dat de shaders en game engine voor Dx9 en Dx10 vaak compleet anders geschreven zijn. Hierdoor kan ook een ander deel van de kaart zwaarder belast worden (texturing heeft bijvoorbeeld speciale hardware), afhankelijk van de functies die gebruikt worden. Load A != load BEdmin schreef op vrijdag 03 april 2009 @ 21:04:
[...]
Denk je dat ik dat niet gezien heb? Het gebruik van een andere Dx versie mag nooit zoveel verschil in temps opleveren. Last time i checked, load = load.
Nee.nFo schreef op vrijdag 03 april 2009 @ 23:49:
[...]
Leuk systeempie![]()
Maar als je die 4870X2 erbij zet, draaien de 4890 toch ook lager of niet ?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
AMD heeft wat filmpjes online gezet op Youtube....
The Making of a Radeon (9800Pro in dit geval):
Experience the DX10.1 Difference (Stormrise, Battleforge, HAWX):
DirectX 10.1 - What the experts say:
The Making of a Radeon (9800Pro in dit geval):
Experience the DX10.1 Difference (Stormrise, Battleforge, HAWX):
DirectX 10.1 - What the experts say:
[ Voor 14% gewijzigd door CJ op 04-04-2009 03:59 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb zonet mijn Club3D ATI Radeon 4870 1gb samen laten werken met een Sapphire ATI Radeon 4890 1gb, maar ik krijg in de CCC geen optie voor Crossfire.
De kaarten zijn beiden aangesloten met 2 crossfire cables en ik heb een voeding van 650 watt, dus dat zou genoeg moeten wezen.
heeft iemand een idee hoe ik dit op kan lossen?
*edit* Ik heb ook gemerkt dat beide kaarten apart van elkaar werken (ik krijg ander beeld op mijn 4870 dan op mijn 4890)
De kaarten zijn beiden aangesloten met 2 crossfire cables en ik heb een voeding van 650 watt, dus dat zou genoeg moeten wezen.
heeft iemand een idee hoe ik dit op kan lossen?
*edit* Ik heb ook gemerkt dat beide kaarten apart van elkaar werken (ik krijg ander beeld op mijn 4870 dan op mijn 4890)
[ Voor 38% gewijzigd door Razor66 op 04-04-2009 12:39 ]
Cool. Ik wist niet dat die GPU er in verhouding zo gemakkelijk op gaat. Ik had het idee dat ze daar toch iets meer voor moesten doen. Maar de package kan er in zijn geheel in een keer op gedrukt worden.CJ schreef op zaterdag 04 april 2009 @ 03:57:
AMD heeft wat filmpjes online gezet op Youtube....
The Making of a Radeon (9800Pro in dit geval):
[video]
Experience the DX10.1 Difference (Stormrise, Battleforge, HAWX):
[video]
DirectX 10.1 - What the experts say:
[video]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Directx 10.1 levert gewoon zoveel meer performance. Nu veel titels het gaan ondersteunen wordt het voordeel van ati nog groter. Zeker nu dx11 eraan komt. Ik zie dit echt als een reden waarom ik een 4890 en geen gtx275/gtx285.
Het is eerder van geen -> één -> 'n paar games die DX10.1 gebruiken.
Voor performance voordeeltje en wat extra's.
Als ik dat afweeg tegen GPU PhysX enablede games. Dat zijn er ook maar enkele games. Maar de invloed is duidelijk groter.
Dev kunnen niet te wild met DX10.1 aan de slag omdat nV maar tot DX10.0 ondersteund.
This dus meer voor wat extra performance voor de little chip
Kies ik toch liever nV. Deze week 'n GTX285 besteld.
Maar ja je hebt dan wat extra shader kracht nodig als je de GFX en PhysX samen hoog wil houden, dus niet minder dan een GTX285.
De huidige PhysX games Physic sloads zijn geen maatstaaf voor toekomstige.
Al had ik liever Ageia PPU 2 gen gezien dan had ik gewacht op custom cooled factory OC'ed HD4890 design en dan kijken of die 1Ghz GPU klok zo makkelijk te halen valt.
Voor performance voordeeltje en wat extra's.
Als ik dat afweeg tegen GPU PhysX enablede games. Dat zijn er ook maar enkele games. Maar de invloed is duidelijk groter.
Dev kunnen niet te wild met DX10.1 aan de slag omdat nV maar tot DX10.0 ondersteund.
This dus meer voor wat extra performance voor de little chip
Kies ik toch liever nV. Deze week 'n GTX285 besteld.
Maar ja je hebt dan wat extra shader kracht nodig als je de GFX en PhysX samen hoog wil houden, dus niet minder dan een GTX285.
De huidige PhysX games Physic sloads zijn geen maatstaaf voor toekomstige.
Al had ik liever Ageia PPU 2 gen gezien dan had ik gewacht op custom cooled factory OC'ed HD4890 design en dan kijken of die 1Ghz GPU klok zo makkelijk te halen valt.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
DX10.1 kun je 'gemakkelijk' naast/boven de DX10.0 bouwen, als extra optie, net zoals je vroeger ook games had waar je DX7, DX8 of DX9 kon draaien, afhankelijk van je videokaart. Het kost misschien een klein beetje extra werk, maar is best wel te doen.SG schreef op zaterdag 04 april 2009 @ 14:04:
Voor performance voordeeltje en wat extra's.
Als ik dat afweeg tegen GPU PhysX enablede games. Dat zijn er ook maar enkele games. Maar de invloed is duidelijk groter.
Dev kunnen niet te wild met DX10.1 aan de slag omdat nV maar tot DX10.0 ondersteund.
This dus meer voor wat extra performance voor de little chip
PhysX daarentegen, is een ander verhaal. Voeg je PhysX toe die via de CPU veel te traag zijn maar wel nodig om door het spel heen te komen, dan schiet de developer zichzelf in de voet. Voegt het PhysX toe die of niet nodig zijn om door het spel te komen, of als extra via de GPU kunnen draaien zonder zware performance-verlies in de game, dan is het dus alleen maar eyecandy waar je je extra zware en extra dure videokaart voor hebt gekocht. Dat kan een keuze zijn, maar het limiteerd het aantal spellen dat gebruik maakt van zware GPU-gestuurde PhysX significant, zoals ook wel duidelijk is in de releases tot dusver (een jaar na de launch van de GTX2xx)
De invloed van PhysX veel groter?
Ik denk dat de invloed van Havok veel merkbaarder zal zijn en die werkt op videokaarten van nVidia, AMD, S3 en Intel.
Vergeet daarnaast niet dat DX10.1 de basis is voor de Aero omgeving van Windows 7 en dat DX11 games op de huidige hardware dus sneller zal draaien op een HD4890 dan op een GTX275 (of soms zelfs een GTX285) omdat de brute kracht van de GTX serie van nVidia overtroeft gaat worden door de efficientie van de HD4890 dankzij DX10.1.
Voor de echte die-hard performance fans zal dit niet belangrijk zijn omdat die toch wel upgraden naar een DX11 videokaart op het moment dat er DX11 games zijn, maar het overgrote deel van de wereldbevolking doet gemiddeld langer met een videokaart dan 1 of 2 jaar. De DX11 games die dus over een jaar uit komen, zullen op de AMD hardware terug vallen op het DX10.1 path terwijl dat op nVidia hardware het DX10 path zal zijn. En je ziet hier in deze 3 recente games dat het performanceverschil daar 20-25% is... en dat dit genoeg is om bv een HD4890 sneller te laten zijn dan een GTX285 (zie HAWX).
Devs kunnen dus zeker wild aan de slag met DX10.1, simpelweg omdat DX11 het ondersteunt en het de basis is van Windows 7. nVidia zal dit dus vroeger of later ook moeten ondersteunen. We hebben gezien dat nVidia erg veel voordeel had bij de eerste DX10 games omdat zij de eerste op de markt was met een DX10 videokaart. Games waren geoptimaliseerd voor de NV architectuur. Nu is het omgekeerde weer het geval... en Stormrise, Battleforge en HAWX zijn nog maar de eerste van een serie grote Triple A titels... er komen er nog meer aan die ofwel gebruik maken van DX10.1 (denk aan CoJ2, Chrome 2) of gebruik maken van Havok (denk aan Alan Wake, Starcraft 2, Diablo 3).
Natuurlijk doe je geen miskoop met een GTX285, want die heeft gewoon veel brute kracht. Maar om te zeggen dat PhysX meer impact heeft dan DX10.1... daar ben ik het dus niet mee eens. Vendor specific physics API (PhysX) vs algemene API (DirectX) die door iedereen ondersteunt moet worden en een physics API (Havok) die door iedereen ondersteunt gaat worden, dus ook door nVidia. Ik weet wel wat ik meer impact vindt hebben.
Edit: Ik hoorde zelfs het gerucht dat nVidia DX10.1 zou hebben toegevoegd aan de GT21x serie... of dit zo is weet ik niet... maar AMD ging er van uit dat dit een erg goede mogelijkheid zou kunnen zijn aangezien het nog niet precies duidelijk is wanneer DX11 op de markt zou komen.
Ik denk dat de invloed van Havok veel merkbaarder zal zijn en die werkt op videokaarten van nVidia, AMD, S3 en Intel.
Vergeet daarnaast niet dat DX10.1 de basis is voor de Aero omgeving van Windows 7 en dat DX11 games op de huidige hardware dus sneller zal draaien op een HD4890 dan op een GTX275 (of soms zelfs een GTX285) omdat de brute kracht van de GTX serie van nVidia overtroeft gaat worden door de efficientie van de HD4890 dankzij DX10.1.
Voor de echte die-hard performance fans zal dit niet belangrijk zijn omdat die toch wel upgraden naar een DX11 videokaart op het moment dat er DX11 games zijn, maar het overgrote deel van de wereldbevolking doet gemiddeld langer met een videokaart dan 1 of 2 jaar. De DX11 games die dus over een jaar uit komen, zullen op de AMD hardware terug vallen op het DX10.1 path terwijl dat op nVidia hardware het DX10 path zal zijn. En je ziet hier in deze 3 recente games dat het performanceverschil daar 20-25% is... en dat dit genoeg is om bv een HD4890 sneller te laten zijn dan een GTX285 (zie HAWX).
Devs kunnen dus zeker wild aan de slag met DX10.1, simpelweg omdat DX11 het ondersteunt en het de basis is van Windows 7. nVidia zal dit dus vroeger of later ook moeten ondersteunen. We hebben gezien dat nVidia erg veel voordeel had bij de eerste DX10 games omdat zij de eerste op de markt was met een DX10 videokaart. Games waren geoptimaliseerd voor de NV architectuur. Nu is het omgekeerde weer het geval... en Stormrise, Battleforge en HAWX zijn nog maar de eerste van een serie grote Triple A titels... er komen er nog meer aan die ofwel gebruik maken van DX10.1 (denk aan CoJ2, Chrome 2) of gebruik maken van Havok (denk aan Alan Wake, Starcraft 2, Diablo 3).
Natuurlijk doe je geen miskoop met een GTX285, want die heeft gewoon veel brute kracht. Maar om te zeggen dat PhysX meer impact heeft dan DX10.1... daar ben ik het dus niet mee eens. Vendor specific physics API (PhysX) vs algemene API (DirectX) die door iedereen ondersteunt moet worden en een physics API (Havok) die door iedereen ondersteunt gaat worden, dus ook door nVidia. Ik weet wel wat ik meer impact vindt hebben.
Edit: Ik hoorde zelfs het gerucht dat nVidia DX10.1 zou hebben toegevoegd aan de GT21x serie... of dit zo is weet ik niet... maar AMD ging er van uit dat dit een erg goede mogelijkheid zou kunnen zijn aangezien het nog niet precies duidelijk is wanneer DX11 op de markt zou komen.
[ Voor 6% gewijzigd door CJ op 04-04-2009 14:32 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Game developers werken graag met de nieuwste technologieën als het even kan. Hun games worden daardoor meer future-proof. Zeker met dx10.1 omdat dx11 het ondersteunt.
Trouwens, wat verwachten jullie van het stroomverbruik van de hd5870x2. Zal die veel lager worden dan die van de hd4870x2?
Trouwens, wat verwachten jullie van het stroomverbruik van de hd5870x2. Zal die veel lager worden dan die van de hd4870x2?
De basis van Aero kan gewoon door een DirectX 9 videokaart weergegeven worden?Vergeet daarnaast niet dat DX10.1 de basis is voor de Aero omgeving van Windows 7
Dat overgrote deel van de wereldbevolking gaat gewoon naar de pc shop voor een upgrade wanneer hun pc "traag geworden is".Voor de echte die-hard performance fans zal dit niet belangrijk zijn omdat die toch wel upgraden naar een DX11 videokaart op het moment dat er DX11 games zijn, maar het overgrote deel van de wereldbevolking doet gemiddeld langer met een videokaart dan 1 of 2 jaar. De DX11 games die dus over een jaar uit komen, zullen op de AMD hardware terug vallen op het DX10.1 path terwijl dat op nVidia hardware het DX10 path zal zijn. En je ziet hier in deze 3 recente games dat het performanceverschil daar 20-25% is... en dat dit genoeg is om bv een HD4890 sneller te laten zijn dan een GTX285 (zie HAWX).
Dat gaan ze sowieso moeten met een DirectX 11 videokaart, aangezien deze backwards compatible moet zijn met vorige DirectX versies.nVidia zal dit dus vroeger of later ook moeten ondersteunen.
lijkt me niet, gezien hoe het gegaan is met vorige generaties videokaarten. performance per watt zal zeker beter worden maar omdat, waarschijnlijk je daar niet genoeg performance boost krijgt om de concurrentie voor te zijn zal de totale wattage waarschijnlijk weer stijgen.
Verwijderd
Cool om te zien hoe AMD actief games support, dat is een stap in de goede richting. Ik vraag me af of dat in het verleden ook al zo was, ook bij NV..
Alleen jammer dat er nog zo weinig shooters gebruik maken van dx10.1, ik zou wel willen dat UT3 ook dx10.1 gepatched werd..
Alleen jammer dat er nog zo weinig shooters gebruik maken van dx10.1, ik zou wel willen dat UT3 ook dx10.1 gepatched werd..
Kijk hier hoe Anandtech PhysX afserveert onder het kopje 'putting this PhysX thing to rest'.SG schreef op zaterdag 04 april 2009 @ 14:04:
Als ik dat afweeg tegen GPU PhysX enablede games. Dat zijn er ook maar enkele games. Maar de invloed is duidelijk groter.
Hoeveel zou het geld/pcb ruimte zou het extra kosten als AMD op de top kaarten een soort hybrid crossfire op één pcb maken?
Dus met een crap chipje voor heel licht 2D/3D werk? (beetje wat NVIDIA deed had ik begrepen)
Want ik vind 45watt in idle toch nog best veel en blijkbaar is het niet mogelijk om zo'n grote chip nog zuiniger te maken zonder concessies te doen, lijkt me dat met een extra chipje de kaart nog maar 5watt hoeft te gebruiken het grootste deel van de tijd, zelf zou ik hier wel iets extra's voor willen betalen.
Is namelijk minder hitte in de zomer en levert een koelere kast op.
Dus met een crap chipje voor heel licht 2D/3D werk? (beetje wat NVIDIA deed had ik begrepen)
Want ik vind 45watt in idle toch nog best veel en blijkbaar is het niet mogelijk om zo'n grote chip nog zuiniger te maken zonder concessies te doen, lijkt me dat met een extra chipje de kaart nog maar 5watt hoeft te gebruiken het grootste deel van de tijd, zelf zou ik hier wel iets extra's voor willen betalen.
Is namelijk minder hitte in de zomer en levert een koelere kast op.
Met Crossfire X zou het volgens mij in theorie mogelijk moeten zijn. In laptops is de nood het hoogst en daar zie je dan ook de grootste ontwikkelingen op dit vlak. Bij 2D overstappen op de IGP zou natuurlijk geweldig zijn, maar ik voorzie dat dit niet door AMD gerealiseerd gaat worden voordat Fusion op de marktkomt. De integratie van een IGP op de CPU ipv de chipset, zou het mogelijk maken om 2D instructies al direct op de CPU af te vangen, zonder dat de instructies de GPU bereiken. Rijst nog wel de vraag hoe het signaal naar je monitor komt...
Deze zin vat het hele PhysX verhaal mooi samen:Edmin schreef op zaterdag 04 april 2009 @ 15:46:
[...]
Kijk hier hoe Anandtech PhysX afserveert onder het kopje 'putting this PhysX thing to rest'.
It’s a nice bonus if I already own a NVIDIA GPU, it’s not a reason for buying one.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Yep. Ik vind het nadeel dat je een snelle kaart moet hebben om het goed te draaien. In de voorbeelden zag je erg grote FPS drops wanneer er ook Physics gedaan werd. Dus je moet dan een 2e kaart gaan kopen (of SLi draaien) om physics te kunnen gebruiken. En dat vind ik het op dit moment nog niet waard.RappieRappie schreef op zaterdag 04 april 2009 @ 16:05:
[...]
Deze zin vat het hele PhysX verhaal mooi samen:
[...]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Is niet de bedoeling zag ik, my bad

[ Voor 91% gewijzigd door WolfsRain op 04-04-2009 23:38 ]
5800X3D, X570 TUF Pro, 32 GB 3600C16, 3080 TI
Ja, daar moet je vooral iets kopen als je van je geld afwil.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
* Edmin heeft al weer flink wat maandjes een Sapphire 4870 1GB vban die toko.
Het is alleen wel tegen de topicwaarschuwing in...
Het is alleen wel tegen de topicwaarschuwing in...
Verwijderd
Oh man, dat slaat echt nergens op. PhysX in hardware is ook maar een enkele game(Mirrors Edge en een paar UT3 level). Devs kunnen dus ook niet aan de slag met hardware PhysX omdat AMD deze niet ondersteund. Het is dus nergens echt een voordeel. De winst qua eye candy is ook niet erg groot. Dus jij speelt blijkbaar zoveel mirrors edge(snap ik niet hele korte game) en die UT3 levels dat je hardware physX wil. Waar bazeer je op dat deze games geen maatstaaf zijn? Heb je een glazen bol ofzo? Echt een opmerking zonder fundering of bronnen.SG schreef op zaterdag 04 april 2009 @ 14:04:
Het is eerder van geen -> één -> 'n paar games die DX10.1 gebruiken.
Voor performance voordeeltje en wat extra's.
Als ik dat afweeg tegen GPU PhysX enablede games. Dat zijn er ook maar enkele games. Maar de invloed is duidelijk groter.
Dev kunnen niet te wild met DX10.1 aan de slag omdat nV maar tot DX10.0 ondersteund.
This dus meer voor wat extra performance voor de little chip
Kies ik toch liever nV. Deze week 'n GTX285 besteld.
Maar ja je hebt dan wat extra shader kracht nodig als je de GFX en PhysX samen hoog wil houden, dus niet minder dan een GTX285.
De huidige PhysX games Physic sloads zijn geen maatstaaf voor toekomstige.
Al had ik liever Ageia PPU 2 gen gezien dan had ik gewacht op custom cooled factory OC'ed HD4890 design en dan kijken of die 1Ghz GPU klok zo makkelijk te halen valt.
Wat interessant zou zijn om te zien, is een lijstje met studio's die Havok al gebruiken in hun games en een beter begrip van de hoeveelheid moeite die een dev moet doen om de instructies via OpenGL naar de GPU te offloaden. Ik ben er echt van overtuig dat OpenGL het gaat worden, zelfs als het minder goed zou zijn als de NV variant. Open standaarden ftw.
ik veronderstel dat je OpenCL bedoelt, maar ik denk dat het geen van deze zal worden
MS gaat dat waarschijnlijk gewoon inbouwen in DirectX en dat wordt dan gewoon de standaard
er zijn er altijd wel een paar die tegenwerken, maar uiteindelijk gebruiken ze allemaal DX omdat het goedkoper is: de tools en ondersteuning is namelijk altijd goed
MS gaat dat waarschijnlijk gewoon inbouwen in DirectX en dat wordt dan gewoon de standaard
er zijn er altijd wel een paar die tegenwerken, maar uiteindelijk gebruiken ze allemaal DX omdat het goedkoper is: de tools en ondersteuning is namelijk altijd goed
Hebben we daar al nieuws over dan? Dx11 gaat het volgens mij in ieder geval nog niet worden.
Klopt. Het kan weergegeven worden op videokaarten die minimaal DX9 ondersteunen.... Maar dat laat nog niet weg dat de basis geoptimaliseerd is voor DirectX10.1.Hacku schreef op zaterdag 04 april 2009 @ 15:00:
[...]
De basis van Aero kan gewoon door een DirectX 9 videokaart weergegeven worden?

Misschien eerder dan je denkt. AMD heeft DX11 hardware gepland voor deze zomer. En voor het einde van het jaar wordt in ieder geval nog een serie DX11 kaarten voor validatie naar partners gestuurd, dus ik verwacht dat AMD voor het einde van het jaar een top-to-bottom DX11 line-up heeft.Edmin schreef op zaterdag 04 april 2009 @ 18:16:
Hebben we daar al nieuws over dan? Dx11 gaat het volgens mij in ieder geval nog niet worden.
[ Voor 6% gewijzigd door CJ op 04-04-2009 19:03 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat snap ik en hier: nieuws: AMD plant demonstratie gpu-versnelde physics staat er ook nog iets over.
Echter, onderschrijft dat mijn stelling dat ik veel verwacht van de Havok over OpenCL toepassing. Voor de inpassing van een physics standaard in Dx lees ik niets en daar doelde ik op.Met de komst van DirectX 11 zouden physics wel eens een grote vlucht kunnen nemen, aangezien zowel de videokaarten van AMD als die van Nvidia de gpgpu-applicatie openCL gaan ondersteunen.
Die zin die je quote is wel erg dubieus.... het slaat eigenlijk nergens op.... het doet de indruk wekken alsof door de komst van DX11 physics een grote vlucht gaan nemen juist OMDAT zowel videokaarten van AMD als nVidia de OpenCL standaard ondersteunen....
DX11 (en wel de computeshaders) en OpenCL staan juist los van elkaar. Computeshaders van DX11 is de DirectX variant van Microsoft en de open variant van de Khronos group waar alle grote namen in zit is OpenCL. OpenCL kan dus gebruikt naast DirectX11, maar is er zeker niet afhankelijk van. Het werkt ook prima naast OpenGL applicaties op bv de Playstation 3 (waar geen DX op zit) of op de PC.
Microsoft was ooit eens op zoek naar nieuw personeel voor het ontwikkelen van een DirectPhysics standaard, maar dat is in de ijskast gezet. Op dit moment zullen oplossingen als wat Havok nu dus doet (het aanspreken van de Havok API via OpenCL of de Computeshaders) eerder op de markt verschijnen dan dat er een DirectPhysics API komt. Tel daarbij op dat gamedevelopers al helemaal bekend zijn met Havok en men bij een nieuwe DirectPhysics API veel dingen weer opnieuw zou moeten leren.
DX11 (en wel de computeshaders) en OpenCL staan juist los van elkaar. Computeshaders van DX11 is de DirectX variant van Microsoft en de open variant van de Khronos group waar alle grote namen in zit is OpenCL. OpenCL kan dus gebruikt naast DirectX11, maar is er zeker niet afhankelijk van. Het werkt ook prima naast OpenGL applicaties op bv de Playstation 3 (waar geen DX op zit) of op de PC.
Microsoft was ooit eens op zoek naar nieuw personeel voor het ontwikkelen van een DirectPhysics standaard, maar dat is in de ijskast gezet. Op dit moment zullen oplossingen als wat Havok nu dus doet (het aanspreken van de Havok API via OpenCL of de Computeshaders) eerder op de markt verschijnen dan dat er een DirectPhysics API komt. Tel daarbij op dat gamedevelopers al helemaal bekend zijn met Havok en men bij een nieuwe DirectPhysics API veel dingen weer opnieuw zou moeten leren.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En weer een partner die voorheen exclusief nVidia kaarten aanbood, is nu ook overgegaan op het aanbieden van Radeons:
nieuws: Albatron start ATI-productaanbod met HD4890
Persbericht: http://www.albatron.com.t...p?new=default&news_id=274
nieuws: Albatron start ATI-productaanbod met HD4890
Persbericht: http://www.albatron.com.t...p?new=default&news_id=274
[ Voor 15% gewijzigd door CJ op 05-04-2009 10:48 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Binnenkort kunnen we in de Benelux ook ATI kaarten van Force3D kopen. Force3D is een onderdeel van Innovision, die onder Inno3D nVidia kaarten verkopen.CJ schreef op zondag 05 april 2009 @ 10:48:
En weer een partner die voorheen exclusief nVidia kaarten aanbood, is nu ook overgegaan op het aanbieden van Radeons:
nieuws: Albatron start ATI-productaanbod met HD4890
Persbericht: http://www.albatron.com.t...p?new=default&news_id=274
Een Pricewatch zoekslagje leert dat Albatron in NLD (iig in deze webshops) alleen maar mobo's verkoopt. of misschien is verkocht een beter woord, want het gaat om niet coourante sockets.
9.4 beta Catalyst 8.60-090316


Over dat Crysis warhead performance icm x58 heb ik ook, dacht dat ik de enige was.2D/3d bug is still present, Fallout 3 HDR flicker, framerate droping to half and water bug still present.
For the benchmark lovers, Vantage score gone up, and Unigine Tropics benchmark have now support for dx10.
Tested in Windows 7 x64 7057 build.
Note: Proper Core i7/X58 optimisations still need to be done, because my Crysis/Warhead performance is still much slower than Core2/X38.
[ Voor 61% gewijzigd door Bullus op 05-04-2009 15:23 ]
|2600k|Asus 290|
Zo, even testen of dan eindelijk CCC weer eens werkt!
Edit: 160mb!?
Edit²: Helaas, CCC werkt nog steeds niet
Edit: 160mb!?
Edit²: Helaas, CCC werkt nog steeds niet
[ Voor 38% gewijzigd door spNk op 05-04-2009 20:42 ]
Dit topic is gesloten.
Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!