LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik vraag me overigens wel af hoe het zou moeten gaan lukken om een dual Cayman kaart te maken met dat TDP. En dual Barts lijkt me weer niet genoeg meerwaarde tov een 5970..Blue-Tiger schreef op maandag 25 oktober 2010 @ 17:02:
Als we mogen zeggen:
HD5870 > HD6870
188W > 151W
En vervolgens ergens hiervoor een link te zien krijgen waaruit blijkt dat Cayman een TDP mee gaat krijgen van ~250W, kunnen we toch wel aannemen dat er nog flink wat ruimte is voor verbetering? Nou kunnen we zeggen, nieuwe / aangepaste architectuur welke ook nog eens goedkoper / zuiniger is (4D right?), dat Cayman een leuk vooruitzicht biedt
Als je weet dat een HD5970 bestond uit twee HD5870 chips die ver onder spec van de alleenstaande kaarten draaide om het maximale TDP van 300W te halen, dan is het toch niet raar om te denken dat AMD het weer zal doen bij de cayman? Gewoon zo undervolten en underclocken dat hij onder default instellingen de TDP van 300W haalt, maar een zeer toegangkelijke optie meegeven om de kaart gewoon op volle kracht te laten werken als de consument dat wilt. Nu is het inderdaad wel de vraag hoever ze de cayman moeten temmen vooraleer die 150W haalt. Zou het mogelijk zijn zonder hardware uit te schakelen?PatrickH89 schreef op dinsdag 26 oktober 2010 @ 09:14:
[...]
Ik vraag me overigens wel af hoe het zou moeten gaan lukken om een dual Cayman kaart te maken met dat TDP. En dual Barts lijkt me weer niet genoeg meerwaarde tov een 5970..
Zit het trouwens zo bij GPU's dat net als bij CPU's door het undervolten en relatief weinig underclocken de performance/watt enorm stijgt? Neem nu de AMD cpu's waarvan de naam eindigt op een "e", veel lagere TDP dan de normale exemplaren maar toch pakweg 80% van de prestaties.
En om nog even wat verder af te wijken, kan iemand zeggen welke reviews de performance/watt ratio aangeeft bij GPU-reviews?
[ Voor 21% gewijzigd door RuddyMysterious op 26-10-2010 09:26 ]
je zou gewoon zelf wat reviews kunnen lezen? mar je antwoord is TechPowerUp.DevilsProphet schreef op dinsdag 26 oktober 2010 @ 09:23:
En om nog even wat verder af te wijken, kan iemand zeggen welke reviews de performance/watt ratio aangeeft bij GPU-reviews?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Die meten systeemvermogen, niet het verbruik van de kaart.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Cayman terugbrengen tot prestaties van Barts lijkt me persoonlijk nogal onzinnig en als dat betere performance/watt op zou leveren vraag ik me af waarom ze niet alleen Cayman hebben gemaakt.DevilsProphet schreef op dinsdag 26 oktober 2010 @ 09:23:
[...]
Als je weet dat een HD5970 bestond uit twee HD5870 chips die ver onder spec van de alleenstaande kaarten draaide om het maximale TDP van 300W te halen, dan is het toch niet raar om te denken dat AMD het weer zal doen bij de cayman? Gewoon zo undervolten en underclocken dat hij onder default instellingen de TDP van 300W haalt, maar een zeer toegangkelijke optie meegeven om de kaart gewoon op volle kracht te laten werken als de consument dat wilt. Nu is het inderdaad wel de vraag hoever ze de cayman moeten temmen vooraleer die 150W haalt. Zou het mogelijk zijn zonder hardware uit te schakelen?
Zit het trouwens zo bij GPU's dat net als bij CPU's door het undervolten en relatief weinig underclocken de performance/watt enorm stijgt? Neem nu de AMD cpu's waarvan de naam eindigt op een "e", veel lagere TDP dan de normale exemplaren maar toch pakweg 80% van de prestaties.
En om nog even wat verder af te wijken, kan iemand zeggen welke reviews de performance/watt ratio aangeeft bij GPU-reviews?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat is nog maar de vraag, aangezien Cayman aanzienlijk meer gaat verbruiken dan Cypress, maar ik hoop dat het een volwaardige 2xCayman wordt met idd enigsinds een conservatieve spanning.DevilsProphet schreef op dinsdag 26 oktober 2010 @ 09:23:
[...]
Als je weet dat een HD5970 bestond uit twee HD5870 chips die ver onder spec van de alleenstaande kaarten draaide om het maximale TDP van 300W te halen, dan is het toch niet raar om te denken dat AMD het weer zal doen bij de cayman? Gewoon zo undervolten en underclocken dat hij onder default instellingen de TDP van 300W haalt, maar een zeer toegangkelijke optie meegeven om de kaart gewoon op volle kracht te laten werken als de consument dat wilt. Nu is het inderdaad wel de vraag hoever ze de cayman moeten temmen vooraleer die 150W haalt. Zou het mogelijk zijn zonder hardware uit te schakelen?
Zit het trouwens zo bij GPU's dat net als bij CPU's door het undervolten en relatief weinig underclocken de performance/watt enorm stijgt? Neem nu de AMD cpu's waarvan de naam eindigt op een "e", veel lagere TDP dan de normale exemplaren maar toch pakweg 80% van de prestaties.
En om nog even wat verder af te wijken, kan iemand zeggen welke reviews de performance/watt ratio aangeeft bij GPU-reviews?
De performance/Watt ratio verloopt idd niet rechtlijnig.
Niet op voorraad.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
De wijzen komen uit het Oosten!
Ik heb met de 5970 ook wat tests gedaan. Vooral met lagere voltages en clockspeeds. Op een gegeven moment verbruikte de kaart minder dan een HD5870 @ 950-1200 MHz. Maar haalde wel hogere framerates. Dus ze kunnen best een dual cayman maken die betere performance bied dan een single zonder veel meer te verbruiken. Echter de kaart is wel aan stuk duurder: 2 chips + duurder pcb. En geen dubbele performance.edward2 schreef op dinsdag 26 oktober 2010 @ 09:55:
[...]
Dat is nog maar de vraag, aangezien Cayman aanzienlijk meer gaat verbruiken dan Cypress, maar ik hoop dat het een volwaardige 2xCayman wordt met idd enigsinds een conservatieve spanning.
De performance/Watt ratio verloopt idd niet rechtlijnig.
In beide gevallen lees de reviews...... Ze zullen wel voor 200 euro te krijgen zijn maar dan moet je geduld hebben. HD6870 is ook overclockbaar. Ik vind OC modellen vergelijken met stock modellen niet helemaal eerlijk. Persoonlijk HD68xx boven een GTX460 OC of GX470.NoepZor schreef op dinsdag 26 oktober 2010 @ 11:10:
Is een HD6870 voor ongeveer 220 euro een goede koop, of kun je dan beter (voordeliger iig) een GTX460 1GB OC versie kopen? Op 850Mhz core zou deze ong. even snel moeten zijn als een HD6870 en dat is wel eenvoudig te halen.
Maar dit is een nieuws discussie topic niet welke video kaart moet ik kopen en waarom topic.
[ Voor 31% gewijzigd door Astennu op 26-10-2010 11:19 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Niet elke GTX 460 doet 850MHz hoor. En een HD 6870 kun je ook oc-en, 1000MHz is sowieso haalbaar en 1050MHz waarschijnlijk ook. Welke is dan sneller ?NoepZor schreef op dinsdag 26 oktober 2010 @ 11:10:
Is een HD6870 voor ongeveer 220 euro een goede koop, of kun je dan beter (voordeliger iig) een GTX460 1GB OC versie kopen? Op 850Mhz core zou deze ong. even snel moeten zijn als een HD6870 en dat is wel eenvoudig te halen.
Ik heb eyefinity + HD 5970. Nu ben ik zelf weinig gevoelig voor microstuttering, maar ik heb er dan ook geen enkele last van. Nu zorg ik er wel voor dat ik altijd rond de 50fps of meer zit. Volgens mij ga je microstuttering namelijk pas echt zien bij lagere fps, dat viel mij bijvoorbeeld op toen ik GTS 450 in sli testte.Paprika schreef op dinsdag 26 oktober 2010 @ 11:21:
Astennu, jij had toch een kennis/familielid die Eyefinity heeft, no? Zo ja, heb je al eens gekeken hoe een 5970 het daarbij doet? Er zijn nogal wat gemixte ervaringen met Crossfire + Eyefinity, maar de 5970 doet 't meestal stukken beter wat microstuttering betreft.
En tja, in Bad Company 2 ben ik bijvoorbeeld altijd erg competitief met mn eyefinity-setup (goh). En als je last zou hebben van micro-stuttering, dan is dat niet bevorderlijk voor je aim... Zelfde geld voor racespellen (f1 2010), wat me toch ook aardig afgaat...
Eyefinity + Shooters =
[ Voor 24% gewijzigd door Paprika op 26-10-2010 11:29 ]
Dat is ook waar inderdaadMarc Rademaker schreef op dinsdag 26 oktober 2010 @ 11:23:
[...]
Niet elke GTX 460 doet 850MHz hoor. En een HD 6870 kun je ook oc-en, 1000MHz is sowieso haalbaar en 1050MHz waarschijnlijk ook. Welke is dan sneller ?
De wijzen komen uit het Oosten!
http://www.techpowerup.co.../HD_4890_CrossFire/1.html
samen met:
http://www.techpowerup.co...Radeon_HD_6870_CrossFire/
http://www.guru3d.com/art...-6870-crossfirex-review/1
Als je de resultaten van 2 4890s t.o.v. de GTX 295 vergelijkt met de resultaten van de GTX 295 t.o.v. de 6870 zou je een heel eind moeten komen. Je hebt dan ook geen nadelen van X-fire en DX11.


[ Voor 26% gewijzigd door Paprika op 26-10-2010 11:49 ]
- hogere framerate dan een single 6870
- moeiteloos games spelen
- goedkope upgrade (zeker als je een tweede handse 4890 kan vinden)
nadelen zijn wel:
- meer warmte in je systeem
- vaak moeten mensen een zwaardere voeding aanschaffen
- niet alle games ondersteunen crossfire
- geen direct x 11
- extra pci-e slot kwijt
Dat geloof ik best, maar je moet natuurlijk wel altijd streven naar een zo effieciënt gebruikt van je silicon/pcb en daar hoort ook een ontwerp spanning bij. Je kan natuurlijk wel wat ondervolten, maar daar zitten ook grenzen aan.Astennu schreef op dinsdag 26 oktober 2010 @ 11:14:
[...]
Ik heb met de 5970 ook wat tests gedaan. Vooral met lagere voltages en clockspeeds. Op een gegeven moment verbruikte de kaart minder dan een HD5870 @ 950-1200 MHz. Maar haalde wel hogere framerates. Dus ze kunnen best een dual cayman maken die betere performance bied dan een single zonder veel meer te verbruiken. Echter de kaart is wel aan stuk duurder: 2 chips + duurder pcb. En geen dubbele performance.
Maar dit is een nieuws discussie topic niet welke video kaart moet ik kopen en waarom topic.
Niet op voorraad.
Ik ben in principe voorstander van een single gpu oplossing omdat dit minder energie verbruikt en verder geen gezeik geeft met slechte ondersteuning oid. Mijn voeding is maar 520 watt, ik weet niet of dit een i5 @ 3800 Mhz, 4 hdd's en een crossfire setup van 2x4890 kan draaien. De 6870 zou wel moeten kunnen binnen de capaciteit. Ik ga denk ik gewoon wachten om te zien wat de high-end kaarten van AMD gaan brengen.pvg103 schreef op dinsdag 26 oktober 2010 @ 11:52:
voordelen 4890 in crossfire:
- hogere framerate dan een single 6870
- moeiteloos games spelen
- goedkope upgrade (zeker als je een tweede handse 4890 kan vinden)
nadelen zijn wel:
- meer warmte in je systeem
- vaak moeten mensen een zwaardere voeding aanschaffen
- niet alle games ondersteunen crossfire
- geen direct x 11
- extra pci-e slot kwijt
De wijzen komen uit het Oosten!
Klopt ja. Ik heb het geprobeerd. Maar hij had maar een 550 watt PSU. En die zij weet je wat bekijk het maarPaprika schreef op dinsdag 26 oktober 2010 @ 11:21:
Astennu, jij had toch een kennis/familielid die Eyefinity heeft, no? Zo ja, heb je al eens gekeken hoe een 5970 het daarbij doet? Er zijn nogal wat gemixte ervaringen met Crossfire + Eyefinity, maar de 5970 doet 't meestal stukken beter wat microstuttering betreft.
Dat is ook mijn ervaring met de X2 kaarten. Bij lagere FPS wordt het merkbaarder en kan het iritant zijn. Maar ook niet elke game had er last van. Ik moet zeggen dat het met de 5970 heel veel minder was dan met een 3870. Daar had ik veel meer problemen. 4870 x2 liep ook al vele malen soepeler ook met lage framerates.Marc Rademaker schreef op dinsdag 26 oktober 2010 @ 11:26:
[...]
Ik heb eyefinity + HD 5970. Nu ben ik zelf weinig gevoelig voor microstuttering, maar ik heb er dan ook geen enkele last van. Nu zorg ik er wel voor dat ik altijd rond de 50fps of meer zit. Volgens mij ga je microstuttering namelijk pas echt zien bij lagere fps, dat viel mij bijvoorbeeld op toen ik GTS 450 in sli testte.
En tja, in Bad Company 2 ben ik bijvoorbeeld altijd erg competitief met mn eyefinity-setup (goh). En als je last zou hebben van micro-stuttering, dan is dat niet bevorderlijk voor je aim... Zelfde geld voor racespellen (f1 2010), wat me toch ook aardig afgaat...
Zou je dan niet een segmentje hoger gaan zitten? Ik weet niet wat je budget is maar misschien kun je beter naar een Cayman kaart gaan kijken. 4890 zat ook in een hoger segment.NoepZor schreef op dinsdag 26 oktober 2010 @ 11:40:
[...]
Dat is ook waar inderdaadMaar ik heb momenteel een HD4890 en ben aan het kijken of de 6870 een opvolger kan zijn voor mijn kaart. Hoorde van iemand al wel dat een tweede 4890 erbij zetten meer snelheid oplevert. Als ik de 4890 verkoop en de 6870 koop zou ik ongeveer 100 euro bij moeten leggen. Voor een GTX460 1GB uiteraard iets minder.
Ligt aan je doel. Nu is het doel nog steeds zo veel mogelijk performance per mm2. Verbruik komt op de 2e plaats. Met dual GPU kun je hogere performance halen met lager verbruik alleen dat verkoopt natuurlijk niet lekker. Klanten kijken ook eerst naar prestaties dan pas naar verbruik. Dus ik snap waar je op doelt. En het is voor AMD ook helemaal niet interessant om te doen. Als die kaart maar 20% sneller zou zijn en wel zuiniger is kun je er ook maar iets van 30% meer voor vragen. Terwijl hij 2x zo duur is om te maken.edward2 schreef op dinsdag 26 oktober 2010 @ 11:58:
[...]
Dat geloof ik best, maar je moet natuurlijk wel altijd streven naar een zo effieciënt gebruikt van je silicon/pcb en daar hoort ook een ontwerp spanning bij. Je kan natuurlijk wel wat ondervolten, maar daar zitten ook grenzen aan.
[ Voor 30% gewijzigd door Astennu op 26-10-2010 12:11 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
5850 met 3x 1920x1200 gaat anders best ok voor mij. Uiteraard heeft Metro 2033 geen 60 FPS, maar ik ben best bereid om met high en een enkele setting op medium te spelen in zo'n games (zonder AA want dan is 1GB echt te weinig). 2GB Cayman, ho!Astennu schreef op dinsdag 26 oktober 2010 @ 12:07:
Klopt ja. Ik heb het geprobeerd. Maar hij had maar een 550 watt PSU. En die zij weet je wat bekijk het maarDus daar kan ik je helaas niet veel over vertellen. Wel dat een 5870 niet snel genoeg is voor 3x 1680x1050. Sommige games gaan wel aardig goed maar de nieuwere games zijn te zwaar. Ook hier zal Cayman zeker uitkomt gaan bieden.
Ik heb eigenlijk altijd een kaart gekocht van rond de 200 euro welke veel bang for buck levert. Denk hierbij aan kaarten zoals de 9700Pro, 6800GT, 5900GTO, 8800GT en dan nu de HD4890. Hopelijk komt AMD met een mooie kaart voor niet al te veel geld. De 5870 is bijvoorbeeld wel een mooie kaart, maar voor mij geen 350 euro waard tov. mijn 4890. Rationeel gezien is er weinig te koop wat veel meerwaarde biedt ten opzichte van die 4890, zonder dat je veel geld bij moet leggen.Astennu schreef op dinsdag 26 oktober 2010 @ 12:07:
[...]
Zou je dan niet een segmentje hoger gaan zitten? Ik weet niet wat je budget is maar misschien kun je beter naar een Cayman kaart gaan kijken. 4890 zat ook in een hoger segment.
De wijzen komen uit het Oosten!
Was wel van plan om eerst Crossfire te draaien, maar dat is niet helemaal goed gegaan door andere dingen dus de 2de kaart heb ik terug gebracht. Misschien ooit nog een kans geven ...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
De 5870 heeft inderdaad niet genoeg power om tot een memory limit te komen voordat de kaart het zelf al niet meer kan trekken. Echter zie ik dit echt niet nog een jaar zo gebeuren. Zeker met Cayman (en de verwachtte +/- 5970 performance) vind ik 1GB echt te weinig.nero355 schreef op dinsdag 26 oktober 2010 @ 12:19:
Ik zag zelfs dat 2GB geen eens nut had in de meeste games !!
Zie ook:

Op dit moment is het zo'n beetje simracen + wat Valve shooters wat ik doe en dat is meer dan genoeg.
Toen de 2Gb kaarten net beschikbaar waren heb ik aardig wat reviews hier voorbij zien vliegen die mij lieten zien dat ik niks gemist heb door net 1 a 2 maanden ervoor een 5870 van 1GB aan te schaffen.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Nja ik vind mijn 5850 @ 950-1225 al te traag voor 2560x1600. 3x 1680x1050 is nog zwaarder en wat ik ik soms zag was voor mijn eisen te slecht. Dan zou ik echt hogere framerates willen. Dit was wel met Max IQ settings alleen AA en AF niet ingeschakeld. en dan gaat het toch wel hard met die hoge resoluties.Paprika schreef op dinsdag 26 oktober 2010 @ 12:13:
[...]
5850 met 3x 1920x1200 gaat anders best ok voor mij. Uiteraard heeft Metro 2033 geen 60 FPS, maar ik ben best bereid om met high en een enkele setting op medium te spelen in zo'n games (zonder AA want dan is 1GB echt te weinig). 2GB Cayman, ho!
Ah oke dan heb je die 4890 later gekocht. 6870 zit in die classe ja. Wellicht dan een bestellen die 200 euro kost misschien moet je dan wel langer wachten maar je betaalt dan 10% minder voor hetzelfde. Alternate had ze volgens mij voor dat soort prijzen op de site staan. En dan zelf de clockspeeds nog een beetje opvoeren. Dan heb je een snellere kaart dan de GTX460.NoepZor schreef op dinsdag 26 oktober 2010 @ 12:17:
[...]
Ik heb eigenlijk altijd een kaart gekocht van rond de 200 euro welke veel bang for buck levert. Denk hierbij aan kaarten zoals de 9700Pro, 6800GT, 5900GTO, 8800GT en dan nu de HD4890. Hopelijk komt AMD met een mooie kaart voor niet al te veel geld. De 5870 is bijvoorbeeld wel een mooie kaart, maar voor mij geen 350 euro waard tov. mijn 4890. Rationeel gezien is er weinig te koop wat veel meerwaarde biedt ten opzichte van die 4890, zonder dat je veel geld bij moet leggen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Klopt, maar er komen wel heel wat games aan die ik wel wil spelen met hoge settings en gezien de engines weet ik nu al hoe die FPS gaat worden met 1GB.nero355 schreef op dinsdag 26 oktober 2010 @ 12:30:
Mja dat zijn gelijk ook 2 games die ik echt never niet ga spelenNet als de meeste nieuwe games trouwens, maar dat is een ander verhaal...
En ik spijt dat ik een 5850 had gekocht om te wachten op een 2GB versie van de 5870 (had een soort gelijke release als bij de 4870 (512MB -> 1GB) verwacht). Die kwamen pas begin lente.nero355 schreef op dinsdag 26 oktober 2010 @ 12:30:
Toen de 2Gb kaarten net beschikbaar waren heb ik aardig wat reviews hier voorbij zien vliegen die mij lieten zien dat ik niks gemist heb door net 1 a 2 maanden ervoor een 5870 van 1GB aan te schaffen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 6% gewijzigd door Paprika op 26-10-2010 12:53 ]
Link voor de xfx scans: http://hw-lab.com/xfx-hd-6800-line-up-specs-revealed.html.
Ik hoop echt dat deze single slot versies gaan komen, of denken jullie dat ijdele hoop is?
flickr - WOT Profile - Game PC
Offtopic maar gebruik je dan een 5870 OC bios? Die heb ik er in geflashed. Mijn 5850 doet het ook wel erg goed heb er 4 getest waarvan deze de hoogste core speed haalde maar die van me broertje doet 933-1266. Ook erg netjes. Weer een andere 910-1233. Dus 800 vind ik wel erg slecht. zeker met 5870 voltages.Paprika schreef op dinsdag 26 oktober 2010 @ 12:53:
Die van mij wil niet zo hard. Verre van zelfs: Core clock wil maar net op die van een stock 5870 (en dan moet er al echt een wtf-voltage op, dus loopt ie op 800MHz) en het geheugen heeft artifacts bij 1.1GHz en dat is ook al 100MHz minder dan een stock 5870.
Tja het zou wel kunnen gezien het verbruik. Al vraag ik me af of er super veel vraag naar is.Gizzy schreef op dinsdag 26 oktober 2010 @ 12:59:
Ik kijk heel erg uit naar single (koel)slot versie van de 6850 danwel de 6870. Volgens wat gescande folders van XFX zou daar aan gewerkt worden. Is er misschien iemand hier die daar al meer vanaf weet dan wat gescande docjes van XFX? Lijkt mij een ideale upgrade vanaf mijn 4850 in mijn shuttle. De 5770 vind ik net te weinig verbetering bieden om de investering te rechtvaardigen.
Link voor de xfx scans: http://hw-lab.com/xfx-hd-6800-line-up-specs-revealed.html.
Ik hoop echt dat deze single slot versies gaan komen, of denken jullie dat ijdele hoop is?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee, zit nog de stock bios op, maar vooral het geheugen was dus een probleem. Echter zal er aan 't eind van deze week een 5870 komen. Meteen eens kijken hoe Crossfire met Eyefinity samen gaat m.b.v. losse kaarten. Dan hopelijk voor de kerst die weer de deur uit voor een Cayman.Astennu schreef op dinsdag 26 oktober 2010 @ 13:22:
[...]
Offtopic maar gebruik je dan een 5870 OC bios? Die heb ik er in geflashed. Mijn 5850 doet het ook wel erg goed heb er 4 getest waarvan deze de hoogste core speed haalde maar die van me broertje doet 933-1266. Ook erg netjes. Weer een andere 910-1233. Dus 800 vind ik wel erg slecht. zeker met 5870 voltage

(Inderdaad zeer laat wat die 5870 betreft, maar kon door het dood gaan van een ander product wat kopen bij die winkel en toen wilde ik eerst een 6870 proberen en wilde ik de 5850 verkopen (wat overigens nog altijd zal gebeuren), toen kwam ik tot de conclusie dat de 6870 stock al aardig hoge clocks heeft en die dus uiteindelijk misschien zelfs mindere performance kan gaan geven dus toen heb ik er nog even 50 euro extra bij gedaan om een 5870 te krijgen voor 1 a 2 maanden
[ Voor 26% gewijzigd door Paprika op 26-10-2010 13:55 ]
Astennu schreef op dinsdag 26 oktober 2010 @ 12:33:
[...]
Ah oke dan heb je die 4890 later gekocht. 6870 zit in die classe ja. Wellicht dan een bestellen die 200 euro kost misschien moet je dan wel langer wachten maar je betaalt dan 10% minder voor hetzelfde. Alternate had ze volgens mij voor dat soort prijzen op de site staan. En dan zelf de clockspeeds nog een beetje opvoeren. Dan heb je een snellere kaart dan de GTX460.
De prijzen zijn gestegen bij alternate, gelukkig was ik net op tijd....of ik hem ook voor die prijs nog krijg.
|2600k|Asus 290|
|2600k|Asus 290|
Anoniem: 245699
Gewoon extra geld verdienen aan de klanten die de kaart gelijk willen hebben of nu geen andere keuze geven mits je een Sapphire wil.Paprika schreef op dinsdag 26 oktober 2010 @ 14:11:
Mmm, dat is vreemd. Een uur of 2 geleden was de Sapphire nog 200 euro en stond ie geel (5 werkdagen), nu is ie weer groen voor 230 euro.
Die 150,- voor de HD6850 is zoals gezegd ook verdwenen, leek zo een beetje op een actie om veel orders binnen te krijgen want de kaarten van andere merken kosten meer tussen de 160,- en 180,- (MaxICT uitgesloten...) Ben benieuwd wanneer de voorraden wat op peil komen...
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Ze boden de andere merken toch ook aan voor hogere prijzen?Bullus schreef op dinsdag 26 oktober 2010 @ 14:27:
Yep, 6850 is ook in prijs gestegen naar 180, blijkbaar heeft alternate gezien dat de prijzen in NL hoger liggen
ik denk dat je voeding het nu al zwaar heeft, aangezien je 4 hdd's aangesloten hebt. met de huidige voeding zal crossfire niet werken. je pc zal aangaan. tijdens het gamen is de kans groot dat je pc vastloopt of uitvalt. het beste is om een voeding te kopen die sli/crossfire ready is. deze bevat namelijk 4 keer een pci-e stroomstekker. dan hoef je niet met koppelstukjes/verloopstukjes te werken om je tweede kaart van stroom te voorzien.NoepZor schreef op dinsdag 26 oktober 2010 @ 12:04:
[...]
Ik ben in principe voorstander van een single gpu oplossing omdat dit minder energie verbruikt en verder geen gezeik geeft met slechte ondersteuning oid. Mijn voeding is maar 520 watt, ik weet niet of dit een i5 @ 3800 Mhz, 4 hdd's en een crossfire setup van 2x4890 kan draaien. De 6870 zou wel moeten kunnen binnen de capaciteit. Ik ga denk ik gewoon wachten om te zien wat de high-end kaarten van AMD gaan brengen.
voor zover ik het begrepen heb is de 6870 meer toekomst gericht ingesteld. je hebt dan direct x 11. verbeterde tesselation. een efficientere versie van aa (mlaa). ik had zelf een 4870 in crossfire. alle games werkten maxed out zonder AA met 16x af. ik heb 4 disks en een voeding van 750 watt. nu ben ik omgegaan naar twee 6870's in crossfire. ook dit trek mn voeding van 750 (corsair). ik had hiervoor een 580 watt van spire. met de spire voeding viel mn pc compleet uit tijdens het gamen met de crossfire setup.
Waar is dat op gebaseerd? 4 HDDs is toch niks?pvg103 schreef op dinsdag 26 oktober 2010 @ 15:46:
ik denk dat je voeding het nu al zwaar heeft, aangezien je 4 hdd's aangesloten hebt. met de huidige voeding zal crossfire niet werken. je pc zal aangaan. tijdens het gamen is de kans groot dat je pc vastloopt of uitvalt.
Zegt dat niet meer over de kwaliteit van Spire voedingen dan dat 580 W te weinig is?pvg103 schreef op dinsdag 26 oktober 2010 @ 15:46:
ik had hiervoor een 580 watt van spire. met de spire voeding viel mn pc compleet uit tijdens het gamen met de crossfire setup.
[ Voor 29% gewijzigd door Olaf van der Spek op 26-10-2010 15:57 ]
Ja geluid is ook wel een beetje een issue van de 4850 single slot koeling, maar voor die keren dat ik dan game, heb ik toch een headset op en er dus geen last van. Ik houd liever voorlopig nog mijn kleine kassie.Edmin schreef op dinsdag 26 oktober 2010 @ 13:36:
Ik zou me toch voornamelijk zorgen maken over de geluidsproductie van die kaarten, maar als je door een shuttle aan ruimtegrek zit, kan het een oplossing zijn.
Als de single slot oplossing niet gemaakt gaan worden, dan moet ik misschien gaan denken aan een ITX oplossing in de trant van een silverstone sg-05 met 450w sfx voeding. Hierin kan wel een dualslot GPU.
flickr - WOT Profile - Game PC
De wijzen komen uit het Oosten!
Olaf van der Spek schreef op dinsdag 26 oktober 2010 @ 15:54:
[...]
Waar is dat op gebaseerd? 4 HDDs is toch niks?
zet ze maar eens in raid. kijk dan maar eens of het niks is. het kan namelijk net het verschil maken.
[...]
Zegt dat niet meer over de kwaliteit van Spire voedingen dan dat 580 W te weinig is?
hoeft niet perse met kwaliteit te maken te hebben. twee 4890's samen hebben een piek van 380 watt. als je dan nog 140 watt over hebt met een 520 watt voeding, wordt het heel erg krap.
ben ik even blij dat ik ze vrijdag meteen bestelt heb
Je bent niet de enige
Zal me benieuwen wat ie kan qua OC
|2600k|Asus 290|
En nu al helemaal met MLAA. En ja er zullen spellen zijn die 1GB-kaarten overstuur krijgen, maar dat zou eigenlijk niet mogen en niet hoeven...


Dit is zonder AA & normal quality, dus er moet wel heel wat meer GPU power op kaarten zitten voor je de memory limit kunt testen (bedoel: lage settings en nog niet eens 35 fps).
Wat voor monitoren heb je eigenlijk Marc? Ik kom met 3 Samsung 2443BWs uit op 6048x1200 bezel management... oftewel 144 pixels aan bezel.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
8+1+1 fasen voeding, het ref design heeft 4+1+1, ook zijn er meetpunten voor de spanning aanwezig en is het geheugen 5Ghz. Dus het ziet er naar uit dat dit beestje ver kan gaan
EDIT: ter verduidelijking, het is een HD6850, van de HD6870 zijn ze er ook een aan het maken, maar daar zijn ze nog niet zover mee.
[ Voor 11% gewijzigd door Toettoetdaan op 26-10-2010 20:41 ]
2Gb voor singel kaarten is niet nodig. Maar zodra je CF of een dual GPU kaart hebt is 2Gb(per GPU) geen overbodige luxe. Immers verdubbel je de theoretische rekenkracht. In de praktijk resulteert dit in een toenamen van z'n 80% a 90% in prestatie(FPS). De theoretische hoeveelheid geheugen verdubbelt ook maar blijft in de praktijk gelijk aan die van één kaart. Dit is omdat beiden kaarten elkaars informatie delen en dus alles dubbel geladen staat in het geheugen.Marc Rademaker schreef op dinsdag 26 oktober 2010 @ 18:45:
Ik gok en durf bijna te wedden dat 1GB voorlopig genoeg blijft. Die benchmarks die je daarboven ziet staan zijn uitgevoerd met 8xAA. Ik heb Eyefinity getest met 3x 1980x1080, dat is 6MP, 1,5x zoveel als 2560x1600, wat goed is voor 4MP. Toch zag ik geen ENKEL verschil in de 1GB HD 5870 en de 2GB HD 5870 Eyefinity6-kaart.
En nu al helemaal met MLAA. En ja er zullen spellen zijn die 1GB-kaarten overstuur krijgen, maar dat zou eigenlijk niet mogen en niet hoeven...

http://www.forum-3dcenter...read.php?t=494193&page=12
Een HD68xx in actie.
Ik vind dat toch wel een flinke domper, dit zijn 1 van de basiszaken die 10 jaar geleden bijna beter werden gedaan. Het is iig wel verbeterd tov de HD5xxx en de getoonde voorbeelden zijn wel worst case senario's.
[ Voor 18% gewijzigd door edward2 op 26-10-2010 20:57 ]
Niet op voorraad.
staat niet op high quality?edward2 schreef op dinsdag 26 oktober 2010 @ 20:55:
De de AF schijnt nog niet bepaald full trilinear te zijn![]()
:
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik kan het zo snel even niet zien in dat forum maar is:edward2 schreef op dinsdag 26 oktober 2010 @ 20:55:
De de AF schijnt nog niet bepaald full trilinear te zijn![]()
:
http://www.forum-3dcenter...read.php?t=494193&page=12
Een HD68xx in actie.
Ik vind dat toch wel een flinke domper, dit zijn 1 van de basiszaken die 10 jaar geleden bijna beter werden gedaan. Het is iig wel verbeterd tov de HD5xxx en de getoonde voorbeelden zijn wel worst case senario's.
Het betrouwbaar ?
Goed getest(instellingen en game etc)
Belangrijk ?
Maakbaar d.m.v. drivers ? C.q. het een bug zou kunnen zijn ?
[ Voor 4% gewijzigd door madmaxnl op 26-10-2010 22:50 ]
Maar ze hadden nu juist de memory controllers van de Juniper-serie gepakt om ruimte (en dus vermogen) te besparen; voor hoge memclocks had Cypress die dikkere memory controllers nodig. Dus misschien kom je helemaal niet zo ver met het geheugen?Toettoetdaan schreef op dinsdag 26 oktober 2010 @ 20:35:
[...]
8+1+1 fasen voeding, het ref design heeft 4+1+1, ook zijn er meetpunten voor de spanning aanwezig en is het geheugen 5Ghz. Dus het ziet er naar uit dat dit beestje ver kan gaan
EDIT: ter verduidelijking, het is een HD6850, van de HD6870 zijn ze er ook een aan het maken, maar daar zijn ze nog niet zover mee.
Zegt verder niks over de mogelijkheden van de core zelf natuurlijk
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Zitat von Schlammsaumadmaxnl schreef op dinsdag 26 oktober 2010 @ 22:50:
[...]
Ik kan het zo snel even niet zien in dat forum maar is:
Het betrouwbaar ?
Goed getest(instellingen en game etc)
Belangrijk ?
Maakbaar d.m.v. drivers ? C.q. het een bug zou kunnen zijn ?
TMNF, 1920x1080, 8xAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/H983CI0CKH
Het 3dcenterforum bestaat uit een groep IQ whores zoals ik
[ Voor 7% gewijzigd door edward2 op 26-10-2010 23:41 ]
Niet op voorraad.
Nog even hierover:Marc Rademaker schreef op dinsdag 26 oktober 2010 @ 18:45:
Ik gok en durf bijna te wedden dat 1GB voorlopig genoeg blijft. Die benchmarks die je daarboven ziet staan zijn uitgevoerd met 8xAA. Ik heb Eyefinity getest met 3x 1980x1080, dat is 6MP, 1,5x zoveel als 2560x1600, wat goed is voor 4MP. Toch zag ik geen ENKEL verschil in de 1GB HD 5870 en de 2GB HD 5870 Eyefinity6-kaart.
En nu al helemaal met MLAA. En ja er zullen spellen zijn die 1GB-kaarten overstuur krijgen, maar dat zou eigenlijk niet mogen en niet hoeven...
http://www.widescreengami...Featured_Review_-_Page_14

Ik speel echter waar mogelijk met downsampling (2880x1800(of meer) in 1920x1200)en/of (TS(G)SSAA icm GFX mods en dan ga je nog makkelijker over 1 GB framebuffer.
Hopelijk komt Cayman wel gelijk met een 2 GB uitvoering.
[ Voor 3% gewijzigd door edward2 op 26-10-2010 23:50 ]
Niet op voorraad.
http://developer.amd.com/...eTrack/pages/default.aspx
|2600k|Asus 290|
http://support.amd.com/us...U86AMDCat1010cHotfix.aspxAMD Catalyst 10.10c Hotfix Features:
â– OpenGL 4.1 beta support
â– Support for the new Morphological Anti-Aliasing feature
■Dead Rising 2 – Crossfire profile (Resolves negative scaling)
â– Crossfire Performance Improvement for:
â—¦Metro 2033
â—¦F1 2011 - (Direct X9 version)
â—¦Fallout New Vegas
â– Performance optimizations for systems with an AMD Radeonâ„¢ HD 6870 and AMD Radeon HD 6850 series of graphics products installed
â—¦Aliens versus Predator performance enhancements
â—¦Star Craft 2 performance enhancements
◦OpenGL performance enhancements – gains can be seen in Prey, Quake Wars: Enemy Territories, and Heaven v2
Ze zullen wel F1 2010 bedoelen
Wel jammer dat er nog geen verbeteringen zijn voor single cards voor dit spel en nog geen verbeteringen voor DX11? Het schijnt dat de nieuwe Nvidia drivers wel al verbeteringen brengt voor F1 2010 DX11.
Als je Catalyst 10.10 installeert, kun je dan hotfix 10.10c installeren, of moet je eerst hotfix a en b installeren? Ik denk alleen hotfix c?
En trouwens, kun je ook gewoon hotfix 10.10c installeren, zonder eerst Catalyst 10.10 te installeren?
[ Voor 17% gewijzigd door Cooperator op 27-10-2010 01:04 ]
Ze hebben de basis van Redwood gebruikt. Maar het is wel een andere controller want die in redwood is maar 128 bit in Barts is hij 256.TGEN schreef op dinsdag 26 oktober 2010 @ 23:21:
[...]
Maar ze hadden nu juist de memory controllers van de Juniper-serie gepakt om ruimte (en dus vermogen) te besparen; voor hoge memclocks had Cypress die dikkere memory controllers nodig. Dus misschien kom je helemaal niet zo ver met het geheugen?
Zegt verder niks over de mogelijkheden van de core zelf natuurlijk.
Damm ze zijn lekker bezig bij AMD. Laatst hotfix a en nu c al weer. En het lijstje met tweaks wordt steeds groter.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Yup, hotfixes bij AMD zijn gewoon volwaardige driversets.Cooperator schreef op woensdag 27 oktober 2010 @ 01:01:
[...]
En trouwens, kun je ook gewoon hotfix 10.10c installeren, zonder eerst Catalyst 10.10 te installeren?
Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //
Ik bedoelde het ook als iets positiefsSoundstorm2010 schreef op woensdag 27 oktober 2010 @ 11:23:
Maakt toch niet uit. Wees blij dat ze het vinden en oplossen
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
GelukkigAstennu schreef op woensdag 27 oktober 2010 @ 11:48:
[...]
Ik bedoelde het ook als iets positiefsben juist blij dat ze zo snel met fixes komen!!
Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //


|2600k|Asus 290|
Flashen(6870 bios) met die hap
Ik ga ervanuit dat als je er een brickt, dat je met die andere en atiflash de originele bios terug kan zetten, maar het risico ligt uiteraard bij jou
Anoniem: 357365 schreef op woensdag 27 oktober 2010 @ 12:19:
Of ik kijk ik nu verkeerd?

Heeft natuurlijk totaal geen zin kaarten zijn gelasercut, als die wel 1120 werkende SP's heeft dan geeft die dat zelf wel aan in GPU-z.ABD schreef op woensdag 27 oktober 2010 @ 12:20:
Ik ga ervanuit dat als je er een brickt, dat je met die andere en atiflash de originele bios terug kan zetten, maar het risico ligt uiteraard bij jou![]()
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Wist niet dat die lasercut al zeker was en eerlijk gezegd ook niet dat GPU-z zo geavanceerd is dat het niet de bioswaarden overneemt. Weer wat geleerd-The_Mask- schreef op woensdag 27 oktober 2010 @ 12:23:
[...]
Heeft natuurlijk totaal geen zin kaarten zijn gelasercut, als die wel 1120 werkende SP's heeft dan geeft die dat zelf wel aan in GPU-z.
Dat wel maar je krijgt waarschijnlijk net als bij de HD5850 dan wel de x70 voltages en clocks. Overclockbaarheid werd bij mijn 5850 een stuk beter door die extra voltages. En bricken is echt moeilijk. Heb er nog nooit een echt kapot gekregen. hooguit bios corrupt maar dan was het een 2e kaart er in en dan weer atiflash starten + opnieuw flashen werkte altijd perfect.-The_Mask- schreef op woensdag 27 oktober 2010 @ 12:23:
[...]
![]()
[...]
Heeft natuurlijk totaal geen zin kaarten zijn gelasercut, als die wel 1120 werkende SP's heeft dan geeft die dat zelf wel aan in GPU-z.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Bullus schreef op woensdag 27 oktober 2010 @ 12:14:
Binnekort wat testjes van mij, is er nog geen HD6xxx ervaringen topic?
[afbeelding]
[afbeelding]

Vanochtend om tien over negen binnen gekregen
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Probleem was nl zodra je overklokte ,dat er 1 scherm ging flikkeren.
Na cat.10.5 volgens mij was dat probleem opgelost en kon je gewoon overklokken zonder dat geflikker.
Overklokbaarheid zal hetzelfde zijn met 5850 of 5870 bios, mist je natuurlijk dezelfde voltages hanteerd.
TGEN schreef op woensdag 27 oktober 2010 @ 13:08:
[...]
[afbeelding]
Vanochtend om tien over negen binnen gekregen.
[ Voor 26% gewijzigd door Bullus op 27-10-2010 13:10 ]
|2600k|Asus 290|
Maar dat is het em stock bios geeft 1.09v. 5870 1.16x. En ik gebruik liever geen software. Ik heb me Bios ook helemaal met RBE aangepast lekker makkelijk.Bullus schreef op woensdag 27 oktober 2010 @ 13:09:
In het begin had ik ook een 5870bios erin geflashed op de 5850, dit was puur voor hogere 5870 clocks met 2 schermen.
Probleem was nl zodra je overklokte ,dat er 1 scherm ging flikkeren.
Na cat.10.5 volgens mij was dat probleem opgelost en kon je gewoon overklokken zonder dat geflikker.
Overklokbaarheid zal hetzelfde zijn met 5850 of 5870 bios, mist je natuurlijk dezelfde voltages hanteerd.
[...]
Veel plezier met je kaart
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Veel plezier er mee...TGEN schreef op woensdag 27 oktober 2010 @ 13:08:
[...]
[afbeelding]
Vanochtend om tien over negen binnen gekregen.
En draai eens wat testjes ofzo.. wil wel zien hoe het werkt bij andere in plaats van ATI ss

Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //
Bij mij kwam hij gisterochtend binnen. Pastte zelfs in m'n pc zonder te zagen (speling van +/- 2cm). Heb even Heaven 2.1 gedraaid, zag er erg nice uit. De OpenGL versie van Heaven draaide wel enorm slecht moet ik zeggen (ja, zelfs met de laatste hotfix die ervoor zou moeten zorgen dat het beter presteerd).TGEN schreef op woensdag 27 oktober 2010 @ 13:08:
[...]
[afbeelding]
Vanochtend om tien over negen binnen gekregen.
Daarnaast onder Linux heaven gedraaid, liep iets beter dan onder Windows met OpenGL, maar de performance was om te huilen ivm Heaven DirectX versie (zal nog eens meer testen vandaag, wellicht dat tessellation in de OpenGL driver nog slecht geoptimaliseerd is momenteel).
The Flying Dutchman
Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //
Ja, eerst m'n GTX460 nog eruit pielen, daarvoor moet ik de loop ook drainen. Overigens kan je in de shots van de HSF bij de review van LegitReviews zien dat je net als bij de HD58x0 je makkelijk een core-only waterblok erop kan mounten; misschien dat ik direct m'n Koolance GPU-220 overzet, hoef ik de loop niet te drainen. Alleen zal de shroud wel niet meer passen daarna...Soundstorm2010 schreef op woensdag 27 oktober 2010 @ 13:20:
[...]
Veel plezier er mee...
En draai eens wat testjes ofzo.. wil wel zien hoe het werkt bij andere in plaats van ATI ss
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
True, maar Heaven vereist slechts OpenGL 4.0.
The Flying Dutchman
Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //
|2600k|Asus 290|

[ Voor 32% gewijzigd door neliz op 27-10-2010 14:00 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
tijd teveel
Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //
Iemand die dit weet ?Soundstorm2010 schreef op woensdag 27 oktober 2010 @ 13:49:
kan dat dan zijn dat de 4.1 beta ervoor zorgt dan de heaven 4.0 niet optimaal draaid ?
[ Voor 34% gewijzigd door dion_b op 29-10-2010 12:56 ]
Build To PLay /\ Kicking Ass, and Taking Names // My New Specs 2024 // Orgin: PitBullNL2010 // Steam: PitBullNL2010 //
Nog even hierover:[Update]toon volledige bericht
De laatste uren voor de lancering - op het moment dat we deze review al geschreven hadden - was het nog een drukte van jewelste in de Hardware.Info mailboxen. nVidia liet ons weten de adviesprijzen van haar videokaarten officiëel te verlagen. De GeForce GTX 460 1 GB zou bij online shops € 169 (incl. BTW) moeten gaan kosten, min of meer het niveau van de Radeon HD 6850. De prijs van de GeForce GTX 470 wordt verlaagd tot € 219 inclusief BTW.
Nog geen half uur na ontvangst van nVidia's e-mail stuurde AMD ons een e-mail met daarin de wetenschap dat nVidia's prijsverlagingen tijdelijk zouden zijn en puur waren bestemd om de nieuwe AMD kaarten op de dag van lancering in een slecht daglicht te plaatsen. Volgens AMD zouden de GTX 460 en 470 binnen een maand weer op het oude niveau terecht moeten komen.
nVidia mailde vrijwel direct daarna met een bevestiging dat de prijsverlagingen permanent en dus absoluut niet tijdelijk zijn.
We mogen concluderen dat beide fabrikanten er alles voor over hebben om in dit belangrijke prijssegment de beste prijs/prestatie-verhouding te kunnen bieden. Als er echt een videokaarten prijzenoorlog gaat ontstaan, is het nu nog niet te voorspellen wie die gaat winnen. Dankzij een veel kleinere die size heeft AMD in ieder geval wel het voordeel van lagere productiekosten. We zijn benieuwd hoe de prijzen de komende dagen en weken gaan veranderen. Uiteraard zullen we dat op Hardware.Info nauwlettend in de gaten houden.
Nvidia price-cut is not permanent
Just for this batch
According to an e-mail that ha found its way into our hands, Nvidia's last price-cut for GTX 460 1GB and GTX 470 is not permanent, but rather just a temporary price cut.
According to what we know and what we have heard from retail/e-tail sources, the price-cut only covers inventory and sales of GTX 460 1GB and GTX 470 cards between October 21st and November 14th. This could mean that after November 14th the prices of these cards might get back up.
Just to remind you, the MSRP for the GTX 460 1GB is 169 euro, while the GTX 470 was cut to 219 euro. Take this info with a grain of salt as retailers/e-tailers aren't quite keen to show any solid confirmation or hard proof, as you don't want to get on Nvidia's bad side. Nvidia could also simply continue with this even after the November 14th but for now the date that retaile/e-tail has is the November 14th.
Unsurprisingly, the date of the price cut is quite familiar.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
YouTube: Ok Go - Here It Goes Again [official video]Update: Nvidia was kind enough to inform us that the claims regarding the price update aren't true. Igor Stanek, Product PR Manager EMEAI informed us that :"Any claims that our pricing update is temporary are patently false. The price adjustments we made are not temporary, and are reflective of an upcoming change in our product lineup."
We are quite sure the e-mail that we've received came from a legit source and we did say that Nvidia might continue with these prices after the November 14th. According to the statement from Nvidia, those new prices are here to stay.
verkeerde nieuws topic, echt...
Miss you CJ....:'( en nee... ik kan niet aan samples komen
1Gb en 2Gb wellicht gelijk vanaf de start. 2Gb voor CF en Eyefinity en 1Gb voor singelkaart.edward2 schreef op dinsdag 26 oktober 2010 @ 23:48:
Hopelijk komt Cayman wel gelijk met een 2 GB uitvoering.
Net zoals HD4870 512Mb en 1Gb versies waarbij 512Mb meer dan genoeg was als singel maar in CF was de 1Gb duidelijk sneller. Verschil in geheugen is natuurlijk om de kaart goedkoper in de markt te kunnen zetten, dat spreekt voor zich.
2 GB voor CF óf Eyefinity of echt beiden samen? In geval van enkel Eyefinity zónder CF dus. Valt dan de keuze gelijk op 2 GB of hoe zou jij het verwoorden voor de consument?madmaxnl schreef op woensdag 27 oktober 2010 @ 14:45:
[...]
1Gb en 2Gb wellicht gelijk vanaf de start. 2Gb voor CF en Eyefinity en 1Gb voor singelkaart.
Net zoals HD4870 512Mb en 1Gb versies waarbij 512Mb meer dan genoeg was als singel maar in CF was de 1Gb duidelijk sneller. Verschil in geheugen is natuurlijk om de kaart goedkoper in de markt te kunnen zetten, dat spreekt voor zich.
[ Voor 9% gewijzigd door Fid3lity op 27-10-2010 15:14 ]
De nieuwe kaarten kunnen volgens mij 6 schermen mits je die special dp 1.2 splits kabels hebt. Op die manier kun je met een uitgang 3 schermen aansturen. (Althans dit is wat ik er van begrepen hebspNk schreef op woensdag 27 oktober 2010 @ 15:05:
Er komt toch geen Eyefinity versie?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Volgens mij is het zo dat je tot 3 schermen kunt daisy-chainen, wat iets anders is dan een splitter. Je kan ook een MST-hub gebruiken, dan 'split' je het wel direct. Maar die zat iig niet geleverd bij mijn HD6870Astennu schreef op woensdag 27 oktober 2010 @ 15:22:
[...]
De nieuwe kaarten kunnen volgens mij 6 schermen mits je die special dp 1.2 splits kabels hebt. Op die manier kun je met een uitgang 3 schermen aansturen. (Althans dit is wat ik er van begrepen heb)
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Je hebt gelemaal gelijk, maar dan wel via een MST-hubAstennu schreef op woensdag 27 oktober 2010 @ 15:22:
[...]
De nieuwe kaarten kunnen volgens mij 6 schermen mits je die special dp 1.2 splits kabels hebt. Op die manier kun je met een uitgang 3 schermen aansturen. (Althans dit is wat ik er van begrepen heb)
En een foto van Anand:DisplayPort 1.2 is one capability that AMD did add, enhancing bandwidth over the interface, integrating support for high-bit rate audio alongside video, and defining compatibility with the next generation of 120 Hz 3D monitors. Moreover, DisplayPort 1.2 is able to drive multiple displays from each output. That's right. DisplayPort displays can now be daisy-chained. That is to say a single DisplayPort output can use a Multi-Stream Transport (MST) hub to split off into multiple DP/VGA/DVI/HDMI displays of your choosing. Special Eyefinity edition cards are no longer necessary for six-monitor use.

Link naar Toms
Link naar Anand
Nee, ik bedoel dat er twee versies van Cayman komen. Namelijk een 1Gb versie en een 2Gb versie. AMD verbindt hier geen specifieke functies aan maar AMD gaat er vanuit dat de 1Gb versies alleen gebruikt gaan worden in een singel GPU opstelling en dat de 2Gb versies gebruikt gaan worden voor CF en of Eyefinity.Blue-Tiger schreef op woensdag 27 oktober 2010 @ 14:57:
[...]
2 GB voor CF óf Eyefinity of echt beiden samen? In geval van enkel Eyefinity zónder CF dus. Valt dan de keuze gelijk op 2 GB of hoe zou jij het presenteren als zijnde verkoper?
Het is dus niet zo dat de 1Gb versie geen Eyefinity en of CF mogelijkheid heeft, het zal je alleen in beiden gevallen in veel games een geheugen bottelnek opleveren. De benchmarks zullen dit t.z.t. wel laten zien.
AMD en of de AIBs doen dit om zo op de kosten te besparen. De 2Gb zal bij een enkelen kaart weinig tot geen nut hebben waardoor mensen die een enkelen kaart "te veel" betalen. Waarbij 1Gb goedkoper is en het zelfde presteert. De enige situatie waarin je veel verschil gaat zien is in CF en of Eyefinity.
Zie HD57xx 1Gb/512Mb, HD4870 512Mb/1Gb, HD58xx 1Gb/2Gb waarbij zelfde soort situatie is en of kan voorkomen. Vooral bij de HD4870 is er bewust gekozen voor een 1Gb per GPU in het geval van de HD4870x2. Bij de HD5970 zat daar nog altijd 1Gb op omdat alleen in zeldzame gevallen CF+specifieke games+Eyefinity een bottelnek opleverde. Er is dan ook een "zeldzame oplossing" voor gekomen
Bij een dual Cayman, HD6990 ? Zal er waarschijnlijk 2Gb per GPU beschikbaar zijn wat natuurlijk genoteerd staat als 4Gb.





Hier is dus duidelijk te zien dat twee keer HD5970 te kort heeft aan 1Gb per GPU waar een HD5970 met 2Gb per GPU gehakt maakt van de HD5970. Ja de HD5970 4Gb is 850Mghz en de HD5970 2Gb is 725Mghz maar zelfs als je dit verschil in clock frequentie lineair zou schalen is dus te zien dat er een geheugen bottelnek optreed. In het geval van Eyefinity+CF is 2Gb noodzakelijk in mijn ogen, er zijn maar weinig benches die dit aantonen zoals deze:

Bron
Bron
Dit topic is gesloten.