Gurneyhck schreef op woensdag 23 september 2009 @ 23:41:When Voltage Tweak comes into play, the HD 5870 can be overclocked to 1035MHz for the GPU and 5200MHz for memory by just raising the voltage from 1.15V to 1.35V. With the HD 5850 it gets even better as it can be overclocked via Voltage Tweak to 1050MHz for the GPU and 5200MHz for the memory by raising the voltage from 1.088V to 1.4V.
:9

Nu moet ik bijna wel mijn twee HD4850's in CrossFireX weg doen. :')

[ Voor 255% gewijzigd door -The_Mask- op 25-09-2009 23:30 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Apoca
  • Registratie: November 2001
  • Nu online

Apoca

Array Technology Industry

Misschien niet geheel ATi nieuws, maar omdat het in de TS staat.

Battleforge heeft de DX11 update al online staan :)

http://forums.battleforge.com/forum/showthread.php?t=24137

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 12-09 08:26
@ CJ, duidelijk :)

@ The Mask, ik heb hetzelfde vernomen over de spanning. Ik vraag me echter af of je en 40nm-gpu lange tijd op 1,4V wilt draaien (en in hoeverre het verbruik en dus ook de warmte-ontwikkeling toeneemt).

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Lijkt me onwenselijk. Met het kleinere productieproces neemt ook de tolerantie voor hogere spanningen af. Neem bijvoorbeeld de 45nm Core2Quad. Stock is (geloof ik) 1,216V. Intel waarschuwt voor core-degradation boven de 1,36V. 24/7 op 1,4V en hoger is gekkenwerk.

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Als de kaart stuk gaat met 1.4V op de core, dan lijkt het me een simpel gevalletje garantie he. Er vanuit gaande dat we het hier over zo'n Asuskaart hebben.

  • Marce
  • Registratie: Oktober 2007
  • Laatst online: 31-07 11:30

Marce

Het is Marc met een C!

Gurneyhck schreef op donderdag 24 september 2009 @ 00:11:
Als de kaart stuk gaat met 1.4V op de core, dan lijkt het me een simpel gevalletje garantie he. Er vanuit gaande dat we het hier over zo'n Asuskaart hebben.
zal vast wel aangegeven staan wat de max is ofzo :P
Elke CPU heeft een andere VID. ;)
Intel waarschuwt voor core-degradation boven de 1,36V.
De VID van (volgens mij alle) 45nm CPU's gaan van 0.85V – 1.3625V dit betekend dus gewoon dat er in theorie ook CPU's zijn met een standaard voltage van 1,36V al hoef je die in de praktijk niet tegen te komen. Verbruik zal waarschijnlijk dan te hoog liggen. Hoeveel 45nm CPU's heb je namelijk gezien die het niet meer doen. Of een veel meer Vcore nodig hebben waar meer dan 1,4V is opgezet? 0,0 misschien? Dacht ik al. :p Is namelijk nogal errug overdreven. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
1.35v zullen ze wel kunnen echter denk ik dat hij dan wel heel wat meer stroom verbruikt. 250 ipv 190 watt zou ik niet raar vinden als het al niet meer is.

Het ligt er net aan waar de chip voor ontworpen is. Sommige chips kunnen gewoon beter tegen hoge voltages dan anderen. Het ligt er bv ook aan of er low-k of high-k materialen gebruikt worden. Of bv SOI. Omdat 45nm cpu's er niet goed tegen zouden kunnen hoeft het niet zo te zijn dat deze gpu's er ook niet tegen kunnen.

De rede dat AMD de voltages laag houd heeft volgens mij meer te maken met het verbruik dat het verhogen van de voltages met zich mee brengt.

[ Voor 61% gewijzigd door Astennu op 24-09-2009 00:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

-The_Mask- schreef op donderdag 24 september 2009 @ 00:14:
[...]
Hoeveel 45nm CPU's heb je namelijk gezien die het niet meer doen. Of een veel meer Vcore nodig hebben waar meer dan 1,4V is opgezet? 0,0 misschien? Dacht ik al. :p Is namelijk nogal errug overdreven. ;)
Was het maar zo eenvoudig. Ik ken de voorbeelden IRL ook. Punt is dat het nooit laboratoriumproof omstandigheden zijn geweest.
[/offtopic]

  • Karasu
  • Registratie: Oktober 2007
  • Laatst online: 03-09 12:19

Karasu

.,;:!'"'!:;,.

14.7 op idle? Jinkies! En ik die dacht dat ik mn pwr moest upgraden!
However, this benchmark is already obsolete and we only use it as we’ve accumulated a large amount of data on graphics cards from previous generations. FurMark provides a different picture. It makes full use of all GPU resources and the new card’s peak power consumption is as high as 160 watts. On the other hand, FurMark is far more intensive than real-life games, so the practical power draw is going to be closer to the first number than to the second
Dacht ik even dat ze een furry versie hadden uitgebracht.. Geeft FurMark enkel een maximum aan misschien?

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
De tijd van dat meeste games die uitkomen niet meer dan 2 cores verbruiken is eigenlijk wel voorbij.

Ook, Armed assault 2 is duidelijk cpu gebottlenecked. Draai het maar eens op zijn allerhoogst zonder AI. Nog steeds harstikke veel voorwerpen etc maar je kan zelfs op een hd4870 1gb alles max draaien.

Dit is voor mij dan ook de reden om te wachten tot er redelijk wat 32nm cpu's zijn. Deze zullen dan namelijk wel arma 2 tot zijn knieeën hopelijk brengen.

  • Xirt
  • Registratie: December 2003
  • Laatst online: 29-06 23:00
Ik heb nog bijna geen games gezien met specs van quadcore? Zeker niet voor de minimum. Of bedoel je de tijd van games die op 1 core draaien?

  • TheDukemaster
  • Registratie: Mei 2004
  • Laatst online: 03-08 22:21
Mooie chart waarin een gemiddelde genomen is van een hoop benchmarks:
http://www.madshrimps.be/...-performance-chart-66465/
Radeon 5850 dus gemiddeld 88% van de performance van een HD5870. Als je dan het overklokken meeteld moet je toch eigenlijk wel gek zijn om voor 100 euro meer de HD5870 te nemen!?

Verwijderd

http://techpowerup.com/re..._HD_5870_CrossFire/1.html

Ziekelijk. Werkelijk waar, d:)b voor AMD/Ati.

Wanneer Nvidia met een tegenligger komt liggen deze kaartjes vanzelf met een dikke prijsdaling in de winkels, en kan de overstap van mij beginnen naar Windows 7 icm een DX11 kaart van AMD/Ati.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:27
Waarom zetten ze er geen GTX295 SLI setup tegenover? :z

  • nedernakker
  • Registratie: September 2007
  • Laatst online: 16-11-2024
chimo schreef op donderdag 24 september 2009 @ 07:28:
[...]

Waarom zetten ze er geen GTX295 SLI setup tegenover? :z
nou, wat dacht ja van dat 4 tegen 2 niet echt een reeële vergelijking is? tuurlijk wint de gtx 295 dan..

eerlijk is 5870 CFX vs gtx295 en dan 5870x2 cfx vs gtx 295 sli.

Ryzen 7 5700G // 3060 Ti // 32 GB 1600 MHz // 1 TB NVMe // 2 TB SATA // 2x 2560x1440 @75 hz


  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

http://techpowerup.com/re..._HD_5870_CrossFire/8.html

Dat is toch wel bizar of niet? Twee keer wordt de reso+AA+AF verhoogd en twee keer schieten de kaarten OMHOOG in framerates? Wat gebeurd daar precies ...

De meeste mensen deugen!


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:06

Cheezus

Luiaard

nedernakker schreef op donderdag 24 september 2009 @ 07:35:
[...]

nou, wat dacht ja van dat 4 tegen 2 niet echt een reeële vergelijking is? tuurlijk wint de gtx 295 dan..

eerlijk is 5870 CFX vs gtx295 en dan 5870x2 cfx vs gtx 295 sli.
Denk je? 1 5870 is iets langzamer dan een 295 maar een tweede 5870 schaalt lekker. 2x gtx295 maakt quad SLI wat nou niet bepaald geoptimaliseerd is. Ik denk dat een 5870CF setup dan ook beter gaat werken, misschien niet altijd de hoogste avg fps maar wel de hoogste min. fps en minste last van bugs, stuttering en schaalproblemen.

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 23-08 14:48
bwerg schreef op woensdag 23 september 2009 @ 22:22:
[...]


Uiteraard. De versimpelingen van quadcore@3GHz=dualcore@6GHz mogen dan wel niet waar zijn, maar dat het er met extra 2 cores juist op achteruit gaat is mij ook nieuw :P.
Oooh, ik zie het al, typfoutje |:( , ik bedoelde: Een dual van 4Ghz is ongeveer even snel als een quad van 3,8Ghz. En de quad is dan ondanks zijn lagere kloksnelheid even snel, omdat alle niet-game dingen, op de twee overige cores gedraait kunnnen worden, zodat de game daar geen last avn heeft.

  • Galvatron
  • Registratie: September 2005
  • Laatst online: 11-09 22:51
Wat ze zouden moeten doen is aangeven wat de minimum specs. zijn voor elke videokaart. Het heeft dus geen zin om een 5870 met een P4 of X2 te combineren. Zou eigenlijk een lijst van moeten komen.

Voorbeeld (uit de duim gezogen):
Graka vanaf CPU
4850 E6600 @ 3Ghz / X2 6000 >
4870 E6600 @ 3Ghz/ X2 6000 >
4890 E8400 @ 3,2Ghz / X3...>
5850 Q9450 @ 3,4Ghz / X4 II
5870 i5/i7 @ 3,6 Ghz

Met z'n tabelletje heb je toch minder kan s een miskoop te doen?

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:06

Cheezus

Luiaard

Eperium schreef op donderdag 24 september 2009 @ 09:30:
Wat ze zouden moeten doen is aangeven wat de minimum specs. zijn voor elke videokaart. Het heeft dus geen zin om een 5870 met een P4 of X2 te combineren. Zou eigenlijk een lijst van moeten komen.

Voorbeeld (uit de duim gezogen):
Graka vanaf CPU
4850 E6600 @ 3Ghz / X2 6000 >
4870 E6600 @ 3Ghz/ X2 6000 >
4890 E8400 @ 3,2Ghz / X3...>
5850 Q9450 @ 3,4Ghz / X4 II
5870 i5/i7 @ 3,6 Ghz

Met z'n tabelletje heb je toch minder kan s een miskoop te doen?
Alleen jammer dat zo'n tabelletje voor elke game anders is.. Mensen die een dikke videokaart kopen hebben meestal ook wel in de gaten of hun CPU nog wel een beetje meekan of niet. Ouders die een videokaart kopen zodat hun zoontje eens een spelletje kunnen doen kopen doorgaans geen high-end kaarten.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:27
primusz schreef op donderdag 24 september 2009 @ 09:38:
[...]
Mensen die een dikke videokaart kopen hebben meestal ook wel in de gaten of hun CPU nog wel een beetje meekan of niet.
Ik zie nou allemaal mensen een i5 750 kopen met zo'n HD58xx kaart maar vraag m,e af of die processor niet te langzaam voor die kaarten. Kan je beter een i7 nemen toch? Liefst ook een 1366 socket want volgens mij zijn die nieuwe op 1156 socket wat langzamer. Als je een high-end kaart neemt, neem dan ook een high-end processor, denk ik dan.
chimo schreef op donderdag 24 september 2009 @ 09:45:
[...]

Ik zie nou allemaal mensen een i5 750 kopen met zo'n HD58xx kaart maar vraag m,e af of die processor niet te langzaam voor die kaarten. Kan je beter een i7 nemen toch?
Nee HT zorgt in games vaak voor een performance daling. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • defcon84
  • Registratie: September 2009
  • Laatst online: 12-09 11:37

defcon84

Multipass?

chimo schreef op donderdag 24 september 2009 @ 09:45:
[...]

Ik zie nou allemaal mensen een i5 750 kopen met zo'n HD58xx kaart maar vraag m,e af of die processor niet te langzaam voor die kaarten. Kan je beter een i7 nemen toch? Liefst ook een 1366 socket want volgens mij zijn die nieuwe op 1156 socket wat langzamer. Als je een high-end kaart neemt, neem dan ook een high-end processor, denk ik dan.
bwa, de socket zelf is niet 'langzamer' natuurlijk :)
gewoon minder pinnetjes, en dus minder bandbreedte..
(of zit ik hier mis?)

ik zat eerder in met het 2x PCIe 8x gedoe van het P55 systeem
Gaat dat echt geen bottleneck vormen voor 2x HD 5870 in CFX?

ps: hier kan je een HD 5870 Vapor-X model winnen:
http://www.bit-tech.net/n...eon-hd-5870-vapor-x-card/
edit:
en hier ook: http://www.hexus.net/content/item.php?item=20279

[ Voor 3% gewijzigd door defcon84 op 24-09-2009 10:01 . Reden: 2de contest ]


  • outlandos
  • Registratie: November 2001
  • Laatst online: 20:52
-The_Mask- schreef op donderdag 24 september 2009 @ 09:49:
[...]

Nee HT zorgt in games vaak voor een performance daling. ;)
Ik heb een E8500 en die doet het prima met games!

Maar zijn er al reviews van de 5850?

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
chimo schreef op donderdag 24 september 2009 @ 09:45:
[...]

Ik zie nou allemaal mensen een i5 750 kopen met zo'n HD58xx kaart maar vraag m,e af of die processor niet te langzaam voor die kaarten. Kan je beter een i7 nemen toch? Liefst ook een 1366 socket want volgens mij zijn die nieuwe op 1156 socket wat langzamer. Als je een high-end kaart neemt, neem dan ook een high-end processor, denk ik dan.
Dat is niet waar een i7 870 (1156) is sneller dan een i7 920 (1366) op gelijke kloksnelheid.


Een tragere cpu merk je vooral op de lagere resoluties. De fps blijft hangen op bijv 80 ipv dat hij doorschiet naar 150. Juist bij hogere resoluties zie je dat verschil in verhouding veel minder.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:27
-The_Mask- schreef op donderdag 24 september 2009 @ 09:49:
[...]

Nee HT zorgt in games vaak voor een performance daling. ;)
Mja dat ligt meer aan de games dan aan de processor, als ik links en rechts wat reviews erop nasla. Tevens heb je er meer profijt van bij andere dingen, je speelt niet alleen maar spelletjes neem ik aan?

Mijn punt is, als je high-end HD58xx kaart neemt, neem dan ook een high-end i7 of Phenom II X4 processor, bij voorbaar een 955 of 965, iig iets snels zodat je weet dat je processor niet de bottleneck is. Bovendien vind ik mooier als totaalplaatje.

i5 750
PRO: beste verhouding prijs/prestaties; verlaagde TDP; snellere Turbo Boost.
CONTRA: geen hyper-threading; afgeknepen bandbreedte naar PCI Express-bus; nieuw moederbord nodig.
Maar ik ga een beetje offtopic, sorry. W.b.t. de HD58xx series, tja, als ik het zo eens bekijk komen deze kaarten echt tot hun recht als een CF setup hebt en 3 schermen van minimaal 24 of 26" en je gaat via dat Eyefinity spelen op belachelijk hoge resoluties. Nou is maar de vraag of een gemiddelde gamer zo'n setup gaat aanschaffen. Ik vind veel frames op een lagere resolutie bijv. veel belangrijker.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:27
winwiz schreef op donderdag 24 september 2009 @ 09:58:
[...]


Dat is niet waar een i7 870 (1156) is sneller dan een i7 920 (1366) op gelijke kloksnelheid.
Dat is waar ja.
Sterker nog: hij loopt exact in de pas met een ongeveer gelijk geprijsde i7 950.
Maarja, dan betaal de hoofdprijs voor je processor. :o

  • kluyze
  • Registratie: Augustus 2004
  • Niet online
winwiz schreef op donderdag 24 september 2009 @ 09:58:
[...]
Dat is niet waar een i7 870 (1156) is sneller dan een i7 920 (1366) op gelijke kloksnelheid.
Op exact dezelfde snelheden is een i7 920 sneller. De 870 heeft het voordeel van een hogere turbo mode; die kan tot 3.6GHz gaan op een single core. Maar indien de turbo uit staat heeft de 920 een hogere bus speed en tripple channel geheugen. Als je dan de 920 op 2.93 laat draaien (870 heeft standaard een snellere klokfrequentie) dan gaat die 920 volgens mij wel een stuk sneller zijn.

Nogmaals, de 870 heeft het voordeel van de veel hogere turbo. Bij de 920 spreken we van een MP 21 ipv 20 terwijl de 870 naar een MP van 27 gaat ipv de 22 die die standaard al heeft.

Maar je zei met gelijke frequenties, dus zet er eerst maar eens de 940 naast, die zijn meer vergelijkbaar kwa frequenties en ook kosten. En zet dan de turbo maar eens uit. Wel een eerlijke vergelijking maken. Of je moet een 920 op 3.6GHz OC vergelijken met een 870 stock.

[ Voor 3% gewijzigd door kluyze op 24-09-2009 10:14 ]


  • Galvatron
  • Registratie: September 2005
  • Laatst online: 11-09 22:51
Kan een Q9450 @ 3,4Ghz ook nog een 5870 aan of wordt dit toch een bottleneck?

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 12-09 08:26
Eperium schreef op donderdag 24 september 2009 @ 10:13:
Kan een Q9450 @ 3,4Ghz ook nog een 5870 aan of wordt dit toch een bottleneck?
Heh, je cpu is meer dan voldoende :) Die cpu-bottlenecks worden zwaar overdreven. Zodra je cpu ervoor zorgt dat je framerates onder de 30 liggen heb je namelijk pas echt last van een cpu-bottleneck.

Stel, kaart A: 30fps met je cpu
Stel, kaart B: 55fps met je cpu
Stel, kaart B: 65fps met een Core i7 op 10GHZ,

Dan is het kopen van kaart B nog steeds zeer nuttig, ondanks dat je er miss een paar fps extra uit zou kunnen persen met een snellere cpu.

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
kluyze schreef op donderdag 24 september 2009 @ 10:11:
[...]
Op exact dezelfde snelheden is een i7 920 sneller. De 870 heeft het voordeel van een hogere turbo mode; die kan tot 3.6GHz gaan op een single core. Maar indien de turbo uit staat heeft de 920 een hogere bus speed en tripple channel geheugen. Als je dan de 920 op 2.93 laat draaien (870 heeft standaard een snellere klokfrequentie) dan gaat die 920 volgens mij wel een stuk sneller zijn.

Nogmaals, de 870 heeft het voordeel van de veel hogere turbo. Bij de 920 spreken we van een MP 21 ipv 20 terwijl de 870 naar een MP van 27 gaat ipv de 22 die die standaard al heeft.

Maar je zei met gelijke frequenties, dus zet er eerst maar eens de 940 naast, die zijn meer vergelijkbaar kwa frequenties en ook kosten. En zet dan de turbo maar eens uit. Wel een eerlijke vergelijking maken. Of je moet een 920 op 3.6GHz OC vergelijken met een 870 stock.
Die turbo mode wordt automatisch aangezet indien mogelijk qua belasting (op meerdere cores) en temperatuur. De meeste games gebruiken (helaas) 1 core en dus zal de turbo mode wel degelijk aanspringen

Maar we raken zwaar offtopic :+

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Verwijderd

chimo schreef op donderdag 24 september 2009 @ 10:08:
[...]

Mja dat ligt meer aan de games dan aan de processor, als ik links en rechts wat reviews erop nasla. Tevens heb je er meer profijt van bij andere dingen, je speelt niet alleen maar spelletjes neem ik aan?

Mijn punt is, als je high-end HD58xx kaart neemt, neem dan ook een high-end i7 of Phenom II X4 processor, bij voorbaar een 955 of 965, iig iets snels zodat je weet dat je processor niet de bottleneck is. Bovendien vind ik mooier als totaalplaatje.

i5 750
Je weet dat de i750 sneller is in games dan de Phenom II?

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Marc, enig idee wanneer we een HD4850 HD5850(eventueel in CF) review kunnen verwachten hier op tweakers?

inderdaad 5850 bedoelde ik, 't was nog vroeg he ;)

[ Voor 30% gewijzigd door Gurneyhck op 24-09-2009 11:46 ]


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 12-09 08:26
5850 bedoel je ? zodra ik twee kaarten heb ? heb wel twee HD 5870's, dus daar ga ik asap mee aan de slag, 5850's zijn volgens mij in short supply, dus een datum durf ik niet te geven ...

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:27
Verwijderd schreef op donderdag 24 september 2009 @ 10:33:
[...]


Je weet dat de i750 sneller is in games dan de Phenom II?
offtopic:
Ja maar als je voor een AMD setup gaat, zijn die de top zeg maar.

Ik zou, als ik het zo bekijk, nu niet voor i5 gaan als je beetje systeem wil voor langere tijd met hoge prestaties en mogelijkheden tot upgrade. Dan liever een i7 860, 920 of een AMD 955/965. Maar goed, dat is mijn conclusie uit reviews links en rechts.

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Marc Rademaker schreef op donderdag 24 september 2009 @ 10:18:
[...]

Heh, je cpu is meer dan voldoende :) Die cpu-bottlenecks worden zwaar overdreven. Zodra je cpu ervoor zorgt dat je framerates onder de 30 liggen heb je namelijk pas echt last van een cpu-bottleneck.

Stel, kaart A: 30fps met je cpu
Stel, kaart B: 55fps met je cpu
Stel, kaart B: 65fps met een Core i7 op 10GHZ,

Dan is het kopen van kaart B nog steeds zeer nuttig, ondanks dat je er miss een paar fps extra uit zou kunnen persen met een snellere cpu.
klopt.

maar dan nog heb je games die gewoon gebottlenecked worden. Armed Assault 2 kan volgens mij flink vooruitgaan met een snellere processor dan een oc'te i7 965 maar ja, duurt nog even voordat we dat krijgen.

  • defcon84
  • Registratie: September 2009
  • Laatst online: 12-09 11:37

defcon84

Multipass?

Marc Rademaker schreef op donderdag 24 september 2009 @ 10:36:
5850 bedoel je ? zodra ik twee kaarten heb ? heb wel twee HD 5870's, dus daar ga ik asap mee aan de slag, 5850's zijn volgens mij in short supply, dus een datum durf ik niet te geven ...
Je kan altijd de clock verlagen van die HD 5870 en dan 2 SIMD's afzetten
dan heb je eigenlijk een HD 5850 en kan je die perfect benchen.. :)

just a thought

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:27
Is ook allemaal persoonlijk. Sommige mensen merken wel verschil tussen 30 en 60fps en tussen 60 en 100fps. Ik ben zo'n persoon die het verschil merkt tussen 60 en 100fps. Ik heb een paar keer m'n processor overgeklokt en ik zag duidelijk meer frames maar sommige mensen geloven daar niet in en zeggen dat een 200MHz snellere processor niks uitmaakt maar voor mij maakte het wel uit. Die videokaart profiteerde dus duidelijk van een snellere processor.

Verwijderd

chimo schreef op donderdag 24 september 2009 @ 10:37:
[...]

offtopic:
Ja maar als je voor een AMD setup gaat, zijn die de top zeg maar.

Ik zou, als ik het zo bekijk, nu niet voor i5 gaan als je beetje systeem wil voor langere tijd met hoge prestaties en mogelijkheden tot upgrade. Dan liever een i7 860, 920 of een AMD 955/965. Maar goed, dat is mijn conclusie uit reviews links en rechts.
Die conclusie deel ik niet. Als je voor een single kaart gaat is de i750 een veel betere keus(Let wel, ik neem overclocken altijd mee qua keuze). De prijs prestatie daarvan ligt veel hoger. Dat HT nadelig is en dat dat het probleem van de software makers is kan ik niet ontkennen, feit is dat het zo is en je er dus beter zonder bent.
chimo schreef op donderdag 24 september 2009 @ 10:45:
Is ook allemaal persoonlijk. Sommige mensen merken wel verschil tussen 30 en 60fps en tussen 60 en 100fps. Ik ben zo'n persoon die het verschil merkt tussen 60 en 100fps. Ik heb een paar keer m'n processor overgeklokt en ik zag duidelijk meer frames maar sommige mensen geloven daar niet in en zeggen dat een 200MHz snellere processor niks uitmaakt maar voor mij maakte het wel uit. Die videokaart profiteerde dus duidelijk van een snellere processor.
En nu dat verschil zonder FPS meter. Ik durf te wedden dat jij het met een blinde test ook niet ziet.

[ Voor 29% gewijzigd door Verwijderd op 24-09-2009 10:55 ]


  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
defcon84 schreef op donderdag 24 september 2009 @ 10:45:
[...]


Je kan altijd de clock verlagen van die HD 5870 en dan 2 SIMD's afzetten
dan heb je eigenlijk een HD 5850 en kan je die perfect benchen.. :)

just a thought
Wat ik me afvraag (zag ergens anders ook een review waarin ze dit deden): hoe kun je SIMD's zelf uitschakelen dan?

The Flying Dutchman


  • TheMOD
  • Registratie: November 2008
  • Laatst online: 23-08 14:48
Jongens, mag ik jullie eraan herinneren dat dit een ATI NIEUWS TOPIC IS!!! What the ***** doen processors hier?!?!?

Verwijderd

TheMasterofDome schreef op donderdag 24 september 2009 @ 11:17:
Jongens, mag ik jullie eraan herinneren dat dit een ATI NIEUWS TOPIC IS!!! What the ***** doen processors hier?!?!?
Over het wel of niet zijn van bottlneks? Of game jij zonder CPU?

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

TheMasterofDome schreef op donderdag 24 september 2009 @ 11:17:
Jongens, mag ik jullie eraan herinneren dat dit een ATI NIEUWS TOPIC IS!!! What the ***** doen processors hier?!?!?
Die voeden de VGA met data, en gezien het feit dat de HD5800-serie een beest is, is het wel belangrijk om hierop te letten. Probeer maar eens met een Pentium 3 en een HD5870 fatsoenlijk een spelletje te spellen :Y)

Nouja, je kunt PONG spelen met de VGA, zolang als hij op de PIII wacht :+

[ Voor 7% gewijzigd door Darkasantion op 24-09-2009 11:22 ]

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


  • defcon84
  • Registratie: September 2009
  • Laatst online: 12-09 11:37

defcon84

Multipass?

The Flying Dutchman schreef op donderdag 24 september 2009 @ 11:10:
[...]


Wat ik me afvraag (zag ergens anders ook een review waarin ze dit deden): hoe kun je SIMD's zelf uitschakelen dan?
via het register

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Waarschijnlijk met Rivatuner

DX11 vs DX10(.1) vergelijking in Battleforge

Voor degenen die nu DX11 resultaten willen zien:

Afbeeldingslocatie: http://pclab.pl/zdjecia/artykuly/miekrzy/5870premierowy/wykresy/bench/bf1920.png

De HD5870 draait hier zowel op het DX10.1 als op het DX11 path en de GeForces werken hier op DX10. Volgens Demirug, de lead engine engineer van Battleforge die ook op B3D post, hebben ze performancewinst gezien tot zo'n 38% door het gebruik van DX11 boven DX10.

Dankzij de patch met DX11 support die recentelijk is uitgegeven, maakt Battleforge gebruik van de ComputeShaders om bepaalde post processing effecten zoals in dit geval SSAO te versnellen.

[ Voor 55% gewijzigd door CJ op 24-09-2009 12:01 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
CJ schreef op donderdag 24 september 2009 @ 11:52:
Voor degenen die nu DX11 resultaten willen zien:

[afbeelding]

De HD5870 draait hier zowel op het DX10.1 als op het DX11 path en de GeForces werken hier op DX10. Volgens Demirug, de lead engine engineer van Battleforge die ook op B3D post, hebben ze performancewinst gezien tot zo'n 38% door het gebruik van DX11 boven DX10.

Dankzij de patch met DX11 support die recentelijk is uitgegeven, maakt Battleforge gebruik van de ComputeShaders om bepaalde post processing effecten zoals in dit geval SSAO te versnellen.
Kan niets anders zeggen dan: Ziet er verdomd goed uit 8) _/-\o_
Als je dacht dat nVidia zijn achterstand niet groter kon worden, look twice :+

CJ, weet jij eigenlijk al of de 2GB versies duidelijk sneller zijn, of dat het allemaal wel meevalt?

[ Voor 5% gewijzigd door Gurneyhck op 24-09-2009 11:59 ]


Verwijderd

The Flying Dutchman schreef op donderdag 24 september 2009 @ 11:10:
[...]


Wat ik me afvraag (zag ergens anders ook een review waarin ze dit deden): hoe kun je SIMD's zelf uitschakelen dan?
Ben veel benieuwder naar een mod om ze weer aan te schakelen, maar de tijden dat dat nog kon (goeie oude tijd met de 9800SE bijvoorbeeld) zijn lang voorbij ....

VR Zone: AMD Demo's Hemlock

En net zo interessant. M'n vriendjes bij VR-Zone hebben een demonstratie gezien van Hemlock. Deze komt er in twee varianten, de HD5850X2 en HD5870X2 (namen nog niet bevestigd) en zal voor minder dan $500 op de markt komen. De shots van het CCC laten zien dat ze waarschijnlijk een HD5850X2 in actie hebben gezien. De kloksnelheden waren hier namelijk 725Mhz core en 1Ghz mem. AMD speelt nog met kloksnelheden dus uiteindelijke speeds kunnen varieren.

http://vr-zone.com/articl...emlock/7718.html?doc=7718

[ Voor 8% gewijzigd door CJ op 24-09-2009 12:03 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
500$ voor de HD5870X2 is niet duur, dan komt ie voor €420 bij ons op de markt. Zelfde launchprijs als de HD4870X2 vorig jaar. Dit geeft overigens ook aan dat €320 voor de HD5870 echt te duur is en dat de webshops flink gebruik/misbruik van de shortage maken (geef ze eens ongelijk). Vermoed dat de prijs over een maand zo tussen de €260-€280 ligt.

Verwijderd

Ik heb even een vraagje: Zijn er al aftermarket koelers voor de 5850? Ik heb al flink wat afgezocht hier op GoT maar kon niets vinden. De 5850 gaat met een paar dagen in bestelling maar er moet wel fatsoenlijke koeling op. Nu heb ik de Scythe Musashi VGA Cooler in mijn vizier, maar er is (voor zover ik gegoogled enzo heb) voor zover ik weet niets bekend of deze ook op de 5850 past.

Is er hier iemand die al meer weet over aftermarket koeling voor de 5850?

Verwijderd

De koeling van de HD5 serie is al erg goed(niet warm en stil!). Zal je die niet eerst gewoon proberen?

Verwijderd

Vind hem niet mooi :P... Moet wel een beetje wat lijken in mijn CM stacker met window, neon en andere shizzle... Daar gaat het me eigenlijk om :P

  • Sjaak_Banaan
  • Registratie: September 2007
  • Laatst online: 24-06 14:12
Kan iemand iets vertellen of je met de een 5870 ook voordeel hebt met video renderen in bijvoorbeeld Adobe Premieren CS4 en Pinnacle?
We willen een nieuw werkstation neerzetten dat regelmatig moet gaan renderen, zou deze kaart een serieuze optie zijn of moeten we ons toch op een Quadro richten?

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Sjaak_Banaan schreef op donderdag 24 september 2009 @ 12:34:
Kan iemand iets vertellen of je met de een 5870 ook voordeel hebt met video renderen in bijvoorbeeld Adobe Premieren CS4 en Pinnacle?
We willen een nieuw werkstation neerzetten dat regelmatig moet gaan renderen, zou deze kaart een serieuze optie zijn of moeten we ons toch op een Quadro richten?
Al aan een ATi FireGL gedacht? http://tweakers.net/pricewatch/cat/524

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als de mounting holes hetzelfde zijn als bij de HD48xx serie kun je die coolers gewoon gebruiken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Tsja... Moet dat wel zo zijn... Daarom dus ook de vraag. Anders bestel ik die dr gewoon bij en heb ik een setje bij Azerty voor €255,-. Misschien wacht ik nog een weekje of twee en dan is de kans groot dat de prijs flink is gezakt. Gisteren was de 5870 ook alleen maar boven de 300 euri en die zit er nu ook al net onder.

Ik praat onzin xD Maar de prijs gaat zakken iig :)

[ Voor 8% gewijzigd door Verwijderd op 24-09-2009 13:14 ]


  • Sjaak_Banaan
  • Registratie: September 2007
  • Laatst online: 24-06 14:12
Ik ben nog zoekende, op sommige forums geweren ze dat de videokaart voor Premiere niks uitmaakt, dat je de workstationkaarten (FireGL of Quadro) alleen nodig hebt voor bijvoorbeeld Adobe After Effects. Weet iemand of DX11 ook voordelen biedt met renderen ten opzichte van vorige versies?

Verwijderd

Voor degenen die al een HD5870 hebben weten te bemachtigen, gebruik deze drivers:

http://support.amd.com/us...mendedgraphicsdriver.aspx

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Voor de geinteresseerden mijn 4890 black edition staat te koop :)

[ Voor 42% gewijzigd door peakaboo op 24-09-2009 13:35 ]


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

peakaboo schreef op donderdag 24 september 2009 @ 13:30:
Voor de geinteresseerden mijn 4890 black edition staat te koop :)
Vraag&aanbod? :P

Heeft geen speciale krachten en is daar erg boos over.


  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Zitten daar vooral bugfixes in CJ of brengen die drivers echt performance met zich mee? Ik las dat sommige sites die driver ook hadden aangeboden gekregen voor hun review?

De meeste mensen deugen!


Verwijderd

Verwijderd schreef op donderdag 24 september 2009 @ 13:11:
Tsja... Moet dat wel zo zijn... Daarom dus ook de vraag. Anders bestel ik die dr gewoon bij en heb ik een setje bij Azerty voor €255,-. Misschien wacht ik nog een weekje of twee en dan is de kans groot dat de prijs flink is gezakt. Gisteren was de 5870 ook alleen maar boven de 300 euri en die zit er nu ook al net onder.

Ik praat onzin xD Maar de prijs gaat zakken iig :)
Geen onzin, hier HD5870 onder 290 euro Max ICT: :D :

CLUB3D RADEON HD5870 1GB 288,30 incl
CGAX-58724IDP
Sapphire RADEON HD 5870 1GB 291,70 incl
21161-00-50R

HD5850 voor 200 euro :D :
Sapphire RADEON HD 5850 1GB 198,15 incl
21162-00-50R

srry voor de offtopic, maar de prijzen zijn hiermee wel bijgesteld denk ik aka nieuws.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Zoals in het "waar te koop en prijzen topic" ook staat, is dat zonder btw...

Heeft geen speciale krachten en is daar erg boos over.


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

zoals hij dik drukt staat er incl ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
bwerg schreef op donderdag 24 september 2009 @ 13:42:
Zoals in het "waar te koop en prijzen topic" ook staat, is dat zonder btw...
offtopic:
Is mijn post nu zo onduidelijk in het andere topic?? Ik reageerde op mezelf, vandaar die stripe-through. Anyway post iets aangepost, hopelijk nu wel duidelijk 7(8)7
Prijs zoals hierboven vermeld is dus incl. btw.

  • outlandos
  • Registratie: November 2001
  • Laatst online: 20:52
Ik heb 20 Euro meer betaald bij Salland.. hmmm :/

  • TheDukemaster
  • Registratie: Mei 2004
  • Laatst online: 03-08 22:21
Snap eerlijk gezegd niet waarom veel mensen zeggen dat de cpu een bottleneck zal vormen bij games. Denk dat het bij een fatsoenlijk full hd scherm of beter niet meer van toepassing is? Heb zelf een e5200@ 3,4ghz en verwacht zeker geen bottlenecks. Misschien bij sommige games waar je al 100+fps haalt(en GTA IV maar dat is gewoon een slechte port).

[ Voor 16% gewijzigd door TheDukemaster op 24-09-2009 13:52 ]


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 12-09 08:26
De prijs van de HD 5850 is echt verbazingwekkend. Minder dan 200 euro. Had er zelf nog niet bij stilgestaan, maar Nvidia moet de GTX 285 nu voor 160/170 euro gaan verkopen, hij is immers langzamer, geen dx11, verbruikt meer stroom etc etc? Iedereen was nog wel zo bang dat AMD teveel voor de videokaarten ging vragen.

Verwijderd

Marc Rademaker schreef op donderdag 24 september 2009 @ 14:02:
De prijs van de HD 5850 is echt verbazingwekkend. Minder dan 200 euro. Had er zelf nog niet bij stilgestaan, maar Nvidia moet de GTX 285 nu voor 160/170 euro gaan verkopen, hij is immers langzamer, geen dx11, verbruikt meer stroom etc etc? Iedereen was nog wel zo bang dat AMD teveel voor de videokaarten ging vragen.
Moet je na gaan, hoe ver de prijs eigenlijk is gedropt van af een GTX 280 dan :o.

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
ATI is duidelijk bezig om de winst op te offeren ten bate van markt aandeel. Misschien dat er nu een einde komt aan spellen die geoptimaliseerd worden voor een bepaald merk (nVidia) en pas na release voor het andere merk (Ati) betere drivers krijgen. Als minstens de helft van je klanten Ati draaien ben je natuurlijk minder geneigd om vooral nVidia kaarten in je test systemen te duwen.

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

TheDukemaster schreef op donderdag 24 september 2009 @ 13:51:
Snap eerlijk gezegd niet waarom veel mensen zeggen dat de cpu een bottleneck zal vormen bij games. Denk dat het bij een fatsoenlijk full hd scherm of beter niet meer van toepassing is? Heb zelf een e5200@ 3,4ghz en verwacht zeker geen bottlenecks. Misschien bij sommige games waar je al 100+fps haalt(en GTA IV maar dat is gewoon een slechte port).
De term bottleneck geldt wanneer een bepalend onderdeel(processor, geheugen) het vertragende factor is. Verder hangt het van de betreffende game af en in welke resolutie je game draait. Maar ik denk dat jou e5200 @ 3,4ghz zeker (vaker) een bottleneck zal zijn. Gezien de verschillende benchmarks waarin zelfs een i7 965 @ 3.75Ghz een vertragend factor lijkt te zijn.
Marc Rademaker schreef op donderdag 24 september 2009 @ 14:02:
De prijs van de HD 5850 is echt verbazingwekkend. Minder dan 200 euro. Had er zelf nog niet bij stilgestaan, maar Nvidia moet de GTX 285 nu voor 160/170 euro gaan verkopen, hij is immers langzamer, geen dx11, verbruikt meer stroom etc etc? Iedereen was nog wel zo bang dat AMD teveel voor de videokaarten ging vragen.
Voordeel voor AMD op het moment is dat ze sowieso de komende maanden de prijzen makkelijker op peil kunnen houden. En met de introductie van Win7 zullen we misschien wel een lichte prijsstijging zien. Ik hoop het niet trouwens.
Ik vraag me eigenlijk af wat de ATi-tak van AMD in totaal nou verdiend op bijvoorbeeld de HD4000-serie. Aan wat voor bedragen moet je eigenlijk denken, 100 miljoen, 500 of meer?

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Xadeon schreef op donderdag 24 september 2009 @ 14:21:
Gezien de verschillende benchmarks waarin zelfs een i7 965 @ 3.75Ghz een vertragend factor lijkt te zijn.
Dat is alleen met crossfire dan, of op lage resoluties. als ik naar de grafiekjes op hardware.info kijk ziet het er tot aan een enkele HD5870 goed uit, daarna gaat het de CPU bottlenecken. En dat is dan met een 965@stock, dus 'het valt nog mee' :P.

Ik zou wel eens willen weten hoe goed triple- en quad-CF schalen bij deze kaartjes O-) zodat ook de mensen met een i7@6GHz met LN2 het kunnen benutten. Ofzo... :p
Gurneyhck schreef op donderdag 24 september 2009 @ 13:46:
[...]

offtopic:
Is mijn post nu zo onduidelijk in het andere topic?? Ik reageerde op mezelf, vandaar die stripe-through. Anyway post iets aangepost, hopelijk nu wel duidelijk 7(8)7
Prijs zoals hierboven vermeld is dus incl. btw.
Ah, ja, je hebt niet de prijzen van de site gepakt... Ik dacht, ik kijk eens op de site, en zag daar met grote letters "excl. BTW" staan, vandaar... :X )

[ Voor 42% gewijzigd door bwerg op 24-09-2009 15:27 ]

Heeft geen speciale krachten en is daar erg boos over.


  • penetreerbeer
  • Registratie: Februari 2005
  • Laatst online: 09-07 22:10
Xadeon schreef op donderdag 24 september 2009 @ 14:21:

...
Ik vraag me eigenlijk af wat de ATi-tak van AMD in totaal nou verdiend op bijvoorbeeld de HD4000-serie. Aan wat voor bedragen moet je eigenlijk denken, 100 miljoen, 500 of meer?
(Alles miljoenen)

Kwartaal geeindigd op 27 juni 2009:
Computing solutions:
Omzet: 910$
Winst/(verlies): (72)$
Graphics:
Omzet: 251$
Winst/(verlies): (12) $
Totaal:
Omzet: 1184$
Winst/(verlies): (249) $

Kwartaal geeindigd op 28 maart 2009:
Computing solutions:
Omzet: 938$
Winst/(verlies): (35)$
Graphics:
Omzet: 222$
Winst/(verlies): 1 $
Totaal:
Omzet: 1177$
Winst/(verlies): (298) $

Kwartaal geeindigd op 28 juni 2008:
Computing solutions:
Omzet: 1101$
Winst/(verlies): (9)$
Graphics:
Omzet: 248$
Winst/(verlies): (38) $
Totaal:
Omzet: 1362$
Winst/(verlies): (569) $

Echt denderend kan je dit niet noemen.

Hier terug te vinden

[ Voor 4% gewijzigd door penetreerbeer op 24-09-2009 14:42 ]


Verwijderd

techPowerup heeft een HD5850 Cf review:
http://www.techpowerup.co..._HD_5870_CrossFire/2.html

Was al gepost dacht ik maar nu dus met gesimuleerde 5850 CF: een 5870 met 2 SIMD uitgeschakeld en op 725Mhz geklokt.

Heel nette scores.
Cassius schreef op donderdag 24 september 2009 @ 13:34:
Zitten daar vooral bugfixes in CJ of brengen die drivers echt performance met zich mee? Ik las dat sommige sites die driver ook hadden aangeboden gekregen voor hun review?
Het is de reviewdriver. Catalyst 9.10 zal of op deze versie dan wel op een iets nieuwere releasecandidate gebaseerd zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

penetreerbeer schreef op donderdag 24 september 2009 @ 14:42:
[...]

......

Echt denderend kan je dit niet noemen.
Inderdaad, maar ondanks de verliezen zit er wel een zichtbare stijgende lijn in. Misschien dat de Graphics-division eind dit jaar door de HD5000 nog met een winst weet af te sluiten. 12 miljoen dollar moet toch te overbruggen zijn.
Ook goed om te zien dat AMD in 1 jaar tijd de verliezen ruim heeft gehalveerd.

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Verwijderd schreef op donderdag 24 september 2009 @ 14:45:
techPowerup heeft een HD5850 Cf review:
http://www.techpowerup.co..._HD_5870_CrossFire/2.html

Was al gepost dacht ik maar nu dus met gesimuleerde 5850 CF: een 5870 met 2 SIMD uitgeschakeld en op 725Mhz geklokt.

Heel nette scores.
Thx voor de link, ziet er heel goed uit. Ben alleen benieuwd naar de min FPS bij zo'n setup. Als dat een beetje positief is ben ik bijna om ;)

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Xadeon schreef op donderdag 24 september 2009 @ 14:54:
[...]
Inderdaad, maar ondanks de verliezen zit er wel een zichtbare stijgende lijn in.
Een stijgende lijn in de verliezen ja :/ ...

De meeste mensen deugen!


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Cassius, je leest het verkeerd om. Kijk eens naar de datum van de kwartalen. ;)

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Cassius schreef op donderdag 24 september 2009 @ 15:03:
[...]


Een stijgende lijn in de verliezen ja :/ ...
Totale verliezen zakken, je moet van onder naar boven lezen (misschien niet heel handig gepost).
Als je het vergelijkt met wat de CPU afdeling doet van AMD, dan is dit nog helemaal niet zo slecht. En ook bij NV is het niet allemaal rooskleurig met allerlei afschrijvingen vanwege defecte GPUs etc.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Verwijderd

Ik hoorde net dat de nieuwe Stalker game delayed is tot januari 2010 :/

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Verwijderd schreef op donderdag 24 september 2009 @ 15:23:
Ik hoorde net dat de nieuwe Stalker game delayed is tot januari 2010 :/
Oh minder, dus wat wordt de eerste DX11 game die gereleased gaat worden?

OFP2 drag rising had geen DX11 toch?

  • glennvho
  • Registratie: Mei 2009
  • Laatst online: 13-09 20:53
Verwijderd schreef op donderdag 24 september 2009 @ 15:23:
Ik hoorde net dat de nieuwe Stalker game delayed is tot januari 2010 :/
En ging nvidia toevallig niet de gt300 lanceren in januari? :X
peakaboo schreef op donderdag 24 september 2009 @ 15:24:
[...]


Oh minder, dus wat wordt de eerste DX11 game die gereleased gaat worden?

OFP2 drag rising had geen DX11 toch?
Zie een paar posts eerder met benchmarkgrafiek.... De eerste DX11 game die uit is is Battleforge. Die is inmiddels gepatched naar DX11 support.

Over STALKER: Call of Pripyat zegt de publisher het volgende:

RELEASE DATE
Russia October 2009
Germany, Austria, Switzerland November 2009
Rest of Europe, USA 1st Quarter 2010
The Russian and German versions will be released earlier within 2009.

We are currently planning the worldwide release of S.T.A.L.K.E.R. Call Of Pripyat in Q1 2010

[ Voor 32% gewijzigd door CJ op 24-09-2009 15:52 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

peakaboo schreef op donderdag 24 september 2009 @ 15:24:
[...]


Oh minder, dus wat wordt de eerste DX11 game die gereleased gaat worden?

OFP2 drag rising had geen DX11 toch?
Nope, dat wordt Dirt2. Ach ja, Battleforge vergeten.

[ Voor 6% gewijzigd door Xadeon op 24-09-2009 15:32 ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • peakaboo
  • Registratie: Mei 2007
  • Niet online
CJ schreef op donderdag 24 september 2009 @ 15:30:
[...]


Zie een paar posts eerder met benchmarkgrafiek.... De eerste DX11 game die uit is is Battleforge. Die is inmiddels gepatched naar DX11 support.
Had ik gezien CJ, maar omdat dat via een patch ging dacht ik dat het eenzelfde verhaal is als bij company of heroes die DX10 support kreeg dmv een patch... Niet ''echt'' DX10 dus...

Is dat bij dit spel wel het geval?

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 16:38

Splinter Cell

Glasvezel MASTER RACE

peakaboo schreef op donderdag 24 september 2009 @ 15:33:
[...]


Had ik gezien CJ, maar omdat dat via een patch ging dacht ik dat het eenzelfde verhaal is als bij company of heroes die DX10 support kreeg dmv een patch... Niet ''echt'' DX10 dus...

Is dat bij dit spel wel het geval?
Er bestaat niet zoiets als "niet echt DX10" of "niet helemaal DX11". Je ondersteunt het of je ondersteunt het niet. Simpel zat. :')

Als je doelt op games die echt "alle" features van DX11 ondersteunen, dan kan je wachten tot je een ons weegt, want dat gebeurt niet. Net zo min als er nu DX10 games uit zijn die "alle" DX10 features ondersteunen.

Battleforge krijgt gewoon een performancewinst van 38% op bepaalde plekken in de game dankzij het gebruik van DX11 ComputeShaders. Die winst is "echt"... "reeel"... "tastbaar". Dat krijg je niet als je geen DX11 ondersteunt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 12-09 08:26
Lol, een heel verhaal, en er staat niets concreets in ...

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
CJ schreef op donderdag 24 september 2009 @ 15:40:
[...]


Er bestaat niet zoiets als "niet echt DX10" of "niet helemaal DX11". Je ondersteunt het of je ondersteunt het niet. Simpel zat. :')

Als je doelt op games die echt "alle" features van DX11 ondersteunen, dan kan je wachten tot je een ons weegt, want dat gebeurt niet. Net zo min als er nu DX10 games uit zijn die "alle" DX10 features ondersteunen.

Battleforge krijgt gewoon een performancewinst van 38% op bepaalde plekken in de game dankzij het gebruik van DX11 ComputeShaders. Die winst is "echt"... "reeel"... "tastbaar". Dat krijg je niet als je geen DX11 ondersteunt.
Ik weet niet waarom je nou zo spottend reageerd?

Wat ik bedoel is dat in COH die dx 10 patch eigenlijk weinig met zich mee bracht qua visuele veranderingen... alleen een klein beetje belichting. Verder een dikke performance drop als je het aanzette... Dus maw is dat dan volledig dx10 of niet, lijkt me niet... Vandaar mijn vraag.. maargoed.

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-09 23:00
Verwijderd schreef op donderdag 24 september 2009 @ 14:08:
[...]


Moet je na gaan, hoe ver de prijs eigenlijk is gedropt van af een GTX 280 dan :o.
Zijn de produktiekosten nu echt zo laag of proberen ze gewoon mart te kopen...? :X

Afbeeldingslocatie: http://images.hardwareinfo.net/products/large/081226.jpg
Van die triple-5870 bij HWI graag asap benchmarks Crysis Warhead >:)

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Joepi schreef op donderdag 24 september 2009 @ 15:59:
[...]

Zijn de produktiekosten nu echt zo laag of proberen ze gewoon mart te kopen...? :X

[afbeelding]
Van die triple-5870 bij HWI graag asap benchmarks Crysis Warhead >:)
Zie voor meer benches: http://www.hardware.info/...D_5870_Triple_CrossFireX/
Nog geen Crysis helaas... ;)
peakaboo schreef op donderdag 24 september 2009 @ 15:58:
[...]


Ik weet niet waarom je nou zo spottend reageerd?

Wat ik bedoel is dat in COH die dx 10 patch eigenlijk weinig met zich mee bracht qua visuele veranderingen... alleen een klein beetje belichting. Verder een dikke performance drop als je het aanzette... Dus maw is dat dan volledig dx10 of niet, lijkt me niet... Vandaar mijn vraag.. maargoed.
Sorry, het was niet mijn bedoeling om al te sarcastisch over te komen. Maar ik dacht dat het algemeen bekend was hoe DirectX werkte...

Laat ik het anders stellen. Als een game alleen de nieuwe Tesselation mogelijkheden gebruikt van DX11, maar voor de rest eigenlijk gebruik maakt van DX10(.1)... dan is het nog altijd een DX11 game. Er worden dan opties gebruikt die niet werken op een GTX285 of HD4890. Het is dus niet een "niet echte DX11 game" ondanks dat het maar 1 feature gebruikt.

DX10 en DX10.1 zijn ook op verschillende manieren toegepast door developers. Bij de ene game is het gebruikt om eyecandy iets te verhogen (COH, CoJ, STALKER), bij een andere game is het gebruikt om de snelheid te verhogen (HAWX, Assassin's Creed, Battleforge) en weer andere games gebruiken het voor beide. Hoe dit in de praktijk wat betreft performance tot uiting komt, is geheel aan hoe de developer er mee omgaat. In COH was het overigens niet alleen de belichting. Ook de schaduwen werden aangepakt en alpha to coverage AA.

Battleforge wordt erg vaak geupdate. De engine schijnt zo in elkaar te zitten dat er snel dingen verandert kunnen worden. Origineel was ook tesselation gepland, maar daar was het verschil tussen wel/geen tesselation nihil. Nu is de engine geupdate met ondersteuning van de ComputeShaders van DX11 en het kan volgens de devs ook goed mogelijk zijn dat er binnenkort weer een patch uit komt met ondersteuning voor meer DX11 shaders.

Nu developers al wat langer hebben kunnen werken met DX10, DX10.1 (en DX11 als DX10 done right), kan je er van uitgaan dat de meeste developers wel weten wat ze doen en dat halfbakken oplossingen die aanvoelen als een goedkope "DX upgrade" steeds minder voorkomen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

CJ schreef op donderdag 24 september 2009 @ 15:11:
Als je het vergelijkt met wat de CPU afdeling doet van AMD, dan is dit nog helemaal niet zo slecht. En ook bij NV is het niet allemaal rooskleurig met allerlei afschrijvingen vanwege defecte GPUs etc.
Nog even een aanvulling hierop.

Afbeeldingslocatie: http://i213.photobucket.com/albums/cc47/Xadeon/Forum/nvidia_annual_balance.png
Bron

Van ruim 800 milljoen dollar operationele inkomen naar 70 miljoen verlies een jaar later. Dat is best schrikbarend. Dit kan toch niet alleen het gevolg zijn van de toenemende defecte gpu's? Ik las trouwens ook dat Nvidia dit jaar al 29% minder gpu's verkocht heeft ivm 2008.
Het is kennelijk een zwaar jaar voor ze aan het worden. Wellicht dat AMD hiervan gaat profiteren.

[ Voor 4% gewijzigd door Xadeon op 24-09-2009 16:20 . Reden: bron ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.