[Algemeen] ATi Nieuwsdiscussie Topic - Deel 84 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 36.861 views

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Intel heeft echter wel de marktleider op physicsgebied in huis. Het overgrote gedeelte van de games op de markt gebruikt Havok en niet Ageia en/of Euphoria. Om te kunnen concurreren zal NV zich dus aan zijn/haar woord moeten houden en van PhysX een open platform te maken zodat ook AMD/S3 hier van zullen profiteren. Doen ze dit niet, dan zullen ze er wel heel erg veel geld tegen aan moeten smijten voor support.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Thijs_O
  • Registratie: Februari 2006
  • Laatst online: 10-09 23:06
Zo, ik meng me ook maar even in de discussie aangezien ik met spanning wacht op de 4870 zoals de meesten. :P Op NordicHardware kwam ik in ieder geval al het volgende bericht tegen m.b.t. pricing:
AMD isn't quite certain how to price its new graphics cards. It feels certain that it's new cards will be able to restore a lot of the former ATI glory, but at the same time it's feeling a bit uneasy because of the upcoming launch of the GeForce GTX series. AMD will only have one of the cards ready at launch, Radeon HD 4850, with additional supplies of the faster GDDR5-equipped 4870 coming in July. Later in August, AMD is hoping to launch the dual-GPU Radeon HD 4870X2 which is instructed to take down the GeForce GTX series.

Even though prices haven't been written in stone yet, AMD is going to pitch the idea of pricing the cards at $199, <$299 and $499 to partners at Computex. The only really uncertain of the three is the non-X2 4870, which has shown great promise in AMD's own tests and AMD feels that a price tag much lower than $299 is a bit too cheap. We should know more after Computex starts.
Enkel 4850 in juni dus en de 4870 duidelijk later. Beetje jammer imo, zitten ze toch weer dichter op Nvidia's 55nm 200-serie, en dat maakt hun kans om marktaandeel te pakken weer kleiner. Qua prijzen wacht ik toch nog even op de EU prijzen aangezien 't geen dollar=euro is en deze prijzen dus niet veel zeggen voor ons europeanen.

Systeempje: [MSI P45 Neo2 - Intel C2Q6600@3.2Ghz - OCZ 4GB PC8000 Platinum - Spinpoint F1 750GB - MSI ATi HD4850 - Cooler Master Real Power M620Watt - Antec Solo Piano Black]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Vind ik ook ja zou een gemiste kans zijn. GDDR3 heeft gewoon niet de bandbreedte voor die chip. Maar als de HD4870 er niet meen zou zijn ga ik wel een HD4850 testen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Aan een tekort van GDDR5 doe je verder weinig. Er zullen wel wat HD4870s zijn, maar de grote massa volgt in July wanneer het tekort is opgelost.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op maandag 02 juni 2008 @ 20:38:
Vind ik ook ja zou een gemiste kans zijn. GDDR3 heeft gewoon niet de bandbreedte voor die chip. Maar als de HD4870 er niet meen zou zijn ga ik wel een HD4850 testen.
Ik ben eigenlijk wel benieuwd wat hoe groot het verschil gaat zijn tussen een gelijk geklokte (core van) 4850 tegen de 4870. Zeker over de verschillende resoluties en AA standen.

Acties:
  • 0 Henk 'm!

  • Thijs_O
  • Registratie: Februari 2006
  • Laatst online: 10-09 23:06
*Met Reinman. Ik vraag me inderdaad af hoeveel verschil het concreet gaat uitmaken. En aangezien de 4850 laag geclockt is zou 't mooi zijn als je 'm naar 4870 niveau kan overclocken maar dan moet 't GDDR3 geheugen wel meewerken. Ik ben benieuwd.

Oh en wat valt er in juni nou realistisch te verwachten qua 4870's? A la de Q9450 vrijwel nergens te krijgen, wel redelijk verkrijgbaar, of alleen reviewsamples?

Systeempje: [MSI P45 Neo2 - Intel C2Q6600@3.2Ghz - OCZ 4GB PC8000 Platinum - Spinpoint F1 750GB - MSI ATi HD4850 - Cooler Master Real Power M620Watt - Antec Solo Piano Black]


Acties:
  • 0 Henk 'm!

  • betaplayer
  • Registratie: Juli 2007
  • Laatst online: 19:27
Thijs_O schreef op maandag 02 juni 2008 @ 21:57:
*Met Reinman. Ik vraag me inderdaad af hoeveel verschil het concreet gaat uitmaken. En aangezien de 4850 laag geclockt is zou 't mooi zijn als je 'm naar 4870 niveau kan overclocken maar dan moet 't GDDR3 geheugen wel meewerken. Ik ben benieuwd.

Oh en wat valt er in juni nou realistisch te verwachten qua 4870's? A la de Q9450 vrijwel nergens te krijgen, wel redelijk verkrijgbaar, of alleen reviewsamples?
Ik vrees a la Q9450(eerste weken), later gaat dit wel heel wat beteren vermoed ik :)

https://www.instagram.com/anafollotofbricks/


Acties:
  • 0 Henk 'm!

Verwijderd

Van wat ik had gelezen in dit topic is het gewoon een hardlaunch met genoeg voorradig van de HD4850 DDR3, maar dat er van de DDR5 varianten niet zo veel zullen zijn.

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Toch wel weer jammer dat die 4870 pas in juli gelaunched zal worden, het zal ook weer eens niet zo zijn. Over het algemeen kun je beter maar 1 tot 2 maanden optellen bij een launch datum, dan wordt je tenminste niet (of minder) teleurgesteld.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

CJ schreef op maandag 02 juni 2008 @ 20:48:
Aan een tekort van GDDR5 doe je verder weinig.
Dát is nu het risico van het gebruiken van dit soort nieuwe dingen. Echt slim vind ik dit niet eigenlijk. Ze hadden van tevoren toch kunnen en zelfs MOETEN weten hoeveel GDDR5 er beschikbaar was en hoeveel er eventueel op zeer korte termijn zou zijn, of te produceren zou zijn?

Heel apart hoor... :? Dit is een beetje achter de feiten aanlopen eigenlijk.

[ Voor 41% gewijzigd door Format-C op 02-06-2008 22:38 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 00:07
RappieRappie schreef op maandag 02 juni 2008 @ 22:33:
[...]

Dát is nu het risico van het gebruiken van dit soort nieuwe dingen. Echt slim vind ik dit niet eigenlijk. Ze hadden van tevoren toch kunnen en zelfs MOETEN weten hoeveel GDDR5 er beschikbaar was en hoeveel er eventueel op zeer korte termijn zou zijn, of te produceren zou zijn?

Heel apart hoor... :? Dit is een beetje achter de feiten aanlopen eigenlijk.
Ik snap je punt niet helemaal... GDDR5 zorgt voor een enorme boost ten opzichte van GDDR3, waarom zou je dan niet een paar maandjes langer wachten? Tot die tijd komt er gewoon een GDDR3 HD4850, dus ze hebben toch iets om te verkopen.

130GB/s met een 256-bit geheugeninterface, puur door hoog geclockt GDDR5 :X Geweldig imho.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ja, dat is zeker mooi. Bandbreedte. :> *O*

Maar als je een heel groot volume aan HD4870 kaarten wilt verschepen en verkopen, heb je GDDR5 nodig. Als dat er niet is, of te weinig, kan je ook niks (of iig minder dan de bedoeling was) verkopen.

Mijn punt is dat je toch als een groot bedrijf als AMD zijnde, van tevoren moet en wil weten hoeveel er voorradig is om op de kaarten te plakken, en hoeveel en hoe snel het geproduceerd kan worden?


Dat bedoel ik. ;)

[ Voor 14% gewijzigd door Format-C op 02-06-2008 23:18 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Thijs_O
  • Registratie: Februari 2006
  • Laatst online: 10-09 23:06
Tja, het is te hopen dat AMD hoe dan ook kan zorgen dat er in juli in ieder geval overal 4870's in overvloed te krijgen zijn. Dit is toch echt dé kans voor ze om 'n deel van de markt terug te veroveren op NVidia, maar als de 4870 nu bagger leverbaar is missen ze die hele voorsprong gewoon. :X

Sowieso snap ik niet waarom de 4850 niet voorzien is van GDDR4 geheugen, dat zou toch sowieso genoeg leverbaar moeten zijn?

Systeempje: [MSI P45 Neo2 - Intel C2Q6600@3.2Ghz - OCZ 4GB PC8000 Platinum - Spinpoint F1 750GB - MSI ATi HD4850 - Cooler Master Real Power M620Watt - Antec Solo Piano Black]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
GDDR4 heeft minder goede latency karakteristieken dan GDDR3 en GDDR3 wordt nog steeds sneller.
Maar als je een heel groot volume aan HD4870 kaarten wilt verschepen en verkopen, heb je GDDR5 nodig. Als dat er niet is, of te weinig, kan je ook niks (of iig minder dan de bedoeling was) verkopen.
Je kan de performancerace niet winnen zonder risico's te nemen, de geruchten waren trouwens altijd zeer duidelijk, eerst zou de 4850 komen daarna pas de 4870 en in augustus de X2. Ik wil de benchmarks nog afwachten maar als de 4870 dicht bij de gt260 zit qua performance denk ik niet dat amd dat verwacht had.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op maandag 02 juni 2008 @ 21:15:
[...]


Ik ben eigenlijk wel benieuwd wat hoe groot het verschil gaat zijn tussen een gelijk geklokte (core van) 4850 tegen de 4870. Zeker over de verschillende resoluties en AA standen.
Inderdaad dan zul je het vooral gaan merken zeker als die AA performance verbeterd is want dat was ook de rede dat de R600 niet veel met die 512 Bit bus deed. AA en AF performance waren al niet al te best dus konden die bandbreedte niet benutten.

Ik ga wel meteen proberen een HD4870 te pakken te krijgen mits het prijs verschil tussen de HD4850 niet te groot is. Performance verschil zou 20-30% zijn dus hij mag van mij 40% duurder zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Techno Overlord
  • Registratie: Januari 2003
  • Laatst online: 17:54

Techno Overlord

Nocturnal Metamorphoses™

Dit irriteert me dus zwaar dat die 4870 weer is uitgesteld, want eerst was het toch 16 juni? Dan maar hopen dat ik gelijk 2 stuks uit de eerste batch kan krijgen. Ik kan niet wachten tot ik me nieuwe pc kan booten. Alleen die :X -videokaarten nog!


Dalijk koop ik uit pure frustratie toch maar nVidia... :?

Forever raver!
Specs: Workstation Server


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CaptainM schreef op dinsdag 03 juni 2008 @ 00:51:
Dit irriteert me dus zwaar dat die 4870 weer is uitgesteld, want eerst was het toch 16 juni? Dan maar hopen dat ik gelijk 2 stuks uit de eerste batch kan krijgen. Ik kan niet wachten tot ik me nieuwe pc kan booten. Alleen die :X -videokaarten nog!


Dalijk koop ik uit pure frustratie toch maar nVidia... :?
Hij is toch niet uitgesteld ? alleen er zijn er in het begin niet veel door te korten. Ze moeten het gewoon uitbrengen. nVidia doet hetzelfde met hun GTX280. Daar zijn er straks ook niet veel van puur om AMD te pesten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
De 4870 is niet uitgesteld. Die stond al een tijd lang gepland voor "iets later".

Natuurlijk kan je rekening houden met dit soort nieuwe technieken in je GPUs, maar niemand kan rekening houden met onverwachte productie-problemen bij bv Qimonda. Hynis en Samsung zijn later begonnen met de MP van GDDR5 geheugen. De eerste lading HD4870s krijgt dan ook Qimonda geheugen mee.

Overigens, Qimonda's levert GDDR5 in de snelheden 3.6Ghz, 4Ghz en 4.5Ghz (ze hebben ook al samples van 5Ghz). Samsung heeft zelfs 6Ghz GDDR5. Hynix gebruikt een 66nm process, terwijl Samsung een 60nm gebruikt. Het lijkt er op dat Qimonda gebruik maakt van 75nm. Dit zou vrij vlot omgeschakeld worden naar 58nm. Dus zelfs tussen geheugenmodules van eenzelfde fabrikant kan verschil zitten.

GDDR5 verbruikt zo'n 20% minder stroom dan GDDR3 (ter vergelijking GDDR3 op 1Ghz). De performance per watt is dus enorm hoog bij GDDR5 (mede dankzij de betere latencies ivt GDDR4).

Overigens heb ik morgen misschien wel iets interessants voor de Radeon lovers.... kan er op dit moment helaas nog niet echt veel over zeggen, maar de highend freaks zullen misschien wel een beetje geinteresseerd zijn in dit beestje.

Edit: heb 'm binnen. R700 scores in Extreme Preset in 3DM Vantage. _/-\o_

[ Voor 3% gewijzigd door CJ op 03-06-2008 01:54 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

deel uw kenis over de scores :d

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik laat het eerst hierbij totdat ik meer zekerheid heb. Meer dan dubbel de score van een HD3870X2 met Cat 8.3 (die scoort rond de X2600). Morgen meer. Wil eerst mijn bron dubbel checken. ;)

Oh ja, had iemand al de HD3950 genoemd?

Afbeeldingslocatie: http://img.hexus.net/v2/internationalevents/computex2008/pm/gigabyte-leak/DSCF0051-big.jpg
http://www.hexus.net/content/item.php?item=13600

[ Voor 34% gewijzigd door CJ op 03-06-2008 02:23 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

heh en refrssh van de HD 3850 mischien of een refresh van de RV670 wat mischien onder de naam RV670+ zal ondergaan of RV690? maare wel interessant wat die HD 3950 nu zich in gaat houden :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Goh Obi-Wan, ik had verwacht dat de score van de R700 meer je aandacht zou trekken dan die HD3950. :+

Trouwens ook interessant. Benchmark van de hottest game of the moment:

GF8800GT vs HD3870 in Age of Conan
Fazit
Wir wollen Nvidia und deren Geforces kein vergleichsweise schlechteres Speicher-Management unterstellen, eine andere Erklärung können wir zum aktuellen Zeitpunkt aber nicht anbieten. Eine Radeon ist nicht nur schneller und das Spiel ruckelt weniger, vor allem aber werden die Texturen korrekt geladen und angezeigt.

[ Voor 75% gewijzigd door CJ op 03-06-2008 03:45 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 03 juni 2008 @ 02:59:
heh en refrssh van de HD 3850 mischien of een refresh van de RV670 wat mischien onder de naam RV670+ zal ondergaan of RV690? maare wel interessant wat die HD 3950 nu zich in gaat houden :)
Vraag me vooral af waarom deze kaart niet HD 3890/3970 heet oid? Want kan me moeilijk voorstellen dat deze tussen de 3850 en de 3870 presteert, aangezien dat gat vrij klein is. Wss een kaart met 850+ kloksnelheid met 320SP's en GDDR3?

Vantage score is een beetje teleurstellend? Afgaande op CJ's comment vermoed ik iets à la 5.4K, maar dus nog een stuk lager dan de 6.5-7K die de GTX 280 zou halen. Als dit klopt zie ik weinig reden een X2 te verkiezen boven de GTX 280, aangezien deze ook in load een stuk meer stroom zal trekken (300+W tov 240).

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

CJ schreef op dinsdag 03 juni 2008 @ 02:21:
Ik laat het eerst hierbij totdat ik meer zekerheid heb. Meer dan dubbel de score van een HD3870X2 met Cat 8.3 (die scoort rond de X2600).
_/-\o_

Heb je ook enig idee wat hij in 3DM06 zal doen?

Ik moet zeggen dat ik best heel nieuwschierig ben naar die RV770. Een X48 met 2 van die beestjes lijkt me ook wel wat! :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op dinsdag 03 juni 2008 @ 03:57:
[...]


Vraag me vooral af waarom deze kaart niet HD 3890/3970 heet oid? Want kan me moeilijk voorstellen dat deze tussen de 3850 en de 3870 presteert, aangezien dat gat vrij klein is. Wss een kaart met 850+ kloksnelheid met 320SP's en GDDR3?

Vantage score is een beetje teleurstellend? Afgaande op CJ's comment vermoed ik iets à la 5.4K, maar dus nog een stuk lager dan de 6.5-7K die de GTX 280 zou halen. Als dit klopt zie ik weinig reden een X2 te verkiezen boven de GTX 280, aangezien deze ook in load een stuk meer stroom zal trekken (300+W tov 240).
GTX 280 scoort X418xx.
GTX 260 scoort rond de X3800.
R700 scoort X5500>. ;)

Die X7000 score van de GTX 280 is in SLI. :+

Edit: Hoorde net dat de drivers van de GTX 280 de score naar X4800 hebben geduwd. Dit zou evt nog iets hoger kunnen uitvallen wanneer de GPU ook PhysX gaat versnellen. Zo'n 1000 punten zouden er bij moeten kunnen komen (door de CPU test), maar dit is tegen de regels in van Futuremark, aangezien een GPU eigenlijk geen PPU is en de test zo is opgesteld dat alleen een PPU de score mag verhogen. Het is nog effe afwachten hoe dit door Futuremark wordt opgelost in de score.

[ Voor 22% gewijzigd door CJ op 03-06-2008 08:52 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ schreef op dinsdag 03 juni 2008 @ 08:29:
[...]


GTX 280 scoort X418xx.
GTX 260 scoort rond de X3800.
R700 scoort X5500>. ;)

Die X7000 score van de GTX 280 is in SLI. :+

Edit: Hoorde net dat de drivers van de GTX 280 de score naar X4800 hebben geduwd. Dit zou evt nog iets hoger kunnen uitvallen wanneer de GPU ook PhysX gaat versnellen. Zo'n 1000 punten zouden er bij moeten kunnen komen, maar dit is tegen de regels in van Futuremark, aangezien een GPU eigenlijk geen PPU is en de test zo is opgesteld dat alleen een PPU de score mag verhogen. Het is nog effe afwachten hoe dit door Futuremark wordt opgelost in de score.
Aha dan hopelijk ziet je dit ook terug in games. Als dat het geval is heeft AMD eindelijk even een snellere kaart in handen. Mooi dat er weer goede concurrentie is.

Ik zit me ook nog even af te vragen wat die HD3950 nu is. Speed bumped met hoge core speed en 1.1 GHz GDDR3 ? die net iets boven de HD3870 komt te zitten.

Het ziet er allemaal wel iets te mooi uit om waar te zijn. Kan niet wachten tot de eerste reviews online staan :P

En CJ je linkje naar die age of conan werkt niet goed. Ik vond wel een artikel waar ze lieten zien dat 1 GB VGA geheugen een super boost geeft in IQ. Echt een niet normaal groot verschil.

[ Voor 7% gewijzigd door Astennu op 03-06-2008 08:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Heb wat scores van m'n maatjes van VR @ Computex.

HD4850 op 700Mhz scoort P6466 in Vantage.
HD3850 scoort zo'n P3900.
HD3870 scoort zo'n P4800.
HD9800GTX scoort zo'n P6000.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • BounceMeister
  • Registratie: Maart 2002
  • Niet online
Als de HD4850 er over twee weken moet zijn, waarom vind ik ze dan nog nergens in de shops (pre-order)?
Andere producten staan meestal al een poosje in de pre-order voordat ze daadwerkelijk geleverd worden.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ schreef op dinsdag 03 juni 2008 @ 08:49:
Heb wat scores van m'n maatjes van VR @ Computex.

HD4850 op 700Mhz scoort P6466 in Vantage.
HD3850 scoort zo'n P3900.
HD3870 scoort zo'n P4800.
HD9800GTX scoort zo'n P6000.
Dus dan haalt die HD4850 die 10% net wel of net niet afhankelijk van hoe de cpu test mee telt. Ik ben echt nieuwsgierig naar game scores vooral met AA en AF. Ik hoop echt dat die 10% de minimale hoeveelheid is die de kaart sneller is :P
BounceMeister schreef op dinsdag 03 juni 2008 @ 08:53:
Als de HD4850 er over twee weken moet zijn, waarom vind ik ze dan nog nergens in de shops (pre-order)?
Andere producten staan meestal al een poosje in de pre-order voordat ze daadwerkelijk geleverd worden.
Specs zijn niet bekend. Normaal zijn die al zeker en de prijs ook. Dus gaan shops doen alsof ze weten wanneer ze kunnen leveren om extra geld te kunnen vragen. Meestal kunnen ze die spullen niet eens leveren staan de kaarten weken lang op pre order.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:47
CJ schreef op dinsdag 03 juni 2008 @ 08:29:
[...]


GTX 280 scoort X418xx.
GTX 260 scoort rond de X3800.
R700 scoort X5500>. ;)
Dat ziet er in theorie wel goed uit, maar:
Zo'n 1000 punten zouden er bij moeten kunnen komen (door de CPU test), maar dit is tegen de regels in van Futuremark, aangezien een GPU eigenlijk geen PPU is en de test zo is opgesteld dat alleen een PPU de score mag verhogen. Het is nog effe afwachten hoe dit door Futuremark nVidia wordt opgelost in de score.
:/

Reken er dus maar op dat het iets van 5800 gaat worden voor nV, zodat ze het weer nipt winnen!
(ze hebben toch een "eer" hoog te houden he?)

[ Voor 10% gewijzigd door Puppetmaster op 03-06-2008 09:32 ]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Puppetmaster schreef op dinsdag 03 juni 2008 @ 09:30:
[...]


Dat ziet er in theorie wel goed uit, maar:

[...]

:/

Reken er dus maar op dat het iets van 5800 gaat worden voor nV, zodat ze het weer nipt winnen!
(ze hebben toch een "eer" hoog te houden he?)
Dat zou toch ook terecht zijn dat ze er dan 1000 punten bij krijgen. Het is nu eenmaal een feit dat nVidia (tegen die tijd) physics ondersteunt en daardoor meer/sneller kan renderen.
Het lijkt mij dus meer dan logisch dat ze dan meer punten krijgen...

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:47
Tuurlijk 1000 pts erbij voor de totaalscore, maar die 1000 pts zouden dan niet voor de GPU "horen" te tellen als we Futuremarks huidige beleid volgen. Daar zal wel verandering in komen

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Puppetmaster schreef op dinsdag 03 juni 2008 @ 09:57:
Tuurlijk 1000 pts erbij voor de totaalscore, maar die 1000 pts zouden dan niet voor de GPU "horen" te tellen als we Futuremarks huidige beleid volgen. Daar zal wel verandering in komen
Uiteraard mee eens :)

Acties:
  • 0 Henk 'm!

  • Vrijdag
  • Registratie: Januari 2005
  • Laatst online: 23:37

Vrijdag

De Zwarte

Hmm, misschien ben ik wat sceptisch maar al die benchmarktoolscores, daar trek ik me eigenlijk weinig van aan. Ik zie liever benchmarks van courante, zware spellen zoals SupCom, WiC, Stalker, AC, AoC, CoD4 en Crysis.

Omdat ik spellen ga spelen, en niet de hele tijd aan het tweaken en rommelen ben om in een synthetische benchmark een hoge score te krijgen. Ik koop een gamekaart, geen benchmark kaart. Maargoed, ieder zo zijn ding :*

De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Gurneyhck schreef op dinsdag 03 juni 2008 @ 09:51:
[...]


Dat zou toch ook terecht zijn dat ze er dan 1000 punten bij krijgen. Het is nu eenmaal een feit dat nVidia (tegen die tijd) physics ondersteunt en daardoor meer/sneller kan renderen.
Het lijkt mij dus meer dan logisch dat ze dan meer punten krijgen...
Ik denk dat de PPU test een andere test is dan de GPU, daardoor kun je de GPU in beide tests gebruiken (ene keer voor normale GPU dingen, andere keer voor PPU). Echter ingame kun je natuurlijk niet beide tegelijk doen, dus zou het niet helemaal eerlijk zijn om de PPU en de GPU gewoon bij elkaar op te tellen als dit door één en dezelfde kaart gedaan wordt.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23:56

edward2

Schieten op de beesten

Heb je een 4870X2 te koop voor me CJ ;) ?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
The Flying Dutchman schreef op dinsdag 03 juni 2008 @ 11:18:
[...]


Ik denk dat de PPU test een andere test is dan de GPU, daardoor kun je de GPU in beide tests gebruiken (ene keer voor normale GPU dingen, andere keer voor PPU). Echter ingame kun je natuurlijk niet beide tegelijk doen, dus zou het niet helemaal eerlijk zijn om de PPU en de GPU gewoon bij elkaar op te tellen als dit door één en dezelfde kaart gedaan wordt.
Ingame kan de GPU dat natuurlijk wel allebei doen. Anders heeft heel de physics implementatie geen nut! 8)7

Vraag is natuurlijk of, en zo ja hoe groot de performance-decrease is voor de rest van de gpu-werkzaamheden.

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Gurneyhck schreef op dinsdag 03 juni 2008 @ 11:46:
[...]


Ingame kan de GPU dat natuurlijk wel allebei doen. Anders heeft heel de physics implementatie geen nut! 8)7

Vraag is natuurlijk of, en zo ja hoe groot de performance-decrease is voor de rest van de gpu-werkzaamheden.
Nee dus niet: je kunt niet de volle kracht van de GPU gebruiken voor graphics terwijl je op hetzelfde moment de volle kracht van de GPU gebruikt voor PPU dingen. Dat is mijn punt, dat gebeurt in 3DMark zoals het nu geimplementeerd is waarschijnlijk wel (vanwege apparte GPU en apparte PPU test).

Zo heb ik het verhaal begrepen. Als het niet klopt, dan moet iemand me maar even verbeteren/aanvullen.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
The Flying Dutchman schreef op dinsdag 03 juni 2008 @ 11:18:
[...]


Ik denk dat de PPU test een andere test is dan de GPU, daardoor kun je de GPU in beide tests gebruiken (ene keer voor normale GPU dingen, andere keer voor PPU). Echter ingame kun je natuurlijk niet beide tegelijk doen, dus zou het niet helemaal eerlijk zijn om de PPU en de GPU gewoon bij elkaar op te tellen als dit door één en dezelfde kaart gedaan wordt.
Daar dacht ik ook aan ja. Alles wat je van de chip gebruikt voor physics kan je niet gebruiken om een hogere FPS te krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 19:47

WoutF

Hoofdredacteur
Astennu schreef op dinsdag 03 juni 2008 @ 12:03:
[...]


Daar dacht ik ook aan ja. Alles wat je van de chip gebruikt voor physics kan je niet gebruiken om een hogere FPS te krijgen.
Klopt, maar dat kan je in de komende driver als het goed is zelf instellen. Je geeft dan aan hoeveel % van je GPU kracht je maximaal beschikbaar wil stellen voor PhysX

Acties:
  • 0 Henk 'm!

  • martijnve
  • Registratie: December 2004
  • Laatst online: 13:55
WoutF schreef op dinsdag 03 juni 2008 @ 12:26:
[...]

Klopt, maar dat kan je in de komende driver als het goed is zelf instellen. Je geeft dan aan hoeveel % van je GPU kracht je maximaal beschikbaar wil stellen voor PhysX
Dat kan, maar je zegt het zelf al: "MAXIMAAL" dus als er veel 3d werk is een geen physics dan wordt dat percentage ook voor 3d gebuikt. Dus als ze bijv 25% instellen dan gaat de 3d test op ~100% (hij hoeft toch geen phisics te doen) en de physics op 25% (geen zwaar grafisch werk), dan heb je dus een score gekregen voor ~125% van de rekenkracht van je kaart.

Maarja dat zou wel weer echt zon nvidia truuk zijn: je spullen (vaak mooie producten) door allerlij smerige truuks beter laten lijken da die van de concurrentie :-(

[ Voor 4% gewijzigd door martijnve op 03-06-2008 13:05 . Reden: verduidelijking, typo ]

Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
WoutF schreef op dinsdag 03 juni 2008 @ 12:26:
[...]

Klopt, maar dat kan je in de komende driver als het goed is zelf instellen. Je geeft dan aan hoeveel % van je GPU kracht je maximaal beschikbaar wil stellen voor PhysX
Als dat kan, dan zou 3dMark daarvan gebruik moeten maken: voor de PPU test zoveel procent van de GPU (als aangegeven in de driver settings) en voor GPU test wat er nog over is gebruiken.
Dus stel: je hebt ingesteld dat 15% voor PPU doeleinden gebruikt mag worden en dus mag er 85% voor graphics gebruikt worden. In 3Dmark test je dan de PPU met 15% gebruik van de videokaart (of je vermenigvuldigt de score die je haalt met 0.15) en je test de GPU met 85% van de videokaart (of je vermenigvuldigt de score die je op de GPU test haalt met 0.85).

Dan zou je een eerlijker beeld krijgen van ingame prestaties van een videokaart die zowel voor graphics als voor physics gebruikt wordt.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

Verwijderd

CJ,

Heb jij informatie over wat er nu precies vernieuwend is aan de UVD versie 2 ?

Kan deze generatie UVD eindelijk AVC/H264 @ level 5.1 aan, en kan die dus nu eindelijk eens hardwarematig X264-encodes doen ? Of nog steeds niet ?

Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 14:25

Splinter Cell

Glasvezel MASTER RACE

CJ schreef op dinsdag 03 juni 2008 @ 08:49:
Heb wat scores van m'n maatjes van VR @ Computex.

HD4850 op 700Mhz scoort P6466 in Vantage.
HD3850 scoort zo'n P3900.
HD3870 scoort zo'n P4800.
HD9800GTX scoort zo'n P6000.
ATi HD 4850 getest:

http://www.vr-zone.com/ar...70PRO%29_Tested/5829.html

[ Voor 58% gewijzigd door Splinter Cell op 03-06-2008 13:25 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Zit me te bedenken of die AF box er bij mij ook zo uit ziet of dat het bij mij minder scherp is in de verte. Kaartje wordt best ngo wel warm met 78c of draait er tegelijk iets met 3D mee ? Of misschien staat powerplay uit ?

Nja we zullen het over 2 weken wel zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • martijnve
  • Registratie: December 2004
  • Laatst online: 13:55
Astennu schreef op dinsdag 03 juni 2008 @ 13:31:
[...]


Zit me te bedenken of die AF box er bij mij ook zo uit ziet of dat het bij mij minder scherp is in de verte. Kaartje wordt best ngo wel warm met 78c of draait er tegelijk iets met 3D mee ? Of misschien staat powerplay uit ?

Nja we zullen het over 2 weken wel zien.
Hij geeft aan gpu activity 0%.
Misschien is dit net na de 3dmark run?

Wel een mooie score. _/-\o_

Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
martijnve schreef op dinsdag 03 juni 2008 @ 13:33:
[...]

Hij geeft aan gpu activity 0%.
Misschien is dit net na de 3dmark run?

Wel een mooie score. _/-\o_
Tja of dat metertje is kapot :P Who knows. Maar vind het echt tijd worden voor wat echte game leaks en niet die crappy 3Dmark meuk.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

7% sneller dan de 9800GTX... Dan zal die 4870 idd zo'n beetje 25% sneller zijn dan de 9800GTX?

En geen 40% zoals hier eerder voorbij kwam lijkt mij.

Nou ja, als die 4870 goed presteert met AA en zo'n 250 a 300 euro kost kan het best een leuk kaartje zijn. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Techno Overlord
  • Registratie: Januari 2003
  • Laatst online: 17:54

Techno Overlord

Nocturnal Metamorphoses™

BounceMeister schreef op dinsdag 03 juni 2008 @ 08:53:
Als de HD4850 er over twee weken moet zijn, waarom vind ik ze dan nog nergens in de shops (pre-order)?
Andere producten staan meestal al een poosje in de pre-order voordat ze daadwerkelijk geleverd worden.
Ik heb vannacht gewoon eens mails gestuurd naar shops waar ik vaker wat bestel, namelijk 4launch, Komplett en Pchut. Ik vroeg of er misschien al iets over levertijden naar hun toe bekend was, of dat er eventueel ge'pre-ordert kon worden. Zij zeiden het volgende:
Hartelijk dank voor uw bericht, wij beschikken op dit moment helaas nog niet over concrete informatie hierover. Zodra onze leverancier het product in hun assortiment opneemt zullen wij uiteraard het product automatisch in onze assortiment opnemen.
Geen info dus over eventuele pre-orders. Moet alleen nog reactie van Komplett krijgen, dit zou binnen 24uur moeten zijn.
edit: Komplett geeft hetzelfde aan


En maar wachten en wachten en wachten..... :z

Forever raver!
Specs: Workstation Server


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
RappieRappie schreef op dinsdag 03 juni 2008 @ 13:51:
7% sneller dan de 9800GTX... Dan zal die 4870 idd zo'n beetje 25% sneller zijn dan de 9800GTX?

En geen 40% zoals hier eerder voorbij kwam lijkt mij.

Nou ja, als die 4870 goed presteert met AA en zo'n 250 a 300 euro kost kan het best een leuk kaartje zijn. :)
Mja teld de cpu score ook niet weer mee ? want dan kan het best zijn dat de vga score wel gewoon 10% hoger is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 27-07 13:15
RappieRappie schreef op dinsdag 03 juni 2008 @ 13:51:
7% sneller dan de 9800GTX... Dan zal die 4870 idd zo'n beetje 25% sneller zijn dan de 9800GTX?

En geen 40% zoals hier eerder voorbij kwam lijkt mij.
Hoe kom je daarbij? Een 4870 zou ongeveer 30% sneller zijn dan een 4850. En laat nou toevallig 130% x 107% gelijk zijn aan 139%. Oftewel, als dit allemaal klopt is een 4870 39% sneller dan een 9800GTX. Zat die 40% er toch niet heel veel naast lijkt mij ;)

specs


Acties:
  • 0 Henk 'm!

Verwijderd

@ CJ

Dat de R700 2x sneller is dan een R680 is wel leuk maar ik heb geen echte scores gezien nog dus daarom bleef ik nog effetjes stil , wat wel lache is, is dat de concurrent geen DX10.1 als SM4.1 gebruikt voor hun GT200 heh woops?
http://www.pcgameshardwar...d_GPU-Z_Shot_aufgetaucht/

Die zullen dan voor echte top speed gaan denk ik, het kaartje lijkt erg veel op me 9800 GX2 XXX die zo'n mooi afgewerkte metale behuizing heeft :)

En toch ben ik erg benieuwd wat de R700 tov de GT200 gaan doen qua max speed,als max image quallity in games ipv van 3D mark wat ik niet zo'n preciese manier van testen vind veels te commercieel als te veel cheats enzo.

de beste manier om te testen is in de huidige games van nu als Company Of Heroes, Call Of Duty 4, Crysis, FlightSimulator X Deluxe Edition, World In Conflict, Enemy Territory Quake Wars en wat andere games als 3D Studio Max, the laatste Maya ook wat andere cad programma's :)

Daar krijgt men een veel duidelijke beeld van hoe echt zo'n kaart overall presteerd en niet van zo'n vage 3D mark test waar men niet saan heeft.

ik weet nog dat 2x 7950 GX2's Uber waren voor 3D mark maar in games was het een stuk minder lol zelfde gelde voor de 2900 XTX die nooit uit kwam.

Dus in mijn ogen zegt 3D mark Vantage helemaal niks ;)

maar als de R700 zo hels gaat presteren dan heeft ATi weer een Radeon 9700 Pro syndroom te pakken, dat zal heel wat worden hah! *O* nu alleen hopen dat de drivers goed mee gaan werken want dit is altijd het zwakste punt geweest. -O-

[ Voor 55% gewijzigd door Verwijderd op 03-06-2008 15:29 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
R300 gaan ze niet evenaren alleen al omdat CF niet altijd zal werken. Dat probleem zullen ze nog niet opgelost hebben. Ik vraag me af of er ooit nog een 2e R300 gaat komen. Die Chip was voor zijn tijd gewoon perfect.

[ Voor 11% gewijzigd door Astennu op 03-06-2008 15:37 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Er wordt altijd veel belooft en weinig waargemaakt, ik heb maanden op een 2900XT zitten wachten en ben uiteindelijk voor een 8800GTS 640 gegaan, omdat ik niet de benodigde stekkers aan mn voeding had voor een 2900XT :( , en de performance wisselvallig was.

Dit verhaal is nu in de doofpot gestopt, en nu wordt Nvidia helemaal afgeschilderd als een uitmelker en de potentiele blunder die de gtx280 zal worden.

Ati heeft toch zelf de HD3xxx serie (als eerste wel ;)) grotendeels gebaseerd op de HD2xxx serie?

Maar ik ben serieus aan het overwegen een ati kaart aan te schaffen, de features zijn echt een voordeel boven Nvidia, maar niets wereldschokkends, het gebruikte vermogen is meestal het belangrijkste argument, maar een ferrari rij je niet voor het benzinegebruik, ook dit is een oude bekende van ati, de HD2900 was ook topverbruiker, toch is hij aardig populair.

Totaal onnodig dus om alle nadelen op Nvidia af te schuiven, terwijl nog niet eens bekend is wat dat ding nu werkelijk presteert.

Hij ziet er in ieder geval wel mooi uit _/-\o_

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Wat HIER staat is wel "interessant". (Van 30 mei) En dit artikel was vast al eens gepost, maar deze regel doet het voorkomen alsof de Radeon HD4870X2 het moet gaan opnemen tegen de GTX260:
However, the 4870 X2, will face stiff competition from the GeForce GTX 260: Radeon 4870 X2 cards will sell for $499, while the GeForce GTX 260 is likely to debut at $449.
Ik neem aan dat dat niet zo is?

Er staat ook bij dat de HD4870 shipped met 512MB geheugen?
The Radeon 4870 512 MB is expected to ship in volume sometime this summer.
Zou ATi eerst een batch HD4870's met 512MB de deur uitgooien misschien?

Dit zou natuurlijk kunnen ivm het tekort aan GDDR5?

Of is dat ook achterhaald? :P

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

heh well ATi heeft wel DX10.1 als SM 4.1 maar nog steeds OpenGL 2.01 nVida heeft OpenGL 2.1 als 3.0 support, oke 3.0 blijkt een software patch te zijn voor alleen 2.1 en hoger. het zal er eerder aan ligger wat men draait enzo aangezien de 9800 GX2 nog steeds de snelste op de markt is in Dx9 als DX10 terwijl deze ook nog maar DX10.0 heeft en geen 10.1.

Dat van Assains Creed was een goed voorbeeld wat DX10.1 kan leveren qua extra boost en 20% extra is gewoon erg aangenaam maar dan nog belven vaak de GeForcejes boven aan hoewel het amper iets scheelde, que price / perfomance waren de radeons het beste.

Toch denk ik dat de R700 serie vele dingen gaan oplossen zoals de Bandbreedte probleem die de HD 2000 als 3000 serie hadden en als een HD 4870 X2 aka R700 2x zosnel is als een HD 3870 X2 aka R680 en dit gaat ook echt zo worden, dan heeft men kans dat ATi de kroon van de snelste kaart als beste price perfomance weer terug pakt, alleen blijft de vraag hoe lang, aangezien als de R700 uit is heeft nVidia mischien al een vervanger van hun GTX 280.

[ Voor 7% gewijzigd door Verwijderd op 03-06-2008 16:18 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

De drivers zijn het belangrijkste voor zo'n X2. De potentie is er iig wel... Dat heb ik zelf ook wel gemerkt met de HD3870X2.

[ Voor 24% gewijzigd door Format-C op 03-06-2008 16:18 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

RappieRappie schreef op dinsdag 03 juni 2008 @ 16:17:
De drivers zijn het belangrijkste voor zo'n X2. De potentie is er iig wel... Dat heb ik zelf ook wel gemerkt met de HD3870X2.
ja idd dat is gewoon een feit als nog de ondersteuning in bepaalde games als Crysis bevoobeeld, daar presteren de geforcejes ook beter als in multi chip configs, maar ik denk als het ook geschreven was voor een X2 dan hadden de beelden heel anders geweest.

[ Voor 3% gewijzigd door Verwijderd op 03-06-2008 16:21 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op dinsdag 03 juni 2008 @ 15:57:
het gebruikte vermogen is meestal het belangrijkste argument, maar een ferrari rij je niet voor het benzinegebruik, ook dit is een oude bekende van ati, de HD2900 was ook topverbruiker, toch is hij aardig populair.
Het gebruikte vermogen is geen op zichzelf staand gegeven, maar altijd gerelateerd aan prestaties, ofwel performance per watt. Iets wat nogal vaak vergeten lijkt te worden :)
De GTX280's tdp betreft evenveel watt's als het verbruik van de 2900XT, tegen naar verwachting 3-4x hogere prestaties. Computerbase geeft aan (speculatief) dat het verbruik om en rond dat van de 3870X2 zal zitten (hetzelfde, net iets minder of net iets meer)... maar de GTX280 is naar verwachting gemiddeld zo'n 1,8x zo snel als de 3870X2.
Al met al wordt de performance/watt verhouding van GTX280 onder load dus zo'n 3-4x beter dan van de 2900XT, en zo'n 1,5-2x beter dan van de 3870X2. Niets om over te klagen dus lijkt me, nog afgezien van dat het idle verbruik van de 280 schreeuwend lager ligt dan van de 2 eerdergenoemde ;)
RappieRappie schreef op dinsdag 03 juni 2008 @ 16:15:
Wat HIER staat is wel "interessant". (Van 30 mei) En dit artikel was vast al eens gepost, maar deze regel doet het voorkomen alsof de Radeon HD4870X2 het moet gaan opnemen tegen de GTX260.
Ik neem aan dat dat niet zo is?
Waarschijnlijk hebben ze daarbij alleen naar de prijs gekeken. $449 vs $499.
En ik hoop inderdaad (m.n. voor AMD) dat dit niet zo is ;)
Er staat ook bij dat de HD4870 shipped met 512MB geheugen? Zou ATi eerst een batch HD4870's met 512MB de deur uitgooien misschien? Dit zou natuurlijk kunnen ivm het tekort aan GDDR5?
Klopt, vanwege GDDR5 shortages de eerste tijd geen 1GB 4870's.
Ook geen 1GB 4850's de eerste tijd trouwens, die mogen van AMD pas gereleased worden nadat de 1GB 4870's op de markt zijn gekomen :)

[ Voor 27% gewijzigd door Cheetah op 03-06-2008 16:29 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

<knip> vergeten te editen </knip>

[ Voor 95% gewijzigd door Cheetah op 03-06-2008 16:29 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik denk dat de HD4870 X2 in dezelfde prijs classe komt maar het wel tegen de GTX280 gaat opnemen qua performance.

Over het verbruik de HD3870 X2 heeft nu het hoogste piek verbruik in handen met 204 watt als ik me niet vergis. De GTX280 zou 240+ krijgen. Maar ik ben het met je eens dat het in dit segment om de performance per watt gaat. Want we hebben het over high end kaarten die misschien 5% van de markt zijn als niet minder. Dus dan mag er ook wel wat meer verbruik zijn imo. Als hij in 2D mode maar lekker zuinig is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 27-07 13:15
Cheetah schreef op dinsdag 03 juni 2008 @ 16:21:
[...]
Het gebruikte vermogen is geen op zichzelf staand gegeven, maar altijd gerelateerd aan prestaties, ofwel performance per watt. Iets wat nogal vaak vergeten lijkt te worden :)
De GTX280's tdp betreft evenveel watt's als het verbruik van de 2900XT, tegen naar verwachting 3-4x hogere prestaties. Computerbase geeft aan (speculatief) dat het verbruik om en rond dat van de 3870X2 zal zitten (hetzelfde, net iets minder of net iets meer)... maar de GTX280 is naar verwachting gemiddeld zo'n 1,8x zo snel als de 3870X2.
Leuke vergelijkingen dit, maar je vergelijkt de GTX280 met oudere generaties van ATi. Als kaarten niet elke generatie efficienter worden, dan wordt het stroomverbruik met elke nieuwe generatie 1,5 tot 2 keer zo hoog. Dat is natuurlijk geen optie. Het is niet meer dan logisch dat de GTX280 meer performance per Watt geeft ten opzichte van oude generaties. Dat neemt niet weg dat deze kaart belachelijk veel stroom verbruikt. Dat deed de 2900XT ook, maar daarom is dit ook nooit een populaire kaart geworden.

specs


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Astennu schreef op dinsdag 03 juni 2008 @ 16:34:
Ik denk dat de HD4870 X2 in dezelfde prijs classe komt maar het wel tegen de GTX280 gaat opnemen qua performance.
Het enige nadeel van die X2 is dus dat hij in sommige games maar half zo snel is. Alleen als CF werkt/ schaalt zou hij de GTX280 kunnen bijbenen misschien. Bij de GTX280 heb je altijd maximale performance. Geen SLi profielen nodig...

[ Voor 8% gewijzigd door Format-C op 03-06-2008 16:44 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op dinsdag 03 juni 2008 @ 15:10:nu alleen hopen dat de drivers goed mee gaan werken want dit is altijd het zwakste punt geweest. -O-
Sorry, maar als iemand een driver probleem heeft is het nVidia wel en niet ATI.
Ik ken veel meer mensen met nVidia kaarten die raar doen puur door de drivers, terwijl vrijwel net zoveel man met ATI kaarten vrolijk doorgamed en zelfs een paar van de nVidia eigenaren naar ATI zijn geswitcht uit frustratie :)

nVidia Driver Support is gewoon niet meer wat het geweest is sinds een jaar of 2 zo ongeveer.

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 19:32

Apoca

Array Technology Industry

Afbeeldingslocatie: http://img209.imageshack.us/img209/4663/powercolorhd4850oc5ag5.jpg

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • movo.
  • Registratie: April 2007
  • Laatst online: 30-08 10:58
Very niiiice! :)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 03 juni 2008 @ 16:34:
Over het verbruik de HD3870 X2 heeft nu het hoogste piek verbruik in handen met 204 watt als ik me niet vergis. De GTX280 zou 240+ krijgen.
Als ik ga extrapoleren uit gegevens van Computerbase dan kom ik wel aan wat meer dan 205 watt :)
Het verschil tussen de 8600GT en de 3870X2 under load is 166W. 8600GT verbruikt load zeker meer dan 40W. Verder is die 236W voor GTX260 het TDP. Dat wil niet perse zeggen dat de kaart under load ook die 236W verstookt. Maar goed, we zullen zien.
Maar ik ben het met je eens dat het in dit segment om de performance per watt gaat. Want we hebben het over high end kaarten die misschien 5% van de markt zijn als niet minder. Dus dan mag er ook wel wat meer verbruik zijn imo. Als hij in 2D mode maar lekker zuinig is.
Precies :)
Depep schreef op dinsdag 03 juni 2008 @ 16:36:
Leuke vergelijkingen dit, maar je vergelijkt de GTX280 met oudere generaties van ATi.
We hebben op dit moment niets anders om mee te vergelijken dan de vorige generatie.
En praten we 'vorige generatie' van ATi dan praten we over 4 maanden geleden. Toen, en tot nu toe, was men hier prima te spreken over het verbruik van de 3870X2 en werd dat heel redelijk gevonden voor zijn prestaties. Moeten we niet nu plots gaan huilen over watt's als de GTX280 een paar watt's meer zou verbruiken tegen ~1.8x hogere prestaties. Komt een beetje hypo's crieto's op mij over ;)
Dat neemt niet weg dat deze kaart belachelijk veel stroom verbruikt.
Op generlij wijze belachelijker dan de 3870X2, en zeker niet afgezet tegen prestaties.
Dat deed de 2900XT ook, maar daarom is dit ook nooit een populaire kaart geworden.
De 2900XT is nooit een populaire kaart geworden omdat hij luidruchtig was, inderdaad een hoog verbruik had, en vooral, nu komt het, daartegenover behoorlijk slechte prestaties zette.
Als hij 1,8x sneller was geweest dan de 8800GTX tegen die 225W die hij verstookte dan had je niemand horen klagen over het verbruik... behalve Al Gore dan misschien ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Mesmerizing 3D graphics for true gamers.
Ik kan niet wachten..

Ben nu al een voeding aan het uitzoeken. Ik heb het topic doorgezocht maar kon niet vinden of de HD4850 1 of 2 PCI-E voedings kabels nodig heeft.. Weet iemand dit misschien?

Edit: sry 1 connector natuurlijk.. zie plaatje..

[ Voor 9% gewijzigd door Verwijderd op 03-06-2008 17:45 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 00:07
Cheetah schreef op dinsdag 03 juni 2008 @ 16:21:
[...]
De GTX280's tdp betreft evenveel watt's als het verbruik van de 2900XT, tegen naar verwachting 3-4x hogere prestaties.
Volgens mij vind je dat wel erg leuk om te herhalen en lekker ATi te bashen he? Gezien je dat nu al tig keer hebt herhaald |:( Lekkere appels/peren vergelijking... Dat is net als continu gaan zeiken over de Pentium 4, die evenveel stroom verbruikte als een hedendaagse quadcore.

Dus please even stoppen met je kansloze gezeik over ATi, ik vind het een beetje storend worden.

Acties:
  • 0 Henk 'm!

  • H004
  • Registratie: Maart 2006
  • Laatst online: 28-05 19:55
@ Shrimp: 1, zoals je ook op het plaatje kan zien. :)

De 4870 heeft er 2 nodig.

[ Voor 6% gewijzigd door H004 op 03-06-2008 17:46 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Verwijderd schreef op dinsdag 03 juni 2008 @ 16:15:
heh well ATi heeft wel DX10.1 als SM 4.1 maar nog steeds OpenGL 2.01 nVida heeft OpenGL 2.1 als 3.0 support, [...]
onmogelijk de ogl 3.0 spec lig (nog steeds) niet vast, de khronos groep maakt al een jaar geen vooruitgang meer.

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Daarnaast is OpenGL 3.0 geen toevoeging van nieuwe features ten opzichte van DirectX 10.1 en SM 4.1. OpenGL 3.0 voegt geen nieuwe features toe, maar het is gewoon de taal die op de schop gaat (consequenter, bepaalde extensies opnemen in het `basis' gedeelte).

OpenGL 3.0 is dus gewoon een questie van een nieuwe driver schrijven voor OpenGL 2.1 hardware. Daarnaast is mijn Ati driver (in linux) op mijn 9500 pro (ja zo oud) gewoon OpenGL 2.1. Dus ik denk dat de nieuwere hardware ook wel 2.1 is hoor.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Techno Overlord
  • Registratie: Januari 2003
  • Laatst online: 17:54

Techno Overlord

Nocturnal Metamorphoses™

H004 schreef op dinsdag 03 juni 2008 @ 17:46:
@ Shrimp: 1, zoals je ook op het plaatje kan zien. :)

De 4870 heeft er 2 nodig.
Hmmz, ik ben dus ook bezig met nieuwe pc en ik heb al een voeding. Ik zou eerst voor CF 3870X2 gaan, maar ivm scalling probs toch maar wachten op de 4870. Nu zie ik dat mijn voeding, de Zalman ZM-850HP het volgende heeft:
Four PCI Express VGA Power 6-Pin & 6+2 Pin Connectors

Four independent 6-Pin Power Connectors (two 6-pin & two 6+2 pin) provide support for Nvidia¡¯s Quad SLI.
Kan ik hiermee dus twee 4870's mee draaien in CF of toch niet?

Forever raver!
Specs: Workstation Server


Acties:
  • 0 Henk 'm!

Verwijderd

CaptainM schreef op dinsdag 03 juni 2008 @ 19:27:
[...]


Hmmz, ik ben dus ook bezig met nieuwe pc en ik heb al een voeding. Ik zou eerst voor CF 3870X2 gaan, maar ivm scalling probs toch maar wachten op de 4870. Nu zie ik dat mijn voeding, de Zalman ZM-850HP het volgende heeft:


[...]

Kan ik hiermee dus twee 4870's mee draaien in CF of toch niet?
Lol makkelijk. ;)

Acties:
  • 0 Henk 'm!

  • Techno Overlord
  • Registratie: Januari 2003
  • Laatst online: 17:54

Techno Overlord

Nocturnal Metamorphoses™

Ik begon namelijk alweer zwaar te twijfelen. Ik dacht dat je die stekkers moest combineren op 1 kaart. Maargoed het past ik ben weer opgelucht. O-)

Forever raver!
Specs: Workstation Server


Acties:
  • 0 Henk 'm!

Verwijderd

The Flying Dutchman schreef op dinsdag 03 juni 2008 @ 19:09:
Daarnaast is OpenGL 3.0 geen toevoeging van nieuwe features ten opzichte van DirectX 10.1 en SM 4.1. OpenGL 3.0 voegt geen nieuwe features toe, maar het is gewoon de taal die op de schop gaat (consequenter, bepaalde extensies opnemen in het `basis' gedeelte).

OpenGL 3.0 is dus gewoon een questie van een nieuwe driver schrijven voor OpenGL 2.1 hardware. Daarnaast is mijn Ati driver (in linux) op mijn 9500 pro (ja zo oud) gewoon OpenGL 2.1. Dus ik denk dat de nieuwere hardware ook wel 2.1 is hoor.
hmm tot zover ik weet heeft ATi alleen OpenGL 2.0 en geen 2.1 wat NV wel heeft als ik die beschrijvingen op deze dozen belees:
http://www.hexus.net/content/item.php?item=13600

Maargoed het kan een typefoutje zijn hehe :) Mischien is OpenGL 3.0 een versnelling van 2.1 net als DX10.1 dat is voor 10.0 :)
nero355 schreef op dinsdag 03 juni 2008 @ 17:01:
[...]

Sorry, maar als iemand een driver probleem heeft is het nVidia wel en niet ATI.
Ik ken veel meer mensen met nVidia kaarten die raar doen puur door de drivers, terwijl vrijwel net zoveel man met ATI kaarten vrolijk doorgamed en zelfs een paar van de nVidia eigenaren naar ATI zijn geswitcht uit frustratie :)

nVidia Driver Support is gewoon niet meer wat het geweest is sinds een jaar of 2 zo ongeveer.
Over de driver kwestie die van nVidia zijn gewoon strak je installeerd ze en ze doen het gewoon out of the box mijn ervaring met ATi was de afgelopen jaren gewoon niet zo goed meer ook de reden dat ik nu met een 9800 GX2 XXX werk maar als die HD 4870 X2 zo geweldig lijkt te zijn dan is de kans groter dat ik ook weer terug naar ATi ga, maar dan wil ik geen gedoe hebben met drivers, dat heb ik eerlijk al gezien, sinds 2004 heb ik ATi gehad en de laatste 4 maanden was een ramp Drivers heh het werd van goed naar slechter, met onder andere vele rendering erros met CrossFire als andere image quallity losses. Nu dat ik die GX2 heb heb ik nog geen ene prob gezien en zo hoort het ook, je betaalt er ook inmiddels voor, end at is niet alleen de hardware maar ook dat de software goed er mee werkt, en dat miste ik bij ATi.

Ik hoop echter dat het dit jaar er beter er aan toe komt qua drivers.

[ Voor 45% gewijzigd door Verwijderd op 03-06-2008 20:01 ]


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 14:25

Splinter Cell

Glasvezel MASTER RACE

CJ schreef op dinsdag 03 juni 2008 @ 08:49:
Heb wat scores van m'n maatjes van VR @ Computex.

HD4850 op 700Mhz scoort P6466 in Vantage.
HD3850 scoort zo'n P3900.
HD3870 scoort zo'n P4800.
HD9800GTX scoort zo'n P6000.
Nog een andere score, met andere hardware:
Radeon 4850 scores 5K in 3Dmark Vantage

Computex 08: On a Phenom system


A Radeon HD 4850 card on a Phenom 9850 system clocked at 2.5GHz can score slightly over 5000 in 3Dmark Vantage.

We had a chance to see the card, but we were asked not to take pictures of them but we managed to see the score and touch the card.

Radeon HD 4850 aka RV770PRO card is a single slot card with single 6 pin power connector that looks incredibly similar to Radeon 3850.

We had a chance to touch the back of the card and we can tell you that it feels quite hot but at the same time runs stable.

The card is real and it works well, at least with this benchmark, but we still don’t know how it actually runs other games.
Bron: Fudzilla

Acties:
  • 0 Henk 'm!

  • Brasher
  • Registratie: Mei 2004
  • Laatst online: 10-09 18:32
H004 schreef op dinsdag 03 juni 2008 @ 17:46:
@ Shrimp: 1, zoals je ook op het plaatje kan zien. :)

De 4870 heeft er 2 nodig.
Oh, is dat even jammer. Mijn voeding (Cooler Master RS-430) heeft maar één PCI-Express aansluiting. Is de enige optie om een 4870 in m'n systeem te zetten (en iets uit te laten voeren :+ ) dan een andere voeding kopen die wel twee of meer PCI-E aansluitingen heeft of zijn er nog andere manieren?

Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op dinsdag 03 juni 2008 @ 16:21

Het gebruikte vermogen is geen op zichzelf staand gegeven, maar altijd gerelateerd aan prestaties, ofwel performance per watt. Iets wat nogal vaak vergeten lijkt te worden :)
De GTX280's tdp betreft evenveel watt's als het verbruik van de 2900XT, tegen naar verwachting 3-4x hogere prestaties. Computerbase geeft aan (speculatief) dat het verbruik om en rond dat van de 3870X2 zal zitten (hetzelfde, net iets minder of net iets meer)... maar de GTX280 is naar verwachting gemiddeld zo'n 1,8x zo snel als de 3870X2.
Al met al wordt de performance/watt verhouding van GTX280 onder load dus zo'n 3-4x beter dan van de 2900XT, en zo'n 1,5-2x beter dan van de 3870X2. Niets om over te klagen dus lijkt me, nog afgezien van dat het idle verbruik van de 280 schreeuwend lager ligt dan van de 2 eerdergenoemde ;)
Okee dat is klare taal ;) Die performance is wel aardig afhankelijk van het gpu-gebruik, ik neem aan dat je beide gpu's van de ati met een gtx280 vergelijkt.

[ Voor 7% gewijzigd door Verwijderd op 04-06-2008 01:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

leonpwner1 schreef op dinsdag 03 juni 2008 @ 17:44:
[...]


Volgens mij vind je dat wel erg leuk om te herhalen en lekker ATi te bashen he? Gezien je dat nu al tig keer hebt herhaald |:( Lekkere appels/peren vergelijking... Dat is net als continu gaan zeiken over de Pentium 4, die evenveel stroom verbruikte als een hedendaagse quadcore.

Dus please even stoppen met je kansloze gezeik over ATi, ik vind het een beetje storend worden.
Tgoh, eerlijk gezegd heeft ie zeker een punt. De R600 architectuur belooft op papier heel veel, maar in werkelijke prestaties heeft ze nooit potten gebroken. ATi heeft zich op die architectuur vergaloppeerd, en de implementatie van bepaalde features in games overschat. Dit is natuurlijk deels te wijten aan het TWINTBP programma van nVidia. Wat echter zeker ook meetelt is de driverafhankelijkheid van de kaarten. De complexe architectuur van de R600 kaarten is immers niet gemakkelijk om 100% te benutten. Het is nu wel duidelijk dat nV een betere keuze heeft gemaakt, nl. 'eenvoudigere kaarten' te maken met minder rauwe kracht. Het blijkt gewoon pokkemoeilijk om de potentie van de R600 in realtime prestaties om te zetten. Dat nVidia alle middelen toepast om dit te verijdelen is natuurlijk hun volste recht.

Laten we hopen dat de HD 4870 nu bewijst dat ATi de juist keuze gemaakt heeft. Net zoals met de X1950 architectuur. De voornaamste reden dat nVidia de 8800GTX gelanceerd heeft is nl. de al maar groter wordende marge van de X1K tov de GF 7. Door het immense overwicht van de 8800 werd deze evolutie immers op de achtergrond geplaatst.

Sowieso kan nu bijna met zekerheid gesteld worden dat bvb. de HD 3870 binnen 3 jaar de 8800GT compleet afmaakt in de games van die era. Daar is ATi echter niks mee. De focus verleggen naar het heden is onontbeerlijk als de concurrentie met nVidia aangegaan wordt. Want het gros van de gamers redeneert: if((GT200>R700) then((GT100>RV770) AND (GT3x0 > RV8x0))). Op prijs/kwaliteit concurreren geeft op korte termijn wel ademruimte, maar als de situatie op lange termijn niet verandert, heeft dit voor ATi enkel nadelen.

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Nou daar ben ik niet zo bang voor. Zolang ATI stevige highend performance biedt die ze op hun manier van werken erg strak kunnen prijzen vind Nvidia dat echt niet grappig. Ondertussen zal ATI hun multi gpu oplossingen stroomlijnen zodat deze meer als een enkele chip werken.

[ Voor 11% gewijzigd door Hekking op 04-06-2008 07:29 ]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op woensdag 04 juni 2008 @ 03:53:
[...]
De complexe architectuur van de R600 kaarten is immers niet gemakkelijk om 100% te benutten.
Helaas is dit inmiddels ook al onderuit gehaald. De 64x5 shaders van de R600 generatie worden vaak bijna optimaal gebruikt. Elke shaderunit zou op een schaal van 1 tot 5 (immers 5 streamprocessors) maximaal een score van 5 krijgen bij optimaal gebruik. In veel games zit dit tussen de 4 en 5. De compiler bij AMD werkt vrij goed.

De R600 wordt gebottlenecked door andere zaken waar de G80 veel voordeel heeft. Denk aan texture units, veel hogere shaderclocks etc.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Verwijderd schreef op woensdag 04 juni 2008 @ 03:53:
[...]
Dat nVidia alle middelen toepast om dit te verijdelen is natuurlijk hun volste recht gebruikswijze
Ik moet eerlijk zeggen dat ik het namelijk nog niet vaak andersom gehoord heb, klopt dat? Het is altijd nVidia die door de grotere TWIMTBP positie roet in het eten van de concurrent probeert te gooien ...

offtopic:
Godver ik wil geen Vista, maar wil wel eens zien wat mn G80Ultra met C2D3.2 in vantage haalt


Maar zie je dat niet ook bij de X1900/X1950 series - volgens mij zijn die nu bijna altijd sneller dan de 7800/7900 kaarten. Ik denk dat ATi daar wel wat mee wint hoor :) . De investering is in het vertrouwen van de consument imo ... als ik een kaart had die veel langer meeging en het steeds beter ging doen in drivers en games dan zou ik de volgende keer weer een keer een kaart bij je komen halen :> ! Zo zou ik dan redeneren ... zelfde als een televies. Als er eentje dik 10/15/40 jaar meegaat (noem maar wat) heb je wel een gevoel dat je goed spul te pakken had :) !

Wie weet gebeurt dat met de 2900 ook nog, maar misschien wat minder. Denk dat de X1900/50 kaarten voor het moment wat beter waren. En volgens mij begin je nu al te zien dat de 3870 de 8800GT begint te verslaan overal. Heb het al gezien in Mass Effect en early benches van FC2 etc. Ik voel ook wel wat voor die strategy - lekker gamen, maar dan langer :) .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Me broer heeft mijn oude X1900 XTX nog. Ding loopt echt super. Games als UT3 draaien best goed waar dat op een 7900 GTX en de 7950 GX2 wel wat anders is.

Maar nu kan alles gewoon niet meer op MAX IQ dus hij gaat binnenkort ook over naar een HD4870 kaart. Kan die oude X1900 XTX naar zijn vriendin en die X1950 Pro gaat er uit.
CJ schreef op woensdag 04 juni 2008 @ 08:07:
[...]


Helaas is dit inmiddels ook al onderuit gehaald. De 64x5 shaders van de R600 generatie worden vaak bijna optimaal gebruikt. Elke shaderunit zou op een schaal van 1 tot 5 (immers 5 streamprocessors) maximaal een score van 5 krijgen bij optimaal gebruik. In veel games zit dit tussen de 4 en 5. De compiler bij AMD werkt vrij goed.

De R600 wordt gebottlenecked door andere zaken waar de G80 veel voordeel heeft. Denk aan texture units, veel hogere shaderclocks etc.
Dat valt me nog wel mee. Dan ben ik erg benieuwd hoe het straks gaat. Texture units moeten goed komen. Shader clocks wellicht ook. Nu nog die AA en Z Sample rates als die ook fixed zijn wordt het echt een feest.

[ Voor 54% gewijzigd door Astennu op 04-06-2008 09:01 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Is er trouwens nog nieuws over de laptop chips van AMD ?

Las net op de FP dat nVidia de 9M serie uitbrengt die 40% sneller is dan de voorgangers. Ben benieuwd of er een 9600 GT alike kaart tussen zit. Anders lijkt dat me wel wat als ATi niet snel met iets vergelijkbaars komt :(

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Idd, op laptop gebied kan ati zeker met wat chips komen, mijn zus heeft een ati chip in haar laptop en die loopt prima, ondanks dat het een x200 is :P.
een mobile 3850/70 zou zeker een mooie ontwikkeling zijn :Y

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sapphire ATI HD4850 512MB, vendorcode 21132-00-20R. Aankoopprijs 132.38 euro (excl btw en andere marges). De eerste prijzen zijn altijd hoog, dus ik zie dit nog zakken naar 120 - 125 euro.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Kun je ook al HD4870's en GTX280/260's zien?

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nee, maar dat is een kwestie van dagen :)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Hacku schreef op woensdag 04 juni 2008 @ 10:22:
Nee, maar dat is een kwestie van dagen :)
Zou je die ook willen posten? :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

leonpwner1 schreef op dinsdag 03 juni 2008 @ 17:44:
Volgens mij vind je dat wel erg leuk om te herhalen en lekker ATi te bashen he?
Realiteit != bashen. Probeer het onderscheid te maken... ;)
Gezien je dat nu al tig keer hebt herhaald |:(
2 posts... tegenover legio posts waarin volop geklaagd wordt over dat 'belachelijke verbruik' van de 280.
Als we het toch moeten gaan hebben over 'tig keer herhaald' lijkt me dat een veel betere kandidaat... is alleen natuurlijk weer niet oke wanneer iemand dat even in perspectief plaatst?
Lekkere appels/peren vergelijking... Dat is net als continu gaan zeiken over de Pentium 4, die evenveel stroom verbruikte als een hedendaagse quadcore.
Nieuwe generatie vergelijken met vorige generatie (2900XT) en huidige generatie (3870X2) = volkomen valide vergelijking. Let maar op wat alle reviewsites zometeen gaan doen, in de lijn van wat ze altijd al doen. Als je een probleem hebt met de vergelijking die ik trok, dan kun je geen review meer opslaan van om 't even wat, want e.e.a. wordt vrijwel altijd afgezet tegen eerdere producten. Nog afgezien van dat we nog niet eens live nieuw (RV770) vergelijkingsmateriaal van ATi hebben liggen...
Dus please even stoppen met je kansloze gezeik over ATi, ik vind het een beetje storend worden.
Ik heb nou juist precies hetzelfde met dat van jou over mijn posts :)
Hacku schreef op woensdag 04 juni 2008 @ 10:18:
Sapphire ATI HD4850 512MB, vendorcode 21132-00-20R. Aankoopprijs 132.38 euro (excl btw en andere marges). De eerste prijzen zijn altijd hoog, dus ik zie dit nog zakken naar 120 - 125 euro.
~160 incl BTW. Dat zou inhouden dat de 4850 bij release al voor ~170-180 verkrijgbaar moet zijn.
Heel mooie prijs, zeker als hij zoals verwacht de 9800GTX naar de kroon steekt. Wordt een interessante kaart om in de gaten te houden voor CF (340~360 Euro voor high-end prestaties) :)

[ Voor 16% gewijzigd door Cheetah op 04-06-2008 10:44 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Moet al dat gekibbel echt weer hier? Ik dacht dat sommige mensen nu wel wijzer zouden zijn geworden?

Die prijzen van de HD4850 die Hacku noemde zien er goed uit. Hoeveel marge kwam er ook nog maar weer boven op?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
CJ schreef op woensdag 04 juni 2008 @ 08:07:
[...]


Helaas is dit inmiddels ook al onderuit gehaald. De 64x5 shaders van de R600 generatie worden vaak bijna optimaal gebruikt. Elke shaderunit zou op een schaal van 1 tot 5 (immers 5 streamprocessors) maximaal een score van 5 krijgen bij optimaal gebruik. In veel games zit dit tussen de 4 en 5. De compiler bij AMD werkt vrij goed.

De R600 wordt gebottlenecked door andere zaken waar de G80 veel voordeel heeft. Denk aan texture units, veel hogere shaderclocks etc.
euh, de slides die ik gezien heb gaven tussen de 60 en 70% gebruik aan.
(het is natuurlijk een afweging van controll logic vs alu's, nvidia heeft veel meer controll logic en minder alu's, maar hun alu's kunnen bijna altijd 100% belast worden, bij amd is het omgekeerd, peak flops van amd zullen dus doorgaans hoger zijn maar in werkelijkheid moet je tov. de nvidia architectuur daar een dikke 30% van af doen.)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ schreef op woensdag 04 juni 2008 @ 10:44:
Moet al dat gekibbel echt weer hier? Ik dacht dat sommige mensen nu wel wijzer zouden zijn geworden?

Die prijzen van de HD4850 die Hacku noemde zien er goed uit. Hoeveel marge kwam er ook nog maar weer boven op?
Prijzen zijn inderdaad nice. Start 170-200 en later 150-170. Mocht ik geen HD4870 kunnen krijgen ga ik gewoon lol hebben met de HD4850.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 27-07 13:15
Cheetah schreef op woensdag 04 juni 2008 @ 10:40:
Nieuwe generatie vergelijken met vorige generatie (2900XT) en huidige generatie (3870X2) = volkomen valide vergelijking. Let maar op wat alle reviewsites zometeen gaan doen, in de lijn van wat ze altijd al doen. Als je een probleem hebt met de vergelijking die ik trok, dan kun je geen review meer opslaan van om 't even wat, want e.e.a. wordt vrijwel altijd afgezet tegen eerdere producten. Nog afgezien van dat we nog niet eens live nieuw (RV770) vergelijkingsmateriaal van ATi hebben liggen...
Van de RV770 weten we ongeveer evenveel als van de GTX 280. Het is dan ook wel zo logisch om deze met elkaar te vergelijken op het gebied van performance per Watt of bang for buck. Natuurlijk wordt een kaart ook wel vergeleken met oude series, maar dan eerder met oude series van dezelfde fabrikant, om de vooruitgang te demonstreren.

Dat de 2900XT geen succes was dat weten we nu wel eens, dat wordt een beetje oud verhaal. Het is niet nuttig om dit steeds weer te vermelden of om kaarten daarmee te vergelijken. De nieuwe kaart van nVidia is beter dan de meest tegenvallende kaart van ATi sinds tijden die inmiddels ook alweer meer dan een jaar uit is, goh wat verrassend...
Cheetah schreef op woensdag 04 juni 2008 @ 10:40:
~160 incl BTW. Dat zou inhouden dat de 4850 bij release al voor ~170-180 verkrijgbaar moet zijn.
Heel mooie prijs, zeker als hij zoals verwacht de 9800GTX naar de kroon steekt. Wordt een interessante kaart om in de gaten te houden voor CF (340~360 Euro voor high-end prestaties) :)
De goedkoopste 9800GTX kost nu rond de 200 euro. Ik ben benieuwd of die nog naar 180 euro kan zakken. Maar ze zullen wel moeten natuurlijk. Wordt weer een leuke prijzenoorlog in deze range.

[ Voor 18% gewijzigd door Depep op 04-06-2008 11:01 ]

specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
oeLangOetan schreef op woensdag 04 juni 2008 @ 10:51:
[...]


euh, de slides die ik gezien heb gaven tussen de 60 en 70% gebruik aan.
Bioshock 84%
Call of Juarez 78%
Crysis 76%
Lost Planet 67%

En in Bioshock zitten dus de meeste shaders. Hoe hoger het aantal shaders, des te efficienter lijkt de boel te worden op de R600 architectuur.

Check pagina 34 en de VLIW packingrate: http://ati.amd.com/developer/cgo/2008/Rubin-CGO2008.pdf

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Hacku schreef op woensdag 04 juni 2008 @ 10:18:
Sapphire ATI HD4850 512MB, vendorcode 21132-00-20R. Aankoopprijs 132.38 euro (excl btw en andere marges). De eerste prijzen zijn altijd hoog, dus ik zie dit nog zakken naar 120 - 125 euro.
[kijk je heel lief aan]
en hoe vertaalt zich dat naar de consumentenprijs? :>
[/kijk je heel lief aan]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op woensdag 04 juni 2008 @ 10:44:
Moet al dat gekibbel echt weer hier? Ik dacht dat sommige mensen nu wel wijzer zouden zijn geworden?
Als het van mij afhangt hoeft dat zinloze gekibbel inderdaad echt niet....
Die prijzen van de HD4850 die Hacku noemde zien er goed uit. Hoeveel marge kwam er ook nog maar weer boven op?
De goedkoopste webshops pakken meestal toch zo'n 7-10% marge op de inkoop?
Depep schreef op woensdag 04 juni 2008 @ 10:57:
Van de RV770 weten we ongeveer evenveel als van de GTX 280. Het is dan ook wel zo logisch om deze met elkaar te vergelijken op het gebied van performance per Watt of bang for buck.
Oke, prima:
TDP GTX280 = 236W
TDP 4850 = 114W ; CF = 228W
TDP 4870 = 157W ; CF = 314W

Prestaties GTX280 naar verwachting tussen 4850CF en 4870CF in, maar dichter bij 4870CF.
Perspectief terug naar (verwachte) performance/watt?
Natuurlijk wordt een kaart ook wel vergeleken met oude series, maar dan eerder met oude series van dezelfde fabrikant, om de vooruitgang te demonstreren.
Verreweg de meeste reviewers vergelijken cross-fabrikant en nemen van beide fabrikanten de voorgaande generatie mee.
Dat de 2900XT geen succes was dat weten we nu wel eens, dat wordt een beetje oud verhaal. Het is niet nuttig om dit steeds weer te vermelden of om kaarten daarmee te vergelijken.
Ik wees er alleen op dat er destijds van het verbruik van de 2900XT hier geen drama werd gemaakt.
Verder heb ik ook een duidelijke parallel getrokken met de slechts 4 maanden oude high-end 3870X2. Ook van het 3870X2 verbruik werd hier geen drama gemaakt, sterker nog men was er algemeen prima over te spreken. Dan 'bevreemd' het me nogal dat bij de GTX280 het plots wel 'n drama zou zijn, zeker gekeken naar de perf/watt schaal.

Maargoed, ik heb er eigenlijk geen behoefte aan om m'n posts te verdedigen. Wat ik bedoelde te zeggen lijkt me duidelijk, vanaf mijn 1ste post hierover :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 10-09 17:31
Cheetah schreef op woensdag 04 juni 2008 @ 11:21:

[...]
De goedkoopste webshops pakken meestal toch zo'n 7-10% marge op de inkoop?
Ja meestal wel, ik doe altijd een inkoopprijs x 1,6 en dan zit je meestal wel in de buurt van de verkoopprijs. Maar vaak zijn dan webshops nog wel goedkoper.

[ Voor 7% gewijzigd door Meekoh op 04-06-2008 11:27 ]

Computer says no


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Moshe85 schreef op woensdag 04 juni 2008 @ 11:26:
[...]

Ja meestal wel, ik doe altijd een inkoopprijs x 1,6 en dan zit je meestal wel in de buurt van de verkoopprijs. Maar vaak zijn dan webshops nog wel goedkoper.
Ik neem aan dat je 1.06 bedoelt? ;)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX

Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.