[Algemeen] ATi Nieuwsdiscussie Topic - Deel 112 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 7 Laatste
Acties:
  • 45.193 views

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

mdcobra schreef op vrijdag 19 februari 2010 @ 21:03:
Deze 10.3 beta drivers werken dus op Mobility GPU's?
Als het goed is, wel.
SgtCaffran schreef op vrijdag 19 februari 2010 @ 21:26:
oud: 5850@960/1250
10.2
[afbeelding]

nieuw: 5850@950/1250
10.3
[afbeelding]
Ik ben erg benieuwd in hoeverre deze boost ook gaat gelden voor de HD5770. Erg netjes gedaan van het driverteam, dat in ieder geval.

Wel toen ik Cat 10.2 WHQL ging installen, even een BAD_POOL_CALLER te verwerken gekregen. Dat was niet fijn. Gelukkig was direct erna alles opgelost so I am back to being a happy man.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Bullus schreef op vrijdag 19 februari 2010 @ 20:11:
Alweer beta's _/-\o_

Catalyst 10.3pre (8.71) leaked (Win7/Vista)

Als er mensen zijn die nog zeuren dat er weinig beta's uitkomen.... :r

[afbeelding]

Alleen maar positieve reacties over de 10.3pre-beta's
Alhoewel ik de volledige 10.2 gedelete heb is mijn 10.3 controlcenter versie, onderste regel iets ouder dan op jou plaatje... :?

Maar ja boeien.

Ik ben iig erg blij met de huidige driverstrategie waarbij de enthusiast al in vroeger stadium de beta's voor de volgende maand kunnen gebruiken. Hopelijk blijven ze dat zo doen. Ook de CFX profiles enzo, dat is helemaal top. _/-\o_

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Help!!!! schreef op vrijdag 19 februari 2010 @ 21:31:
[...]

Alhoewel ik de volledige 10.2 gedelete heb is mijn 10.3 controlcenter versie, onderste regel iets ouder dan op jou plaatje... :?

Maar ja boeien.

Ik ben iig erg blij met de huidige driverstrategie waarbij de enthusiast al in vroeger stadium de beta's voor de volgende maand kunnen gebruiken. Hopelijk blijven ze dat zo doen. Ook de CFX profiles enzo, dat is helemaal top. _/-\o_
Plaatje heb ik gecopied van het guru3d forum. Heb ze trouwens ook nog niet geinstalled.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Bullus schreef op vrijdag 19 februari 2010 @ 21:56:
[...]


Plaatje heb ik gecopied van het guru3d forum. Heb ze trouwens ook nog niet geinstalled.
ah ok!

tx. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Jejking schreef op vrijdag 19 februari 2010 @ 21:28:
[...]

Als het goed is, wel.

[...]

Ik ben erg benieuwd in hoeverre deze boost ook gaat gelden voor de HD5770. Erg netjes gedaan van het driverteam, dat in ieder geval.

Wel toen ik Cat 10.2 WHQL ging installen, even een BAD_POOL_CALLER te verwerken gekregen. Dat was niet fijn. Gelukkig was direct erna alles opgelost so I am back to being a happy man.
Vreemd, die kreeg ik juist bij die 10.3 drivers die hier gepost werden. Ben weer terug gegaan naar de 10.2 WHQL. Eerst keer dat ik een BSOD kreeg tijdens of na het installeren van ati drivers :o :(

Ik zal de 10.3 beta eens installeren nadat ik de 10.2 eraf heb gegooid, misschien dat dat wel werkt.

[ Voor 7% gewijzigd door peakaboo op 20-02-2010 03:09 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

*Kuch* ervaringentopic *kuch*

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Help!!!! schreef op vrijdag 19 februari 2010 @ 20:34:


Nu nog in alle games AA kunnen forceren via de drivers. 8)
Inderdaad. Dat is het laatste ding die we moeten hebben, en dan hoef ik geen nV meer, aangezien dat het enige is wat ATi (nog) niet heeft. :P Als ze dat wel hebben/ doen is het feest compleet voor mij. Al moet ik zeggen dat ik nu al aardig in mijn nopjes ben. :Y)

[ Voor 26% gewijzigd door Format-C op 20-02-2010 10:04 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 10:57

pino85

Im just a Bird in the Sky

Zelf zie ik dat laatste kersje op de taart niet zo maar gebeuren in alle games die nu uitkomen of al net uitgekomen zijn maar ik hoop met je mee :9
Hoe groot achten jullie de kans dat dit uberhaupt zal gaan gebeuren in de nabije(toekomst?)

[ Voor 24% gewijzigd door pino85 op 20-02-2010 10:24 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Zeer klein.... Maar goed. Wie weet?!

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!
AA forceren in alle games is niet zo gemakkelijk als het lijkt. Of dit kan is zeer afhankelijk van de game-engine en of de gamedeveloper mee werkt om alle buffers vrij te geven waar AA samples naar toe geschreven worden. En in het verleden hebben we kunnen zien dat helaas het TWIMTBP programma er te vaak voor gezorgd heeft dat AMD erg laat toegang kreeg of medewerking kreeg van developers.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Wat is het nut om AA te forceren in alle games?
Ingame kun je AA dan ook gewoon aanzetten. Wat is het verschil?

Behalve bij games waar je ingame AA niet kunt aanzetten (MassEffect2),daar verwacht ik ,dat je dat wel moet kunnen forceren in CCC.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Bullus schreef op zaterdag 20 februari 2010 @ 12:09:
Wat is het nut om AA te forceren in alle games?
Ingame kun je AA dan ook gewoon aanzetten. Wat is het verschil?

Behalve bij games waar je ingame AA niet kunt aanzetten (MassEffect2),daar verwacht ik ,dat je dat wel moet kunnen forceren in CCC.
Er zijn best veel games (zowieso ALLE Unreal games, STALKER, GTA4, Wolfenstein, The Saboteur, Wolverine, Bionic Commando enz) waarin je in-game geen AA kan aanzetten hoor. Bij nV is het bij nagenoeg elke game mogelijk AA te forceren. Al dan niet met nHancer... Edit; met v-sync is het trouwens hetzelfde verhaal. Die optie kunnen ze net zo goed uit CCC halen, want forceren werkt toch niet. :/

De nieuwste Ati Tray Tools werk nu overigens ook goed met Windows 7 en met de Radeon HD5000 series, dus misschien wil het daarmee. Ik heb het nog niet geprobeerd. Het zou gewoon mooi zijn als de mogelijkeid aanwezig is om te forceren. Ik vind het persoonlijk fijn om volledig "in control" over mijn VGA kaarten te zijn. :)


Edit; maar je hoort mij verder niet klagen. Het gaat nu echt de goeie kant op met ATi en drivers. Super! :9

[ Voor 24% gewijzigd door Format-C op 20-02-2010 12:34 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Jovas
  • Registratie: December 2003
  • Laatst online: 09-06 20:42
Ik wacht persoonlijk met smart op de volgende generatie Ati kaarten. Als ik het nu eens bekijk sinds de release van de 5xxx serie in Oktober sla ik deze over..

Er is nog weinig bekend over de volgende generatie hmm?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Format-C schreef op zaterdag 20 februari 2010 @ 12:14:
[...]

Er zijn best veel games (zowieso ALLE Unreal games, STALKER, GTA4, Wolfenstein, The Saboteur, Wolverine, Bionic Commando enz) waarin je in-game geen AA kan aanzetten hoor. Bij nV is het bij nagenoeg elke game mogelijk AA te forceren. Al dan niet met nHancer... Edit; met v-sync is het trouwens hetzelfde verhaal. Die optie kunnen ze net zo goed uit CCC halen, want forceren werkt toch niet. :/

De nieuwste Ati Tray Tools werk nu overigens ook goed met Windows 7 en met de Radeon HD5000 series, dus misschien wil het daarmee. Ik heb het nog niet geprobeerd. Het zou gewoon mooi zijn als de mogelijkeid aanwezig is om te forceren. Ik vind het persoonlijk fijn om volledig "in control" over mijn VGA kaarten te zijn. :)


Edit; maar je hoort mij verder niet klagen. Het gaat nu echt de goeie kant op met ATi en drivers. Super! :9
Precies. :Y

Echter met de komst van DX11 wordt het misschien minder belangrijk. Als ik het goed heb moet een game
om DX11 compliant te mogen zijn, AA ondersteunen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 153298

Help!!!! schreef op zaterdag 20 februari 2010 @ 13:49:
Echter met de komst van DX11 wordt het misschien minder belangrijk. Als ik het goed heb moet een game
om DX11 compliant te mogen zijn, AA ondersteunen.
Ik vraag me alleen wel af of DX11 wel een succes gaat worden... Voordat Win7 en de HD5-serie uitwaren, geloofde ik er heilig in dat DX11 een revolutie zou worden. Nu is de windows wel goed (i.t.t. Vista en DX10), maar nu gaat het niet goed met de hardware. Nvidia heeft nog geen DX11 en dat gaat voorlopig niet komen (en het is nog maar de vraag of het uiteindelijk nog goede kaarten worden). ATI kan de vraag van haar HD5 kaarten niet bijhouden, waardoor de prijzen omhoog zijn en mensen weken moeten wachten op hun kaart. Daardoor wordt het voor gamedesigners een stuk minder interessant om DX11-games te maken.

Het zal er vanaf hangen wanneer Microsoft met DX12 komt. Als dat nog 2 generaties GPU's duurt, dan kan DX11 nog wel een succes worden. Anders niet meer, denk ik. Iemand een indicatie wanneer DX12 komt?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Anoniem: 153298 schreef op zaterdag 20 februari 2010 @ 14:07:
[...]
Ik vraag me alleen wel af of DX11 wel een succes gaat worden... Voordat Win7 en de HD5-serie uitwaren, geloofde ik er heilig in dat DX11 een revolutie zou worden. Nu is de windows wel goed (i.t.t. Vista en DX10), maar nu gaat het niet goed met de hardware. Nvidia heeft nog geen DX11 en dat gaat voorlopig niet komen (en het is nog maar de vraag of het uiteindelijk nog goede kaarten worden). ATI kan de vraag van haar HD5 kaarten niet bijhouden, waardoor de prijzen omhoog zijn en mensen weken moeten wachten op hun kaart. Daardoor wordt het voor gamedesigners een stuk minder interessant om DX11-games te maken.

Het zal er vanaf hangen wanneer Microsoft met DX12 komt. Als dat nog 2 generaties GPU's duurt, dan kan DX11 nog wel een succes worden. Anders niet meer, denk ik. Iemand een indicatie wanneer DX12 komt?
De marktpenetratie zal zonder nvidia inderdaad een stuk minder snel verkopen.

Aan de andere kant ATI zal alles wat ze maken kwijt kunnen en als nVidia echt vastloopt zal er meer capaciteit vrijkomen voor ATI. Neem toch aan dat nvidia geen wavers gaat kopen die ze niet kunnen gebruiken.

Ik zie DX11 als een evolutie en geen revolutie. Verder denk ik dat DX11 echt wel opgepikt gaat worden omdat het ws ook de standaard in de nieuwe generatie consoles worden en omdat het het leven van ontwikkelaars juist makkelijker maakt.
Ook kun je je qua beeldkwaliteit dmv de tesselator en verplichte AA toch enigzins onderscheiden wat een sellingpoint is.
Games zijn ook al een tijd in ont
Daarnaast lijkt mij dat ook gamedevelopers het leuk vinden om met iets nieuws te werken.

Alhoewel ik dus denk dat je wel een punt hebt, maak ik me toch niet al te veel zorgen over de DX11 adoptation.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Ik denk dat de kans groot is dat dx11 in de volgende xbox gebruikt zal worden, in dat geval zal de adoptie massaal zijn.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Help!!!! schreef op zaterdag 20 februari 2010 @ 13:49:
[...]

Precies. :Y

Echter met de komst van DX11 wordt het misschien minder belangrijk. Als ik het goed heb moet een game
om DX11 compliant te mogen zijn, AA ondersteunen.
_/-\o_ En terecht. We leven in 2010. AA ondersteuning moet gewoon verplicht zijn. :D

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
oeLangOetan schreef op zaterdag 20 februari 2010 @ 14:29:
Ik denk dat de kans groot is dat dx11 in de volgende xbox gebruikt zal worden, in dat geval zal de adoptie massaal zijn.
Ik hoop stiekem dat daar minimaal DX11.1 of DX12 in zit. Aangezien die consoles pas over een jaar of 2 komen. De 360 had ook al meer hardware features dan in DX9 mogelijk waren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

peakaboo schreef op zaterdag 20 februari 2010 @ 03:07:
[...]


Vreemd, die kreeg ik juist bij die 10.3 drivers die hier gepost werden. Ben weer terug gegaan naar de 10.2 WHQL. Eerst keer dat ik een BSOD kreeg tijdens of na het installeren van ati drivers :o :(

Ik zal de 10.3 beta eens installeren nadat ik de 10.2 eraf heb gegooid, misschien dat dat wel werkt.
offtopic:
Typo, de BSOD gebeurde op het moment dat ik Cat 10.2 eraf wilde halen, dus tijdens de deïnstallatie.

Acties:
  • 0 Henk 'm!

Anoniem: 171689

Astennu schreef op zaterdag 20 februari 2010 @ 21:13:
[...]


Ik hoop stiekem dat daar minimaal DX11.1 of DX12 in zit. Aangezien die consoles pas over een jaar of 2 komen. De 360 had ook al meer hardware features dan in DX9 mogelijk waren.
Welja de X360 heeft zelfs hardware tesselation ingebouwd in zijn Xenos (aka, preR600) chip. Dat is natuurlijk nutteloos, maar aangezien R600 een DX10 chip is zullen er nog wel wat meer kleine dingen in zitten die niet gebruikt zijn in DX9c

Ik weet trouwens niet wie de grafische chip voor de nieuwe xbox gaat leveren, is daar al iets over bekend?

[ Voor 9% gewijzigd door Anoniem: 171689 op 21-02-2010 11:09 ]


Acties:
  • 0 Henk 'm!

Anoniem: 292676

Anoniem: 171689 schreef op zondag 21 februari 2010 @ 11:08:
[...]

Welja de X360 heeft zelfs hardware tesselation ingebouwd in zijn Xenos (aka, preR600) chip. Dat is natuurlijk nutteloos, maar aangezien R600 een DX10 chip is zullen er nog wel wat meer kleine dingen in zitten die niet gebruikt zijn in DX9c

Ik weet trouwens niet wie de grafische chip voor de nieuwe xbox gaat leveren, is daar al iets over bekend?
het is niet officieel maar tenzij microsoft backwards compatibility met de originele en/of 360 xbox wilt opgeven zal het zeker AMD/ATI zijn

Acties:
  • 0 Henk 'm!

Anoniem: 256488

En de graphics zullen ook wel mooi zijn dan, zoals we al weten met die console ports. Eerst op de console zodat het later simpel naar de pc komt.

Is wel mooi dat we AA altijd kunnen gebruiken met DX11.

Consoles :(

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:19

XanderDrake

Build the future!

AMD/ATi is weer druk bezig op IGP gebied. Volgens verschillende "early" news sites kunnen we binnenkort een nieuwe IGP verwachten, om precies te zijn de HD 4290. Qua clocks ziet hij er goed uit. Hij zou een onderdeel moeten worden van de AMD 890GX chipset. Een tegenstander van nVidia's Ion2 of 310 serie?

Bron

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
XanderDrake schreef op maandag 22 februari 2010 @ 11:26:
AMD/ATi is weer druk bezig op IGP gebied. Volgens verschillende "early" news sites kunnen we binnenkort een nieuwe IGP verwachten, om precies te zijn de HD 4290. Qua clocks ziet hij er goed uit. Hij zou een onderdeel moeten worden van de AMD 890GX chipset. Een tegenstander van nVidia's Ion2 of 310 serie?

Bron
Ion2 is voor ATOM en zo ver ik weet heeft AMD geen plannen of mogen ze zelfs geen chipsets maken voor het ATOM platform.

HD4290 klinkt als hetzelfde als de 785G alleen dan hogere clocks.... Het wordt tijd voor iets nieuws een 80 shader IGP ipv 40 eventueel met DX11. Want nVidia's igp's voor het AMD platform zijn op dit moment sneller dan wat AMD heeft. Dit is niet nodig. Maar de vooruitgang is sinds de HD3200 erg klein. Het zijn elke keer maar hele kleine stapjes geweest.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Heeft volgens mij gewoon een simpele reden want in 2011 komt er een CPU met IGP er in dus waarom nog werken aan een chipset met een IGP er in ?

Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 11-06 17:24
Leuk stukje leesvoer over Cypress performance en de mogelijke bottlenecks op b3d:
klik!

Computer says no


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:19

XanderDrake

Build the future!

Even iets anders trouwens. Ik heb laatst een redelijk uitgebreide review geschreven over de MSI Wind12 U230. Dit is een van de eerste laptops op basis van AMD Congo die zijn uitgekomen in NL.

Je kan hem Hier vinden.

Ik ben er erg over te spreken :) de CPU is niet zo zuinig als Intel's CULV maar is wel lekker snel.
En de HD 3200 doet uitstekend zn werk. Alleen GTA 4 en Crysis kreeg ik zelfs op de laagste snelheden niet speelbaar.

Wat ik nog wilde vragen, is het nuttig om die Catalyst 10.3 te installeren? Ik had begrepen dat die driver ook was bedoelt voor laptop videochips. Kan ik verbeteringen in prestaties verwachten?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-06 14:36
Astennu schreef op maandag 22 februari 2010 @ 13:12:
HD4290 klinkt als hetzelfde als de 785G alleen dan hogere clocks....
correct

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
madmaxnl schreef op maandag 22 februari 2010 @ 20:18:
Heeft volgens mij gewoon een simpele reden want in 2011 komt er een CPU met IGP er in dus waarom nog werken aan een chipset met een IGP er in ?
Dat is nog wel even weg.... En om nu 2 jaar bijna geen verbeteringen door te voeren is gewoon niet handig. Ja ze stonden er super goed voor maar die voorsprong zijn ze nu dus kwijt. Als je aan het winnen bent moet je net zo hard door blijven vechten en moeite doen om met nieuwe producten te komen zodat je de concurentie voor blijft. En dus niet verslappen. Wat hier in mijn ogen gebeurt is.

De Fusion CPU waar jij het over hebt krijgt dan ook 480 shaders vs 40 van de huidige IGP. En daar naast blijven de huidige Athlon II cpu's ook nog wel een tijdje bestaan als Fusion al uit is. Dus dan is een nieuwe IGP echt wel nuttig.
Just my point..... Zelfs intel zijn GPU die in de nieuwe CPU's zit begint sneller te zijn dan de IGP van AMD. Nou dat zegt mij genoeg. Tijd voor vernieuwing. Ik was ook heel blij om te horen dat er 480 shaders in die Fusion CPU zouden komen. Als dat aantal klopt heb je aardig wat performance en daar kun je zelfs volgend jaar prima een spelletje op spelen.

[ Voor 21% gewijzigd door Astennu op 23-02-2010 08:35 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Astennu schreef op dinsdag 23 februari 2010 @ 08:30:
[...]


Dat is nog wel even weg.... En om nu 2 jaar bijna geen verbeteringen door te voeren is gewoon niet handig. Ja ze stonden er super goed voor maar die voorsprong zijn ze nu dus kwijt. Als je aan het winnen bent moet je net zo hard door blijven vechten en moeite doen om met nieuwe producten te komen zodat je de concurentie voor blijft. En dus niet verslappen. Wat hier in mijn ogen gebeurt is.
Daar ben ik het niet mee eens. IGP's kun je niet los zien van de chipsets en met de 890GX zet AMD een goede stap naar de toekomst. Intel's on-package GPU is ongeveer gelijkwaardig aan de 785G, de opgeklokte versie is iets sneller. Als AMD de snelheid net overtreft en iets doet aan de featureset is het al voldoende. Daarnaast zit er op de chipset al native SATA3 en USB3 support, als ik het goed heb. Dat kan de H55/H57 niet zeggen. Koppel dat aan de hogere prijzen van Intel en je hebt nog steeds een zeer concurrerend platform.
De Fusion CPU waar jij het over hebt krijgt dan ook 480 shaders vs 40 van de huidige IGP. En daar naast blijven de huidige Athlon II cpu's ook nog wel een tijdje bestaan als Fusion al uit is. Dus dan is een nieuwe IGP echt wel nuttig.
Eens. Er zal voorlopig nog wel een markt voor IGP's zijn.
Just my point..... Zelfs intel zijn GPU die in de nieuwe CPU's zit begint sneller te zijn dan de IGP van AMD. Nou dat zegt mij genoeg. Tijd voor vernieuwing. Ik was ook heel blij om te horen dat er 480 shaders in die Fusion CPU zouden komen. Als dat aantal klopt heb je aardig wat performance en daar kun je zelfs volgend jaar prima een spelletje op spelen physics op laten draaien.
Fixed! })

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Moshe85 schreef op maandag 22 februari 2010 @ 21:28:
Leuk stukje leesvoer over Cypress performance en de mogelijke bottlenecks op b3d:
klik!
Ik heb em helemaal gelezen.

Leuk om te zien dat er totaal een memory Bandwith bottelnek is met games. Ik vind het wel appart dat de performance hit met AA en AF groter is dan bij de HD4890. Soms is er maar 30% verschil tussen beide dat is in mijn ogen wel erg minimaal. Verder is die 50-60% performance game met dezelfde rendering API wel te verwachten. 100% gains ga je nooit halen. Maar het geeft wel aan dat de HD4890 best efficient is.

Het kan nog steeds zo zijn dat er een bottelnek in de GPU zelf zit. Ze hadden het ook al over de L2 cache dat daar niet genoeg verandert is tov de vorige generaties. Terwijl er wel 2x zo veel componenten aan komen kloppen voor data.

Overigens ben ik het deels eens met hun uitspraken over de CF profiles. Het is beter dan wat we hadden maar geef ons nou gewoon de optie om zelf profiles te maken !

Het stuk over de Heaven benshmark was ook heel interessant ! Die fixed function unit wordt niet zo zwaar belast als ik dacht. Het grote probleem zit em volgens hun in de efficientie van tesselation veel dingen worden wel berekend maar zijn niet zichtbaar dus worden daar na weer gedropt. Ik snap er niet alles van maar er zou ook iets nieuws op de shaders uitgerekend worden wat nog niet optimaal gedaan uitbesteed wordt door de compiler. Dus dit kan nog wel wat gaan verbeteren.

Maar een erg leuk stukje om te lezen.
Edmin schreef op dinsdag 23 februari 2010 @ 08:44:
[...]

Daar ben ik het niet mee eens. IGP's kun je niet los zien van de chipsets en met de 890GX zet AMD een goede stap naar de toekomst. Intel's on-package GPU is ongeveer gelijkwaardig aan de 785G, de opgeklokte versie is iets sneller. Als AMD de snelheid net overtreft en iets doet aan de featureset is het al voldoende. Daarnaast zit er op de chipset al native SATA3 en USB3 support, als ik het goed heb. Dat kan de H55/H57 niet zeggen. Koppel dat aan de hogere prijzen van Intel en je hebt nog steeds een zeer concurrerend platform.

[...]

Eens. Er zal voorlopig nog wel een markt voor IGP's zijn.

[...]

Fixed! })
Dus jij bent het er mee eens dat AMD de snelheid amper verhoogt omdat ze nog steeds met intel mee kunnen komen ? Want dat zou ik een beetje een zwak argument vinden. Ja het gaat om om andere dingen zoals SATA3 en USB3. Maar daar hadden we het in dit geval niet over. Het was gewoon een gemiste kans. En ze hebben al tijden soort gelijke IGP performance. Dus het wordt weer tijd voor een stap omhoog. nVidia heeft AMD inmiddels ingehaald hun laatste IGP is sneller dan de 785G. En dit hadden ze nu kunnen counteren. Of ze moeten nu met veel hogere clocks komen aanzetten zonder hoger verbruik. Want ook op dat punt doet nVidia het erg goed.

Over die Physics dat is wel een goede voor ons ja. Maar als die Fusion cpu's uit komen en ze net zo duur zijn als andere mid range cpu's denk ik dat heel veel mensen geen losse video kaart meer nodig hebben. En voor ons tweakers / games is het heel leuk als we daar physics of andere taken op kunnen los laten.

Maar ik vind het wel appart dat we nu maar 40 shaders hebben en er nu geen stap naar 80 gemaakt wordt. Terwijl er straks een APU komt die gewoon even 480 shaders heeft. Dat is gewoon 12x zo veel. Dus makkelijk goed voor 5-7x de performance van de huidge IGP's.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 11-06 19:22
Edmin schreef op dinsdag 23 februari 2010 @ 08:44:


Daar ben ik het niet mee eens. IGP's kun je niet los zien van de chipsets en met de 890GX zet AMD een goede stap naar de toekomst. Intel's on-package GPU is ongeveer gelijkwaardig aan de 785G, de opgeklokte versie is iets sneller. Als AMD de snelheid net overtreft en iets doet aan de featureset is het al voldoende. Daarnaast zit er op de chipset al native SATA3 en USB3 support, als ik het goed heb. Dat kan de H55/H57 niet zeggen. Koppel dat aan de hogere prijzen van Intel en je hebt nog steeds een zeer concurrerend platform.
Die chipset heeft alleen native SATA-600, USB3.0 is nog dmv de NEC controller ;)

Verder ben ik het eigenlijk ook met Astennu eens. De performance van de 790GX is al behoorlijk lang op de markt. Het wordt tijd voor iets snellers, ook om de concurentie voor te blijven.
Mhh, maar die zou dus wel redelijk snel worden opgevolgd door een 28nm kaart als ik dat zo lees.
Wat heeft die 5830 voor rare specs :o En ook een TDP van 175Watt???!! Minder stream processors (1180 ipv 1280). De helft van de ROPs, en slechts 56 texuren units....

Valt mij een beetje tegen als je het mij vraagt. Vooral het stroomverbruik :(

[ Voor 15% gewijzigd door Stefanovic45 op 23-02-2010 11:26 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Ik zie bij de HD5870 op het 2e plaatje 1/2 GB geheugen staan duidt dit erop dat ATI nog met een 2GB versie komt? Of bedoelen ze dit dat een fabrikant (MSI oid) vrij is om 2 GB erop te doen?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 11-06 19:22
Eyefinity lijkt mij? Die staat ook in de screenshot er boven.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

Anoniem: 263719

Idd, die komt op 11 Maart.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Was te verwachten. En ze hebben het daar ook over low power 28nm en dat dat geschikt zou zijn voor gpu's. Ik vraag me af hoe ze dat bedoelen. Volgens mij heeft het met de voltages te maken. Eventueel met vermogen. GPU's draaien op niet al te hoge voltages maar er gaat wel veel vermogen door zo'n chip. Al werden chips in het verleden nog wel eens op low k gemaakt. Maar dan nog pruductie Q1 2011 is te laat voor deze serie.

Daarnaast zullen ze net als met de RV740 (HD4770) eerst iets minder riskants op dit nieuwe process testen voordat ze de volgende high end/Enthusiast chip op 28nm gaan maken.
HD58xx met 2gb ram jummie :P helaas geen extra tekst bij de 5970 dus zal net als de HD4870 x2 wel 2 Gb blijven. Dus voor Ultra High Resoluties ---> 2x HD5870 2GB in CF.

Dan over de HD5830. Erg appart. Hoge core speeds maar:
-Rops van 32 naar 16.
-56 Texture units ipv 80
-1120 van de 1600 shaders
-TDP 175 Watt ???

Kortom dood en dood zonde om daar een 2.15b transistor chip voor te gebruiken als je zo veel uit gaat schakelen. Of zouden ze veel chips hebben waar niet eens 1440 shaders en 32 robs werkte ? Dat laatste betwijfel ik. Ik hoop niet dat ze "goed werkende" 5850's om zetten naar 5830's.

AMD doet dit ook met CPU's. Maar aan de andere kant zullen ze wel weten wat ze aan het doen zijn......

Dan het laatste puntje (TDP) Hoger dan dat van de HD5850 150 vs 175. Ik merkte al wel dat toen ik mijn HD5850 ging overclocken naar 900-1125 er gewoon 30 watt bij kwam. Dan zit je al op HD5870 level qua verbruik. Nu kan dit deels ook komen door de cooling. Want het geld vaak hoe hoger de GPU temp hoe hoger het verbruik wordt. Ookal pas je de voltages en de clocks niet aan. (Dit geld ook voor CPU's). En de HD5870 heeft een iets betere heatsink onder die plastic kap zitten (in vergelijking met de HD5850). En wellicht is het PCB/PWM ook wat efficienter.

[ Voor 16% gewijzigd door Astennu op 23-02-2010 11:47 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Lucky0wn
  • Registratie: Oktober 2009
  • Laatst online: 16:14
Kan wel begrijpen dat die HD5830 een hogere TDP heeft, de clocks zijn ook hoger dan de HD5850.
Denk dat die de TDP wel met +/- 20 watt verhoogd

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Lucky0wn schreef op dinsdag 23 februari 2010 @ 11:47:
Kan wel begrijpen dat die HD5830 een hogere TDP heeft, de clocks zijn ook hoger dan de HD5850.
Denk dat die de TDP wel met +/- 20 watt verhoogd
Maar ook grote delen van de chip staan idle. Voltages en clocks verhogen doet ook wat voor het verbruik. Maar dat betekend niet dat je chip idle 125 watt trekt en onder load 175. Ik denk dat je dan eerder rond de 80 komt te zitten.

Gezien wat er allemaal uit staat zou ik toch een lager TDP verwachten. Zeker als je dit vergelijkt met de HD5870 die maar 13 watt hoger zit. De HD5870 is in verhouding dus efficienter.

Maar wat ik hierboven ook al zij. Het kan door PCB/PWM en eventueel de cooling komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 08:59
Astennu schreef op dinsdag 23 februari 2010 @ 11:49:
[...]


Maar ook grote delen van de chip staan idle. Voltages en clocks verhogen doet ook wat voor het verbruik. Maar dat betekend niet dat je chip idle 125 watt trekt en onder load 175. Ik denk dat je dan eerder rond de 80 komt te zitten.

Gezien wat er allemaal uit staat zou ik toch een lager TDP verwachten. Zeker als je dit vergelijkt met de HD5870 die maar 13 watt hoger zit. De HD5870 is in verhouding dus efficienter.

Maar wat ik hierboven ook al zij. Het kan door PCB/PWM en eventueel de cooling komen.
Kan het niet zijn dat het in eerste instantie defecte 5870s en 5850s zijn met het een en ander uitgeschakeld?
(en een iets hogere clock om dat te compenseren)

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Dat is ook zo.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
whiteguy schreef op dinsdag 23 februari 2010 @ 11:58:
[...]

Kan het niet zijn dat het in eerste instantie defecte 5870s en 5850s zijn met het een en ander uitgeschakeld?
(en een iets hogere clock om dat te compenseren)
Kan maar hoeft niet zie ook AMD's Tripple en Dual core Phenom's die gewoon unlocked kunnen worden naar Quad.

Maar dan nog dat verklaart het verbruik niet. Ja de clocks zijn hoger maar ze zitten maar 75 MHz hoger dan de 5850. Verbruik is 20 watt hoger. En ze zitten maar 50 MHz lager dan de 5870 en het verbruik is maar 13 watt minder. Terwijl hele grote delen van de chip niets doen.

Lijkt haast op het TDP berekend is op basis van volle belasting van de gehele chip. Terwijl delen uit staan en dus niet vol belast zullen worden.

Het zal me niet verbazen als bij de reviews de conclusie wordt dat hij zuiniger is dan een HD5850. Maar daar komen we binnenkort achter :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Bull
  • Registratie: December 2000
  • Laatst online: 00:10
Zie ik nu 2GB staat voor de 5870 in dat tweede plaatje en dat betekent dat ATI zelf ook met een 2GB model van de 5870 gaat komen net als Asus?

https://tweakers.net/gallery/18583/inventaris/


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Nu online
Astennu schreef op dinsdag 23 februari 2010 @ 12:11:
[...]
Kan maar hoeft niet zie ook AMD's Tripple en Dual core Phenom's die gewoon unlocked kunnen worden naar Quad.
Maar in hoeverre zijn die extra cores écht fout-vrij?

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 10:57

pino85

Im just a Bird in the Sky

Het word ook niet aangeraden wat dat betreft.. ze zijn lijkt mij niet uitgeschakeld zonder reden
In mijn omgeving heeft ook iemand dit unlocked op cpu gebied van 3 naar 4 cores echter die 4e core is gewoon weg zeer slecht kwa temps extreem hoog tov de rest..

Over de 5830 tja.. hij valt me toch wel tegen, leuk die 75mhz extra dat is zo maar het verbruik staat me tegen
Had ik niet echt verwacht eerlijk gezegd zeker gezien wat er allemaal uitgeschakeld is maar goed we zullen wel zien hoe het kaartje uiteindelijk exact weer te presteren en in de benchmarks de idle/full load bevindingen zijn
Mag toch hopen dat de prijs echt +-160/170 euro word, als dit rond 200 euro word of iets meer dan is het toch niet meer erg interessant?

[ Voor 22% gewijzigd door pino85 op 23-02-2010 12:54 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 08:59
Puppetmaster schreef op dinsdag 23 februari 2010 @ 12:27:
[...]


Maar in hoeverre zijn die extra cores écht fout-vrij?
Naarmate de yields toenemen zullen er ook vaker cpu's / gpu's tussen zitten die fout vrij zijn.

Ik had vroeger een radeon 9500 die je kon unlocken naar een 9700. Hoe nieuwer je 9500 was hoe groter de kans was dat ie het ook echt foutloos ging doen als een 9700.

Gezien de problemen die er (geweest) zijn bij TSMC lijkt me wel dat er een aardig stapeltje chips ligt wat niet door de QA check heen gekomen is.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

pino22 schreef op dinsdag 23 februari 2010 @ 12:36:
Het word ook niet aangeraden wat dat betreft.. ze zijn lijkt mij niet uitgeschakeld zonder reden
Soms wel, triplecores en ook de cores van de HD5830 worden niet native geproduceerd, dus als er vraag naar is maar ze hebben niet genoeg 'foute' chips dan nemen ze gewoon goede chips. Het is een beetje geluk hebben.

Ik vraag me af, zou het ook in dit geval mogelijk zijn dat ze deels foute, deels goede chips gebruiken? En dat ze voor de zekerheid de TDP van de 'foute' HD5830's maar opgeven, maar het in veel gevallen ook lager ligt?

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Astennu schreef op dinsdag 23 februari 2010 @ 10:10:
[...]
Dus jij bent het er mee eens dat AMD de snelheid amper verhoogt omdat ze nog steeds met intel mee kunnen komen ? Want dat zou ik een beetje een zwak argument vinden. Ja het gaat om om andere dingen zoals SATA3 en USB3. Maar daar hadden we het in dit geval niet over. Het was gewoon een gemiste kans. En ze hebben al tijden soort gelijke IGP performance. Dus het wordt weer tijd voor een stap omhoog. nVidia heeft AMD inmiddels ingehaald hun laatste IGP is sneller dan de 785G. En dit hadden ze nu kunnen counteren. Of ze moeten nu met veel hogere clocks komen aanzetten zonder hoger verbruik. Want ook op dat punt doet nVidia het erg goed.
Begrijp me goed: ik zie ook het liefst een major performance increase. Aan de andere kant, als 40% extra performance geen extra toepassingsmogelijkheden biedt, waarom zou je dan? Waarom zou je je dan niet richten op efficiency, hitte en features? (bijvoorbeeld).
Ik denk dat het overgrote deel van de IGP gebruikers helemaal niet op extra performance staat te wachten. Wat dat betreft is het bedrijfsmatig veel interessanter je te richten op de massa van je afzetmarkt; helemaal als je dat met weinig R&D investeringen kan doen. Gevolg: lage prijzen, grote omzet = cash cow.
Over die Physics dat is wel een goede voor ons ja. Maar als die Fusion cpu's uit komen en ze net zo duur zijn als andere mid range cpu's denk ik dat heel veel mensen geen losse video kaart meer nodig hebben. En voor ons tweakers / games is het heel leuk als we daar physics of andere taken op kunnen los laten.
Voorlopig zijn de Intel's gecombineerde GPU + CPU's nog zo duur dat daar geen sprake van is. Zeker omdat de performance niet op het niveau van discrete graphics ligt. Een i3 530 + H55 mobo is nu net zo duur als een PhenomII X3 720 + 785G

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Puppetmaster schreef op dinsdag 23 februari 2010 @ 12:27:
[...]


Maar in hoeverre zijn die extra cores écht fout-vrij?
Ze draaien 24 uur prime stable op 3.7 GHz. Dat is dus veel hoger dan stock met alle 4 de cores aan. Dat noem ik toch echt stabiel. En er zijn best veel mensen waar dat werkt. En prime is veel zwaarder dan games.

Helemaal zeker weet je het nooit. Maar dat weet je ook niet bij een "echte" quad core. En ik sluit niet uit dat AMD dit vooral doet om zo veel mogelijk marktaandeel te pakken/behouden en omzet te draaien.

Bij de CPU's kan ik me dat enigsinds nog voorstellen. Al zou ik dan toch maar eens met een native dual core komen ipv quads half uit zetten. Maar Inmiddels hebben ze dat gelukkig ook gedaan.....
Edmin schreef op dinsdag 23 februari 2010 @ 13:39:
[...]

Begrijp me goed: ik zie ook het liefst een major performance increase. Aan de andere kant, als 40% extra performance geen extra toepassingsmogelijkheden biedt, waarom zou je dan? Waarom zou je je dan niet richten op efficiency, hitte en features? (bijvoorbeeld).
Ik denk dat het overgrote deel van de IGP gebruikers helemaal niet op extra performance staat te wachten. Wat dat betreft is het bedrijfsmatig veel interessanter je te richten op de massa van je afzetmarkt; helemaal als je dat met weinig R&D investeringen kan doen. Gevolg: lage prijzen, grote omzet = cash cow.


[...]

Voorlopig zijn de Intel's gecombineerde GPU + CPU's nog zo duur dat daar geen sprake van is. Zeker omdat de performance niet op het niveau van discrete graphics ligt. Een i3 530 + H55 mobo is nu net zo duur als een PhenomII X3 720 + 785G
Nja bv voor video decoding/1080p acceleratie. En Verbruik hoeft idle niet hoger te worden dat gaat tegenwoordig erg goed met die low power states. Over de kosten ben ik het wel helemaal met je eens.

En de Performance omdat toch best wat mensen een simpel spelletje op IGP's spelen. Het is geen must maar wat is dan wel een must ? Zelfde als Single vs Dual core of Dual vs Quad.

Het is inderdaad een beetje een grijs gebied.

En over die PHII vs I3. Tja ik zeg het niet graag maar die I3 is wel een stuk sneller. 2.93 Ghz met HT vs 3 cores op 2.8. De Performance per clock ligt daar gewoon hoger. Als je qua GFX dan ongeveer even snel bent kiezen mensen meteen voor intel. Ookal was het duurder doen ze het voor de naam. Dus het is belangrijk dat AMD echt uitblinkt om klanten te winnen. Mee komen (of maar net winnen) is helaas niet voldoende.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Nu online
whiteguy schreef op dinsdag 23 februari 2010 @ 13:11:
[...]
Ik had vroeger een radeon 9500 die je kon unlocken naar een 9700. Hoe nieuwer je 9500 was hoe groter de kans was dat ie het ook echt foutloos ging doen als een 9700.
Heb zelf zoeen gehad, en bij games deed hij het goed, zag je geen verschil.
Echter met een artifact-tester (destijds atitool) gaf hij wel altijd kleinde artifacts.

Zo op het oog/in de praktijk dus goed, maar toch te onderscheiden van een "echte" goede die geen artifacts vertoonden.
Astennu schreef op dinsdag 23 februari 2010 @ 14:17:
[...]


Ze draaien 24 uur prime stable op 3.7 GHz. Dat is dus veel hoger dan stock met alle 4 de cores aan. Dat noem ik toch echt stabiel. En er zijn best veel mensen waar dat werkt. En prime is veel zwaarder dan games.
Dat is wel netjes idd. Goed genoeg voor thuisgebruik.

[ Voor 25% gewijzigd door Puppetmaster op 23-02-2010 14:45 ]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Puppetmaster schreef op dinsdag 23 februari 2010 @ 14:40:
[...]


Heb zelf zoeen gehad, en bij games deed hij het goed, zag je geen verschil.
Echter met een artifact-tester (destijds atitool) gaf hij wel altijd kleinde artifacts.

Zo op het oog/in de praktijk dus goed, maar toch te onderscheiden van een "echte" goede die geen artifacts vertoonden.


[...]


Dat is wel netjes idd. Goed genoeg voor thuisgebruik.
Ik heb ook van die kaarten gehad en ook een X800 Pro @ XT en die waren wel helemaal artifact vrij. Dus het kan wel.

Edit:

Lol bijna iedereen is aan het zeuren over de HD5830 specs. Disapointing bla bla... Ik snap er niets van. De clocks zijn veel hoger dan verwacht. Alleen die ROBs zijn van 32 naar 16 gegaan. Echter verwacht ik niet dat dat veel impact gaat hebben.

Ze zeggen ook dat i maar 1.79 Gflops kan en de HD5850 2.09 heeft. Ze vergeten volgens mij dat de HD5870 er 2.72 heeft. En het verschil tussen de HD5850 en de HD5830 dus kleiner is als tussen de 5850 en de 5870. Dus ik snap echt niet wat iedereen aan het zeuren is :? Mem clocks en zo zijn gelijk gebleven aan de 5850. Dus wat wil je nog meer ?

Volgens mij denk iedereen dat die ROB's voor een 50% performance hit gaan zorgen :S

[ Voor 36% gewijzigd door Astennu op 23-02-2010 15:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Idd... zo lang dat ding qua prijs en prestaties exact tussen de 5770 en de 5850 zit, is het toch een perfect kaartje om de marktpositie mee te verstevigen?

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 11-06 19:22
Astennu schreef op dinsdag 23 februari 2010 @ 14:17:
[...]
En over die PHII vs I3. Tja ik zeg het niet graag maar die I3 is wel een stuk sneller. 2.93 Ghz met HT vs 3 cores op 2.8. De Performance per clock ligt daar gewoon hoger. Als je qua GFX dan ongeveer even snel bent kiezen mensen meteen voor intel. Ookal was het duurder doen ze het voor de naam. Dus het is belangrijk dat AMD echt uitblinkt om klanten te winnen. Mee komen (of maar net winnen) is helaas niet voldoende.
Vervang de PHII maar eens door een Athlon X4 :)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • kluyze
  • Registratie: Augustus 2004
  • Niet online
Astennu schreef op dinsdag 23 februari 2010 @ 14:55:
[...]
Ik heb ook van die kaarten gehad en ook een X800 Pro @ XT en die waren wel helemaal artifact vrij. Dus het kan wel.
Ik had een 6800le, daar kon je ook een deel unlocken. Ook artifact vrij. Tot over een jaar terug toen begon het ge-unlocked deel ook artifacts te vertonen. Nuja, dat is dan weer nVidia :p

Over die 'hoge' TDP van de 5830. Hoe hard sla ik de bal mis met de volgende stelling:
De 5830 zou minder vermogen nodig moeten hebben als een 5850 omdat er minder delen van de chip aan staan. Maar bij een 5850 worden de 'units' zelf minder warm en is die warmte over een groter oppervlak verdeelt omdat die meer werkende/ingeschakelde transistors heeft.

De 5830 heeft misschien minder stroom nodig maar omdat de werkende delen van de chip ook vlak naast elkaar kunnen zitten en op een hogere frequentie werken gaat de koeler meer warmte moeten afvoeren.
Bij een volledig werkende chip kunnen ze kiezen welke delen ze uitschakelen maar als bepaalde delen stuk zijn of de snelheid niet aan kunnen dan niet, en die kaarten willen ze wel met dezelfde koeler uitrusten als elke andere 5830.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Op zich is het niet zo gek dat AMD kiest voor minder shaders, maar met een hogere standaard clock. Nog los van het feit dat waarschijnlijk meer chips gebruikt kunnen worden die genoeg functionerende shaders hebben, is het ook zo dat de standaard hoge clocks gaan voorkomen dat mensen eventjes goedkoop deze HD5830 op de kop tikken en doorklokken naar een prestatieniveau dat dicht bij de standaard HD5870 komt. Zouden ze dat gedaan hebben met 1280 shaders, dan was het prestatieniveau waarschijnlijk ook weer te dicht bij de HD5850 gekomen, waardoor het ook 'zinloos' wordt om de HD5830 te lanceren.

Hogere TDP zou gedeeltelijk door de hogere clocks kunnen komen, maar wellicht kan een minder efficiente (lees goedkopere) VRM ook gedeeltelijk oorzaak zijn.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
StefanvanGelder schreef op dinsdag 23 februari 2010 @ 15:26:
[...]


Vervang de PHII maar eens door een Athlon X4 :)
Dat is op zich wel een leuke al heb je voor dat soort prijzen wel wat lagere clocks maar dan wel een echte quad core.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik bedenk me net, na wat lezen hier en daar, dat het wellicht mogelijk is dat AMD gekozen heeft voor een iets hoger voltage op de HD5830, om te voorkomen dat ook deze kaart last kan krijgen van de groen/grijze strepen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Wat een serieus vreemd artikel. Als het goed is komt de performance ergens tussen de GTX260 en een HD5850 uit. Een prijs van €199 tot €239 zou hem gewoon bijna even duur als een HD5850 maken.

Ik verwacht hier een staaltje Fuad logica. Waarom is het geschreven door 'Fudzilla staff'?

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik denk dat ze de euro prijs en de dollar prijs door elkaar halen. HIer zou ie inclusief taxes en alles op zon 170-190 moeten uit komen.

Acties:
  • 0 Henk 'm!

  • defcon84
  • Registratie: September 2009
  • Laatst online: 11-06 15:37

defcon84

Multipass?

op die chinese site staat ook dat ie tussen de $200 en $250 gaat kosten.. en dat is dus tussen de 150 en 185 euro ongeveer.. Is weer fudzilla die 'slechte reclame' maakt voor Ati lijkt me..

Untappd | "Dogs fucked the pope, no fault of mine." -Hunter S. Thompson


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Edmin schreef op woensdag 24 februari 2010 @ 12:52:
Wat een serieus vreemd artikel. Als het goed is komt de performance ergens tussen de GTX260 en een HD5850 uit. Een prijs van €199 tot €239 zou hem gewoon bijna even duur als een HD5850 maken.

Ik verwacht hier een staaltje Fuad logica. Waarom is het geschreven door 'Fudzilla staff'?
Omdat 99% van de mensen die boven een artikel zien "Fuad" meteen denken: haha tuurlijk.. :p

Ik denk zelf trouwens dat ie ~170 euro wordt, tussen de 5850 en 5770 in, dat zou wel zo logisch zijn (130~140 vs 200~230)

[ Voor 11% gewijzigd door M4gick op 24-02-2010 14:50 ]


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 14:32
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Marc Rademaker schreef op woensdag 24 februari 2010 @ 15:12:
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?
Dan zou ik zeggen dat je je benchmarks per ongeluk de HD4890 scores over de HD5830 scores hebt gecopy paste ;) O-) .

Het was de bedoeling ook om ongeveer op die prestatie te zitten. Ik vind het goed hoor. Zeker met een mooi prijs kaartje er aan :).

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Marc Rademaker schreef op woensdag 24 februari 2010 @ 15:12:
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?
Zei k niet 'tussen de GTX260 en de HD5850'? ;)

Acties:
  • 0 Henk 'm!
M4gick schreef op woensdag 24 februari 2010 @ 14:49:
Ik denk zelf trouwens dat ie ~170 euro wordt, tussen de 5850 en 5770 in, dat zou wel zo logisch zijn (130~140 vs 200~230)
Beetje optimistisch lijkt mij. De HD5770 is zo'n 140 euro en de HD5850 zo'n 240 voor de goedkoopste winkel, dus HD5830 er mooi tussen in op 190 euro.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Marc Rademaker schreef op woensdag 24 februari 2010 @ 15:12:
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?
Dan zou ik maar kijken of je geen HD4890 met HD5830 sticker hebt gekregen. :>

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Gigabyte new Super Overclock Series graphics cards
GPU Gauntlet Sorting
First, GIGABYTE’s database analysis system evaluates the GPU core engine, shader engine and memory. If a processor doesn’t meet the pre-defined standard, it will not qualify for the Super Overclock Series.

In addition, GIGABYTE’s proprietary testing toolkit allows engineers to inspect and select the GPUs with the highest frequency. This program operates for 30 minutes and provides important data on the maximum overclocking ability when compared to a stock GPU. Once the Super Overclock point has been determined, engineers will boost the frequency to offer the highest factory default clock setting in the market

Next, each Super Overclock Series GPU faces the Graphics benchmarks, FurMark and 3DMark Vantage, to measure performance and stability under an intense graphics load. A GPU that passes this stage will perform at a lower temperature and fan speed compared to a standard GPU. By choosing the cream of the crop, GIGABYTE ensures rich rendering of intricate 3D scenes and realistic physical effects such as water, gas, steam, fire, etc for a lifelike gaming adventure.

Last but not least, engineers test the power switching and stability. The GPUs with the best power efficiency and lowest power consumption qualify for the Super Overclock Series. And GIGABYTE understands that premium graphics cards should not sound like a cement truck rolling down the freeway, so a large cooling fan provides for a quiet computing environment
[.....]
.
Afbeeldingslocatie: http://images.hardware.info/news/HD5870SO.jpg

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Jovas
  • Registratie: December 2003
  • Laatst online: 09-06 20:42
Marc Rademaker schreef op woensdag 24 februari 2010 @ 15:12:
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?
Hangt er vanaf, als er net zoveel exemplaren ``strepen en andere vage stabiliteitsproblemen`` geven als met de rest van de 5xxx serie, dan laat ik hem mooi liggen. :)

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 11-06 23:44
Marc Rademaker schreef op woensdag 24 februari 2010 @ 15:12:
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?
HD4890 is ongeveer gelijkwaardig met GTX275, dus zou overeenkomen met dat fudzilla artikel wat performance betreft.

anathema


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Ik lees Fuad artikel toch anders:
it's fast enough to match the GTX 260 and even the GTX 275 in some tests, although Nvidia's cards are somewhat faster in FarCry 2.
Ik interpreteer hieruit dat de HD4830 gemiddeld genomen langzamer is dan de GTX275 (en dus ook de HD4890) en in sommige games de GTX275 kan evenaren, m.u.v. FarCry2: in deze game is de HD4830 zelfs trager dan de GTX260.

Dus ik zou wel erg content zijn als mocht blijken dat de HD4830 daadwerkelijk gelijkwaardig scoort aan de HD4890/GTX275.

[ Voor 10% gewijzigd door Indy91 op 24-02-2010 17:55 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 14:32
Indy91 schreef op woensdag 24 februari 2010 @ 17:52:
Ik lees Fuad artikel toch anders:

[...]


Ik interpreteer hieruit dat de HD4830 gemiddeld genomen langzamer is dan de GTX275 (en dus ook de HD4890) en in sommige games de GTX275 kan evenaren, m.u.v. FarCry2: in deze game is de HD4830 zelfs trager dan de GTX260.

Dus ik zou wel erg content zijn als mocht blijken dat de HD4830 daadwerkelijk gelijkwaardig scoort aan de HD4890/GTX275.
Vreemd. Volgens de zogenaamd uitgelekte specs, heeft de HD 5830 meer sp's dan de HD 4890, en uiteindelijk meer gflops, ondanks de iets lagere kloksnelheid, en toch zou je er tevreden mee zijn als de HD 5830 even snel was als de HD 4890?

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Gratis kaarten!
The Precision Challenge is open to all 3DMark users using ATI graphics solutions. The goal is to hit exactly a weekly changing score target.
Iedereen met een HD4/5K mag meedoen. elke week een nieuwe score en er is elke week een lucky draw.

[ Voor 64% gewijzigd door neliz op 24-02-2010 18:37 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 11-06 19:22
Indy91 schreef op woensdag 24 februari 2010 @ 17:52:
Ik lees Fuad artikel toch anders:

[...]


Ik interpreteer hieruit dat de HD4830 gemiddeld genomen langzamer is dan de GTX275 (en dus ook de HD4890) en in sommige games de GTX275 kan evenaren, m.u.v. FarCry2: in deze game is de HD4830 zelfs trager dan de GTX260.

Dus ik zou wel erg content zijn als mocht blijken dat de HD4830 daadwerkelijk gelijkwaardig scoort aan de HD4890/GTX275.
Sowieso een rare conclusie van Fud. Als je de benches bekijkt scoort de 5830 heel iets minder of een heel stukje meer dan de GTX 275. Gemiddeld gezien is die dus (marginaal) sneller dan de GTX 275 naar mijn idee.

Power consumption is in de tests gelijkwaardig aan die van de 5850, terwijl het TDP toch aardig hoger ligt :)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
is de hd5850 niet ongeveer 1.3 x een gtx285, een hd5870 1.3 x een hd5850, de hd5770 ongeveer 0.7 x een gtx285?

Dan lijkt me dat de hd5830 ongeveer op gtx285 niveau gaat presteren.

Acties:
  • 0 Henk 'm!
neliz schreef op woensdag 24 februari 2010 @ 18:22:
Gratis kaarten!


[...]


Iedereen met een HD4/5K mag meedoen. elke week een nieuwe score en er is elke week een lucky draw.
Morgen is het een dag met veel blikseminslagen...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Marc Rademaker schreef op woensdag 24 februari 2010 @ 15:12:
Wat als de HD 5830 identiek aan de HD 4890 presteerde? Wat vinden jullie er dan van?
Geloof ik je meteen.... Op een of andere manier is de RV7xx wat efficenter per shader. Hier en daar zal i wel wat sneller zijn maar met AA en AF zal het weinig schelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 292676

ik denk niet dat deze al gepost is. Een chinese review van de HD 5830
http://translate.google.c...2552.shtml&sl=zh-CN&tl=en

Beter dan de GTX260 (behalve in farcry 2)
Gelijk of beter dan de GTX 275 in meeste spellekes
Spijtig genoeg geen directx 11 benchmarks

Ik moet toegeven dat directx 10.1 toch niet zo slecht is ;)
Afbeeldingslocatie: http://image3.it168.com//2010/2/24/7146638b-876f-4b6d-8056-0564d6ca21be.jpg

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 10-06 13:46

Darkasantion

Just keep swimming!

neliz schreef op woensdag 24 februari 2010 @ 18:22:
Gratis kaarten!


[...]


Iedereen met een HD4/5K mag meedoen. elke week een nieuwe score en er is elke week een lucky draw.
Hmm, morgen maar eens proberen of ik beetje in de buurt kan komen, alles onder de 93K in 03 is voor mij te doen :P

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 11-06 19:22
Anoniem: 292676 schreef op woensdag 24 februari 2010 @ 19:06:
ik denk niet dat deze al gepost is. Een chinese review van de HD 5830
http://translate.google.c...2552.shtml&sl=zh-CN&tl=en

Beter dan de GTX260 (behalve in farcry 2)
Gelijk of beter dan de GTX 275 in meeste spellekes
Spijtig genoeg geen directx 11 benchmarks

Ik moet toegeven dat directx 10.1 toch niet zo slecht is ;)
[afbeelding]
Ja dat is de bron van fudzilla :P Ik heb daarover al een reactie geschreven boven je :)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

Anoniem: 292676

StefanvanGelder schreef op woensdag 24 februari 2010 @ 19:36:
[...]


Ja dat is de bron van fudzilla :P Ik heb daarover al een reactie geschreven boven je :)
ah daarom dat niemand het gepost had. :P

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Ach, misschien is het niet zo erg om gewoon in te gaan op de data van de chinese site en de interpretatie van fudzilla te laten voor wat 'ie is. :)

Een vriend van me vind de 5850 te duur, en de 5770 is voor hem eigenlijk te traag. De 5830 lijkt qua prijs voor hem precies in de sweet spot te vallen, als de prestaties ook ongeveer tussen die twee zit is het een prima kaartje. Ik denk dat er veel meer mensen zijn zoals hij die door het grote verschil tussen de 5770 en de 5850 een beetje tussen wal en schip vallen, zoals het er nu naar uitziet vult de 5830 dat gat mooi op. :)

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Welke steek die GTX480? maar in je...

Afbeeldingslocatie: http://plaza.fi/s/f/editor/images/20100225ares.jpg

AMD will be offering new board spec to AIBs including Dual Cypress XT ultra low leakage GPU’s. One of the first models will be Asus ROG ARES which will feature 850MHz core clock, 1200MHz memory clock and 4GB of GDDR5. Asus ROG ARES thermal specification includes 100mm wide fan, 32mm thick, 600% higher air-flow, 100% pure copper and 8 ultra-wide heat-pipes. Also the noise level should be significantly lower @ 4200rpm; ARES 37dB; ref hemlock; 44,5dB.
Afbeeldingslocatie: http://plaza.fi/s/f/editor/images/20100225ares3.png
Asus says performance in 3DMark Vantage Extreme-preset is ~28% better than ATI Radeon HD 5970 reference design.

Asus ROG ARES will be Limited Edition and on display at Cebit.

Source: Finnish hardware site Muropaketti.com

PS. Real pics of PCB & cooling solution coming tomorrow, stay tuned.

[ Voor 9% gewijzigd door neliz op 25-02-2010 00:29 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Apoca
  • Registratie: November 2001
  • Laatst online: 11-06 18:25

Apoca

Array Technology Industry

Die is wel erg bruut, wil alleen niet weten wat die kost... :D

Maar goed om te zien dat er nu steeds meer versies op de markt komen welke afwijken van de default designs.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Apoca schreef op donderdag 25 februari 2010 @ 00:31:
Die is wel erg bruut, wil alleen niet weten wat die kost... :D

Maar goed om te zien dat er nu steeds meer versies op de markt komen welke afwijken van de default designs.
CJ laat ons morgen vast wel de MSI variant zien ;) (volgens mij verloopt er een NDA'tje)

[ Voor 5% gewijzigd door neliz op 25-02-2010 00:34 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Oeh, kom net de specs van die R5870 Lightning van MSI tegen (NDA lijkt op de 25e te staan, dus waarschijnlijk wordt het ding morgenvroeg wel officieel aangekondigd).

Afbeeldingslocatie: http://tweakers.net/ext/f/dSavCwCJlm7UXJpngosVG5bW/full.jpg
De specs liegen er in elk geval niet om.

En de pressrelease
Afbeeldingslocatie: http://tweakers.net/ext/f/7ix5xgDftjN5dmAwbsELz0dT/full.jpg

Ook een best flinke kaart als ik het zo zie.
VGA
Afbeeldingslocatie: http://tweakers.net/ext/f/p9mEny0zQ5JF4Sv5OKEkPhjq/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/NDowOtanXbVMumbruR7xUOJN/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/uVKHkuGb6QSMSeFcOxWcWnpI/thumb.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/zcGakfpvHTaHedvm2DOYXBbI/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/mQRe8Ts5qPkJn3HgtsALidmf/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/epe22bY9tS6e9mGUwNWLAbbz/thumb.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/6ryZ1gZB0l682JPDsuCqaJWt/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/wOZnRjCGGwLMwfwgUqcODKX6/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/jSGRubxDUM0FI8VJlpfbcV2H/thumb.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/67ERZoNdX4gaU84P6oJOxpBL/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/q6lci4kH784fjoZIJnCx6O1L/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/dnnJODLTyveKja4LPSRCBqf4/thumb.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/mbig9ArHQDBNuZm44EWpG6TI/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/swsRlf6yi2Fvekii2cqmcQvC/thumb.jpgAfbeeldingslocatie: http://tweakers.net/ext/f/muLYGQkRhOBVIR9y1mk6AX0K/thumb.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/Kt34NCdrjDmvowWJmQxLAWEf/thumb.jpg

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 11:41
Apoca schreef op donderdag 25 februari 2010 @ 00:31:
Die is wel erg bruut, wil alleen niet weten wat die kost... :D
Volgens mij wordt dit weer zo'n ASUS MARS die geen drol koopt.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
chim0 schreef op donderdag 25 februari 2010 @ 06:20:
[...]

Volgens mij wordt dit weer zo'n ASUS MARS die geen drol koopt.
Staat er min of meer ook bij (Limited Edition). Dus ik vrees ook erg duur. Al was de Mars door Asus zelf ontworpen. Als dit PCB door AMD zelf ontworpen is kan het qua kosten mee vallen. Maar dit kaartje zal dan wel geen PCI-E certificaat hebben want op die speeds zit je zeker op 350 watt. Dus over de max 300 heen.

En nog een HD5830 review:

http://www.computerbase.d...rformancerating_qualitaet

Ik vind de reviews van die site erg goed. Zonder AA is hij een 15% sneller. Maar met AA/AF en vooral 8x AA is hij soms zelfs iets trager. Ik blijf me afvragen waarom die AA/AF performance hit zo hoog is. Of zal dat toch zijn door die nieuwe Angle intendant AF mode ? Dit viel me bij de HD5850 en 5870 reviews ook al op.

Performance verschil met de HD5850 is 20-33% In vergelijking met de HD5770 is dit 15-22%. Dus toch iets dichterbij de HD5770 dan ik dacht. Ik verwachte eerst het omgekeerde. Blijkbaar zijn die ROP's toch niet zo efficiënt ? Want het gaat vooral mis bij hogere resoluties en AA/AF modes.

En ik weet niet wat ze bij AMD gedaan hebben maar het stroom verbruik is inderdaad hoger. Het lijkt er op dat ze de core op 1.16v hebben draaien ipv 1.09v.

En als je naar het PCB en de Cooling kijkt zie je dat het eigenlijk een HD5870 is geweest. Hij heeft ook de backplate. En de advanced PWM. Dus mem voltage is bij deze kaart waarschijnlijk wel te regelen.

[ Voor 54% gewijzigd door Astennu op 25-02-2010 07:14 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
En nog een Cat 10.2 Review met wat performance cijvers:

http://www.computerbase.d...rformancerating_qualitaet

Normaal zie je bij hun niet veel verschil. Maar dit kaart staat de nieuwe driver duidelijk bovenaan. Dit komt door de grote boost in Anno 1404. Maar in de andere game tests doet de driver het ook niet slecht. Er is ook een kleine boost in Battleforge te zien.

[ Voor 21% gewijzigd door Astennu op 25-02-2010 08:04 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 11:41
Ik zou dus gamen op 1600 x 1050 met 8x AA/16x A (iig hoogste settings mogelijk) en het valt me op dat de 5830 steeds 30 frames langzamer is dan de 5850 terwijl de prijs nagenoeg het zelfde is(?). De 5850 is steeds 20 frames langzamer dan de 5870. 30 frames vind ik behoorlijk wat als de prijzen werkelijk zo dicht bij elkaar liggen.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
chim0 schreef op donderdag 25 februari 2010 @ 08:12:
Ik zou dus gamen op 1600 x 1050 met 8x AA/16x A (iig hoogste settings mogelijk) en het valt me op dat de 5830 steeds 30 frames langzamer is dan de 5850 terwijl de prijs nagenoeg het zelfde is(?). De 5850 is steeds 20 frames langzamer dan de 5870. 30 frames vind ik behoorlijk wat als de prijzen werkelijk zo dicht bij elkaar liggen.
Tja ik vind het ook raar dat ze er HD5870 PCB's voor gebruiken. Die zijn duurder. Ook de cooling is duurder (backplate + grotere heatsink).

Imo was een HD5790 een betere optie geweest. RV840 chippie op 1000-1050 MHz. Dan heb je +- dezelfde performance.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
Tweakers review staat ook online:

reviews: ATI Radeon HD 5830

Alleen die is wel heel negatief. Het is duidelijk dat er iets niet goed gaat en we weten ook al langer dat de RV7xx erg efficient is. Maar ik vraag me echt af waarom die HD5830 niet presteert.

Van de 5850 en de 5870 had ik ook al meer verwacht. Maar hier is het erg overduidelijk dat er iets niet goed gaat. Jammer dat er niet even zonder AA en AF getest is dan sluit je die nieuwe Angle Independent AF uit.

Of het alleen die ROPs zijn vraag ik me af. Ik heb het idee dat er nog wat meer is. En dat speelt ook bij de andere HD5xxx kaarten. Ik blijf het idee zitten dat er makkelijk 10% meer uit deze architectuur te halen is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Anand is vrij negatief over de prijs vd 5830.

AMD’s Radeon HD 5830: A Filler Card at the Wrong Price

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Jongens, effe opletten. Nieuw deel staat al online: [Algemeen] ATi Nieuwsdiscussie Topic - Deel 113

Deze mag dicht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Bull
  • Registratie: December 2000
  • Laatst online: 00:10
Ik meende dat de core clock van de R5870 Lightning 1000Mhz zou worden maar ik zie nu 900Mhz staan. Hoe zit dat? :?

https://tweakers.net/gallery/18583/inventaris/


  • Astennu
  • Registratie: September 2001
  • Laatst online: 16:34
nieuw topic...

[ Voor 98% gewijzigd door Astennu op 25-02-2010 11:59 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
CJ schreef op donderdag 25 februari 2010 @ 11:44:
Jongens, effe opletten. Nieuw deel staat al online: [Algemeen] ATi Nieuwsdiscussie Topic - Deel 113

Deze mag dicht.
:D

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 ... 6 7 Laatste

Dit topic is gesloten.