Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 67 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 5.684 views sinds 30-01-2008
http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
 

Direct door naar de lijst met ATi Radeon HD 2000 reviews? Klik HIER

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu onderdeel is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://www.guildwarsarena.net/ati/atitopic-topicregels.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://www.guildwarsarena.net/ati/atitopic-topicgeschiedenis.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



http://www.guildwarsarena.net/ati/atitopic-topicnavigatie.jpg
http://www.guildwarsarena.net/ati/atitopic-huidigegpus.jpg
ATi's huidige line-up is bestaat uit de HD-serie (DX10) en X1K-serie (DX9). De HD-serie bestaat uit:
  • HD2900XT - R600 (PCIe)
  • HD2600Pro, XT & Gemini - RV630 (PCIe & AGP)
  • HD2400Pro & XT - RV610 (PCIe & AGP)
Wil je meer weten over de R5x0 generatie dan kan je kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post. Post 65 is de laatste post waar de X1K vermeldt wordt in de first post.
http://www.guildwarsarena.net/ati/atitopic-atidivision.jpg

Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
http://www.guildwarsarena.net/ati/atitopic-r600architectuur.jpg

De Radeon HD2900 serie van AMD is al in ontwikkeling geweest sinds 2001. In de loop der jaren is er veel veranderd aan de architectuur. De volgende punten zijn kenmerkend voor de Radeon HD2900. De midrange en low-end kaarten zijn natuurlijk naar beneden geschaald wat betreft features:

•Superscalar unified shader architecture
•320 stream processing units
•512-bit 8-channel memory interface
•Comprehensive DirectX® 10 support
•Integrated CrossFire™
•High-speed 128-bit HDR (High Dynamic Range) rendering
•Up to 24x Custom Filter Anti-Aliasing
•ATI Avivo™ HD video and display technology
•Built-in HDMI and 5.1 surround audio
•Dynamic geometry acceleration
•Game physics processing capability
•Free “Black Box” game bundle from Valve Corporation

Over het stroomverbruik is het volgende bekend:
Singlecard: Max 225W default clockspeed (Overdrive >225W). Aanbevolen PSU: 500W
Crossfire setup aanbevolen PSU: 750W

Zoals je kan zien in de specs is de R600 dus geen vector machine zoals voorheen gedacht (Vec4 + Scalar), maar een scalar architecture net zoals de G80. Het verschil zit hem echter in de implementatie. Daarnaast biedt de R600 volledige ondersteuning voor HD Audio en is daarmee dus zowel een GPU als SPU.

Stream Processors
De term stream processors voerde AMD in met de FireStream GPUs die gericht waren op General Purpose applicaties. nVidia gebruikte de term daarna ook voor de shaderunits in de G80. Daar houdt echter de vergelijking op.

In de G80 was elke Stream Processor (SP) een scalar, single component unit, die gekoppeld werd aan een special function unit (SFU). Dat betekent dat elke SP in nVidia's G80 in staat is om een enkele instructie per klokslag af te handelen, wat een totaal van 128 instructies per klokslag oplevert.

AMD heeft een andere aanpak gekozen voor de HD 2000 serie. Zij hebben gekozen voor een "Super Scalar Architecture". In plaat van het uitvoeren van een enkele instructie per klokslag, kan elk van de 64 shader units in de R600 er 5 uitvoeren.

http://www.elitebastards.com/hanners/ati/r600/sp.jpg
Opbouw van een shaderunit in de R600: 5 stream processors per unit


Op het plaatje hierboven zie je de opbouw van een shader unit in de R600. Deze bestaat uit 5 streamprocessors, waarvan er eentje een dikke is. Dit is een special function unit (SFU) die ook nog andere taken voor zijn rekening neemt zoals SIN, COS en EXP. Daarnaast beschikt elke shaderunit over een aparte branching unit.

De streamprocessors zijn geplaatst in een SIMD (Single Instruction, Multiple Data) arrays van zestien units. Elke array heeft daardoor dus tachtig Stream Processing units. De R600 heeft vier arrays wat in totaal dus 320 shader units oplevert die geschikt zijn voor het bewerken van pixel, vertex en geometry data.

Vergelijken we het Super Scalar ontwerp met de Scalar Architecture van de G80, dan is het duidelijk waar de voordelen liggen van AMDs architectuur, dankzij de mogelijkheid om met meerdere instructies per klokslag te werken in tegenstelling tot de enkele instructie per klokslag bij de G80. Er is echter één grote maar.... Het is bij de G80 vrij gemakkelijk om alle SPs gevoed te houden me data, terwijl het bij de R600 moeilijker is om de complexere SPs bezig te houden en efficient te laten werken. Dus hoe probeert AMD haar architectuur in te richten voor een maximale efficientie?

AMD introduceerde met de X1K serie de "Ultra Threaded Dispatch Processor". Met de HD2K serie heeft AMD deze UTDP flink opgepimpt en veel dingen overgenomen uit de Xbox360 GPU. Ten eerste beschikt de HD2K serie over dedicated instruction cache, wat het theoretisch mogelijk maakt om shaders met oneindige lengte te verwerken. Daarnaast is er een gelijksoortige cache ingebakken waar de GPU een onbeperkt aantal constanten kan opslaan. Was de X1K in staat om 512 threads tegelijkertijd 'in flight' te houden, met de HD2K serie is dit aantal nog verder omhoog gebracht. Honderden threads kunnen tegelijkertijd 'in flight' gehouden worden die er voor zorgen dat de SIMD arrays nooit uit hun neus hoeven te vreten. Per array zijn er twee "thread arbiters", een soort scheidsrechters, die aangeven welke threads door welke SP verwerkt moeten worden. Als een thread op data wacht, dan kan het 'in flight' blijven (deze wordt als het ware op pauze gezet) en vervangen worden door een andere thread die wel klaar is om bewerkt te worden door de SP. Als de thread die 'in flight' is klaar is om bewerkt te worden, kan de SP het werk hieraan hervatten. Hierdoor blijven de SPs dus gevoed met data.

AMD biedt dus wel meer processing units aan in vergelijking met de G80 van nVidia, maar de SPs van de G80 werken wel op meer dan de dubbele kloksnelheid van de core. Daarnaast is het moeilijker om alle SPs gevoed te houden in de R600 en zal dit voornamelijk aan het driverteam zijn om dit voor elkaar te krijgen. Alleen de tijd en driververbeteringen zullen ons leren hoeveel efficientie AMD uit hun super scalar architectuur kan halen. Maar gezien het feit dat ze veel ervaring hebben met Xenos, lijkt het er op dat AMD hier geen problemen mee zal krijgen.

http://www.guildwarsarena.net/ati/atitopic-iq.jpg

De Radeon HD serie zal ook op het gebied van Image Quality weer een sprong voorwaarts zijn ten opzichte van de Radeon X1K serie. De Anisotropic Filtering algoritmes zijn verbeterd en ook zijn er een aantal nieuwe Anti Aliasing Modi te vinden in de nieuwe reeks. Daarnaast maakt de HD serie ook gebruik van "Bicubic Texture Filtering", dit is een verbeterde variant van Bilinear Texture Filtering en geeft een scherper beeld zonder artefacts. Veel techies hadden de optie van Bi-Cubic Texture Filtering als ongeloofwaardig afgeschreven, maar dit is toch door AMD geimplementeerd en is met name bedoeld voor bepaalde OS Font features. Er is echter 1 maar. Bicubic Filtering functionaliteit wordt niet blootgesteld. DX houdt het op dit moment tegen, maar het zal wel mogelijk zijn dat devs deze functionaliteit via OGL aan spreken.

Anisotropic Filtering
Bracht de X1K serie een speciale High Quality AF mode die je zelf aan moest zetten in de drivers, in de HD serie is de High Quality AF mode de standaard AF mode. Dus vanaf de HD serie kunnen alle Radeons standaard genieten van bijna hoekonafhankelijke AF zonder zich zorgen te maken over een grote performancedrop. De filteringmodes zijn geoptimaliseerd om te kunnen concurreren met de zeer sterke high quality AF modi van de G80.

Anti Aliasing
Oftewel het weg werken van kartelrandjes. Ook dit is sterk verbeterd en wel op 2 gebieden:
  • 8x MSAA
  • Custom Filter AA
Naast de standaard 2x, 4x en 6x MSAA introduceert AMD nu ook de 8x MSAA instelling. De 6x MSAA mode is verdwenen op de HD2K serie. Een groot verschil met de G80 serie van nVidia is dat AMD gebruik maakt van programmeerbare AA samples. Dit zorgt voor een enorme flexibiliteit en kan daardoor voor een veel betere beeldkwaliteit zorgen. Via driverupdates is het mogelijk om nieuwe sample patronen en resolve filters te programmeren in de HD kaarten. Na het downloaden van nieuwe filters kan je deze selecteren via het Catalyst Control Center.

In de toekomst zullen developers straks zelf hun eigen AA filters/patronen kunnen programmeren in hun games. Hierdoor kunnen ze zelf kiezen wat het beste bij hun game past. Op dit moment ondersteunt DX10 dit nog niet, maar dit zal in een toekomstige versie van DX10 worden blootgesteld aan developers (waarschijnlijk in DX10.1). Maar met de HD serie brengt AMD deze toekomstige functionaliteit al naar jou toe zodat je er vandaag al van kunt genieten!

Custom Filter AA is het AA wapen dat AMD in de strijd gooit tegen Coverage Sample AA (CSAA) van de G80 serie van nVidia. CFAA werkt als een post-processing filter op elke gerenderde frame. Hier zal ongetwijfeld direct de vergelijking met Quincunx AA van nVidia worden getrokken dat ook een post-processing filter was. In het geval van Quincunx AA trad er vaak een soort van waas over de lijnen op, waardoor veel mensen dit gekscherend "blur AA" noemden. Ongetwijfeld zullen veel 'critici' hier op gaan letten of ze dit ook bij CFAA gaan zien.

AMD lanceert initieel 6 nieuwe CFAA modes:
  • 4x CFAA (2x MSAA + Narrow Tent)
  • 6x CFAA (2x MSAA + Wide Tent of 4x MSAA + Narrow Tent)
  • 8x CFAA (4x MSAA + Wide Tent)
  • 12x CFAA (8x MSAA + Narrow Tent of 4x MSAA + Edge Detect)
  • 16x CFAA (8x MSAA + Wide Tent)
  • 24x CFAA (8x MSAA + Edge Detect)
CFAA biedt een aantal voordelen boven CSAA:
  • CFAA provides better edge quality per sample
  • CFAA can scale to more than 16 samples per pixel
  • CFAA works better on silhouette edges
  • CFAA works on stencil shadows
  • CFAA is not limited to polygon edges
Als laatste zal AMD binnenkort ook een nieuwe vorm van Adaptive AA introduceren. Dit is echter niet gebonden aan de HD serie, maar zal ook op oudere kaarten (vanaf de 9500 serie) werken. Men noemt het Performance AAA en zal een betere kwaliteit AAA brengen met de snelheid van multisample AA, daar waar Quality AAA een grotere performancehit heeft vanwege het gebruik van supersampling AA.

Natuurlijk zijn ook de AA varianten uit de vorige generaties aanwezig. Dwz dat je gebruik kan blijven maken van HDR + AA, Adaptive AA, Temporal AA en SuperAA. Al deze varianten werken met Gamma Correction zoals we dat al gewend zijn vanaf de R300 serie.

http://www.guildwarsarena.net/ati/atitopic-reviews.jpg

Hieronder staan links naar de meeste HD2900XT reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

3D Center TIP
Anandtech
Beyond3D
Bit Tech Score: 7/10
Bjorn3D
Chile Hardware
Computer Base.De
Cubic
Digit Life - Architecture Overview
Digit Life - Image Quality
Digit Life - Theoretical Benchmarks
Digit Life - Games Benchmarks
Driver Heaven
Elite Bastards
Extreme Tech | Architecture Analysis
Firing Squad
Guru3D
Hardware Info
Hardware Secrets
Hardware Zone Score: 4.5/5
Hexus Award: Good Value
HardOCP
Hot Hardware
Legit Reviews
Neoseeker
OC Workbench
PC Perspective
PC Presence
T-Break
Tech Power Up
The Inquirer
The Tech Lounge
The Tech Report
Tom's Hardware
Trusted Reviews
Tweakers.net
Tweak Town
VR-Zone
X-Bit Labs

Hieronder staan links naar de meeste HD2400 / HD2600 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

Anandtech
Computerbase - HD2400XT & HD2600XT
Firingsquad - HD2600Pro & XT
Fudzilla
Guru3D
Hexus.net - HD2400XT & HD2600XT
Hot ardware - HD2400XT & HD2600XT
Neoseeker
OC Workbench - HD2600XT GDDR3 - Score: 8.1
PC Perspective
Phoronix
http://www.reghardware.co.uk/2007/06/28/review_powercolor_hd_2600_xt/]Reg Hardware
The Tech Lounge
Technic3D
Techpowerup - HD2400Pro
Techpowrup - HD2400XT
Techpowerup - HD2600XT


http://www.guildwarsarena.net/ati/atitopic-hd2900.jpg

http://www.guildwarsarena.net/ati/hd2900xt.jpg
Retail 9.5" versie van de Radeon HD 2900 XT


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). De R600 zal er in eerste instantie alleen komen in XT uitvoeren met 512MB GDDR3. Voor OEMs is er een XT beschikbaar die gebruik maakt van 1GB GDDR4 geheugen. Deze is meteen ook een flink stuk groter uitgevallen. Het ziet er naar uit dat er wel een XTX uitvoering komt, maar wanneer is niet precies bekend.

AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. De GPU loopt op 742Mhz terwijl het geheugen op 825Mhz geklokt is. Fabrikanten kunnen hiervan afwijken. Gebleken is dat de core vrij hoog over te klokken is, dus ook voor de enthousiaste overklokker is er nog genoeg speelruimte om zelf aan de slag te gaan.

Het stroomverbruik lig iets hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Daarnaast ligt het idle-stroomverbruik rond die van de GF8800GTS en aangezien je waarschijnlijk vaker naar je desktop staart dan zit te gamen, heft dit elkaar mooi weer op.

De grote verrassing van de R600 is de prijs. De adviesprijs ligt namelijk op $399. In Europa zal de kaart voor onder de €399 beschikbaar zijn. Op het moment van schrijven zelfs al voor €330. Voor deze prijs krijg je een kaart die over het algemeen met gemak de GF8800GTS640 verslaat die dezelfde adviesprijs heeft en heeft ook nog eens meer features aan boord! En het leuke is dat de HD2900XT voor die prijs ook nog eens zeer dicht bij de GF8800GTX/Ultra komt en er in sommige gevallen zelfs boven uit steekt. Let wel... die twee kaarten hebben een adviesprijs van respectievelijk $549 en $829.

Sommige mensen zullen teleurgesteld zijn dat de HD2900XT niet overtuigend de GF8800GTX kan weerstaan en ook dat AMD niet direct een XTX versie uit brengt die dat wel kan. Vergeet daarbij niet het volgende... het gaat hier alleen om DX9 benchmarks en niet om DX10. De eerste tekenen (FSX, next gen BF, Call of Juarez, HL2: EP2) wijzen er op dat de HD2900XT geen moeite heeft om de GF8800GTX bij te benen (en in te halen) in DX10 applicaties. Vergeet niet dat de R600 gemaakt is voor DX10 (en niet voor DX9) en dat ATI al sinds de Xenos met Microsoft in 1 bed slaapt.... Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken. Neem de onderstaande slide met een korreltje zout ;)

http://www.guildwarsarena.net/ati/crysisdemo.jpg


Er komt in eerste instantie geen XTX uit met GDDR4 omdat er wat problemen waren met de 512-bit memory interface en GDDR4. Dit zou opgelost moeten worden in een nieuwe revisie dan wel in de R650. Het probleem was iets waar AMD op het allerlaatste moment achter kwam. Hieruit bleek dat een HD2900XT met 825Mhz GDDR3 geheugen net zo snel was als een HD2900XT met 1.1Ghz GDDR4. Het leek net alsof het niet uit maakte of er GDDR3 of snel GDDR4 op zat en alsof het beide beperkt was tot zo'n 105,6GB/s aan bandbreedte ondanks dat GDDR4 hier flink boven zou moeten gaan zitten. Op de een of andere manier werd dus niet het volle potentieel benut van de 512-bit memory interface in combinatie met GDDR4 en was het dus logisch om retail kaarten in eerste instantie te voorzien van GDDR3 totdat het probleem met GDDR4 is opgelost.

http://www.guildwarsarena.net/ati/atitopic-hd2800.jpg

Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland stond, namelijk Kwartaal 3 van 2007. Dit is echter verschoven naar Q1 08. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na. Deze series heten dan waarschijnlijk de Radeon HD 28x0 serie en de Radeon HD 27x0 serie.

Eerst komt nog twee varianten op de HD2900XT, namelijk de HD2900Pro en HD2900GT. Deze komen in het najaar uit.

http://www.guildwarsarena.net/ati/atitopic-hd2600.jpg

De midrange GPU RV630 heeft de officiele naam HD2600 mee gekregen. Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. In eerste instantie zullen er twee retailversies van de HD2600 leverbaar zijn, namelijk de HD2600Pro en HD2600XT. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560. De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm en is daarmee 10% kleiner dan zijn rechtstreekse concurrent de G84, terwijl hij wel zo'n 150M meer transistoren bevat.

Beide HD2600 kaarten zullen de beschikking hebben over 120 streamprocessors.

http://www.guildwarsarena.net/ati/hd2600xt.jpg


Ondanks veelgehoorde geruchten dat de snelste RV630, de HD2600XT, een dubbelslotcooler nodig zou hebben en meer dan 120W zou verbruiken, is gebleken dat dit allemaal wel mee valt. Het stroomverbruik van de HD2600XT ligt rond de 65W en heeft daardoor geen extra stroomvoorziening nodig. Daarnaast gebruikt deze kaart ook een singleslotcooler zoals je kan zien in het plaatje.

De HD2600XT doet op - voor de desktop space - ongekend hoge kloksnelheden zijn werk. 800Mhz core om precies te zijn. Van de HD2600XT zijn twee varianten: GDDR3 versie op 800/700 en de GDDR4 versie op 800/1100. Door de hoge snelheid van het GDDR4 zal deze ondanks de 128-bit memory interface toch een bandbreedte hebben die hoger ligt dan die van een 6800GT of X800XT.

http://www.guildwarsarena.net/ati/hd2600pro.jpg


De HD2600Pro zal waarschijnlijk een populair kaartje worden gezien het vriendelijker prijskaartje. Daarnaast doet deze kaart prima dienst als extra physics GPU. De HD2600Pro maakt uitsluitend gebruik van GDDR3 of GDDR2 geheugen.

Het voordeel die de RV630 serie heeft op de G84 serie ligt niet zo zeer op het gebied van performance, maar op het gebied van featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen.

RV630 heeft de Unified Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies. De G84 ondersteunt geen VC-1! UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.

Het stroomverbruik is inmiddels ook bekend.
HD 2600 XT -> 65W
HD 2600 PRO -> 55W
Deze kaarten zullen ook in AGP variant verkrijgbaar zijn.

http://www.guildwarsarena.net/ati/atitopic-hd2400.jpg

De RV610 komt er in eerste instantie in twee varianten, de HD2400Pro en HD2400XT. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Beide HD2400 kaarten zullen de beschikking hebben over 40 streamprocessors.

http://www.guildwarsarena.net/ati/hd2400xt.jpg


Antelope, HD2400XT, is de 'snelle' jongen van de twee. Deze zal gebruik maken van 256MB GDDR3 op een 64-bit memoryinterface. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire, wat je ook ziet op het plaatje. De core loopt op 700Mhz.

http://www.guildwarsarena.net/ati/hd2400pro.jpg


Falcon, HD2400Pro, is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 525Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord.

Over het stroomverbruik is het volgende te melden:
HD 2400 XT -> 20W
HD 2400 PRO -> 18W
Deze kaarten zullen ook in AGP variant verkrijgbaar zijn.

Note: Let op. Er zijn laptops in omloop met de Mobility Radeon X2300 en X2400. Dit zijn geen DX10 kaarten, maar gebaseerd op de X1450 (lichtelijk getweakte X1400). Alleen de kaarten met de prefix HD zullen DX10 ondersteunen. Alle kaarten die beginnen met een X zijn dus DX9 kaarten.

http://www.guildwarsarena.net/ati/atitopic-mobility.jpg

Tegelijkertijd met de desktop GPUs zal AMD ook haar nieuwe notebook lineup presenteren. Deze zal bekend staan onder de naam Mobility Radeon HD 2x00. In eerste instantie zullen er 5 Mobility Radeons gelanceerd worden, waarvan er eentje gebaseerd is op DX9.
  • Mobility Radeon HD 2300
  • Mobility Radeon HD 2400 Pro
  • Mobility Radeon HD 2400 XT
  • Mobility Radeon HD 2600 Pro
  • Mobility Radeon HD 2600 XT
De Mobility Radeon HD 2300 is zoals het er nu naar uit ziet de enige uit het rijtje die gebaseerd is op de RV550 core, wat wil zeggen dat dit een DX9 core is met UVD aan boord. De RV550 is op zijn beurt weer gebaseerd op de RV516 (4PS, 2VS).

De 4 overgebleven kaarten zijn wel volledig DX10 compliant en zijn identiek aan hun desktop broertjes op kloksnelheid verschillen na. De eerste scores zijn bekend. HP heeft een notebook met een 256MB versie van de Mobility Radeon HD 2600 XT. Deze scoort iets meer dan 4000 punten in 3DMark06 en rond de 12000 in 3DMark03.

http://www.guildwarsarena.net/ati/atitopic-toekomstigegpus.jpg

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten! En als sommige geruchten kloppen zelfs al in September. Er gaan echter ook geruchten dat er pas in Januari 2008 weer een refresh van de high end komt. Misschien dat we dan de HD 2900 XTX of HD 2950 XTX te zien krijgen op een klok die tegen de 1000Mhz aan ligt.

Wat in ieder geval zeker is, is dat deze kaart 1GB aan GDDR4 krijgt en dat deze kaart pas eind 2007 of begin 2008 concurrentie krijgt van nVidia in de vorm van G90. G90 stond namelijk gepland voor Q3, maar heeft een tapeout gemist waardoor deze verschoven is naar het einde van Q4/begin Q1 '08.

R700 staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan.

http://www.guildwarsarena.net/ati/atitopic-prijsoverzicht.jpg
http://www.guildwarsarena.net/ati/hd2000-prijsoverzicht.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://www.guildwarsarena.net/ati/atitopic-geruchtenmolen.jpg
http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

http://www.guildwarsarena.net/ati/atitopic-overige.jpg
http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

[Voor 200% gewijzigd door CJ op 20-08-2007 14:47]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te
zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

[Voor 99% gewijzigd door CJ op 20-08-2007 14:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/hd2000-prijsoverzicht.jpg
Richtprijzen na de lancering van de HD2K serie


Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.

HD2K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

http://www.hardware.info/images/news/2600xtbox_550.jpg
HD2600XT


• Goedkoopste HD 2400Pro 256MB PCIe: €42 <
• Goedkoopste HD 2400XT 256MB PCIe: €62 <
• Goedkoopste HD 2600Pro 256MB PCIe: €74
• Goedkoopste HD 2600Pro 512MB PCIe: €80
• Goedkoopste HD 2600XT 256MB GDDR3 PCIe: €90
• Goedkoopste HD 2600XT 512MB GDDR3 PCIe: €119
• Goedkoopste HD 2600XT 256MB GDDR4 PCIe: €123
• Goedkoopste HD 2900XT 512MB PCIe: €335

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

• Goedkoopste X1050 128MB PCIe: €28 <
• Goedkoopste X1300 128MB PCIe: €36 <
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €45 <<
• Goedkoopste X1300XT 256MB PCIe: €44 <<
• Goedkoopste X1550 256MB PCIe: €32 <
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €50 <
• Goedkoopste X1650XT PCIe: €72 <<
• Goedkoopste X1950GT 256MB PCIe: €95 <
• Goedkoopste X1950GT 256MB AGP: €117 <
• Goedkoopste X1950GT 256MB PCIe: €95 <
• Goedkoopste X1950Pro 256MB PCIe: €99 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €133 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €137 <
• Goedkoopste X1950Pro 512MB AGP: €146 <<
• Goedkoopste X1900XT 512MB PCIe: €179 <<
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299 <<
• Goedkoopste X1950XT 256MB PCIe: €156 << TIP
• Goedkoopste X1950XTX PCIe: €240 <<
• Goedkoopste X1950XTX CrossFire PCIe: €337 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update

[Voor 99% gewijzigd door CJ op 20-08-2007 14:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • jjohny
  • Registratie: juni 2007
  • Laatst online: 31-10-2007
mss een raare vraag maar waar staat de demo van Bioshock

  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 06-04 17:22

Splinter Cell

AMD HD7850

quote:
jjohny schreef op maandag 20 augustus 2007 @ 14:56:
mss een raare vraag maar waar staat de demo van Bioshock
Hier staan wat linkjes in: [PC/360] Het BioShock Topic.

Hij wordt nu ook op usenet gekacheld :D.

Laat die nieuwe driver maar komen. Hoop wel, dat ze ook meteen andere fixes meepikken.

[Voor 28% gewijzigd door Splinter Cell op 20-08-2007 15:02]

Bioshock Demo:

*moffel moffel*

Of anders ff hier kijken voor de laatste links: [PC/360] Het BioShock Topic.

Dit is een gelekte demo. Het is dus officieel niet de bedoeling geweest om dat demotje de wijde wereld in te sturen en daarmee komt zo'n demo, al dan gelinked of niet, niet door het beleid van GoT.
Zie ook Algemeen Beleid - Copyright.

[Voor 65% gewijzigd door Ultraman op 20-08-2007 22:41]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • jjohny
  • Registratie: juni 2007
  • Laatst online: 31-10-2007
quote:
CJ schreef op maandag 20 augustus 2007 @ 15:00:
Bioshock Demo:

*moffel moffel*

Of anders ff hier kijken voor de laatste links: [PC/360] Het BioShock Topic.
bedankt _/-\o_ voor de snelle reaktie

[Voor 25% gewijzigd door Ultraman op 20-08-2007 22:38]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 06-04 21:17

edward2

Schieten op de beesten

quote:
I have high(er) hopes for games like Bioshock/Crysis/UE3 based stuff because they've accounted for DX10 during their development process, rather than introducing it at a late stage. What I gathered from an ATi presentation was that most of the currently available DX10 things suck ass in terms of performance due to Constant Buffer management boo-boos being in place+greenish drivers. Wheter or not that's true it remains to be seen.
http://forum.beyond3d.com....php?goto=newpost&t=43644

Misschien een verklaring voor de tot nu tegenvallende dx10 perf. van ATI parts.

Maximum IQ


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
quote:
edward2 schreef op maandag 20 augustus 2007 @ 15:11:
[...]


http://forum.beyond3d.com....php?goto=newpost&t=43644

Misschien een verklaring voor de tot nu tegenvallende dx10 perf. van ATI parts.
Ja, ik ben er bijna zeker van dat dat ook kopt, dit was tenslotte ook het geval bij DX8 -> DX9 slap-on's , het werkt gewoon niet.

Trouwens, die slechte performance is niet alleen bij ATI het geval. ook Nvidia bakt er nog niet veel van in de gepatchte dx10 meuk, mss dat daar nu er wat "volwassenere" games uit komen , verandering in gaat komen.

Ben trouwens Bioshock aan het downloaden, ben benieuwd :o

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Visgek24 schreef op maandag 20 augustus 2007 @ 15:47:
Ja, ik ben er bijna zeker van dat dat ook kopt, dit was tenslotte ook het geval bij DX8 -> DX9 slap-on's , het werkt gewoon niet.
De DX8 -> DX9 "slap-on's" waren destijds anders wel een aardige indicatie van de superioriteit van de Radeon 9700/9800 t.o.v. de FX5800/5900.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Noem eens een aantal DX8 -> DX9 "slap-ons" dan? De situatie was toen volgens mij toch aardig anders. De toonaangevende games van die tijd zoals Far Cry en HL2 waren bijvoorbeeld vanaf de basis DX9 games met fallback paden. Andere populaire games uit die tijd als UT2004 of BF1942 waren DX8 games.

Er waren weinig DX8 games die opgewaardeerd werden naar DX9 zoals dat nu het geval is met DX9 games/engines die een DX10 make-over krijgen zoals Call of Juarez, Company of Heroes, Flight Simulator X, de UE3.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
Ik kan zo geen voorbeelden noemen. feit blijft dat gepatchte dx10 games zoals Call of Juarez , Lost Planet, iig de tech demo's, niet lopen zoals het zou moeten juist omdat het afgeraffeld is. maar mensen binden er wel een oordeel aan vast, terwijl je bij Crysis duidelijk kunt zien dat het spel perfect zou moeten draaien op een 2900/8800 kaartje, dan is het imo duidelijk dat er bij de voorgaande dx10 dingen iets goed verkeerd is gegaan . :)

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Visgek24 schreef op maandag 20 augustus 2007 @ 18:08:
Ik kan zo geen voorbeelden noemen. feit blijft dat gepatchte dx10 games zoals Call of Juarez , Lost Planet, iig de tech demo's, niet lopen zoals het zou moeten juist omdat het afgeraffeld is. maar mensen binden er wel een oordeel aan vast, terwijl je bij Crysis duidelijk kunt zien dat het spel perfect zou moeten draaien op een 2900/8800 kaartje, dan is het imo duidelijk dat er bij de voorgaande dx10 dingen iets goed verkeerd is gegaan . :)
Jij stelt mij gerust met jou woorden ;) Ik ben ook benieuwd naar de performance van mijn kaart in Crysis. Die recommended specs etc geloof ik geen bla van. Kom je pas achter als je het spel zelf speelt. Call of Juarez draaide echter tussen de 30-60 fps en gemiddeld in hoge 40, op ultra settings, bij mij. Mooi spel trouwens.

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
CJ schreef op maandag 20 augustus 2007 @ 17:04:
Noem eens een aantal DX8 -> DX9 "slap-ons" dan? De situatie was toen volgens mij toch aardig anders. De toonaangevende games van die tijd zoals Far Cry en HL2 waren bijvoorbeeld vanaf de basis DX9 games met fallback paden. Andere populaire games uit die tijd als UT2004 of BF1942 waren DX8 games.

Er waren weinig DX8 games die opgewaardeerd werden naar DX9 zoals dat nu het geval is met DX9 games/engines die een DX10 make-over krijgen zoals Call of Juarez, Company of Heroes, Flight Simulator X, de UE3.
Nou: Halo PC, Unreal Engine 2.x (en daarmee een flink aantal games, w.o. diverse Brothers in Arms en Splinter Cell releases), Tomb Raider AOD, Flight Simulator 2004... om er een aantal te noemen :)
quote:
Visgek24 schreef op maandag 20 augustus 2007 @ 18:08:
feit blijft dat gepatchte dx10 games zoals Call of Juarez , Lost Planet, iig de tech demo's, niet lopen zoals het zou moeten juist omdat het afgeraffeld is.
Feit? Welke feitelijke informatie ligt aan deze statement ten grondslag?
Welke feitelijke grondslag heb je om de DX10 paden van bovengenoemde games 'afgeraffeld' te noemen?

[Voor 21% gewijzigd door Cheetah op 20-08-2007 18:41]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
quote:
Cheetah schreef op maandag 20 augustus 2007 @ 18:38:
[...]
Nou: Halo PC, Unreal Engine 2.x (en daarmee een flink aantal games, w.o. diverse Brothers in Arms en Splinter Cell releases), Tomb Raider AOD, Flight Simulator 2004... om er een aantal te noemen :)

[...]
Feit? Welke feitelijke informatie ligt aan deze statement ten grondslag?
Welke feitelijke grondslag heb je om de DX10 paden van bovengenoemde games 'afgeraffeld' te noemen?
De performance mss? lijkt me toch vrij duidelijk?

Ik durf te wedden dat als die bedrijven ff een maandje of 2-3 gewacht hadden, dat die demo's 3x beter zouden draaien.. optimalisatie, daar gaat het om - en daar ontbreekt het mij tegenwoordig even te veel aan.

Er worden zo ontzettend veel games uitgebracht die het spelen waard zijn, maar die toch jammerlijk slecht geoptimaliseerd zijn... Kijk eens naar Far Cry (1), nog steeds ontzettend goeie graphics, en kijk eens hoe het draait! er zijn talloze games vandaag de dag die grafisch niet aan far cry 1 kunnen tippen, maar toch een stuk beroerder draaien... Mag jij raden waar dat aan ligt?

Moet ik wel ff bij vermelden dat ik uitga van toen ik die "demo's" geprobeerd heb toen ze net uit waren. is een tijd geleden, en toen waren de drivers van mijn kaart nog niet zo goed als dat ze nu zijn , maar wat mij betreft, hadden die demo's toen nog niet eens gereleased mogen worden.. maar dat is mijn mening :)

[Voor 12% gewijzigd door Visgek82 op 20-08-2007 18:52]

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Wat is er min. aan voeding nodig om een CF 2900XT setup te draaien? Dacht iets van 650w voor de GPU's alleen he? Wilde me een Antec TruePower Quatro 1000w halen om de zaak van stroom te voorzien.

Ik lees trouwens wel heel tegenstrijdige berichten over de 2900XT in CF. Bij de 1 draait het als een trein en bij de ander komt het niet vooruit. Zijn de drivers nog steeds niet volwassen genoeg voor het fatsoenlijk te laten draaien?

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
quote:
Apoca schreef op maandag 20 augustus 2007 @ 19:09:
Wat is er min. aan voeding nodig om een CF 2900XT setup te draaien? Dacht iets van 650w voor de GPU's alleen he? Wilde me een Antec TruePower Quatro 1000w halen om de zaak van stroom te voorzien.

Ik lees trouwens wel heel tegenstrijdige berichten over de 2900XT in CF. Bij de 1 draait het als een trein en bij de ander komt het niet vooruit. Zijn de drivers nog steeds niet volwassen genoeg voor het fatsoenlijk te laten draaien?
Ik weet zo niet precies wat de vereisten zijn, maar ik denk dat je met 1000 watt prima uit de voeten kan , als het een goede voeding is, zoals de Antec. ik denk dat je voor de kaarten ~450 watt moet rekenen, bij elkaar, en dan nog de rest van je systeem, zit je denk ik toch al snel boven de 600 watt idd.

Crossfire werkt naar ik weet over het algemeen best redelijk, maar niet ieder spel of applicatie heeft er evenveel baat bij. Dit kan komen door het spel/applicatie zelf, soms door drivers, bij sommige games krijg je een 50% boost, maar bij de meeste zit je op 15~30 procent , wat ik ervan gelezen heb.

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Ben best ingelezen in de ATi topics en de "stand alone" power van kaartjes, maar dit is de eerste keer dat ik een extra kaart erbij wil zetten. En weet wat je voor voordeel met een CF zou kunnen behalen, maar misschien kon iemand zoals Frank die zelf een CF setup heeft draaien iets meer info geven m.b.t. bugs / speed enz.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • DaWaN
  • Registratie: oktober 2002
  • Laatst online: 14:19

DaWaN

'r you wicked ??

Hoi, even een vraag die al 10x is gesteld, sorry daarvoor maar ik heb gezocht maar ik kan zo snel niets vinden.

Vandaag een lappie binnengehad met RS600M chipset (Xpress 1250).
Jammer genoeg werken de gewone Catalyst drivers niet met de Xpress 1250, ik heb wel drivers van de OEM maar die zijn redelijk oud (CX_44891 03/06/2007). Kan ik nu de INF van Catalyst 7.8 aanpassen of moet ik het gewoon met die oude drivers stellen ?

If you do not change direction, you may end up where you are heading


  • elmystic
  • Registratie: mei 2007
  • Laatst online: 27-02-2012
en nog steeds de mooie foto waar ATI wint van NVIDIA van crysis in de startpost. :) tsss

  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
Heeft iemand al benchmarks gezien van de Bioshock demo met de r600 en g80?

  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 06-04 17:22

Splinter Cell

AMD HD7850

quote:
leonpwner1 schreef op maandag 20 augustus 2007 @ 20:09:
Heeft iemand al benchmarks gezien van de Bioshock demo met de r600 en g80?
Denk het niet he. De demo is nog niet officeel uit he.

  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

quote:
Splinter Cell schreef op maandag 20 augustus 2007 @ 20:12:
[...]

Denk het niet he. De demo is nog niet officeel uit he.
Enne... :? Hij loopt hier anders als een kanon op mijn pctje :P

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
Net Bioshock gespeeld, draait erg lekker op mijn 2900XT @ full details, ziet er ook erg sfeervol en mooi uit. vooral in het beginstuk , zijn de graphics om te kwijlen.

Framerate weet ik niet maar ik gok zo tussen de 30 en de 60 constant.

Snel weer verder spelen :D

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

quote:
Apoca schreef op maandag 20 augustus 2007 @ 19:18:
Ben best ingelezen in de ATi topics en de "stand alone" power van kaartjes, maar dit is de eerste keer dat ik een extra kaart erbij wil zetten. En weet wat je voor voordeel met een CF zou kunnen behalen, maar misschien kon iemand zoals Frank die zelf een CF setup heeft draaien iets meer info geven m.b.t. bugs / speed enz.
Crossfire werkt als een trein, beter dan mijn dual X1900XT setup een tijdje geleden. Sommige spellen willen wel eens wat probleempjes geven in CF, maar iok weet niet meer precies welke dat zijn. Volgens mij gaf STALKER een knipperend beeld nadat de grafische instellingen waren aangepast, maar dat was weer op te lossen door even terug te schakelen naar windows en dan weer naar het spel. Ik heb daar btw. al een bugreport van gemaakt bij catalyst feedback.

Verder zag ik in farcry horizontale refreshlijntjes door het beeld lopen, maar dat was met driver 7.5 of 7.6 dus dat is er nu misschien al wel uit. Moet ik nog even testen.

En verder MTA:SA dat geeft een knipperend beeld continu als je aan het spelen bent, dat heb ik nog niet op kunnen lossen, maar wederom heb ik er een bugreport van gemaakt. Dat probleem heb ik ook voor het laatst getest op Cat 7.6 ofzo dus wie weet....

En verder startte Age of Empires 2 niet op met alle drivers vóór 7.8 BETA (directdraw fout), maar dat is dus gefixed.

Maargoed: mijn totaalbeeld is erg positief. Spellen als TDU, Sims 2, CoJ, COD2, maar ook simcity 4 en age of empires en sof 2 lopen als een trein in Crossfire.

Performancevergelijking met 1 kaart en met 2 kaarten moet ik nog een keertje doen, maar daarvoor wacht ik eerst even op mijn nieuwe CPU koeler (Geminii)...

Pfff, lang verhaal. Nu koffie drinken :D

Goud is geen geld


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 06-04 17:22

Splinter Cell

AMD HD7850

quote:
Visgek24 schreef op maandag 20 augustus 2007 @ 20:22:
Net Bioshock gespeeld, draait erg lekker op mijn 2900XT @ full details, ziet er ook erg sfeervol en mooi uit. vooral in het beginstuk , zijn de graphics om te kwijlen.

Framerate weet ik niet maar ik gok zo tussen de 30 en de 60 constant.

Snel weer verder spelen :D
Ah mooi zo, op de 2900XT loopt ie dus lekker. Straks (denk morgen) meteen die nieuwe driver van ATi erop knallen. Nog meer performance :D.
quote:
Cheetah schreef op maandag 20 augustus 2007 @ 18:38:
[...]
Nou: Halo PC, Unreal Engine 2.x (en daarmee een flink aantal games, w.o. diverse Brothers in Arms en Splinter Cell releases), Tomb Raider AOD, Flight Simulator 2004... om er een aantal te noemen :)
Wat je doet zijn de games over een kam scheren. Dus alle games onder de noemer "slap on DX9/10" stoppen, terwijl er onderling toch best veel verschillen zitten in de manieren waarop het gebeurd is.

Halo PC was een brakke port waar inderdaad DX9 snufjes aan toe zijn gevoegd voor de PC. Maar als ik het me goed herinnerde dan deden de FX en 9700 serie niet enorm veel voor elkaar onder, behalve dan wanneer de resoluties omhoog gingen of er AF gebruikt werd. Overigens voegde het DX9 path in Halo niet veel meer toe dan bumped mirrored surfaces en werden bepaalde video effecten in 2 passes gedaan ipv 3 of 4. Het overgrootte gedeelte kon gewoon in DX8.1 gedaan worden. Dus zoveel DX9 zat er niet in Halo. Slecht voorbeeld dus.

Unreal Engine 2 had ik genoemd (tenminste in de zin van UT2004) en dit was een DX8 engine. De games die er later omheen zijn gebouwd hebben vaak het rendering gedeelte geheel onder handen genomen waardoor je niet meer kan spreken van DX8, maar wel kan spreken van volledig DX9. De latere Splinter Cell releases waren bv wel gebaseerd op de Unreal Engine 2, maar waren wel 'from the ground up' herschreven voor DX9. Dat is het voordeel van de Unreal Engine dat je bepaalde dingen gewoon kan herschreven terwijl je andere gedeeltes gewoon wel blijft gebruiken (bv het geluid of physics gedeelte). En in games met de oudere pure DX8 UE2 had nV vaak wel een voordeeltje zoals bv UT2004 of Lineage 2, behalve dan in de games waar de hele renderingengine grondig onder handen werd genomen voor DX9 ondersteuning (bv latere SC delen en R6).

De huidige DX10 titels voelen voldoen in de meeste gevallen niet aan de dingen waarmee men geadverteerd heeft, zoals dat men DX10 zou gebruiken om de boel te versnellen of dat er meer effecten gebruikt konden worden zonder dat de performance gigantisch inkakt. Hierdoor voelt het - voor mij persoonlijk - meer aan alsof DX10 functionaliteit er gewoon op het laatste moment is opgeplakt als checkbox functie (zoals ook bij Tomb Raider AoD een DX9 showcase was waar nV de boventoon voerde). Beide IHVs hebben schijnbaar moeite met de laatste slap-on DX10 titels, dus liggen het probleem in mijn ogen niet zo zeer bij de IHVs, maar bij de ISVs.
quote:
Visgek24 schreef op maandag 20 augustus 2007 @ 20:22:
Net Bioshock gespeeld, draait erg lekker op mijn 2900XT @ full details, ziet er ook erg sfeervol en mooi uit. vooral in het beginstuk , zijn de graphics om te kwijlen.

Framerate weet ik niet maar ik gok zo tussen de 30 en de 60 constant.

Snel weer verder spelen :D
Geen problemen met rendering glitches zoals bv missende textures?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
@Frankknopers

Hoeveel FPS haal je ong. met Xfire crossfire in TDU? zo dan :P
Bij mij gemiddeld 45-50 FPS, 1680x1050 alles hoog.

[Voor 24% gewijzigd door Bullus op 20-08-2007 21:43]

|2600k|Asus 290|


  • MensionXL
  • Registratie: juni 2004
  • Niet online

MensionXL

Optimaliseren!

quote:
Bullus schreef op maandag 20 augustus 2007 @ 20:51:
@Frankknopers

Hoeveel FPS haal je ong. met Xfire in TDU?
Bij mij gemiddeld 45-50 FPS, 1680x1050 alles hoog.
Bedoel je geen Crossfire? Anders denk ik precies net zo veel FPS :')
quote:
frankknopers schreef op maandag 20 augustus 2007 @ 20:30:
En verder startte Age of Empires 2 niet op met alle drivers vóór 7.8 BETA (directdraw fout), maar dat is dus gefixed.
Koopt ie 2x een HD2900XT, gaat ie AOE2 spelen _/-\o_ 7(8)7

[Voor 33% gewijzigd door MensionXL op 20-08-2007 21:10]

Gratis hardware! - Goedkoop bellen via VoIP


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
MensionXL schreef op maandag 20 augustus 2007 @ 21:06:
[...]


Bedoel je geen Crossfire? Anders denk ik precies net zo veel FPS :')
Xfire is een andere naam voor Crossfire waar X staat voor Cross.

  • Arjan90
  • Registratie: september 2005
  • Laatst online: 13:28
XFire is echter ook een heel bekend in-game instant messenger! Crossfire is dan ook een betere benaming van 'Crossfire', aangezien XFire een programma is wat bekend is in de gaming community! (Als jij vraagt of iemand XFire heeft, zal hij niet de link leggen naar Crossfire ;) )

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 16-10-2019
quote:
MensionXL schreef op maandag 20 augustus 2007 @ 21:06:
[...]


Bedoel je geen Crossfire? Anders denk ik precies net zo veel FPS :')
Laat maar....

Leonpwner1 was me voor

[Voor 19% gewijzigd door Indy91 op 20-08-2007 21:17]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
leonpwner1 schreef op maandag 20 augustus 2007 @ 21:11:
[...]


Xfire is een andere naam voor Crossfire waar X staat voor Cross.
Ja beetje verwarrend, ik snapte ook al niet wat xfire voor invloed zou hebben :P. Ben zelf ook aan het twijfelen om bij m'n nieuwe mobo een crossfire functie te kiezen of niet... Maakt het verder niet uit als je bijv. 1 Asus versie en 1 Sapphire versie hebt in CF? Of is het beter 2 dezelfde te gebruiken? Ik kreeg bij mijn Asus pakket, de Games bundle, wel zo'n crossfire bridge erbij. Krijg je dat ook bij al die andere versies?

  • speeder1988
  • Registratie: maart 2007
  • Laatst online: 23-03 12:48
quote:
peakaboo schreef op maandag 20 augustus 2007 @ 21:16:
[...]


Ja beetje verwarrend, ik snapte ook al niet wat xfire voor invloed zou hebben :P. Ben zelf ook aan het twijfelen om bij m'n nieuwe mobo een crossfire functie te kiezen of niet... Maakt het verder niet uit als je bijv. 1 Asus versie en 1 Sapphire versie hebt in CF? Of is het beter 2 dezelfde te gebruiken? Ik kreeg bij mijn Asus pakket, de Games bundle, wel zo'n crossfire bridge erbij. Krijg je dat ook bij al die andere versies?
Bij alle versies die ik tot nu toe heb gezien zit zo'n crossfire bridge erbij. Crossfire is naar mijn weten alleen handig op hoge resoluties. 1680 X 1050 en erboven. Anders kan je het natuurlijk altijd hebben als patsfactor :P

Heb zelf 2 x 2900XT alleen bij aankomst 1 cf bridge kapot :'(

  • jj1983
  • Registratie: december 2005
  • Niet online
Bioshock loopt hier prima op mijn 2900XT, alles op high no problem. Ook geen texture fouten enz. gezien, nice! :)

  • datkanveelbeter
  • Registratie: mei 2003
  • Laatst online: 04-08-2019
Vraagje:
Ik zie in de start post een paar progjes staan om te overklokken, echter weet ik niet welke ik moet gebruiken voor mijn HD2900, paar van die progjes zijn ook behoorlijk oud.

  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

737-29041: BioShock: Users may experience stuttering with Preload, Missing surfaces and/or display corruption

http://support.ati.com/ic...nowledge&questionID=29041

Ze zijn der lekker snel bij :)

[Voor 7% gewijzigd door Apoca op 20-08-2007 22:16]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
datkanveelbeter schreef op maandag 20 augustus 2007 @ 22:12:
Vraagje:
Ik zie in de start post een paar progjes staan om te overklokken, echter weet ik niet welke ik moet gebruiken voor mijn HD2900, paar van die progjes zijn ook behoorlijk oud.
Er zijn nog niet echt OC programma's die de HD2900 XT volledig ondersteunen. De laatste atitool (Wel een beta versie 2) heeft wel wat support maar nog niet volledig. Het is wachten op een final version of je moet gebruik maken van ATI overdrive in de CCC zelf (zorg wel dat je een 8 pins stekkertje hebt ingestoken anders zal deze optie niet zichtbaar zijn)

  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Apoca schreef op maandag 20 augustus 2007 @ 22:16:
737-29041: BioShock: Users may experience stuttering with Preload, Missing surfaces and/or display corruption

http://support.ati.com/ic...nowledge&questionID=29041

Ze zijn der lekker snel bij :)
Mijn god zie ik daar nu al een hotfix? Jezus...

  • meddle
  • Registratie: juli 2004
  • Laatst online: 06-04 18:45
Nergens last van tbh, maar ik zal die fix wel even downloaden:P. Loopt trouwens erg vlot, met 16xAF, en alles op high (Dx9) haal ik zo'n 60-75fps met af en toe een dropje naar 50. _/-\o_

Jammer alleen dat je in Unreal 3 engine games geen AA kunt gebruiken (iig niet in dx9), maar qua kartels valt het nog best mee + het ziet er voor de rest fantastisch uit. :9~

specs PC


  • Vrijdag
  • Registratie: januari 2005
  • Laatst online: 13:53
Net een nieuwe X1950GT gekocht, AGP. Geinstalleerd met de nieuwe 7.7 cat's maar dan zijn ineens enkele icoontjes verdwenen. Geprobeerd met en zonder CC, uiteraard eerst met met cat-uninstal gedaan. Las her en der dat het ligt aan de drivers en dat het alleen voorkomt bij agp verbindingen.
Ik ga eens even kijken hoe het zit met de 7.7 drivers.

  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
quote:
peakaboo schreef op maandag 20 augustus 2007 @ 22:19:
[...]


Er zijn nog niet echt OC programma's die de HD2900 XT volledig ondersteunen. De laatste atitool (Wel een beta versie 2) heeft wel wat support maar nog niet volledig. Het is wachten op een final version of je moet gebruik maken van ATI overdrive in de CCC zelf (zorg wel dat je een 8 pins stekkertje hebt ingestoken anders zal deze optie niet zichtbaar zijn)
Ik gebruik amd gpu tool ,tevens kun je ook de temps mee aflezen
http://www.techpowerup.com/?30555

|2600k|Asus 290|


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Bullus schreef op maandag 20 augustus 2007 @ 22:41:
[...]


Ik gebruik amd gpu tool ,tevens kun je ook de temps mee aflezen
http://www.techpowerup.com/?30555
Klopt, zelf ook gebruikt, vergeten. Alleen heeft die geen opstartfuncties of profiles, je moet elke keer als je pc opnieuw opstarten die tool weer opnieuw instellen. Of heb ik het mis?

  • Viss
  • Registratie: september 2004
  • Laatst online: 07-04 22:43
Om 2900XT te clocken (single, crossfire gaat nog steeds niet) werken hier i.i.g. AMD GPU tool, Atittool 27b2 en Rivatuner. Voltage aanpassen is ff klooien. Zodra je in atitool "apply" kiest na het instellen van je clocks gaan fan&volt weer terug op standaard. Andersom werkt wel. Eerst clocks instellen op default voltage, vervolgens voltage aanpassen.

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

quote:
peakaboo schreef op maandag 20 augustus 2007 @ 22:45:
[...]


Klopt, zelf ook gebruikt, vergeten. Alleen heeft die geen opstartfuncties of profiles, je moet elke keer als je pc opnieuw opstarten die tool weer opnieuw instellen. Of heb ik het mis?
Ja en soms loopt het zaakje vast. :X Zet ik de core op 350Mhz ipv 500Mhz voor 2D (dan houdt die fan zn mond tenminste :P ) en dan poef zwart scherm. De ene keer werkt het wel en de andere keer niet.

Geluidswolk


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Ik kan met een CF setup in 2D gewoon dual screen gebruiken, maar zo snel ik een spel start (3D) gaat 1 monitor op stand-by toch? Ik kan nergens eigenlijk goed vinden wat nu precies met mijn dual monitor setup wel en niet met een CF setup nog kan...

Bioshock draait trouwens als een trein met de BugFix van ATi. Ik game op 1680x1050 met alles in de game aan en kom niet onder de 65fps. Het ziet er in mijn beleving beter uit dan op de X360 al krijg ik vrijdag mijn Bravia LCD en dan zal ik nog eens kijken of ik dan mijn mening moet bijstellen.

[Voor 38% gewijzigd door Apoca op 20-08-2007 23:30]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56

quote:
Mad_MaX_101 schreef op maandag 20 augustus 2007 @ 22:27:
Jammer alleen dat je in Unreal 3 engine games geen AA kunt gebruiken (iig niet in dx9), maar qua kartels valt het nog best mee + het ziet er voor de rest fantastisch uit. :9~
Tja, het is nu eenmaal niet anders aangezien er deferred shading gebruikt wordt. Dus DX10 en Shader Based AA Resolve zijn 'the way to go' in de Unreal Engine 3.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • WTM
  • Registratie: november 2004
  • Laatst online: 10:33
Heeft iemand al andere versies van de 2900 XT gezien? Enige wat ik kan vinden is de sapphire 2900 XT, revisie 2 met een andere koeler. (http://www.hardware.info/...ATI_2900_XT_bij_Sapphire/)

Jammer genoeg nog geen testen hoe deze versie presteert / verschillen met reference AMD. Ik heb 'm ook nog niet 'in het wild' gezien... Ik twijfel namelijk tussen de 2900XT en de 8800GTS 640mb (denk dat ik met beide prima kan gamen op 1680x1050...ben alleen 'bang' voor geluidsproductie van de 2900XT...Ik heb geen idee hoeveel noise mijn huidige nividia 7600GT (asus, standaard) produceert maar als dat vergelijkbaar is, dan is 't prima...Heb zelf lichte voorkeur voor de 2900XT, vooral omdat het in de toekomst wat meer potentieel heeft / dat verwacht ik..) Doelstelling is eigenlijk crysis full spelen op 1680x1050 dat kan met beide kaarten denk ik wel...

[Voor 9% gewijzigd door WTM op 21-08-2007 10:38]


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 06-04 17:22

Splinter Cell

AMD HD7850

quote:
Mad_MaX_101 schreef op maandag 20 augustus 2007 @ 22:27:
Nergens last van tbh, maar ik zal die fix wel even downloaden:P. Loopt trouwens erg vlot, met 16xAF, en alles op high (Dx9) haal ik zo'n 60-75fps met af en toe een dropje naar 50. _/-\o_

Jammer alleen dat je in Unreal 3 engine games geen AA kunt gebruiken (iig niet in dx9), maar qua kartels valt het nog best mee + het ziet er voor de rest fantastisch uit. :9~
Dan moet je de AA in CCC uitdoen, dan werkt de AA wel :). Is in Splinter Cell Double Agent ook zo.

//edit: net zelf getest, geen AA :(. Hoop dat een patch in de full een oplossing biedt.

[Voor 7% gewijzigd door Splinter Cell op 21-08-2007 13:22]


  • the_vee
  • Registratie: augustus 2007
  • Laatst online: 02-09-2007
Ik heb tijdens het spelen van Bioshock last van een groene, gele vlekken rechts en onder in beeld.

Hotfix nochtans geïnstalleerd...

hd2900xt

iemand help?

  • Ritchie
  • Registratie: juni 1999
  • Laatst online: 11:42
quote:
the_vee schreef op dinsdag 21 augustus 2007 @ 12:29:
Ik heb tijdens het spelen van Bioshock last van een groene, gele vlekken rechts en onder in beeld.

Hotfix nochtans geïnstalleerd...

hd2900xt

iemand help?
en als je Bioshock in DX9 speelt, heb je ze dan nog ook?

- NAC Breda -


  • the_vee
  • Registratie: augustus 2007
  • Laatst online: 02-09-2007
probleem opgelost ondertsn

heb de demo enkel nog maar in DX9 gespeeld en loopt als een trein: constant 60FPS

  • Bull
  • Registratie: december 2000
  • Laatst online: 06-04 22:59
Mooi boel is dat. Heb je een DX10 kaart, kun je niet in DX10 spelen 8)7

https://tweakers.net/gallery/18583/inventaris/


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
quote:
Bull schreef op dinsdag 21 augustus 2007 @ 14:57:
Mooi boel is dat. Heb je een DX10 kaart, kun je niet in DX10 spelen 8)7
Want?

Heb de patch geinstalleerd maar zie geen verschil , maar ik speel gewoon op dx10 hoor, draait perfect.

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI


  • edward2
  • Registratie: mei 2000
  • Laatst online: 06-04 21:17

edward2

Schieten op de beesten

Hoeveel fps hebben jullie X2900XT'ers in 1600x1200x16AF max (geen global lihting dus) zeg maar bij het begin van Rapture voor de ingang? en dan in DX10.

[Voor 5% gewijzigd door edward2 op 21-08-2007 16:44]

Maximum IQ


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
edward2 schreef op dinsdag 21 augustus 2007 @ 16:43:
Hoeveel fps hebben jullie X2900XT'ers in 1600x1200x16AF max (geen global lihting dus) zeg maar bij het begin van Rapture voor de ingang? en dan in DX10.
Ghehe misschien heb je je kaarten net te vroeg weg gedaan ? :D Mja dit is ook nog zonder AA. Dus het kan nog veranderen

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
quote:
the_vee schreef op dinsdag 21 augustus 2007 @ 12:29:
Ik heb tijdens het spelen van Bioshock last van een groene, gele vlekken rechts en onder in beeld.

Hotfix nochtans geïnstalleerd...

hd2900xt

iemand help?
Sry te snel gelezen...

[Voor 25% gewijzigd door movo. op 21-08-2007 17:12. Reden: Te snel gelezen...]


  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
Weer een update van mijn kant. Sommige dingen zijn al bekend, andere nog niet...

In het high-end segment komen er onder de 2900XT twee nieuwe kaarten. Dit zijn de 2900GT en de 2900PRO. De 2900XT is nog steeds niet goed leverbaar en er is zeker tot en met nov ook geen verbetering op komst (ga aub niet lopen zagen dat ze verkrijgbaar zijn, want 1 hier en 1 daar is anders dat 1K van die dingen geleverd krijgen. Officieel dus shortage!). Gezien de slechte leverbaarheid van de 2900XT weet ik eigenlijk gewoon zeker dat de 2900GT / PRO afgekeurde XT chips zijn. Waarom anders een tragere kaart in de markt zetten gebaseerd op de R600 core, als je de snellere waar meer marge op te vangen is niet te leveren is. De PRO ziet er voorals nog uit als een kansloos product met een 3d06 score tussen de 8k-9k (2900XT=12.5k en 2600XT =6.5k) en een suggested retail prijs van 299$. Dus tenzij ATI iets doet aan de enduser prijs betwijfel ik of iemand er blij van gaat worden. UVD not included :) GT erg weinig van bekend, deze is wel voor channel.

De opvolger van de R600 zal de R680 zijn welke in Q1 2008 komt, hier is nog weinig over bekend enkel dat deze DX10.1 en PCI-E 2.0 zal supporten met een 800+ Mhz klok gecombineerd met DDR3 512MB / 1GB. Display port zal support worden en de chip wordt op een kleiner procede gebakken. Uiteraard ook support voor de next gen Crossfire. De launch van de R680 zal in Jan wellicht plaatsvinden en heeft... UVD.

In het performance segment van de RV570 (1950PRO/GT) is er nog steeds vervanger, dit zou de 256bit RV670 worden in Q3 echter is deze vertraagd tot B/2008. Voordat de RV670 komt kunnen we nog een 2600 Gemini verwachten, de bekende dual kaart echter zie ik geen een vendor die deze al op de markt heeft en veel volume zie ik ook niet verkocht worden.

RV670 (segment 1950PRO)
- 55nm TSMC
- 320 stream processors
- Samples Sept / Mp Dec / gerucht gaat over paper launch in Nov.
- Single slot
- DirectX 10.1, SM 4.1, PCI-E 2.0
- HDMI / HDCP / Audio / UVD
- Next gen crossfire
2 versies:
1) Gladiator 825Mhz / 1.2Ghz, DDR4 512
2) Revival 750Mhz / 900Mhz, DDR3 256 / 512

Dan staat in het mainstream segment de vervangen van de 2600 serie alweer klaar in Jan 2008 en dit is de RV635. Samples kunnen we in Oct verwachten. Zelfde als de RV670 zeg maar, 55nm, DX10.1, next gen crossfire, PCI-E 2.0 en alles dat een product refresh met zich meebrengt.

Entry level wordt het prijs segment van de 2400 vervangen door de RV620. Ik verwacht dat de 2400PRO dan zal afzakken naar het laatste segment (X1050 / X1550). De RV620 heeft ook alles van de nieuwe generatie zoals hierboven vermeld. De kaart is 64b en support 128/256MB DDR2 en DDR3 configuraties. Kloksnelheden boeien niet zo maar enkel de PRO versie support HW CF, de rest SW CF. Er komen 4 standaard versies, en een PRO versie.

Een driver scheduele voor support van nieuwe kaarten;
naam / driver versie / beta / release
2600 XT Gemini 8.40 Aug 1
2600 PRO AGP 8.41.1 Aug 22 Sept 5
2400 PRO AGP 8.41.3 Sept 5 Oct 2
2600XT AGP 8.42 Sept 5 Oct 2
2400 PRO PCI 8.42 Sept 5 Oct 2

Een driver schedule voor next gen CF features;
naam / driver versie / beta / release
Single Connector 8.41 Aug Sept
Software CrossFire 8.42 Sept Oct
Quad/Tripod 8.44 (DX10) 8.46 (DX9) Nov Dec
Extended Desktop 8.45 (Vista only, 2 displays) 8.47 (XP) Dec Jan
CrossFire Overdrive 8.43 Oct Oct

[Voor 47% gewijzigd door The Source op 21-08-2007 20:09]

quote:
The Source schreef op dinsdag 21 augustus 2007 @ 19:01:
De PRO ziet er voorals nog uit als een kansloos product met een 3d06 score tussen de 8k-9k (2900XT=12.5k en 2600XT =6.5k) en een suggested retail prijs van 299$. Dus tenzij ATI iets doet aan de enduser prijs betwijfel ik of iemand er blij van gaat worden.
De G92 zit rond de 9K. De 2600XT zit eerder rond de 5200 zit in 3DM06 dan 6500.... Weet je zeker dat die 6500 niet de score is van de HD2900GT?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
Maar wat is dan die 1,5 keer betere kaart die Nvidia "schijnt" te gaan uitbrengen in November? G90 ofzo, ik dacht dat dat de G92 was.

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
heel, heel raar dat de R670 55nm is, ik was zeker dat hij 65nm was (althans op de oude roadmaps)

  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
quote:
CJ schreef op dinsdag 21 augustus 2007 @ 19:21:
[...]


De G92 zit rond de 9K. De 2600XT zit eerder rond de 5200 zit in 3DM06 dan 6500.... Weet je zeker dat die 6500 niet de score is van de HD2900GT?
2600XT DDR4 0.9ns + OC versie :)
Deze is eigenlijk ook geen 6500 maar 6329.. (10837 in 3dm05)
quote:
oeLangOetan schreef op dinsdag 21 augustus 2007 @ 19:33:
heel, heel raar dat de R670 55nm is, ik was zeker dat hij 65nm was (althans op de oude roadmaps)
RV670 (vergeet de V niet) staat volgens mij al sinds Q1 2007 op 55nm.
Anway, een leuke hint voor de performance is misschien dit;
quote:
R600 performance, better thermal & power

[Voor 45% gewijzigd door The Source op 21-08-2007 19:52]


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
hm, waar komt de R700 als we midden 2009 al een fusion processor (R8xx?) moeten hebben

  • edward2
  • Registratie: mei 2000
  • Laatst online: 06-04 21:17

edward2

Schieten op de beesten

quote:
Astennu schreef op dinsdag 21 augustus 2007 @ 16:50:
[...]


Ghehe misschien heb je je kaarten net te vroeg weg gedaan ? :D Mja dit is ook nog zonder AA. Dus het kan nog veranderen
Nee, vind het wel best zo voorlopig. Heb nog een aantal andere games waarin de 8800 uitblinkt.

offtopic:
Het is niet te geloven dat we nog steeds zo worstelen in moderne PC-games met zaken zoals AA, refreshrates en blurry textures. Het wordt maar niet beter, bij elke nieuwe dx-versie moeten we weer die elementaire zaken missen :(

Maximum IQ


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 06-04 17:22

Splinter Cell

AMD HD7850

Allemaal wel leuk en aardig, dat met Bioshock, maar de AA staat gewoon wel uit he. Vandaar dat we ook gewoon hoge FPS halen. Ben benieuwd, wanneer we met AA kunnen spelen of er wat veranderd. Je kunt wel de AA in de CCC aan/uitzetten, maar dat heeft toch een invloed op het spel.

Hoop dat een driver/patch een oplossing biedt :).

En het verschil tussen DX9 & DX10 is gewoon waardeloos te noemen, als je de screens ziet.

  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
quote:
edward2 schreef op dinsdag 21 augustus 2007 @ 20:16:
[...]


Nee, vind het wel best zo voorlopig. Heb nog een aantal andere games waarin de 8800 uitblinkt.

[ot]Het is niet te geloven dat we nog steeds zo worstelen in moderne PC-games met zaken zoals AA, refreshrates en blurry textures. Het wordt maar niet beter, bij elke nieuwe dx-versie moeten we weer die elementaire zaken missen :( [/ot]
Ja dat vind ik nou ook, net BioShock demo gespeeld, loopt best lekker hier (X1950) maar sommige textures en/of effecten zijn blurry en sommige effecten een beetje onrealistisch, + als je dan die onderwater-stad zie dan moet je toch je ogen uitkijken imo, maar zo spectaculair zag het er nou ook niet uit, maarja de gameplay is super.

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

De Demo draait als een trein hier 1900 1200, alles max en DX10 aan. Zelfs in het begin met al dat vuur enzo heb ik geen drops gezien. Aangezien dit de Unreal engine is neem ik aan dat we vergelijkbare resultaten daar zien straks? :)
quote:
RV670 (segment 1950PRO)
- 55nm TSMC
- 320 stream processors
- Samples Sept / Mp Dec / gerucht gaat over paper launch in Nov.
- Single slot
- DirectX 10.1, SM 4.1, PCI-E 2.0
- HDMI / HDCP / Audio / UVD
- Next gen crossfire
2 versies:
1) Gladiator 825Mhz / 1.2Ghz, DDR4 512
2) Revival 750Mhz / 900Mhz, DDR3 256 / 512
Sneller geklokt dan de R600 en net zoveel streamprocessors, waarom is dit dan een RV chip? heeft deze geen 512bit bus?

Geluidswolk


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Wat moet ik eigenlijk onder " Next Gen Crossfire & Display Port" verstaan?

[Voor 11% gewijzigd door Apoca op 21-08-2007 21:47]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
quote:
Apoca schreef op dinsdag 21 augustus 2007 @ 21:45:
Wat moet ik eigenlijk onder " Next Gen Crossfire & Display Port" verstaan?
Displayport is opvolger van DVI, zoek maar ff op internet. nVidia zal dit ook supporten, net zoals Dell TFT, etc, etc.

Next Gen Crossfire heb ik zelf verzonnen, is geen officiele titel voor, maar is o.a. CF voor 3 en 4 vga kaarten, en dan nog een heleboel improvements, zie driver schedule waar enkel hints staan.

  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
The Source schreef op dinsdag 21 augustus 2007 @ 21:59:
[...]

Next Gen Crossfire heb ik zelf verzonnen, is geen officiele titel voor, maar is o.a. CF voor 3 en 4 vga kaarten, en dan nog een heleboel improvements, zie driver schedule waar enkel hints staan.
Tri-Fire :D Was laatst een demo van AMD met een Phenom X4 en HD2900XT Tri-Fire. Je zou dat maar hebben 8)

  • Banshee
  • Registratie: mei 2002
  • Laatst online: 06-04 07:00
Waarom lopen er zoveel te miepen dat de 2900XT niet verkrijgbaar is?
Van andere merken weet ik het niet, maar zowel de Sapphire als de Club3D liggen gewoon voorradig, ook nog in redelijke aantallen. Zie http://www.alternate.nl/h...at1=009&cat2=255&cat3=000

  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Och ja over de Displayport daar heb ik een tijdje geleden al eens iets over gelezen. Ziet der zeker leuk uit, al hoop ik niet dat we daar zo een rev. wedloop mee gaan krijgen als met HDMI bijvoorbeeld. Het is wel elke keer weer beter, maar ja wel een dubbel gevoel zeg maar..

Ben benieuwd in ieder geval :)

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56

quote:
Krizzie schreef op dinsdag 21 augustus 2007 @ 21:31:
Sneller geklokt dan de R600 en net zoveel streamprocessors, waarom is dit dan een RV chip? heeft deze geen 512bit bus?
Nope. Deze heeft een 256-bit memory bus. Als die "R600 performance" klopt, dan hebben ze dus wel meer getweakt aan deze kaart anders redt je die performance niet met dezelfde aantal streamprocessors... en dan toch nog lager stroomverbruik en lagere GPU temps.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

Heb net Bioshock ook even gedraaid, wat een game!
Draait er goed!
80-140 fps (DX9), 1600x1200, alles max , geen AA, 16xAF

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
CJ schreef op dinsdag 21 augustus 2007 @ 22:40:
Nope. Deze heeft een 256-bit memory bus. Als die "R600 performance" klopt, dan hebben ze dus wel meer getweakt aan deze kaart anders redt je die performance niet met dezelfde aantal streamprocessors... en dan toch nog lager stroomverbruik en lagere GPU temps.
Topmodel RV670 heeft volgens The Source wel een 825mhz core en 2.4Ghz GDDR4 (i.t.t. 740mhz core, 1.65Ghz GDDR3 voor R600). Het kan best zijn dat dit voldoende goed maakt i.v.m. het bandwithverschil, want de R600 lijkt zijn 512bits busbandbreedte momenteel toch nog niet optimaal te benutten.
Zeker als ze hardware MSAA resolve in de RV670 gestopt hebben kan het een erg leuk midrangekaartje gaan worden :)

Overigens wel vervelend dat de R680 weer vertraagd is... hopelijk gaan we niet toe naar eenzelfde situatie als met R600, en een gap van bijna 6 maanden tussen de nieuwe-generatie kaarten van ATi en nV.

[Voor 11% gewijzigd door Cheetah op 22-08-2007 08:19]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 05-04 19:55

Pubbert

random gestoord

Volgens mij valt het wel mee met de leverbaarheid The Source, als ik bij 2 van onze leveranciers kijk, zie ik zelfs 317! Sapphire's liggen bij de 1, de ander heeft er nog 49 liggen. Asus is maar bij 1 leverbaar, en die heeft er nu 84 liggen, HIS 129, bij de andere 39. Alleen Club3D staat bij 1tje op 0, de ander heeft er 17.

Dit is veel meer als de 8800Ultras of GTXen bij onze leveranciers (GTS'sen hebben ze wel voldoende)

[Voor 13% gewijzigd door Pubbert op 22-08-2007 08:54]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • WTM
  • Registratie: november 2004
  • Laatst online: 10:33
Hmm, enig idee of daar ook al de 'nieuwe 2900XT' Sapphire's met andere koeler tussen zitten?

zie ook:
http://www.hardware.info/...ATI_2900_XT_bij_Sapphire/

Verder heeft iemand een idee hoe de presetaties verschillen tussen deze versie en het originele references design?

(dit was overigens min of meer een subtiel kickje van mijn vraag eerder in dit topic, waar geen reply op kwam sinds het biosshock verhaal O-) )

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
Cheetah schreef op woensdag 22 augustus 2007 @ 08:16:
[...]
Topmodel RV670 heeft volgens The Source wel een 825mhz core en 2.4Ghz GDDR4 (i.t.t. 740mhz core, 1.65Ghz GDDR3 voor R600). Het kan best zijn dat dit voldoende goed maakt i.v.m. het bandwithverschil, want de R600 lijkt zijn 512bits busbandbreedte momenteel toch nog niet optimaal te benutten.
Zeker als ze hardware MSAA resolve in de RV670 gestopt hebben kan het een erg leuk midrangekaartje gaan worden :)

Overigens wel vervelend dat de R680 weer vertraagd is... hopelijk gaan we niet toe naar eenzelfde situatie als met R600, en een gap van bijna 6 maanden tussen de nieuwe-generatie kaarten van ATi en nV.
Mee eens. MSAA resolve lijkt me sterk hoor. Het zou me niet verbazen als nVidia dit er ook uit haald in de G92.

RV670 (segment 1950PRO)
- 55nm TSMC
- 320 stream processors
- Samples Sept / Mp Dec / gerucht gaat over paper launch in Nov.
- Single slot
- DirectX 10.1, SM 4.1, PCI-E 2.0
- HDMI / HDCP / Audio / UVD
- Next gen crossfire
2 versies:
1) Gladiator 825Mhz / 1.2Ghz, DDR4 512
2) Revival 750Mhz / 900Mhz, DDR3 256 / 512

Wordt dus een erg snel kaartje. Wat je ook al zij over die 512 bit bus van de R600. Erg leuk maar hij benut het gewoon totaal niet. En dat die R680 zo laat moet zijn. Dan mag ik hopen dat er veel meer verandert wordt dan alleen die texture units. Ook gezien de specs van de RV670. En hoe zit het met die nVidia kaart ? die G92 zou 1,5x zo snel zijn als de 8800 GTX. Of is dit de G90 ? En ik neem aan dat die wel weer eerder zal komen dan de ATi kaart. Dus als ATi slim is schieten ze op met die RV670 en R680. Niet elke keer te laat zijn zodat nVidia een kaart eerder in de markt heeft en dus veel meer verkoopt. Die RV670 kan een succes worden als i een goede prijs van onder de 300 euro krijgt. Maar dan moeten ze wel snel op de markt komen tegelijk met de nieuwe range van nVidia of zelfs eerder. Maar ik wil er wel twee in CF gaan proberen. En eindelijk CF overdrive klinkt ook goed. Nu maar hopen dat nVidia niet al te snel met de G92 op de proppen komt en dat ATi de kaart in december in de schappen heeft liggen. Maar met een MP van DEC zal dat wel weer niet :'(

En is het trouwens zo makkelijk om die upgrade te doen naar DX10.1 ? want de RV670 heeft het en de nieuwe RV635 en RV620 + R680 ook allemaal.

[Voor 3% gewijzigd door Astennu op 22-08-2007 09:17]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • WoutF
  • Registratie: maart 2000
  • Laatst online: 13:55

WoutF

Hoofdredacteur

Afwezig tot 16 maart

quote:
Astennu schreef op woensdag 22 augustus 2007 @ 09:16: Dus als ATi slim is schieten ze op met die RV670 en R680. Niet elke keer te laat zijn zodat nVidia een kaart eerder in de markt heeft en dus veel meer verkoopt.
Denk je dat ze bij ATI nu met twee vingers in de neus aan het werk zijn?

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
WoutF schreef op woensdag 22 augustus 2007 @ 09:51:
[...]


Denk je dat ze bij ATI nu met twee vingers in de neus aan het werk zijn?
Ghehe eerlijk gezegd vraag me me de laatste tijd echt af wat er allemaal wel niet fout gaat bij AMD. Want R600 was te laat Barcelona ook het is gewoon een zooitje en op deze manier is kunnen ze moeilijk concurreren want er is grote vraag maar als de performance en de leverbaarheid niet goed is gaan die mensen naar de concurrent. Dat zie je met de C2D en de G80 gebeuren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • hjs
  • Registratie: juni 1999
  • Niet online
Tja, ga maar eens op zoek naar een Mobility Radeon HD 2600 XT toch Frank :+
Dan merk je dat AMD daar ook een probleem heeft ;)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Inderdaad bleh.... 8)7 Gamers laptops met HD2600 Pro kaartjes en DDR II. Net als die 8600 GT.

De HD2600 XT en de 8700M GT zijn de top maar na genoeg niet te vinden. Ook niet in gamers laptops. Laat staan met een AMD cpu.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • _Dune_
  • Registratie: september 2003
  • Laatst online: 14:05

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Heeft iemand al eens een AGP versie van de HD2400 of HD2600 serie zien opduiken? Een dergelijk kaartje lijkt mij namelijk wel handig in mijn MediaCenter gebaseerd op een AMD Athlon XP 2600+.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


  • G_M_C
  • Registratie: december 2003
  • Laatst online: 07:55
quote:
_Dune_ schreef op woensdag 22 augustus 2007 @ 13:03:
Heeft iemand al eens een AGP versie van de HD2400 of HD2600 serie zien opduiken? Een dergelijk kaartje lijkt mij namelijk wel handig in mijn MediaCenter gebaseerd op een AMD Athlon XP 2600+.
+1

Daar zit ik ook op te wachten; Maar dan moet ik ook nog goede drivers/programmatuur en uitleg vinden over hoe je X264 in MKV afspeelt !
quote:
Astennu schreef op woensdag 22 augustus 2007 @ 10:55:
[...]


Ghehe eerlijk gezegd vraag me me de laatste tijd echt af wat er allemaal wel niet fout gaat bij AMD. Want R600 was te laat Barcelona ook het is gewoon een zooitje en op deze manier is kunnen ze moeilijk concurreren want er is grote vraag maar als de performance en de leverbaarheid niet goed is gaan die mensen naar de concurrent. Dat zie je met de C2D en de G80 gebeuren.
AMD mag dan wel steeds 'laat' zijn, maar als je even de boel opsplitst in de Graphics/Chipset Division (voormalig ATi) en de CPU Division, dan is het wel de Graphics & Chipset Division die nu precies on target zit en z'n doelen haalt, terwijl het de CPU Division is die verlies leidt. Alleen zie je alleen maar de eindcijfers en de vertraagde releasedata. Soms vraag ik me af of het wel zo verstandig was om nu al te fuseren.

Overigens iemand vroeg wanneer R700 (Wekiva) uit kwam. Die stond volgens de laatste Analyst Day op halverwege 2008. Dus in Q1 komt R680. En in Q2/Q3 komt dan R700.

[Voor 4% gewijzigd door CJ op 22-08-2007 14:17]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Nee okeey CJ daar heb je wel gelijk in maar toch. Nu maar hopen dat ze vanaf nu weer scherp zijn met de release dates. En het AMD CPU gedeelte mag wel wat beter gaan presteren. Ik vind het gewoon jammer dat ze het zo moeilijk hebben.

Maar die RV670 lijkt me wel wat :P

En dit is wat ik dus bedoel met op tijd zijn van ATi:
quote:
Games Convention 07:To kill the old ATI mith


We have confirmed that Nvidia is planning on announcing the next generation graphic card and that there is a big chance that they will call it Geforce 9800. This is the current plan and the card should come in November time.


We know that the card will be faster than anything before and this is not a surprise for us and Nvidia will one more raise the performance bars to the next level.

We know that the card supports PCIe 2.0 and that everything is going according to a schedule to meet the November retail launch.
De Geforce 9800 ghehe. Ben benieuwd of die net zo'n succes wordt als de Radeon 9800.
quote:
RV630 / RV615 are PCIe 2.0 compatible

Games Convention 07: A bios update

Sources close to AMD have confirmed that ATI’s Radeon HD 2600 and 2400 cards are PCIe 2.0compatible and that even R600, Radeon HD 2900XT is a PCIe 2.0 compatible card.


All they need to do is to make the Bios update and all the sudden these cards will become PCIe 2.0 compatible.
Obviously as its not necessary to have them AMD didn’t make much noise about it but this is something to come.

We don’t think that PCIe 2.0 will bring a lot of performance but it will be a cool feature to get on the box.
Dit komt trouwens allemaal van Fudzilla.

[Voor 82% gewijzigd door Astennu op 22-08-2007 14:54]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • BlackWolf666
  • Registratie: november 2006
  • Laatst online: 22-11-2019

BlackWolf666

Dawn's Moonlight

@ Bull
quote:
Samples van de RV670 worden volgende maand verwacht, de releasedatum staat momenteel gepland voor eind 2007/begin 2008. De Radeon HD 2950 Pro moet tussen de $199 en $249 gaan kosten.
Als de prijs zo laag is haal ik dat ding...

Specs


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
Nja dit is gewoon wat The Source ook zij. Ik ben benieuwd wanneer i uit is. Ik denk dat een RV670 Gemini het nog wel aardig zou toen VS een G92. ( mits de specs van de RV670 kloppen en die dus net zo snel is als een HD2900 XT )
quote:
Games Convention 07: Multiplies OpenGL perfornance


AMD has a new driver that will significanly increase the performance of the FireGL cards that they just launched, hased on HD 2000 generation.


The new driver will multiply the performance in a few application by a few times and we learned that Nvidia Quadro team was not happy with what have they seen at Siggraph conference.


This might be the new dawn for the FireGL and the soon to come R600 based FireGL with 512, 1GB and 2 GB will definitely boost the sales and offer some serious compatition.

We dont know the release date of the new driver but it should be ready by latest October, at least we beleive so.

[Voor 3% gewijzigd door Astennu op 22-08-2007 15:28]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

quote:
En Hardware Info heeft het weer van VR-Zone en gister heb ik met Terence (Visionary) van VR-Zone zitten kletsen, o.a. over G92/G96/G98 en over de info die The Source postte in dit topic + nog wat extraatjes (waaronder dus de naam HD2950Pro die The Source niet noemde). En zie daar.... het nieuws verspreid zich snel en we zijn weer terug bij af.... Het wordt in dit topic genoemd als nieuwsberichtje, terwijl dit topic de oorsprong is van het nieuwsbericht. Haha. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

Is idd precies hetzelfde bericht... VR zone noemt zelfs de bron: CJ, die 't op zijn beurt weer van The Source heeft... de hardwarewereld is kleiner dan je denkt af en toe :P
quote:
Astennu schreef op woensdag 22 augustus 2007 @ 09:16:
MSAA resolve lijkt me sterk hoor. Het zou me niet verbazen als nVidia dit er ook uit haald in de G92.
Eerlijk gezegd betwijfel ik dat... er zijn nog teveel games die goed gebruik maken van een hardware MSAA resolve, en veel van deze games bevinden zich in de testsuite van benchmarkers die allemaal top resultaten willen zien met max eye-candy (dus: max AA/AF).
Als nV een kaart wil publishen die (onder de meeste omstandigheden) 1,5 tot 2x zo goed als de 8800GTX presteert zullen ze hardware MSAA er waarschijnlijk wel in laten. Ik zou ze erg dom vinden als ze hun neus op dezelfde plek stoten als ATi gedaan heeft ;)

[Voor 67% gewijzigd door Cheetah op 22-08-2007 16:35]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
Our good friend CJ brings us more information on the upcoming RV670 GPU from AMD where it will officially replace the Radeon X1950 Pro. Do check out our discrete graphics roadmap. RV670 is projected to run as fast as the current R600 but with lower GPU temps and TDP. AMD calls RV670 a Gaming Applications Processor which bridges 3D HD gap. RV670 is 55nm based, has 320 stream processors and a 256-bit memory interface.

There will be 2 versions of RV670; Gladiator and Revival. Gladiator is clocked at 825MHz core and 1.2GHz memory while Revival is clocked at 750MHz core and 900MHz memory. Gladiator has 512MB of GDDR4 memory and Revival comes with either 256MB or 512MB of GDDR3 memory. These cards will be single slot and is fully DX10.1/SM4.1 compliant. It supports PCI Express 2.0, UVD as well as the next generation Crossfire technology.

RV670 is scheduled for sampling in September, MP in December and expect it to launch in end 2007 or early 2008. RV670 will be officially known as Radeon HD 2950 Pro when launch and will probably priced between $199 to $249.
Je bent beroemt :D

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Ze hadden ook Hardspell kunnen quoten, want daar was het nieuws al verspreid voordat The Source het hier plaatste. :+

En kijk eens wat Chiphell nu heeft:

http://img507.imageshack.us/img507/4599/2007082235a0bdaaa1874c7le2.jpg

;)

[Voor 35% gewijzigd door CJ op 22-08-2007 16:49]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • SuX DeLuXe
  • Registratie: oktober 2005
  • Laatst online: 12-04-2019
zo'n 2950 pro zou echt geweldig zijn, als het stroomverbruik tenminste niet boven de 8800 GTS uit zou komen....
en dan zouden ze deze ook in november moeten releasen anders komt het toch weer te laat ben ik bang.

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

Heeft de GTS geen dualslot cooler? Als deze het met singleslot red dan neem ik aan dat hij eronder komt. :)

Geluidswolk


  • Aries.Mu
  • Registratie: maart 2004
  • Laatst online: 07-04 11:57
(jarig!)
quote:
200euro? Verkocht!!!

Als dit weer een x1950pro stijl kaart word, dan zal ati weer mooie cijfers tevoorschijn toveren.
Waarschijnlijk komt daar dan opnieuw een GT versie van die ook weer mooi zal presteren.

DX 10.1, UVD , SM 4.1, single slot cooler en 55nm? Lijkt me een betere deal dan een HD2900XT _/-\o_

iPhone XR


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 07-04 22:18

XanderDrake

Genetics is the key

Oeh, die Radeon HD 2950 Pro vind ik als groenerik toch stiekum een beetje leuk :9

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

Als de 2900XT straks ineens al die leuke extra's krijgt met een bios update ben ik ook tevreden hoor. ;)

Geluidswolk


  • harrald
  • Registratie: september 2005
  • Laatst online: 24-12-2019
quote:
Krizzie schreef op woensdag 22 augustus 2007 @ 19:32:
Als de 2900XT straks ineens al die leuke extra's krijgt met een bios update ben ik ook tevreden hoor. ;)
zou dat serieus kunnen? :9~
ben echt super blij met mijn hd2900xt maar hij kan natuurlijk altijd beter :+

  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 06-04 17:22

Splinter Cell

AMD HD7850

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True