Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 71 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 4.936 views sinds 30-01-2008
http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
 

Direct door naar de lijst met ATi Radeon HD 2000 reviews? Klik HIER

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu onderdeel is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 19 Oktober 2007 - FAQ geupdate over AA
  • 10 Oktober 2007 - Launch Date RV670 Toegevoegd ;)
  • 11 September 2007 - Game.amd.com toegevoegd en Catalyst links gewijzigd
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://www.guildwarsarena.net/ati/atitopic-topicregels.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://www.guildwarsarena.net/ati/atitopic-topicgeschiedenis.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



http://www.guildwarsarena.net/ati/atitopic-topicnavigatie.jpg
http://www.guildwarsarena.net/ati/atitopic-huidigegpus.jpg
ATi's huidige line-up is bestaat uit de HD-serie (DX10) en X1K-serie (DX9). De HD-serie bestaat uit:
  • HD2900XT - R600 (PCIe)
  • HD2600Pro, XT & Gemini - RV630 (PCIe & AGP)
  • HD2400Pro & XT - RV610 (PCIe & AGP)
Wil je meer weten over de R5x0 generatie dan kan je kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post. Post 65 is de laatste post waar de X1K vermeldt wordt in de first post.
http://www.guildwarsarena.net/ati/atitopic-atidivision.jpg

Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
http://www.guildwarsarena.net/ati/atitopic-r600architectuur.jpg

De Radeon HD2900 serie van AMD is al in ontwikkeling geweest sinds 2001. In de loop der jaren is er veel veranderd aan de architectuur. De volgende punten zijn kenmerkend voor de Radeon HD2900. De midrange en low-end kaarten zijn natuurlijk naar beneden geschaald wat betreft features:

•Superscalar unified shader architecture
•320 stream processing units
•512-bit 8-channel memory interface
•Comprehensive DirectX® 10 support
•Integrated CrossFire™
•High-speed 128-bit HDR (High Dynamic Range) rendering
•Up to 24x Custom Filter Anti-Aliasing
•ATI Avivo™ HD video and display technology
•Built-in HDMI and 5.1 surround audio
•Dynamic geometry acceleration
•Game physics processing capability
•Free “Black Box” game bundle from Valve Corporation

Over het stroomverbruik is het volgende bekend:
Singlecard: Max 225W default clockspeed (Overdrive >225W). Aanbevolen PSU: 500W
Crossfire setup aanbevolen PSU: 750W

Zoals je kan zien in de specs is de R600 dus geen vector machine zoals voorheen gedacht (Vec4 + Scalar), maar een scalar architecture net zoals de G80. Het verschil zit hem echter in de implementatie. Daarnaast biedt de R600 volledige ondersteuning voor HD Audio en is daarmee dus zowel een GPU als SPU.

Stream Processors
De term stream processors voerde AMD in met de FireStream GPUs die gericht waren op General Purpose applicaties. nVidia gebruikte de term daarna ook voor de shaderunits in de G80. Daar houdt echter de vergelijking op.

In de G80 was elke Stream Processor (SP) een scalar, single component unit, die gekoppeld werd aan een special function unit (SFU). Dat betekent dat elke SP in nVidia's G80 in staat is om een enkele instructie per klokslag af te handelen, wat een totaal van 128 instructies per klokslag oplevert.

AMD heeft een andere aanpak gekozen voor de HD 2000 serie. Zij hebben gekozen voor een "Super Scalar Architecture". In plaat van het uitvoeren van een enkele instructie per klokslag, kan elk van de 64 shader units in de R600 er 5 uitvoeren.

http://www.elitebastards.com/hanners/ati/r600/sp.jpg
Opbouw van een shaderunit in de R600: 5 stream processors per unit


Op het plaatje hierboven zie je de opbouw van een shader unit in de R600. Deze bestaat uit 5 streamprocessors, waarvan er eentje een dikke is. Dit is een special function unit (SFU) die ook nog andere taken voor zijn rekening neemt zoals SIN, COS en EXP. Daarnaast beschikt elke shaderunit over een aparte branching unit.

De streamprocessors zijn geplaatst in een SIMD (Single Instruction, Multiple Data) arrays van zestien units. Elke array heeft daardoor dus tachtig Stream Processing units. De R600 heeft vier arrays wat in totaal dus 320 shader units oplevert die geschikt zijn voor het bewerken van pixel, vertex en geometry data.

Vergelijken we het Super Scalar ontwerp met de Scalar Architecture van de G80, dan is het duidelijk waar de voordelen liggen van AMDs architectuur, dankzij de mogelijkheid om met meerdere instructies per klokslag te werken in tegenstelling tot de enkele instructie per klokslag bij de G80. Er is echter één grote maar.... Het is bij de G80 vrij gemakkelijk om alle SPs gevoed te houden me data, terwijl het bij de R600 moeilijker is om de complexere SPs bezig te houden en efficient te laten werken. Dus hoe probeert AMD haar architectuur in te richten voor een maximale efficientie?

AMD introduceerde met de X1K serie de "Ultra Threaded Dispatch Processor". Met de HD2K serie heeft AMD deze UTDP flink opgepimpt en veel dingen overgenomen uit de Xbox360 GPU. Ten eerste beschikt de HD2K serie over dedicated instruction cache, wat het theoretisch mogelijk maakt om shaders met oneindige lengte te verwerken. Daarnaast is er een gelijksoortige cache ingebakken waar de GPU een onbeperkt aantal constanten kan opslaan. Was de X1K in staat om 512 threads tegelijkertijd 'in flight' te houden, met de HD2K serie is dit aantal nog verder omhoog gebracht. Honderden threads kunnen tegelijkertijd 'in flight' gehouden worden die er voor zorgen dat de SIMD arrays nooit uit hun neus hoeven te vreten. Per array zijn er twee "thread arbiters", een soort scheidsrechters, die aangeven welke threads door welke SP verwerkt moeten worden. Als een thread op data wacht, dan kan het 'in flight' blijven (deze wordt als het ware op pauze gezet) en vervangen worden door een andere thread die wel klaar is om bewerkt te worden door de SP. Als de thread die 'in flight' is klaar is om bewerkt te worden, kan de SP het werk hieraan hervatten. Hierdoor blijven de SPs dus gevoed met data.

AMD biedt dus wel meer processing units aan in vergelijking met de G80 van nVidia, maar de SPs van de G80 werken wel op meer dan de dubbele kloksnelheid van de core. Daarnaast is het moeilijker om alle SPs gevoed te houden in de R600 en zal dit voornamelijk aan het driverteam zijn om dit voor elkaar te krijgen. Alleen de tijd en driververbeteringen zullen ons leren hoeveel efficientie AMD uit hun super scalar architectuur kan halen. Maar gezien het feit dat ze veel ervaring hebben met Xenos, lijkt het er op dat AMD hier geen problemen mee zal krijgen.

http://www.guildwarsarena.net/ati/atitopic-iq.jpg

De Radeon HD serie zal ook op het gebied van Image Quality weer een sprong voorwaarts zijn ten opzichte van de Radeon X1K serie. De Anisotropic Filtering algoritmes zijn verbeterd en ook zijn er een aantal nieuwe Anti Aliasing Modi te vinden in de nieuwe reeks. Daarnaast maakt de HD serie ook gebruik van "Bicubic Texture Filtering", dit is een verbeterde variant van Bilinear Texture Filtering en geeft een scherper beeld zonder artefacts. Veel techies hadden de optie van Bi-Cubic Texture Filtering als ongeloofwaardig afgeschreven, maar dit is toch door AMD geimplementeerd en is met name bedoeld voor bepaalde OS Font features. Er is echter 1 maar. Bicubic Filtering functionaliteit wordt niet blootgesteld. DX houdt het op dit moment tegen, maar het zal wel mogelijk zijn dat devs deze functionaliteit via OGL aan spreken.

Anisotropic Filtering
Bracht de X1K serie een speciale High Quality AF mode die je zelf aan moest zetten in de drivers, in de HD serie is de High Quality AF mode de standaard AF mode. Dus vanaf de HD serie kunnen alle Radeons standaard genieten van bijna hoekonafhankelijke AF zonder zich zorgen te maken over een grote performancedrop. De filteringmodes zijn geoptimaliseerd om te kunnen concurreren met de zeer sterke high quality AF modi van de G80.

Anti Aliasing
Oftewel het weg werken van kartelrandjes. Ook dit is sterk verbeterd en wel op 2 gebieden:
  • 8x MSAA
  • Custom Filter AA
Naast de standaard 2x, 4x en 6x MSAA introduceert AMD nu ook de 8x MSAA instelling. De 6x MSAA mode is verdwenen op de HD2K serie. Een groot verschil met de G80 serie van nVidia is dat AMD gebruik maakt van programmeerbare AA samples. Dit zorgt voor een enorme flexibiliteit en kan daardoor voor een veel betere beeldkwaliteit zorgen. Via driverupdates is het mogelijk om nieuwe sample patronen en resolve filters te programmeren in de HD kaarten. Na het downloaden van nieuwe filters kan je deze selecteren via het Catalyst Control Center.

In de toekomst zullen developers straks zelf hun eigen AA filters/patronen kunnen programmeren in hun games. Hierdoor kunnen ze zelf kiezen wat het beste bij hun game past. Op dit moment ondersteunt DX10 dit nog niet, maar dit zal in een toekomstige versie van DX10 worden blootgesteld aan developers (waarschijnlijk in DX10.1). Maar met de HD serie brengt AMD deze toekomstige functionaliteit al naar jou toe zodat je er vandaag al van kunt genieten!

Custom Filter AA is het AA wapen dat AMD in de strijd gooit tegen Coverage Sample AA (CSAA) van de G80 serie van nVidia. CFAA werkt als een post-processing filter op elke gerenderde frame. Hier zal ongetwijfeld direct de vergelijking met Quincunx AA van nVidia worden getrokken dat ook een post-processing filter was. In het geval van Quincunx AA trad er vaak een soort van waas over de lijnen op, waardoor veel mensen dit gekscherend "blur AA" noemden. Ongetwijfeld zullen veel 'critici' hier op gaan letten of ze dit ook bij CFAA gaan zien.

AMD lanceert initieel 6 nieuwe CFAA modes:
  • 4x CFAA (2x MSAA + Narrow Tent)
  • 6x CFAA (2x MSAA + Wide Tent of 4x MSAA + Narrow Tent)
  • 8x CFAA (4x MSAA + Wide Tent)
  • 12x CFAA (8x MSAA + Narrow Tent of 4x MSAA + Edge Detect)
  • 16x CFAA (8x MSAA + Wide Tent)
  • 24x CFAA (8x MSAA + Edge Detect)
CFAA biedt een aantal voordelen boven CSAA:
  • CFAA provides better edge quality per sample
  • CFAA can scale to more than 16 samples per pixel
  • CFAA works better on silhouette edges
  • CFAA works on stencil shadows
  • CFAA is not limited to polygon edges
Als laatste zal AMD binnenkort ook een nieuwe vorm van Adaptive AA introduceren. Dit is echter niet gebonden aan de HD serie, maar zal ook op oudere kaarten (vanaf de 9500 serie) werken. Men noemt het Performance AAA en zal een betere kwaliteit AAA brengen met de snelheid van multisample AA, daar waar Quality AAA een grotere performancehit heeft vanwege het gebruik van supersampling AA.

Natuurlijk zijn ook de AA varianten uit de vorige generaties aanwezig. Dwz dat je gebruik kan blijven maken van HDR + AA, Adaptive AA, Temporal AA en SuperAA. Al deze varianten werken met Gamma Correction zoals we dat al gewend zijn vanaf de R300 serie.

http://www.guildwarsarena.net/ati/atitopic-reviews.jpg

Hieronder staan links naar de meeste HD2900XT reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

3D Center TIP
Anandtech
Beyond3D
Bit Tech Score: 7/10
Bjorn3D
Chile Hardware
Computer Base.De
Cubic
Digit Life - Architecture Overview
Digit Life - Image Quality
Digit Life - Theoretical Benchmarks
Digit Life - Games Benchmarks
Driver Heaven
Elite Bastards
Extreme Tech | Architecture Analysis
Firing Squad
Guru3D
Hardware Info
Hardware Secrets
Hardware Zone Score: 4.5/5
Hexus Award: Good Value
HardOCP
Hot Hardware
Legit Reviews
Neoseeker
OC Workbench
PC Perspective
PC Presence
T-Break
Tech Power Up
The Inquirer
The Tech Lounge
The Tech Report
Tom's Hardware
Trusted Reviews
Tweakers.net
Tweak Town
VR-Zone
X-Bit Labs

Hieronder staan links naar de meeste HD2400 / HD2600 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

Anandtech
Computerbase - HD2400XT & HD2600XT
Firingsquad - HD2600Pro & XT
Fudzilla
Guru3D
Hexus.net - HD2400XT & HD2600XT
Hot ardware - HD2400XT & HD2600XT
Neoseeker
OC Workbench - HD2600XT GDDR3 - Score: 8.1
PC Perspective
Phoronix
http://www.reghardware.co.uk/2007/06/28/review_powercolor_hd_2600_xt/]Reg Hardware
The Tech Lounge
Technic3D
Techpowerup - HD2400Pro
Techpowrup - HD2400XT
Techpowerup - HD2600XT


http://www.guildwarsarena.net/ati/atitopic-hd2900.jpg

http://www.guildwarsarena.net/ati/hd2900xt.jpg
Retail 9.5" versie van de Radeon HD 2900 XT


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). De R600 zal er in eerste instantie alleen komen in XT uitvoeren met 512MB GDDR3. Voor OEMs is er een XT beschikbaar die gebruik maakt van 1GB GDDR4 geheugen. Deze is meteen ook een flink stuk groter uitgevallen. Het ziet er naar uit dat er wel een XTX uitvoering komt, maar wanneer is niet precies bekend.

AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. De GPU loopt op 742Mhz terwijl het geheugen op 825Mhz geklokt is. Fabrikanten kunnen hiervan afwijken. Gebleken is dat de core vrij hoog over te klokken is, dus ook voor de enthousiaste overklokker is er nog genoeg speelruimte om zelf aan de slag te gaan.

Het stroomverbruik lig iets hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Daarnaast ligt het idle-stroomverbruik rond die van de GF8800GTS en aangezien je waarschijnlijk vaker naar je desktop staart dan zit te gamen, heft dit elkaar mooi weer op.

De grote verrassing van de R600 is de prijs. De adviesprijs ligt namelijk op $399. In Europa zal de kaart voor onder de €399 beschikbaar zijn. Op het moment van schrijven zelfs al voor €330. Voor deze prijs krijg je een kaart die over het algemeen met gemak de GF8800GTS640 verslaat die dezelfde adviesprijs heeft en heeft ook nog eens meer features aan boord! En het leuke is dat de HD2900XT voor die prijs ook nog eens zeer dicht bij de GF8800GTX/Ultra komt en er in sommige gevallen zelfs boven uit steekt. Let wel... die twee kaarten hebben een adviesprijs van respectievelijk $549 en $829.

Sommige mensen zullen teleurgesteld zijn dat de HD2900XT niet overtuigend de GF8800GTX kan weerstaan en ook dat AMD niet direct een XTX versie uit brengt die dat wel kan. Vergeet daarbij niet het volgende... het gaat hier alleen om DX9 benchmarks en niet om DX10. De eerste tekenen (FSX, next gen BF, Call of Juarez, HL2: EP2) wijzen er op dat de HD2900XT geen moeite heeft om de GF8800GTX bij te benen (en in te halen) in DX10 applicaties. Vergeet niet dat de R600 gemaakt is voor DX10 (en niet voor DX9) en dat ATI al sinds de Xenos met Microsoft in 1 bed slaapt.... Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken. Neem de onderstaande slide met een korreltje zout ;)



Er komt in eerste instantie geen XTX uit met GDDR4 omdat er wat problemen waren met de 512-bit memory interface en GDDR4. Dit zou opgelost moeten worden in een nieuwe revisie dan wel in de R650. Het probleem was iets waar AMD op het allerlaatste moment achter kwam. Hieruit bleek dat een HD2900XT met 825Mhz GDDR3 geheugen net zo snel was als een HD2900XT met 1.1Ghz GDDR4. Het leek net alsof het niet uit maakte of er GDDR3 of snel GDDR4 op zat en alsof het beide beperkt was tot zo'n 105,6GB/s aan bandbreedte ondanks dat GDDR4 hier flink boven zou moeten gaan zitten. Op de een of andere manier werd dus niet het volle potentieel benut van de 512-bit memory interface in combinatie met GDDR4 en was het dus logisch om retail kaarten in eerste instantie te voorzien van GDDR3 totdat het probleem met GDDR4 is opgelost.

http://www.guildwarsarena.net/ati/atitopic-hd38xx.jpg

Launchdate: 15 November 2007 [ HARD LAUNCH ]
Over de RV670 is het volgende bekend. De RV670 zal 320 streamprocessors hebben net zoals de R600. De GPU zal echter beschikken over een 256-bit memory interface en gemaakt worden op het 55nm productieproces. Daarnaast zal de RV670 volledig DX10.1 compliant zijn. AIBs hebben al RV670s en onshelf stock zal halverwege Oktober verscheept worden naar distributeurs. Dus het ziet er naar uit dat dit een hardlaunch wordt. De RV670 zal de concurrentie aan moeten gaan met de G92. De RV670 is de basis voor een Gemini kaart... Of deze RV670/RV680 of R680 heet is niet duidelijk.

Er staan eerst twee versies gepland, de Gladiator (825/1200) en Revival (750/900). De performance van Gladiator zou gelijkwaardig dan wel iets hoger moeten liggen dan de R600 zelf. De namen... HD3870 en HD3850. Later komt waarschijnlijk nog een HD3830.


http://www.guildwarsarena.net/ati/atitopic-hd2600.jpg

De midrange GPU RV630 heeft de officiele naam HD2600 mee gekregen. Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. In eerste instantie zullen er twee retailversies van de HD2600 leverbaar zijn, namelijk de HD2600Pro en HD2600XT. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560. De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm en is daarmee 10% kleiner dan zijn rechtstreekse concurrent de G84, terwijl hij wel zo'n 150M meer transistoren bevat.

Beide HD2600 kaarten zullen de beschikking hebben over 120 streamprocessors.

http://www.guildwarsarena.net/ati/hd2600xt.jpg


Ondanks veelgehoorde geruchten dat de snelste RV630, de HD2600XT, een dubbelslotcooler nodig zou hebben en meer dan 120W zou verbruiken, is gebleken dat dit allemaal wel mee valt. Het stroomverbruik van de HD2600XT ligt rond de 65W en heeft daardoor geen extra stroomvoorziening nodig. Daarnaast gebruikt deze kaart ook een singleslotcooler zoals je kan zien in het plaatje.

De HD2600XT doet op - voor de desktop space - ongekend hoge kloksnelheden zijn werk. 800Mhz core om precies te zijn. Van de HD2600XT zijn twee varianten: GDDR3 versie op 800/700 en de GDDR4 versie op 800/1100. Door de hoge snelheid van het GDDR4 zal deze ondanks de 128-bit memory interface toch een bandbreedte hebben die hoger ligt dan die van een 6800GT of X800XT.

http://www.guildwarsarena.net/ati/hd2600pro.jpg


De HD2600Pro zal waarschijnlijk een populair kaartje worden gezien het vriendelijker prijskaartje. Daarnaast doet deze kaart prima dienst als extra physics GPU. De HD2600Pro maakt uitsluitend gebruik van GDDR3 of GDDR2 geheugen.

Het voordeel die de RV630 serie heeft op de G84 serie ligt niet zo zeer op het gebied van performance, maar op het gebied van featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen.

RV630 heeft de Unified Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies. De G84 ondersteunt geen VC-1! UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.

Het stroomverbruik is inmiddels ook bekend.
HD 2600 XT -> 65W
HD 2600 PRO -> 55W
Deze kaarten zullen ook in AGP variant verkrijgbaar zijn.

http://www.guildwarsarena.net/ati/atitopic-hd2400.jpg

De RV610 komt er in eerste instantie in twee varianten, de HD2400Pro en HD2400XT. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Beide HD2400 kaarten zullen de beschikking hebben over 40 streamprocessors.

http://www.guildwarsarena.net/ati/hd2400xt.jpg


Antelope, HD2400XT, is de 'snelle' jongen van de twee. Deze zal gebruik maken van 256MB GDDR3 op een 64-bit memoryinterface. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire, wat je ook ziet op het plaatje. De core loopt op 700Mhz.

http://www.guildwarsarena.net/ati/hd2400pro.jpg


Falcon, HD2400Pro, is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 525Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord.

Over het stroomverbruik is het volgende te melden:
HD 2400 XT -> 20W
HD 2400 PRO -> 18W
Deze kaarten zullen ook in AGP variant verkrijgbaar zijn.

Note: Let op. Er zijn laptops in omloop met de Mobility Radeon X2300 en X2400. Dit zijn geen DX10 kaarten, maar gebaseerd op de X1450 (lichtelijk getweakte X1400). Alleen de kaarten met de prefix HD zullen DX10 ondersteunen. Alle kaarten die beginnen met een X zijn dus DX9 kaarten.

http://www.guildwarsarena.net/ati/atitopic-mobility.jpg

Tegelijkertijd met de desktop GPUs zal AMD ook haar nieuwe notebook lineup presenteren. Deze zal bekend staan onder de naam Mobility Radeon HD 2x00. In eerste instantie zullen er 5 Mobility Radeons gelanceerd worden, waarvan er eentje gebaseerd is op DX9.
  • Mobility Radeon HD 2300
  • Mobility Radeon HD 2400 Pro
  • Mobility Radeon HD 2400 XT
  • Mobility Radeon HD 2600 Pro
  • Mobility Radeon HD 2600 XT
De Mobility Radeon HD 2300 is zoals het er nu naar uit ziet de enige uit het rijtje die gebaseerd is op de RV550 core, wat wil zeggen dat dit een DX9 core is met UVD aan boord. De RV550 is op zijn beurt weer gebaseerd op de RV516 (4PS, 2VS).

De 4 overgebleven kaarten zijn wel volledig DX10 compliant en zijn identiek aan hun desktop broertjes op kloksnelheid verschillen na. De eerste scores zijn bekend. HP heeft een notebook met een 256MB versie van de Mobility Radeon HD 2600 XT. Deze scoort iets meer dan 4000 punten in 3DMark06 en rond de 12000 in 3DMark03.

http://www.guildwarsarena.net/ati/atitopic-toekomstigegpus.jpg

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten! En als sommige geruchten kloppen zelfs al in September. Er gaan echter ook geruchten dat er pas in Januari 2008 weer een refresh van de high end komt. Misschien dat we dan de HD 2900 XTX of HD 2950 XTX te zien krijgen op een klok die tegen de 1000Mhz aan ligt.

Wat in ieder geval zeker is, is dat deze kaart 1GB aan GDDR4 krijgt en dat deze kaart pas eind 2007 of begin 2008 concurrentie krijgt van nVidia in de vorm van G90. G90 stond namelijk gepland voor Q3, maar heeft een tapeout gemist waardoor deze verschoven is naar het einde van Q4/begin Q1 '08.

R700 staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan.

http://www.guildwarsarena.net/ati/atitopic-prijsoverzicht.jpg
http://www.guildwarsarena.net/ati/hd2000-prijsoverzicht.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://www.guildwarsarena.net/ati/atitopic-geruchtenmolen.jpg
http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

http://www.guildwarsarena.net/ati/atitopic-overige.jpg
http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

[Voor 200% gewijzigd door CJ op 19-10-2007 13:32]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

[img][/img]
http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Is AA "gebroken" in de R600?

Antwoord: Nee! AA als dusdanig is niet gebroken in de AA. Wanneer er AA wordt gevraagd in de toepassing of AA wordt geforceerd in de drivers wordt AA gewoon toegepast. De R600 heeft zelfs een hele flexibele vorm van AA aan boord.

Waar zeiken sommige mensen dan zo graag over? Dit komt door de performancedrop die groter lijkt dan bij de concurrentie en de voorgaande ATI Radeon chips. Hoe komt deze performancedrop? Door het ontbreken van hardwarematige AA resolve. Is dat een probleem? Nee. Overal gezien is de performance met AA nog altijd beter dan de performance van de voorganger (X1950XTX). Wil je nog sneller? G80 is your choice.

Maar maar.... hoe komt die grote performancedrop dan in vergelijking met de G80? Dat is een designbeslissing geweest. Er komen steeds meer games die gebruik maken van vormen van rendering waarbij er non-lineaire AA resolve moet worden toegepast. Fixed function hardware AA resolve, dat zegt het al, is lineair en wanneer dit wordt toegepast dan kunnen er artifacts optreden.

Wat zijn vormen van rendering waar non-linaire AA resolve technisch gezien 'beter' is dan de 'ouderwetse' manier? Nou, bijvoorbeeld bij HDR rendering (welke game gebruikt nu geen HDR meer?), deferred rendering (o.a. STALKER en alle games die gebruik maken de Unreal Engine 3 - en dat zijn er nog al wat) en bij het gebruik van anti-aliased shadow buffers. Deze vormen vereisen meer controle over de bewerking en over de pixel, daar waar voorheen de 'oude' hardware AA resolve adequaat genoeg was.

Maar maar... waarom hadden we dan vroeger nooit last van dat soort artefacts?? Tja... vroeger toen was alles anders. Tijden veranderen. Technologie verandert. Vroeger moesten er ook al workarounds worden gevonden om AA met HDR aan de praat te krijgen. Developers krijgen nu meer flexibiliteit om eindelijk op het scherm te toveren wat ze altijd al hadden willen laten zien zonder beperkt te worden door lineaire AA resolve. Tot op heden werkten ze hier namelijk omheen. Wij - als eindgebruiker - merkten dat niet. Nu kunnen ze het op een correcte manier doen.

Wat is dan de correcte manier? Op de correcte manier kan een pixelshader gebruikt worden om toegang te krijgen tot elke individuele sample binnen elke pixel. Hierdoor kan een graphics engine een hogere kwaliteit AA resolve toe passen en zelf beslissen wat voor filter er gebruikt moet worden. Microsoft heeft dit op verzoek van zowel developers en hardware vendors toegevoegd omdat er vraag was naar een betere beeldkwaliteit! Vragen om de 'oude' manier is dus tevergeefs!

Voor de mensen die er wat meer willen afweten over hoe de R600 het doet: De RBEs (voorheen ROPs) doen alles op het gebied van AA, behalve het gedeelte dat "resolve" heet. Dit wordt nu gedaan in de shadercore. Via een fastpath tussen de RBE en shadercore wordt data aan de shaderprocessors gevoerd om resolve toe te passen. Het grote voordeel hiervan is dat de resolve hierdoor zeer programmeerbaar is geworden. Het nadeel is dat het trager 'kan' zijn dan op de ouderwetse manier.

De redenatie van AMD om zich volledig op shader resolve te richten is het feit dat toekomstige games meer en meer op shader based AA resolve zal richten vanwege de hardware limitaties wanneer het aan komt op FP render targets. AMD heeft al eerder gegokt op toekomst gerichtheid met de R580 en daar plukken we nu (bijna 2 jaar na launch de vruchten van met engines als de Unreal Engine 3 waar de toenmalige concurrent GF7900GTX helemaal ingemaakt wordt). Daarnaast is het gebruik van custom resolve filters straks een vereiste in DX.

Het officiele statement van AMD:
quote:
We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

[Voor 120% gewijzigd door CJ op 19-10-2007 13:12]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/hd2000-prijsoverzicht.jpg
Richtprijzen na de lancering van de HD2K serie


Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.

HD2K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

http://www.hardware.info/images/news/2600xtbox_550.jpg
HD2600XT


• Goedkoopste HD 2400Pro 256MB PCIe: €42 <
• Goedkoopste HD 2400XT 256MB PCIe: €62 <
• Goedkoopste HD 2600Pro 256MB PCIe: €74
• Goedkoopste HD 2600Pro 512MB PCIe: €80
• Goedkoopste HD 2600XT 256MB GDDR3 PCIe: €90
• Goedkoopste HD 2600XT 512MB GDDR3 PCIe: €119
• Goedkoopste HD 2600XT 256MB GDDR4 PCIe: €123
• Goedkoopste HD 2900XT 512MB PCIe: €335

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

• Goedkoopste X1050 128MB PCIe: €28 <
• Goedkoopste X1300 128MB PCIe: €36 <
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €45 <<
• Goedkoopste X1300XT 256MB PCIe: €44 <<
• Goedkoopste X1550 256MB PCIe: €32 <
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €50 <
• Goedkoopste X1650XT PCIe: €72 <<
• Goedkoopste X1950GT 256MB PCIe: €95 <
• Goedkoopste X1950GT 256MB AGP: €117 <
• Goedkoopste X1950GT 256MB PCIe: €95 <
• Goedkoopste X1950Pro 256MB PCIe: €99 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €133 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €137 <
• Goedkoopste X1950Pro 512MB AGP: €146 <<
• Goedkoopste X1900XT 512MB PCIe: €179 <<
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299 <<
• Goedkoopste X1950XT 256MB PCIe: €156 << TIP
• Goedkoopste X1950XTX PCIe: €240 <<
• Goedkoopste X1950XTX CrossFire PCIe: €337 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update

[Voor 99% gewijzigd door CJ op 19-10-2007 01:02]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

The Inq heeft een zeer uitgebreid stuk geschreven over AMD HD3xxx naamgeving.
Er wordt o.m. aangegeven dat 3800 nog niet helemaal vaststaat, en dat RV670 FireGL kaarten zeer sterk zouden moeten zijn in de professionele OpenGL markt.
quote:
RV670 to get a name at 11th hour
Marchitecture Wars 007 RV670 late decision to decide R700 fate (name)

By Theo Valich: Thursday, 18 October 2007, 2:35 AM

IT SEEMS THAT AMD is just about to overtake Nvidia in the battle of higher numbers. Since Nvidia is so high on extending the life-line of 8800 brand with the G92_200 series being called 8800GT, AMD saw the golden opportunity.

With G92 supporting DirectX 10.0 and RV670 supporting DirectX 10.1 API, marketing war was set to be quite interesting. From one side, calling a mainstream part that can beat the high-end part 8800GT instead of 8900GT was a safe call for Nvidia, and riding the wave of brilliant success what 8800 is - but it seems that people like Pat, Captain Hook, Jon, and Ian are pulling things in a different direction.

The RV670 is more than a die-shrink of R600. It fixes a lot of inefficiency issues that ATI faced with a long-delayed child named R600, and now with 55nm process, there was enough room on the die to go large, both with precision of units, data formats, cache sizes and of course, API support.

Not a lot of people know that main target of RV670 is to establish CTM as a viable alternative to Nvidia's Tesla, thus GPGPU and professional 3D were very high on priority list. We already know that R600 variants in FireGL versions are demolishing Quadros (for the very first time in history of professional 3D, ATI has a real contender), so FireGL and FireStream guys are awaiting their RV670 chips with great expectations.

So, what to do with a product that has a huge challenge instead? Not burn it with a brand name that is somewhat tamed, and that was Radeon HD 2900 series. 2950 was a stillborn from day one, and now the marketing team is deciding between Radeon HD 3600, 3700, 3800. Taiwan just got the nod about HD3000 series, and we're just about to see the new chapter in the whole Marchitecture wars.

http://images.vnu.net/gb/inquirer/news/2007/10/18/rv670-name/gecube-rv670ornot.jpg
Greet Radeon HD3000 PCIe series with its member HD3800... or is HD3800 another deliberately leaked name in order to get leaky suspects?

The name is not decided yet, and don't expect it to be announced to partners up till the point of printing retail boxes, which is still some time ahead (but not a whole lot time left).

The move to HD3000 has to leave enough room for upcoming Q1'08 monster called R680 and of course, the mega-daddy MCM chippey named R700. R680 will be branded as Radeon HD3800 or HD3900, thus leaving very little amount of marketing space for the R700.

Realistically speaking, only logic for AMD would be to brand the RV670 " Radeon HD 3700", since this would leave enough room for R680, R700 and of course, R(V)710 and R(V)730, the value variants (they would probably take the usual x400 and x600).

Unless of course, HD3000 series is the final "HDsomething" coming from AMD, with completely new branding that may or may not wait in the halls of Austin and Markham. Radeon 700HD just may not seem all that far fetched, just take a look at the world of AMD chipsets.

One thing is certain: when it comes to number of sudden turns and unexpected situations, Mexican soap operas might want to take a page from the AMD/ATI/Nvidia book. µ
Niet echt AMD nieuws, maar Intel lijkt AMD/ATi te gaan volgen op CPU&integrated graphicsgebied:
quote:
Intel to increase graphics performance by 10x
IDF Taiwan: By 2010

Intel has been talking a lot about its integrated graphics cores and by next year Intel will have moved to 65nm. This will allow them to add full HD video decoding, as well as support for DVI, HDMI and Display Port natively into their chipset.

But that’s not really the big news, as Intel claims that by 2010 it will improve its integrated graphics performance by 10 times and have better than console level graphics. However, by then we’re not talking chipset graphics anymore, as from 2009 on Intel will start to integrate graphics into its CPU cores.

The interesting part here is that Intel will have integrated graphics not only in its entry level and mobile CPUs, but also in its mainstream processors. By moving to 45nm next year and to 32nm within the next two to three years, Intel will have a lot more die space into which it can fit its graphics architecture.

With integrated memory controllers, QuickPath architecture and now integrated graphics added into the CPU packaging, it is looking as if Intel is following AMD, and soon its chipsets will be PCI Express tunnels and very little else. We can only presume that Intel’s slogan will be something like, “Buy an Intel CPU, get free Intel graphics”.

There wasn’t much talk about Intel discrete graphics. The only thing that was really mentioned was the fact that Intel will offer a top to bottom range of cards and that you might want Intel’s integrated CPU graphics for other reasons, which might be a hint to an Intel hybrid SLI type of solution.

In the near future you can expect to see hardware vertex shading in the next set of upcoming drivers from Intel, as well as DX10 drivers sometime near the end of Q1 ’08 or the beginning of Q2.

bron: Fudzilla
Wordt een interessante strijd :)

[Voor 49% gewijzigd door Cheetah op 19-10-2007 01:35]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

Toch maar eens de afgelopen topic gereviseerde startpost gelezen, en kom toch weer 't volgende tegen in het stuk over de 2900:
quote:
Voor deze prijs krijg je een kaart die over het algemeen met gemak de GF8800GTS640 verslaat (O ja?) die dezelfde adviesprijs heeft en heeft ook nog eens meer features aan boord (O ja? Ik ruil any day (zeer veel gebruikte, maar ontbrekende) hardware AA in voor die (onbenutte) tesselator...)! En het leuke is dat de HD2900XT voor die prijs ook nog eens zeer dicht bij de GF8800GTX/Ultra komt (O ja!!???) en er in sommige gevallen zelfs boven uit steekt (en in de meeste gevallen, met name met 4-8xAA, op 2/3 of minder van GTX performance zit). Let wel... die twee kaarten hebben een adviesprijs van respectievelijk $549 en $829.

Sommige mensen zullen teleurgesteld zijn dat de HD2900XT niet overtuigend de GF8800GTX kan weerstaan (niet overtuigend?) en ook dat AMD niet direct een XTX versie uit brengt die dat wel kan. Vergeet daarbij niet het volgende... het gaat hier alleen om DX9 benchmarks en niet om DX10 (DX10 games/tests/reviews zijn er al enige maanden en 't worden er steeds meer). De eerste tekenen (FSX, next gen BF, Call of Juarez, HL2: EP2) wijzen er op dat de HD2900XT geen moeite heeft om de GF8800GTX bij te benen (en in te halen) in DX10 applicaties (in elke tot nu toe gereviewde DX10 game verslaat de GTX de 2900XT, en in een aantal maakt hij er gehakt van. Klik. De 2900 heeft in de huidige DX10 gamelineup al meer dan z'n match aan de GTS... GTX zit in een totaal andere performanceklasse).
Nog steeds geen woord over de achilleshiel van de 2900: AA?
Wellicht ietwat charcherend, maar een beetje realistischer bespreking van 1.) de positie t.o.v. de concurrentie en 2.) van de plussen versus de minnen van de chip mag je na 6 maanden toch wel verwachten denk ik zo?

[Voor 5% gewijzigd door Cheetah op 19-10-2007 03:31]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
anathema schreef op donderdag 18 oktober 2007 @ 23:21:
Hoe zit het nu met die nieuwe dual video kaarten, welke worden op basis van crossfire en welke niet? Ik heb expres geen crossfire/SLI bord omdat ik ten alle tijden 2 videokaarten onzin vind. Koop liever een goede single kaart. Verder wil ik kunnen switchen tussen nvidia en ATI zonder een nieuw moederbord te hoeven kopen. Zou het echt een hele slechte ontwikkeling ontwikkeling vinden als high end alleen maar via Crossfire/SLI kan in de toekomst.. Dual core op 1 kaart via 1 PCI-e bus zou natuurlijk wel prima zijn.
Hoezo dat nu weer ? in de tijd van 3DFx als je ook al SLi. En als je dan het beste van het beste wou moest je ook twee van die kaarten kopen. Later ging het er even uit maar nu is het alleen maar terug van weggeweest. En je kijkt alleen naar de nadelen kijk ook naar de voordelen zoals je hebt een X1600 XT. Die is wel snel maar je wil net wat snellers en wil geen nieuwe kaart kopen. Dan koop je 2e hands een goedkoop X1600 XT kaartje er bij en zet je die in CF en je hebt voor weinig toch een hele leuke boost.


http://www.fudzilla.com/images/stories/2007/October/General%20News/foxconn_8800gtws.jpg

Uhmmm G96 core ??? dat zal dan wel een typo moeten zijn ? Dus dan is het nog maar afvragen of die DX10.0 ook klopt. De RV670 kan in dat opzicht een mooi voordeel hebben door al DX10.1 te hebben. En 1800 MHz GDDR3. De ATi gebruik 2400 MHz GDDR4 ben benieuwd of dat snel genoeg is om het timing verschil weg te werken. Dit plaatje zou trouwens van de website van foxconn zijn.

[Voor 16% gewijzigd door Astennu op 19-10-2007 09:01]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Cheetah schreef op vrijdag 19 oktober 2007 @ 02:10:
Toch maar eens de afgelopen topic gereviseerde startpost gelezen, en kom toch weer 't volgende tegen in het stuk over de 2900:
[...]
Nog steeds geen woord over de achilleshiel van de 2900: AA?
Wellicht ietwat charcherend, maar een beetje realistischer bespreking van 1.) de positie t.o.v. de concurrentie en 2.) van de plussen versus de minnen van de chip mag je na 6 maanden toch wel verwachten denk ik zo?
Je gebruikt ook werkelijk elke reden die je kan vinden om t over AA te hebben. Niet echt bevorderlijk als je hier ooit nog serieus genomen wilt worden.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • ormagon
  • Registratie: februari 2005
  • Laatst online: 08-03 22:13

ormagon

Definitely Maybe

Hoewel ik me af en toe kan irriteren aan Cheetah (meestal niet, het is goed voor de discussie hier), ben ik het nu met hem eens. Het is zo'n lange startpost dat het melden van een ongewoon grote drop bij het inschakelen van AA me een goede zaak lijkt.

Laptop: MacBook Pro 15" 2014 | Mobiel: LG G6
Camera: Sony Cyber-shot RX-100 | Versterker: Luxman L-505V
Speakers: Canton Plus S & Canton Plus C | Draaitafel: Dual CS-721


  • Woutoud
  • Registratie: februari 2006
  • Laatst online: 10:17

Woutoud

Moderator Foto & Video

P/√P

offtopic:
Het is ergeren aan of iets irriteert je, je kunt je niet aan iets of iemand irriteren
B)

Woutoud.com


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

quote:
aca schreef op vrijdag 19 oktober 2007 @ 11:10:
[...]


Je gebruikt ook werkelijk elke reden die je kan vinden om t over AA te hebben. Niet echt bevorderlijk als je hier ooit nog serieus genomen wilt worden.
Hij hakt inderdaad wel door, dat klopt.

Daarentegen mag je wel vaststellen dat de AA-problematiek er zeker één is die actueel en niet opgelost is, maar volgens AMD met drivers nog wel opgelost kán worden. Waarom het dan niet vermeld wordt is dan ook mijn vraag? Als je volledig wilt zijn CJ, dan hoort dit erbij. Punt!

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
aca schreef op vrijdag 19 oktober 2007 @ 11:10:
Je gebruikt ook werkelijk elke reden die je kan vinden om t over AA te hebben. Niet echt bevorderlijk als je hier ooit nog serieus genomen wilt worden.
'T betreft een recentelijk gereviseerde startpost van een nieuwsdiscussie topic, waarin m.n. gesproken wordt over het ATi topmodel graphicskaart... en in die startpost staan dingen daarover die zelfs ATi PR/marketing niet (meer) zou durven roepen.

Excuus dat ik er even op wijs.
Ik volg overigens niet helemaal wat AA met serieus genomen worden te maken heeft? :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Glitterb0y
  • Registratie: maart 2007
  • Niet online
Ik weet niet welke benchmarks je gezien hebt, maar een XT die in de buurt komt (en zelfs sneller) dan een GTX in DX10? GTX staan nog steeds eenzaam aan de top hoor :/

En daar komt bij dat je geen drol hebt aan een GTX of een XT in DX10 :')

http://aycu18.webshots.com/image/30497/2002141482388217914_fs.jpg

Ja, da's lekker gamen met 20 tot 26 frames |:(

Note: Dit is geen nVidia vs. ATI gezeik.

[Voor 31% gewijzigd door Glitterb0y op 19-10-2007 11:52]


  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
de 2900pro 512 is gisteren alsnog geleverd (ik had de 8800gts 640 al gekocht) en mijn kameraad heeft hem gelijk van me overgenomen.

we hebben beide een core2 op 3ghz met een asus p5b en 2gb. enige verschil is dat ik een quad heb en hij een dual.

gister gelijk de pro op xt speeds gezet en geen enkel probleem. (max stabiel 840 core, 999 mem!!!!)

zo'n beetje alles getest en kan weinig verschil ontdekken: de kaarten zijn echt aan elkaar gewaagd!

getest met cod4 demo, call of juarez, moh airborne, rainbow six vegas, lost planet, bioshock, 3dmark 06 (@ xt 10860 punten), en alles draait perfekt zelfs op 1680 breedbeeld en met AA!

conclusie": ik ben zeer tevreden met de GTS maar de PRO was de beste keuze vanwege de prijs.

monsterkaartje voor zeer weinig geld. qua lawaai: hoorbaar maar zeker niet irritant en overdreven afgezeken.

qua temperatuur: overgeclockt (beide kaarten) is de pro/xt 4 graden koeler dan mijn GTS! 81 vs 85 graden in Atitool....

Dus niet meer zeuren over deze kaart, hij is er ONWIJS blij mee (en terecht).

  • ownage maxim
  • Registratie: augustus 2007
  • Laatst online: 22-03-2019
Het lawaai van de 2900pro @ OC is anders wel verschrikkelijk. Ik zat van de week even late night benching te doen, maar mn ouders een verdieping lager werden er wakker van :P heheh
Ik ga dat ding wel waterkoelen, anders ben ik binnen een jaar doof.

  • Glitterb0y
  • Registratie: maart 2007
  • Niet online
http://www.rielink.eu/UserFiles/gehoor%20bescherming.jpg
:')
quote:
Jejking schreef op vrijdag 19 oktober 2007 @ 11:27:
[...]

Hij hakt inderdaad wel door, dat klopt.

Daarentegen mag je wel vaststellen dat de AA-problematiek er zeker één is die actueel en niet opgelost is, maar volgens AMD met drivers nog wel opgelost kán worden. Waarom het dan niet vermeld wordt is dan ook mijn vraag? Als je volledig wilt zijn CJ, dan hoort dit erbij. Punt!
AA is geen probleem. Tenminste niet volgens AMD. Punt. De 'menigte' maakt er een probleem van. Feit is: AA functioneert. Alleen de manier waarop AA gedaan wordt is anders dan wat je normaliter gewend bent. Dat dit iets langzamer is (lees: performancedrop relatief hoger is) dan de vorige manier , dat weten we. Maar daarvoor krijg je wel een flexibelere vorm van AA terug wat toekomst gerichter is.

Helaas geldt voor de meeeste mensen "wat de boer niet kent dat eet hij niet". Ik zie ook veel mensen zo maar met woorden als AA resolve smijten terwijl ze niet eens weten wat het is of wat deferred rendering precies in houdt. http://images.fok.nl/s/emo.gif

Performance van AA is in de meeste gevallen beter dan die van de vorige highend. Dus daarover valt eigenlijk niets te klagen. Het zou anders zijn als de R600 consequent langzamer is dan de R580 met AA, maar de R600 is soms wel tot 2x zo snel als een X1950XTX met AA aan. En het zijn in dit topic vaak de mensen die geen HD2900XT hebben die klagen over AA performance. Schijnbaar vinden de mensen die er wel eentje hebben gekocht het niet al te hinderlijk?

Dat de concurrentie in hetzelfde prijssegment nog sneller is (of kan zijn, want dit gaat niet altijd op) is iets wat AMD niet relevant vindt. Koop dan een kaart van de concurrentie die sneller is maar wel minder flexibel. Simpel zat.

Ik heb de FAQ geupdate met een AA item. }:O

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Powrskin
  • Registratie: november 2005
  • Niet online
quote:
Astennu schreef op vrijdag 19 oktober 2007 @ 08:57:
[...]
[afbeelding]

Uhmmm G96 core ??? dat zal dan wel een typo moeten zijn ? En 1800 MHz GDDR3. De ATi gebruik 2400 MHz GDDR4 ben benieuwd of dat snel genoeg is om het timing verschil weg te werken. Dit plaatje zou trouwens van de website van foxconn zijn.
Lijkt me dat 600mhz verschl makkelijk genoeg is.
Ik heb geleerd dat timings minder meespelen als mhz bij geheugen.
En daarbij de timings zullen bij de 8800gt niet erg strak staan anders overklokt het voor gene meter meer.

Nukezone FTW


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Jup... ander feit is: de Geforce FX deed DX9.
Who cares dat het aanmerkelijk langzamer was dan de concurrentie? :X
quote:
Performance van AA is in de meeste gevallen beter dan die van de vorige highend. Dus daarover valt eigenlijk niets te klagen.
Zolang het regelmatig sneller is dan de vorige high end valt er niets over te klagen?
Who cares about de rest van de hedendaagse highend graphics lineup?
quote:
En het zijn in dit topic vaak de mensen die geen HD2900XT hebben die klagen over AA performance. Schijnbaar vinden de mensen die er wel eentje hebben gekocht het niet al te hinderlijk?
Met mijn reso van 1920x1200 hoef ik 'm niet te hebben om te weten dat AA performance me - enorm - zou hinderen. En ik heb hier zat bezitters zien klagen of 'm zelfs kort na aanschaf o.m. hierom zien verkopen.
quote:
Dat de concurrentie in hetzelfde prijssegment nog sneller is (of kan zijn, want dit gaat niet altijd op) is iets wat AMD niet relevant vindt. Koop dan een kaart van de concurrentie die sneller is maar wel minder flexibel. Simpel zat.
Minder flexibel?? Alweer een hint richting alsof de concurrentie alleen hardware AA kan doen.
De kaart van de concurrentie die hardware EN shaderbased AA doet is minder flexibel dan de kaart die alleen shaderbased kan doen?? Iets met werkelijkheid en representatie daarvan ;)

Waarom is het blijkbaar zo enorm moeilijk om gewoon straightforward en eerlijk te zijn?
quote:
Ik heb de FAQ geupdate met een AA item. }:O
Jup, en vraag niet hoe.

Vooralsnog geen reactie op dat stuk uit de R600 startpost dat ik van enig commentaar heb voorzien?

[Voor 9% gewijzigd door Cheetah op 19-10-2007 13:45]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Fudzilla komt met een melding dat de AGP HD2600Pro van Sapphire beschikbaar is voor €89,95:
quote:
Sapphire has announced a Radeon HD 2600 PRO AGP card. Nothing new here, but it looks like that the cards are finally available. It was about time that AGP got a DirectX 10 card.

Specifications follow the reference design with the GPU clocked at 600MHz. The card comes equipped with 512MB of DDR2 memory that works at 800MHz on a 128-bit memory interface. As the entire HD 2600 series this card also has UVD and comes with a DVI to HDMI adapter. It looks like those dusty old AGP systems might easily become a good HTPC, and even play some of the new games at a reasonable resolution.

The card uses single slot cooling, and needs a 4-pin floppy connector for additional power. We manage to find this card over at Alternate.de for a mere €89,99.
http://www.fudzilla.com/i...sk=view&id=3712&Itemid=34

Daarnaast heeft The Inquirer een korte analyse online gezet van de cijfers van AMD. Hier een stuk over de graphics:
quote:
AMD appears to be cautiously optimistic about its ATI graphics card business and suggested it was increasing its market share. If so, this can only be good news for the firm. We don't know how happy AMD's add in board (AIB) customers are shipping graphics cards that only seem to be different by the garishness of the box and the addition or subtraction of additional cables and bundles.

It appears that AMD's advances in the graphics card business may be at the bread and butter level of the market - but that's where the money is.
http://www.theinquirer.ne...9/amd-hopes-break-quarter

Trusted Reviews heeft een review online gezet van een moederbord met RD780 chipset, de MSI K9A3 CF:

http://www.trustedreviews.com/images/article/inline/5771-K9A2CF3DMedium.jpg

http://www.trustedreviews...3-CF-RD780-motherboard/p1

[Voor 10% gewijzigd door CJ op 19-10-2007 14:32]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
Glitterb0y schreef op vrijdag 19 oktober 2007 @ 11:45:
Ik weet niet welke benchmarks je gezien hebt, maar een XT die in de buurt komt (en zelfs sneller) dan een GTX in DX10? GTX staan nog steeds eenzaam aan de top hoor :/

En daar komt bij dat je geen drol hebt aan een GTX of een XT in DX10 :')

[afbeelding]

Ja, da's lekker gamen met 20 tot 26 frames |:(

Note: Dit is geen nVidia vs. ATI gezeik.
Zoals Bioshock en COD4. Daar was de HD2900 XT sneller dan de GTX.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Visgek82
  • Registratie: december 2002
  • Laatst online: 08:43
Ik ga me vanaf nu terugtrekken uit dit topic. Het is weer gekut met moddergooien wat de klok slaat, Cheetah v.s de rest, basically. Heb het echt gehad met de manier van discussieren hier, Ik ga wel lezen. tegen bepaalde mensen valt gewoon niet te praten. Ik denk dat de meeste hier wel weten over welke personen ik het heb.

Succes verder, CJ en de rest die zich wel aan het "nieuwstopic" houdt, en mss tot ziens.

MSI B350M PC Mate / Ryzen 5 1600 / 16gb DDR4 / Nvidia GeForce GTX 1070-TI

Laatste nieuws er zijn dus 3 modellen RV670. Een van m'n bronnen is nu aan het spelen met de RV670. :)

De drie modellen zijn zoals al voorspeld:
HD3830
HD3850
HD3870

Daarnaast heb ik nu min of meer bevestigd gekregen dat R680 wel bestaat. En dit is inderdaad een dual RV670. Het gaat hier om 2 chips op 1 PCB, dus geen 2 dies op 1 package. Performance is 1.7x RV670 CrossFire. AMD mikt op 20K in 3DM06.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 30-03 13:03
quote:
:9

Edit; klopt dat wel wat je zegt? 1,7x RV670 CF?

Of is het 1,7x RV670 perf?

[Voor 23% gewijzigd door Format-C op 19-10-2007 15:01]

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
CJ schreef op vrijdag 19 oktober 2007 @ 14:54:
Daarnaast heb ik nu min of meer bevestigd gekregen dat R680 wel bestaat. En dit is inderdaad een dual RV670. Het gaat hier om 2 chips op 1 PCB, dus geen 2 dies op 1 package. Performance is 1.7x RV670 CrossFire. AMD mikt op 20K in 3DM06.
Weet je ook of ATi nieuwe post filters gaat maken voor die R680? Met 2x het aantal shaders van de R600 kan je natuurlijk weer wat leukere dingen doen. :9

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla

1.7x performance of RV670 CrossFire is wat mij verteld is. Maar lijkt me ook logischer dat het 1,7x een RV670 is omdat CF vaak een 1.7-1,8x performanceboost geeft.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Ja vroeg ik me ook al af want RV670 crossfire is 1.8x een singel RV670. Ik denk dat het moet zijn dat de R680 1.7x de performance heeft van een RV670. Anders wordt het echt een monster als i net zo snel is als ene Tripple / Quad RV670.

Maar van mij mogen ze hoor :P ik heb er niets op tegen echter betekend dat wel dat je 512 Bit bus nodig hebt op iets van 1500 MHz ( 3000 MHz DDR ) die wel goed werkt. En 2x RV670 achtige cores op iets van 1400 MHz. Overclockers halen met de R600 wel 1100 maar dat is geen standaard cooling meer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Visgek24 schreef op vrijdag 19 oktober 2007 @ 14:49:
Ik ga me vanaf nu terugtrekken uit dit topic. Het is weer gekut met moddergooien wat de klok slaat, Cheetah v.s de rest, basically. Heb het echt gehad met de manier van discussieren hier, Ik ga wel lezen. tegen bepaalde mensen valt gewoon niet te praten. Ik denk dat de meeste hier wel weten over welke personen ik het heb.

Succes verder, CJ en de rest die zich wel aan het "nieuwstopic" houdt, en mss tot ziens.
Ik sluit me bij jou aan want ik vind dat er zowieso de laatste tijd weinig interessants wordt vermeld. Alleen gespeculeer over, zou dit en zou dat. En dat gezeur over die AA de hele tijd pff... Kunnen we het niet over boeiendere onderwerpen hebben? Ik kijk af en toe wel eens, dan zie ik zo of er iets nuttigs tussen staat, daar ga ik niet meer elke dag voor kijken.

Succes met het geroezemoes.

  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
gaat zo'n r680 afhankelijk zijn van crossfire ondersteuning in een spel of niet?

zover ik weet had bijvoorbeeld de dual gpu van de voodoo5 geen sli ondersteuning nodig toendertijd (kortom, werktew altijd '' full speed'') en heeft de gx2 juist wel sli nodig, dus hoe zit dat straks?

vond dat namelijk wel het grote nadeel van de gx2.... en nog.
quote:
meljor schreef op vrijdag 19 oktober 2007 @ 15:38:
gaat zo'n r680 afhankelijk zijn van crossfire ondersteuning in een spel of niet?

zover ik weet had bijvoorbeeld de dual gpu van de voodoo5 geen sli ondersteuning nodig toendertijd (kortom, werktew altijd '' full speed'') en heeft de gx2 juist wel sli nodig, dus hoe zit dat straks?

vond dat namelijk wel het grote nadeel van de gx2.... en nog.
Dat de oude 3dfx SLI geen aparte profielen nodig had komt omdat het heel anders werkt dan de huidige SLI/CrossFire methodes die met AFR en SFR werken. AFR levert de meeste winst op, maar werkt lang niet op elke game-engine even ideaal.

Hoe dit straks gaat werken bij de R680 is nog maar de grote vraag. Wat wel zeker is, is dat AMD op dit moment druk bezig is met de CrossFire drivers (waaronder dus CrossFire Overdrive, multi-monitor support, Hybrid CrossFire). Dit doen ze waarschijnlijk om zo goed mogelijk voorbereid te zijn voor multi GPU gaming.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 30-03 13:03
Op zich is 1,7x een RV670 ook al "aardig snel"... :9 Als die kaart op een voeding wil draaien met 2 PCI-e 4 pins stekker, dan is hij voor mij erg interessant als de implementatie en de performance in alle games 1,7x RV670 is. :)

nVidia's SLi zuigt echt bigtime in Vista dus het zal mij benieuwen wat er de komende 3 a 4 maanden uitkomt. Hopen dat vooral de Vista drivers goed zijn voor dit soort kaarten.

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • vigilante888
  • Registratie: januari 2004
  • Laatst online: 07-12-2019

vigilante888

The truth is out there.....

quote:
RappieRappie schreef op vrijdag 19 oktober 2007 @ 16:27:
Op zich is 1,7x een RV670 ook al "aardig snel"... :9 Als die kaart op een voeding wil draaien met 2 PCI-e 4 pins stekker, dan is hij voor mij erg interessant als de implementatie en de performance in alle games 1,7x RV670 is. :)

nVidia's SLi zuigt echt bigtime in Vista dus het zal mij benieuwen wat er de komende 3 a 4 maanden uitkomt. Hopen dat vooral de Vista drivers goed zijn voor dit soort kaarten.
Een PCI-e connector is 6pins....4pins is gewoon ATX molex.

Mijn CF setje van de RV670 is trouwens onderweg (word maandag verstuurd). Hoop ze in de loop van volgende week te ontvangen.

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
Ok das mooi vigilante. :) Geef ons wat scores ofzo of wat info.

  • vigilante888
  • Registratie: januari 2004
  • Laatst online: 07-12-2019

vigilante888

The truth is out there.....

En de gierige hollander die ik ben, heb ik natuurlijk ook bij een andere AIB een setje aangevraagd... :+

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
Ben ook benieuwd naar de scores.Gebruik je hierbij een X38 mobo met 2x 16x en pci-e 2.0?
Zoniet dan wil ik ze wel ff lenen van je :P

|2600k|Asus 290|


  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
quote:
Bullus schreef op vrijdag 19 oktober 2007 @ 17:36:
Ben ook benieuwd naar de scores.Gebruik je hierbij een X38 mobo met 2x 16x en pci-e 2.0?
Zoniet dan wil ik ze wel ff lenen van je :P
Tsja ik zou ze ook wel willen lenen xD maare ik zit nog te kijken welke kaart ik wil HD3800 of 8800GT. Dus Vigi laat wat zien.

  • ownage maxim
  • Registratie: augustus 2007
  • Laatst online: 22-03-2019
zeker geen kans dat een r600 in Xfire kan met een RV670 of wel?
quote:
ownage maxim schreef op vrijdag 19 oktober 2007 @ 19:54:
zeker geen kans dat een r600 in Xfire kan met een RV670 of wel?
Je geeft zelf het antwoord al. Het zijn twee verschillende cores.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Sjah
  • Registratie: juli 2000
  • Laatst online: 14:13
http://www.anandtech.com/video/showdoc.aspx?i=3128&p=3

ik vraag me af, die nV 8600 GTS is stuk duurder dan de 2600XT, maar verliest hier wel. Vraagt Ati niet gewoon te weinig voor die 2600? Krijg er zelf morgen 1 binnen, had geen zin om op iets nieuwers te wachten.

os: Ubuntu lts


  • Puppetmaster
  • Registratie: december 2001
  • Laatst online: 24-08-2019
quote:
Visgek24 schreef op vrijdag 19 oktober 2007 @ 14:49:
Ik ga me vanaf nu terugtrekken uit dit topic. Het is weer gekut met moddergooien wat de klok slaat, Cheetah v.s CJ, basically. Heb het echt gehad met de manier van discussieren hier, Ik ga wel lezen. tegen bepaalde mensen valt gewoon niet te praten. Ik denk dat de meeste hier wel weten over welke personen ik het heb.
Het is ook geen discussieren, maar afvuren van monologen. en dat is idd nooit leuk... :/
quote:
Succes verder, CJ en de rest die zich wel aan het "nieuwstopic" houdt.
Ben al tig topic's geleden opgehouden me ermee te bemoeien, heeft toch geen zin. wel respect voor CJ en het doorzettingsvermogen dat hij heeft, steeds weer dezelfde discussie aan te moeten gaan!

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
Sjah schreef op vrijdag 19 oktober 2007 @ 20:33:
http://www.anandtech.com/video/showdoc.aspx?i=3128&p=3

ik vraag me af, die nV 8600 GTS is stuk duurder dan de 2600XT, maar verliest hier wel. Vraagt Ati niet gewoon te weinig voor die 2600? Krijg er zelf morgen 1 binnen, had geen zin om op iets nieuwers te wachten.
Omdat hij niet altijd zo snel is. Soms heeft hij het zelfde probleem als de HD2900 XT en dropt i gewoon erg. Maar de HD2600 XT is zeker geen slechte kaart. Ik denk dat i qua prijs prestatie beter is dan de 8600 GTS.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Sjah
  • Registratie: juli 2000
  • Laatst online: 14:13
Wat ik van benches gezien heb is die in wat oudere games als BF2142 etc. niet zo een killer, maar in de games die nu uitkomen, komt die heel aardig weg. En je moet er niet 4xAA mee doen, maar dacht je dat ik dat verwacht van een kaart van nog net geen 100... :) 8)7

os: Ubuntu lts


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

quote:
CJ schreef op vrijdag 19 oktober 2007 @ 12:55:
AA is geen probleem. Tenminste niet volgens AMD. Punt. De 'menigte' maakt er een probleem van. Feit is: AA functioneert. Alleen de manier waarop AA gedaan wordt is anders dan wat je normaliter gewend bent. Dat dit iets langzamer is (lees: performancedrop relatief hoger is) dan de vorige manier , dat weten we. Maar daarvoor krijg je wel een flexibelere vorm van AA terug wat toekomst gerichter is.
Begrijp me niet verkeerd CJ, ik ben blij dat AMD vooruit kijkt naar de toekomst. Hoe meer, hoe beter :) .

Maar ik vond het dus wel jammer dat er niet in de startpost stond: AMD gebruikt voor de oudere games softwarematige AA, en in een groot deel van de games werkt dat langzamer als de hardwarematige oplossing van de concurrent. Daarentegen zal de R600 hoogstwaarschijnlijk in de nieuwe games (noem een aantal titels) een groot voordeel hebben omdat de AA via de shaders wordt uitgevoerd. Zoiets, je begrijpt wel waar ik heen wil ;)

Oh ja, over Cat 7.10, de releasenotes van HardwareAnalysis
quote:
ATI's Folding@Home
Folding@Home is a distributed computing project designed by the Stanford University. The application performs intensive simulations of protein folding. This simulation will help researchers uncover how certain diseases develop. Folding@Home uses distributed computing to simulate protein folding, the workload is broken up into small work units and distributed across hundreds of thousands of computers over the internet. You can help find the cure to many different diseases! To join Folding@Home, follow these steps:

Download ATI's Catalyst™ software suite
Download the Folding@Home GPU client application
--------------------------------------------------------------------------------
Note: If you have an ATI Radeon™ X1600, X1800, or X1900 series of product, download the GPU client (either console or GUI version) not to be confused with the CPU "Graphical client". If you do not have an ATI Radeon™ product listed above, then download the CPU client.
Don't get me wrong, maar ik vind het apart dat dit weer vermeld wordt, ik dacht even dat er nu nieuwe ondersteuning was voor de HD2xxx-series!

CJ / The Source / Vigilante888 / Hacku / Cheetah, kan één van jullie eens rondvragen over wanneer de HD2xxx-reeks ondersteuning zal krijgen voor Folding-projecten? Het zou binnenkort zijn, en ik denk dat met unified shaders je nog mooie resultaten zal kunnen krijgen. Ik gok dat één van jullie vogeltjes wel iets weten daarover :)

  • _Dune_
  • Registratie: september 2003
  • Laatst online: 14:05

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Tussen al deze discussies, toekomst kijken en ergenissen ;) heb ik een wat andere vraag over een iets ouder model uit de AMD/ATi stal. Een maand of twee geleden heb ik, vermoedelijk één van de laatste, een Sapphire Radeon X1950XT 512MB gekocht. Helaas heeft deze twee maandjes stof liggen happen, maar dat terzijde.

Nu ben ik nieuwe hardware in mijn CM Stacker (eerste generatie, heeft eerste een Athlon MP systeem ingezeten) aan het inbouwen en loop hier tegen een probleem op. Ondanks dat ik gratis van Coolermaster een ander bracket heb ontvangen voor in de achterzijde van de behuizing met de "PCI" sleufen, kan ik met goed fatsoen mijn kaarten er weer niet in kwijt.

Van de meeste kaarten heb ik het metalen bracket iets bij kunnen buigen, maar van mijn VGA kaart welke voorzien is van een dubbel bracket heb ik het metaal zover moeten buigen dat ik één bevestigpunt op de kaart zelf heb moeten losschroeven.

Het bracket zit namelijk op 5 plaatsen vast geschroevd op de kaart. Vier bevestigingen zijn de "schroefjes" waar je ook de DVI adapters of kabels op vast schroeft, maar de vijfde is een kruisschroefje die door de print plaat gaat om vervolgens vastgeschroefd te worden in een lipje aan het bracket.

Nu heb ik dit schroefje eerst moeten loshalen voordat ik het bracket zo kan verbuigen, zodat deze in het PCI slot/sleuf vastgeschroefd kan worden.Hierdoor zit het lipje niet meer voor het gat in de printplaat en kan vanzelfsprekend het schroefje niet terug plaatsen.

Nu lijkt het voor de stevigheid niet uit te maken, maar ik vraag mij af of via dit schroefje geen aarding plaats vindt naar het bracket en daarmee automatisch naar de behuizing. Heeft iemand enig idee of het kwaad kan om dit schroefje weg te laten?

P.s. Sorry voor dit lange verhaal, maar ik hoop dat het een beetje duidelijk is.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/

quote:
Jejking schreef op zaterdag 20 oktober 2007 @ 00:09:
[...]

Begrijp me niet verkeerd CJ, ik ben blij dat AMD vooruit kijkt naar de toekomst. Hoe meer, hoe beter :) .

Maar ik vond het dus wel jammer dat er niet in de startpost stond: AMD gebruikt voor de oudere games softwarematige AA
Stop! Laat ik je hier dan maar onderbreken voordat jan-modaal verder leest en nu meteen denkt "Oh my god, het is softwarematige AA wat de R600 doet!" Wees alsjeblieft voorzichtig met je bewoordingen hier. De R600 heeft dedicated transistors aan boord voor AA, dus hardwarematige AA is aanwezig. Niks gebeurt via softwarematig.

Shaderbased AA resolve != softwarematige AA
quote:
Oh ja, over Cat 7.10, de releasenotes van HardwareAnalysis

[...]

Don't get me wrong, maar ik vind het apart dat dit weer vermeld wordt, ik dacht even dat er nu nieuwe ondersteuning was voor de HD2xxx-series!
Dit staat er al maanden lang in....Elke keer weer wordt dit vermeld om aandacht te vestigen op de mogelijkheid van het draaien van Folding@Home op de X1K serie. Hoe meer mensen zich bewust zijn van dit initiatief, des te meer mensen het zullen overwegen om het te draaien, des te sneller kunnen oplossingen gevonden worden voor ziektes en andere enge kwaaltjes.
quote:
CJ / The Source / Vigilante888 / Hacku / Cheetah, kan één van jullie eens rondvragen over wanneer de HD2xxx-reeks ondersteuning zal krijgen voor Folding-projecten? Het zou binnenkort zijn, en ik denk dat met unified shaders je nog mooie resultaten zal kunnen krijgen. Ik gok dat één van jullie vogeltjes wel iets weten daarover :)
Dit is een samenwerkingsverband en hangt niet alleen af van AMD. Ik kan je wel zeggen dat Folding ondersteuning eerder komt op de HD2K serie dan op de G80 (waar men al bijna een jaar - sinds de launch - op zit te wachten). En ik weet ook welke GPU er sneller in is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
Jejking schreef op zaterdag 20 oktober 2007 @ 00:09:
[...]
Don't get me wrong, maar ik vind het apart dat dit weer vermeld wordt, ik dacht even dat er nu nieuwe ondersteuning was voor de HD2xxx-series!

CJ / The Source / Vigilante888 / Hacku / Cheetah, kan één van jullie eens rondvragen over wanneer de HD2xxx-reeks ondersteuning zal krijgen voor Folding-projecten? Het zou binnenkort zijn, en ik denk dat met unified shaders je nog mooie resultaten zal kunnen krijgen. Ik gok dat één van jullie vogeltjes wel iets weten daarover :)
CTM & CUDA worden in de loop van volgend jaar herzien.
CUDA zou beperkte ondersteuning krijgen voor assembler & zou een nieuwe compiler krijgen waarvan de performance beter voorspelbaar is.
Ik weet niet wat er juist met CTM gaat gebeuren maar er zou in ieder geval iets helemaal nieuw komen.
GPGPU is nog erg jong, folding op R5xx gpu's was een experiment (hopelijk niet eenmalig), ze waren niet van plan om alle toekomstige gpu's te gaan ondersteunen.

//edit:
voor de geïnteresseerden, de vernieuwde ctm: http://www.gpgpu.org/s2007/slides/07-CTM-overview.pdf

[Voor 5% gewijzigd door oeLangOetan op 20-10-2007 11:57]


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

RV670 XT GDDR4 512m(HD 3870) Clear Official Picture released!

http://www.xtremesystems.org/forums/attachment.php?attachmentid=65903&stc=1&d=1192870116

http://www.chiphell.com/v...?tid=10932&extra=page%3D1

http://www.chiphell.com/attachments/month_0710/20071020_b3b2074ae1f16316cf92HiMTYiPlZRwk.jpg

http://www.chiphell.com/attachments/month_0710/20071020_e3e5f79904e48d6a8e45k2tbIAH3iuT9.jpg

R700:

Post Original de vertex_shader Ver Post
Some rumor come from Asia (don't forget Geo GPU rule #1, every GPU 6+ months away looks supergreat )

R750XT: 8-core, 64 ROP 256US 1024BIT, 20MB eRAM, using GDDR5 0.5ns 1GB/2GB
R750GT: 6-core, 48 ROP 192US 768BIT, 20MB eRAM, using GDDR5 0.5ns 768MB/1.5GB
R700XT: 4-core, 32 ROP 128US 512BIT, 10MB eRAM, using GDDR4 0.7ns 512MB/1GB
R700GT: 2-core, 16 ROP 64US 256BIT, 10MB eRAM, using GDDR4 0.7ns 256MB/512MB
R700LE: 1-core, 8 ROP 32US 128BIT, using GDDR3 1.2NS 256MB/512MB

DX10.1A, HDMI 1.3, Displayport, UVD+, TSMC 45nm (i don't think so), fastest card come with 350Watt TDP (impossible)

[Voor 64% gewijzigd door Apoca op 20-10-2007 17:37]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
Ziet er top uit! :D

Alleen van die R700,

DX10.1A, HDMI 1.3, Displayport, UVD+, TSMC 45nm (i don't think so), fastest card come with 350Watt TDP (impossible) <- das toch wel erg niet ... :S Zijn natuurlijk maar zegjes maar ok.

  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
:| :| 1024-bit geheugeninterface met 2GB RAM en 8 cores?! Best wel een zieke kaart wordt dat dan :9~

Alleen is het stroomverbruik wel extreem als dat echt waar is, dat kunnen ze nooit gaan koelen met luchtkoeling :P En dan mag je wel een 700+ watt voeding aanschaffen...

Weet iemand wat het stroomverbruik van de HD3870 is?

[Voor 9% gewijzigd door Avalaxy op 20-10-2007 18:01]


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

@Apoca, als god bestaat zit ie in het dev team van de R700.

Mooie kaart die HD3870, en wat een specs voor de R750XT!

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Hoooo mensen ik pluk het ook maar van ChipHell af he, wat daar staat wil niet zeggen dat het waar is m.b.t. de RV670 / R700 he :)

[Voor 4% gewijzigd door Apoca op 20-10-2007 18:22]

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

Nee zeker niet:

GDDR5 (Graphics Double Data Rate, version 5) is a type of graphics card memory. It will be the successor to GDDR4. It is currently in its design state, and products will supposedly be available in the second half of 2008.

GDDR5 - a graphics memory spec - will be released in the second half of next year, and provide twice the density of GGDR4 with memory ranging from 512MB to 2GB. The memory will have a new clocking structure and better error detection as well as further structural changes to increase programmability.

Conclusie: R750 komt dus zeker na Q3 '08

Edit: voor iedereen die de post op Chiphell wil lezen: http://chiphell.com/viewt...?tid=10869&extra=page%3D1

[Voor 9% gewijzigd door N0taFAma op 20-10-2007 18:16]

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
Ik zie de post van Apoca ook niet als een feit, en geloof het niet tot ik een officiele uitspraak van ATi heb gehoord of wat inside nieuws van CJ :P

Maar als het waar is, wat best zou kunnen (R700 zou de eerste stap zijn voor Fusion, dus een multicore kaart is vrij waarschijnlijk) dan zou het wel een extreme kaart worden (qua specs iig) _/-\o_

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

8 cores, benieuwd. Daar zullen eentje drivers voor geschreven moeten worden of dat ding zal nog trager zijn dan huidige gpu's.

It takes two fools to argue.

De geruchten over Wekiva zijn al heel best oud. Zoek maar eens op in het forum op Wekiva (of Wikeva op de foute spelling ;) ). Daar zie je dat precies hetzelfde gezegd werd:
quote:
DX10.1 compliant. En er komt maar 1 core. De R700. Hiermee vult AMD alle segmenten door de cores aan elkaar te koppelen... zie het als CrossFire binnen een chip. Schaalbaarheid zou enorm goed zijn. Het aantal cores bepaald het segment waarin de GPU geplaatst wordt.

Highend: 4-8 cores
Midrange: 2-3 cores
Lowend: 1 core

De Highend in CrossFire zou dus maximaal 16 cores kunnen hebben... In Triple CrossFire zelfs 24....

Let wel.. het is allemaal nog een gerucht.. maar het past wel binnen het gehele Fusion plaatje. Fusion zal zoals het er nu naar uit ziet eerst beginnen als multi-chip module... maar Wikeva (R700) zou al wel eens heel goed voorbereid kunnen zijn op Fusion.
CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

Meer screens:

http://resources.vr-zone.com/newzhunter/RV670/04RADEON.jpg

http://media.bestofmicro.com/U/7/52927/original/05RADEON.jpg

http://media.bestofmicro.com/U/8/52928/original/06RADEON.jpg

http://media.bestofmicro.com/U/4/52924/original/02RADEON.jpg

^^ Laptop powersaving technologie (Powerplay) in desktop GPUs?

http://media.bestofmicro.com/U/5/52925/original/03RADEON.jpg

En tadaa R680 in Q1 08:

http://media.bestofmicro.com/N/J/52687/original/02R680.jpg

Deze was al eerder gelekt:

http://media.bestofmicro.com/N/K/52688/original/03R680.jpg

http://media.bestofmicro.com/N/L/52689/original/04R680.jpg

Gigabyte CrossFire X foto:

http://img249.imageshack.us/img249/3914/quadcrossfirexf9.jpg

Multimonitor support komt er aan voor CrossFire (iets waar SLI gebruikers alleen nog van kunnen dromen).

[Voor 31% gewijzigd door CJ op 21-10-2007 04:32]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Ben benieuwd of ze dan ook niet een RV670 voor laptops maken. Dan zouden ze die markt ook weer eens terug kunnen winnen. Ik wil in ieder geval wel twee van die dual slot kaartjes :9~ Laat maar komen. Eind nov moet ik ook nog twee andere pc's bouwen. Dus kan ik misschien ook Quad crossfire even testen. Hopelijk zijn die Phenom cpu's dan ook al te koop anders kan het nog wel eens cpu bound worden. Mja we kunnen de AA altijd naar 24x gooien :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Locutus-of-Borg
  • Registratie: februari 2001
  • Laatst online: 30-04-2017

Locutus-of-Borg

Resistance is futile!

Ik kan helemaal niets vinden over de HD 2900 Pro in deze topic? Wat is dat nou voor model in tegenstelling tot de HD 2900XT?

Asrock K10N78 || AII 7750 ||2x 1GB Kingston || 2x 200Gb Maxtor DiamondMax 10 || R4850 || Acer X223W Q || WinXP


  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
CJ, die desktop roadmap slide waar R680 op staat is uit dezelfde presentatie waar ik ooit info van heb gepost, dus ERG oud. Daar staat ook nog op de RV670 in Q1 komt, echter komt die in Q4.

  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
Locutus-of-Borg schreef op zondag 21 oktober 2007 @ 13:12:
Ik kan helemaal niets vinden over de HD 2900 Pro in deze topic? Wat is dat nou voor model in tegenstelling tot de HD 2900XT?
Het is een underclockte versie, aantal shaders zijn hetzelfde, en stroomverbruik is iets lager. 180 Watt als ik me niet vergis.

Maar wat wordt de R680 dan? HD3900XT? En de R700, wordt dat dan alweer de HD4x00 :?
quote:
Locutus-of-Borg schreef op zondag 21 oktober 2007 @ 13:12:
Ik kan helemaal niets vinden over de HD 2900 Pro in deze topic? Wat is dat nou voor model in tegenstelling tot de HD 2900XT?
Eentje die maar tijdelijk te krijgen is en nu al niet meer gemaakt wordt. Kans is dus klein dat je er nog eentje op de kop kan tikken.

Het is een lager geklokte HD2900XT.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

Nou ligt misschien aan de type single slot kaart HD2600XT maar in dit voorbeeld passen er in ieder geval geen 4 op een Gigabyte MA790FX DQ6.

http://img85.imageshack.us/img85/651/52065622ii0.jpg

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • movo.
  • Registratie: april 2007
  • Laatst online: 30-03 19:50
quote:
leonpwner1 schreef op zondag 21 oktober 2007 @ 13:31:
[...]


Het is een underclockte versie, aantal shaders zijn hetzelfde, en stroomverbruik is iets lager. 180 Watt als ik me niet vergis.

Maar wat wordt de R680 dan? HD3900XT? En de R700, wordt dat dan alweer de HD4x00 :?
Even een quote van Chiphell. (In het Koreaans, Taiwanees, Chinees etc..)
quote:
我来推理下R700的规格!!!!!!!!!!! 各路高手一起来啊
R7XX 听闻会是以核心数量的方式来区分 , 以核心数量多少合适和未来的发展应该是每个核心8ROP 32US或者4ROP 16US最位合适。(前提是仍然用5发射) 个人认为应该是8ROP 32US比较合适, 因为4ROP 16US性能实在太差 当然考虑OEM、HTPC 也许4ROP 16US才是正确的,也可能同时存在。 内存控制器应该是中低通用, 高端另外加强设计 通过内存控制器分配显存 核心内部应该是类似HT总线互连

所以 我YY了下 具体规格应该是这样的

旗舰系列 32ROP 128US 512BIT GDDR4 0.5NS 1GB-2GB(因为现在材质越来越精细 分辨率越来越高 同时DX10.1强制4AA 所以个人认为2GB也不是不可能) DX10.1 数字供电
中端系列 16rop 64us 256BIT GDDR40.5NS 256M-512M DX10.1 包皮供电
低端系列 8ROP 32US 128BIT GDDR4 0.7NS  128m-256M DX10.1 包皮供电


xos84292的YY


R700...YY時間

R750XT:8子核心,64ROP 256US 1024BIT,20MB eRAM , 採用GDDR5 0.5ns 1GB/2GB 不排除加入4GB版本以供YY之用
R750GT:6子核心,48ROP 192US 768BIT,20MB eRAM , 採用GDDR5 0.5ns 768MB/1.5GB
R700XT:4子核心,32ROP 128US 512BIT,10MB eRAM , 採用GDDR4 0.7ns 512MB/1GB
R700GT:2子核心,16ROP 64US 256BIT,10MB eRAM , 採用GDDR4 0.7ns 256MB/512MB
R700LE:1子核心,8ROP 32US 128BIT , 採用GDDR3 1.2NS 256MB/512MB

支持DX10.1A / UVD+ /DISPLAYPORT / HDMI 1.3
使用核心封裝,多核心并聯中央視頻核心,4個核心為R700XT,2個核心為R700GT,1一個核心為R700LE,整條產品線都基於同一架構,生產線統一使用台積電45NM

使用經過改良的3D+2D新架構

新系列命名為HD 4K

根據核心頻率得出以下產品線

供廠商YY夢幻機的超高階產品線:
HD4950XTX PE , R750XT 2GB顯存 1050 Mhz/3000 Mhz ,PCB 11",TDP 350W(PCI-E 2.0 + 2x8PIN供電), 德州電X改良版 ,USD $949-999
HD4950XTX , R750XT 1GB顯存 950 Mhz/3000 Mhz ,PCB 11",TDP 300W(PCI-E 2.0 + 2x8PIN供電), 德州電X改良版 , USD $899-949


主流級別:
HD4950XT PE , R750GT 1.5GB 顯存 1050Mhz/3000Mhz ,PCB 10.5",TDP 250W(PCI-E2.0 + 8PIN供電),2900散熱器4管低轉速版 , USD $499-549
HD4950XT , R750GT 768MB 顯存 1000Mhz/3000Mhz , PCB 10.5" ,TDP 220W(PCI-E2.0 + 8PIN供電),2900散熱器4管低轉速版 , USD $449-499
HD4900XTX , R700XT 1GB顯存 1000Mhz/2400Mhz ,PCB 9",TDP 150W(PCI-E 2.0 + 6PIN供電), 2950XT的散熱器 USD $399-449
HD4900XT, R700XT 512MB顯存 900Mhz/2400Mhz ,PCB 9",TDP 125W(PCI-E 2.0 + 6PIN供電), 2950XT散熱器 USD $349-399
HD4900PRO, R700XT 512MB顯存 700Mhz/2400Mhz , PCB 9",TDP 100W(PCI-E 1.1/2.0 + 6PIN供電), 單槽散熱 USD $249
HD4600XT, R700GT 512MB顯存 1000Mhz/2400Mhz , PCB 6.5",TDP 75W(PCI-E 1.1/2.0),單槽散熱 USD $199
HD4600PRO, R700GT 256MB顯存 900Mhz/2400Mhz , PCB 6.5",TDP 60W(PCI-E 1.1/2.0),單槽散熱 USD $149
HD2400LE, R700LE 256MB顯存 600Mhz/1500Mhz , PCB 5',TDP 20W(PCI-E 1.1/2.0),被動散熱 USD $79

  • betaplayer
  • Registratie: juli 2007
  • Nu online
@ Locutus of borg

Als je in België woont dan kan je de 2900 pro nog wel bemachtigen via grossbill.fr, dat is een grote franse keten die zowel levert in België als in Frankrijk :) Ze zijn daar trouwens vrij goedkoop ook...

  • Illidan
  • Registratie: augustus 2006
  • Laatst online: 09-02 18:44
Uit de TS: Launchdate: 15 November 2007 [ HARD LAUNCH ]
Over de RV670 is het volgende bekend. De RV670 zal 320 streamprocessors hebben net zoals de R600. De GPU zal echter beschikken over een 256-bit memory interface en gemaakt worden op het 55nm productieproces. Daarnaast zal de RV670 volledig DX10.1 compliant zijn.



Wat is de meerwaarde van DX 10.1 ten opzichte van 10? De 8800GT zal namelijk geen DX10.1 ondersteunen, RV670 dus wel. Als de ATi en nV kaarten ongeveer gelijk geprijsd zijn en even snel, kan dit de doorslag geven mits die DX10.1 ook daadwerkelijk een voordeel oplevert.

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
Illidan schreef op zondag 21 oktober 2007 @ 14:14:
Launchdate: 15 November 2007 [ HARD LAUNCH ]
Over de RV670 is het volgende bekend. De RV670 zal 320 streamprocessors hebben net zoals de R600. De GPU zal echter beschikken over een 256-bit memory interface en gemaakt worden op het 55nm productieproces. Daarnaast zal de RV670 volledig DX10.1 compliant zijn.
Wisten we al ;)
quote:
Wat is de meerwaarde van DX 10.1 ten opzichte van 10? De 8800GT zal namelijk geen DX10.1 ondersteunen, RV670 dus wel. Als de ATi en nV kaarten ongeveer gelijk geprijsd zijn en even snel, kan dit de doorslag geven mits die DX10.1 ook daadwerkelijk een voordeel oplevert.
Xaudio2, betere multithreading, SM4.1 met dynamically selective sample pattern voor MSAA, TextureCube Arrays, verplichte 4x AA (minstens) met dynamische pixelpatronen, 32-bit precisie filtering. Dat was het wel zo'n beetje denk ik.

DX10.1 zou effeciënter zijn dan DX10.0, en zal worden wat DX10.0 eigenlijk had moeten zijn.

Maar waar heb je vandaan dat de 8800GT geen DX10.1 support? Zover ik weet zou dat de eerste NVIDIA GPU zijn dat het support.

  • Illidan
  • Registratie: augustus 2006
  • Laatst online: 09-02 18:44
quote:
Uhh dat was een quote uit de TS ;)

Enne, DX10.1 verplichte 4x AA?? Je kunt AA dus nooit uitzetten? Ik weet niet zeker of dat altijd een voordeel is.

Link 8800GT waarschijnlijk geen DX10.1

(sorry dat ik hier een nV link neerzet, maar als de info klopt dat die 8800GT geen DX10.1 ondersteund, lijkt me dat ook wel van belang voor ATi's RV670 die dat weer wel ondersteund, kan namelijk wel eens een groot voordeel blijken te zijn)

[Voor 62% gewijzigd door Illidan op 21-10-2007 14:47]

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

Een game moet 4x AA ondersteunen, wil niet zeggen dat het moet aanstaan.

It takes two fools to argue.


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
Dat Everest dat aangeeft betekent niets, dat programma kan het ook fout hebben ;)
quote:
Enne, DX10.1 verplichte 4x AA?? Je kunt AA dus nooit uitzetten? Ik weet niet zeker of dat altijd een voordeel is.
Uitzetten is wel mogelijk denk ik. Maar het zal niet nadelig zijn, want elke DX10.1 kaart zal snel genoeg zijn om 4x AA te doen zonder merkbare performancedrop ;) Ik vind het een verbetering, nu zie je dat vrijwel alle 'casual' gamers zonder AA spelen, puur omdat ze niet eens weten dat het er is. Zelf vind ik games echt lelijk zonder AA, dus ik vind dit wel een mooie vooruitgang :) Of het verder nog technische redenen heeft weet ik niet exact.

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

quote:
want elke DX10.1 kaart zal snel genoeg zijn om 4x AA te doen zonder merkbare performancedro
Dat zie ik de RV670 niet doen ;)
quote:
nu zie je dat vrijwel alle 'casual' gamers zonder AA spelen, puur omdat ze niet eens weten dat het er is.
En DX10.1 zal daar niks aan veranderen. Een game moet 4x AA ondersteunen maar daarom hoeft het niet aan te staan. Standaard zal het meestal ook uitstaan.

[Voor 50% gewijzigd door XWB op 21-10-2007 14:49]

It takes two fools to argue.


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
Hacku schreef op zondag 21 oktober 2007 @ 14:48:

En DX10.1 zal daar niks aan veranderen. Een game moet 4x AA ondersteunen maar daarom hoeft het niet aan te staan. Standaard zal het meestal ook uitstaan.
Ik denk sowieso dat games wel standaard met AA en de native resolutie van het scherm gaan komen. World in Conflict bijvoorbeeld draait standaard op de native resolutie van je scherm, met AA.

Maar je hebt gelijk dat DX10.1 daar niets aan gaat veranderen ;)

[Voor 6% gewijzigd door Avalaxy op 21-10-2007 15:00]


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
Hacku schreef op zondag 21 oktober 2007 @ 14:48:
En DX10.1 zal daar niks aan veranderen. Een game moet 4x AA ondersteunen maar daarom hoeft het niet aan te staan. Standaard zal het meestal ook uitstaan.
de hardware moet 4x AA ondersteunen van de software kan MS niets eisen
En zo'n beetje alle Radeons sinds de R300 kunnen al 6xMSAA dus die eis stelt niks voor. Interessanter is de double precision FP. Ik dacht dat dat voor veel meer transistoren zou zorgen, maar dat is blijkbaar niet het geval.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Ik hoop echt dat die chip sneller is clock voor clock dan de R600. Dat samen met de hogere clockspeeds moeten het gaan doen.

Volgende week ( de 28e ) komt nVidia met de 8800 GT en dan weten we zeker of die DX10.0 is of niet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
Astennu schreef op zondag 21 oktober 2007 @ 16:51:
Volgende week ( de 28e ) komt nVidia met de 8800 GT en dan weten we zeker of die DX10.0 is of niet.
Ik hoop toch wel voor ze dat de 8800GT DX10.0 ondersteunt :P

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Pfff zou het helemaal niet erg vinden als 2of 4AA op de een of andere manier gewoon verplicht werd. Zowel in Hardware als in Games.

Echt belachelijk dat er anno 2008 nog games zijn die niet of niet goed met AA werken. Ziet er gewoon niet uit imo..... :X

Koop geen GPU van EUR 400a600 om getrapte dakranden e.d. te zien...... :r

(sry maar moest er ff uit :o )

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |

quote:
Help!!!! schreef op zondag 21 oktober 2007 @ 17:12:
Echt belachelijk dat er anno 2008 nog games zijn die niet of niet goed met AA werken. Ziet er gewoon niet uit imo..... :X
Tja dat komt om de simpele reden dat MSAA niet geschikt is voor alle vormen van renderen. DX10 brengt hier verbetering in vanwege betere controle over de pixels.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
CJ schreef op zondag 21 oktober 2007 @ 16:12:
En zo'n beetje alle Radeons sinds de R300 kunnen al 6xMSAA dus die eis stelt niks voor. Interessanter is de double precision FP. Ik dacht dat dat voor veel meer transistoren zou zorgen, maar dat is blijkbaar niet het geval.
DP zal waarschijnlijk maar half zo snel zijn als SP, dan is de extra logica beperkt

  • Dieds93
  • Registratie: juni 2001
  • Laatst online: 21-10-2007

Dieds93

 't Ken net ..!

Heb net mijn sapphire HD2900_PRO naar 2900_XT geflashed, werkt perfect !

  • Puppetmaster
  • Registratie: december 2001
  • Laatst online: 24-08-2019
Dat had je toch ook met een simpele overklok kunnen doen?
minder risico iig... :)

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
flahen is handiger voor vista, gezien het feit dat oevrclocken in vista beperkt is.

en xt speeds zijn aardig save, de meeste pro's schijnen het makkelijk te halen.

die van mijn kameraad haalt 840 core/ 1000 mem stabiel!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Flashen is veel makkelijker hoor. Als hij die clocks toch kan zou ik liever een flash doen. Jammer genoeg nog geen Tools om voltages en mhz in te stellen voor de HD2900 XT anders had ik dat wel gedaan. Bij mijn X1900 XTX heb ik dat ook gedaan. Geen tooltjes meer nodig en zo werkt heerlijk.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
En als je de 2900pro flasht naar 2900xt,dan zou in principe crossfire kunnen draaien met een 2900xt?

|2600k|Asus 290|

quote:
Bullus schreef op maandag 22 oktober 2007 @ 07:32:
En als je de 2900pro flasht naar 2900xt,dan zou in principe crossfire kunnen draaien met een 2900xt?
Als ik het goed heb dan is het zelfs mogelijk om een HD2900Pro in CrossFire combinatie met een HD2900XT te draaien zonder te flashen. Beide kaarten behouden hun eigen kloksnelheden. Ik zal dit nog even navragen, maar het staat me bij dat dit gewoon moet werken omdat ze dezelfde GPU hebben.

[Voor 3% gewijzigd door CJ op 22-10-2007 07:59]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • ormagon
  • Registratie: februari 2005
  • Laatst online: 08-03 22:13

ormagon

Definitely Maybe

Naar mijn weten is het inderdaad mogelijk om een 2900pro en 2900xt in crossfire te draaien aangezien ze allebei over dezelfde R600 chip beschikken.

Laptop: MacBook Pro 15" 2014 | Mobiel: LG G6
Camera: Sony Cyber-shot RX-100 | Versterker: Luxman L-505V
Speakers: Canton Plus S & Canton Plus C | Draaitafel: Dual CS-721


  • Andso
  • Registratie: juni 2003
  • Laatst online: 01-01 15:47

Andso

Tabby SCORE!!!

Iets wat mij totaal niet duidelijk wordt van crossfire is als je die setup hebt is het dan ook mogelijk om triple monitor functie te gebruiken? Maar als je bijv game start dat crossfire aangaat?

Of wordt deze optie alleen straks ondersteunt met de nieuwe serie kaarten?

  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Zou kunnen dat dit alleen met de nieuwe kaarten kan of dat die driver het ook mogelijk gaat maken voor de huidige kaarten. Ik denk zelf het laatste. Of er moeten hardware matige aanpassingen nodig geweest zijn om dat voor elkaar te krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 07-04 22:18

XanderDrake

Genetics is the key

quote:
CJ schreef op maandag 22 oktober 2007 @ 07:58:
Als ik het goed heb dan is het zelfs mogelijk om een HD2900Pro in CrossFire combinatie met een HD2900XT te draaien zonder te flashen. Beide kaarten behouden hun eigen kloksnelheden. Ik zal dit nog even navragen, maar het staat me bij dat dit gewoon moet werken omdat ze dezelfde GPU hebben.
Dus dat zijn ongelijke kloksnelheden? Krijg je dan niet ongelijke redering of ben ik nou gek :?

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • MensionXL
  • Registratie: juni 2004
  • Niet online

MensionXL

Optimaliseren!

^_^

[Voor 100% gewijzigd door MensionXL op 22-10-2007 11:57]

Gratis hardware! - Goedkoop bellen via VoIP


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

quote:
XanderDrake schreef op maandag 22 oktober 2007 @ 10:31:
[...]

Dus dat zijn ongelijke kloksnelheden? Krijg je dan niet ongelijke redering of ben ik nou gek :?
Jawel maar de driver zal dat bijstellen. Ik gok dat je performance gain dan gewoon na genoeg even groot is als met 2x een HD2900 Pro. Het is ook zo dat een X800 Pro en XT in CF kunnen echter gaan er dan ook 4 pipes van de XT kaart uit om het gelijk te trekken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

Ik weet niet of het precies zo werkt, maar ik heb een tijd terug, toen NV net SLI uit bracht een video gezien waarin je een lijn zag in het midden van het scherm tijdens een 3dmark run. boven was een gpu en onder was een gpu. En als er boven veel gebeurde dan ging de lijn ook naar boven zodat de gpu's het ongeveer even zwaar hadden.

Zoiets zou hier ook kunnen werken? De kaart met de hoogste clock moet het meeste werk doen. :)

Geluidswolk


  • MensionXL
  • Registratie: juni 2004
  • Niet online

MensionXL

Optimaliseren!

quote:
Astennu schreef op maandag 22 oktober 2007 @ 12:00:
[...]


Jawel maar de driver zal dat bijstellen. Ik gok dat je performance gain dan gewoon na genoeg even groot is als met 2x een HD2900 Pro. Het is ook zo dat een X800 Pro en XT in CF kunnen echter gaan er dan ook 4 pipes van de XT kaart uit om het gelijk te trekken.
Zie CJ:
quote:
CJ schreef op maandag 22 oktober 2007 @ 07:58:
[...]

Als ik het goed heb dan is het zelfs mogelijk om een HD2900Pro in CrossFire combinatie met een HD2900XT te draaien zonder te flashen. Beide kaarten behouden hun eigen kloksnelheden. Ik zal dit nog even navragen, maar het staat me bij dat dit gewoon moet werken omdat ze dezelfde GPU hebben.
;) Dus 1x een XT en 1x een PRO.

Gratis hardware! - Goedkoop bellen via VoIP


  • Astennu
  • Registratie: september 2001
  • Laatst online: 14:07

Astennu

-= RX 5700 XT 50th =-

Ik zeg ook niet dat de clock speeds omlaag gaan ik zeg alleen dat de drivers het op een of andere manier zullen compenseren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Mister_X
  • Registratie: februari 2000
  • Laatst online: 23-11-2017
Sinds kort ben ik weer actief met het zoeken en vergelijken van videokaarten, hierbij let ik erg op de prijs, en of ik er goed op vooruit ga, dus om te beginnen wat ik nu heb:

Aopen 6800 LE @ GT speeds (core 300@400 geheugen 700@900, 16v6). Heeft zijn beste tijd (2jaar ofzo? die aanbieding bij mycom toendertijd :P) gehad denk, vooral nu ik COD4 pre-orded hebt :).

Omdat ik dus nu een nvidia gehad heb, wil ik (weer, ooit een 9800pro gehad) een ATI kaart, mijn oog is gevallen op de "MSI RX2600XT Diamond 512 (DDR4)".

Ik ben op de hoogte van de behoorlijk performance verschillen tussen de 2900 en 2600 serie, maar zoals ik al zei, let ik erg op de prijs.

Zijn er mensen die een 2600XT hebben? en zijn die er tevreden mee? Kijk 1600*1200 8XAA en anti filtering is leuk, maar ik dacht meer aan 1280*1024, wat me 6800LE ook nog wel trekt als ik details op low zet :)

Overige belangrijke sys specs:
- amd venice 3200+ @ 2.5ghz (lijkt me nog wel snel zat! isch wel AMD power he!)
- 1gb DDR600 @ DDR400 (tja mobo trekt die 600 bij lange na niet ;))

Paul en Erik zijn helden


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Mister_X schreef op maandag 22 oktober 2007 @ 16:40:
Omdat ik dus nu een nvidia gehad heb, wil ik (weer, ooit een 9800pro gehad) een ATI kaart, mijn oog is gevallen op de "MSI RX2600XT Diamond 512 (DDR4)".
Tip, als je graag ATi wilt wacht dan 3 weken op RV670 aka de Radeon 38x0 serie.
Is wel duurder dan de 2600XT (vrm ~230 Euro), maar ook (heel) veel sneller, volgens de geruchten is het HD 3870 topmodel (uit de 38xx serie) zelfs sneller dan de HD 2900XT.

Als je perse nu wat wilt kun je beter voor de X1950Pro of X1950XT gaan als je die nog kunt vinden. Zijn niet veel duurder dan de 2600XT maar die zijn ook een stuk sneller.

[Voor 14% gewijzigd door Cheetah op 22-10-2007 16:54]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
de 2900gt komt er ook aan en zit mooi tussen de 2600xt en 2900pro in qua prestaties.

en een prima prijs van max. 150 euro. ik denk ongeveer even snel als een x1950 maar dan wel met de extra functies en ietsje goedkoper te krijgen.

  • Locutus-of-Borg
  • Registratie: februari 2001
  • Laatst online: 30-04-2017

Locutus-of-Borg

Resistance is futile!

Mmm die RV670 wordt mijn nieuwe videokaart zo te zien. Dat ding komt halverwege/eind november?

Asrock K10N78 || AII 7750 ||2x 1GB Kingston || 2x 200Gb Maxtor DiamondMax 10 || R4850 || Acer X223W Q || WinXP


  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
net even eerste benchies van de 8800gt bekeken....pffft echt wel snel kaartje!

beduidend sneller dan de gts en xt dus wordt nog een zware dobber voor ATi.

net de gts gekocht dus ik hoop dat die benchies iet kloppen :+

  • Sjah
  • Registratie: juli 2000
  • Laatst online: 14:13
@Mister_X: ja ik heb een MSI 2600 XT. Heb een 256mb model, met ddr3 geheugen. 512mb is wel ok, Episode Two zet bij mij alles op maximaal @1280, behalve textures @medium, speelt heerlijk, AA staat uit maar daar geef ik niet om @1280. 3dmark06 4300 met een X2 5200+. Echt een fijn kaartje voor de occasional gamer zoals ik, voor die prijs. Ben je een heftige gamer, dan ga je idd wachten op de RV670 lijkt mij, maar die is ook veel duurder.

[Voor 5% gewijzigd door Sjah op 22-10-2007 17:30]

os: Ubuntu lts


  • Locutus-of-Borg
  • Registratie: februari 2001
  • Laatst online: 30-04-2017

Locutus-of-Borg

Resistance is futile!

Maar is de 8800GT dan hetzelfde idee bij Nvidea als de RV670 bij ATI?

Asrock K10N78 || AII 7750 ||2x 1GB Kingston || 2x 200Gb Maxtor DiamondMax 10 || R4850 || Acer X223W Q || WinXP


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 06-04 16:47
quote:
Locutus-of-Borg schreef op maandag 22 oktober 2007 @ 17:29:
Maar is de 8800GT dan hetzelfde idee bij Nvidea NVIDIA als de RV670 bij ATI?
Ja ongeveer wel, behalve dat de 8800GT geen DX10.1 en SM4.1 ondersteunt en de RV670 wel.

  • Apoca
  • Registratie: november 2001
  • Laatst online: 04-04 16:03

Apoca

Array Technology Industry

AMD R6xx: Image Quality Analysis w/ AA focus

http://www.beyond3d.com/content/reviews/47/1

Best intressant stukje tekst voor de mensen die der intresse in hebben.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is het ATi Nieuwsdiscussie Topic.
Niet het "Stel-hier-algemene-ATi-vraagjes" topic. Post dus relevant over ATi Nieuwsberichten, benchmarks, mijlpalen, etc en niet "Mijn X1950 wordt heet, welke alternatieve koeler is leuk" e.d.

Verder gewoon lukraak posten dat de ATi HD serie "brak" zou zijn zonder enige vorm van onderbouwing is ook _niet_ de bedoeling. Brandstichten doe je niet.
Ook is dit niet het "Kleine Mededelingen" topic.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True