[Algemeen] ATi Nieuwsdiscussie Topic - Deel 56 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 5.128 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atitopiclogo.jpg
 

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de Canadese fabrikant ATi kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten.

Note: In Oktober 2006 is de deal tussen ATI en AMD helemaal voltooid. Vanaf die tijd is ATI een onderdeel geworden van AMD. AMD heeft er echter voor gekozen om de naam ATI in stand te houden voor de GPU afdeling. Videokaarten die AMD produceert zullen bekend staan als "ATI RADEON". Daarom zal dit topic dus "ATI Nieuwsdiscussie Topic" blijven heten.

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

TOPIC REGELS

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continu melden dat een kaart niet beschikbaar is of te laat is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. En na 1x weten we het wel. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


TOPIC GESCHIEDENIS

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



NAVIGATIE
HUIDIGE VPUs
ATi's huidige line-up is bestaat uit de X1K serie. Deze serie is opgedeeld in verschillende segmenten:
  • X1950XT & XTX - R580+ (PCIe & AGP)
  • X1950Pro & GT - RV570 (PCIe & AGP)
  • X1650XT & GT - RV560 (PCIe & AGP)
  • X1650Pro - RV535 (PCIe & AGP)
  • X1550 - RV515/RV516 (PCIe)
  • X1300XT - RV530 (PCIe & AGP)
  • X1300Pro - RV516 (PCIe & AGP)
  • X1300 - RV505 (PCIe & AGP)
  • X1050 - RV370 (PCIe & AGP)
Op de R580+ na is alles gefabriceerd op het 80nm proces. Wil je meer weten over deze GPUs, dan kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post.
ATI Division - GPU Teams

Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
R6 Serie Architectuur

De Radeon HD2900 serie van AMD is al in ontwikkeling geweest sinds 2001. In de loop der jaren is er veel veranderd aan de architectuur. De volgende punten zijn kenmerkend voor de Radeon HD2900. De midrange en low-end kaarten zijn natuurlijk naar beneden geschaald wat betreft features:

•Superscalar unified shader architecture
•320 stream processing units
•512-bit 8-channel memory interface
•Comprehensive DirectX® 10 support
•Integrated CrossFire™
•High-speed 128-bit HDR (High Dynamic Range) rendering
•Up to 24x Custom Filter Anti-Aliasing
•ATI Avivo™ HD video and display technology
•Built-in HDMI and 5.1 surround audio
•Dynamic geometry acceleration
•Game physics processing capability
•Free “Black Box” game bundle from Valve Corporation

Over het stroomverbruik is het volgende bekend:
Singlecard: Max 225W default clockspeed (Overdriver >225W). Aanbevolen PSU: 500W
Crossfire setup aanbevolen PSU: 750W
High End: R600 - Radeon HD 2900 Serie

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/hd2900xt.jpg
Retail 9.5" versie van de Radeon HD 2900 XT. Img source: http://www.dailytech.com


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). Wat is de R600 precies? Wat weten we nu allemaal zeker van deze GPU?

Hieronder wat dingen die vast staan:
  • GPU: R600
  • Naam: Radeon HD 2900
  • Transistors: 700M
  • Second Generation Unified Shader Architecture
  • Superscalar Architecture
  • 64 Unified Shaders die samen goed zijn voor 320 Streamprocessors
  • Geometry Shader Units zijn veel sneller dan de GS Units in de G80 aldus Microsoft FSX team en DICE (BF - Frostbyte Engine)
  • EA gebruikt de R600 als ontwikkelplatform voor de nieuwe BF game
  • 500+ Gflops (voor 800Mhz versie)
  • 80nm high speed proces
  • In eerste instantie 1 variant: XT, later evt ook de XTX, XL en GT
  • PCB lengte voor retailkaarten: 9,5" (ter vergelijking, een X1950XTX is 9", dus de R600 is zo'n 1.3 cm langer)
  • PCB lengte voor OEM kaarten: 12" (verlengde cooler met bevestigingsbracket voor OEMs als HP en Dell)
  • Enhanced CrossFire
  • 200W Stroomverbruik
  • 1x 8 Pins + 1x 6 Pins stroomaansluiting, 8 Pins is backwards compatible met 6 Pins connectors. Voor Overdrive is het gebruik van de 1x 8 Pin connector vereist.
  • 24x Custom Filter AA
  • EATM AA
  • 128-bit HDR
  • Dynamic Geometry Acceleration
  • Built in HDMI & 5.1 surround audio
Het meest interessante zijn de 320 Multiply Accumulative Units en de 500+ Gflops voor een enkele R600. 320 MADD units zou het volgende kunnen betekenen:
  • R600 heeft 320 Scalar ALUs
  • R600 heeft 160 Scalar ALUs die Dual Issue kunnen doen
  • R600 heeft 64 ALUs die elk een Vec4 bewerking en Scalar bewerking kunnen doen
De eerste optie valt af aangezien AMD het heeft over een "superscalar architecture" itt tot een "scalar architecture".

Om die 500+ Glops te halen voor een enkele R600, zouden de shaders op 800Mhz of sneller moeten lopen. Bij nVidia lopen de shaders op 1350Mhz om zo'n 340Gflops te halen (met een maximum theoretisch haalbare van ongeveer 440 als de extra MUL zou werken). De core loopt zelf op 575Mhz bij de G80.

Het is onduidelijk of AMD nu ook gaat werken met clockdomains, maar als we uitgaan van het verleden dan zou dit niet het geval zijn en zouden zowel de shaders op 800Mhz moeten werken als ook de rest van de core (bv de ROPs). Hier zou de R600 zeker zijn voordeel uit moeten halen in combinatie met de veel hogere geheugenbandbreedte.

De naam is zoals bekend "Radeon HD 2900". AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. In eerste instantie zal alleen de Radeon HD 2900 XT uit komen. Of de XTX variant tegelijkertijd gelanceerd wordt is niet bekend.

Het stroomverbruik lig hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Wat wel voor de koper echter ook interessant is, is dat de cooler zijn werk goed doet en ook nog eens zeer stil is. Volgens de eerste berichten is de kaart zelfs koeler dan de X1950XTX.

Upper Midrange: RV670

Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland staat, namelijk Kwartaal 3 van 2007. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na.

Deze series heten dan waarschijnlijk de Radeon HD 2800 serie en de Radeon HD 2700 serie.

Lower Midrange: RV630 - Radeon HD 2600 Serie

Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560.

De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm.

De eerste indicaties wijzen er op dat de snelste RV630 gebruik maakt van een dubbelslot cooler die veel weg heeft van de X1950XTX cooler. De performance zou moeten liggen rond 12000 punten in 3DM05. Een andere bron meldt dat ze een RV630 hebben gezien op 540Mhz core en 700Mhz mem en dat deze zo'n 5000 punten scoorde in 3DM05 en op 3000 punten zat in 3DM06. De eerste was wellicht gebaseerd op Kohinoor, terwijl de tweede misschien wel Sefadu was.

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/medium/Imgp5549.jpg
Bron: http://www.pcgameshardware.de

Kohinoor
Kohinoor is de snelste van de drie en verbruikt met 125W ook gelijk het meest. Deze zal namelijk gekoppeld worden aan snel GDDR4 geheugen. Zelfs al wordt het langzaamste GDDR4 geheugen (op dit moment 900Mhz) gekoppeld aan de 128-bit memory interface, dan nog zal deze kaart een geheugenbandbreedte hebben van 28.8GB/s. Dit is dus nog altijd bijna 30% meer dan de X1650Pro en X1650XT. Koppel je dit aan het 1Ghz GDDR4 geheugen waar ook de X1950XTX gebruik van maakt, dan kom je uit op een totaal van 32GB/s wat te vergelijken is met de bandbreedte die bv de X800XT en GF6800GT hadden.

Orloff
Orloff zal waarschijnlijk de meest verkochtte worden van de drie. Orloff maakt gebruik van het ruim voor handen zijnde GDDR3 geheugen. Je kan verwachten dat hier minimaal 700Mhz GDDR3 op zit en deze kaarten dus een vergelijkbare bandbreedte hebben als de X1650XT en X1650Pro.

Sefadu
Sefadu zal vooral in veel OEM PCs de weg naar binnen weten te vinden. Het lage stroomverbruik (75W) en het niet nodig hebben van een externe stroomvoorziening, maken deze ideaal voor gebruik in een HP of Dell machine, die net iets meer juice in huis moet hebben dan een low-end GPU kan bieden.

De naamgeving van de RV630 is inmiddels ook bekend. De laatste tijd gaan er geruchten rond over een renaming naar Radeon HD 2400. Hiermee wordt ook meteen aangegeven dat de RV630 niet als tegenstander is bedoeld van nVidia's G84. Dit zouden dan de RV660 en RV670 moeten worden. De performance van de RV630 ligt dan zeer waarschijnlijk lager dan die van de GF8600GTS, GF8600GT en GF8500GS. Maar inmiddels weten we dat de RV630 de naam Radeon HD 2600 gaat krijgen.

Het voordeel die de RV630 serie heeft op de G84 serie moet dan ook niet gezocht worden in de performance, maar in de featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen. Daarnaast is de RV630 serie gemaakt op het 65nm productieproces en de G84/G86 op het 80nm productieproces. Dit zou je kunnen merken in het stroomverbruik.

RV630 heeft de Universal Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies. UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.

Het stroomverbruik is inmiddels ook bekend.
HD 2600 XT -> 65W
HD 2600 PRO -> 55W

Hierdoor zal de HD2600XT waarschijnlijk geen externe stroomvoorziening nodig hebben.
Budget: RV610 - Radeon HD 2400 Serie

De RV610 komt er in eerste instantie in twee varianten. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/medium/Imgp5545.jpg
Bron: http://www.pcgameshardware.de

Falcon
Falcon is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 400Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Antelope
Antelope is de snelle jongen van de twee. Deze zal gebruik maken van 256MB GDDR3. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire.

Over de performance is nog weinig bekend. Het gerucht gaat dat Falcon in ieder geval een 64-bits memorycontroller heeft. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn.

Met enig geluk beschikt Antelope wel over een 128-bit memory interface, dan wel een 64-bit memory interface met zeer snel GDDR3 geheugen. De core van de RV610Pro die op het Antelope PCB geprikt wordt, zou volgens eerste berichten op 700Mhz lopen.

De performance van de RV610LE GPU is twee keer die van de X1300LE volgens AMD. En net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord. De naam van de RV610 wordt: Radeon HD 2400.

Over het stroomverbruik is het volgende te melden:
HD 2400 XT -> 20W
HD 2400 PRO -> 18W

TOEKOMSTIGE VPUs (Lange Termijn) - R650/R680/R700

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten!

Prijsoverzicht na lancering X1K serie
Deze lijst wordt weer geupdate wanneer de HD2K serie gereleased is.


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

DE GERUCHTENMOLEN
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: R600 is laat vanwege technische problemen
Nee.
Waarheidsfactor: 100%
Update: 06-03-2007
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: R600 is achterhaald op het moment van release, nV komt vast met een veel snellere G81 uit
Nee. R600 is niet achterhaald op het moment van release. Weten jullie wat R600 is? Nee? Trek dan ook geen voorbarige conclusies. Degenen onder ons die inmiddels weten wat R600 is, zullen jullie dit ook kunnen vertellen dat de R600 zeker niet achterhaald is. ;)

En de refresh van nVidia? Maakt AMD zich daar zorgen over? Voorlopig komt er geen G81. Als er een snellere variant uit komt van de GF8800GTX, dan is het de GF8800Ultra en deze is nog altijd gebaseerd op de G80 core. Voorlopig ziet het er naar uit dat het niets meer is dan een opgevoerde G80, en daar houdt AMD zeker rekening mee.
Waarheidsfactor: 100%
Update: 06-03-2006
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


Afbeeldingslocatie: http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

OVERIGE ZAKEN
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

[ Voor 203% gewijzigd door CJ op 03-05-2007 12:21 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atitopiclogo.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te
zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is.

[ Voor 99% gewijzigd door CJ op 29-04-2007 14:35 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/pricechart.jpg
Richtprijzen na de lancering van de X1950XTX, X1950Pro, X1650XT, X1650Pro en X1300XT

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.
• Goedkoopste X1300 128MB PCIe: €47,20 >
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €64,14 <
• Goedkoopste X1300XT 256MB PCIe: €65 << TIP
• Goedkoopste X1300XT 512MB PCIe: €90,00 NEW
• Goedkoopste X1600Pro 256MB PCIe: €73,54 =
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €76,00 =
• Goedkoopste X1650XT PCIe: €119 <
• Goedkoopste X1800GTO 256MB PCIe: €174,90 =
• Goedkoopste X1800XT 256MB PCIe: link verouderd
• Goedkoopste X1800XT 512MB PCIe: €304,98 >>
• Goedkoopste X1900GT 256MB PCIe: €157,00 >
• Goedkoopste X1950GT 256MB PCIe: €144 NEW
• Goedkoopste X1950Pro 256MB PCIe: €154 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €195 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €195,23 <<
• Goedkoopste X1900XT 256MB PCIe: €229,00 <<
• Goedkoopste X1900XT 512MB PCIe: €299,00 =
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299,00 <<
• Goedkoopste X1950XT 256MB PCIe: €198,00 << TIP
• Goedkoopste X1950XTX PCIe: €298,00 <<
• Goedkoopste X1950XTX CrossFire PCIe: €354,80 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 6 Maart 2007

[ Voor 99% gewijzigd door CJ op 29-04-2007 14:35 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Dat is weer een nette TS CJ 8)
heh jazekers kan niet wachten voor final pics als pics van benches met de final drivers van de kaart!

En mischien nog meer info over het HD 2900 XTX model als de R650

@ CJ

je bent de groene kader van je tweede post vergeten in dit plaatje :)
Afbeeldingslocatie: http://www.quickload.hostingvision.com/images/4243Clipboard01.jpg

[ Voor 45% gewijzigd door Anoniem: 23009 op 29-04-2007 14:53 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
Nou ik ben benieuwd wat dit topic ons gaat brengen.

Ik bedacht me laatst dat de RV630 eigenlijk een halve R600. Dus de helft van de shader power heeft. Alleen door de geheugen bus dat niet kan benutten. Bij nVidia is dat anders. Daar is de 8600 GTS maar 1/4e van de 8800 GTX. Ik vraag me af waarom het verschil bij ATi dan kleiner is. Of de R600 is echt niet zo snel. Of de RV630 heeft heel veel power die niet benut kan worden door de geheugen bus.....

En de RV630 zou toch maar iets van 65 watt gebruiken ? Waarom gebruikt de R500 bijna 200 watt ? Ik vraag me af waar die extra stroom dan heen gaat. Tuurlijk zal de R600 core wat groter zijn door die Ringbus maar je kunt 3-3,5x RV630 laten draaien voor een R600.

Of zie ik iets over het hooft ?

[ Voor 24% gewijzigd door Astennu op 29-04-2007 14:50 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
De RV630 is na de R600 ontwikkeld, misschien hebben ze ondertussen een de chip efficiënter kunnen maken, de RV630 is ook op 65nm en de R600 op 80 nm.

De RV630 is trouwens 24 vec4+scalar shaders, 4 ROPs en 8 TMU's

[ Voor 18% gewijzigd door oeLangOetan op 29-04-2007 15:03 ]


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Astennu schreef op zondag 29 april 2007 @ 14:48:
Nou ik ben benieuwd wat dit topic ons gaat brengen.
[...]
Hopelijk ook de lauch zelf; Maar gezien de snelheid waain er her gepost wordt, denk ik niet dat deze draad het tot woensdag a.s gaat halen ;)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

At last ATI has the final Radeon HD 2900XT speeds. The card will work at 507 MHz in 2D mode and 757 MHz in 3D mode.
[...]
ATI found that these clocks have much better yield than the previous 800 / 1600 MHz combination. The cards with these clocks will hit retail and etail stores on the 14th of May.
Zou dit dan betekenen dat veel R600's de 800mhz core dan niet (goed) halen :?
Staat wel weer een beetje haaks op de twee OC berichten tot nu toe (850 & 890mhz core)...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 23009

heh idd hoe gaan ze het oplossen met het XTX model als 890 max OC was :/ Tenzei dat R650/R680 wordt ingezet voor die XTX heh.

[ Voor 27% gewijzigd door Anoniem: 23009 op 29-04-2007 15:24 ]


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Cheetah schreef op zondag 29 april 2007 @ 15:15:
[...]
Zou dit dan betekenen dat veel R600's de 800mhz core dan niet (goed) halen :?
Staat wel weer een beetje haaks op de twee OC berichten tot nu toe (850 & 890mhz core)...
Fuad kopieert zijn info ook maar hoor:

Afbeeldingslocatie: http://i4.photobucket.com/albums/y117/jonelo/gpun2076.jpg

Volgens mij is t nog niet veelzeggend aangezien er een nieuwe driver aankomt.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Krijgt Fudo last vam grootheidswaan of probeert die gewoon met de NVIDIA CEO te slijmen...
"FudoJenHsun" _O-

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
oeLangOetan schreef op zondag 29 april 2007 @ 15:01:
De RV630 is na de R600 ontwikkeld, misschien hebben ze ondertussen een de chip efficiënter kunnen maken, de RV630 is ook op 65nm en de R600 op 80 nm.

De RV630 is trouwens 24 vec4+scalar shaders, 4 ROPs en 8 TMU's
Ja daar heb je gelijk in. Ik had dus veel over het hooft gezien :)

Ik dacht dat de RV630 32 Shaders hadden en de RV610 16 en dan de RV670 48. Maar 24 klinkt logischer. Maar met 4 Robs zou je hier nog een grotere bottelnek hebben als bij de R600 echter is het aantal TMU's de helft van de R600 dus weer in het voordeel.

De Robs heb je toch ook nodig voor AA en AF ? dus het zou kunnen zijn dat de RV630 daar dus niet zo goed in is maar wel aardig goed in Textures plakken waar de R600 in verhouding minder goed in is.

En die 65nm zal inderdaad veel schelen voor het stroomverbruik.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op zondag 29 april 2007 @ 15:15:
[...]
Zou dit dan betekenen dat veel R600's de 800mhz core dan niet (goed) halen :?
Staat wel weer een beetje haaks op de twee OC berichten tot nu toe (850 & 890mhz core)...
Hij heeft het over het geheugen en niet de core toch? (800DDR = 1600).

[ Voor 3% gewijzigd door CJ op 29-04-2007 15:56 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Joepi schreef op zondag 29 april 2007 @ 15:30:
Krijgt Fudo last vam grootheidswaan of probeert die gewoon met de NVIDIA CEO te slijmen...
"FudoJenHsun" _O-
uit dat artikel:
If you decide to make a Shader that will add eight 1D vectors Nvidia can take 8 units in a single clocks and ATI has to do in four clocks as it can use 1 4D and 1 1D unit per clock to finish this operation. In this case Nvidia can be four times faster and still finishes the calculation faster.
hilarisch!! Fudo heeft nog niet gehoord van de interne schedulers en de compiler optimalisaties, en vooral de laatste zin, lol. SIMD komt in de problemen als er per kanaal een ander instructie nodig is.

@astennu, ROPs zijn oa voor AA en HDR, de TMUs (die volgens een bron op B3D een stuk krachtiger zijn dan de DX9 TMUs) zijn voor de filtering (bilinear, trilinear, anisotropic).

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 00:59

SG

SG surft naar info hardewaren

Toch ben ik het niet zo eens met de Physics deel.
Denk ook niet dat R600 en G80 daarin meebegrepen zijn.
Vraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet

je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics
Wat is de 'key point' aan wat PPU en GpGPU aan nieuwigheid brengt voor games?
Is! Hardware accelerated Physics.
Physics is zo oud en stamt van af de eerste Pc games. Toen viel het niet op. Zoals het simpele Gravitatie. Het gaat om Hardware acceleratie van Gameplay en effectPhysics en de consequenties voor game design en game mechanics waar Dev's dit moeten mergen met hun game Visie.
Beide worden al lang op CPU los gelaten zij het nog niet op zo'n grote schaal als met PPU nu mogelijk is en later ook Op GPU gebeuren zal.

Voor Hardware acceleratie is die twee deling van Gameplay en effect Physics van ontiegelijk groot belang. Dat heeft niet veel met Hardware acceleratie zelf te maken, eerder met de gevolgen er van. De impact het geeft op game design en requierments, zoals Online Net traffic gegenereerd door heel veel meer Physics objecten. Synchoniseren over alle online spelers op die ene server.
Daar door de grote voorkeur naar effectPhysics. De makkelijke weg.
Hardware accelerated Physics kan je dus verdelen over twee kampen PPU speciaal daarvoor ontworpen zie Patenten. Of door Pixel shaders of unified shaders van de vorige generatie GPU en hoger. SM3.0 en hoger.
CPU is de Software methode.
PPU is de hardware accelrated methode.
Herkenbaar aan hun API en games die ervan gebruik maken.
CPU is de algemen basis de minimum requierment basis voor gameplay Physics.
Die grootste knelpunt in dit GamePlay vs effectPhyisc is de target audience mergen van, met en zonder hardware acceleratie spelers. Geen probleem voor effectPhysics des te groter probleem voor gameplay Physics.
Geen of 5 dodelijke brokstukken vs 100 tot 250 gevarieerde dodelijke Brokstukken hoe ga je dat balanceren online. Tussen die twee speler groepen.

Daarom gaan de meeste Dev's en Havok FX voor effectPhysics. Easy way met behoud van onlinePlay zonder filteren van Player setups.
Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken

om je oren vliegen. De game-interactie zoals je zelf al zegt.
Physics Interactie door of met de gamer of NPC's.
Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met

alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten

uitzien (visuals).
Geen phsyics interactie met de speler of NPC
Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar
Die leuke explosies in Graw is Effect Physics Geen Player interactie. Eyecandy only. Geen online problemen daarom online features zoals we gewend zijn.
Het verschil tussen Gameplay Physics en Effect Physics is als er events komen waar interactie mogelijk is zoals colission zoals rond vliegend debri, wordt bij gameplay Physics dat doorberekend zoals debri op speler hoofd of nPC. Die Speler of nPC is dan dood, voorbeeld CellFactor. Effects houd in event gebeurt maar wordt ignored geen gevolgen, voorbeeld Graw
Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van

dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.
Bij PhysX is PPU support of SMP op de CPU 'n initialisatie ding. Bij havok gooien ze met leuke marketings kreten.
Havok heeft CPU en GPU gesplits in Havok produkten en voor GPU HavokFX. Je moet dus 'n extra licency nemen om GPU te kunnen gebruiken met deze API. Gezien de Gameplay hardware acceleratie online dilemma's gaat HavokFX voor Effect Physics maar dev's kunnen als ze willen ook voor gameplay gaan. Volgens Havok zelf.

PhysX support net als Havok ook SMP voor CPU. Maar promoten Gameplay Physics meer. Aangezien dat dat juist games totaal kan veranderen in ene nieuwe styl gameplay.
Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.
Dat doet ageia ook en natuurlijk nV ook. ATI bied een eigen directe Path. Iets wat gamedev's niet zozeer om staan te springen. HavokFX wel die maakt daar gebruikvan ook die van nV.

Wat ATI doet is maak GPU beschikbaar voor Physics en HAvok FX maakt daar gebruikvan.
ATI bied dus die low level interface aan voor Physics waar middleware SDK bouwer zoals HAvok en en ander eigenlijk ook zoals newton wat mee kunnen. Of Dev's met een expert in hun team met veel tijd en geld om hem te betalen om een inhouse Physics module te ontwikkelen om GPU direct te kietelen is vaker economisch niet haalbaar voor dev teams en hun publisher support.
Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een
Gameplay Physics is het doorberekenen en dus consequenties aan interacties. Het verschil tussen Gameplay Physics en effect is heel klein. Wel geen concequenties. Het doorberekeninen op de resultaten in de game mechanics. If hit dood branching. In geval van Debri.
De meeste Physics Features kan je hebben in gameplay en effect Physics form door simple de interactie event met de speler te ignoren.
Destructable enviorment alles is te slopen maar debri verdwijnt en als het rondvliegt is het niet dodelijk.
Dat is effects Physics.
Gameplay debri blijft liggen maar in vlucht kan je het beter ontwijken of game over. Gameplay Physics.
De Core computation is exact hetzelfde. Maar de game logic maakt er wel of geen kill van of laat rest objecten verdwijnen. zodat Pathing simple blijft. Heeft niks met computatie te maken eerder met game logic. wat wordt er met het Phsyics berekende resultaat verdergedaan.
X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet

meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment

bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint

berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.
ATI Sm3.0 is al sterk in branching tov nV.SM3 maar nv heeft al Sm3 uit en ook een full line.
Interresant als je vorige ATI kaart als Physics versneller wil gebruiken. In geval van nV kan je beter voor SM4.0 nV kaartgaan. Maar ja Die ATI bewering is nog niet gebenched. Kan goed zijn dat dat mogelijk met 'n spel als Alanwake ooit eens gebenched gaat worden.

Daarnaast die 10Gflops is dat voor 'n dedicated CPU voor Physics. 'Één core?. 'n CPU heeft veel taken ik vraag me af hoeveel ervan gereserveerd wordt door dev's voor Physics. vroeger was het rond de 5% dat zal wel groeien naar 50%.
En ja als je door Physics 'n hoop collissions moet berekenen zoals fine grain fluid simulatie dan zijn dat een zooi if statements die heel goed ook parralel verwerkt kan worden.Fluid interactie intern tussen elk fluid particle onderling. Totdat de Player in de buurt is. Als die interactie ook wordt meegenomen zoals Frictie of stromings kracht verandering slipery grond dan is het gameplay Physics. Zo niet effects Physics.
Zo'n g80 met 128 van die dingen of R600 met 64*(4+1) doet het beter dan 2 van die generalpurpouse cores van een CPU. Maar GPU met Havok FX concureerd niet tegen CPU. Het concureerd met Ageia PhysX SDK en bijbehorende PPU. Het moet dus kwa Physics in prijs en Physics performance daar een alternatief voor zijn. Nu speeld Performance ene geringere rol omdat Games nu bepalen welke Hardware physics solution je voor die game gebruiken kan. Soort van HDDVD Brlue ray dilemma.
ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580

maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.
Het offloaden van CPU Physics. Daar koopt men niet zo snel Hardware Physics voor zoals 'n extra PPU of GPU. Dev's hebben de optie om 'n Volledig dedicated PPU of GPU te gebruiken. Dit heeft grote inlvloed op wat er in een game veel meer in mogelijk is. Het Physics enhancen van games.
Dit houd in dat al die Gflops die low tot high-end kaart 'n game mee kan verrijken. Zoals 'n HD2900XTX in CF, maar ook 'n X1600XT naast 'n RV630. Dat kan een Game aanzienlijk enhancen met Physics. Ook nog een schaalbaar met sliders gezien de variatie aan gPU de er geschikt voor zijn.
Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik

maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.
Goed geschikt voor Physics maar ja G80 kan dat ook zijn. Maar hoe verschillen ze wordt ook interresant als zo'n HavokFX game gebenched wordt op Physics. nV en aTI zijn wel in dezelfde HavokFX supportende game te benchen en vergelijken. PPU wordt alleen door PhysX games gebruikt en die gebruiken de GPU er niet voor, dus niet direct vergelijkbaar .
Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.
Nou nee.
Er zijn twee hoofd mogelijk heden.
1 ) Software CPU dus ook met PhysX Havok4.0 Newton en nog meer of inhouse software Physics aPI die ook CPU kunnen gebruiken ook in SMP.
2 ) Hardware.
Die bied dan weer twee soluties aan
I ) PPU en
II ) GpGPU.
Elk met zijn eigen API. De Dev's kiezen de solutie door de keuze van de API. Games bepalen wat je dus nodig hebt om die extra shitload ana Physics te kunnen gebruiken.
Voor Allan wake kan een GPU een sloot meer Physics geven. PPU niet.
Voor CellFactor Revolution Graw Warmonger Silverfall stroke rider Unreal3 Graw2 'n PPU. GPU niet.
Wat zullen je favoriete games in de dichtbijzijnde toekomst zijn, die bepalen wat je nodig kan hebben of je Games in volle glorie kan laten spelen.
GPU heeft dan weer twee mogelijkheden
A ) ATI en
B ) nV.
Voor die twee kampen is er een standaard en dat is Havok FX scheel twee Physics paden voor GPU coden.
ATI interface en libs en ook zo nV Cuda quantum is HavokFX 'n highlevel API en abstractie voor. Dev's kunnen dan zich meer richten op hun game dan op hardware ondersteuning.

Hier kan ik een ding zeggen hier speeld dus Phyisics Performance een veel grotere rol.
ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die
CPU is ook open met un C++ compilers. GPU zijn nu ook open maar dan heb je nog niks.
Middle ware en libs zorgen voor Functionaliteit zoals Direct X, blink etc. Bieden hogere Fuctionaliteit aan. Zoals DirectX Immidiate mode de low level interface methode is/was.
Alleen specifieke toepassingen zoals TU folding home of native aplicatie ontwikkeling voor simulatie zich richt op directe benadering van GPU.
Dat is meer een puls voor GPGPU gebruik niet zo zeer voor games.
het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de
Ik zie Havok FX als een standdaart voor GPU benadering. 'n Highlevel SDK voor physics.
HavokFX is duur 400.000+100.000 voor Fx erbij. Het altenatief is jaren extra investeren om half slachtig specifiek voor een project een inhouse physics engine er uit kloppen. Je hebt dan ten eerste een duurdere hogere level Physics Programmeur nodig met veel ervaring. Die dan die tijd betaald moet worden plus dat aanpak veel tijd kost. En deze keuze ook even in je planning moet stoppen. Grote titles met jaren development tijd die ook even 'n licenceerbare Game-engine maken kunnen zoiets doen. De gross gaat voor zo'n licenceerbare game-engine waar Physics API al onderdeel van is zoals unreal3, Crytech engine.
development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.
Met HavokFX en PhysX en newton etc ben je direct op Game niveau bezig met Physics op Game mechanics niveau. Niet op low level hardware. doet me denken aan hardware support onder DOS.

Cuda moet je zien als 'n C compiler maar dan voor GPU . Zo ook aTI interface. Ging hiervoor nog vaak met GPU Assembler. Het laat je een GPU gebruiken voor Physics maar je hebt nog steeds geen full featured Phsyics game component. die moet je dan nog zelf maken dat wat PhysX en HavokFX al voor hun soluties gedaan hebben en breed toepasbaar voor games.
Dat bieden je die Middleware je aan. En PhysX is free met PPU support. Time to market. Code reuse is heel belangrijk voor kleine en middel grote projecten met strakke deadlines.
Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.
3DFX Glide is zoiets. 'n native API gemaakt voor specifieke hardware. interresant als het 'n monopool bied het efficente interfaceis anders heb je meer aan een standaard daar voor is DirectX en OpenGL . Games gaan meer richting Large scale software enginering. Modulariteit en time to market is van belang. Content creation tools en flow zijn ook heel belangrijk. Games worden steeds meer complexer. Middleware zijn vaak specialisten in hun vak gebied en bieden 'n breed toepasbaar API's voor alle soorten taken aan developers. Code reuse is de key.
Daar heeft men wat Performance wel voor over.
ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi
Ageia en nV ook maar wat hebben devs eraan die willen geen 5 code path in hun game. Daarvoor is middleware en standaard API die vangen die rompslomp op.
biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
Het gross gaat voor 'n licenceerde gameengine met Physics al vaak ingebakken zoals unreal3 engine. Andere bouwen een engine bestaande uit deels eigen komponenten en weer die middleware. zoals Blink en PhysX. Unreal 3 engine gebruikt PhysX. Een uitzonderling zoals Crytech team met veel tijd en geld stort zich op die low level API.
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.
Dit houd in dat Dev's geen tig code pads hoeven te volgen of 'n solutie hoeven te kieze zoals tja HavokFX of PhysX welke Solutie gaat het maken. Nu bepalen de games wat je nodig hebt aan de hand van wat die ondersteunen. Met DirectPhysics bepalen de games niet meer wat je nodig hebt. Maar de Prijs Physics performance verhouding van die hardware Physics versnellers.
Nu mag 'n R600 wel 3 keer zo krachtig zijn als 'n PPU. Unreal doet niks met 'n R600 voor Physics alleen met een PPU. zo ook warmonger CF revolution.
Wat PPU generatie 3 doet tegen R750 maakt dan wel uit als er dan aardig wat DirectPhysX games uit zijn. Nu speeld dat nog niet mee voor 'n paar jaren
ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van

DirectPhysics lijkt dit dan ook te gaan gebeuren.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan

eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.
Physics load is nogal event afhankelijk in geval van explosie event is er in een korte tijdspan veel aan de gang op Grafisch gebied maar ook Physics. ipv de helf idle heeft opeens de Grafische code alle shaders nodig om niet te dippen naar onspeelbare FPS. en de Phsyics heeft alles nodig om die explosie te berekenen zodat het grafisch deel met het resultaatd aan de gang kan.
Veel mensen verkijken zich er op waarmee concureerd het met CPU waar games zeker GPU naa st zwaar grafisch gaan utiliseren nu ook Kwa GPU met Physics zwaar kunnen utiliseren.
Dus 10gfops voor CPU 'n magere 35GFlops voor Physis en levert GFX performance in.
Games kunnen van 40 tot 400GFlops gebruiken voor Physics. JE game ziet er oppeens heel anders uit en gedraagdt zich ook veel meer interactief onderling of tov de speler.
Afhankelijk wat je aan GPU power over hebt kun je nu uitgebreid je Phsyics inslellingen aanpassen aan wat je wilt en aan ahrdware hebt..
2) Physics op GPU1 + Graphics op GPU2
Mij lijkt dit spoepeler te gaan lopen dedicatie.
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main

graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik

al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een X2K kaart bij,

dan kan je je X1K kaart blijven gebruiken als physics GPU.
Volgens aTI heeft X1300XT niet zoveel zin tov CPU. Dit zegt al iets van de Phjysics Performance. 'n X1600XT maakt dedicated acceleratie wat intersanter aangezien het meer bied dan wat een CPU kan maar geen veel voud. 'n R580 is al veel beter.
G8x reeks is al uit en PPU met PhysX games al langer. Daarnaast komen er ook R(V)6x0 meespelen op dit gebied de performance tussen r600 reeks en G80 is nog onbekend en G84/G86 zijn al uit. Alleen geen een Havok Fx of GPU gebruikende game.
Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers

wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook

HavokFX onderdeel van is.
Sinds wanneer is dat verander zover ik weet is HavokFX 'n addon los van Havok 4,0
Kan natuurlijk veranderd zijn sinds kort. Maar Havok core bussness is zijn middleware. Lijkt me dan toch normaal dat je ervoor betalen moet. Ageia geeft meer push naar PPU dan API.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Heb helaas op dit moment geen tijd om langer te antwoorden. Ben vandaag en morgen namelijk elders koninginnedag aan het vieren. Dus bij deze alvast een prettige koningenacht/dag gewenst! En probeer het topic niet te snel vol te maken binnen deze twee dagen! ;)

Have fun and enjoy the weather! :>

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 8819

PPU en GpGPU aan nieuwigheid brengt voor games
Bij PhysX is PPU support of SMP

Kleine vraag hier over
Als het goed is kan je met ati dit doen met de tweede kaart.
Alleen vraag ik me het af of je ook dat kan met 1xdirectx10 kaart en 1xdirectx9 kaart
Directx10 kaart voor de game
Directx9 kaart voor de ppu of wat anders.
Dan lijk me het makkelijk om een ati 1300 van 40euro te nemen en dat gaan gebruiken er voor.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
oeLangOetan schreef op zondag 29 april 2007 @ 16:07:
[...]

uit dat artikel:

[...]

hilarisch!! Fudo heeft nog niet gehoord van de interne schedulers en de compiler optimalisaties, en vooral de laatste zin, lol. SIMD komt in de problemen als er per kanaal een ander instructie nodig is.

@astennu, ROPs zijn oa voor AA en HDR, de TMUs (die volgens een bron op B3D een stuk krachtiger zijn dan de DX9 TMUs) zijn voor de filtering (bilinear, trilinear, anisotropic).
Ah okeey dat maakt weer veel duidelijk. Dus het kan zijn dat de R600 dus slecht is in AA of AF of beide door het aantal Robs en TMU's. Nu is alleen de vraag hoe krachtig een TMU in de G80 is en hoe goed de ROB's zijn.

En 2 SG bedankt voor de uitleg over Physics. Maakt veel duidelijk. Werkte jij niet voor een bedrijf dat games maakt voor de Xbox 360 ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Er circuleren nu trouwens berichten dat de R600 met releasedriver de GFX voorbij zou gaan. (MAO op forum b3d) wat een tegenstrijdigheid allemaal.

De 890 OC kwam uit dezelfde thread.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 156281

edward2 schreef op zondag 29 april 2007 @ 16:50:
Er circuleren nu trouwens berichten dat de R600 met releasedriver de GFX voorbij zou gaan. (MAO op forum b3d) wat een tegenstrijdigheid allemaal.

De 890 OC kwam uit dezelfde thread.
Persoonlijk vind ik 't een must dat de HD 2900XT de GTX op z'n minst bijhoudt. Je kan wel zeggen dat ie qua prijsniveau tov de GTS zal geplaatst worden, maar als ie significant trager is dan de GTX is dit de zoveelste PR-knauw voor ATi. nVidia heeft mss wat aan fanbase verloren door slechte driversupport, maar dit euvel is nu (bijna) opgelost. 't Zou heel slecht zijn voor ATi als nVidia van de daken kan schreeuwen dat ze de concurrent zelfs met 6 maanden voorsprong nog verslaan. Zeker aangezien de XTX (alweer) ferme vertraging oploopt en atm nog niet eens beter presteert.

De RV630XT doet de hoop dan weer 'n beetje opleven, maar dan moet ATi wel voor betere performance dan de 8600GTS zorgen. Aangezien deze laatste beneden verwachting presteert zou dit toch moeten lukken.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
BTW...
Is er inmiddels een beter video dan deze, bv. HD?
AMD R600 Demo for CeBIT

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 00:59

SG

SG surft naar info hardewaren

Astennu schreef op zondag 29 april 2007 @ 16:36:

En 2 SG bedankt voor de uitleg over Physics. Maakt veel duidelijk. Werkte jij niet voor een bedrijf dat games maakt voor de Xbox 360 ?
Nee, Ben gewoon erg geinterreseerd in gamedevelopen.
Op [H] forum dacht iemand ook al zoiets. :)

Alleen voor de hobby, werktijden van meer dan 40 uur per week en crunch time spreekt my niet aan.
Heb wel de PhysX SDK hier maar ben er nog niet mee bezig .
Zit nog in de begin fase meer jaren veel gelezen en wat geklooi in C++ dan dat ik wat gedaan heb.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • BlackWolf666
  • Registratie: November 2006
  • Laatst online: 29-06-2022

BlackWolf666

Dawn's Moonlight

Joepi schreef op zondag 29 april 2007 @ 17:28:
BTW...
Is er inmiddels een beter video dan deze, bv. HD?
AMD R600 Demo for CeBIT
Er is geen HD. Die van Hexus was wel iets betere kwaliteit en had ook geluid. Ze hebben deze offline gehaald, maar je kunt hem hier nog wel downloaden:

http://www.hexus.tv//shows/cebit07/ATi-demo.flv

Kijk maar of je .flv bestanden kan openen :P

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 23009

BlackWolf666 schreef op zondag 29 april 2007 @ 20:43:
[...]

Er is geen HD. Die van Hexus was wel iets betere kwaliteit en had ook geluid. Ze hebben deze offline gehaald, maar je kunt hem hier nog wel downloaden:

http://www.hexus.tv//shows/cebit07/ATi-demo.flv

Kijk maar of je .flv bestanden kan openen :P
daar heb je de FLV Player 1.33 voor ;)
http://www.download.com/FLV-Player/3000-2139_4-10467082.html

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 00:59

SG

SG surft naar info hardewaren

Anoniem: 8819 schreef op zondag 29 april 2007 @ 16:33:
PPU en GpGPU aan nieuwigheid brengt voor games
Bij PhysX is PPU support of SMP

Kleine vraag hier over
Als het goed is kan je met ati dit doen met de tweede kaart.
Alleen vraag ik me het af of je ook dat kan met 1xdirectx10 kaart en 1xdirectx9 kaart
Directx10 kaart voor de game
Directx9 kaart voor de ppu of wat anders.
Dan lijk me het makkelijk om een ati 1300 van 40euro te nemen en dat gaan gebruiken er voor.
Er is nog niet veel officieels over bekend. Maar ik verwacht het wel. Maar daar heb je nu dus even niks aan. Wordt dus afwachten tot de eerste havokfX game uit is. Of officiele berichten van ATI en nV van wat er exact mogelijk is.
Ook chipset ondersteuning. Heb zelf ATI op nForce SLI board. zou leuk zijn als dat havok FX gedoe ook Chipset onafhankelijk is.

Daarnaast heeft ATI zelf al laten weten in eerdere interviews dat Dedicated Phsyics pas interresant is vanaf X1600. Dat was al pre quadcore tijdperk.

Ik zou dus 'n Rv630 naast mijn X1800XL kunnen prikken op nForce SLI board. ALs dat kan?


Daarnaast na beetje logisch redeneren, zorgen beide kaarten voor twee onafhankelijke taken die appart verwerkt worden, niet zoals bij CF en sLI 'n taak geparralleliseerde wordt verdeeld over GPU's. Er is dus geen deel werk maar voledige onafhankelijke taak last. Dit maakt dus het type GPU er niet toe kan doen. Zolang het maar SM3.0 en hoger is.
SLI CF mobo zou eigenlijk ook niet uit maken. Omdat het niet SLI of CF gerelateerd is.

Ben dus ook benieuwd.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

Wat mij ook interesseert: gaat dit werken met een Ati kaart naast een NVidia GPU?

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
gelekt..
Afbeeldingslocatie: http://img251.imageshack.us/img251/6121/superscalar1tg0.jpg
Afbeeldingslocatie: http://img47.imageshack.us/img47/1470/flopsiw6.jpg
Afbeeldingslocatie: http://img258.imageshack.us/img258/1290/ringbusii1fw7.jpg
Afbeeldingslocatie: http://img82.imageshack.us/img82/8557/tmu1xr8.jpg
Afbeeldingslocatie: http://img237.imageshack.us/img237/6893/tmu2jb5.jpg
Afbeeldingslocatie: http://img442.imageshack.us/img442/92/newjp2.jpg
Afbeeldingslocatie: http://img252.imageshack.us/img252/5633/cfaasa5.jpg

CFAA? beter IQ dan G80? :9~

BTW:
7.5 - May
=> The new MSAA adaptive anti-aliasing is scheduled to be put into the May Catalyst release. This feature will bring their AA options on-par or beyond what NVIDIA currently offers on the G80 graphics cards. This feature timeline is a target, and not yet a commitment from AMD at this time.
http://www.pcper.com/article.php?aid=367

[ Voor 30% gewijzigd door Joepi op 30-04-2007 00:02 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
Ik zag wel meer leuke dingen. Zoals new HQ AF en X1000 HQ AF is now standard :P

Was dat CFAA al niet via een driver hack te gebruiken ? Want die plaatjes waren super scherm alleen waren er af en toe wat kleine render fouten. Maar ik gok dat die er inmiddels wel uit zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 25-05 16:43
ziet er wel naar uit ja... maar de IQ is vooral bij AF heel goed bij de g80.....HQ-AA kan misschien nog wel iets beter :)
Edmin schreef op zondag 29 april 2007 @ 23:05:
Wat mij ook interesseert: gaat dit werken met een Ati kaart naast een NVidia GPU?
denk het niet....wordt alleen al ''lastig'' om een ati+nvidia driver gelijktijdig geinstalleerd te hebben

[ Voor 35% gewijzigd door Mr. Detonator op 30-04-2007 01:23 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
CFAA is helemaal nieuw, je hebt het over de nieuwe coverage sampling aa voor alphatextures, die komt nog:)
CFAA is heel dicht bij hoe ze het in films doen, het introduceert wel een licht blureffect, de rand kan meer dan 2 pixels dik zijn.

meer slides:
Afbeeldingslocatie: http://img255.imageshack.us/img255/1994/77402089ji6.jpg
Afbeeldingslocatie: http://img267.imageshack.us/img267/2358/59743691qs2.jpg
Afbeeldingslocatie: http://img184.imageshack.us/img184/9927/62566160pq0.jpg
Afbeeldingslocatie: http://img443.imageshack.us/img443/7294/66510766le0.jpg
Afbeeldingslocatie: http://img252.imageshack.us/img252/6282/82756977ql4.jpg
Afbeeldingslocatie: http://img443.imageshack.us/img443/793/19796780be0.jpg
Afbeeldingslocatie: http://img455.imageshack.us/img455/7395/12842747rr2.jpg
Afbeeldingslocatie: http://img370.imageshack.us/img370/866/83809675nc3.jpg
Afbeeldingslocatie: http://img453.imageshack.us/img453/9275/21422560ju9.jpg
Afbeeldingslocatie: http://img403.imageshack.us/img403/2249/20919688is2.jpg

[ Voor 59% gewijzigd door oeLangOetan op 30-04-2007 01:27 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Waar ik nog heel nieuwschierig naar ben; het stroomverbruik.

Weet jij daar iets van Hacku? ;)

[ Voor 23% gewijzigd door Format-C op 30-04-2007 07:18 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Bever!
  • Registratie: Maart 2004
  • Laatst online: 02-06 17:41

Bever!

3

lol na de shitstorm van al die "reviews" begint die kaart steeds intessanter te worden...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
oeLangOetan schreef op maandag 30 april 2007 @ 01:22:
CFAA is helemaal nieuw, je hebt het over de nieuwe coverage sampling aa voor alphatextures, die komt nog:)
CFAA is heel dicht bij hoe ze het in films doen, het introduceert wel een licht blureffect, de rand kan meer dan 2 pixels dik zijn.

meer slides:
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
Zo te zien is die IQ wel in orde. Alleen de AF nog afwachten. En die CSAA dan. Maar CFAA ziet er al beter uit dan ATi's oude AA. Zelfs CFAA 6x VS normal AA 6x. Mits die Foto's kloppen.

En ze zeggen ook dat de HDR en Stencil performance verbeterd is TOV de X1950 XTX. Maar vaak is hij maar 60% sneller soms 80% en soms meer dan 100% En de 8800 GTX was volgens mij 85-130% sneller dan de X1950 XTX. Die 130% was zeldzaam maar vaak tegen de 80% aan.

Maar natuurlijk straks even de benshmarks zien. En natuurlijk kijken hoe de kaart presteerd in texture games. Want laatst stond er op een slide dat hij maar 8 Texture units had. 4 per 32 Shaders.

Het valt me ook op dat die slide over crossfire meestal rond 80% winst laat zien. Soms ook tegen de 60% aan en soms ook 90% en iets hoger. Dit ziet er wel beter uit vergeleken met de oude Dongel crossfire scores. Misschien hebben ze eindelijk die nieuwe Bridge crossfire onder de knie. En misschien merken de X1650 XT en X1950 Pro gebruikers hier ook nog wat van.

[ Voor 8% gewijzigd door Astennu op 30-04-2007 10:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 202399

OMG, 2900XT of toch de 2900XTX

ik twijfel, prijsverschil is (waarschijnlijk) erg groot. Maar DDR4 + GB lijkt me een goede investering toch?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
Anoniem: 202399 schreef op maandag 30 april 2007 @ 10:29:
OMG, 2900XT of toch de 2900XTX

ik twijfel, prijsverschil is (waarschijnlijk) erg groot. Maar DDR4 + GB lijkt me een goede investering toch?
Uhmm daar denk ik zelf ook over na. Ik denk dat je beter nu meteen een HD2900 XT kan kopen. Aangezien die XTX er toch niet meteen is. Je kunt even de eerste review afwachten en kijken of die XTX meteen komt maar ik gok dat die over 2-3 maanden pas komt. Dus nu meteen HD2900 XT kopen en dan later misschien een R650 kaart en je oude verkopen. En bij die R650 dan wel de 1 GB versie nemen. Maar dan heb je nu gewoon al plezier van je goede kaart. En de games die 1 GB gebruiken komen denk ik niet voor het einde van het jaar.

Of je koopt tegen het einde van het jaar een 2e HD2900 XT voor Crossfire. Maar ik ga het eerste doen nu HD2900 XT straks upgraden naar de R650 XTX 1 GB. Hopelijk is die dan ook op 65nm.

Investeren in 1 GB is goed. Vooral als je 3 jaar met die kaart wil doen. Maar voor dat i uit is ben je wel even verder denk ik.

[ Voor 6% gewijzigd door Astennu op 30-04-2007 10:33 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Dat voorbeeld-plaatje met CFAA vs CSAA; er is amper verschil te zien tussen beide. Ik zie het wel, maar niet dat ik zeg; impressive!.

Kan ook aan het voorbeeld liggen natuurlijk.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
DirectX 10 suits it, but not really DX9

We heard more than once that Radeon HD 2900 marchitecture is more suitable for DirectX 10 content than it is for current stuff. The biggest problem for ATI is that there is not a single DirectX 10 game or benchmark out as yet and the way things are going, it will take until the autumn before you'll see one.

The biggest problem today is that you have to convince people to buy the cards now, instead of waiting for DX10 titles to arrive. And besides, by the late autumn ATI will already have its R650 card to fight the upcoming G90 part from Nvidia.

The R600 Shader design is meant for DirectX 10, but what can you do, as there is not a single game out. The only hope for DAAMIT right now is the DirectX 10 version of Microsoft flight simulator 10, as these guys have a beta available now.

The big ones including Crysis and Unreal Tournament 2007 (might be renamed 2008) aren't going to be out until the autumn at best.

R600 is really caught in a catch 22 situation, as the Geforce 8800 series ends up faster in most of today's games and R600 has a big chance to be faster in upcoming content.

The only thing we can say to all of that is DAAMIT.
Dit zegt Fudzilla. Maar dit bedacht ik me zelf ook toen ik die eerste benshmarks zag. En als je naar de Opbouw van de core kijkt met die Texture units en Robs. Zie je ook dat het niet gemaakt is voor DX9. bij nVidia heb je 24 Robs en 32 Texture units als ik me niet vergis. Dat geeft aan dat die echt gemaakt is om ook super snel te zijn in DX9.

Nu is de vraag is de R600 dan echt veel sneller in DX10 dan de G80 ? Hoe goed zal er gebruik gemaakt gaan worden van die 5D shaders ? Want het hangt er echt van de game defs af hoe goed de R600 zal presteren. Als hun op 5D shaders optimaliseren is het voordelig voor ATi. Bij nVidia maakt het niets uit die breekt die instructie gewoon in stukjes van 1D en blijft gewoon even snel.

Dus de aanpak van nVidia is wel slim gewoon. Maar bij de aanpak van ATi kun je gewoon veel meer reken kracht krijgen mits de kaart goed benut wordt door de software.
MelvinB schreef op maandag 30 april 2007 @ 10:38:
Dat voorbeeld-plaatje met CFAA vs CSAA; er is amper verschil te zien tussen beide. Ik zie het wel, maar niet dat ik zeg; impressive!.

Kan ook aan het voorbeeld liggen natuurlijk.
Ik zie het verschil tussen CFAA 6x en MSAA 8x bijna niet meer. Bij 4x CFAA en 4x MSAA vind ik CFAA een stuk mooier.

Nu vraag ik me af wat een grotere performance hit geeft. Was MSAA nu wat ATi eerst gebruikte ? of is dat die performance slurpen de AA mode ?

En ik las in die slide dat CFAA ook stencil shadows filteren en Polygon randen. Maar kan MSAA dat dan niet ?

En @ Melvin B die van ATi is toch iets beter. En de vraag is wat is de performance hit. + ATi kan tot 24x dus mocht de performance hit minder groot zijn kun je ook nog 24x gaan gebruiken.

[ Voor 16% gewijzigd door Astennu op 30-04-2007 10:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Ja, CFAA geeft een iets mooier resultaat, maar in dat voorbeeldplaatje is het verschil miniem.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
Volgens de laatste geruchten zijn de ALU's niet strict vec4+scalar ( != 5D)
Deze slide suggereert ook zoiets
Afbeeldingslocatie: http://img251.imageshack.us/img251/6121/superscalar1tg0.jpg
let op de 5instr/clk!!

De verbeterde geheugenarchitectuur van de R600 is volgens mij de sleutel tot hun verbeterde CF prestaties en is een voorsmaakje van de R700 architectuur.

/edit
CFAA is net als nVidas CSAA een lichte verbetering, het verschil is dat die van ATi zijn werk beter lijkt te doen (ik denk dat alle samples een wegingsfactor krijgen). CFAA en CSAA hebben een lichte performance hit en zijn eigenlijk pas interessant vanaf 8 samples.

[ Voor 29% gewijzigd door oeLangOetan op 30-04-2007 11:24 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 12:26
Astennu schreef op maandag 30 april 2007 @ 10:40:
Nu vraag ik me af wat een grotere performance hit geeft. Was MSAA nu wat ATi eerst gebruikte ? of is dat die performance slurpen de AA mode ?
Nee dat is SSAA, MSAA geeft een veel kleinere performance drop.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 25-05 16:43
http://www.vr-zone.com/?i=4935

The source heeft ons weer goed ingelicht :)

We learned that AIB partners for both NVIDIA and ATi have already received the GeForce 8800 Ultra cards and Radeon HD 2900 XT cards and are preparing for shipments now. These cards will hit the retail shelves by May 14th, the same day AMD officially launch their R6xx series. However, only 2900 XT cards will be available while 2900 XTX, 2600 and 2400 cards will be available at a later date. We heard that there are some 6000 pieces of 2900 XT cards by the first week of launch and no supply problems are expected.

wat was de reden voor uitstel ook alweer ? :X

[ Voor 80% gewijzigd door Mr. Detonator op 30-04-2007 11:33 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Ik vraag me trouwens af of een 975i mobo, zoals de P5WDH, met 2x8xPCIE niet teveel vetragend zal werken voor CF?
Het is namelijk erg verleidelijk om weer 2 X2900XT's in CF te zetten :)

[ Voor 6% gewijzigd door edward2 op 30-04-2007 11:39 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Jedi_Pimp
  • Registratie: April 2006
  • Laatst online: 23-09-2024
edward2 schreef op maandag 30 april 2007 @ 11:37:
Ik vraag me trouwens af of een 975i mobo, zoals de P5WDH, met 2x8xPCIE niet teveel vetragend zal werken voor CF?
Het is namelijk erg verleidelijk om weer 2 X2900XT's in CF te zetten :)
De P5W DH Deluxe heeft voor zover ik weet gewoon 2x PCI-e 16x hoor :? (Google/Azerty etc..)
Volgens mij kan jij gewoon de optimale snelheid benutten met Crossfire aangezien Crossfire uitstekend werkt op 975x Chipsets :).

"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Jedi_Pimp schreef op maandag 30 april 2007 @ 11:55:
[...]


De P5W DH Deluxe heeft voor zover ik weet gewoon 2x PCI-e 16x hoor :? (Google/Azerty etc..)
Volgens mij kan jij gewoon de optimale snelheid benutten met Crossfire aangezien Crossfire uitstekend werkt op 975x Chipsets :).
ja maar dat zit een addertje onder het gras. De sloten zijn beiden pcie x16 mits er slechts één gebruikt wordt. Bij 2 sloten in gebruik, schakelen deze over naar 8x dacht ik.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Jedi_Pimp schreef op maandag 30 april 2007 @ 11:55:
[...]


De P5W DH Deluxe heeft voor zover ik weet gewoon 2x PCI-e 16x hoor :? (Google/Azerty etc..)
Volgens mij kan jij gewoon de optimale snelheid benutten met Crossfire aangezien Crossfire uitstekend werkt op 975x Chipsets :).
De P5W-DH heeft inderdaad twee PCI-E 16x sloten, maar de link speed is respectievelijk 16x / 4x of in crossfire 8x / 8x. Dit komt omdat de 975 chipset maar 16 lanes kan aansturen en de ICH7 vier. In crossfire wordt de 16x link gesplitst waardoor je per slot minder bandbreedte hebt.

Laatst zag ik een review op THG die mijn aandacht trok: De X1900XTX en de 8800GTS werden getest op PCI-E 4x, 8x en 16x snelheid. De 8800GTS verloor erg veel performance bij alles minder dan 16x bandbreedte, terwijl de ATi X1900XTX maar ~4% verloor bij terugval van 16x link naar 8x link. Zelfs op 4x kon de X1900XTX nog goed aan het werk worden gehouden, terwijl dat een killer is voor de 8800 serie.

Alleen in de synthetische benchmarks en rendersoftware zakt de performance op 8x en 4x flink in bij ATi. Ik hoop echt dat de HD2900XT ook genoeg heeft aal PCI-E8x, anders blijven er nog maar weinig moederborden over voor fatsoenlijk crossfire draaien.

Bron: http://www.tomshardware.c...express_scaling_analysis/

Dit vind ik heel erg interessant, want ik heb nu een Intel 975X gebaseerd moederbord, en ik kan in Crossfire dus maximaal 8x bandbreedte aan de videokaarten leveren. Bij de X19.. serie was dit geen probleem, maar als de HD2900XT straks ook geen genoegen meer neemt met minder dan 16x bandbreedte dan kan ik Crossfire wel vergeten..

Met mijn Asus P5W64WS Pro is het de bedoeling dat er twee HD2900XT kaarten in het 2e en 4e PCI-E slot komen. De bovenste wil ik vrijhouden voor toekomstige ATi-physics / geluidskaart / raidcontroller.. :)

[ Voor 12% gewijzigd door frankknopers op 30-04-2007 12:32 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 14:14
frankknopers schreef op maandag 30 april 2007 @ 12:24:
[...]


Met mijn Asus P5W64WS Pro is het de bedoeling dat er twee HD2900XT kaarten in het 2e en 4e PCI-E slot komen. De bovenste wil ik vrijhouden voor toekomstige ATi-physics / geluidskaart / raidcontroller.. :)
Volgens de handleiding....

In Crossfire mode install the master card in PCIEX16_1 (blue slot) Each PCI Express X16 slot works at X8 bandwith... pagina 2-22 Volgens het tabel op 2-23 is crossfire getest op slot 1 + slot 2.

Fijn board... ik heb dezelfde.

[ Voor 5% gewijzigd door winwiz op 30-04-2007 12:45 ]

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 02-06 12:17

OruBLMsFrl

Silence Promo Crew

Ach ja, jullie zitten met 2x8 in Crossfire, ik heb een SLI moederbord en kan crossfire dus helemaal niet gebruiken, hoewel ik 3x16 PCI-E slots heb :(

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 00:59

SG

SG surft naar info hardewaren

edward2 schreef op maandag 30 april 2007 @ 11:37:
Het is namelijk erg verleidelijk om weer 2 X2900XT's in CF te zetten :)
Ik zie het plaatje ook maar bijna 200% dat is tegen 3x zo snel als een enkele. waar komt dat vandaan?
Is dat met drie kaarten?

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • hoeretoeter
  • Registratie: December 2002
  • Laatst online: 01-06 23:32
uhm bijna 200% betekent gewoon bijna 2 x 100 % performance hoor...

dat houdt dus in dat crossfire bijna 2 zo snel is als 1 kaart.
1 kaart = 100 %

Trouwens wel een opvallend hoge score voor CF!
niet minder dan 160 en bijna 200 op sommige games!

een groot nadeel is wel twee maal het stroomgebruik en de hitte in je kast...
maar wel mooie prestaties!

Rechtvaardigheid betekent niet dat we allemaal hetzelfde zijn.


Acties:
  • 0 Henk 'm!

  • MensionXL
  • Registratie: Juni 2004
  • Niet online

MensionXL

Optimaliseren!

Bas van der Doorn schreef op maandag 30 april 2007 @ 12:46:
Ach ja, jullie zitten met 2x8 in Crossfire, ik heb een SLI moederbord en kan crossfire dus helemaal niet gebruiken, hoewel ik 3x16 PCI-E slots heb :(
Ja? Dus? Het is je eigen keus geweest een SLI mobo te kopen. :P

Goedkoop bellen via VoIP


Acties:
  • 0 Henk 'm!

Anoniem: 23009

heh ik blij dat ik de ASUS A8R32 MVP Deluxe heb genomen die de ATi RD580 CrossFire Xpress 3200 chipset heeft die later AMD 580X werd benaamd infeite de zelfde chipset met uiteraard 32 Lanes iets waar ik wel op heb gelet voordat ik me geld uit gaf aan zo'n CF mobo en ja AM2 was er toen nog niet dus ook vandaar dit S939 bord ;)

Het was voor mij de meest logische keuze aangezien dat CrossFire alleen zou werken op een bord met een ATi Chipset die CrossFire ondersteunde en dat zijn ATi RD480 CrossFire Xpress 1600 aka AMD480X en ATi RD580 CrossFire Xpress 3200 aka AMD 580X en ja met 32 lanes had men meer voordeel op latere kaarten en het was sneller in de meeste gevallen.

En met een Opteron 185 kan het zaakje ook lekker vooruit ;) 2x HD 2900XT in CF dan kan je met elk S939 bord met 32 lanes nog genieten van je nieuwe CFsetups :)

[ Voor 26% gewijzigd door Anoniem: 23009 op 30-04-2007 13:26 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Anoniem: 23009 schreef op maandag 30 april 2007 @ 13:15:
heh ik blij dat ik de ASUS A8R32 MVP Deluxe heb genomen die de ATi RD580 CrossFire Xpress 3200 chipset heeft die later AMD 580X werd benaamd infeite de zelfde chipset met uiteraard 32 Lanes iets waar ik wel op heb gelet voordat ik me geld uit gaf aan zo'n CF mobo en ja AM2 was er toen nog niet dus ook vandaar dit S939 bord ;)

Het was voor mij de meest logische keuze aangezien dat CrossFire alleen zou werken op een bord met een ATi Chipset die CrossFire ondersteunde en dat zijn ATi RD480 CrossFire Xpress 1600 aka AMD480X en ATi RD580 CrossFire Xpress 3200 aka AMD 580X en ja met 32 lanes had men meer voordeel op latere kaarten en het was sneller in de meeste gevallen.

En met een Opteron 185 kan het zaakje ook lekker vooruit ;) 2x HD 2900XT in CF dan kan je met elk S939 bord met 32 lanes nog genieten van je nieuwe CFsetups :)
Tsja, maar er was weinig keus als je een Core2duo wilde, de RD600 was er toen nog niet.
Het wordt idd interessant om te zien hoe de X2900XT hiermee (pcie8x vs pcie16x) omgaat.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
Mr. Detonator schreef op maandag 30 april 2007 @ 11:32:
http://www.vr-zone.com/?i=4935

The source heeft ons weer goed ingelicht :)

We learned that AIB partners for both NVIDIA and ATi have already received the GeForce 8800 Ultra cards and Radeon HD 2900 XT cards and are preparing for shipments now. These cards will hit the retail shelves by May 14th, the same day AMD officially launch their R6xx series. However, only 2900 XT cards will be available while 2900 XTX, 2600 and 2400 cards will be available at a later date. We heard that there are some 6000 pieces of 2900 XT cards by the first week of launch and no supply problems are expected.

wat was de reden voor uitstel ook alweer ? :X
De Oems hebben te veel HD2400 en HD2600 kaartjes gekocht. Mja erg stom want we gingen inderdaad naar mei omdat ze alles tegelijk wouden doen :( ik vind dit echt lame. Alleen de HD2900 XT is er de rest niet. En de XTX gaat super lang duren :( ik ben best wel pissed.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 12:50
Astennu schreef op maandag 30 april 2007 @ 13:57:
[...]


De Oems hebben te veel HD2400 en HD2600 kaartjes gekocht.
Volgens Fuad *kuch betrouwbare bron kuch* zijn er voorlopig nog geen HD2600 kaartjes.
RV630 A12 samples broken
Written by Fuad Abazovic
Monday, 30 April 2007 09:32

3D engine doesn’t work

We already reported that ATI delayed the RV630, Radeon HD 2600 generation as it had some problems. It turns out that the current samples have some severe problems. Some of the samples have troubles with the 3D engine, while others don't work with HD content.

It is so bad that it instantly pushed ATI back almost two months, as there won't be any RV630 based cards until late June.

We can only say DAAMIT to that too.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
biobak schreef op maandag 30 april 2007 @ 14:07:
[...]

Volgens Fuad *kuch betrouwbare bron kuch* zijn er voorlopig nog geen HD2600 kaartjes.


[...]
Ik geloof dit eigenlijk niet echt. Want er zou al een A13 en A14 ref uit zijn. En er waren ook al werkende samples. Dus we zullen het wel zien....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Astennu schreef op maandag 30 april 2007 @ 14:17:
[...]


Ik geloof dit eigenlijk niet echt. Want er zou al een A13 en A14 ref uit zijn. En er waren ook al werkende samples. Dus we zullen het wel zien....
tja ik kijk juist uit naar de RV630, Radeon HD 2600
Als het te lang duurt ga ik maar een nvidia 8600serie kopen.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

Anoniem: 8819 schreef op maandag 30 april 2007 @ 14:46:
[...]


tja ik kijk juist uit naar de RV630, Radeon HD 2600
Als het te lang duurt ga ik maar een nvidia 8600serie kopen.
heh voor dat geld kan je beter aan een X1950XT of XTX besteden aangezien er geen DX10 games zijn en dat je voorlopig vooruit kan met een goede DX9.0c kaart ben je qua performace ook beter uit ;)

De AGP versie van de HD 2600XT lijkt mij ook wel wat hehe

[ Voor 6% gewijzigd door Anoniem: 23009 op 30-04-2007 15:03 ]


Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 02-06 12:17

OruBLMsFrl

Silence Promo Crew

Anoniem: 23009 schreef op maandag 30 april 2007 @ 15:03:
[...]
heh voor dat geld kan je beter aan een X1950XT of XTX besteden aangezien er geen DX10 games zijn en dat je voorlopig vooruit kan met een goede DX9.0c kaart ben je qua performace ook beter uit ;)
De AGP versie van de HD 2600XT lijkt mij ook wel wat hehe
DX10 games zijn er binnen enkele maanden, dus als je inderdaad voor een paar maanden die videokaart koopt is een X1xxx prima. Maar de meeste mensen kopen een videokaart voor minstens een jaar en dan vind ik een DX9 kaart adviseren nogal vreemd...

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Anoniem: 23009 schreef op maandag 30 april 2007 @ 15:03:
[...]


heh voor dat geld kan je beter aan een X1950XT of XTX besteden aangezien er geen DX10 games zijn en dat je voorlopig vooruit kan met een goede DX9.0c kaart ben je qua performace ook beter uit ;)

De AGP versie van de HD 2600XT lijkt mij ook wel wat hehe
Tja ik had 2x7900gt sli duss
En draai nu op een nvidia 6200tc.
Ben dus echt op zoek naar een direcx10kaart
Koop nu een van de instap model zodat ik later een nieuwe generatie directx10a of ga kopen.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

Bas van der Doorn schreef op maandag 30 april 2007 @ 15:08:
[...]

DX10 games zijn er binnen enkele maanden, dus als je inderdaad voor een paar maanden die videokaart koopt is een X1xxx prima. Maar de meeste mensen kopen een videokaart voor minstens een jaar en dan vind ik een DX9 kaart adviseren nogal vreemd...
mja alle DX10 games ondersteunen ook DX9.0c dus zo lang dat dat kan blijf ik bij me X1900XTX+ X1950XTX CFE CrossFire setup en ja de meeste mensen hebben nog een DX9.0c kaart de meeste kopen pas een DX10 kaart als die DX10 apps er goed mee om kunnen gaan wat mij ook veel verstandiger lijkt ;)

Want ja hoe weet je nou dat die DX10 kaarten eigenlijk wel goed zijn in DX10? dat weet neimand aangezien daar nog geen bewijs van is.

@ suijkerbuijk

lekker wachten totdat de HD 2900XT er is aangezien die niet echt duur worden. en later kan je er altijd eentje bij zetten :)

heh ik wacht wel tot dat R700 in leven komt dan zijn de meeste kinderziektes er uit in DX10 hard als software ;)

[ Voor 57% gewijzigd door Anoniem: 23009 op 30-04-2007 15:51 ]


Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 02-06 12:17

OruBLMsFrl

Silence Promo Crew

Anoniem: 23009 schreef op maandag 30 april 2007 @ 15:42:
[...]
mja alle DX10 games ondersteunen ook DX9.0c
[...]
Van wat er nu uit gaat komen misschien wel, maar wie zegt dat dat zo blijft. Microsoft zal achter de schermen heus wel wat aan het duwen zijn om DX10 only (of speciaal voor DX10 geoptimaliseerde) games de markt op te krijgen zodat mensen op Vista overstappen. Het eerste jaar zal het zo'n vaart waarschijnlijk niet lopen, maar wat gaat de performance zijn van een DX9 kaart onder Vista bij een DX10 titel die ook nog een DX9 code pad biedt? Je kunt natuurlijk ook met Vista nog een tijd blijven wachten, maar zo stapelen de risico's dat je iets niet meer (goed) kunt draaien zich wel hard op natuurlijk :(
Het is niet zozeer dat ik de X1xxx of 7xxx serie slecht vindt, maar ik ben gewoon bang dat er games zullen uitkomen die een relatief slecht DX9 pad hebben, al dan niet met opzet. Maar dat heet vast niet zo, eerder DX10 optimized ;)

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

Anoniem: 23009

heh true true , integendeel zijn er nog zat DX9 apps als OGL2.0 apps die nog leuk zijn om te doen dat vast wel :D

Aangezien ik vaak FS2004 als FS 2006 doe die draait best onder DX9 mode en het ziet er best nice uit, het gaat mij ook meer om de gameplay als de graphics ;)

En ja ben ook eerlijkgezegd een Retro-Gamer waarbij ik me 3dfx kaarten veel meer gebruik dan me modernere ATi kaartjes, speel nog vaak StarWars X-Wing Alliance als Jedi Knight Jedi Academy als UT 1999, Flanker 2.51 als Free Falcon 3.2 mod voor Falcon.4.0 en die blijven gewoon erg leuk om te doen zelf's een RedAlert2 LAN om de week heh neu Vista zie ik iig niet als een must, Just still rocking on Windows 2000 Pro & XP Pro here 8)

Maar oke voor de algemene gamer kan het nog eens lastig worden, dat kan ik me goed voorstellen, hierbij ik wens jullie allemaal veel suc6 ;)

En ja om de technologie van ATi VGA kaarten kom ik wel eens kijken hoe dat zich verder ontwikkeld and this is teh place to be ;)

[ Voor 25% gewijzigd door Anoniem: 23009 op 30-04-2007 16:57 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Zijn wel mooie kaartjes >:)
HD2600pro
Afbeeldingslocatie: http://img410.imageshack.us/img410/4296/994f674252364774aee60f7gq2.th.jpg

en HD2600XT
Afbeeldingslocatie: http://img410.imageshack.us/img410/8294/b80a0400ccd143269fb49b9io1.th.jpg

[ Voor 49% gewijzigd door Joepi op 30-04-2007 18:24 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
Inderdaad wil een XT voor in de shuttle van me broer die heeft nu een X800 XL. En ik zie daar op het plaatje een DVI > HDMI convertor :P

Het valt me trouwens op dat die Pro echt een heel stuk kleiner is als de XT. Maar die gebruiken volgens mij ook DDR 2 en geen GDDR 3 of GDDR4.

[ Voor 13% gewijzigd door Astennu op 30-04-2007 18:24 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sluuut
  • Registratie: Februari 2003
  • Laatst online: 02-06 15:57
Joepi schreef op maandag 30 april 2007 @ 18:20:
Zijn wel mooie kaartjes >:)
HD2600pro
[afbeelding]

en HD2600XT
[afbeelding]
1 slot maar! Nice..
En ook leuk dat DVI2HDMI plugje :)

57696520646974206c65657374206973206e657264


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Nog wat onbrekende plaatjes...
Afbeeldingslocatie: http://directupload.com/files/hzmynwgg5zjdzniufoio.jpg
Afbeeldingslocatie: http://directupload.com/files/j2rwj2tyjxmcamngnimz.jpeg
Afbeeldingslocatie: http://directupload.com/files/nizonm4myzznr0ndjlma.jpg
Afbeeldingslocatie: http://directupload.com/files/myjzmivzgmyw5iwzdgxi.jpg

en de HD2400 passive
Afbeeldingslocatie: http://img73.imageshack.us/img73/227/85e32ce67a02448bba52b14it1.jpg

en een vreemde eind- waarom niet geheel LP?
Afbeeldingslocatie: http://img163.imageshack.us/img163/7788/a6fd5538ae18449d88d8e64lr5.jpg

[ Voor 36% gewijzigd door Joepi op 30-04-2007 19:12 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
De leaks gaan maar door. ;)

Hopelijk is nu eindelijk ook een beetje duidelijk in welk rijtje je Dailytech kan scharrelen... *kuch* theinq/fudzilla *kuch*. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
CJ schreef op maandag 30 april 2007 @ 18:54:
De leaks gaan maar door. ;)

Hopelijk is nu eindelijk ook een beetje duidelijk in welk rijtje je Dailytech kan scharrelen... *kuch* theinq/fudzilla *kuch*. :+
DT zat ernaast - zal spoedig blijken >:)

Inq en vooral Fudo melden nu weinig echte nieuwtjes: de chinezen in alle uithoeken (sommige boards zijn ook in canada of vs, niet langer hongkong of taiwan) hebben wel leuke info (8>

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
CJ schreef op maandag 30 april 2007 @ 18:54:
De leaks gaan maar door. ;)

Hopelijk is nu eindelijk ook een beetje duidelijk in welk rijtje je Dailytech kan scharrelen... *kuch* theinq/fudzilla *kuch*. :+
True. Ik maak me wel zorgen om het aantal texture units. Volgens deze slides zou de RV610 er maar 1 hebben de RV630 er 2 en de R600 maar 4 of 8 dat is nog minder dan de 16 waar we het eerst over hadden. Dat zou dus betekenen dat die kaarten totaal niet gemaakt zijn voor DX9 en dus eigenlijk veel te vroeg uitkomen zijn. Want nu denk iedereen dat die kaarten slecht zijn maar ze zijn goed in DX10 maar ja je hebt nog geen DX10 tests en games.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Joepi schreef op maandag 30 april 2007 @ 18:52:
\
en een vreemde eind- waarom niet geheel LP?
[afbeelding]
Wat een raar geval?
Misschien voor een server of zo?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op maandag 30 april 2007 @ 19:31:
[...]


True. Ik maak me wel zorgen om het aantal texture units. Volgens deze slides zou de RV610 er maar 1 hebben de RV630 er 2 en de R600 maar 4 of 8 dat is nog minder dan de 16 waar we het eerst over hadden. Dat zou dus betekenen dat die kaarten totaal niet gemaakt zijn voor DX9 en dus eigenlijk veel te vroeg uitkomen zijn. Want nu denk iedereen dat die kaarten slecht zijn maar ze zijn goed in DX10 maar ja je hebt nog geen DX10 tests en games.
Bekijk de slides nog eens... De texture units zijn een enorme stap voorwaarts in vergelijking met het verleden. De R600 texture units zijn compleet anders dan de voorgaande generaties.

De R580 had bijvoorbeeld 16 texture address units en 16 texture units (voor zowel filtering als sampling).
De R600 heeft 4 texture units die elk bestaan uit:
- 8 texture address units (dus 32 totaal is 2x krachtiger R580)
- 20 FP32 texture samplers (dus 80 totaal is 5x krachtiger dan R580)
- 4 FP32 texture filter units (dus 16 in totaal is gelijk aan R580)

Daarnaast zijn ze zo opgevoerd dat bepaalde filteringmethodes zonder performancedrop kunnen worden uitgevoerd. Verkijk je dus niet op de texture units van de R600. Ja, de G80 zal misschien iets meer brute kracht hebben in DX9 games, maar het lijkt er op dat de R600 beter op de toekomst is voorbereid.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Nu online

Cheezus

Luiaard

Anoniem: 8819 schreef op maandag 30 april 2007 @ 19:31:
[...]


Wat een raar geval?
Misschien voor een server of zo?
Misschien een reference design met ruimte voor een avivo chip en de crossfire aansluiting die op een standaard plek moet zitten. Misschien kan het design door een AiB partner makkelijk aangepast kan worden voor een volledige LP versie zonder CF/Avivo..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
CJ schreef op maandag 30 april 2007 @ 20:06:
[...]


Bekijk de slides nog eens... De texture units zijn een enorme stap voorwaarts in vergelijking met het verleden. De R600 texture units zijn compleet anders dan de voorgaande generaties.

De R580 had bijvoorbeeld 16 texture address units en 16 texture units (voor zowel filtering als sampling).
De R600 heeft 4 texture units die elk bestaan uit:
- 8 texture address units (dus 32 totaal is 2x krachtiger R580)
- 20 FP32 texture samplers (dus 80 totaal is 5x krachtiger dan R580)
- 4 FP32 texture filter units (dus 16 in totaal is gelijk aan R580)

Daarnaast zijn ze zo opgevoerd dat bepaalde filteringmethodes zonder performancedrop kunnen worden uitgevoerd. Verkijk je dus niet op de texture units van de R600. Ja, de G80 zal misschien iets meer brute kracht hebben in DX9 games, maar het lijkt er op dat de R600 beter op de toekomst is voorbereid.
Als je het Zo bekijkt valt het inderdaad wel mee. En is het zelfs behoorlijk positief. Maar het neemt niet weg dat de R600 zijn tijd eigenlijk vooruit is en pas in DX10 games echt kan laten zien wat hij kan. De G80 kan dat nu ook al maar de R600 gaat pas echt leven zodra hij een DX10 game moet draaien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107573

CJ schreef op maandag 30 april 2007 @ 20:06:
[...]


Ja, de G80 zal misschien iets meer brute kracht hebben in DX9 games, maar het lijkt er op dat de R600 beter op de toekomst is voorbereid.
Beter op de toekomst voorbereid, dan neem ik aan dat daarmee dit najaar 2007 bedoeld wordt? Crysis en UT3 en nog wat meer titels. Tegen die tijd verwacht ik G90 en R650? Misschien R650 wel eerder dat weet ik niet. Dan vraag ik mij toch af of Ati de balans niet iets té ver richting DX10 heeft laten uitschieten. Want er verschijnen nog talloze AAA DX9 titels dit jaar. En daar gaat de G80 niets onder doen voor de R600.

Men zou nu natuurlijk kunnen zeggen, ja maar dat geldt ook voor de G80. Is natuurlijk ook wel zo, maar ik persoonlijk heb nooit een G80 gekocht voor DX10 games. Ik wist dat er amper DX10 titels zouden verschijnen ten tijde van de G80.

X2900XT lijkt mij een leuke kaart voor die mensen die graag een Ati kaart in hun PC willen hebben steken of nu nog met een kaart van de vorige generatie zitten, GF7 en X1900 bezitters, maar voor de enthousiastelingen is het denk ik meer wachten op G90 en R650.

Edit: zoals Astennu hierboven ook zegt dus.

Acties:
  • 0 Henk 'm!

Anoniem: 199989

pff,het wordt hoe langer hoe moeilijker om het kaf van het koren te scheiden.Welke geruchten zijn waarheid,welke zijn uit de duim gezogen?Ik hoop echt dat CJ gelijk heeft,als hij zegt dat de daily-tech benches NIET kloppen...maar langs de andere kant denk ik wel dat CJ weet waarover hij praat...Ik hoop echt dat de 2900xt kan optornen tegen de verwachtingen die de mensen hebben gecreeerd,en dat we niet teleurgesteld raken.Trouwens,een 2900Xtx hoeft voor mij niet,ik ben al blij dat ik binnenkort STALKER(dx9,ik weet het wel)en Hellgate London met alle toeters en bellen aan,kan spelen... :+

Acties:
  • 0 Henk 'm!

Anoniem: 107626

CJ schreef op maandag 30 april 2007 @ 20:06:
Daarnaast zijn ze zo opgevoerd dat bepaalde filteringmethodes zonder performancedrop kunnen worden uitgevoerd. Verkijk je dus niet op de texture units van de R600. Ja, de G80 zal misschien iets meer brute kracht hebben in DX9 games, maar het lijkt er op dat de R600 beter op de toekomst is voorbereid.
Ja de NV30 was ook snel in DX8 en was zelfs sneller dan de R300 in een aantal gevallen. We weten hoe het daarmee is afgelopen. Of bedoel je dat niet? >:)

* Anoniem: 107626 runs

Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ aca

Daar zat ik ook aan te denken de R600 was in mijn gevoel altijd een voorbeeld als de nieuwe R300 minder goed in de oude API maar beter in het nieuwere oftewel beter voorbereid :)

Oftewel het Radeon 9700 Pro Syndroom.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Persoonlijk vind ik het CFAA 6x resultaat vrij overtuigend uitzien. Ook de 7x betere HDR performance ziet er erg sexy uit ! Dan lijkt de 2900XT toch een goede investering voor later ! Ik ben overtuigd :)

Acties:
  • 0 Henk 'm!

  • BlackWolf666
  • Registratie: November 2006
  • Laatst online: 29-06-2022

BlackWolf666

Dawn's Moonlight

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Phuncz schreef op maandag 30 april 2007 @ 22:03:
Persoonlijk vind ik het CFAA 6x resultaat vrij overtuigend uitzien. Ook de 7x betere HDR performance ziet er erg sexy uit ! Dan lijkt de 2900XT toch een goede investering voor later ! Ik ben overtuigd :)
Nou een goede investering is de HD 2900XT zekers aangezien wat je krijgt voor 380 euro is niet echt verkeerd hoor, vegeleken met de prijs van een 8800 GTX heb je voor een stuk minder geld ongeveer de zelfde performance :)

die HD 2900XT gaat een bang for the Buck worden dat zekers, het lijkt me ook welle en leuke investering alleen moet ik effe doorsparen zit net met een nieuw huis :X heh dan maar verder met me R580/R580+ CF setup O+

[ Voor 3% gewijzigd door Anoniem: 23009 op 30-04-2007 23:25 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De vergelijking van de marketing campagne van nVidia en ATI doen me aan de autowereld denken waar ze respectievelijk de Amerikaanse en de Europese markt naäpen:

nVidia zegt constant maar dat brute kracht the only way to fly is, ATI hamert door op de duurzaamheid en doordachtheid van hun producten.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:06
Het lijkt er op dat de R600 echt duurzaam gemaakt is als in over een jaar of of 2 jaar draait hij de G80 er met gemaakt uit maar in de huidige games niet.

Ik kan niet wachten tot de reviews om eindelijk zeker te weten wat we krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:42
Ik snap echt niet waar al die verhalen vandaan komen dat ATI in DX10 sneller is.
- Het kan van een ATI marketing slide komen, maar remember die is van hun marketing dept.
- Het kan van echte DX10 benchmarks komen maar ik heb nog geen benchmark resultaten / drivers / demo's van DX10 gezien.
- Het kan komen door de superieure architectuur, maar die hebben is een, die gebruiken is een ander.

Dus kan iemand mij vertellen waar al die verhalen vandaan komen en hoe jullie het zo zeker weten dat ATI sneller is in DX10? Ik zeg niet dat het niet zo is, maar ik zie graag bewijs.

Van alle kanten zie ik nVidia masaal investeren in games, en erg nauw samenwerken met game developers om de games het maximale uit Nvidia hardware te halen, en nee, niet uit DX10 of uit grafische kaarten, maar uit Nvidia DX10 grafische kaarten! ATI is hier ook mee bezig, maar op een totaal niet vergelijkbaar niveau. Met snellere hardware en drivers kan ATI dit misschien nog wel bijbenen, maar als de hardware en drivers van nVidia sneller zijn dan is het gat dubbel zo groot. En zeg nu niet dat die optimalisaties geen verschil maken, want anders zou nVidia er echt geen tijd en geld instoppen. Want vergis je niet, nVIdia heeft hier een complete afdeling voor, met erg veel programmeurs die uitgeleend worden en de game developers helpen hun routines te optimaliseren.

Acties:
  • 0 Henk 'm!

  • Jedi_Pimp
  • Registratie: April 2006
  • Laatst online: 23-09-2024
The Source schreef op dinsdag 01 mei 2007 @ 00:49:
Ik snap echt niet waar al die verhalen vandaan komen dat ATI in DX10 sneller is.
- Het kan van een ATI marketing slide komen, maar remember die is van hun marketing dept.
- Het kan van echte DX10 benchmarks komen maar ik heb nog geen benchmark resultaten / drivers / demo's van DX10 gezien.
- Het kan komen door de superieure architectuur, maar die hebben is een, die gebruiken is een ander.

Dus kan iemand mij vertellen waar al die verhalen vandaan komen en hoe jullie het zo zeker weten dat ATI sneller is in DX10? Ik zeg niet dat het niet zo is, maar ik zie graag bewijs.

Van alle kanten zie ik nVidia masaal investeren in games, en erg nauw samenwerken met game developers om de games het maximale uit Nvidia hardware te halen, en nee, niet uit DX10 of uit grafische kaarten, maar uit Nvidia DX10 grafische kaarten! ATI is hier ook mee bezig, maar op een totaal niet vergelijkbaar niveau. Met snellere hardware en drivers kan ATI dit misschien nog wel bijbenen, maar als de hardware en drivers van nVidia sneller zijn dan is het gat dubbel zo groot. En zeg nu niet dat die optimalisaties geen verschil maken, want anders zou nVidia er echt geen tijd en geld instoppen. Want vergis je niet, nVIdia heeft hier een complete afdeling voor, met erg veel programmeurs die uitgeleend worden en de game developers helpen hun routines te optimaliseren.
Inderdaad. Omdat de scores van de 2900XT/XTX toch wel tegenvallen bij de meeste mensen is het verhaal ontstaan dat hij in DirectX 10 games beter zal presteren, waarschijnlijk om de prestaties in DX9 te compenseren..

"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
De IHVs moeten zich wat strakker aan de regels houden bij DX10 dan bij DX9. Zeg maar gerust flink strakker. Een situatie als GFFX vs R300 zal dus ook niet meer voorkomen, waar devs speciale paths moeten schrijven voor specifieke architecturen. Dus een programma als TWIMTBP zal imo minder zwaar gaan wegen voor de performance van een GPU, maar des te meer hoe nauwkeurig een IHV zich aan de regels van DX10 heeft gehouden. Het is belangrijker geworden dat men zich houdt aan de API ipv een architectuur van een GPU.

Aangezien de R600 nu een flink opgepimpte Xenos blijkt te zijn en ATI destijds zijn architectuur over een andere boord heeft gegooid op aanraden van Microsoft, kan je verwachten dat dit ATI/AMD geen windeieren zal leggen op het gebied van desktop GPUs. De Xenos was de GPU die zo'n beetje aan de basis lag van DX10. Hij voldoet niet helemaal aan de standaard, maar kwam wel aardig dichtbij. Is het dan vreemd om te verwachten dat de R600 het in DX10 beter gaat doen omdat ATI nauw samenwerkte met MS, net zoals ze destijds deden met de R300 die aan de basis stond van DX9? Het zou me niets verbazen als aankomende Xbox360 titels het een stuk beter doen op AMD hardware wanneer ze zijn omgezet voor het Windowsplatform. Het zou devs ook een stuk minder tijd moeten kosten in vergelijking tot vroeger aangezien de GPUs op elkaar lijken en dankzij XNA.

De architectuur van de R600 lijkt in ieder geval flexibeler en krachtiger te zijn dan de G80 met het oog op DX10 applicaties. Of dit ook zo is moet natuurlijk nog blijken. De eerste indicaties wijzen er op dat een R600XTX sneller is dan een G80U in Crysis, maar vooral dat de geometry shaders een flink stuk sneller zijn op de R600 aldus MS en DICE. Dit soort vroegtijdige berichten van developers kunnen ook een indicatie zijn van een eventuele superieure performance in DX10 games.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • anandus
  • Registratie: Februari 2001
  • Niet online
Hey, even tussendoor:

Wat is IQ eigenlijk?
Ik heb het al paar keer voorbij zien komen in dit topic, maar wat het is weet ik niet? Een soort AA/AF?

"Always remember to quick save" - Sun Tzu


Acties:
  • 0 Henk 'm!

Anoniem: 23009

anandus schreef op dinsdag 01 mei 2007 @ 02:25:
Hey, even tussendoor:

Wat is IQ eigenlijk?
Ik heb het al paar keer voorbij zien komen in dit topic, maar wat het is weet ik niet? Een soort AA/AF?
IQ = Image Quallity ;) een engelse afkorting wat veelzijdig gebruikt wordt gemaakt in de graka wereld ;)

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
TS:
Nvidia is zeker goed bezig maar MS zit wel sinds xbox360/xenos (in feite al USA) met Ati in een DX10-schuitje: dat kan gewoon bepaalt geen nadeel zijn voor de R600!

[ Voor 11% gewijzigd door Joepi op 01-05-2007 02:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Joepi schreef op dinsdag 01 mei 2007 @ 02:52:
TS:
Nvidia is zeker goed bezig maar MS zit wel sinds xbox360/xenos (in feite al USA) met Ati in een DX10-schuitje: dat kan gewoon bepaalt geen nadeel zijn voor de R600!
heh het ligt er aan hoe het allemaal uit gaat pakken voor de R600 in DX10 apps dan kunnen we zien hoe voordelig dat wel is :)

Ik heb nog wel hoop hoor, dat wel. :+

Acties:
  • 0 Henk 'm!

  • vigilante888
  • Registratie: Januari 2004
  • Laatst online: 18-12-2023

vigilante888

The truth is out there.....

Hmm, zo te zien moet de HD2900XT wel tegenover de GTX staan. Dit is wat er in een van de documenten staat die ik heb ontvangen:

Review Guideline:
Required & Restricted to compare with GF8800GTS 320/640M, GF8800GTX, 7900GTX, X1950XTX, X1950XT

En nog wat verdere info:

Highlight: DirectX® 10 Ready, Avivo™ HD, UVD (full hardware decoding of Blu-ray and HD DVD), Built-in HDMI and 5.1 surround audio, Free “Black Box” game bundle, killing price/performance ratio over 8800GTS/GTX.

Radeon™ HD 2900XT Product Features

•Superscalar unified shader architecture
•320 stream processing units
•512-bit 8-channel memory interface
•Comprehensive DirectX® 10 support
•Integrated CrossFire™
•High-speed 128-bit HDR (High Dynamic Range) rendering
•Up to 24x Custom Filter Anti-Aliasing
•ATI Avivo™ HD video and display technology
•Built-in HDMI and 5.1 surround audio
•Dynamic geometry acceleration
•Game physics processing capability
•Free “Black Box” game bundle from Valve Corporation*

ATI Avivo™ HD

• ATI Radeon HD 2000 Series GPUs with ATI Avivo HD technology offer advanced audio, video processing, display and connectivity capabilities for high definition entertainment solutions
• Introduces a breakthrough for the playback of Blu-ray and HD DVD discs.
• UVD (Universal Video Decoding) is a new full-spec HD video processing technology that provides full hardware decoding of Blu-ray and HD DVD
• UVD technology enables a cool, quiet media PC with low power requirements for the GPU and CPU
• UVD technology enables entry level PCs to play full-spec HD discs
• ATI Avivo HD technology includes fully integrated high definition audio support enabling playback of multi-channel (5.1) audio streams and when combined with the integrated HDCP copy protection, enables a one cable HDMI connectivity solution to high definition home theaters

En ten slotte, crysis demo scores:

Afbeeldingslocatie: http://file01.uploaddump.nl/~file01/uploads/kkmcaapdpmeqc-crysis-demo.JPG

[ Voor 3% gewijzigd door vigilante888 op 01-05-2007 10:02 ]

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Nu online

Pubbert

random gestoord

Die Crysis benchmarks waren al voorbij gekomen, maar toch impressive dat dit kaartje in DX10 pas echt zijn spierballen laat zien :)

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

Anoniem: 162692

Thund3r schreef op dinsdag 01 mei 2007 @ 10:10:
Die Crysis benchmarks waren al voorbij gekomen, maar toch impressive dat dit kaartje in DX10 pas echt zijn spierballen laat zien :)
Vrij hoge scores vind ik dat toch niet voor een kaart die infeite 6 maand later is + theoretisch VEEL sterker is.

Acties:
  • 0 Henk 'm!

  • Renegade!
  • Registratie: Augustus 2005
  • Laatst online: 24-01-2022
Ik vind die scores ook maar 'tegenvallen'. Zeker als je denkt dat mensen al een half jaar zoet zijn met hun 8800GTX en nu dus blijkt dat ze er nog een eindje mee voort kunnen. Moest je een nieuwe kaart kopen als ook de HD 2900XT leverbaar is dan wordt het natuurlijk anders, tenzij de 8800GTX nog flink gaat dalen in prijs.

Wat de discussie over het presteren in de dx9/10 games betreft vind ik het zeker maar een goedkoop excuus om te zeggen dat R600 het beter zal doen in dx10 games. De 8800GTX kun je eigenlijk beter zien als een dx9 kaart met dx10 mogelijkheden. Tegen dat er eindelijk wat dx10 games gereleased zijn is er al weer de G90 die volledig geoptimaliseerd zal zijn voor dx10.

The best argument against democracy is a five-minute conversation with the average voter.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 08-05 14:45
We weten nu dat de R600 erg krachtige shaders heeft (veel krachtiger dan verwacht), de TMU's en Render Back Ends zijn iets helemaal nieuw... we kunnen enkel nog de reviews afwachten en dan pas conclusies trekken.

//edit, trouwens we weten al dat de R600 de GTX niet met de grond gaat gelijk maken, wie denkt dat het leuk is om dat steeds opnieuw te schrijven is aan het flamen/trollen etc..

[ Voor 29% gewijzigd door oeLangOetan op 01-05-2007 11:23 ]


Acties:
  • 0 Henk 'm!

Anoniem: 162692

oeLangOetan schreef op dinsdag 01 mei 2007 @ 11:21:
We weten nu dat de R600 erg krachtige shaders heeft (veel krachtiger dan verwacht), de TMU's en Render Back Ends zijn iets helemaal nieuw... we kunnen enkel nog de reviews afwachten en dan pas conclusies trekken.

//edit, trouwens we weten al dat de R600 de GTX niet met de grond gaat gelijk maken, wie denkt dat het leuk is om dat steeds opnieuw te schrijven is aan het flamen/trollen etc..
offtopic:
Je weet toch wel dat jij met je edit knop veel agressie opwekt ? Om iemand direct van flamen te beschuldigen omdat er iets gezegd word dat blijkt uit een grafiek die nu 'echt' mag genomen worden daar waar 2 weken geleden nog geen zekerheid over was. Dus laat dit terzijde.
Geen reacties hierop , dit is een ati topic.. geen offtopic topic.

Acties:
  • 0 Henk 'm!

Anoniem: 199989

pfieuw,nog 1 dag en de NDA is ten einde(of is dat intussen ook alweer terug veranderd?)...voor mij hoeft de XT niet sneller te zijn als de GTX,zolang hij maar beter is in andere zaken...nu ja,er zullen altijd wel mensen zijn die iets te melken hebben,maar ik ben tot nu toe vrij tevreden met hetgeen ik hier allemaal lees over deze kaartjes,en zeker tegen die prijs.

Acties:
  • 0 Henk 'm!

  • SgtStrider
  • Registratie: Juli 2003
  • Laatst online: 02-06 12:02

SgtStrider

Fractal Switchover!

Renegade! schreef op dinsdag 01 mei 2007 @ 10:33:
Moest je een nieuwe kaart kopen als ook de HD 2900XT leverbaar is dan wordt het natuurlijk anders, tenzij de 8800GTX nog flink gaat dalen in prijs.
Als nVidia ook maar het gevoel heeft dat het fout gaat zullen ze absoluut de prijzen verlagen, het was volgens mij al eerder besproken dat nVidia werkt met giga-marges (kan iemand dit bevestigen?)

CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Is nou morgen the day, of toch de veertiende?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 199989

ik dacht dat de 2de mei einde NDA was,en vanaf de 14de de effectieve launch,maar dat kan intussen ook weeral terug veranderd zijn

Acties:
  • 0 Henk 'm!

Anoniem: 107626

Fudo probeert zijn geloofwaardigheid weer op te poetsen. Maar hoe ging dat spreekwoord weer met die aap met die gouden ring..
Radeon HD 2900 XT comes on the 14th
Written by Fuad Abazovic
Tuesday, 01 May 2007 10:19

No launch tomorrow

Some of you might thing that ATI will finally launch R600 tomorrow but you will have to wait some 12 more days for the launch. The launch day remains the 14th and that is when the reviews will go out.

As far as we know it loses in most of the cases from Geforce 8800 GTX and not to mention the Ultra. It should still be a fast in DirectX 10 games but the problem is that we still don’t have any way to really measure it.

Radeon HD 2600 and 2400 cards are delayed till late June.
Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)