Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 73 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1
Acties:
  • 5.471 views sinds 30-01-2008
http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
 

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu een divisie is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 8 November 2007 - Update over stock & allocation bij launch
  • 30 Oktober 2007 - First Post Update
  • 19 Oktober 2007 - FAQ geupdate over AA
  • 10 Oktober 2007 - Launch Date RV670 Toegevoegd ;)
  • 11 September 2007 - Game.amd.com toegevoegd en Catalyst links gewijzigd
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://img150.imageshack.us/img150/9367/atitopictopicregelsld3.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://img360.imageshack.us/img360/702/atitopictopicnavigatiesr2.jpg
http://img390.imageshack.us/img390/4301/atitopictopicgeschiedenav9.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70


http://img360.imageshack.us/img360/8606/atitopichd3800ji5.jpg


http://images.vnu.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet/36dba.jpg


Op 15 November lanceert AMD de ATI Radeon HD3800 serie. Deze serie is gebaseerd op de RV670 GPU. Met de komst van de ATI Radeon HD3800 serie vaart AMD ook meteen een nieuwe koers wat betreft de naamgeving. Daar waar vroeger de extensies GT, GTO, Pro, XL, XT en XTX gebruikt werden om de prestaties aan te duiden van de desbetreffende modellen, gebruikt AMD nu de laatste twee cijfers van de serie nummer om de prestaties aan te geven. De extensies vervallen dus volledig. Er staat drie modellen in de HD3800 serie gepland, waarvan de eerste twee per direct beschikbaar zullen zijn:

- ATI Radeon HD3870
- ATI Radeon HD3850
- ATI Radeon HD3830

De ATI Radeon HD3870 en ATI Radeon HD3850 onderscheiden zich van elkaar wat betreft de kloksnelheden van de core en het geheugen. Voor de rest zijn ze identiek. Over de ATI Radeon HD3830 is nog weinig bekend. De kans is groot dat het aantal streamprocessoren hier verminderd is, terwijl de kloksnelheid gelijk is gebleven aan de ATI Radeon HD3850.

Bedenk je wel... De ATI Radeon HD3800 Serie is niet de highend serie van AMD. Deze zal gevuld worden door een nieuwe serie die in het eerste kwartaal van 2008 gelanceerd wordt en gebaseerd zal zijn op de R680!

De ATI Radeon HD3800 Serie heeft als hoofddoel om veel performance + features voor weinig geld met een laag stroomverbruik naar een grote massa te brengen. De meeste mensen zullen de ATI Radeon HD3800 serie vergelijken met de GF8800GT van de concurrentie. Deze G92 chip in die kaart is zo'n 73% groter dan de RV670, verbruikt meer stroom en wordt warmer. AMD heeft dus verschillende mogelijkheden om deze concurrentie te lijf te gaan, bv het omhoog gooien van de kloksnelheden of het omlaag gooien van de prijs. Dat ze hier niet voor schromen blijkt uit de positionering van de ATI Radeon HD2000 serie. Het verschil is nu echter dat de marges bij de nieuwe AMD serie een stuk hoger liggen. Dus AMD heeft de mogelijkheid om de prijzen verder omlaag te drukken dan nVidia dat kan zonder dat ze zichzelf pijn gaan doen (geruchten gaan over $150-$199).

http://img360.imageshack.us/img360/9117/atitopichd3800namecs3.jpg

De ATI Radeon HD3800 Serie presteert iets beter dan de ATI Radeon HD2900 Serie, ondanks dat het hier gaat om een RVxxx GPU. RVxxx GPUs zijn GPUs die gemaakt zijn voor de lowend en mainstream. De V staat voor Value. De koers die AMD nu vaart met de nieuwe GPUs is die van "beste performance per prijs per watt" oftewel... de beste bang-for-buck.

http://images.vnu.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet/31dba.jpg


Hoe kan het dat een Value GPU beter presteert dan een highend GPU in dezelfde serie? Dat komt door interne tweaks en voornamelijk door de hogere snelheid. De ATI Radeon HD3800 presteert iets beter dan de ATI Radeon HD2900 serie.

Waarom is er dan niet gekozen voor de naam ATI Radeon HD2950, maar wel voor de naam ATI Radeon HD3800? Dit komt omdat alle kaarten uit de ATI Radeon HD2000 serie DirectX10.0 ondersteunen. Alle kaarten van de HD3000 serie ondersteunen DX10.1 en PCI Express 2.0! Om het verschil aan te geven en geen overlappende kaarten met afwijkende technieken binnen dezelfde serie te hebben, heeft AMD eindelijk eens gekozen voor duidelijkheid. De ATI Radeon HD3000 Serie markeert dus het feit dat alle kaarten binnen de serie dezelfde functionaliteit bezitten. Voorheen liepen er wel eens kaarten door elkaar heen, zo waren de Radeon 9000 en 9100 DirectX 8.1 kaarten, terwijl de rest uit de 9000 serie volledig DX9.0 compliant waren.

Marketingtechnisch gezien zitten er natuurlijk ook voordelen aan het kiezen van een nieuw beginnummer. De HD2000 Serie was laat op de markt in vergelijking tot de competie en kreeg veel gemengde recensies. Door een nieuw nummer te kiezen, creeert AMD het gevoel dat ze met een schone lei beginnen en het oude achter zich laten. En de consument valt helaas vaak nog voor het "hoger is beter"-principe.

http://img214.imageshack.us/img214/3082/atitopicdirectx101vt6.jpg

Wat biedt DirectX 10.1 boven DX10.0? DirectX 10.1 biedt in het kort gezegd de volgende belangrijke zaken:
  • nieuw shadermodel 4.1
  • verbeterde anti-aliasing ondersteuning
  • flexibelere data toegang
  • striktere specificaties voor betere applicatie compatibileit
Deze features maken het mogelijk dat spannende nieuwe technieken zoals real-time global illumination sneller mogelijk zijn dan met DirectX 10.0. De efficientie ligt dus hoger, maar ook de beeldkwaliteit zal door de strictere regels en verhoogde precisie beter zijn.

Daarnaast brengt DirectX10.1 wat verbeteringen op het gebied van geluid en multi-core CPUs, maar aangezien dit topic over de ATI Radeons gaat, beperk ik me in de uitleg tot de verbeteringen voor GPUs.

De ATI Radeon HD3800 Serie is de allereerste GPU ter wereld die vanaf de grond op voor DirectX 10.1 is gebouwd. Daarnaast bevat de nieuwe serie andere technieken en standaarden zoals PCI Express 2.0, Unified Video Decoder (UVD), hardware accelerated tessellation en een zeer stroom efficient 55nm transistor design (inclusief de mobiele powersavings technlogie Powerplay).
http://img360.imageshack.us/img360/8105/atitopicdxoverzichtmx2.jpg

DirectX 10.1 volgt over het algemeen de structuur en het programmeermodel van DirectX10, maar biedt dus verscheidene verbeteringen. De vertex, geometry en pixelshader instructiesets zijn opgewaardeerd naar Shader Model 4.1. De nieuwe features van DX10.1 kan je het beste onderverdelen in 3 algemene categorieen:

- Nieuwe shading en texturing mogelijkheden
- verbeterde anti-aliasing
- striktere specificaties

Hieronder staat in het kort aangegeven wat de nieuwe features zijn, wat voor functie het heeft en wat de voordelen er van zijn:

http://img145.imageshack.us/img145/79/atitopicdxoverviewpl6.jpg

http://img360.imageshack.us/img360/8581/atitopicdxoverview2hf1.jpg

Omdat sommige termen vrij technisch zijn, staat hieronder in zo simpel mogelijk Nederlands uitgelegd wat er precies bedoeld wordt.

http://img360.imageshack.us/img360/8793/atitopicdxsm41gg4.jpg

DirectX 10.1 waardeert Shader Model 4.0 op naar Shader Model 4.1. De verbeteringen dienen vooral gezocht te worden in optimaliseringen die er voor zorgen dat bepaalde zaken sneller en efficienter uitgevoerd kunnen worden. Je moet hierbij vooral denken aan zaken als lichtval en schaduwberekeningen. In elke game komt dit voor en daar zal de GPU een groot deel van de tijd mee bezig zijn om dit op je scherm te toveren. Een hogere efficientie en snellere methodes om dit voor elkaar te krijgen zijn dan altijd welkom. En dat brengt Shader Model 4.1!

Cube Map Arrays: Ray tracing IQ & Global Illumination
Shader Model 4.1 brengt een IQ die dicht bij de IQ zit die ray-tracing brengt. Op dit moment is ray-tracing te zwaar voor de huidige GPUs, dus brengt DirectX 10.1 alternatieven om de kwaliteit zo veel mogelijk te benaderen. Een daarvan is Cube Map Arrays, wat er ook voor zorgt dat Global Illumination in real time gerenderd kan worden op een efficiente manier.

http://images.tomshardware.com/2007/10/29/amd_hd_3800_to_support_dx_10/gi-demo4-3.jpg


Efficientere Deferred Rendering
Daarnaast wordt er in steeds meer games gebruik gemaakt van "deferred rendering", zoals in alle games die gebruik maken van de Unreal Engine 3 (zoals Unreal Tournament 3). Deferred rendering is een manier van licht renderen die er voor zorgt dat alles er nog realistischer uit ziet. Hier is echter geen AA op mogelijk onder DX9, maar wel onder DX10. En Shader Model 4.1 zorgt er voor dat dit nog efficienter kan gebeuren dan onder Shader Model 4.0 in DX10.

Verbeterde performance voor complexe shaders
Door de vertex shader output te verbeteren van 16 naar 32 128-bit waardes per shader is het mogelijk om complexere shaders nog efficienter uit te voeren. Daarnaast brengt DX10.1 een techniek die Gather4 heet, iets dat AMD al ondersteunt sinds de RV515/RV530/R580. Deze techniek is vooral gericht op het verbeteren van Stream Computing applicaties (general purpose processing).

LOD Instruction
LOD Instruction is een nieuwe shader instruction die er voor zorgt dat er handgemaakte texture filtering technieken gebruikt kunnen worden die gericht zijn op verbeterde performance en beeldkwaliteit.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

Kartelige flikkerende randen veroorzaakt door aliasing kunnen zeer storend werken. Deze artifacts worden veroorzaakt door onvoldoende rendering en/of schermresolutie. Ze kunnen verminderd worden door middel van filtering technieken, waarbij meerdere samples (multi-samples) genomen worden per pixel en ze samengevoegd worden. Het truukje is om deze samples zo te kiezen dat ze zorgen voor een maximale gladheid zonder te veel wazigheid te veroorzaken, terwijl je tegelijkertijd er ook nog voor moet zorgen dat de performance redelijk blijft.

De meest gebruikte anti-aliasing techniek is multi-sample anti-aliasing (MSAA), maar dit werkt alleen maar met randen van polygonen. Het pakt niet het probleem aan van texture aliasing of shader aliasing. De ATI Radeon HD 2000 serie introduceerde Custom Filter AA (CFAA) die het mogelijk maakte om met verfijnde programmeerbare filters te werken. De laatste Catalyst drivers ondersteunen 4 verschillende soorten filters die toegepast kunnen worden op elke game die gebruik maakt van DX9 of zelfs eerder. De meest geavanceerde van deze filters was het Edge Detect Filter die alle randen (edges) detecteert en er AA op toepast (inclusief textures en shaders!).

http://img70.imageshack.us/img70/4664/atitopicdxaavc3.jpg

DirectX 10.1 maakt het mogelijk om op maat gemaakte anti-aliasing filters toe te passen op pixel shaders. Op maat gemaakte filters bieden een verbeterde beeldkwaliteit aan in de gevallen waar standaard MSAA problemen kan hebben zoals met HDR Lighting en deferred shading technieken. In die gevallen kunnen er vaak artifacts optreden wanneer MSAA geforceerd wordt (als dit al mogelijk is). Alle DX10.1 compatible hardware moet minimaal 4x MSAA ondersteunen. Dit is geen probleem want dit doen ATI Radeons al sinds de R300 (Radeon 9700). De specificaties bevatten nu echter enkele voor gedefinieerde AA sample patronen in tegenstelling tot eerdere versies van DirectX waar de GPU zelf bepaalde hoe de patronen er uit kwamen te zien.

Een nieuwe feature binnen DirectX 10.1 is dat het mogelijk is om alle AA buffers rechstreeks toegankelijk te maken voor de shaders. Voorheen was het alleen maar mogelijk om multi-sampled color buffers aan te spreken. Het was toen onmogelijk om voor elke sample informatie te ontrekken aan een depth buffer. Deze nieuwe feature maakt het voor game ontwikkelaars mogelijk om zelf geavanceerde AA technieken te gebruiken in combinatie met shaders en toegewijde hardware, zoals de ATI Radeon HD GPUs op dit moment doen met Custom Filter AA.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

De ATI Radeon HD introduceerde ook Adaptive Anti-aliasing die texture AA voor gedeeltelijk transparante textures (zoals struikgewas en hekwerk). DirectX 10.1 breidt deze mogelijkheden uit door de introductie van Sample Coverage Masking, die je de volledige controle geeft over de specifieke sample locaties waar de pixelshaders worden uitgevoerd. Hierdoor is het voor ontwikkelaars mogelijk om AAA techniek te gebruiken om meerdere types van aliasing artifacts aan te pakken. Op maat gemaakte sample patronen kunnen ook hier weer worden toegepast . Veel van deze technieken waren al aanwezig in de vorige ATI Radeon GPUs (zoals de Radeon 9700, X800 serie, X1000 serie en de HD2000 serie), maar DirectX 10.1 maakt het voor het eerst mogelijk dat developers hier rechtstreeks toegang toe hebben.

In het kort gezegd biedt DirectX 10.1 op AA gebied dus meer middelen om allerlei typen van aliasing artifacts op te lossen in real-time games, waardoor de beeldkwaliteit omhoog gaat.

http://img360.imageshack.us/img360/1526/atitopicdxspecsdf3.jpg

In het verleden namen kwam het vaak voor dat nieuwe features zeer traag geaccepteerd werden als nieuwe standaard doordat de ene GPU iets wel kon, maar een andere weer niet. Of doordat GPUs op verschillende manieren tot een bepaald resultaat kwamen waarvan de ene efficienter was dan de andere. Door deze verschillen in GPUs zag je soms onverwachte performancedrops, beeldkwaliteit problemen, foutmeldingen of zelfs crashes. In plaats van om deze problemen heen te werken, hebben vele ontwikkelaars er voor gekozen dat het beter is om te voorkomen dan te genezen en het probleem bij de basis - de GPU feature set - aan te pakken.

DirectX 10 was al een eerste grote stap richting het oplossen van de compatibiliteitsproblemen door strikte regels op te stellen over de vereisten van elke GPU ten opzichte van de functies en instructies, en veel minder features optioneel te maken dan voorheen het geval was. Hierdoor probeerde men te voorkomen dat de ene DX10 GPU een bepaalde feature had die een andere DX10 GPU niet had. Veel van de verbeteringen in DirectX 10.1 zijn geintroduceerd om naar nog meer gelijkheid te streven door nog striktere regels op te stellen. Enkele van deze regels waren in DirectX 10 optioneel aanwezig en zijn nu verplicht gesteld. Daarnaast zijn er ook enkele nieuwe specificaties toegevoegd.

http://img150.imageshack.us/img150/1119/atitopicdxtextureeo7.jpg

Een obstakel dat ontwikkelaars tegen hield om hogere precisie texturen te gebruiken en om gebruik te maken van de verschillende output formaten in recente versies van DirectX, was de beperking van het aantal soorten bewerkingen die elke GPU op ze kon doen. DirectX 10.1 verbeterd dit door verplicht te stellen dat elke DX10.1 compliant GPU texture filtering van 32-bits floating point formats en blending op 16-bit integer formats moet ondersteunen.

http://img150.imageshack.us/img150/1160/atitopicdxmsaacl1.jpg

Multi-sampling anti-aliasing (MSAA) is de meest gangbare techniek die op dit moment gebruikt wordt om de beeldkwaliteit te verbeteren. Door de jaren heen zijn er veel verbeteringen aan deze basistechniek toegebracht, maar vaak durfden developers het niet aan om hier gebruik van te maken omdat dit kon leiden tot verschillen in IQ op de GPUs van de verschillende independent hardware vendors (IHVs zoals AMD, nV). DirectX 10.1 brengt de vereiste dat elke kaart minimaal 4x AA moet ondersteunen, en tegelijkertijd brengt het voorgedefinieerd sample patronen waardoor AA op een GPU van AMD er hetzelfde uit ziet als op die van nVidia. Daarnaast blijft het mogelijk om de eigen verbeteringen zoals temporal AA en adaptive AA te blijven toepassen op de nieuwe vereisten van DirectX 10.1.

http://img360.imageshack.us/img360/5144/atitopicdxprecisionxj4.jpg

Alle soorten data formaten zijn beperkt tot een aantal precisies die ze kunnen ondersteunen. Dit is vooral afhankelijk van het aantal bits dat ter beschikking is. Bewerkingen die op deze formaten gedaan worden, maken echter niet vaak optimaal gebruik van de beschikbare precisie, waardoor er afrondingsfoutjes kunnen optreden wat resulteert in artifacts in games. DirectX 10.1 zorgt er voor dat dit niet meer voor komt en vereist dat standaard math bewerkingen op floatingpoint waardes ook echt gebruik maken van de beschikbare precisie.

http://img390.imageshack.us/img390/2459/atitopicreviewsit6.jpg

Hieronder staan links naar de meeste HD38x0 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:
-
-
-

Hieronder staan links naar de meeste HD34x0 / HD36x00 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

-
-
-

http://img360.imageshack.us/img360/245/atitopichd38xxxj1.jpg

http://img187.imageshack.us/img187/4837/gigabytehd3850ld5.jpg
Gigabyte ATI Radeon HD3850 512MB: RX385512H
Zoals gezegd zal de RV670 in eerste instantie in twee varianten op de markt komen, de ATI Radeon HD3850 en de ATI Radeon HD3870. Zoals het er nu naar uit ziet zal de ATI Radeon HD3870 op een kloksnelheid van 775Mhz draaien voor de core en 2400Mhz GDDR4 voor het geheugen. De HD3850 zal het moeten doen met een core snelheid van 667Mhz en een geheugensnelheid van 1800Mhz GDDR3. De feature list ziet er als volgt uit:
  • Aantal transistoren: 666 Miljoen
  • Productieproces: 55nm
  • Bus Interface: PCI Express 2.0 x16
  • Memory Interface: 256-bit GDDR3/GDDR4
  • Memory Controller: 512-bits Ring Bus (fully distributed)
  • DirectX: 10.1
    - Shadermodel 4.1
    - 32-bit floating point texture filtering
    - Indexed Cube Map Arrays
    - Independent Blend modes per Render Target
    - Pixel Coverage Sample Masking
    - Read/write multi-sample surfaces with shaders
    - Gather4
  • Streamprocessors: 320
    - 128-bit floating point precision on all operations
    - Command Processor for reduced CPU overhead
    - Shader instruction and constant caches
    - Up to 80 texture fetchus per clock cycle
    - Up to 128 textures per pixel
    - Fully associative multi-level texture cache design
    - High resolution texture support (up to 8192x8192)
    - Fully associative texture Z/stencil cache designs
    - Early Z test, Re-Z, Z Range optimization and Fast Z Clear
    - Lossless Z & Stencil Compression (up to 128:1)
    - DXTC and 3DC+ texture compression
    - 8 Render Targets (MRTs) with anti-aliasing support
    - Physics Processing Support
  • Dynamic Geometry Acceleration
    - High Performance Vertex Cache
    - Programmable Tesselation Unit
    - Accelerated Geometry Shader Path for Geometry Amplification
    - Memory red/write cache for improved stream output performance
  • Anti-aliasing features
    - Multi Sampling AA (2, 4 of 8 samples per pixel)
    - Up to 24x Custom Filter AA (CFAA) for improved quality
    - Adaptive Super-sampling and Multi-sampling
    - Temporal Anti-aliasing
    - Gamma Correct
    - Super AA (ATI CrossFire configurations only
    - All anti-aliasing features compatible with HDR
  • Texture Filtering Features
    - 2x/4x/8x/16x High Quality Adaptive Anisotropic Filtering Modes (up to 128 taps per pixel)
    - 128-bit Floating point HDR Texture Filtering
    - Bicubic Filtering
    - sRGB filtering (Gamma/degamma)
    - Percentage Closure Filtering (PFC)
    - Depth & Stencil Texture (DST) format Support
    - Shared Exponent HDR (RGBE 9:9:9:5) texture format support
  • OpenGL 2.0 support
  • ATI Avivo HD Video and Display Platform
    - Dedicated Unified Video Decoder (UVD) for H.264/AVC and VC-1 Video formats
    - Hardware MPEG-1, MPEG-2 and DivX video decode acceleration
    - ATI Avivo Video Post Processor
    - Two Independent Display Controllers
    - Two Integrated Dual-Link DVI Display Outputs
    - Two Integrated 400Mhz 30-bit RAMDACs
    - DisplayPort Output Support
    - HDMI Output Support
    - Integrated AMD Xilleon HDTV Decoder
    - MPEG-2, MPEG-4, DivX, WMV9, VC-1 and H.264/AVC Encoding and Transcoding
    - Seamless Integration of Pixel Shaders with Video in Real Time
    - VGA mode support on all display outputs
  • ATI PowerPlay
    - Advanced power management technology for optimal performance and powersavings
    - Performance-on-demand (voltage switching, dynamic clock gating, clock & memory speed throttling, GPU monitoring
    - Central thermal management - on-chip sensors monitors GPU temperature and triggers thermal actions as required
  • ATI CrossFireX Multi-GPU technology
    - Scale up rendering performance and image quality with two, three or four GPUs
    - Integrated compositing engine
    - High performance dual channel bridge interconnect
Hoe presteert de kaart? Dat weet natuurlijk de concurrentie het beste. Volgens nVidia zal de HD3870 zo presteren ten opzichte van haar GeForce 8800GT:

http://img86.imageshack.us/img86/8544/88vs670sea5.jpg

In de praktijk zal het er op neer komen dat de ATI Radeon HD3870 zo'n 10% sneller zal zijn dan de ATI Radeon HD2900XT terwijl de ATi Radeon HD3850 zo'n 13% langzamer zal zijn. Bedenk je wel dat dit een midrange kaart is, die sneller en goedkoper is met meer features dan de vorige high-end. Veel bang-for-buck dus!

De focus van AMD zal in eerste instantie uit gaan naar de HD3850, want het is voor AMD mogelijk om van die kaart enorm veel te verkopen in het prijssegment waar deze zich in bevindt. De HD3850 zal bij launch de onbetwiste prijs/performance kaart worden zoals je straks zult zien. AMD vraagt zich dan ook af hoe ver nVidia durft te gaan met de prijs van de GF8800GT 256MB, want de marges zijn hier al zeer laag op en AMD kan nog verder zakken zonder verlies te maken.

Voor zover mijn bron weet zal de HD3870 echter wel redelijk snel goed verkrijgbaar moeten zijn dus een eventueel tekort bij launch zou snel opgelost zijn (in de dagen er na). De eerste HD3870 kaarten worden door AMD zelf gemaakt, maar tegelijkertijd zijn ze nu de productie van HD3870 ASICs aan het verhogen waardoor AIBs met hun eigen kaarten kunnen komen.

http://img390.imageshack.us/img390/7408/atitopictoekomstigegpuspf9.jpg

Op korte termijn staan gepland:
  • RV620
  • RV635
  • R680
Al deze GPUs zullen gemaakt worden op het 55nm productieproces van TSMC. Daarnaast zullen al deze GPUs volledig DX10.1 ondersteunen.

De RV620 is de 55nm opvolger van de RV610 en zal waarschijnlijk ATI Radeon HD3400 heten.
De RV635 is de 55nm opvolger van de RV630 en zal waarschijnlijk ATI Radeon HD3600 heten.
De R680 is de opvolger van de R600 en zal waarschijnlijk ATI Radeon HD3900 heten.

Al deze GPUs staan gepland voor Q1 2008. Volgens de laatste geruchten is de R680 een dubbele RV670. Volgens deze geruchten richt AMD zich op een 3DM06 score van 20.000 punten voor de R680.

Voor halverwege 2008 (zal wel twee helft 2008 worden) staat de R700 gepland. Deze staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan en zal waarschijnlijk de eerste multi-core GPU worden.

http://img360.imageshack.us/img360/1716/atitopicprijsoverzichtcs1.jpg
http://img390.imageshack.us/img390/736/hd2000prijsoverzichtoh6.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://img145.imageshack.us/img145/6045/atitopicgeruchtenmolengz5.jpg

Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
Gerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://img360.imageshack.us/img360/4926/atitopicoverigenq6.jpg
ATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

CJ wijzigde deze reactie 13-11-2007 02:59 (102%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
Vraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
  • HD2400Pro
  • HD2400XT*
  • HD2600Pro*
  • HD2600XT*
* ook mogelijk via hardware CF indien dubbele CF connector aanwezig

Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Vanaf de ATI Radeon X1650XT en X1950Pro zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! Vanaf de HD2000 serie zullen (bijna) alle videokaarten dit systeem gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Vraag: CrossFire: Kan ik een RV670 aan een R600 of R700 koppelen?

Nee!

Als je CrossFire wilt gebruiken om twee videokaarten te laten samenwerken voor multi-renderen (dwz meerdere kaarten renderen het beeld), dan is dat NIET mogelijk. Je kan alleen videokaarten aan elkaar koppelen die gebruik maken van dezelfde GPU.

Een HD3870 kan je dus alleen koppelen aan een videokaart die ook gebruik maakt van een RV670, dus bijvoorbeeld de HD3850 of een andere HD3870.

Vraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Vraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
Vraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Vraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Vraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Vraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
Vraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Vraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200 (RD480)
- ATi Radeon Xpress 3200 (RD580/RD600)
- AMD 790FX
- Intel 955x
- Intel 965
- Intel 975x
- Intel X38
- Intel P35

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Vraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Vraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Vraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Vraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Vraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.
Vraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

Vraag: Is AA "gebroken" in de R600?

Antwoord: Nee! AA als dusdanig is niet gebroken in de AA. Wanneer er AA wordt gevraagd in de toepassing of AA wordt geforceerd in de drivers wordt AA gewoon toegepast. De R600 heeft zelfs een hele flexibele vorm van AA aan boord.

Waar zeiken sommige mensen dan zo graag over? Dit komt door de performancedrop die groter lijkt dan bij de concurrentie en de voorgaande ATI Radeon chips. Hoe komt deze performancedrop? Door het ontbreken van hardwarematige AA resolve. Is dat een probleem? Nee. Overal gezien is de performance met AA nog altijd beter dan de performance van de voorganger (X1950XTX). Wil je nog sneller? G80 is your choice.

Maar maar.... hoe komt die grote performancedrop dan in vergelijking met de G80? Dat is een designbeslissing geweest. Er komen steeds meer games die gebruik maken van vormen van rendering waarbij er non-lineaire AA resolve moet worden toegepast. Fixed function hardware AA resolve, dat zegt het al, is lineair en wanneer dit wordt toegepast dan kunnen er artifacts optreden.

Wat zijn vormen van rendering waar non-linaire AA resolve technisch gezien 'beter' is dan de 'ouderwetse' manier? Nou, bijvoorbeeld bij HDR rendering (welke game gebruikt nu geen HDR meer?), deferred rendering (o.a. STALKER en alle games die gebruik maken de Unreal Engine 3 - en dat zijn er nog al wat) en bij het gebruik van anti-aliased shadow buffers. Deze vormen vereisen meer controle over de bewerking en over de pixel, daar waar voorheen de 'oude' hardware AA resolve adequaat genoeg was.

Maar maar... waarom hadden we dan vroeger nooit last van dat soort artefacts?? Tja... vroeger toen was alles anders. Tijden veranderen. Technologie verandert. Vroeger moesten er ook al workarounds worden gevonden om AA met HDR aan de praat te krijgen. Developers krijgen nu meer flexibiliteit om eindelijk op het scherm te toveren wat ze altijd al hadden willen laten zien zonder beperkt te worden door lineaire AA resolve. Tot op heden werkten ze hier namelijk omheen. Wij - als eindgebruiker - merkten dat niet. Nu kunnen ze het op een correcte manier doen.

Wat is dan de correcte manier? Op de correcte manier kan een pixelshader gebruikt worden om toegang te krijgen tot elke individuele sample binnen elke pixel. Hierdoor kan een graphics engine een hogere kwaliteit AA resolve toe passen en zelf beslissen wat voor filter er gebruikt moet worden. Microsoft heeft dit op verzoek van zowel developers en hardware vendors toegevoegd omdat er vraag was naar een betere beeldkwaliteit! Vragen om de 'oude' manier is dus tevergeefs!

Voor de mensen die er wat meer willen afweten over hoe de R600 het doet: De RBEs (voorheen ROPs) doen alles op het gebied van AA, behalve het gedeelte dat "resolve" heet. Dit wordt nu gedaan in de shadercore. Via een fastpath tussen de RBE en shadercore wordt data aan de shaderprocessors gevoerd om resolve toe te passen. Het grote voordeel hiervan is dat de resolve hierdoor zeer programmeerbaar is geworden. Het nadeel is dat het trager 'kan' zijn dan op de ouderwetse manier.

De redenatie van AMD om zich volledig op shader resolve te richten is het feit dat toekomstige games meer en meer op shader based AA resolve zal richten vanwege de hardware limitaties wanneer het aan komt op FP render targets. AMD heeft al eerder gegokt op toekomst gerichtheid met de R580 en daar plukken we nu (bijna 2 jaar na launch de vruchten van met engines als de Unreal Engine 3 waar de toenmalige concurrent GF7900GTX helemaal ingemaakt wordt). Daarnaast is het gebruik van custom resolve filters straks een vereiste in DX.

Het officiele statement van AMD:
quote:
We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

CJ wijzigde deze reactie 12-11-2007 09:42 (103%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Er zijn weer wat slides gelekt. :9~

http://img138.imageshack.us/img138/319/200711086962539c7b5c082zr7.jpg

De rest hier

-Edit
quote:
CJ schreef op donderdag 08 november 2007 @ 15:09:
512-bits -> 256-bits memory controller
1024-bits -> 512-bits ringbus controller
DX10.0 -> DX10.1
geen UVD -> UVD
720M transistors -> 666M transistors
80nm -> 55nm

Allemaal dingen die ingrijpende veranderingen zijn... Dat laatste is dus zelfs een volledige productieproces genereratieverschil... dus geen simpele die-shrink waar je dezelfde libraries van kan gebruiken...
Dat laatste ben ik wel met je eens alhoewel ze wel ervaring hebben met 0.065u, maar voor de rest.... Het overtollige gedeelte van de R600 verwijderd en UVD van de low/mid end van de HD2k erbij geplakt. Hoeveel de hardware veranderd moest worden om er DX10.1 van te maken heb ik niet echt een kijk op, maar ik kan mij eigenlijk niet voorstellen dat er veel voor gedaan moet worden. Nou ja, misschien horen we ooit nog wel eens wat de redenen zijn dat A11 een direct hit was.

aca wijzigde deze reactie 08-11-2007 15:26 (70%)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Taenadar
  • Registratie: januari 2004
  • Laatst online: 13:58
club3d 3850 op azerty

Als je de specs vergelijkt met dan zit er toch wat verschil in....

http://img138.imageshack.us/img138/2912/200711086ce59cee982e351xl8.jpg

  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 12:37

Splinter Cell

AMD HD7850

http://img140.imageshack.us/img140/5628/image3cp7.jpg

http://img140.imageshack.us/img140/3342/image4xr5.jpg

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
dreameater schreef op vrijdag 09 november 2007 @ 11:52:
Als dit waar is .... moet ik mijn 2900 XT meteen verkopen.. mag ik blij zijn als ik er nog 200 euro voor krijg :O
Kijk naar de daadwerkelijke fps in plaats van naar de balken. De schaal klopt niet.

http://img148.imageshack.us/img148/6932/200711094eab719d5ee22d6aa2.jpg

Kan aan mij liggen, maar ik ben niet echt onder de indruk.
UT3 en WiC daar gelaten scheelt de perf. zo goed als nix met de 2900XT... en zelfs die 2 games laten in werkelijkheid niet meer dan een 20% performanceverschil zien in AMD's eigen charts (ben wel benieuwd waar die bump vandaan komt overigens).
CoJ en CoH zijn precies in lijn met die 5% clockspeedbump, maar de 2 AA/AF benchmarks geven weinig hoop voor de AA performance: daar wordt zelfs verloren van de 2900XT.

Het is leuk voor 't beoogde prijspeil (naar ik hoop dus niet 249,- Euro), maar dit is performancewise absoluut geen uitdaging voor de 8800GT... naar wat ik uit de review van driverheaven kan opmaken kan een single GT in diverse games de 3870 in CF verslaan mits bovenstaand klopt...

Cheetah wijzigde deze reactie 09-11-2007 13:17 (38%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Mr. Detonator
  • Registratie: februari 2003
  • Nu online
quote:
GENETX schreef op vrijdag 09 november 2007 @ 14:15:
Nouja, die balken kloppen prima, je kan precies zien hoeveel % sneller/trager de nieuwe kaart is tov de oude. Ok, op deze manier scores laten zien is niet gebruikelijk, maar als vergelijking tov de oude kun je direct zien waar veel winst is geboekt...
http://img204.imageshack.us/img204/6585/200711096cb5ec8caddd6aepz4.jpg

http://img148.imageshack.us/img148/6932/200711094eab719d5ee22d6aa2.jpg
waar zit die winst dan, want zo te zien is het AA probleem niet opgelost ?

Mr. Detonator wijzigde deze reactie 09-11-2007 14:19 (14%)


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Cheetah schreef op vrijdag 09 november 2007 @ 14:10:
[...]
Zeer nuttige troll. Natuurlijk doet nV dat ook. Kijk maar in de startpost. Grappig dat daar toen wel een bak kritiek op kwam (ook van mijzelf overigens) :)

Maargoed, wel weer jammer dat zo wordt omgesprongen met de aanmoediging om naar de fps i.p.v. naar de balken te kijken. Was een volkomen terechte opmerking toch, of niet?
De schaal op de onderas klopt zelfs letterlijk niet (er heeft iemand lopen crappen met Excel en .05)
Zeker terechte opmerking. Beter zo?

http://img391.imageshack.us/img391/9446/p3xz61vypk9.png

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla

quote:
BlackWolf666 schreef op vrijdag 09 november 2007 @ 15:55:
De AA performance lijkt niet veel beter.. Misschien bedoelden ze verbeterde AA-performance dat de AA in DX10.1 beter werkt dan in DX9/10 }:O
AA performance is trouwens relatief gezien wel verbeterd. Met veel minder bandbreedte doet de HD3870 niet/weinig onder voor de HD2900XT.

En die boost in UT3 komt waarschijnlijk niet door de hogere kloksnelheid maar doordat de RV670 gebouwd is voor DX10.1 waardoor deze efficienter om kan gaan met deferred rendering. Zie ook de first post over verbeteringen in DX10.1.

Trouwens:

http://images.vnu.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870/r680.jpg

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
Zo te lezen zijn de uitgelekte benches gedaan met een P35.In crossfire; 16 lanes + 4lanes.

Hoeveel zal het schelen als je het test met een x38-mobo?(2x 16lanes.)
Daar ben ik wel benieuwd naar. ;)

http://godlike.cl/up/im/20/pplay.jpg

Onderste text;
Not dependant on application state

Dit hebben ze wel goed opgelost,is nu gewoon zo, als je gamed/bench in windowed mode,dat ie gewoon in 2d modes blijft.

Bullus wijzigde deze reactie 09-11-2007 19:24 (36%)

|2600k|Asus 290|


  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

http://www.generationmp3.com/hcarnage/images/nvati.jpg

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt


  • Apoca
  • Registratie: november 2001
  • Laatst online: 13:14

Apoca

Array Technology Industry

Altijd leuk als ze het zelfs op de doos zetten, marketing op zijn best :+

http://www.ngohq.com/images/leadtek8800gt.jpg

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56

Er is een nieuwe benchmark genaamd "Lightmark" die zich helemaal richt op belichten en met name Global Illumination. Laat AMD zich nou net met de HD3800 Serie ook richten op Global Illumination (zie first post) omdat er dedicated hardware in zit waardoor dit veel efficienter kan gebeuren. Toeval?

http://images.vnu.net/gb/inquirer/news/2007/11/10/3d-benchmark-appears/ligthmark.jpg

http://www.theinquirer.ne...1/10/3d-benchmark-appears

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

AMD en nVidia hebben beide al enige tijd plannen om de GPU voor meer dan alleen 3D toepassingen in te zetten. nVidia heeft in juni van 2007 de Tesla familie van producten geïntroduceerd waarmee berekeningen kunnen worden uitgevoerd voor supercomputertoepassingen. De meest simpele uitvoering, de Tesla C870, is een insteekkaart met één GPU en 1,5 GB geheugen die 500 gigaflops doet. De duurste versie met vier GPU's doet 2 teraflops maar kost dan ook 12000 dollar.

http://www.hardware.info/images/news/6554_firestream9170.jpg

AMD heeft nu een concurrerende GPGPU (general purpose GPU) aangekondigd, de FireStream 9170, die gebaseerd is op de RV670 chip die ook als basis geldt voor de nieuwe Radeon 3800 serie. De 9170 is de eerste GPU ter wereld die berekeningen kan uitvoeren met dubbele precisie drijvende-komma getallen, wat gewaardeerd zal kunnen worden door onderzoeksinstituten en universiteiten. Samen met de kaart komt ook een SDK beschikbaar die ervoor zorgt dat ontwikkelaars hun eigen applicaties kunnen gaan schrijven om de rekenkracht ten volle te benutten. De vorige GPGPU van AMD die een jaar geleden werd gelanceerd, gebaseerd op de R580, miste deze software ondersteuning.

De kaart is voorzien van 2 GB DDR3 geheugen, 320 stream processors, draait op kloksnelheden van 775-800 MHz en levert een rekenkracht van 500 gigaflops. De prijs zou $1999 dollar bedragen, wat hoger ligt dan de $1499 van het instapmodel van nVidia de C870, maar die beschikt dan ook niet over de mogelijkheid om met dubbele precisie te werken.

Bron : http://www.hardware.info/...et_Firestream_9170_GPGPU/

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt

Eerste benchmarks (met Catalyst 7.10 dus niet de launch drivers):

http://i21.photobucket.com/albums/b299/Genocide737/6pin.jpg

http://i21.photobucket.com/albums/b299/Genocide737/3870na.jpg

http://i21.photobucket.com/albums/b299/Genocide737/table.gif
quote:
From 3Dmark06 and Crysis, it looks like nVidia 8800GT is better than HD3870. However, there is one thing we need to tell you

We found ATi HD3870 is actually has better picture process while Crysis benching.

Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.

If you have chance, compare it. You will know what are we talking about.

The price for ATi HD3870 we are not sure yet, but it should be less than 8800GT.

Not only that, CF can do on P35, X38, 965, and 975 those motherboard as long as there are 2 PCI-E slot.
http://iax-tech.com/video/3870/38701.htm

Ook interessant voor sommigen:
quote:
Also, we are very surprise to see that as AA increase to 8X, the HD3870 beats 8800GT on SM3.0. On HD2900XT, AA was its weakest point and make people hesitate to buy it. Good job on ATi

CJ wijzigde deze reactie 12-11-2007 10:23 (13%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
CJ schreef op maandag 12 november 2007 @ 13:53:
Ik hoop dat je door hebt dat je nu onderdelen vergelijkt die eigenlijk niet te vergelijken zijn?
Dat was precies mijn punt: je kunt niet 1 element van de architectuur (aantal texture units in dit geval) eruit lichten en vervolgens dat tot 'efficienter' verklaren dan de concurrentie. De architecturen zijn niet 1 op 1 vergelijkbaar.
Om efficiency op bepaalde gebieden te meten zul je dus gebruik moeten maken van specifieke eikpunten (ook wel: benchmarks) en dat afzetten tegen aantal transistors, en inherent daaraan: stroomverbruik (wat overigens ook afhankelijk is van productieprocede).

Hoe je er aan komt dat een 14% performancehit @16xAF (met 16 texture units) getuigd van 'betere efficiency' dan een virtuele 0% performancehit @16xAF (met 56 texture units) is me nog steeds onduidelijk... en dat was waarop ik reageerde. 0% hit lijkt me per definitie preferabel.
Gezien gegoochel met getallen een leuke sport schijnt te zijn: met 'slechts' 3,5x zo veel texture units doet G92 het maarliefst 14.000x beter (0,1% hit vs 14% hit)... Wie is er dan efficienter? :P

Van het technische verhaal dat volgt ben ik uitstekend op de hoogte ;)
Je illustreert waarom je niet zo kunt vergelijken, en dat is precies wat ik ook wilde zeggen :)
Het gegoochel met getallen (en m.n. die op een manier opschrijven die ATi goed lijkt uit te komen) is dan wel weer jammer...
quote:
Als je zo alles wilt koppelen dan is alles terug te voeren op de techniek. Maar performance is in het geval van de R600 generatie ook sterk gerelateerd aan drivers vanwege de VLIW architectuur.
Maar dat is toch ook zo? Drivercomplexiteit is eveneens afhankelijk van de techniek waarmee gewerkt moet worden. Het (on)vermogen om snel goede drivers te produceren is dus ook architecuurgebonden ;)
quote:
Verbeterde AA heeft de RV670 ook, maar dankzij DX10.1. En voor veel van deze verbeteringen hoeft een game niet eens specifiek geschreven te zijn. Wanneer SP1 uit komt zou de RV670 architectuur hier automatisch iets beter door moeten functioneren.
Daar kopen we tot ergens halverwege 2008 (SP1 release) en totdat dev's het gaan integreren in games natuurlijk niet veel voor...
quote:
Het verbeteren van AA performance vergt ingrijpingen in de Render Backends.
Volgens de geruchten zouden juist de RBE's van RV670 aangepast zijn voor beter AA...
quote:
Dat is niet iets wat je zo maar in een "dieshrink" of "refresh" doet. AMD heeft er geen moeite mee om RBEs en texture units weg te laten (zie RV570, RV560) net zoals nV dingen heeft weg gelaten in de G92. Weg laten is gemakkelijker dan toevoegen. De veranderingen in texturing bij de G92 ten opzichte van de G80, zijn geen nieuwigheden. De G92 heeft namelijk dezelfde verhoudingen overgenomen van de G84. Dus ingrijpend waren deze veranderingen niet.
nV heeft meer gedaan dan alleen dingen weglaten. Texel sampling en Texel filtering capaciteit is bij G92 groter dan bij G80GTX. Texture Adress units zijn toegevoegd, en de verhouding Texture Adress / Texture Filtering is aangepast:
http://www.bit-tech.net/content_images/2007/11/nvidia_geforce_8800_gt/stream-tex.jpg
Het leek mij absoluut niet vreemd om er van uit te gaan dat ATi iets soortgelijks had gedaan met RV670.

Nieuwe prijzen 3800 serie zien er goed uit trouwens :)

Cheetah wijzigde deze reactie 12-11-2007 15:14 (3%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Phyxion
  • Registratie: april 2004
  • Laatst online: 28-03 10:58

Phyxion

_/-\o_

quote:
Er zijn ook foto's van Crysis gepost, 3870 vs 8800GT:
3870:
http://iax-tech.com/video/3870/3870crysis.jpg
8800GT
http://iax-tech.com/video/3870/8800crysis.jpg

Heel duidelijk verschil dat de 3870 stukken beter lijkt. Performance van de 3870 is 2 fps minder dan de 8800GT.

'You like a gay cowboy and you look like a gay terrorist.' - James May


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 28-03 07:43
quote:
Astennu schreef op maandag 12 november 2007 @ 19:28:

Maar De AA performance van de HD3870 ziet er goed uit. Hopelijk gaan andere review sites dit bevestigen.
Ziet er goed uit? Vind ik niet. :X

Op 1280x1024 scoort die setup 20.300, en met 8x AA en 16xAF nog maar 12.800. Dat is bijna 37% performance verlies!!!

Mijn 8800GT's in SLi scoren default 15.800 en op 1280x1024 met 8xAA en 16xAF nog steeds 12.390. Wat neerkomt op een performanceverlies van maar 21%. ;)

1280x1024 8xAA 16XAF:

http://i7.tinypic.com/6lto9ko.jpg

En dat met een CPU die 1GHz langzamer draait en van huize uit al 5 tot 10% trager is. Kun je nagaan wat mijn setup scoort met mijn CPU op 4,0GHz (of 4,4GHz, wat meer overeenkomt qua performance). ;)

Met AA en AF aan levert de HD3870 CF tov de 8800GT's in SLi dus nog even 16% extra performance in. En dat met een CPU klokverschil van 1GHz!!!

En zeg nou niet dat het door de drivers komt; de 8800GT is ook net uit en heeft ook nog maar 1 "GOEIE" driver. ;)

Format-C wijzigde deze reactie 12-11-2007 20:48 (6%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

quote:
Illidan schreef op maandag 12 november 2007 @ 22:26:
[...]


Ik heb dit ff gemist; wat is die geavanceerde stroombesparingsfeature precies, en belangrijker: hoeveel verschilt het met de 8800GT?
Volgens mij staat dat gewoon in de startpost hoor...

Anyways. De technologie die in de HD3800 serie zit is Powerplay. Deze feature is afkomstig van de laptopvideokaarten van ATI/AMD, en maakt het mogelijk om on-the-fly voltages, kloksnelheden en PCI-E bandbreedte te reguleren. Het kan zelfs bepaalde onderdelen van de GPU op standby zetten, net zoals de slaapstand van moderne processors. Het voordeel is dat je videokaart nooit meer stroom gebruikt dan strikt noodzakelijk is, wat vooral bij light load en idle veel energie kan besparen. Volgens mij heeft CJ hier al een post over gemaakt, waarin hij zegt dat de videokaart met Powerplay verschillende PCI-E lanes kan uitschakelen wanneer de bandbreedte niet nodig is.

Powerplay is dus niet hetzelfde als de 2D en de 3D speed die we al langer kennen, maar is dus een techniek die in de GPU zelf zit die alle eerdergenoemde dingen zelf kan reguleren. De GPU kan dus 3D applicaties herkennen, ook als je in een venstertje op je (2D) bureaublad draait.

Zie dit voorbeeldje. Ik weet heel zeker dat de 8800GT die idle wattages niet kan benaderen..

http://www.hardware.info/images/news/powerplay-hd3800.jpg

frankknopers wijzigde deze reactie 12-11-2007 22:36 (4%)

Goud is geen geld


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
oeLangOetan schreef op maandag 12 november 2007 @ 21:45:
De vraag is natuurlijk of dat dat goed gebruik van die-space is.
Zoals gezegd: dat hangt samen met doel en resultaat.
Doel was een architectuur die tegen relatief geringe bandbreedte goede AA & AF performance kon neerzetten. Ten behoeve van o.m. AF is de hoeveelheid Texture Adressing units en verhouding van de TA en TF units aangepast. Resultaten met AA zijn goed (GTX heeft 1,5x zo veel bandbreedte en toch schaalt GT vrij goed mee - tot op zeker hoogte) en met AF (0,1% hit @16x) vooralsnog zeer goed te noemen...
quote:
frankknopers schreef op maandag 12 november 2007 @ 22:21:
Ik ben die discussie van die AA drop inmiddels wel weer een beetje zat. Het is wel duidelijk dat de hardware AA van de G80 generatie (G92 kun je daar ook gewoon bij schalen) sneller is met AA berekenen dan de shaders van de R600 architectuur.
We hadden het over Anisotropic Filtering ofwel AF performance hoor ;)
Da's iets anders dan Anti Aliasing (ook wel AA), hoewel ze wel vaak in tandem gebruikt worden :)
quote:
Daartegenover staat dat de shaderbased AA performance van de R600 generatie beter is dan die van de G80 generatie (zie de omstreden CoJ DX10 benchmark, waar de HD2900 de 8800GTX verslaat).
Oh :? Ancient history blijft toch telkens weer verassend lang hangen.
Goes to show dat de eerste indruk altijd toch 't meest indrukwekkend is blijkbaar...

http://www.pcper.com/images/reviews/463/7.10-single/coj-1600-bar.jpg

http://www.pcper.com/images/reviews/463/7.10-single/coj-1920-bar.jpg

Zoals je ziet speelt de 2900XT al enige maanden gewoon lief tussen GTS en GTX in CoJ hoor, en qua min-fps zelfs een flink stukje onder die 2... Als SLI/CF erbij wordt gehaald trekt de GTS gelijk @avg.
quote:
dankzij zijn geavanceerde stroombesparingsfeatures is het zeker een interessant alternatief voor de consument
Ik blijf het toch telkens weer verassend vinden om dergelijke argumentatie te lezen van een 2900XT CF bezitter...
2900XT CF... stroombesparing... (oh well never mind) ;)

Cheetah wijzigde deze reactie 12-11-2007 22:55 (8%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

De nieuwe Alienware ALX PC heeft trouwens een HD3870 CF aan boord:
quote:
http://image.alienware.com/Images/product_detail_page_images/area-51_alx/true_colors.jpg
Get Caught in the CrossFire

The new ATI® Radeon™ HD 3870 with CrossFire™ dual graphics technology are the DirectX® 10 screaming graphics firepower that ALX customers have been waiting for. These power-packed dual graphic cards provide the stunning realism and immersive visual quality that propels you deep into your gameplay. Dual 256MB of DDR4 onboard memory, and PCI-Express 2.0 Graphics compatibility, makes sure your next-gen DX10 games can get cranked up to their maximum settings without experiencing any lag in framerates.
http://www.alienware.com/...bCode=SKU-DEFAULT#pdp-nav

AMD luistert blijkbaar toch wel een klein beetje naar de consument. Niet alleen is het stroomverbruik omlaag gebracht en zijn er nieuwe technieken in de RV670 ingevoerd om dit nog veel verder omlaag te brengen dan de concurrentie... Ook de coolers zijn stil. ter vergelijking:

HD 3850 : 31 dBA
HD 3870 : 34 dBA
8800GT : 43 dBA

CJ wijzigde deze reactie 13-11-2007 03:02 (16%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Dan maar weer wat plaatjes om de gemoederen te bedaren:

http://resources.vr-zone.com/newzhunter/RV670/quadrv670-1.jpg
http://resources.vr-zone.com/newzhunter/RV670/quadrv670-3.jpg
http://resources.vr-zone.com/newzhunter/RV670/quadrv670-4.jpg

Bron

aca wijzigde deze reactie 13-11-2007 11:06 (11%)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

quote:
Sp!tF!re schreef op dinsdag 13 november 2007 @ 18:29:
Ik vind het wel een goede vergelijking van de HD3850 t.o.v. de HD2600XT en 8600GTS (die ongeveer gelijk zitten met mijn X1950Pro), het lijkt erop dat dit toch wel een goede upgrade zou kunnen zijn voor mijn X1950Pro..
Zeker :)

Even een teaser O-)

http://www.hardware.info/nl-NL/products/ZGRnmmZlyZ5l/bGRkZJiXmJTK,bGRkZ5iSmJfK,bGRkaJiXmJfK,bGRkaJiZmJbK/viewbenchmark/

It takes two fools to argue.


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

quote:
martijnve schreef op dinsdag 13 november 2007 @ 18:38:
[...]

WTF? dat haalt mn 2900 niet eens :S (op 1280 dan 8)7 )
Het testsysteem is dan ook krachtiger dan jouw systeem ;) Hier scoort de 2900XT:

http://www.hardware.info/nl-NL/products/ZGRnmmZlyZ5l/bGRkZJibmJTK,bGRkaJiZmJbK/viewbenchmark/

It takes two fools to argue.


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

Nieuwe logo's:

http://www.fudzilla.com/images/stories/2007/November/General%20News/ati_newlogos.jpg

It takes two fools to argue.

Trouwens iets interessant in de Valve Survey....

Had CrossFire niet iets van nog geen 2 of 3% vs 97/98% SLI onder de multi GPU gebruikers? De laatste survey laat namelijk een stijging zien bij CrossFire. Het zijn wellicht maar 100 gebruikers, maar toch...
quote:
NVIDIA SLI (2 GPUs) 78 78.00 %
ATI Crossfire (2 GPUs) 22 22.00 %
http://www.steampowered.com/status/survey.html

Deze is trouwens ook grappig om te zien. Een native HDMI HD3850 met dualfan coolingsolution:

http://www.expreview.com/img/news/071114/3850_1.jpg

http://www.expreview.com/...1-14/1195012610d6928.html

CJ wijzigde deze reactie 14-11-2007 11:44 (22%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • mad_max234
  • Registratie: september 2003
  • Laatst online: 15-06-2017

mad_max234

AMD Athlon II M320

Post het hier ook maar even voor de mensen die niet in het [Algemeen] AMD nieuws en discussietopic komen. :)

De spider op de foto.

http://img210.imageshack.us/img210/5843/spiderbr4.jpg

http://img206.imageshack.us/img206/5259/spider2sn9.jpg

http://img442.imageshack.us/img442/9575/14738aa76b7659di5.jpg

Bron: http://blog.yam.com/hardwareclub/article/12562032

-Andere hobby- -


  • k995
  • Registratie: november 2002
  • Laatst online: 13:42
Oei

Well there you have it, another disappointing release from AMD/ATI. Although they have managed to undercut Nvidia by reducing the cost of the Radeon HD 3870 by around 12% when compared to the GeForce 8800 GT, we found that on average it was 22% slower. So then in terms of value the GeForce 8800 GT looks to preserve its position as the best value high-end graphics card ever released. The GeForce 8800 GT has proven to be a strong performer, as has the entire GeForce 8800 series ever since it was first introduced over a year ago now.

http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Table.png

Wat is er toch aan de hand met ATI ?dat is nu al de zoveelste teleurstelling .

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Da's behoorlijk pijnlijk...
We lopen hier te babbelen over DX10.1 terwijl de GT vaak vele tientallen procenten, bij WiC dik 100%, sneller is dan de 3870. Wat baat DX10.1 met de door AMD veelgeprezen, maar volgens overige kenners ferm overschatte, 'AA verbeteringen' nog als je zonder AA al niet of nauwelijks voldoende performance kunt leveren om te gamen in de huidige (DX10) titels?

Van de verschillen in power consumption en temperatuur kan ik alles behalve warm worden.
Load temp scheelt nada. Power: 9W verschil load en 20W idle in een compleet systeem. Op het moment dat we performance (per Watt) bijtellen gaat de 3870 gewoon (dik) in de min t.o.v. de GT.

http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Power.png

http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Temps.png

Marketing gaat dit verhaal niet redden. Een veel lagere prijs wellicht een beetje.
Ik hou nog een slag om de arm met het oog op reviews van de wat zwaardere jongens, maar 't ziet er niet goed uit. En het kan nog erger: Legion Hardware heeft nauwelijks AF gebruikt in hun tests, en dat is naar eerder (b)leek niet een van de 3870's sterkste kanten...

Cheetah wijzigde deze reactie 14-11-2007 17:01 (46%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Pagina: 1

Dit topic is gesloten.

Let op:
Dit is GoT en geen kleuterschool... dus:

- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True