Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 73 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1
Acties:
  • 5.474 views sinds 30-01-2008
http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
 

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu een divisie is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 8 November 2007 - Update over stock & allocation bij launch
  • 30 Oktober 2007 - First Post Update
  • 19 Oktober 2007 - FAQ geupdate over AA
  • 10 Oktober 2007 - Launch Date RV670 Toegevoegd ;)
  • 11 September 2007 - Game.amd.com toegevoegd en Catalyst links gewijzigd
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://img150.imageshack.us/img150/9367/atitopictopicregelsld3.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://img360.imageshack.us/img360/702/atitopictopicnavigatiesr2.jpg
http://img390.imageshack.us/img390/4301/atitopictopicgeschiedenav9.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70


http://img360.imageshack.us/img360/8606/atitopichd3800ji5.jpg


http://images.vnu.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet/36dba.jpg


Op 15 November lanceert AMD de ATI Radeon HD3800 serie. Deze serie is gebaseerd op de RV670 GPU. Met de komst van de ATI Radeon HD3800 serie vaart AMD ook meteen een nieuwe koers wat betreft de naamgeving. Daar waar vroeger de extensies GT, GTO, Pro, XL, XT en XTX gebruikt werden om de prestaties aan te duiden van de desbetreffende modellen, gebruikt AMD nu de laatste twee cijfers van de serie nummer om de prestaties aan te geven. De extensies vervallen dus volledig. Er staat drie modellen in de HD3800 serie gepland, waarvan de eerste twee per direct beschikbaar zullen zijn:

- ATI Radeon HD3870
- ATI Radeon HD3850
- ATI Radeon HD3830

De ATI Radeon HD3870 en ATI Radeon HD3850 onderscheiden zich van elkaar wat betreft de kloksnelheden van de core en het geheugen. Voor de rest zijn ze identiek. Over de ATI Radeon HD3830 is nog weinig bekend. De kans is groot dat het aantal streamprocessoren hier verminderd is, terwijl de kloksnelheid gelijk is gebleven aan de ATI Radeon HD3850.

Bedenk je wel... De ATI Radeon HD3800 Serie is niet de highend serie van AMD. Deze zal gevuld worden door een nieuwe serie die in het eerste kwartaal van 2008 gelanceerd wordt en gebaseerd zal zijn op de R680!

De ATI Radeon HD3800 Serie heeft als hoofddoel om veel performance + features voor weinig geld met een laag stroomverbruik naar een grote massa te brengen. De meeste mensen zullen de ATI Radeon HD3800 serie vergelijken met de GF8800GT van de concurrentie. Deze G92 chip in die kaart is zo'n 73% groter dan de RV670, verbruikt meer stroom en wordt warmer. AMD heeft dus verschillende mogelijkheden om deze concurrentie te lijf te gaan, bv het omhoog gooien van de kloksnelheden of het omlaag gooien van de prijs. Dat ze hier niet voor schromen blijkt uit de positionering van de ATI Radeon HD2000 serie. Het verschil is nu echter dat de marges bij de nieuwe AMD serie een stuk hoger liggen. Dus AMD heeft de mogelijkheid om de prijzen verder omlaag te drukken dan nVidia dat kan zonder dat ze zichzelf pijn gaan doen (geruchten gaan over $150-$199).

http://img360.imageshack.us/img360/9117/atitopichd3800namecs3.jpg

De ATI Radeon HD3800 Serie presteert iets beter dan de ATI Radeon HD2900 Serie, ondanks dat het hier gaat om een RVxxx GPU. RVxxx GPUs zijn GPUs die gemaakt zijn voor de lowend en mainstream. De V staat voor Value. De koers die AMD nu vaart met de nieuwe GPUs is die van "beste performance per prijs per watt" oftewel... de beste bang-for-buck.

http://images.vnu.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet/31dba.jpg


Hoe kan het dat een Value GPU beter presteert dan een highend GPU in dezelfde serie? Dat komt door interne tweaks en voornamelijk door de hogere snelheid. De ATI Radeon HD3800 presteert iets beter dan de ATI Radeon HD2900 serie.

Waarom is er dan niet gekozen voor de naam ATI Radeon HD2950, maar wel voor de naam ATI Radeon HD3800? Dit komt omdat alle kaarten uit de ATI Radeon HD2000 serie DirectX10.0 ondersteunen. Alle kaarten van de HD3000 serie ondersteunen DX10.1 en PCI Express 2.0! Om het verschil aan te geven en geen overlappende kaarten met afwijkende technieken binnen dezelfde serie te hebben, heeft AMD eindelijk eens gekozen voor duidelijkheid. De ATI Radeon HD3000 Serie markeert dus het feit dat alle kaarten binnen de serie dezelfde functionaliteit bezitten. Voorheen liepen er wel eens kaarten door elkaar heen, zo waren de Radeon 9000 en 9100 DirectX 8.1 kaarten, terwijl de rest uit de 9000 serie volledig DX9.0 compliant waren.

Marketingtechnisch gezien zitten er natuurlijk ook voordelen aan het kiezen van een nieuw beginnummer. De HD2000 Serie was laat op de markt in vergelijking tot de competie en kreeg veel gemengde recensies. Door een nieuw nummer te kiezen, creeert AMD het gevoel dat ze met een schone lei beginnen en het oude achter zich laten. En de consument valt helaas vaak nog voor het "hoger is beter"-principe.

http://img214.imageshack.us/img214/3082/atitopicdirectx101vt6.jpg

Wat biedt DirectX 10.1 boven DX10.0? DirectX 10.1 biedt in het kort gezegd de volgende belangrijke zaken:
  • nieuw shadermodel 4.1
  • verbeterde anti-aliasing ondersteuning
  • flexibelere data toegang
  • striktere specificaties voor betere applicatie compatibileit
Deze features maken het mogelijk dat spannende nieuwe technieken zoals real-time global illumination sneller mogelijk zijn dan met DirectX 10.0. De efficientie ligt dus hoger, maar ook de beeldkwaliteit zal door de strictere regels en verhoogde precisie beter zijn.

Daarnaast brengt DirectX10.1 wat verbeteringen op het gebied van geluid en multi-core CPUs, maar aangezien dit topic over de ATI Radeons gaat, beperk ik me in de uitleg tot de verbeteringen voor GPUs.

De ATI Radeon HD3800 Serie is de allereerste GPU ter wereld die vanaf de grond op voor DirectX 10.1 is gebouwd. Daarnaast bevat de nieuwe serie andere technieken en standaarden zoals PCI Express 2.0, Unified Video Decoder (UVD), hardware accelerated tessellation en een zeer stroom efficient 55nm transistor design (inclusief de mobiele powersavings technlogie Powerplay).
http://img360.imageshack.us/img360/8105/atitopicdxoverzichtmx2.jpg

DirectX 10.1 volgt over het algemeen de structuur en het programmeermodel van DirectX10, maar biedt dus verscheidene verbeteringen. De vertex, geometry en pixelshader instructiesets zijn opgewaardeerd naar Shader Model 4.1. De nieuwe features van DX10.1 kan je het beste onderverdelen in 3 algemene categorieen:

- Nieuwe shading en texturing mogelijkheden
- verbeterde anti-aliasing
- striktere specificaties

Hieronder staat in het kort aangegeven wat de nieuwe features zijn, wat voor functie het heeft en wat de voordelen er van zijn:

http://img145.imageshack.us/img145/79/atitopicdxoverviewpl6.jpg

http://img360.imageshack.us/img360/8581/atitopicdxoverview2hf1.jpg

Omdat sommige termen vrij technisch zijn, staat hieronder in zo simpel mogelijk Nederlands uitgelegd wat er precies bedoeld wordt.

http://img360.imageshack.us/img360/8793/atitopicdxsm41gg4.jpg

DirectX 10.1 waardeert Shader Model 4.0 op naar Shader Model 4.1. De verbeteringen dienen vooral gezocht te worden in optimaliseringen die er voor zorgen dat bepaalde zaken sneller en efficienter uitgevoerd kunnen worden. Je moet hierbij vooral denken aan zaken als lichtval en schaduwberekeningen. In elke game komt dit voor en daar zal de GPU een groot deel van de tijd mee bezig zijn om dit op je scherm te toveren. Een hogere efficientie en snellere methodes om dit voor elkaar te krijgen zijn dan altijd welkom. En dat brengt Shader Model 4.1!

Cube Map Arrays: Ray tracing IQ & Global Illumination
Shader Model 4.1 brengt een IQ die dicht bij de IQ zit die ray-tracing brengt. Op dit moment is ray-tracing te zwaar voor de huidige GPUs, dus brengt DirectX 10.1 alternatieven om de kwaliteit zo veel mogelijk te benaderen. Een daarvan is Cube Map Arrays, wat er ook voor zorgt dat Global Illumination in real time gerenderd kan worden op een efficiente manier.

http://images.tomshardware.com/2007/10/29/amd_hd_3800_to_support_dx_10/gi-demo4-3.jpg


Efficientere Deferred Rendering
Daarnaast wordt er in steeds meer games gebruik gemaakt van "deferred rendering", zoals in alle games die gebruik maken van de Unreal Engine 3 (zoals Unreal Tournament 3). Deferred rendering is een manier van licht renderen die er voor zorgt dat alles er nog realistischer uit ziet. Hier is echter geen AA op mogelijk onder DX9, maar wel onder DX10. En Shader Model 4.1 zorgt er voor dat dit nog efficienter kan gebeuren dan onder Shader Model 4.0 in DX10.

Verbeterde performance voor complexe shaders
Door de vertex shader output te verbeteren van 16 naar 32 128-bit waardes per shader is het mogelijk om complexere shaders nog efficienter uit te voeren. Daarnaast brengt DX10.1 een techniek die Gather4 heet, iets dat AMD al ondersteunt sinds de RV515/RV530/R580. Deze techniek is vooral gericht op het verbeteren van Stream Computing applicaties (general purpose processing).

LOD Instruction
LOD Instruction is een nieuwe shader instruction die er voor zorgt dat er handgemaakte texture filtering technieken gebruikt kunnen worden die gericht zijn op verbeterde performance en beeldkwaliteit.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

Kartelige flikkerende randen veroorzaakt door aliasing kunnen zeer storend werken. Deze artifacts worden veroorzaakt door onvoldoende rendering en/of schermresolutie. Ze kunnen verminderd worden door middel van filtering technieken, waarbij meerdere samples (multi-samples) genomen worden per pixel en ze samengevoegd worden. Het truukje is om deze samples zo te kiezen dat ze zorgen voor een maximale gladheid zonder te veel wazigheid te veroorzaken, terwijl je tegelijkertijd er ook nog voor moet zorgen dat de performance redelijk blijft.

De meest gebruikte anti-aliasing techniek is multi-sample anti-aliasing (MSAA), maar dit werkt alleen maar met randen van polygonen. Het pakt niet het probleem aan van texture aliasing of shader aliasing. De ATI Radeon HD 2000 serie introduceerde Custom Filter AA (CFAA) die het mogelijk maakte om met verfijnde programmeerbare filters te werken. De laatste Catalyst drivers ondersteunen 4 verschillende soorten filters die toegepast kunnen worden op elke game die gebruik maakt van DX9 of zelfs eerder. De meest geavanceerde van deze filters was het Edge Detect Filter die alle randen (edges) detecteert en er AA op toepast (inclusief textures en shaders!).

http://img70.imageshack.us/img70/4664/atitopicdxaavc3.jpg

DirectX 10.1 maakt het mogelijk om op maat gemaakte anti-aliasing filters toe te passen op pixel shaders. Op maat gemaakte filters bieden een verbeterde beeldkwaliteit aan in de gevallen waar standaard MSAA problemen kan hebben zoals met HDR Lighting en deferred shading technieken. In die gevallen kunnen er vaak artifacts optreden wanneer MSAA geforceerd wordt (als dit al mogelijk is). Alle DX10.1 compatible hardware moet minimaal 4x MSAA ondersteunen. Dit is geen probleem want dit doen ATI Radeons al sinds de R300 (Radeon 9700). De specificaties bevatten nu echter enkele voor gedefinieerde AA sample patronen in tegenstelling tot eerdere versies van DirectX waar de GPU zelf bepaalde hoe de patronen er uit kwamen te zien.

Een nieuwe feature binnen DirectX 10.1 is dat het mogelijk is om alle AA buffers rechstreeks toegankelijk te maken voor de shaders. Voorheen was het alleen maar mogelijk om multi-sampled color buffers aan te spreken. Het was toen onmogelijk om voor elke sample informatie te ontrekken aan een depth buffer. Deze nieuwe feature maakt het voor game ontwikkelaars mogelijk om zelf geavanceerde AA technieken te gebruiken in combinatie met shaders en toegewijde hardware, zoals de ATI Radeon HD GPUs op dit moment doen met Custom Filter AA.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

De ATI Radeon HD introduceerde ook Adaptive Anti-aliasing die texture AA voor gedeeltelijk transparante textures (zoals struikgewas en hekwerk). DirectX 10.1 breidt deze mogelijkheden uit door de introductie van Sample Coverage Masking, die je de volledige controle geeft over de specifieke sample locaties waar de pixelshaders worden uitgevoerd. Hierdoor is het voor ontwikkelaars mogelijk om AAA techniek te gebruiken om meerdere types van aliasing artifacts aan te pakken. Op maat gemaakte sample patronen kunnen ook hier weer worden toegepast . Veel van deze technieken waren al aanwezig in de vorige ATI Radeon GPUs (zoals de Radeon 9700, X800 serie, X1000 serie en de HD2000 serie), maar DirectX 10.1 maakt het voor het eerst mogelijk dat developers hier rechtstreeks toegang toe hebben.

In het kort gezegd biedt DirectX 10.1 op AA gebied dus meer middelen om allerlei typen van aliasing artifacts op te lossen in real-time games, waardoor de beeldkwaliteit omhoog gaat.

http://img360.imageshack.us/img360/1526/atitopicdxspecsdf3.jpg

In het verleden namen kwam het vaak voor dat nieuwe features zeer traag geaccepteerd werden als nieuwe standaard doordat de ene GPU iets wel kon, maar een andere weer niet. Of doordat GPUs op verschillende manieren tot een bepaald resultaat kwamen waarvan de ene efficienter was dan de andere. Door deze verschillen in GPUs zag je soms onverwachte performancedrops, beeldkwaliteit problemen, foutmeldingen of zelfs crashes. In plaats van om deze problemen heen te werken, hebben vele ontwikkelaars er voor gekozen dat het beter is om te voorkomen dan te genezen en het probleem bij de basis - de GPU feature set - aan te pakken.

DirectX 10 was al een eerste grote stap richting het oplossen van de compatibiliteitsproblemen door strikte regels op te stellen over de vereisten van elke GPU ten opzichte van de functies en instructies, en veel minder features optioneel te maken dan voorheen het geval was. Hierdoor probeerde men te voorkomen dat de ene DX10 GPU een bepaalde feature had die een andere DX10 GPU niet had. Veel van de verbeteringen in DirectX 10.1 zijn geintroduceerd om naar nog meer gelijkheid te streven door nog striktere regels op te stellen. Enkele van deze regels waren in DirectX 10 optioneel aanwezig en zijn nu verplicht gesteld. Daarnaast zijn er ook enkele nieuwe specificaties toegevoegd.

http://img150.imageshack.us/img150/1119/atitopicdxtextureeo7.jpg

Een obstakel dat ontwikkelaars tegen hield om hogere precisie texturen te gebruiken en om gebruik te maken van de verschillende output formaten in recente versies van DirectX, was de beperking van het aantal soorten bewerkingen die elke GPU op ze kon doen. DirectX 10.1 verbeterd dit door verplicht te stellen dat elke DX10.1 compliant GPU texture filtering van 32-bits floating point formats en blending op 16-bit integer formats moet ondersteunen.

http://img150.imageshack.us/img150/1160/atitopicdxmsaacl1.jpg

Multi-sampling anti-aliasing (MSAA) is de meest gangbare techniek die op dit moment gebruikt wordt om de beeldkwaliteit te verbeteren. Door de jaren heen zijn er veel verbeteringen aan deze basistechniek toegebracht, maar vaak durfden developers het niet aan om hier gebruik van te maken omdat dit kon leiden tot verschillen in IQ op de GPUs van de verschillende independent hardware vendors (IHVs zoals AMD, nV). DirectX 10.1 brengt de vereiste dat elke kaart minimaal 4x AA moet ondersteunen, en tegelijkertijd brengt het voorgedefinieerd sample patronen waardoor AA op een GPU van AMD er hetzelfde uit ziet als op die van nVidia. Daarnaast blijft het mogelijk om de eigen verbeteringen zoals temporal AA en adaptive AA te blijven toepassen op de nieuwe vereisten van DirectX 10.1.

http://img360.imageshack.us/img360/5144/atitopicdxprecisionxj4.jpg

Alle soorten data formaten zijn beperkt tot een aantal precisies die ze kunnen ondersteunen. Dit is vooral afhankelijk van het aantal bits dat ter beschikking is. Bewerkingen die op deze formaten gedaan worden, maken echter niet vaak optimaal gebruik van de beschikbare precisie, waardoor er afrondingsfoutjes kunnen optreden wat resulteert in artifacts in games. DirectX 10.1 zorgt er voor dat dit niet meer voor komt en vereist dat standaard math bewerkingen op floatingpoint waardes ook echt gebruik maken van de beschikbare precisie.

http://img390.imageshack.us/img390/2459/atitopicreviewsit6.jpg

Hieronder staan links naar de meeste HD38x0 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:
-
-
-

Hieronder staan links naar de meeste HD34x0 / HD36x00 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

-
-
-

http://img360.imageshack.us/img360/245/atitopichd38xxxj1.jpg

http://img187.imageshack.us/img187/4837/gigabytehd3850ld5.jpg
Gigabyte ATI Radeon HD3850 512MB: RX385512H
Zoals gezegd zal de RV670 in eerste instantie in twee varianten op de markt komen, de ATI Radeon HD3850 en de ATI Radeon HD3870. Zoals het er nu naar uit ziet zal de ATI Radeon HD3870 op een kloksnelheid van 775Mhz draaien voor de core en 2400Mhz GDDR4 voor het geheugen. De HD3850 zal het moeten doen met een core snelheid van 667Mhz en een geheugensnelheid van 1800Mhz GDDR3. De feature list ziet er als volgt uit:
  • Aantal transistoren: 666 Miljoen
  • Productieproces: 55nm
  • Bus Interface: PCI Express 2.0 x16
  • Memory Interface: 256-bit GDDR3/GDDR4
  • Memory Controller: 512-bits Ring Bus (fully distributed)
  • DirectX: 10.1
    - Shadermodel 4.1
    - 32-bit floating point texture filtering
    - Indexed Cube Map Arrays
    - Independent Blend modes per Render Target
    - Pixel Coverage Sample Masking
    - Read/write multi-sample surfaces with shaders
    - Gather4
  • Streamprocessors: 320
    - 128-bit floating point precision on all operations
    - Command Processor for reduced CPU overhead
    - Shader instruction and constant caches
    - Up to 80 texture fetchus per clock cycle
    - Up to 128 textures per pixel
    - Fully associative multi-level texture cache design
    - High resolution texture support (up to 8192x8192)
    - Fully associative texture Z/stencil cache designs
    - Early Z test, Re-Z, Z Range optimization and Fast Z Clear
    - Lossless Z & Stencil Compression (up to 128:1)
    - DXTC and 3DC+ texture compression
    - 8 Render Targets (MRTs) with anti-aliasing support
    - Physics Processing Support
  • Dynamic Geometry Acceleration
    - High Performance Vertex Cache
    - Programmable Tesselation Unit
    - Accelerated Geometry Shader Path for Geometry Amplification
    - Memory red/write cache for improved stream output performance
  • Anti-aliasing features
    - Multi Sampling AA (2, 4 of 8 samples per pixel)
    - Up to 24x Custom Filter AA (CFAA) for improved quality
    - Adaptive Super-sampling and Multi-sampling
    - Temporal Anti-aliasing
    - Gamma Correct
    - Super AA (ATI CrossFire configurations only
    - All anti-aliasing features compatible with HDR
  • Texture Filtering Features
    - 2x/4x/8x/16x High Quality Adaptive Anisotropic Filtering Modes (up to 128 taps per pixel)
    - 128-bit Floating point HDR Texture Filtering
    - Bicubic Filtering
    - sRGB filtering (Gamma/degamma)
    - Percentage Closure Filtering (PFC)
    - Depth & Stencil Texture (DST) format Support
    - Shared Exponent HDR (RGBE 9:9:9:5) texture format support
  • OpenGL 2.0 support
  • ATI Avivo HD Video and Display Platform
    - Dedicated Unified Video Decoder (UVD) for H.264/AVC and VC-1 Video formats
    - Hardware MPEG-1, MPEG-2 and DivX video decode acceleration
    - ATI Avivo Video Post Processor
    - Two Independent Display Controllers
    - Two Integrated Dual-Link DVI Display Outputs
    - Two Integrated 400Mhz 30-bit RAMDACs
    - DisplayPort Output Support
    - HDMI Output Support
    - Integrated AMD Xilleon HDTV Decoder
    - MPEG-2, MPEG-4, DivX, WMV9, VC-1 and H.264/AVC Encoding and Transcoding
    - Seamless Integration of Pixel Shaders with Video in Real Time
    - VGA mode support on all display outputs
  • ATI PowerPlay
    - Advanced power management technology for optimal performance and powersavings
    - Performance-on-demand (voltage switching, dynamic clock gating, clock & memory speed throttling, GPU monitoring
    - Central thermal management - on-chip sensors monitors GPU temperature and triggers thermal actions as required
  • ATI CrossFireX Multi-GPU technology
    - Scale up rendering performance and image quality with two, three or four GPUs
    - Integrated compositing engine
    - High performance dual channel bridge interconnect
Hoe presteert de kaart? Dat weet natuurlijk de concurrentie het beste. Volgens nVidia zal de HD3870 zo presteren ten opzichte van haar GeForce 8800GT:

http://img86.imageshack.us/img86/8544/88vs670sea5.jpg

In de praktijk zal het er op neer komen dat de ATI Radeon HD3870 zo'n 10% sneller zal zijn dan de ATI Radeon HD2900XT terwijl de ATi Radeon HD3850 zo'n 13% langzamer zal zijn. Bedenk je wel dat dit een midrange kaart is, die sneller en goedkoper is met meer features dan de vorige high-end. Veel bang-for-buck dus!

De focus van AMD zal in eerste instantie uit gaan naar de HD3850, want het is voor AMD mogelijk om van die kaart enorm veel te verkopen in het prijssegment waar deze zich in bevindt. De HD3850 zal bij launch de onbetwiste prijs/performance kaart worden zoals je straks zult zien. AMD vraagt zich dan ook af hoe ver nVidia durft te gaan met de prijs van de GF8800GT 256MB, want de marges zijn hier al zeer laag op en AMD kan nog verder zakken zonder verlies te maken.

Voor zover mijn bron weet zal de HD3870 echter wel redelijk snel goed verkrijgbaar moeten zijn dus een eventueel tekort bij launch zou snel opgelost zijn (in de dagen er na). De eerste HD3870 kaarten worden door AMD zelf gemaakt, maar tegelijkertijd zijn ze nu de productie van HD3870 ASICs aan het verhogen waardoor AIBs met hun eigen kaarten kunnen komen.

http://img390.imageshack.us/img390/7408/atitopictoekomstigegpuspf9.jpg

Op korte termijn staan gepland:
  • RV620
  • RV635
  • R680
Al deze GPUs zullen gemaakt worden op het 55nm productieproces van TSMC. Daarnaast zullen al deze GPUs volledig DX10.1 ondersteunen.

De RV620 is de 55nm opvolger van de RV610 en zal waarschijnlijk ATI Radeon HD3400 heten.
De RV635 is de 55nm opvolger van de RV630 en zal waarschijnlijk ATI Radeon HD3600 heten.
De R680 is de opvolger van de R600 en zal waarschijnlijk ATI Radeon HD3900 heten.

Al deze GPUs staan gepland voor Q1 2008. Volgens de laatste geruchten is de R680 een dubbele RV670. Volgens deze geruchten richt AMD zich op een 3DM06 score van 20.000 punten voor de R680.

Voor halverwege 2008 (zal wel twee helft 2008 worden) staat de R700 gepland. Deze staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan en zal waarschijnlijk de eerste multi-core GPU worden.

http://img360.imageshack.us/img360/1716/atitopicprijsoverzichtcs1.jpg
http://img390.imageshack.us/img390/736/hd2000prijsoverzichtoh6.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://img145.imageshack.us/img145/6045/atitopicgeruchtenmolengz5.jpg

Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
Gerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://img360.imageshack.us/img360/4926/atitopicoverigenq6.jpg
ATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

[Voor 102% gewijzigd door CJ op 13-11-2007 02:59]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
Vraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
  • HD2400Pro
  • HD2400XT*
  • HD2600Pro*
  • HD2600XT*
* ook mogelijk via hardware CF indien dubbele CF connector aanwezig

Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Vanaf de ATI Radeon X1650XT en X1950Pro zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! Vanaf de HD2000 serie zullen (bijna) alle videokaarten dit systeem gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Vraag: CrossFire: Kan ik een RV670 aan een R600 of R700 koppelen?

Nee!

Als je CrossFire wilt gebruiken om twee videokaarten te laten samenwerken voor multi-renderen (dwz meerdere kaarten renderen het beeld), dan is dat NIET mogelijk. Je kan alleen videokaarten aan elkaar koppelen die gebruik maken van dezelfde GPU.

Een HD3870 kan je dus alleen koppelen aan een videokaart die ook gebruik maakt van een RV670, dus bijvoorbeeld de HD3850 of een andere HD3870.

Vraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Vraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
Vraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Vraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Vraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Vraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
Vraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Vraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200 (RD480)
- ATi Radeon Xpress 3200 (RD580/RD600)
- AMD 790FX
- Intel 955x
- Intel 965
- Intel 975x
- Intel X38
- Intel P35

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Vraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Vraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Vraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Vraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Vraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.
Vraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

Vraag: Is AA "gebroken" in de R600?

Antwoord: Nee! AA als dusdanig is niet gebroken in de AA. Wanneer er AA wordt gevraagd in de toepassing of AA wordt geforceerd in de drivers wordt AA gewoon toegepast. De R600 heeft zelfs een hele flexibele vorm van AA aan boord.

Waar zeiken sommige mensen dan zo graag over? Dit komt door de performancedrop die groter lijkt dan bij de concurrentie en de voorgaande ATI Radeon chips. Hoe komt deze performancedrop? Door het ontbreken van hardwarematige AA resolve. Is dat een probleem? Nee. Overal gezien is de performance met AA nog altijd beter dan de performance van de voorganger (X1950XTX). Wil je nog sneller? G80 is your choice.

Maar maar.... hoe komt die grote performancedrop dan in vergelijking met de G80? Dat is een designbeslissing geweest. Er komen steeds meer games die gebruik maken van vormen van rendering waarbij er non-lineaire AA resolve moet worden toegepast. Fixed function hardware AA resolve, dat zegt het al, is lineair en wanneer dit wordt toegepast dan kunnen er artifacts optreden.

Wat zijn vormen van rendering waar non-linaire AA resolve technisch gezien 'beter' is dan de 'ouderwetse' manier? Nou, bijvoorbeeld bij HDR rendering (welke game gebruikt nu geen HDR meer?), deferred rendering (o.a. STALKER en alle games die gebruik maken de Unreal Engine 3 - en dat zijn er nog al wat) en bij het gebruik van anti-aliased shadow buffers. Deze vormen vereisen meer controle over de bewerking en over de pixel, daar waar voorheen de 'oude' hardware AA resolve adequaat genoeg was.

Maar maar... waarom hadden we dan vroeger nooit last van dat soort artefacts?? Tja... vroeger toen was alles anders. Tijden veranderen. Technologie verandert. Vroeger moesten er ook al workarounds worden gevonden om AA met HDR aan de praat te krijgen. Developers krijgen nu meer flexibiliteit om eindelijk op het scherm te toveren wat ze altijd al hadden willen laten zien zonder beperkt te worden door lineaire AA resolve. Tot op heden werkten ze hier namelijk omheen. Wij - als eindgebruiker - merkten dat niet. Nu kunnen ze het op een correcte manier doen.

Wat is dan de correcte manier? Op de correcte manier kan een pixelshader gebruikt worden om toegang te krijgen tot elke individuele sample binnen elke pixel. Hierdoor kan een graphics engine een hogere kwaliteit AA resolve toe passen en zelf beslissen wat voor filter er gebruikt moet worden. Microsoft heeft dit op verzoek van zowel developers en hardware vendors toegevoegd omdat er vraag was naar een betere beeldkwaliteit! Vragen om de 'oude' manier is dus tevergeefs!

Voor de mensen die er wat meer willen afweten over hoe de R600 het doet: De RBEs (voorheen ROPs) doen alles op het gebied van AA, behalve het gedeelte dat "resolve" heet. Dit wordt nu gedaan in de shadercore. Via een fastpath tussen de RBE en shadercore wordt data aan de shaderprocessors gevoerd om resolve toe te passen. Het grote voordeel hiervan is dat de resolve hierdoor zeer programmeerbaar is geworden. Het nadeel is dat het trager 'kan' zijn dan op de ouderwetse manier.

De redenatie van AMD om zich volledig op shader resolve te richten is het feit dat toekomstige games meer en meer op shader based AA resolve zal richten vanwege de hardware limitaties wanneer het aan komt op FP render targets. AMD heeft al eerder gegokt op toekomst gerichtheid met de R580 en daar plukken we nu (bijna 2 jaar na launch de vruchten van met engines als de Unreal Engine 3 waar de toenmalige concurrent GF7900GTX helemaal ingemaakt wordt). Daarnaast is het gebruik van custom resolve filters straks een vereiste in DX.

Het officiele statement van AMD:
quote:
We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

[Voor 103% gewijzigd door CJ op 12-11-2007 09:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

< gereserveerd 2 >

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Newsflash: AMD lanceert FireStream processor gebaseerd op RV670 met double precision!
quote:
AMD Delivers First Stream Processor with Double Precision Floating Point Technology
Thursday November 8, 12:01 am ET
AMD Firestream 9170 and Supporting Software Development Kit Unlock Stream-Based Accelerated Computing

SUNNYVALE, Calif.--(BUSINESS WIRE)--AMD (NYSE: AMD - News) today announced the AMD FireStream 9170 Stream Processor and an accompanying Software Development Kit (SDK) designed to harness the massive parallel processing power of the graphics processing unit (GPU). AMD leveraged its unique collective expertise in both GPUs and CPUs to deliver the first integrated hardware and software development solution that meets the needs of the demanding high-performance computing (HPC) market. AMD plans to deliver the FireStream 9170 and supporting SDK to market in the first quarter of 2008. With this launch AMD expects to achieve another important milestone on the path to Accelerated Computing by delivering the first in a series of next-generation heterogeneous compute architectures.

AMD FireStream 9170

The AMD FireStream 9170 will be the world’s first Stream GPU with double-precision floating point technology tailored for scientific and engineering calculations. Competitively priced at an MSRP of $1999 USD, it features up to 500 GFLOPS1 of compute power, rivalling many of today’s supercomputers, and providing dramatic acceleration for critical algorithms. This second generation Stream Processor is built with 55 nm process technology and consumes less than 1502 watts of power – delivering an exceptional performance per watt. In addition, the reduced heat dissipation allows it to function in dense design configurations. The FireStream 9170 is a single card solution with two GB of onboard GDDR3 memory to compute large datasets without CPU traffic. The asynchronous direct memory access (DMA) ensures data can flow freely without interrupting the stream processor or CPU.

“GPUs have long been known for their immense parallel processing performance but many challenges still remain in driving widespread customer adoption for general purpose compute,” said Jon Peddie, President, Jon Peddie Research. “Leveraging its unique capabilities in high-performance CPU and GPU technologies, AMD is well positioned to drive an integrated hardware and software proposition that can deliver the best of both processing worlds to its HPC customers.”

AMD FireStream SDK

The AMD FireStream SDK is designed to deliver the tools developers need to create and optimize applications on AMD Stream processors. Built using an open platforms approach, the AMD FireStream SDK allows developers to access key Application Programming Interfaces (APIs) and specifications, enabling performance tuning at the lowest level and development of third party tools. Building on AMD’s Close to the Metal (CTM) interface introduced in 2006, the Compute Abstraction Layer (CAL) provides low-level access to the GPU for development and performance tuning along with forward compatibility to future GPUs. For high-level development, AMD is announcing Brook+, a tool providing C extensions for stream computing based on the Brook project from Stanford University. In addition, AMD also plans to support the AMD Core Math Library (ACML) to provide GPU-accelerated math functions, and the COBRA video library accelerates video transcode. Also available are third-party tools from top industry partners including RapidMind and Microsoft.

In addition, AMD is now a charter participant in HP’s new HPC Accelerator Program, offering HP customers best practices and guidance for these technologies, and ensuring that accelerator hardware and software is qualified for HP servers running HPC applications.

“As innovative new HPC technologies like Stream Computing emerge, it is imperative we work with our partners to ensure an open systems approach to enable new levels of processing efficiency and performance,” said Winston Prather, vice president and general manager of HPC at HP. “As part of HP’s new HPC Accelerator program, we’re working closely with AMD and our customers to deliver an optimal mix of hardware innovation and open, collaborative development environments to ensure delivery of best-in-class HPC platforms.”
http://biz.yahoo.com/bw/071108/20071107006687.html?.v=1

[Voor 7% gewijzigd door CJ op 08-11-2007 10:11]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

De HD2900GT is vergelijkbaar in performance met een X1950Pro.

Firingsquad heeft in hun review van de GF8800GT ook een HD2900GT 256MB meegenomen in de test. Daarin zie je dat deze gelijk presteert aan een X1950Pro:

http://www.firingsquad.co..._gt_performance/page5.asp

De HD3850 presteert wel een flink stuk beter.

[Voor 7% gewijzigd door CJ op 08-11-2007 11:04]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Is al een keer uitgelegd. Grote afnemer bij TSMC op nieuwe processen... korting. TSMC leert er van. AMD leert er van. Soms pakt het goed uit. Soms niet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

65nm en 55nm zien er wel goed uit op dit moment. 110nm was een tegenvaller. 90nm was redelijk succesvol. 130nm + low-k was ook wel vrij succesvol (meer voor de low-end/midrange dan highend).

Het is dus echt een mixed bag, maar gaat nu weer de goede kant op. Dat blijkt bijvoorbeeld uit het feit dat AMD aan de A11 revisie genoeg had voor de RV670.

150nm met de R3x0 reeks was natuurlijk wel een sterk staaltje. Niemand had verwacht dat ze er 412Mhz uit konden persen op dat proces (en velen klokten nog wel met gemak tot 450Mhz). Ik had toendertijd zelf ook maximaal 300 Mhz verwacht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
WoutF schreef op donderdag 08 november 2007 @ 13:16:
CJ, heb jij hetzelfde gehoord over de niet zo competatieve prijzen van de 3800 serie?
Ik heb van AMD gehoord vanaf $149. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
aca schreef op donderdag 08 november 2007 @ 14:33:
Dat een A11 revisie genoeg is komt meer doordat de RV670 een copy-paste is van de R600.
:X

512-bits -> 256-bits memory controller
1024-bits -> 512-bits ringbus controller
DX10.0 -> DX10.1
geen UVD -> UVD
720M transistors -> 666M transistors
80nm -> 55nm

Allemaal dingen die ingrijpende veranderingen zijn... Dat laatste is dus zelfs een volledige productieproces genereratieverschil... dus geen simpele die-shrink waar je dezelfde libraries van kan gebruiken...

Copy + Paste? Dacht het niet.

[Voor 5% gewijzigd door CJ op 08-11-2007 15:10]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Mr. Detonator schreef op donderdag 08 november 2007 @ 16:01:
[...]


hieruit kunnen we ook wel concluderen dat de 512bit bus, en een 1024bit ringbus meer een checkbox-feature is geweest....zelfde bij nvidia met hun 384bit >256 bit
Nee. Geen checkbox feature. Maar dat heb ik in een vorig deel al uitgelegd.

Zowel NV als AMD doen niet met opzet miljoenen extra transistors in een GPU alleen maar als "checkbox-feature".

[Voor 13% gewijzigd door CJ op 08-11-2007 16:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Icec_Old schreef op donderdag 08 november 2007 @ 17:02:
High-end issie niet hè, RV(value)670...
Het zal wel even duren voordat sommige mensen door hebben dat de RV670 geen highend kaart is, maar de opvolger van de RV670 in hetzelfde prijsklassegment. Zelfs al staat het duidelijk in de first post vermeld... ;)

Oh, R680 launch staat voorlopig op 7-11 Januari bij CES 2008 geloof ik. Dit kan nog veranderen. De R680 wordt al wel ondersteunt in de drivers, dus ze zijn druk aan het testen (single setup, maar ook dual setup voor Quad CrossFire).

[Voor 22% gewijzigd door CJ op 08-11-2007 17:20]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik meet high-end af zoals AMD dat voor zichzelf heeft gedefinieerd. Ze hebben hun eigen producten in verschillende prijsklassen gepositioneerd. RV670 is mainstream met de performance van hun vorige high end. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
yasinhm schreef op donderdag 08 november 2007 @ 20:13:
de HD3870 is niet zoveel beter is dan de 2900xt, ik kan mijn 2900xt vrij makkelijk overklokken naar de 830mhz, maar ik weet niet hoeveel perfromance je daarvan krijgt.
De RV670 is klok voor klok net zo snel als een R600 ondanks de kleinere memory bus. Dus als je een HD2900XT overklokt zal je ongeveer kunnen wel inschatten wat je kan verwachten van een HD3870 waar een adviessnelheid van minimaal 775Mhz voor staat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
BlackWolf666 schreef op vrijdag 09 november 2007 @ 15:55:
De AA performance lijkt niet veel beter.. Misschien bedoelden ze verbeterde AA-performance dat de AA in DX10.1 beter werkt dan in DX9/10 }:O
AA performance is trouwens relatief gezien wel verbeterd. Met veel minder bandbreedte doet de HD3870 niet/weinig onder voor de HD2900XT.

En die boost in UT3 komt waarschijnlijk niet door de hogere kloksnelheid maar doordat de RV670 gebouwd is voor DX10.1 waardoor deze efficienter om kan gaan met deferred rendering. Zie ook de first post over verbeteringen in DX10.1.

Trouwens:

http://images.vnu.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870/r680.jpg

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Apple schreef op vrijdag 09 november 2007 @ 16:20:
[...]


:O Kom op CJ! :+

Dit is natuurlijk niet waar we op hoopten. ;)
Waar hoopte je dan op? Op een videokaart die er 100fps weet uit te persen op de hoogste resoluties in Crysis met 8xAA/16xAF en daarnaast ook nog even de hongersnood de wereld uit helpt en wereldvrede brengt? :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Pine Mangoes schreef op vrijdag 09 november 2007 @ 17:02:
[...]


Op z'n minst toch een kaart die wat vergelijkbaar presteert met wat nVidia te bieden heeft atm. Zoals 't er nu uitziet verliest de HD 3870 zwaar tov de 8800GT. En de AA performance is niet gefixt, aangezien de drops procentueel even groot zijn als bij de R600.

Ik vind de HD 3850 er echter wel interessant uitzien. Als die voor een euro of 160 te krijgen zou zijn lijkt 't me wel een goeie koop, en vult ie een niche op die tot nu toe leeg gebleven is.
Om iets te fixen moet iets in eerste instantie natuurlijk wel stuk zijn. En dat was het niet bij de R600.

Maar je doelt natuurlijk op de performancedrop die kleiner had kunnen zijn, zeker in vergelijking tot de drop bij de G80 serie wanneer AA werd geactiveerd. ;)

Wat had kunnen gebeuren is dat de performancedrop kleiner was geworden door meer shaderpower toe te voegen of de fastpath tussen RBEs en shaders te upgraden of dat het aantal passes bij AA verminderd zou worden. Dan was de performancedrop kleiner, maar dan blijft het nog steeds shaderbased resolve. Het toevoegen van hardwarematige AA resolve is ook voor toekomstige GPUs zeer twijfelachtig, maar deze GPUs zullen dan meer power hebben zodat de performancedrop vergelijkbaar is met hardwarematige AA resolve of zelfs nog minder is. Dit kan je echter niet verwachten van GPUs binnen dezelfde generatie (R6-generatie).

Over DX10.1. De RV670 architectuur profiteert blijkbaar nu al van enkele nieuwe zaken zelfs zonder dat de API officieel uit is waardoor deze chip bepaalde dingen efficienter uit voert dan een R600. Zie bv Unreal Tournament 3 waar de HD3870 17% sneller is dan een HD2900XT terwijl de core maar 4% hoger geklokt is en deze 47% minder geheugenbandbreedte heeft. Die performanceboost komt echt niet zo maar uit de lucht vallen.

De HD3850 komt in het prijssegment waar ook de HD2600XT GDDR4 origineel in werd gepositioneerd, maar de performance is wel een aantal keer vermenigvuldigd. En dat binnen nog geen half jaar tijd. Consument: Lang leve de concurrentie? ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Hoezo? Ik state alleen die "obvious". Dat iets "stuk" is in de R600 is niet waar, zeker niet wanneer het aankomt op de manier waarop AA gedaan werd. Dan was er ook iets "stuk" in de RV630 en RV610 die hetzelfde gedrag vertonen en het enige wat in die chips zat dat "stuk" is is Powerplay.

Dat je de performancedrop niet leuk vindt bij de R600 wil niet zeggen dat het 'stuk' is alleen maar omdat het niet aan jou verwachtingen voldoet.... En doorgaans is de R600 toch (veel) sneller dan een R580 met AA aan ondanks dat ze beide 16 RBEs en 16 texture units hebben. Dus zo'n drama is het niet. Alleen in vergelijking met de G80 lijkt de drop veel groter. Nou, dan is de keuze toch simpel als je een kleinere AA performancedrop wilt?

Anyway.... Leuk dat je ook meteen even dat gedeelte niet quote waarin ik wel in ga op de performancedrop... }:O

En hoe R680 presteert... is nog koffiedik kijken voor de meesten... maar niet lang meer. Ik verwacht wel wat leaks deze maand. Je kan in ieder geval al wel een redelijk goed beeld krijgen als je een RV670 in CF neemt. :+

Maar veel plezier nog met je GF8800GT/S. Maar dat zal ongetwijfeld lukken, want het zijn een zeer leuke kaartjes. :) Alleen was het niet echt nodig om dat in dit nieuws-topic te melden wat voor kaart je ging kopen.... :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Pine Mangoes schreef op vrijdag 09 november 2007 @ 18:20:
[...]
De 3850 ziet er idd nice uit. Over de 2600XT begin ik niet, laten we 't bestaan van dat kaartje maar zo gauw mogelijk in de doofpot stoppen :). Enig idee wat nVidia tegenover de 3850 van plan is te positioneren? Een cut-down 8800GT met 96 of 80 shader processors oid? Lijkt me sterk dat ze ATi deze niche zullen gunnen.
De HD2600XT krijgt straks trouwens ook z'n refresh in de vorm van de RV635. En NV komt misschien met een 192-bits kaart met 96 streamprocessors. Goedkoper PCB, goede manier om van "afvalcores" af te komen. AMD heeft niet de mogelijkheid om met een 192-bit kaart te komen (alhoewel ze wel XGI hebben overgenomen die zelf ook een 192-bit kaart had), maar een HD3830 met minder streamprocessors zal wel tot de mogelijkheden behoren.

Overigens kan het goed zijn dat AIBs met OC versies komen van de RV670 en deze dan bv HD3875 noemen ipv HD3870. Die 5 geeft dan aan dat deze beter presteert dan de standaard HD3870.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Apple schreef op vrijdag 09 november 2007 @ 21:11:
Het moet niet gekker worden in het Ati topic. FSAA, notabene het punt waarmee Ati groot is geworden (goede AA performance) schijnt niet meer belangrijk te zijn, en het gunstige stroomverbruik is speerpunt nummer één geworden in de campagne. Gek veel meer
te bieden hebben ze momenteel niet.
AA performance is in het segment waar de RV klasse zich bevindt nog nooit zo goed geweest als ik het me goed herinner. Voor rond de $150 heb je al een kaart die het AA niveau in de mainstream naar een nieuw niveau tilt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Ja. VR is druk bezig met de tests. :) Mixed CrossFire X werkt naar behoren. En de temps zijn indrukwekkend. OC naar 860Mhz core (temp 66 graden C) en 1351Mhz mem -> 12961 3DM06.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
peakaboo schreef op vrijdag 09 november 2007 @ 21:31:
[...]
Ik zou heel graag een dikke game kaart van ATI willen zien, maar dat kun je als een droom beschouwen want dat zal in de vroege toekomst niet gebeuren.
Dat ligt er aan wat je onder "vroege toekomst" verstaat. R680 verdubbelt de performance van de RV670 zo'n beetje. Maar iets compleet nieuws komt over zo'n 6-7 maanden.
quote:
Illidan schreef op vrijdag 09 november 2007 @ 21:47:
[...]


CJ, nobody cares dat die ATi kaart z'n voorgangers uit eigen stal verslaat, goedkoper en zuiniger is. Niemand zit te wachten op een slimme High Tech Toyota Prius, we willen Ferrari's >:)

Wat ik wil zeggen, het maakt bij de meeste mensen totaal geen indruk als die nieuwe kaarten moderner en efficiënter zijn als ze als puntje bij paalt komt gewoon achterblijven in raw performance in vergelijking bij de directe concurrent.
En dan kun je wel beweren dat het een flinke vooruitgang is, ik geloof meteen dat het een technisch hoogstandje is, maar dat is voor een objectieve koper die niet label gebonden is nauwelijks interessant.
En toch zie je hier op het forum vaak mensen die zeggen "ik heb €150 te besteden. welke kaart kan ik dan het beste nemen?". Ik durf met zekerheid te zeggen dat er meer mensen zijn die op budget letten dan op performance. Waarom denk je dat de high end performancemarkt maar zo'n 5% van het totaal in beslag neemt?

[Voor 55% gewijzigd door CJ op 09-11-2007 21:50]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
peakaboo schreef op vrijdag 09 november 2007 @ 21:50:
[...]
Wanneer komt de R680 dan precies? Sorry maar die type/codes verwarren me een beetje. Ik snap dat die V staat voor Value. En idd, zoiets had ik pas Q2-Q3 in 2008 verwacht.. Ik vind het zo jammer, ik wacht echt op een ferrari...
R680 is al af. Wordt al flink getest. Laatste wat ik hoorde is 7-13 Januari 2008 tijdens CES2008. Dat zou dus over 2 maanden kunnen zijn. Maar de GX2 van NV komt dan ook uit. :)

R700 eind Q2, begin Q3.

[Voor 7% gewijzigd door CJ op 09-11-2007 21:52]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
RappieRappie schreef op zaterdag 10 november 2007 @ 00:38:
[...]


Volgens mij kunnen enthousiasts dan net zo goed 2 RV670's of 2 8800GT's in CF of SLi zetten. Ik denk dat die kaarten ook gewoon 1,4 a 1,5x de performance van een single kaart geven.
Niet iedereen heeft een mobo met twee full sized 16x PCIe sloten. En een R680 kan je natuurlijk ook in CF zetten. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Je vergeet dat ATI sinds de R200 al professionele oplossingen (voor bv flight simulators en renderfarms) biedt waar 4 tot 32 GPUs aan elkaar vast werden gekoppeld. En de laatste tijd schijnen ze hard gewerkt te hebben aan CrossFire X om te optimaliseren voor 3 en 4 GPU setups.

Overigens zal dit in de toekomst nog belangrijker worden gewoon vanwege het feit hoe GPUs straks in elkaar zitten...

[Voor 5% gewijzigd door CJ op 10-11-2007 04:50]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
meljor schreef op zaterdag 10 november 2007 @ 13:57:
de 3850 is wel een prima kaart voor een prima kaart. wellicht als die ook in 512mb komt is hij misschien over te klokken naar een 3870? of heeft deze minder shaders?
De 3850 is technisch gelijk aan de 3870. Evenveel streamprocessors. Zie ook first post. ;)

En met Overdrive kom je een heel eind richting de 3870 als ik het goed heb. Dus voor rond de €150-€160 krijg je een hoop performance, features en low-power consumption. De cores zijn als ik het goed heb begrepen redelijk goed over te klokken. Met de referencecoolers blijven ze al enorm koel, laat staan als je de voltages opkrikt en er je eigen customcooler op zet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Joepi schreef op zaterdag 10 november 2007 @ 14:03:
Ati zou het he-le-maal kunnen maken, als...
ze eindelijk de turbodiver releasen: precies op tijd >:)
Kans?
Hoe kom je er bij dat er een turbo driver uit komt? De eerste performance driver is uitgerold in 7.10. Er volgen er meer, maar er zeker geen sprake van "de turbo driver". Maar als je de performance van Mei vergelijkt met de performance van nu, dan is deze op een groot aantal vlakken verbeterd, zowel in single card als in CF. Boost voor o.a. Crysis komen er nog aan.

Trouwens heeft Driverheaven een leuk artikel met Roy Taylor van nVidia over TWIMTBP. Daaruit blijkt dat CryTek al vanaf de zomer 2006 met G80s heeft zitten werken... en ze hebben er meer dan 5000 manuren in gepompt om Crysis goed op de G80 te laten draaien met continue 1 nV medewerker bij CryTek zelf:
quote:
Our lead engineer for Crytek, Miguel Sainz, has been with the Crytek crew in Frankfurt almost non-stop since then. At times we have had as many as 4 or more engineers on site and at the same time as many as a dozen or more engineers have supported the on-site work here in Santa Clara, Calif. In all, we have invested more than 5,000 man-hours of engineering and programming time into Crysis. The process involves the sharing of code, ideas, de-bug, perf implementations, and is as close as two partners can possibly get.
http://www.driverheaven.net/dhinterviews/roytaylor/index.htm

Daar kan AMD devrel nog wel wat van leren. Ik hoorde van AMD al dat NV miljoenen dollars in CryTek en Crysis had gepompt (voor zowel promotie als optimalisatie). Dit wordt nu dus wel zo'n beetje bevestigd...

[Voor 4% gewijzigd door CJ op 10-11-2007 15:10]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

De HD3850 en HD3870 zijn ook op Geizhals verschenen en de prijzen zijn inmiddels aangepast (ongeveer €20 naar beneden).

HD3850 256MB: €156,10 incl.
HD3850 512MB: €171,70 incl.
HD3870 512MB: €219,26 incl.

http://geizhals.at/eu/a293844.html
http://geizhals.at/eu/a293842.html
http://geizhals.at/eu/a293843.html

Ik verwacht dat de prijzen van de HD3870 nog verder zullen zakken, want zoals ik al had bekend gemaakt zal AMD in eerste instantie de HD3850 pushen (er zijn er veel van, dus de prijs is ook laag) en zal de eerste lichting HD3870 kaarten door AMD zelf gemaakt worden. ASIC productie van de HD3870 wordt nu opgevoerd en kort na de launch zal deze beter beschikbaar worden (en dus de prijzen verder omlaag drukken naar het bedoelde segment).

Overigens is het VR-Zone gelukt om de de HD3850 en HD3870 in CrossFire X te laten draaien en dan afzonderlijk de beide GPUs ook nog over te klokken. De HD3870 ging naar zo'n 860Mhz core/1351Mhz mem en de HD3850 ging naar zo'n 725Mhz core/979Mhz mem. Score: 15848 3DM06.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Hacku schreef op zaterdag 10 november 2007 @ 17:12:
[...]


Een hogere yieldrate, dus kunnen ze er meer produceren voor de launch.
En volgens mij halen alle HD3870 kaarten wel met gemak de 825Mhz dankzij de nieuwe Overdrive/Autotune :)
quote:
Apple schreef op zaterdag 10 november 2007 @ 17:23:
[...]


Ik kan maar één ding zeggen; petje af wat Nvidia heeft neergezet met TWIMTBP. Ik vind het misplaatste arrogantie om te denken dat je zoiets niet nodig hebt. ;)
Wie denkt dan dat ze zoiets niet nodig hebben? AMD heeft ook wel een devrel team met engineers die ter plaatse assisteren. Alleen is het lang niet zo zichtbaar als TWIMTBP en lang niet zo groot. De enige recente populaire games waar het duidelijk zichtbaar was, waren HL2 en Guild Wars. Overigens ontkende nV tot voor kort dat het TWIMTBP programma bedoeld was om geld te pompen in titels zodat het beter liep op hun architectuur. Wij wisten natuurlijk altijd al beter, maar het is leuk om het nu zelf door hun bevestigd te zien dat ze vele manuren hebben geinvesteerd in een game die nog niet echt optimaal loopt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Hacku schreef op zaterdag 10 november 2007 @ 20:50:
[...]


Niet kansloos, het is marketing dat werkt.
Het werkt alleen als je weet wat RV670 is.... En die naam wordt niet door AMD gebruikt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ja, maar dan weet de consument nog niet welke kaart het is van de concurrentie. Dat kan van alles zijn. De grote massa is nou eenmaal niet bekend met codenamen. Dat weten alleen mensen die zich er in verdiepen en af en toe tech-sites/fora lezen zoals deze. Maar die zijn veruit in de minderheid. En dan nog worden codenamen weinig gebruikt in vergelijking tot de retailnaam.

Trouwens, DELLs nieuwste XPS PC heeft een AMD Phenom + Quad CrossFire setup. 4x een HD3870. Tikt wel aan zo.

http://www.theinquirer.ne...ell-set-launch-amd-phenom

[Voor 21% gewijzigd door CJ op 10-11-2007 22:25]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ja je hebt helemaal gelijk.

Ben benieuwd hoeveel de nieuwe DELL XPS gaat kosten met die 4 HD3870's er in. :)

[Voor 60% gewijzigd door CJ op 10-11-2007 22:52]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Als ik ze voor de gek houdt, dan doe ik het ook gelijk goed. ;)

[Voor 3% gewijzigd door CJ op 10-11-2007 23:27]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Er is een nieuwe benchmark genaamd "Lightmark" die zich helemaal richt op belichten en met name Global Illumination. Laat AMD zich nou net met de HD3800 Serie ook richten op Global Illumination (zie first post) omdat er dedicated hardware in zit waardoor dit veel efficienter kan gebeuren. Toeval?

http://images.vnu.net/gb/inquirer/news/2007/11/10/3d-benchmark-appears/ligthmark.jpg

http://www.theinquirer.ne...1/10/3d-benchmark-appears

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik zal het later vandaag ook eens proberen. Nog niet naar gekeken verder. Het zal me niet verbazen als enkele reviewsites deze benchmark ook gaan gebruiken in de toekomst.

Overigens zei Gibbo van Overclockers UK dat hij zo'n 300+ HD3850s in stock bij de launch heeft en van de HD3870 zal hij zo'n 250-300 hebben. Hij vermeldt er echter bij dat dit meer is dan het aantal GF8800GTs die hij bij launch had. Dus daar in de UK ziet de availability er wel goed uit.

Ook hij pushed CrossFire X schijnbaar heel erg... want tja... als je 4 kaarten kan verkopen ipv 1... da's natuurlijk altijd beter. ;) Daarnaast zegt-ie dat een HD3850 in CrossFire beter presteert dan de veel duurdere GF8800Ultra. Voor zo'n €300 heb je dus veel bang voor buck. Daarnaast wijst hij er ook weer op dat je er straks een derde en vierde kaart bij kan stoppen. :P

Bij het testen zijn de kaarten heel erg stil. Het is Gibbo met zijn test exemplaren gelukt om de HD3850 op HD3870 core-kloksnelheden te laten draaien (geheugen wordt beperkt door de GDDR3 max). Daarnaast werkt CrossFire prima op P35 moederborden.

Ben benieuwd hoeveel reviews volgende week ook gelijk CrossFire X3 resultaten laten zien.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
_Diesel_ schreef op zondag 11 november 2007 @ 15:58:
Het is wel interesant dat je een 3870 en een 3850 in Cross kan draaien. Wordt dan de kracht van bijde kaarten volledig benut of klokt de 3870 zich terug naar 3850 speeds?
De kracht van beide kaarten wordt volledig benut. Elke kaart zal op zijn eigen kloksnelheden blijven draaien. Dit was altijd al het geval bij CrossFire... al vanaf de X800 serie. :)

En nu met CrossFire X is het mogelijk om met CrossFire Overdrive beide GPUs afzonderlijk te overklokken om nog meer performance er uit te persen.
quote:
Dit gezegt hebbende, en er van uitgaande dat de kaarten allebij volledig benut worden kom ik met de volgende vraag: Stel ik koop nu een 3870 en 2008 Q2 een R700 kan ik deze dan ook samen in Cross laten werken? Dit zou voor mij een stimulans zijn om voor ATI te kiezen namenlijk, dan heb ik die 250 euro tegen de tijd dat ik de R700 niet weggegooid zegmaar.
Nee. Werkt niet. Als je CrossFire gebruikt om te multi-renderen, dan werkt dit alleen met GPUs van dezelfde klasse. Dus een R700 koppelen aan een RV670 is een no-go.
quote:
EDIT: Als ik dan nu 2x3850 koop heb ik redelijk bang voor de buck, en later kan ik er dan misschien nog een R700 bij zetten dat zou natuurlijk HE-LE-MAAL het einde zijn :9~
Morgen op XtremeSystems... een eerste preview/review... HD3870 in CrossFire op stock speeds haalt daar meer dan 20K in 3DM06:
quote:
add another 20k CF 3870 stock 777/1138 , review will post tomorrow
Bron: http://www.xtremesystems....php?p=2548574#post2548574

Het laatste wat ik in de wandelgangen gehoord heb is dat AMD voor de R680 ook mikt op 20K+ in 3DM06. Maar of dat klopt... geen idee...

[Voor 4% gewijzigd door CJ op 11-11-2007 16:06]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Met 3DM wordt inderdaad veel gepimpt. Gewoon door heen prikken dus.

Als je de forums van VR-Zone, Xtreme Systems, OC UK leest dan zie je dat de meesten voor een HD38x0 kaart gaan vanwege het feit dat het goedkoop is en veel performance biedt voor z'n geld terwijl het weinig stroom verbruikt en veel features heeft als UVD en DX10.1. Bang-for-buck dus.

Daarnaast lijkt het er op dat veel mensen voor 2 kaarten gaan ipv 1. Tenminste uitgaande van de reacties op de grote internationale fora. Dat zou voor het CrossFire platform een enorme boost betekenen.

offtopic:
ik haal trouwens 109.4 fps op m'n X1950XT in Lightmark op 1280x1024 onder Vista Ultimate. En 114.6 @ 668Mhz core en 918Mhz mem

[Voor 10% gewijzigd door CJ op 11-11-2007 16:52]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Performance scaling met multi-GPU setups wordt steeds beter. Vista helpt daar ook een handje aan mee. En dit wordt in de toekomst alleen maar belangrijker omdat alle IHVs nu richting multi-core oplossingen gaan. AMD en NV pushen beide nu bij gamedevelopers om hun games te ontwikkelen met multi-GPU in hun achterhoofd (dwz vooral AFR-friendly games maken).

2x de prestaties zal je niet snel krijgen, meer iets van 1.7x met 2 GPUs, 2.6 met 3 en 3.x met 4 GPUs. Het is niet voor iedereen weg gelegd, maar als je het snelste van het snelste wilt dan hebben mensen er veel voor over.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Illidan schreef op zondag 11 november 2007 @ 16:33:
[...]


Is die 1.7x met 2GPU's een gemiddelde of het maximale?
Gemiddelde. Sommige games zullen misschien niet eens 1.5x performance winst zien, terwijl anderen dicht tegen de 2x aan zullen zitten.

De ene game engine is bijvoorbeeld niet geschikt voor AFR, dus zal er gebruik moeten worden gemaakt van Supertiling of SFR. Dus de ene keer is het meer dan 1.7 de andere keer weer wat minder.
quote:
Zelf bezit ik een 965 mobo, die waren wat minder geschikt voor CF meen ik mij ten tijde van de aankoop te herinneren. Hebben drivers dit intussen opgelost of zou ik dan moeten uitkijken naar een X38? Zo worden de kosten natuurlijk weer een stuk hoger. Ik denk dat er nog flink wat gamers rondlopen met zo'n "oude" 965.
Als je mobo twee fysieke PCIe 16x sloten heeft dan kan-ie CF draaien.

Firingsquad heeft er wel eens naar gekeken. Hier een jaar oude review: http://www.firingsquad.co...965_crossfire_performance Bedenk je wel dat de drivers in het afgelopen jaar inmiddels weer wat verder gefinetuned zijn, dus dat de resultaten nu beter zullen zijn.

Bit Tech heeft daarnaast een vergelijking gemaakt tussen de X38 en P35 (de P965 opvolger): http://www.bit-tech.net/h...on_intel_x38_versus_p35/1

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Cheetah schreef op zondag 11 november 2007 @ 23:30:
[...]
Je blijft toch wel erg lang hangen in geschiedenis van 6 maanden geleden.
Ondanks deze al meerdere keren onder je aandacht is gebracht. Lees 'm nou eindelijk eens voordat je blijft herhalen wat allang achterhaald is :)
Hehe. Gewaagd hoor om de review aan te halen waar je zelf al eens een keer enorm mee de mist bent ingegaan omdat je de inhoud niet goed had gelezen. ;)

Overigens is deze review puur gericht op DX10 gaming. En van de 5 zitten er 4 in het oh zo intensieve TWIMTBP programma. Hoog tijd dat AMD meer in GITG/Game pompt. Jammer dat er geen andere games bij betrokken zijn die bijvoorbeeld veel populairder zijn. Xbit Labs zou eigenlijk z'n uitgebreide CF test van September moeten herzien met Catalyst 7.10 drivers of de aankomende drivers die CrossFire X introduceert.
quote:
The Source schreef op zondag 11 november 2007 @ 23:55:
http://www.theinquirer.ne...-mystery-thermal-analysis
Nvidia mystery 'thermal analysis' explained

Beetje vergezocht als je het mij vraagt alhoewel er een paar dingen in zitten die te denken geven. Waarom heeft de 55nm HD3870 een dubbele koeler, terwijl een 65nm 8800GT een single slot koeler heeft?
De HD3870 heeft die dubbelslots koeler ook helemaal niet nodig. ;)

Het verhaal sluit in ieder geval aan wat ik eind September/begin Oktober al hoorde via een bepaalde IHV die me vertelde over het feit dat NV bij verschillende chassis vendors al spoedorders had geplaatst mbt G92. Die IHV ging er van uit dat het om thermal analysis ging ivm TDP/hitteproblemen. Anders doe je niet op het allerlaatste moment grote spoedorders. Niet alleen werd de kaart hoger geklokt, ook werden er meer streamprocessors geactiveerd. Dit moest getest worden.

[Voor 33% gewijzigd door CJ op 12-11-2007 00:21]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
YwonUnlimited schreef op maandag 12 november 2007 @ 07:31:
Als ik nu een 3870 zou kopen en daar later nog een eentje uit de R700 bij zou zetten,zou dit samen in crossfire kunnen werken? Zou nml wel een mooie deal zijn dan ;)
Nee. Zie ook de FAQ in de first post:
quote:
Vraag: CrossFire: Kan ik een RV670 aan een R600 of R700 koppelen?

Nee!

Als je CrossFire wilt gebruiken om twee videokaarten te laten samenwerken voor multi-renderen (dwz meerdere kaarten renderen het beeld), dan is dat NIET mogelijk. Je kan alleen videokaarten aan elkaar koppelen die gebruik maken van dezelfde GPU.

Een HD3870 kan je dus alleen koppelen aan een videokaart die ook gebruik maakt van een RV670, dus bijvoorbeeld de HD3850 of een andere HD3870.
FAQ ;)

[Voor 7% gewijzigd door CJ op 12-11-2007 09:40]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Eerste benchmarks (met Catalyst 7.10 dus niet de launch drivers):

http://i21.photobucket.com/albums/b299/Genocide737/6pin.jpg

http://i21.photobucket.com/albums/b299/Genocide737/3870na.jpg

http://i21.photobucket.com/albums/b299/Genocide737/table.gif
quote:
From 3Dmark06 and Crysis, it looks like nVidia 8800GT is better than HD3870. However, there is one thing we need to tell you

We found ATi HD3870 is actually has better picture process while Crysis benching.

Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.

If you have chance, compare it. You will know what are we talking about.

The price for ATi HD3870 we are not sure yet, but it should be less than 8800GT.

Not only that, CF can do on P35, X38, 965, and 975 those motherboard as long as there are 2 PCI-E slot.
http://iax-tech.com/video/3870/38701.htm

Ook interessant voor sommigen:
quote:
Also, we are very surprise to see that as AA increase to 8X, the HD3870 beats 8800GT on SM3.0. On HD2900XT, AA was its weakest point and make people hesitate to buy it. Good job on ATi

[Voor 13% gewijzigd door CJ op 12-11-2007 10:23]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Het punt is meer dat als het echt 3DM specifieke optimalisaties zijn, de HD2900XT ook een betere score zou moeten neerzetten met 8xAA met Cat 7.10. Volgens mij is dat niet het geval. Kan iemand dat even testen? Als de performancedrop kleiner is bij een HD3870 dan bij een HD2900XT, dan ligt dat echt niet aan die 35Mhz verschil in coresnelheid, zeker niet bij een bandbreedte intensieve instelling als 8xAA.

AF is texture unit afhankelijk, en daar heeft de RV670 er nog steeds 16 van net als bij de R600 vs 58 bij de GF8800GT. Dan doen die 16 het dus helemaal niet zo slecht. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Cheetah schreef op maandag 12 november 2007 @ 11:08:
Ik denk dat niemand het interessant vind dat die 16 texture units het 'helemaal niet zo slecht' doen t.o.v. de 58 van de 8800GT.
Volgens mij zitten we hier nog altijd op een forum waar de technologie achter een product ook interessant is en het niet alleen om e-peen cijfertjes gaat toch? De e-peen topics worden hier toch echt flink binnen de perken gehouden. :+
quote:
Het gaat erom hoe de kaart als geheel het doet i.v.m. concurrentie. De GT doet virtually 'free' 16xAF zo te zien... bij de 3870 dropt de score van 8000 -> 7000: 14% impact.
En dat gaat gevoeld worden in de aankomende IQ benchmarks (4xAA/16xAF standaard)...
Veel mensen kijken inderdaad naar de eindperformance. Maar veel mensen kijken ook naar de prijs en de performance die je voor die prijs krijgt, terwijl anderen weer naar de stilte van de koeler of stroomverbruik kijken. Voor elk wat wils.

Dat de G80 serie AF bijna voor 'free' doet komt dus door de achterliggende techniek. 56 texture units (dus niet 58 zoals ik eerst schreef) helpen dan wel mee hoor. Maar wat betreft efficientie ligt het wel lager dan bij AMD. Als AMD nou slim is, verhogen ze dit bij een toekomstige generatie want de texture units in de huidige generatie zijn zeer capabel... alleen het aantal had wel omhoog gemogen... maar ik ben bang dat dit niet gaat gebeuren.

Ik vraag me af of DX10.1 nog iets gaat veranderen aan de performance aangezien deze ook wat algemene optimalisaties bevat voor filtering zonder dat een app hier specifiek om moet vragen (zelfde geldt voor deferred rendering).
quote:
AA en AF performance. 2 architecturele problemen blijkbaar gehandhaafd dus helaas... :/
Grappig dat je het steeds "probleem" noemt. Technisch gezien was het geen probleem. Maar dat had ik al eens een paar pagina's terug uitgelegd. Dat je de performancedrop tegen vindt vallen ten opzichte van de vorige generatie of de concurrentie is wat anders.

En ik heb het al vaker gezegd, het is een kaart binnen dezelfde generatie. Dus drastische veranderingen verwachten van een mainstream die-shrink als de RV670 ten opzichte van de R600 is net zoiets als denken dat Sinterklaas echt bestaat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
darrel32 schreef op maandag 12 november 2007 @ 12:09:
@bovenstaand

Zelf speel ik mijn spellen op 1680x1050 met 2 voudige AA en 4 voudige AF. Dat gaat prima en daar heeft mijn kaart geen moeite mee. Het verschil tussen 2 voudige en 4 voudige AA is niet echt merkbaar in prestatie, maar zodra ik speciale functies ga toepassen zoals Adaptive AA gaat het niet lekker meer met mijn framerate en het verschil zie ik ook bijna niet, dus wat is het nut?
Adaptive AA heeft eigenlijk alleen nut in games waar veel transparante textures gebruikt worden zoals games met veel hekwerk, bomen, struiken. Adaptive AA is sinds Catalyst 7.10 wel voorzien van meer opties, dus let er opdat je de juiste instelling kiest.... Multisampling AAA levert vaak hele mooie beelden op, zonder de performancedrop van Supersampling AAA.

Als je AAA aanzet in games waar weinig transparante textures gebruikt worden, dan heeft het eigenlijk weinig nut en zal het alleen maar onnodig leiden tot een performancedrop.
quote:
Hacku schreef op maandag 12 november 2007 @ 12:11:
[...]


Sm4.1 == DX10.1 en UVD is van AMD :z nVidia heeft haar eigen techniek daarvoor.
Maar UVD > VP2. :+

En Powerplay is voor sommigen ook interessant. Lek anders eens wat GPU temps en stroomverbruik cijfertjes in vergelijking met G92. ;) Of CrossFire X3 benchmarks mag ook natuurlijk, want de G92 kan je niet in Threeway SLI gooien... wat volgens mij nu gedelayed is naar 2008.

[Voor 19% gewijzigd door CJ op 12-11-2007 12:16]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Apoca schreef op maandag 12 november 2007 @ 12:18:
Wat is dat Powerplay eigenlijk? Is dat iets wat vanaf het mobile platform komt?
Ja. ATI PowerPlay is een techniek die altijd al in Mobility Radeons heeft gezeten. Het is een powermanagement techniek. Door de jaren heen is Powerplay steeds meer uitgebreid. Ik geloof dat we nu al op versie 7 zitten op de Mobility Radeon en met de RV670 komt deze techniek voor het eerst naar de desktop GPUs toe.

Even uit de first post gekopieerd waar de informatie al een tijd lang te vinden is ;) :
quote:
ATI PowerPlay
  • Advanced power management technology for optimal performance and powersavings
  • Performance-on-demand
    - voltage switching
    - dynamic clock gating
    - clock & memory speed throttling
    - GPU monitoring
  • Central thermal management
    - on-chip sensors monitors GPU temperature and triggers thermal actions as required

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Cheetah schreef op maandag 12 november 2007 @ 12:28:
[...]
Gaan we nu losse texture units tellen om architecturele efficiency te bepalen? :?
Prima hoor: dus de efficientie van de G71 lag hoger dan van R580? 24 vs 48 shaderprocessors.
De efficiency van G92 ligt enorm hoger dan van R600? 112 vs 320 shaderprocessors.
Of ben je 't daar nu weer niet mee eens? ;)
Ik hoop dat je door hebt dat je nu onderdelen vergelijkt die eigenlijk niet te vergelijken zijn? Lees de tech-artikelen van B3D er nog eens op na, zodat je precies weet welke onderdelen je met elkaar kan vergelijken zonder meteen in appels en peren vergelijkingen te vervallen. ;)

G71 = 24 fragment pipelines (*2), 24 Texture Units
R580 = 16 fragment pipelines (*3), 16 Texture Units

Op basis van de fragment pipelines is de R580 efficienter. Dat de fragment pipelines anders zijn ingedeeld bij de R580 is een ander punt. Daarnaast bevat elke G71 pipeline volgens nVidia 2 ALUs om tot een totaal van 48 ALUs te komen (zo vergeleken ze zelfs de R580 met de G71, nl 48 ALUs vs 48 ALUs). Als je ziet dat het aantal daadwerkelijke pipelines bij de R580 dus 33% kleiner is dan die van de G71, dan is de R580 efficienter bezig.

R600 = 16 ROPs / 64 shaderunits (*5) / 16 Texture Units
G80 = 24 ROPs / 128 shaderunits / 64 Texture Units
G92 = 16 ROPs / 128 shaderunits (112 voor de GT) op meer dan dubbele snelheid / 64 Texture Units (56 voor de GT)

Dus nogmaals.. wie is efficienter?
quote:
Ok: techniek is geen probleem, performance wel. Performance is echter sterk gerelateerd aan techniek. Techniek is in mijn boek dus wel degelijk een probleem :P
Performance en techniek wordt altijd beoordeeld t.o.v. 1) vorige generatie en 2) concurrentie.
Als je zo alles wilt koppelen dan is alles terug te voeren op de techniek. Maar performance is in het geval van de R600 generatie ook sterk gerelateerd aan drivers vanwege de VLIW architectuur.
quote:
ATi moet zich tegen deze tijd vorig jaar al bewust zijn geweest van de performance van R600 t.o.v. G80, en waar dat in gezocht moest worden. Daarom hoopte ik eigenlijk dat RV670 ook meer zou zijn dan een mainstream die-shrink van R600, en met de berichten van verbeterde AA had dat ook gekund...
Als het nV lukt om een aangepaste die-shrink van G80 te maken (G92) met o.m. wijzigingen in texture&rop-aantal en configuratie doorgevoerd, waarom zou dit ATi dan niet kunnen lukken met RV670?
Verbeterde AA heeft de RV670 ook, maar dankzij DX10.1. En voor veel van deze verbeteringen hoeft een game niet eens specifiek geschreven te zijn. Wanneer SP1 uit komt zou de RV670 architectuur hier automatisch iets beter door moeten functioneren.

Het verbeteren van AA performance vergt ingrijpingen in de Render Backends. Dat is niet iets wat je zo maar in een "dieshrink" of "refresh" doet. AMD heeft er geen moeite mee om RBEs en texture units weg te laten (zie RV570, RV560) net zoals nV dingen heeft weg gelaten in de G92. Weg laten is gemakkelijker dan toevoegen. De veranderingen in texturing bij de G92 ten opzichte van de G80, zijn geen nieuwigheden. De G92 heeft namelijk dezelfde verhoudingen overgenomen van de G84. Dus ingrijpend waren deze veranderingen niet.

Eigenlijk heeft NV hier hetzelfde gedaan als wat AMD gedaan heeft ten tijde van de RV530 -> R580. Experimenteren met een aangepaste architectuur in de lowend om dit later toe te passen in de highend. Met RV630 was dit ook het geval, maar dan meer met UVD en Powerplay (wat uiteindelijk niet geactiveerd werd).
quote:
mieJas schreef op maandag 12 november 2007 @ 13:12:
Over PowerPlay .. ik kan mis zijn, maar is het niet zo dat de huidige HD2xxx serie het al ondersteunt? Ik had namelijk bij de 7.9 drivers dat, in Windows, mn grafische kaart automatisch terug klokte naar 200/100. VC-1 films afspelen deed de snelheden stijgen naar 450/300 (dacht ik) en in games ging het naar 800/700. Toen schommelden mn idle temperaturen rond de 40 graden in een warme kamer. Met de huidige 7.10 is dat blijkbaar niet meer zo. Het is hier nu ook koud als wat en ligt de temperatuur van de VPU zo'n 5 graden hoger... Fin, kaart draait op zich nog altijd even goed, maar vind het vreemd dat ATi het er heeft uitgehaald :/
Dynamische aanpassing van kloksnelheden gebeurt al een lange tijd. Dit is echter afhankelijk van 2D of 3D modes. De drivers detecteren of iets een 2D of 3D applicatie is en zorgt er voor dat de kloksnelheid dan wel omlaag of omhoog geklokt wordt. Dit zijn echter waardes die vast liggen, en de hele GPU blijft dus continue actief.

Powerplay gaat verder. Powerplay schakelt niet alleen de kloksnelheden in 2D veel verder naar beneden, ook worden er bepaalde gedeeltes van de GPU uitgeschakeld en worden voltages on-the-fly verlaagd/verhoogd. Hierdoor is het stroomverbruik een stuk lager en wordt de chip minder warm. Daarnaast kan Powerplay zelfs tijdens het gamen de voltages en kloksnelheden regelen... wanneer er een intensieve 3D scene is, merkt de GPU dit en kan zichzelf daaraan aanpassen.

Verder biedt Powerplay ook de mogelijkheid tot PCI Express Lane Count switching, wat inhoudt dat de videokaart het aantal actieve lanes kan aanpassen aan de workload. Wanneer er weinig activiteit is kan bij wijze van spreken je 16x PCIe kaart 15 lanes uitschakelen en werken op 1x PCIe en daarmee het stroomverbruik omlaag kan gaan. En het heeft ASPM (Active State Power Management) wat zoveel wil zeggen dat het stroomverbruik nog verder omlaag geduwd wanneer de systeembus niet belast wordt.

Als laatste biedt Powerplay nu ook de mogelijkheid om de activiteit van de GPU te meten, net zoals dat altijd al mogelijk was voor CPUs. Je kan dan precies zien in welke applicaties op welke momenten de GPU gestressed wordt.

Het systeem is dus veel slimmer dan wat er tot nu toe mogelijk was.
quote:
Hacku schreef op maandag 12 november 2007 @ 13:27:
[...]


Herstel, nieuwe prijzen:

Inkoopprijs Sapphire 3850 256MB: € 121,23 excl.
Inkoopprijs Sapphire 3850 512MB: € 133,14 excl.
Inkoopprijs Sapphire 3850 512MB Heatpipe: € 133,14 excl. (passief gekoeld)
Inkoopprijs Sapphire 3870 512MB: € 149,49 excl.

Prijs van de 3870 lijkt goed te komen.
Yep. Zoiets had ik ook al doorgekregen. :)
quote:
leonpwner1 schreef op maandag 12 november 2007 @ 13:30:
[...]


Klopt dat wel? 10 euro verschil tussen de 256MB en 512MB versie en ook maar 15 euro verschil tussen de *50 en *70, waarom zou iemand dan een 256MB versie, of überhaupt een HD3850, kopen?
Singleslot en nog lager stroomverbruik?

Overigens is het verschil tussen 256MB en 512MB maar zo'n $8 tot $12 volgens AMD. :) Waarom denk je dat NV niet happig is om een GF8800GT 256 @ $179 te lanceren, terwijl ze nu nog ruim gemiddeld $229 vangen voor de GF8800GT 512?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Cheetah schreef op maandag 12 november 2007 @ 14:43:
[...]
Dat was precies mijn punt: je kunt niet 1 element van de architectuur (aantal texture units in dit geval) eruit lichten en vervolgens dat tot 'efficienter' verklaren dan de concurrentie. De architecturen zijn niet 1 op 1 vergelijkbaar.
Om efficiency op bepaalde gebieden te meten zul je dus gebruik moeten maken van specifieke eikpunten (ook wel: benchmarks) en dat afzetten tegen aantal transistors, en inherent daaraan: stroomverbruik (wat overigens ook afhankelijk is van productieprocede).
Ja, het zijn verschillende architecturen. Maar dan kan je nog wel texture units (appels) met texture units (appels) vergelijken. Wat jij deed was Fragment Pipelines (appels) vergelijken met ALUs (peren).... Een texture unit blijft een texture unit.
quote:
Hoe je er aan komt dat een 14% performancehit @16xAF (met 16 texture units) getuigd van 'betere efficiency' dan een virtuele 0% performancehit @16xAF (met 56 texture units) is me nog steeds onduidelijk... en dat was waarop ik reageerde.
Verlaag het aantal texture units bij de G80 maar eens om te zien hoeveel texture units er nodig zijn om "bijna" 0% performancehit te hebben. Je zult zien dat de drop groter wordt. Doe hetzelfde bij de R600 architectuur en zie dat daar de performancehit relatief gezien gelijk blijft.
quote:
Van het technische verhaal dat volgt ben ik uitstekend op de hoogte ;)
Je illustreert waarom je niet zo kunt vergelijken, en dat is precies wat ik ook wilde zeggen :)
Het gegoochel met getallen (en m.n. die op een manier opschrijven die ATi goed lijkt uit te komen) is dan wel weer jammer...
NV kan ook wat van gegoochel. Hun methode van transistor tellen bv... is anders dan die van AMD. Het tellen van ALUs is ook anders dan bij AMD (getuige het feit dat ze zeiden dat G71 er 48 had... en als je R580 dan op dezelfde manier zou tellen dan had deze er 96).
quote:
Maar dat is toch ook zo? Drivercomplexiteit is eveneens afhankelijk van de techniek waarmee gewerkt moet worden. Het (on)vermogen om snel goede drivers te produceren is dus ook architecuurgebonden ;)
Als het moeilijk is om drivers te schrijven, wil dat nog niet zeggen dat de architectuur "kapot" of "brak " is. Het wil alleen zeggen dat het langer duurt om te optimaliseren en er de performance uit te halen die je er ook echt uit wilt halen.
quote:
Daar kopen we tot ergens halverwege 2008 (SP1 release) en totdat dev's het gaan integreren in games natuurlijk niet veel voor...
Volgens mij schreef ik net ook dat het niet eens nodig was om er specifiek voor de programmeren...
quote:
nV heeft meer gedaan dan alleen dingen weglaten. Texel sampling en Texel filtering capaciteit is bij G92 groter dan bij G80GTX. Texture Adress units zijn toegevoegd, en de verhouding Texture Adress / Texture Filtering is aangepast:
[afbeelding]
Het leek mij absoluut niet vreemd om er van uit te gaan dat ATi iets soortgelijks had gedaan met RV670.
Ja dat klopt dat er meer is gedaan dan weg laten. Maar daar ging ik ook op in....

De G92 neemt dingen over van de G84.... dingen die daar in getest werden. Het is dus niet iets nieuws.. het is al uitgeprobeerd en overgenomen. Er zijn dingen weg gelaten en dingen overgenomen. Maar er is dus eigenlijk niets "nieuws" toegevoegd.

AMD heeft in dit geval alleen gekozen voor overnemen van UVD en Powerplay uit de oude midrange en het toevoegen van DX10.1 wat wel compleet nieuw is. Daarnaast liggen dit soort designbeslissingen al heel lang van te voren vast. Zoiets 'bouw' je niet even in zonder bijvoorbeeld over je transistorbudget heen te gaan. En wat transistorbudget per die-size is AMD altijd heel erg strikt geweest (waarschijnlijk nog strikter dan nV).
quote:
Tyranium schreef op maandag 12 november 2007 @ 15:13:
[...]


Ik geef je gelijk dat de technologie achter een product vaak ook interessant is, maar wat heeft het feit dat Cheetah kijkt naar de algehele performance in gods naam te maken met e-peen cijfertjes?? :?
Er werd gezegd dat 'niemand' het interessant vind hoe de 16 texture units van de RV670 zich verhouden ten opzichte van 56 in de G92, maar hoe de kaart het in zn geheel doet. Dan komt het er in mijn boekje op neer dat er eigenlijk gezegd wordt: het maakt me niet uit hoe die GPU de fps op het beeld tovert, als-ie het maar doet en als-ie het maar sneller doet dan de ander. Dus sneller = beter = e-peen-contest. :+ Maar goed, de gehele performance kan natuurlijk meer omvatten dan snelheid, namelijk stroomverbruik, geluidsproductie, overklokbaarheid, hitteproductie, video encoding/decoding acceleratie etc.
quote:
Verder kijk ik ook echt uit naar de benchmarks van de RV670 (maar dan voornamelijk de game benchmarks). En goed dat de prijzen van de RV670 al gelijk zijn getrokken met de 8800GT. Bij een gelijke prijs zal het nog een goede concurrent zijn van de 8800GT, waarbij iedereen voor zich kan bepalen wat hij belangrijker vindt, betere performance of minder stroomverbruik/DX10.1 .
Klopt helemaal. En ook een reden waarom de HD3800 serie interessant kan zijn is omdat er vrij veel moederborden verkocht zijn met een Intel 955, 965, 975, X38, P35 verkocht zijn met 2 fysieke PCIe 16x sloten. Door de lage prijs wordt multi-GPU met veel performance ineens wel heel erg dicht bij de consument gebracht. Je krijgt immers performance die in veel gevallen boven de GF8800Ultra heen gaat voor veel minder geld en minder stroomverbruik.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
the_mechanic schreef op maandag 12 november 2007 @ 16:51:
Inderdaad, de Nvidia zit nog in de wolken.

Geweldig hoe je weer genept wordt.

Word er een beetje misselijk van al dat marketing gedoe. Ik koop gewoon de goedkoopste. Dat kleine verschil in snelheid merk je in de parktijk toch niet.

Frank
Marketing gedoe? Het is een review van iemand die zowel een GF8800GT heeft als een HD3870 x 2 & HD3850. Dus deze screens zijn niet afkomstig van AMD.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Cheetah schreef op maandag 12 november 2007 @ 18:18:
[...]
Nee dat kun je niet. De opbouw van de texture units, de configuratie waarin ze staan, de verhouding waarin adressing en filtering texturing units staan, de kloksnelheden... sterker nog, de hele manier van tellen van texture units kan afwijkend zijn.

Je gaat me niet vertellen dat een R600/RV670 texture unit volledig 100% identiek en uitwisselbaar is met een G80/G92 texture unit.
Nee dat ga ik ook niet doen. Maar het doel van een texture unit is gelijk of je nou nVidia heet of AMD of Intel. Hoe dat doel bereikt wordt kan anders zijn, maar hetzelfde doel wordt uiteindelijk wel bereikt. Daarom is dit beter vergelijkbaar dan een fragment pipeline met een ALU, aangezien een ALU een onderdeel is van een fragment pipe. Fragment pipelines en ALUs hebben in eerste instantie niet hetzelfde doel en zitten op verschillende niveaus.

Jij kwam met het voorbeeld G71 = 24, R580 = 48, dus G71 is efficienter. Maar die 24 bij de G71 zijn de fragment pipelines, terwijl die 48 bij de R580 geen fragment pipes zijn, maar ALUs verdeeld over 16 fragment pipelines.
quote:
Goed, dus hier krijg ik een reprimande over de 24 (nV G71) vs 48 (ATi R580) verhouding die ik hanteerde.
Correct volgens jou was: 24*2 vs 16*3 (ofwel 48:48)
Even verderop...
[...]
...krijgt nV op zijn donder omdat ze zouden goochelen met nummertjes. De juiste 'eerlijke' verhouding is niet 48:48 maar 48:96.... ofwel diezelfde 24:48 verhouding waarvoor ik hier direct boven op mijn kop krijg 8)7

Kijk dat is nou precies wat ik bedoel met 'goochelen met nummers'. Afhankelijk van de situatie trek je een aantal cijfertjes en verhoudingen uit de doos, die altijd in het voodeel van ATi worden uitgelegd... en dat zelfs op 2 verschillende manieren in dezelfde post 8)7
Het aanhalen van nVidia die zegt dat de G71 48 ALUs heeft is niet het op z'n donder geven hoor. Zo bedoelde ik het ook niet. Ik wilde alleen maar aangeven dat de dingen die jij vergelijkt wilde vergelijken verder af liggen dan texture units met elkaar vergelijken. Dingen vergelijken die hetzelfde doel hebben doe je sneller dan dingen vergelijken die niet hetzelfde doel hebben. Als je auto's vergelijkt kijk je ook naar de motor. Daar binnen zitten technieken die verschillen, maar uiteindelijk heeft die motor toch maar 1 doel en dat is pk's leveren. Zo ook de texture units. Maar goed, doet er verder ook niet toe.
quote:
:? :? :?
Met die 56 texture units bereikt nV virtually free AF. Het gaat mij om de free AF... hoe ze 't flikken kan me werkelijk aan mijn reyt oxideren, zolang 't maar geflikt wordt, niet enorm veel meer stroom vreet en niet ten koste gaat van andere dingen (zoals IQ).
Hoeveel van die 56 texture units lagen te slapen bij deze specifieke test vind ik niet boeiend. Hoeveel texture units van de 56 uit G92 gesloopt moeten worden om eenzelfde 14% performancehit als RV670 te veroorzaken boeit me ook niet.
PS: lees 'boeit me niet' als 'welliswaar interessant, maar domweg scheer onbelangrijk'. Resultaat telt.
Dat is dan een verschil in interesse. :) Ik vind het zelf zeer boeiend om te zien hoe iets bereikt wordt. Vergelijkingen zullen er altijd gemaakt worden wat betreft techniek. En vaak zie je dat er veel leentjebuur gespeeld wordt door de IHV (bv de hoekafhankelijke AF uit de X800 serie die nVidia probeerde te kopieren in de G70/G71 helaas met shimmering of DST/PCF in de X1900 serie die AMD van nVidia geleend had). Om dan precies te weten wat voor effect dat kan hebben is het juist belangrijk om te weten hoe de techniek in elkaar zit en dat je de juiste dingen met elkaar kan vergelijken. Stel dat AMD straks in de R700 komt met shaderdomains... wat voor invloed zal dat hebben op de R600 architectuur als de R700 daar nog op voortborduurt. Leuke dingen om over na te denken.
quote:
Sneller tegen gelijkblijvende (of hogere) IQ en gelijkblijvend (of lager) stroomverbruik == beter.
Wat voor jou beter is, hoeft voor een ander niet zo te zijn. Ik zou er daarnaast nog prijs en featureset aan toe willen voegen.

GF8800GT is sneller dan de HD3870. IQ is vergelijkbaar (met een voordeel voor AF in NV, maar een voordeel voor AMD met Trilinear). Stroomverbruik ligt hoger (zowel idle als load).

Is de GF8800GT daarom beter? En als je dan de rest mee neemt... Temperatuur ligt veel hoger. Prijs is lager. Featureset is minder (HDMI Audio, UVD, DX10.1).

Als je voor performance gaat is de GF8800GT beter. Maar d'r komt nog zo veel meer kijken.
quote:
Helaas, u mag toch niet door voor de koelkast ;)
Hoge eisen stellen met betrekking tot performance en IQ (en met name de combinatie van die 2) heeft niets met e-peen te maken. Dit was ATi namelijk op het lijf geschreven tot voor niet zo lang geleden, en toen ook de hoofdtoon van dit topic. Inmiddels is dat dus al verworden tot "e-peen"? Whatever float's ATi's boat nietwaar? :/
Nee, e-peen is het feit dat sommige mensen bevestiging zoeken dat hun kaart sneller is dan de concurrentie (of het nou AMD is of nVidia). Hier zie je vaak dat sommige mensen extra bevestiging moeten hebben dat hun GF8800GT(X)/Ultra sneller is dan een HD2900XT. Dat is e-peen... een streling voor je virtuele ego.
quote:
Excessive emotional and ego investment in an online message board or forum; a marked tendency to continue to argue one's point even after losing a debate in such a forum.
Daaronder valt dus ook het feit dat de HD2900XT in CF alle CF records had gebroken of het simpele feit dat het voor sommigen een kick is als NV/AMD (doorhalen wat niet van toepassing is) even een mindere kaart released waardoor hun favoriete merk weer even boven aan staat (alhoewel dit meer fanboisme is).
quote:
Features zijn leuk, maar dat een 150+ Euri graphics card koffie kan zetten, en als je er een webcam aan vastknoopt en een stokje in steekt het Oostberlijns triangelconcert kan dirigeren vindt ik niet bepaald maatgevend voor een aankoopbeslissing. Gameperformance voert dan gewoon de hoofdmoot.
Klopt. Helemaal gelijk. Maar de een is tevreden met 30fps in de meeste games, terwijl een ander minimaal 60fps wil en een ander weer 100fps wil. Daarnaast is voor de een AA belangrijk, voor een ander niet... en voor een ander weer AF... of beide. Gameperformance als maatgevende aankoopbeslissing varieert dus per persoon en is niet alleen datgene wat jij vindt, maar wat ieder voor zichzelf vindt.

Voor €150 weet ik het dan wel. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
WoutF schreef op maandag 12 november 2007 @ 21:39:
[...]

Laat dan iemand de topictitel aanpassen en haal meteen al die regels weg uit de topicstart :)
Dit topic heette vroeger anders... namelijk het "ATi Nieuws & Discussie Forum". Daarin past in principe alles wat betrekking heeft op ATi videokaarten inclusief de architectuur... Of het nou nieuwtjes zijn of het bespreken van de verscheidene AA methodes of hoe de texture units in elkaar zitten... Het hoort allemaal in dit topic thuis. Problemen met videokaarten horen hier echter niet. Zo is het altijd al gegaan vanaf de start in 2004. De informatieve waarde en nieuwswaarde voeren horen hier boventoon te voeren.

De naam is verandert in "ATi Nieuwsdiscussie" om de nadruk te leggen op ATi en haar GPUs. Het woord "discussie" werd te los genomen en eindigde vaak meer in een flamewar/trollfest met te veel onzinnige vergelijkingen tussen de concurrenten (de mijne is sneller etc!). Vergelijkingen... daar ontkom je niet aan, maar zoals de topicregels ook al zeggen... als je het netjes, op een vriendelijke toon en vooral beargumenteerd doet, dan is daar niks mis mee.

Misschien is de naam een beetje 'ongelukkig' gekozen in dat verband en wordt het tijd om het weer terug te veranderen aangezien er nu meerdere "Algemene Nieuws & Discussie Topics" zijn opgestart, zoals het NV topic, Samsung topic en AMD topic, die prima draaien onder de 'oude naam' die dit topic vroeger ook had (tot deeltje 25).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Apple schreef op dinsdag 13 november 2007 @ 00:07:
[...]


Je bedoelt "dat hoop ik". Zeer nabij noem ik tussen nu en pak 'm beet 6-12 maanden en nee, ik voorzie
in deze periode nog geen "afschaffing van HW AA" van de gamedevs danwel "massale adoptie van SB AA".

Crysis, het spel wat de komende 2-3 jaar weer de benchmarks gaat bepalen (in navolging van Farcry), laat zien dat HW AA alive and kicking is.
Dan hoop ik dat Crysis niet letterlijk Far Cry navolgt en dat er haast geen enkele game uit wordt gebracht die gebruik maakt van de CryEngine2 net zoals er wel geteld maar 1 (non Far Cry spinoff) game is uitgekomen die gebruik maakte van de CryEngine. Imo maakt dat van Far Cry/Crysis meer een zeer veredelde benchmark/tech demo (in de vorm gegoten van een mooie game). Ik vond dat echt zonde van die engine. Het kon zo veel en zag er schitterend uit... maar blijkbaar was het niet zo programmeervriendelijk als de Unreal Engine 2.5 (zelfs op de Doom3 engine zijn meer games ontwikkeld).

De UnrealEngine3 aan de andere kant wordt in een groot aantal aankomende games gebruikt en wanneer daar deferred rendering aan staat.... kan je AA ondersteuning wel shaken onder DX9 (hacks niet meegeteld). Daar zit je dan met je hardware AA resolve. Zie bv Medal of Honor: Airborne, Rainbow Six: Vegas, Unreal Tournament 3, Stranglehold, Gears of War, Rogue Warrior, Bioshock, America's Army 3.

Overigens las ik laatst een interview waarin Epic zei dat DX10 (dus ook officiele AA ondersteuning) pas toe werd gevoegd in een patch. Hopelijk komen er ook patches uit voor de oudere games zodat deze ook AA kunnen gebruiken.

In Crysis is trouwens zoveel geld gepompt door nVidia dat zelfs de CSAA 16x modi ondersteunt worden, die alleen door NV kaarten ondersteunt wordt. Dus ja, ik vind het niet vreemd dat support in zit voor hardware AA resolve. Maar goed, CryTek heeft ook gezegd dat ze support voor DX10.1 zouden inpatchen (net zoals ze dat met Far Cry deden met SM3.0 en later SM2.0b). Dus als AMD ze een duit in 't zakje toeschuift (zoals met die ene demo) dan kan het zo maar weer eens helemaal omslaan. De benchmark waait min of meer richting de oorsprong van het geld. Wat dat betreft mis ik wel de tijd dat programma's als TWIMTBP niet zo veel invloed hadden.

Hier een leuke lijst van games die gebruik (gaan) maken van de UE3 (meer dan 60): http://en.wikipedia.org/wiki/Unreal_engine_3#Unreal_Engine_3
Vs 8 games voor de CryEngine2 waarvan 3 door CryTek en eentje voor militair gebruik: http://en.wikipedia.org/wiki/CryENGINE2

En niet alleen games die gebruik maken van UE3 maken gebruik van shaderbased AA. Kijk bijvoorbeeld naar S.T.A.L.K.E.R. waar AA ook shaderbased is.

De 'nabije' toekomst kan dus wel eens dichterbij zijn dan je denkt.

[Voor 4% gewijzigd door CJ op 13-11-2007 01:27]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

De nieuwe Alienware ALX PC heeft trouwens een HD3870 CF aan boord:
quote:
http://image.alienware.com/Images/product_detail_page_images/area-51_alx/true_colors.jpg
Get Caught in the CrossFire

The new ATI® Radeon™ HD 3870 with CrossFire™ dual graphics technology are the DirectX® 10 screaming graphics firepower that ALX customers have been waiting for. These power-packed dual graphic cards provide the stunning realism and immersive visual quality that propels you deep into your gameplay. Dual 256MB of DDR4 onboard memory, and PCI-Express 2.0 Graphics compatibility, makes sure your next-gen DX10 games can get cranked up to their maximum settings without experiencing any lag in framerates.
http://www.alienware.com/...bCode=SKU-DEFAULT#pdp-nav

AMD luistert blijkbaar toch wel een klein beetje naar de consument. Niet alleen is het stroomverbruik omlaag gebracht en zijn er nieuwe technieken in de RV670 ingevoerd om dit nog veel verder omlaag te brengen dan de concurrentie... Ook de coolers zijn stil. ter vergelijking:

HD 3850 : 31 dBA
HD 3870 : 34 dBA
8800GT : 43 dBA

[Voor 16% gewijzigd door CJ op 13-11-2007 03:02]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Jejking schreef op dinsdag 13 november 2007 @ 08:23:
[...]
Verkooptechnisch is er inderdaad geen geldig verkoopargument om het te gebruiken. Zéker met Crossfire haal je vaak geen winst omdat er geen profielen voor zijn in de WHQL-drivers (het zij zo). Pas als de zaak ondersteunt wordt haal je een vrij acceptabele boost. Performance per watt moeten we het dan niet meer over gaan hebben, dan zijn praktisch alle multi-GPU-oplossingen waardeloos :)
Er komen veranderingen aan wat betreft CrossFire. Je zag het begin van deze veranderingen al in Catalyst 7.10 waar AFR nu de default rendering mode is geworden, zodat gebruikers in alle AFR-compatible games een boost zagen. Dit was ook inclusief een hele reeks nieuwe applicaties zodat CrossFire gebruikers niet hoefden te wachten op een patch die nieuwe profielen brengt. Toekomstige Catalysts kunnen dan nog meer performanceboosts brengen als ze eenmaal goed geprofileerd zijn.

Maar... als ik het goed begrepen heb dan is AMD ook bezig aan een profielensysteem waar de gebruiker zelf de eindcontrole heeft.

Wat betreft performance per watt zou het me niet verbazen als een HD3850CF niet veel meer verbruikt dan een enkele HD2900XT. Dus op zich is dat nog niet zo heel erg slecht voor een multi-GPU setup.
quote:
Kensei schreef op dinsdag 13 november 2007 @ 09:10:
Als je probeert puur objectief (of zoveel mogelijk althans) te kijken naar ATi en NV, welke zou dan momenteel de beste kaart bieden voor FlightsimX?

Ik dacht me nl te kunnen herinneren dat Flightsim meestal wat meer uit een ATi kaart haalde. Heb nu een P5W DH Deluxe en is dus geschikt voor CF.
FSX doet het volgens mij nu iets sneller op een nV kaart. FSX is overigens toch ook een TWIMTBP game, dus performance zal op NV kaarten niet slecht zijn.

Maar daar staat tegenover de MS voor de DX10 patch al heeft aangegeven dat een van de redenen was dat ze dit hadden uitgesteld, de performance was van de DX10 GPUs van beide fabrikanten. ATI Radeons schenen namelijk vele malen sneller te zijn met geometry instancing dan GeForces, waardoor bepaalde beslissingen genomen moesten worden die invloed konden hebben op het eindproduct. Hoe dit zal uitvallen is dan nog even afwachten.

Overigens heeft AMD al FSX geshowcased op een Phenom systeem met Quad CrossFire op 8 schermen. Dus volgens mij zit je met een HD3870 ook wel goed. Zie dit filmpje: http://www.youtube.com/watch?v=A3jpG3rv4zI
quote:
k995 schreef op dinsdag 13 november 2007 @ 11:45:
[...]


Zijn er dan al reviews van de HD 3870?

Eens gezocht en niks gevonden enkel wat PR statememts waar deze cijfers uit komen, je vergelijkt dus appelen en peren .

Als ik mag afgaan op PR is de 8800gt 29db (sommige dan toch)

http://it-review.net/inde...k=view&id=2128&Itemid=105

Wachten op reviews denk ik.
Deze cijfers komen van iemand die ze getest heeft en de geluidsproductie heeft opgemeten. Die vertelde me dat de HD3870 op 100% net zo veel geluid maakte als de GF8800GT. Natuurlijk komen er van beide fabrikanten varianten met andere coolers die misschien stiller zijn. Ik vergelijk nu alleen even de default-reference cooler aangezien de meeste mensen deze toch zullen blijven gebruiken.
quote:
Hacku schreef op dinsdag 13 november 2007 @ 11:42:
[...]


Hou er wel rekening mee dat er (grote) kans is dat je niet direct een 3870 te pakken zal krijgen in de eerste week, én dat nVidia dan plots stock zal hebben (ze leggen een voorraad aan voor de 19de).
Even ter vergelijking... NV had bij launch zo'n 40.000 GF8800GTs beschikbaar en zijn nu blijkbaar aan het stockpilen. AMD heeft al zo'n 250.000 HD3850 en HD3870s (meer HD3850s dan HD3870s) uitgeleverd en voor het einde van dit jaar komen er nog zo'n 150.000 bij.
quote:
In conversations with industry sources, 40,000 units of the GeForce 8800GT have shipped worldwide. To put these volume numbers into perspective, other sources have stated that AMD has already fulfilled orders for 250,000 of its Radeon HD 3850 and 3870 models for its launch later this week. It was stated that an additional 150,000 will ship before year end. Prices for 3800 series cards should ship between $180-220.
Bron: http://www.tgdaily.com/content/view/34818/118/

Meer pics van CrossFire X: http://blog.yam.com/hardwareclub/article/12562032

De mensen in de UK hebben geluk. Als je daar bij OverclockersUK je HD3850 en HD3870 bestelt, heb je 'm op launchday binnen. Ze hebben daar dus zo'n 300+ HD3850 kaarten en 250-300 HD3870 kaarten op voorraad.

[Voor 3% gewijzigd door CJ op 13-11-2007 13:31]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Hacku schreef op dinsdag 13 november 2007 @ 13:42:
Maar die zijn niet allemaal voor de retail markt.
Klopt. Maar het is maar even om aan te geven dat AMD nu al meer dan 6x zoveel kaarten van de HD3800 serie wereldwijd heeft geproduceerd en uitgeleverd dan NV met de GF8800GT gedaan heeft bij launch. En dat nog wel ondanks dat de RV670 twee maanden eerder uit komt dan verwacht. Ongeacht of dit retailcijfers zijn of niet... 250.000 vs 40.000 is wel een heel erg groot verschil.

Het stuk waar het uit kwam had trouwens de titel Nvidia to miss out on holiday sales en ze zouden best eens gelijk kunnen krijgen als ze de productie niet verder opvoeren.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Cheetah schreef op dinsdag 13 november 2007 @ 21:20:
[...]Dat productie van een 3850 goedkoper is dan een 8800GT 256, is speculatie...
Nee. Dat is geen speculatie meer. Het is zo. ;) Maar goed, mij geloof je toch niet direct. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Hacku schreef op dinsdag 13 november 2007 @ 22:06:
Dubbele core grootte betekent niet dubbel zo duur te produceren :)
Klopt. Maar de G92 core is dus 73% groter dan de RV670 en uit zeer betrouwbare bronnen heb ik vernomen dat AMD op alle vlakken (die er bij het produceren van een videokaart komen kijken) veel lagere kosten heeft. AMD wacht af hoe ver NV naar beneden durft te gaan met de prijs en zullen daar dan ook op reageren op prijsgebied. Het verschil is dat - zoals The Source al eerder aangaf - AMD nog veel verder kan zakken in prijs en dat men eigenlijk voor de huidige prijs nog steeds 'veel' vangt voor de RV670.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Iemand wees me op iets interessants. Zo "volledig functioneel" hoeft een HD3850/HD3870 of HD2900XT niet te zijn. Xenos heeft bv 48 shaderunits verspreid over 3 arrays. Elke array heeft redundancy shaders aan boord in het geval van defecten. Maar wat veel mensen niet weten is dat er nog een 4de array aan boord van de Xenos GPU zit (in totaal 64 shaderunits). En het schijnt heel flexibel te werken wat betreft het uitvallen en opvangen van uitgevallen units. Dus het vermoeden rijst dat alle desktop GPUs ook een extra array aan boord hebben die zeer flexibel zijn wat betreft het opvangen van defecten.

Er zijn wel degelijk mensen die alle variabelen in handen hebben. Alleen je krijgt ze hier niet te zien in dit topic en dat zal ook niet gebeuren in de toekomst tenzij iemand z'n mond voorbij praat. Dus voor jou (en de meeste anderen hier) zal het gespeculeer blijven. Maar met de juiste contacten kom je een heel eind om achter de volledige waarheid te komen. ;) Moet zeggen dat al het gespeculeer wel leuk is om te lezen. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
Hacku schreef op dinsdag 13 november 2007 @ 22:28:
[...]Hoezo dat, wat heeft de productie van de chip met de assemblage van de videokaart te maken? Gebruikt AMD goedkopere connectoren onderaan de chip, of worden de partners gedwongen goedkopere componenten te gebruiken? Of heeft het gewoon met de core grootte te maken?
Die-size is een heel belangrijk onderdeel. AMD en NV werken met een transistorbudget op een bepaalde die-size grootte, rekening houdende met zaken als transistordichtheid etc. Een 73% kleinere die-size is niet iets wat je zo maar onder de tafel mag schuiven als 'onbelangrijk'. Voor elke G92 die NV produceert maakt AMD er 2 RV670s en de kosten zijn ook nog eens lager van de RV670. Goedkopere componenten zijn in ieder geval niet gebruikt door TSMC in die RV670 dice.

Het PCB daar ligt het in ieder geval niet aan, want daar heeft AMD een potje van gemaakt en verschillende AIBs hebben hun eigen veel goedkopere ontwerp al klaar staan. Hierdoor zullen de prijzen waarschijnlijk nog verder zakken van de HD3800 serie.
quote:
Cheetah schreef op dinsdag 13 november 2007 @ 22:47:
[...]
3870 gebruikt aanmerkelijk duurder geheugen dan 8800GT 512 en 8800GT 256 schijnt trager (dus goedkoper) geheugen te krijgen dan 8800GT 512 (en 3850). Bovenstaand lijkt niet te kloppen.
Zo veel duurder is het geheugen niet hoor. ;) Zie ook bv het verschil tussen 256 en 512MB dat maar $8 - $12 is. En verscheidene geheugenfabrikanten zijn al tijden bezig met het produceren van snel GDDR4 geheugen. Wanneer waren de eerste meldingen ook maar weer dat bv een Samsung en/of Hynix de massaproductie van snel GDDR4 geheugen waren gestart? Ergens begin vorig jaar ofzo?
quote:
Vermoeden rijst of is het zo? Het is de eerste keer dat ik dit hoor namelijk, i.i.g. m.b.t. de desktop GPU's.
Jij hoort wel vaker iets niet.. tenzij je inside info hebt. Dat scheelt echt wel een beetje (soms). :+

Dan iets anders. Er werden hier wat vragen gesteld over de mogelijkheid om een HD2900GT te koppelen aan een HD2900Pro/XT in CrossFire, en dan met name wat er zou gebeuren bij die HD2900Pro/XT. Ik vroeg of er dan een SIMD Array van 80 shaders werd uitgeschakeld net zoals dat het geval was bij bv een X800Pro + X800XT waar een quad werd uitgeschakeld bij een XT.

Ik heb even bij m'n contacten bij AMD nagevraagd en het antwoord was verbluffend... Ze wisten het niet zeker... er is weinig aandacht besteed aan deze CF opstelling. Alle focus ging uit naar de HD2900XT, de HD38x0 serie en CrossFire X.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Huishoudelijke mededeling:

Nieuw topic komt er later vanmiddag/vanavond aan. Tot die tijd kunnen jullie je vergapen aan Fudzilla die een hele zooi nieuwe artikelen online heeft gezet die eigenlijk simpel in 1 artikel gezet zouden kunnen worden. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Trouwens iets interessant in de Valve Survey....

Had CrossFire niet iets van nog geen 2 of 3% vs 97/98% SLI onder de multi GPU gebruikers? De laatste survey laat namelijk een stijging zien bij CrossFire. Het zijn wellicht maar 100 gebruikers, maar toch...
quote:
NVIDIA SLI (2 GPUs) 78 78.00 %
ATI Crossfire (2 GPUs) 22 22.00 %
http://www.steampowered.com/status/survey.html

Deze is trouwens ook grappig om te zien. Een native HDMI HD3850 met dualfan coolingsolution:

http://www.expreview.com/img/news/071114/3850_1.jpg

http://www.expreview.com/...1-14/1195012610d6928.html

[Voor 22% gewijzigd door CJ op 14-11-2007 11:44]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Nu nog effe afwachten op de reviews die een meer gangbare OS gebruiken (bv XP en Vista 32-bit) om te testen en ook recentere drivers gebruiken ipv de september Catalyst (terwijl nota bene de oktober drivers de eerste performance drivers waren en deze wel voor de HD2900XT gebruikt zijn).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pagina: 1

Dit topic is gesloten.

Let op:
Dit is GoT en geen kleuterschool... dus:

- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True