Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 73 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 5.467 views sinds 30-01-2008
http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
 

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu een divisie is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 8 November 2007 - Update over stock & allocation bij launch
  • 30 Oktober 2007 - First Post Update
  • 19 Oktober 2007 - FAQ geupdate over AA
  • 10 Oktober 2007 - Launch Date RV670 Toegevoegd ;)
  • 11 September 2007 - Game.amd.com toegevoegd en Catalyst links gewijzigd
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://img150.imageshack.us/img150/9367/atitopictopicregelsld3.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://img360.imageshack.us/img360/702/atitopictopicnavigatiesr2.jpg
http://img390.imageshack.us/img390/4301/atitopictopicgeschiedenav9.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70


http://img360.imageshack.us/img360/8606/atitopichd3800ji5.jpg


http://images.vnu.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet/36dba.jpg


Op 15 November lanceert AMD de ATI Radeon HD3800 serie. Deze serie is gebaseerd op de RV670 GPU. Met de komst van de ATI Radeon HD3800 serie vaart AMD ook meteen een nieuwe koers wat betreft de naamgeving. Daar waar vroeger de extensies GT, GTO, Pro, XL, XT en XTX gebruikt werden om de prestaties aan te duiden van de desbetreffende modellen, gebruikt AMD nu de laatste twee cijfers van de serie nummer om de prestaties aan te geven. De extensies vervallen dus volledig. Er staat drie modellen in de HD3800 serie gepland, waarvan de eerste twee per direct beschikbaar zullen zijn:

- ATI Radeon HD3870
- ATI Radeon HD3850
- ATI Radeon HD3830

De ATI Radeon HD3870 en ATI Radeon HD3850 onderscheiden zich van elkaar wat betreft de kloksnelheden van de core en het geheugen. Voor de rest zijn ze identiek. Over de ATI Radeon HD3830 is nog weinig bekend. De kans is groot dat het aantal streamprocessoren hier verminderd is, terwijl de kloksnelheid gelijk is gebleven aan de ATI Radeon HD3850.

Bedenk je wel... De ATI Radeon HD3800 Serie is niet de highend serie van AMD. Deze zal gevuld worden door een nieuwe serie die in het eerste kwartaal van 2008 gelanceerd wordt en gebaseerd zal zijn op de R680!

De ATI Radeon HD3800 Serie heeft als hoofddoel om veel performance + features voor weinig geld met een laag stroomverbruik naar een grote massa te brengen. De meeste mensen zullen de ATI Radeon HD3800 serie vergelijken met de GF8800GT van de concurrentie. Deze G92 chip in die kaart is zo'n 73% groter dan de RV670, verbruikt meer stroom en wordt warmer. AMD heeft dus verschillende mogelijkheden om deze concurrentie te lijf te gaan, bv het omhoog gooien van de kloksnelheden of het omlaag gooien van de prijs. Dat ze hier niet voor schromen blijkt uit de positionering van de ATI Radeon HD2000 serie. Het verschil is nu echter dat de marges bij de nieuwe AMD serie een stuk hoger liggen. Dus AMD heeft de mogelijkheid om de prijzen verder omlaag te drukken dan nVidia dat kan zonder dat ze zichzelf pijn gaan doen (geruchten gaan over $150-$199).

http://img360.imageshack.us/img360/9117/atitopichd3800namecs3.jpg

De ATI Radeon HD3800 Serie presteert iets beter dan de ATI Radeon HD2900 Serie, ondanks dat het hier gaat om een RVxxx GPU. RVxxx GPUs zijn GPUs die gemaakt zijn voor de lowend en mainstream. De V staat voor Value. De koers die AMD nu vaart met de nieuwe GPUs is die van "beste performance per prijs per watt" oftewel... de beste bang-for-buck.

http://images.vnu.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet/31dba.jpg


Hoe kan het dat een Value GPU beter presteert dan een highend GPU in dezelfde serie? Dat komt door interne tweaks en voornamelijk door de hogere snelheid. De ATI Radeon HD3800 presteert iets beter dan de ATI Radeon HD2900 serie.

Waarom is er dan niet gekozen voor de naam ATI Radeon HD2950, maar wel voor de naam ATI Radeon HD3800? Dit komt omdat alle kaarten uit de ATI Radeon HD2000 serie DirectX10.0 ondersteunen. Alle kaarten van de HD3000 serie ondersteunen DX10.1 en PCI Express 2.0! Om het verschil aan te geven en geen overlappende kaarten met afwijkende technieken binnen dezelfde serie te hebben, heeft AMD eindelijk eens gekozen voor duidelijkheid. De ATI Radeon HD3000 Serie markeert dus het feit dat alle kaarten binnen de serie dezelfde functionaliteit bezitten. Voorheen liepen er wel eens kaarten door elkaar heen, zo waren de Radeon 9000 en 9100 DirectX 8.1 kaarten, terwijl de rest uit de 9000 serie volledig DX9.0 compliant waren.

Marketingtechnisch gezien zitten er natuurlijk ook voordelen aan het kiezen van een nieuw beginnummer. De HD2000 Serie was laat op de markt in vergelijking tot de competie en kreeg veel gemengde recensies. Door een nieuw nummer te kiezen, creeert AMD het gevoel dat ze met een schone lei beginnen en het oude achter zich laten. En de consument valt helaas vaak nog voor het "hoger is beter"-principe.

http://img214.imageshack.us/img214/3082/atitopicdirectx101vt6.jpg

Wat biedt DirectX 10.1 boven DX10.0? DirectX 10.1 biedt in het kort gezegd de volgende belangrijke zaken:
  • nieuw shadermodel 4.1
  • verbeterde anti-aliasing ondersteuning
  • flexibelere data toegang
  • striktere specificaties voor betere applicatie compatibileit
Deze features maken het mogelijk dat spannende nieuwe technieken zoals real-time global illumination sneller mogelijk zijn dan met DirectX 10.0. De efficientie ligt dus hoger, maar ook de beeldkwaliteit zal door de strictere regels en verhoogde precisie beter zijn.

Daarnaast brengt DirectX10.1 wat verbeteringen op het gebied van geluid en multi-core CPUs, maar aangezien dit topic over de ATI Radeons gaat, beperk ik me in de uitleg tot de verbeteringen voor GPUs.

De ATI Radeon HD3800 Serie is de allereerste GPU ter wereld die vanaf de grond op voor DirectX 10.1 is gebouwd. Daarnaast bevat de nieuwe serie andere technieken en standaarden zoals PCI Express 2.0, Unified Video Decoder (UVD), hardware accelerated tessellation en een zeer stroom efficient 55nm transistor design (inclusief de mobiele powersavings technlogie Powerplay).
http://img360.imageshack.us/img360/8105/atitopicdxoverzichtmx2.jpg

DirectX 10.1 volgt over het algemeen de structuur en het programmeermodel van DirectX10, maar biedt dus verscheidene verbeteringen. De vertex, geometry en pixelshader instructiesets zijn opgewaardeerd naar Shader Model 4.1. De nieuwe features van DX10.1 kan je het beste onderverdelen in 3 algemene categorieen:

- Nieuwe shading en texturing mogelijkheden
- verbeterde anti-aliasing
- striktere specificaties

Hieronder staat in het kort aangegeven wat de nieuwe features zijn, wat voor functie het heeft en wat de voordelen er van zijn:

http://img145.imageshack.us/img145/79/atitopicdxoverviewpl6.jpg

http://img360.imageshack.us/img360/8581/atitopicdxoverview2hf1.jpg

Omdat sommige termen vrij technisch zijn, staat hieronder in zo simpel mogelijk Nederlands uitgelegd wat er precies bedoeld wordt.

http://img360.imageshack.us/img360/8793/atitopicdxsm41gg4.jpg

DirectX 10.1 waardeert Shader Model 4.0 op naar Shader Model 4.1. De verbeteringen dienen vooral gezocht te worden in optimaliseringen die er voor zorgen dat bepaalde zaken sneller en efficienter uitgevoerd kunnen worden. Je moet hierbij vooral denken aan zaken als lichtval en schaduwberekeningen. In elke game komt dit voor en daar zal de GPU een groot deel van de tijd mee bezig zijn om dit op je scherm te toveren. Een hogere efficientie en snellere methodes om dit voor elkaar te krijgen zijn dan altijd welkom. En dat brengt Shader Model 4.1!

Cube Map Arrays: Ray tracing IQ & Global Illumination
Shader Model 4.1 brengt een IQ die dicht bij de IQ zit die ray-tracing brengt. Op dit moment is ray-tracing te zwaar voor de huidige GPUs, dus brengt DirectX 10.1 alternatieven om de kwaliteit zo veel mogelijk te benaderen. Een daarvan is Cube Map Arrays, wat er ook voor zorgt dat Global Illumination in real time gerenderd kan worden op een efficiente manier.

http://images.tomshardware.com/2007/10/29/amd_hd_3800_to_support_dx_10/gi-demo4-3.jpg


Efficientere Deferred Rendering
Daarnaast wordt er in steeds meer games gebruik gemaakt van "deferred rendering", zoals in alle games die gebruik maken van de Unreal Engine 3 (zoals Unreal Tournament 3). Deferred rendering is een manier van licht renderen die er voor zorgt dat alles er nog realistischer uit ziet. Hier is echter geen AA op mogelijk onder DX9, maar wel onder DX10. En Shader Model 4.1 zorgt er voor dat dit nog efficienter kan gebeuren dan onder Shader Model 4.0 in DX10.

Verbeterde performance voor complexe shaders
Door de vertex shader output te verbeteren van 16 naar 32 128-bit waardes per shader is het mogelijk om complexere shaders nog efficienter uit te voeren. Daarnaast brengt DX10.1 een techniek die Gather4 heet, iets dat AMD al ondersteunt sinds de RV515/RV530/R580. Deze techniek is vooral gericht op het verbeteren van Stream Computing applicaties (general purpose processing).

LOD Instruction
LOD Instruction is een nieuwe shader instruction die er voor zorgt dat er handgemaakte texture filtering technieken gebruikt kunnen worden die gericht zijn op verbeterde performance en beeldkwaliteit.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

Kartelige flikkerende randen veroorzaakt door aliasing kunnen zeer storend werken. Deze artifacts worden veroorzaakt door onvoldoende rendering en/of schermresolutie. Ze kunnen verminderd worden door middel van filtering technieken, waarbij meerdere samples (multi-samples) genomen worden per pixel en ze samengevoegd worden. Het truukje is om deze samples zo te kiezen dat ze zorgen voor een maximale gladheid zonder te veel wazigheid te veroorzaken, terwijl je tegelijkertijd er ook nog voor moet zorgen dat de performance redelijk blijft.

De meest gebruikte anti-aliasing techniek is multi-sample anti-aliasing (MSAA), maar dit werkt alleen maar met randen van polygonen. Het pakt niet het probleem aan van texture aliasing of shader aliasing. De ATI Radeon HD 2000 serie introduceerde Custom Filter AA (CFAA) die het mogelijk maakte om met verfijnde programmeerbare filters te werken. De laatste Catalyst drivers ondersteunen 4 verschillende soorten filters die toegepast kunnen worden op elke game die gebruik maakt van DX9 of zelfs eerder. De meest geavanceerde van deze filters was het Edge Detect Filter die alle randen (edges) detecteert en er AA op toepast (inclusief textures en shaders!).

http://img70.imageshack.us/img70/4664/atitopicdxaavc3.jpg

DirectX 10.1 maakt het mogelijk om op maat gemaakte anti-aliasing filters toe te passen op pixel shaders. Op maat gemaakte filters bieden een verbeterde beeldkwaliteit aan in de gevallen waar standaard MSAA problemen kan hebben zoals met HDR Lighting en deferred shading technieken. In die gevallen kunnen er vaak artifacts optreden wanneer MSAA geforceerd wordt (als dit al mogelijk is). Alle DX10.1 compatible hardware moet minimaal 4x MSAA ondersteunen. Dit is geen probleem want dit doen ATI Radeons al sinds de R300 (Radeon 9700). De specificaties bevatten nu echter enkele voor gedefinieerde AA sample patronen in tegenstelling tot eerdere versies van DirectX waar de GPU zelf bepaalde hoe de patronen er uit kwamen te zien.

Een nieuwe feature binnen DirectX 10.1 is dat het mogelijk is om alle AA buffers rechstreeks toegankelijk te maken voor de shaders. Voorheen was het alleen maar mogelijk om multi-sampled color buffers aan te spreken. Het was toen onmogelijk om voor elke sample informatie te ontrekken aan een depth buffer. Deze nieuwe feature maakt het voor game ontwikkelaars mogelijk om zelf geavanceerde AA technieken te gebruiken in combinatie met shaders en toegewijde hardware, zoals de ATI Radeon HD GPUs op dit moment doen met Custom Filter AA.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

De ATI Radeon HD introduceerde ook Adaptive Anti-aliasing die texture AA voor gedeeltelijk transparante textures (zoals struikgewas en hekwerk). DirectX 10.1 breidt deze mogelijkheden uit door de introductie van Sample Coverage Masking, die je de volledige controle geeft over de specifieke sample locaties waar de pixelshaders worden uitgevoerd. Hierdoor is het voor ontwikkelaars mogelijk om AAA techniek te gebruiken om meerdere types van aliasing artifacts aan te pakken. Op maat gemaakte sample patronen kunnen ook hier weer worden toegepast . Veel van deze technieken waren al aanwezig in de vorige ATI Radeon GPUs (zoals de Radeon 9700, X800 serie, X1000 serie en de HD2000 serie), maar DirectX 10.1 maakt het voor het eerst mogelijk dat developers hier rechtstreeks toegang toe hebben.

In het kort gezegd biedt DirectX 10.1 op AA gebied dus meer middelen om allerlei typen van aliasing artifacts op te lossen in real-time games, waardoor de beeldkwaliteit omhoog gaat.

http://img360.imageshack.us/img360/1526/atitopicdxspecsdf3.jpg

In het verleden namen kwam het vaak voor dat nieuwe features zeer traag geaccepteerd werden als nieuwe standaard doordat de ene GPU iets wel kon, maar een andere weer niet. Of doordat GPUs op verschillende manieren tot een bepaald resultaat kwamen waarvan de ene efficienter was dan de andere. Door deze verschillen in GPUs zag je soms onverwachte performancedrops, beeldkwaliteit problemen, foutmeldingen of zelfs crashes. In plaats van om deze problemen heen te werken, hebben vele ontwikkelaars er voor gekozen dat het beter is om te voorkomen dan te genezen en het probleem bij de basis - de GPU feature set - aan te pakken.

DirectX 10 was al een eerste grote stap richting het oplossen van de compatibiliteitsproblemen door strikte regels op te stellen over de vereisten van elke GPU ten opzichte van de functies en instructies, en veel minder features optioneel te maken dan voorheen het geval was. Hierdoor probeerde men te voorkomen dat de ene DX10 GPU een bepaalde feature had die een andere DX10 GPU niet had. Veel van de verbeteringen in DirectX 10.1 zijn geintroduceerd om naar nog meer gelijkheid te streven door nog striktere regels op te stellen. Enkele van deze regels waren in DirectX 10 optioneel aanwezig en zijn nu verplicht gesteld. Daarnaast zijn er ook enkele nieuwe specificaties toegevoegd.

http://img150.imageshack.us/img150/1119/atitopicdxtextureeo7.jpg

Een obstakel dat ontwikkelaars tegen hield om hogere precisie texturen te gebruiken en om gebruik te maken van de verschillende output formaten in recente versies van DirectX, was de beperking van het aantal soorten bewerkingen die elke GPU op ze kon doen. DirectX 10.1 verbeterd dit door verplicht te stellen dat elke DX10.1 compliant GPU texture filtering van 32-bits floating point formats en blending op 16-bit integer formats moet ondersteunen.

http://img150.imageshack.us/img150/1160/atitopicdxmsaacl1.jpg

Multi-sampling anti-aliasing (MSAA) is de meest gangbare techniek die op dit moment gebruikt wordt om de beeldkwaliteit te verbeteren. Door de jaren heen zijn er veel verbeteringen aan deze basistechniek toegebracht, maar vaak durfden developers het niet aan om hier gebruik van te maken omdat dit kon leiden tot verschillen in IQ op de GPUs van de verschillende independent hardware vendors (IHVs zoals AMD, nV). DirectX 10.1 brengt de vereiste dat elke kaart minimaal 4x AA moet ondersteunen, en tegelijkertijd brengt het voorgedefinieerd sample patronen waardoor AA op een GPU van AMD er hetzelfde uit ziet als op die van nVidia. Daarnaast blijft het mogelijk om de eigen verbeteringen zoals temporal AA en adaptive AA te blijven toepassen op de nieuwe vereisten van DirectX 10.1.

http://img360.imageshack.us/img360/5144/atitopicdxprecisionxj4.jpg

Alle soorten data formaten zijn beperkt tot een aantal precisies die ze kunnen ondersteunen. Dit is vooral afhankelijk van het aantal bits dat ter beschikking is. Bewerkingen die op deze formaten gedaan worden, maken echter niet vaak optimaal gebruik van de beschikbare precisie, waardoor er afrondingsfoutjes kunnen optreden wat resulteert in artifacts in games. DirectX 10.1 zorgt er voor dat dit niet meer voor komt en vereist dat standaard math bewerkingen op floatingpoint waardes ook echt gebruik maken van de beschikbare precisie.

http://img390.imageshack.us/img390/2459/atitopicreviewsit6.jpg

Hieronder staan links naar de meeste HD38x0 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:
-
-
-

Hieronder staan links naar de meeste HD34x0 / HD36x00 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

-
-
-

http://img360.imageshack.us/img360/245/atitopichd38xxxj1.jpg

http://img187.imageshack.us/img187/4837/gigabytehd3850ld5.jpg
Gigabyte ATI Radeon HD3850 512MB: RX385512H
Zoals gezegd zal de RV670 in eerste instantie in twee varianten op de markt komen, de ATI Radeon HD3850 en de ATI Radeon HD3870. Zoals het er nu naar uit ziet zal de ATI Radeon HD3870 op een kloksnelheid van 775Mhz draaien voor de core en 2400Mhz GDDR4 voor het geheugen. De HD3850 zal het moeten doen met een core snelheid van 667Mhz en een geheugensnelheid van 1800Mhz GDDR3. De feature list ziet er als volgt uit:
  • Aantal transistoren: 666 Miljoen
  • Productieproces: 55nm
  • Bus Interface: PCI Express 2.0 x16
  • Memory Interface: 256-bit GDDR3/GDDR4
  • Memory Controller: 512-bits Ring Bus (fully distributed)
  • DirectX: 10.1
    - Shadermodel 4.1
    - 32-bit floating point texture filtering
    - Indexed Cube Map Arrays
    - Independent Blend modes per Render Target
    - Pixel Coverage Sample Masking
    - Read/write multi-sample surfaces with shaders
    - Gather4
  • Streamprocessors: 320
    - 128-bit floating point precision on all operations
    - Command Processor for reduced CPU overhead
    - Shader instruction and constant caches
    - Up to 80 texture fetchus per clock cycle
    - Up to 128 textures per pixel
    - Fully associative multi-level texture cache design
    - High resolution texture support (up to 8192x8192)
    - Fully associative texture Z/stencil cache designs
    - Early Z test, Re-Z, Z Range optimization and Fast Z Clear
    - Lossless Z & Stencil Compression (up to 128:1)
    - DXTC and 3DC+ texture compression
    - 8 Render Targets (MRTs) with anti-aliasing support
    - Physics Processing Support
  • Dynamic Geometry Acceleration
    - High Performance Vertex Cache
    - Programmable Tesselation Unit
    - Accelerated Geometry Shader Path for Geometry Amplification
    - Memory red/write cache for improved stream output performance
  • Anti-aliasing features
    - Multi Sampling AA (2, 4 of 8 samples per pixel)
    - Up to 24x Custom Filter AA (CFAA) for improved quality
    - Adaptive Super-sampling and Multi-sampling
    - Temporal Anti-aliasing
    - Gamma Correct
    - Super AA (ATI CrossFire configurations only
    - All anti-aliasing features compatible with HDR
  • Texture Filtering Features
    - 2x/4x/8x/16x High Quality Adaptive Anisotropic Filtering Modes (up to 128 taps per pixel)
    - 128-bit Floating point HDR Texture Filtering
    - Bicubic Filtering
    - sRGB filtering (Gamma/degamma)
    - Percentage Closure Filtering (PFC)
    - Depth & Stencil Texture (DST) format Support
    - Shared Exponent HDR (RGBE 9:9:9:5) texture format support
  • OpenGL 2.0 support
  • ATI Avivo HD Video and Display Platform
    - Dedicated Unified Video Decoder (UVD) for H.264/AVC and VC-1 Video formats
    - Hardware MPEG-1, MPEG-2 and DivX video decode acceleration
    - ATI Avivo Video Post Processor
    - Two Independent Display Controllers
    - Two Integrated Dual-Link DVI Display Outputs
    - Two Integrated 400Mhz 30-bit RAMDACs
    - DisplayPort Output Support
    - HDMI Output Support
    - Integrated AMD Xilleon HDTV Decoder
    - MPEG-2, MPEG-4, DivX, WMV9, VC-1 and H.264/AVC Encoding and Transcoding
    - Seamless Integration of Pixel Shaders with Video in Real Time
    - VGA mode support on all display outputs
  • ATI PowerPlay
    - Advanced power management technology for optimal performance and powersavings
    - Performance-on-demand (voltage switching, dynamic clock gating, clock & memory speed throttling, GPU monitoring
    - Central thermal management - on-chip sensors monitors GPU temperature and triggers thermal actions as required
  • ATI CrossFireX Multi-GPU technology
    - Scale up rendering performance and image quality with two, three or four GPUs
    - Integrated compositing engine
    - High performance dual channel bridge interconnect
Hoe presteert de kaart? Dat weet natuurlijk de concurrentie het beste. Volgens nVidia zal de HD3870 zo presteren ten opzichte van haar GeForce 8800GT:

http://img86.imageshack.us/img86/8544/88vs670sea5.jpg

In de praktijk zal het er op neer komen dat de ATI Radeon HD3870 zo'n 10% sneller zal zijn dan de ATI Radeon HD2900XT terwijl de ATi Radeon HD3850 zo'n 13% langzamer zal zijn. Bedenk je wel dat dit een midrange kaart is, die sneller en goedkoper is met meer features dan de vorige high-end. Veel bang-for-buck dus!

De focus van AMD zal in eerste instantie uit gaan naar de HD3850, want het is voor AMD mogelijk om van die kaart enorm veel te verkopen in het prijssegment waar deze zich in bevindt. De HD3850 zal bij launch de onbetwiste prijs/performance kaart worden zoals je straks zult zien. AMD vraagt zich dan ook af hoe ver nVidia durft te gaan met de prijs van de GF8800GT 256MB, want de marges zijn hier al zeer laag op en AMD kan nog verder zakken zonder verlies te maken.

Voor zover mijn bron weet zal de HD3870 echter wel redelijk snel goed verkrijgbaar moeten zijn dus een eventueel tekort bij launch zou snel opgelost zijn (in de dagen er na). De eerste HD3870 kaarten worden door AMD zelf gemaakt, maar tegelijkertijd zijn ze nu de productie van HD3870 ASICs aan het verhogen waardoor AIBs met hun eigen kaarten kunnen komen.

http://img390.imageshack.us/img390/7408/atitopictoekomstigegpuspf9.jpg

Op korte termijn staan gepland:
  • RV620
  • RV635
  • R680
Al deze GPUs zullen gemaakt worden op het 55nm productieproces van TSMC. Daarnaast zullen al deze GPUs volledig DX10.1 ondersteunen.

De RV620 is de 55nm opvolger van de RV610 en zal waarschijnlijk ATI Radeon HD3400 heten.
De RV635 is de 55nm opvolger van de RV630 en zal waarschijnlijk ATI Radeon HD3600 heten.
De R680 is de opvolger van de R600 en zal waarschijnlijk ATI Radeon HD3900 heten.

Al deze GPUs staan gepland voor Q1 2008. Volgens de laatste geruchten is de R680 een dubbele RV670. Volgens deze geruchten richt AMD zich op een 3DM06 score van 20.000 punten voor de R680.

Voor halverwege 2008 (zal wel twee helft 2008 worden) staat de R700 gepland. Deze staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan en zal waarschijnlijk de eerste multi-core GPU worden.

http://img360.imageshack.us/img360/1716/atitopicprijsoverzichtcs1.jpg
http://img390.imageshack.us/img390/736/hd2000prijsoverzichtoh6.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://img145.imageshack.us/img145/6045/atitopicgeruchtenmolengz5.jpg

Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
Gerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://img360.imageshack.us/img360/4926/atitopicoverigenq6.jpg
ATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

CJ wijzigde deze reactie 13-11-2007 02:59 (102%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
Vraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
  • HD2400Pro
  • HD2400XT*
  • HD2600Pro*
  • HD2600XT*
* ook mogelijk via hardware CF indien dubbele CF connector aanwezig

Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Vanaf de ATI Radeon X1650XT en X1950Pro zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! Vanaf de HD2000 serie zullen (bijna) alle videokaarten dit systeem gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Vraag: CrossFire: Kan ik een RV670 aan een R600 of R700 koppelen?

Nee!

Als je CrossFire wilt gebruiken om twee videokaarten te laten samenwerken voor multi-renderen (dwz meerdere kaarten renderen het beeld), dan is dat NIET mogelijk. Je kan alleen videokaarten aan elkaar koppelen die gebruik maken van dezelfde GPU.

Een HD3870 kan je dus alleen koppelen aan een videokaart die ook gebruik maakt van een RV670, dus bijvoorbeeld de HD3850 of een andere HD3870.

Vraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Vraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
Vraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Vraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Vraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Vraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
Vraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Vraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200 (RD480)
- ATi Radeon Xpress 3200 (RD580/RD600)
- AMD 790FX
- Intel 955x
- Intel 965
- Intel 975x
- Intel X38
- Intel P35

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Vraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Vraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Vraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Vraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Vraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.
Vraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

Vraag: Is AA "gebroken" in de R600?

Antwoord: Nee! AA als dusdanig is niet gebroken in de AA. Wanneer er AA wordt gevraagd in de toepassing of AA wordt geforceerd in de drivers wordt AA gewoon toegepast. De R600 heeft zelfs een hele flexibele vorm van AA aan boord.

Waar zeiken sommige mensen dan zo graag over? Dit komt door de performancedrop die groter lijkt dan bij de concurrentie en de voorgaande ATI Radeon chips. Hoe komt deze performancedrop? Door het ontbreken van hardwarematige AA resolve. Is dat een probleem? Nee. Overal gezien is de performance met AA nog altijd beter dan de performance van de voorganger (X1950XTX). Wil je nog sneller? G80 is your choice.

Maar maar.... hoe komt die grote performancedrop dan in vergelijking met de G80? Dat is een designbeslissing geweest. Er komen steeds meer games die gebruik maken van vormen van rendering waarbij er non-lineaire AA resolve moet worden toegepast. Fixed function hardware AA resolve, dat zegt het al, is lineair en wanneer dit wordt toegepast dan kunnen er artifacts optreden.

Wat zijn vormen van rendering waar non-linaire AA resolve technisch gezien 'beter' is dan de 'ouderwetse' manier? Nou, bijvoorbeeld bij HDR rendering (welke game gebruikt nu geen HDR meer?), deferred rendering (o.a. STALKER en alle games die gebruik maken de Unreal Engine 3 - en dat zijn er nog al wat) en bij het gebruik van anti-aliased shadow buffers. Deze vormen vereisen meer controle over de bewerking en over de pixel, daar waar voorheen de 'oude' hardware AA resolve adequaat genoeg was.

Maar maar... waarom hadden we dan vroeger nooit last van dat soort artefacts?? Tja... vroeger toen was alles anders. Tijden veranderen. Technologie verandert. Vroeger moesten er ook al workarounds worden gevonden om AA met HDR aan de praat te krijgen. Developers krijgen nu meer flexibiliteit om eindelijk op het scherm te toveren wat ze altijd al hadden willen laten zien zonder beperkt te worden door lineaire AA resolve. Tot op heden werkten ze hier namelijk omheen. Wij - als eindgebruiker - merkten dat niet. Nu kunnen ze het op een correcte manier doen.

Wat is dan de correcte manier? Op de correcte manier kan een pixelshader gebruikt worden om toegang te krijgen tot elke individuele sample binnen elke pixel. Hierdoor kan een graphics engine een hogere kwaliteit AA resolve toe passen en zelf beslissen wat voor filter er gebruikt moet worden. Microsoft heeft dit op verzoek van zowel developers en hardware vendors toegevoegd omdat er vraag was naar een betere beeldkwaliteit! Vragen om de 'oude' manier is dus tevergeefs!

Voor de mensen die er wat meer willen afweten over hoe de R600 het doet: De RBEs (voorheen ROPs) doen alles op het gebied van AA, behalve het gedeelte dat "resolve" heet. Dit wordt nu gedaan in de shadercore. Via een fastpath tussen de RBE en shadercore wordt data aan de shaderprocessors gevoerd om resolve toe te passen. Het grote voordeel hiervan is dat de resolve hierdoor zeer programmeerbaar is geworden. Het nadeel is dat het trager 'kan' zijn dan op de ouderwetse manier.

De redenatie van AMD om zich volledig op shader resolve te richten is het feit dat toekomstige games meer en meer op shader based AA resolve zal richten vanwege de hardware limitaties wanneer het aan komt op FP render targets. AMD heeft al eerder gegokt op toekomst gerichtheid met de R580 en daar plukken we nu (bijna 2 jaar na launch de vruchten van met engines als de Unreal Engine 3 waar de toenmalige concurrent GF7900GTX helemaal ingemaakt wordt). Daarnaast is het gebruik van custom resolve filters straks een vereiste in DX.

Het officiele statement van AMD:
quote:
We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

CJ wijzigde deze reactie 12-11-2007 09:42 (103%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

< gereserveerd 2 >

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Newsflash: AMD lanceert FireStream processor gebaseerd op RV670 met double precision!
quote:
AMD Delivers First Stream Processor with Double Precision Floating Point Technology
Thursday November 8, 12:01 am ET
AMD Firestream 9170 and Supporting Software Development Kit Unlock Stream-Based Accelerated Computing

SUNNYVALE, Calif.--(BUSINESS WIRE)--AMD (NYSE: AMD - News) today announced the AMD FireStream 9170 Stream Processor and an accompanying Software Development Kit (SDK) designed to harness the massive parallel processing power of the graphics processing unit (GPU). AMD leveraged its unique collective expertise in both GPUs and CPUs to deliver the first integrated hardware and software development solution that meets the needs of the demanding high-performance computing (HPC) market. AMD plans to deliver the FireStream 9170 and supporting SDK to market in the first quarter of 2008. With this launch AMD expects to achieve another important milestone on the path to Accelerated Computing by delivering the first in a series of next-generation heterogeneous compute architectures.

AMD FireStream 9170

The AMD FireStream 9170 will be the world’s first Stream GPU with double-precision floating point technology tailored for scientific and engineering calculations. Competitively priced at an MSRP of $1999 USD, it features up to 500 GFLOPS1 of compute power, rivalling many of today’s supercomputers, and providing dramatic acceleration for critical algorithms. This second generation Stream Processor is built with 55 nm process technology and consumes less than 1502 watts of power – delivering an exceptional performance per watt. In addition, the reduced heat dissipation allows it to function in dense design configurations. The FireStream 9170 is a single card solution with two GB of onboard GDDR3 memory to compute large datasets without CPU traffic. The asynchronous direct memory access (DMA) ensures data can flow freely without interrupting the stream processor or CPU.

“GPUs have long been known for their immense parallel processing performance but many challenges still remain in driving widespread customer adoption for general purpose compute,” said Jon Peddie, President, Jon Peddie Research. “Leveraging its unique capabilities in high-performance CPU and GPU technologies, AMD is well positioned to drive an integrated hardware and software proposition that can deliver the best of both processing worlds to its HPC customers.”

AMD FireStream SDK

The AMD FireStream SDK is designed to deliver the tools developers need to create and optimize applications on AMD Stream processors. Built using an open platforms approach, the AMD FireStream SDK allows developers to access key Application Programming Interfaces (APIs) and specifications, enabling performance tuning at the lowest level and development of third party tools. Building on AMD’s Close to the Metal (CTM) interface introduced in 2006, the Compute Abstraction Layer (CAL) provides low-level access to the GPU for development and performance tuning along with forward compatibility to future GPUs. For high-level development, AMD is announcing Brook+, a tool providing C extensions for stream computing based on the Brook project from Stanford University. In addition, AMD also plans to support the AMD Core Math Library (ACML) to provide GPU-accelerated math functions, and the COBRA video library accelerates video transcode. Also available are third-party tools from top industry partners including RapidMind and Microsoft.

In addition, AMD is now a charter participant in HP’s new HPC Accelerator Program, offering HP customers best practices and guidance for these technologies, and ensuring that accelerator hardware and software is qualified for HP servers running HPC applications.

“As innovative new HPC technologies like Stream Computing emerge, it is imperative we work with our partners to ensure an open systems approach to enable new levels of processing efficiency and performance,” said Winston Prather, vice president and general manager of HPC at HP. “As part of HP’s new HPC Accelerator program, we’re working closely with AMD and our customers to deliver an optimal mix of hardware innovation and open, collaborative development environments to ensure delivery of best-in-class HPC platforms.”
http://biz.yahoo.com/bw/071108/20071107006687.html?.v=1

CJ wijzigde deze reactie 08-11-2007 10:11 (7%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
u r late!

Modbreak:
Zeg dan niets :|

Pollewob wijzigde deze reactie 08-11-2007 11:24 (64%)


  • MensionXL
  • Registratie: juni 2004
  • Laatst online: 22:52

MensionXL

Optimaliseren!

Beter laat dan nooit :P

Gratis hardware! - Goedkoop bellen via VoIP


  • bartehv
  • Registratie: augustus 2007
  • Laatst online: 04-04-2011
Heb net een folder binnen van mycom en daar staat een 2900gt in voor 149,-
Is het verstandig om deze in crossfire te zetten samen met mijn 2900xt...

  • Waterpolo
  • Registratie: september 2007
  • Laatst online: 11-02 11:34
Inderdaad beter laat dat nooit, maar wederom weer een prachtige startpost. Maar gelukkig net op tijd want ik lees net op internet weer een hoop geruchten.

Laten we beginnen met het feit dat Salland Automatisering een tijd de HD3870 in hun prijslijst heeft gehad voor 249 euro. Naar mijn mening is deze prijs veel te hoog. Zeker als je dan de prestaties gaat vergelijken met de 8800GT (sorry, maar ik moet dit echt zeggen), hierdoor kan er al helemaal niet geconcurreerd worden op gebied van prijs/prestatie verhouding. Maar gelukkig is dit al weer van de site verwijderd, dus dit biedt nog hoop.

Daarnaast zou de launch inderdaad op 15 november zijn hier in Europa, alleen de HD3870 zou later komen omdat ATI zich eerst volledig op de HD3850 wil gaan richten. Echter aan wat voor tijdsbestek moet er dan gedacht worden? Gelukkig zijn de samples wel klaar en kunnen we dus wel reviews verwachten halverwege volgende week :D. Zelf zit ik namelijk echt op dit kaartjes te wachten als hij voor onder de 200 euro in de winkel komt te liggen.
quote:
bartehv schreef op donderdag 08 november 2007 @ 10:52:
Heb net een folder binnen van mycom en daar staat een 2900gt in voor 149,-
Is het verstandig om deze in crossfire te zetten samen met mijn 2900xt...
Persoonlijk denk ik niet dat dit verstandig is omdat de 2900GT niet dezelfde core heeft als de 2900XT, er zijn namelijk bepaalde delen uitgeschakeld voor zover ik weet. Waarschijnlijk kunnen andere dit je precies uitleggen, maar ik denk niet dat het gaat werken.

Waterpolo wijzigde deze reactie 08-11-2007 10:55 (20%)


  • GENETX
  • Registratie: juni 2005
  • Laatst online: 22:14
Over die HD 2900GT, heeft iemand benchmarks kunnen vinden? Heb even zitten zoeken maar niks kunnen vinden behalve plaatjes van de kaart... Ga binnenkort een systeempje samenstellen en van mij hoeven de games ook niet op ultra. Als het verschil met de HD 2900GT en HD3850 niet al te groot is, en vooral de prijs aardig afwijkt dan kan dat ook een leuk kaartje voor mij zijn daar ik eigenlijk allees ET:QW zal spelen de komende tijd.
De HD2900GT is vergelijkbaar in performance met een X1950Pro.

Firingsquad heeft in hun review van de GF8800GT ook een HD2900GT 256MB meegenomen in de test. Daarin zie je dat deze gelijk presteert aan een X1950Pro:

http://www.firingsquad.co..._gt_performance/page5.asp

De HD3850 presteert wel een flink stuk beter.

CJ wijzigde deze reactie 08-11-2007 11:04 (7%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • GENETX
  • Registratie: juni 2005
  • Laatst online: 22:14
Thx, dan valt de HD 2900GT dus af hier, had dat vermoeden al...

  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

Gister wat ophef bij FUD omdat salland een HD3870 voor 250 euro op de site had staan maar deze is weer verwijdert.

Zit trouwens een foutje in die aankondiging er staat ergens dat de kaart minder dan 1501 watt gebruikt :D mag ik wel hopen ja :P

Astennu wijzigde deze reactie 08-11-2007 11:10 (36%)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • The Source
  • Registratie: april 2000
  • Laatst online: 04-02 22:42
Een hele dag zonder een ATI topic dat open is, hoop dat een boel mensen op andere plekken stoom hebben kunnen afblazen, zal wel moelijk geweest zijn.

Anyway, ik heb de officiele prijzen doorgekregen en als alle geruchten kloppen over de tragere performance dan gaan we hier niet blij van worden. De prijs van een 3870 512 non OC ligt aanmerkelijk hoger ivm en 8800GT 512 non OC, zelfs hoger ivm een 8800GT 512 OC. Prijzen waar ik het over heb zijn de inkoop prijzen, dus ik zal vanavond even suggested retail prijs berekenen, heb ik van ATI nog niet gehoord. Maar of ze hebben nog een kaart in de mauw, of ze zijn zeer verkeerd bezig.

nVidia heeft deze week helemaal geen 8800GT's uitgeleverd, ik vermoed dat ze deze even opsparen zodat er over 2 weken erg veel stock in de markt gezet kan worden, zodat iedereen vergeet dat ATI ook een nieuwe kaart heeft. zo doet NV het wel meer.

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 16-02 13:36

Krizzie

Progressive Music \o/

quote:
Astennu schreef op donderdag 08 november 2007 @ 11:09:
Gister wat ophef bij FUD omdat salland een HD3870 voor 250 euro op de site had staan maar deze is weer verwijdert.

Zit trouwens een foutje in die aankondiging er staat ergens dat de kaart minder dan 1501 watt gebruikt :D mag ik wel hopen ja :P
Viel mij ook op inderdaad, maar je was me weer es voor. :P

Geluidswolk


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
CJ schreef op donderdag 08 november 2007 @ 10:11:
Newsflash: AMD lanceert FireStream processor gebaseerd op RV670 met double precision!


[...]


http://biz.yahoo.com/bw/071108/20071107006687.html?.v=1
Natuurlijk best leuk. Maar zoals ook terecht op B3d wordt opgemerkt, tegen welke performance? ;)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Waterpolo
  • Registratie: september 2007
  • Laatst online: 11-02 11:34
quote:
The Source schreef op donderdag 08 november 2007 @ 11:16:
Een hele dag zonder een ATI topic dat open is, hoop dat een boel mensen op andere plekken stoom hebben kunnen afblazen, zal wel moelijk geweest zijn.

Anyway, ik heb de officiele prijzen doorgekregen en als alle geruchten kloppen over de tragere performance dan gaan we hier niet blij van worden. De prijs van een 3870 512 non OC ligt aanmerkelijk hoger ivm en 8800GT 512 non OC, zelfs hoger ivm een 8800GT 512 OC. Prijzen waar ik het over heb zijn de inkoop prijzen, dus ik zal vanavond even suggested retail prijs berekenen, heb ik van ATI nog niet gehoord. Maar of ze hebben nog een kaart in de mauw, of ze zijn zeer verkeerd bezig.

nVidia heeft deze week helemaal geen 8800GT's uitgeleverd, ik vermoed dat ze deze even opsparen zodat er over 2 weken erg veel stock in de markt gezet kan worden, zodat iedereen vergeet dat ATI ook een nieuwe kaart heeft. zo doet NV het wel meer.
Dat wordt dan dus even afwachten op de reactie van ATI, maar als die inkoopprijzen boven de prijs van een 8800GT 512 OC komen te liggen dat moet of de perfomance enorm goed zijn of ze zijn zoals je al zegt enorm verkeerd bezig. Dit zou echter wel betekenen dat die prijs van de HD3870 bij Salland van gisteren nog niet eens zo vreemd is. Hopen op het eerste want anders zijn er toch veel mensen die toch een 8800GT (OC) aan gaan schaffen (hier ben ik dan er helaas 1 van).

Daarnaast is het op zich wel een slimme tactiek van NV omdat ze dan heel veel kaarten op de markt kunnen zetten op het moment dat de HD3850 en de HD3870 ook op de markt komen. Hierdoor zullen veel mensen toch een 8800GT kopen als blijkt dat de HD3870 niet op voorraad is als ze in de winkel komen.

Gaat toch eens stiekem kijken waar de MSI 8800GT OC of de EVGA 8800GT SC te verkrijgen is :$.

  • theroman
  • Registratie: januari 2002
  • Laatst online: 08-02 13:29
http://azerty.nl/producte.../58958/radeon-hd3850.html

Als dit de standaardprijs wordt voor de 3850, ligt de 3870 al gauw op hetzelfde prijsniveau als de 8800GT :?

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

@CJ:
Heb je het modelnummer van die Gigabyte kaart uit je SP gezien: GV-RX295P512 :D
2950 was dus ook volgens Gigabyte geen rare naam geweest 8)
quote:
The Source schreef op donderdag 08 november 2007 @ 11:16:
Anyway, ik heb de officiele prijzen doorgekregen en als alle geruchten kloppen over de tragere performance dan gaan we hier niet blij van worden. De prijs van een 3870 512 non OC ligt aanmerkelijk hoger ivm en 8800GT 512 non OC, zelfs hoger ivm een 8800GT 512 OC. Prijzen waar ik het over heb zijn de inkoop prijzen, dus ik zal vanavond even suggested retail prijs berekenen, heb ik van ATI nog niet gehoord. Maar of ze hebben nog een kaart in de mauw, of ze zijn zeer verkeerd bezig.
Prijs van Salland @249,- voor 3870 en 199,- voor 3850 is geen goed teken i.i.g.
Voor 199,- kun je al een GT512 bestellen (hoewel niet leverbaar momenteel :/).
Aan de andere kant spreekt Fudzilla van $179 voor de 3850.

Fudzilla schrijft het later lanceren van 3870 trouwens toe aan yields. In combinatie met het omlaaghalen van de reference kloksnelheden van zowel 3850 als 3870 lijkt dat me ook de meest logische conclusie.
Ziet er naar uit dat er aankomende paar weken niet echt veel 3870 vs GT battles in privehuizen uitgevochten kunnen gaan worden jammergenoeg.
quote:
nVidia heeft deze week helemaal geen 8800GT's uitgeleverd, ik vermoed dat ze deze even opsparen zodat er over 2 weken erg veel stock in de markt gezet kan worden, zodat iedereen vergeet dat ATI ook een nieuwe kaart heeft. zo doet NV het wel meer.
Ik hoop dat ze genoeg voorraad kunnen opbouwen, want door de shortage rijzen de prijzen links en rechts de pan uit. Het schijnt dat ze @ launch 20-50.000 stuks hebben gedistribueerd, maar die zijn inmiddels zo goed als overal op.
quote:
theroman schreef op donderdag 08 november 2007 @ 12:10:
http://azerty.nl/producte.../58958/radeon-hd3850.html
Als dit de standaardprijs wordt voor de 3850, ligt de 3870 al gauw op hetzelfde prijsniveau als de 8800GT :?
Da's al de 2e shop (na Salland) die de 3850 voor 199,- in de pre-order zet. Aint looking good.

Cheetah wijzigde deze reactie 08-11-2007 12:15 (8%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

Ik weet wel wat ik ga kopen als de HD3870 250 euro kost en langzamer is 8)7

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Woodsy
  • Registratie: juni 2005
  • Laatst online: 16-02 15:40
Ik wilde in mijn 2900 Pro een XT bios flashen, maar zit het verschil alleen in clocksnelheden?

Mijn 2900 Pro kan namelijk makkelijk op XT snelheden lopen, maar zijn er geen dingen als shaderclocks die anders lopen, want dit kan ik helaas niet testen dan? Of memorytimings?

  • MensionXL
  • Registratie: juni 2004
  • Laatst online: 22:52

MensionXL

Optimaliseren!

quote:
Astennu schreef op donderdag 08 november 2007 @ 12:13:
Ik weet wel wat ik ga kopen als de HD3870 250 euro kost en langzamer is 8)7
Een tuinkabouter? :?

Gratis hardware! - Goedkoop bellen via VoIP


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

Trouwens, hebben we met die Club3D 3850 van Azerty ook 't eerste factory overclocked kaartje?
quote:
Grafische engine: ATi Radeon 3850
Geheugen: 256 MB
Type geheugen: GDDR3
Engine kloksnelheid: 750 MHz
Geheugen kloksnelheid: 900 MHz
Onder non memory capped omstandigheden (geen bandbreedte en geheugengrootte limiet) zou zo'n kaartje 2900XT prestaties moeten kunnen neerzetten.
"Vreemde" is allleen dat Club3D volgens mij tot nu toe alleen stock referentiekaarten leverde...

Cheetah wijzigde deze reactie 08-11-2007 12:30 (31%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

quote:
* Jejking hapt: nee, een 8800GT512 >:)

Leuk dat dit topic weer open is. Jammer van de berichtgeving omtrent de prijzen. Hoe kan het dat ATi zo snel door de productieprocessen heenvliegt in plaats van de bestaande uitmelkt en er dingen aan toevoegt, ala nVidia? Die rende een hele tijd op 130, toen 110, 90nm na een flinke periode, en nu pas 65. Op zich een technologiebattle an sich, maar het kost veel verrottes veel R&D-kosten imho.
Is al een keer uitgelegd. Grote afnemer bij TSMC op nieuwe processen... korting. TSMC leert er van. AMD leert er van. Soms pakt het goed uit. Soms niet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
CJ schreef op donderdag 08 november 2007 @ 12:35:
Is al een keer uitgelegd. Grote afnemer bij TSMC op nieuwe processen... korting. TSMC leert er van. AMD leert er van. Soms pakt het goed uit. Soms niet.
De laatste paar jaar meer niet dan wel, tenminste zo lijkt het :/
Met de 9700/9800 en X800/X850 gingen ze nog voor de vertrouwde processen. Dat helpt blijkbaar wel om je kaarten op tijd en in grote getale te kunnen uitleveren (goede yields, meer controle over proces).

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Cheetah schreef op donderdag 08 november 2007 @ 12:46:
[...]
De laatste paar jaar meer niet dan wel, tenminste zo lijkt het :/
Met de 9700/9800 en X800/X850 gingen ze nog voor de vertrouwde processen. Dat helpt blijkbaar wel om je kaarten op tijd en in grote getale te kunnen uitleveren (goede yields, meer controle over proces).
Meer controle over proces :? Wat bedoel je hiermee?

Trouwens de kaarten uit de X800 waren ook niet allemaal op vertrouwde processen. Neem nou de X800XL ;) Wat een @%#$ kaart was dat zeg.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Dr.Trunks
  • Registratie: augustus 2004
  • Laatst online: 03-02 16:02

Dr.Trunks

Rationalist

De linkjes in je TS verwijzen nog naar het vorige deel ;)

Is er al nieuws over wanneer de volgende Ati kaarten uitkomen?
65nm en 55nm zien er wel goed uit op dit moment. 110nm was een tegenvaller. 90nm was redelijk succesvol. 130nm + low-k was ook wel vrij succesvol (meer voor de low-end/midrange dan highend).

Het is dus echt een mixed bag, maar gaat nu weer de goede kant op. Dat blijkt bijvoorbeeld uit het feit dat AMD aan de A11 revisie genoeg had voor de RV670.

150nm met de R3x0 reeks was natuurlijk wel een sterk staaltje. Niemand had verwacht dat ze er 412Mhz uit konden persen op dat proces (en velen klokten nog wel met gemak tot 450Mhz). Ik had toendertijd zelf ook maximaal 300 Mhz verwacht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
aca schreef op donderdag 08 november 2007 @ 12:53:
Meer controle over proces :? Wat bedoel je hiermee?
Over een bekend/vertrouwd productieproces heb je meer controle dan over een nieuw proces.
Kinderziektes en aanloopproblemen zijn al opgelost bij de 'oudere' productieprocessen.
quote:
Trouwens de kaarten uit de X800 waren ook niet allemaal op vertrouwde processen. Neem nou de X800XL ;) Wat een @%#$ kaart was dat zeg.
Ik had idd ivm X800/X850 Pro en XT erbij moeten zetten ;)
X800XL was toen ook op een nieuw procede (0,11 micron als ik me niet vergis).

Edit @CJ:
Het lijkt er op dat AMD ook niet echt mazzel heeft met 55nm. De oorspronkelijk beoogde snelheden voor RV670 lijken onvoldoende te worden gehaald. Bij een overgang van 80 -> 55nm mag je normaal gesproken toch wel hopen op een grotere speedbump dan die van 740 -> 775mhz... Ik had verwacht dat die 825mhz als stockspeed voor 3870 een eitje zou zijn, en wellicht nog juist opgetrokken zou worden.

Cheetah wijzigde deze reactie 08-11-2007 13:07 (24%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

quote:
Cheetah schreef op donderdag 08 november 2007 @ 12:25:
Trouwens, hebben we met die Club3D 3850 van Azerty ook 't eerste factory overclocked kaartje?
[...]
Onder non memory capped omstandigheden (geen bandbreedte en geheugengrootte limiet) zou zo'n kaartje 2900XT prestaties moeten kunnen neerzetten.
"Vreemde" is allleen dat Club3D volgens mij tot nu toe alleen stock referentiekaarten leverde...
Wel interessant. Want stock is 600 ? Ben benieuwd wat de HD3870 oc editions moeten halen. Ik moet met spoed twee kaartjes hebben. Anders worden het gewoon 2x HD3850. Dus hopelijk kan ik die volgende week krijgen.

Astennu wijzigde deze reactie 08-11-2007 13:10 (10%)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • WoutF
  • Registratie: maart 2000
  • Laatst online: 14-02 14:11

WoutF

Hoofdredacteur

Afwezig tot 18/2

CJ, heb jij hetzelfde gehoord over de niet zo competatieve prijzen van de 3800 serie?

  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Astennu schreef op donderdag 08 november 2007 @ 13:10:
[...]


Wel interessant. Want stock is 600 ? Ben benieuwd wat de HD3870 oc editions moeten halen. Ik moet met spoed twee kaartjes hebben. Anders worden het gewoon 2x HD3850. Dus hopelijk kan ik die volgende week krijgen.
Leuk ja, die warmte, stroomverbruik en relatief duur omdat je niet 2x de 100% performance eruit haalt. Ik had gewoon graag een dikke high end kaart gezien binnenkort maar die mogelijkheid is al ver weggelegd helaas...

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
maar goed dat die open is... bedankt,CJ >:)
http://www.forum-3dcenter...p?p=6008545&postcount=835

  • The_Ownman
  • Registratie: juli 2007
  • Laatst online: 01-10-2019
quote:
Ik snap het niet helemaal? Dat lijkt een "flyer" van AMD/ATI maar in het ene tabelletje staat HD3870 Memory Clock Speed 2.25GHz en in een tabelletje daaronder staat 1.2GHz GDDR4 wat uit moet komen op 2.4GHz, de beloofde snelheid. Of zijn het verschillende flyers waar AMD aan het draaikonten is?
quote:
WoutF schreef op donderdag 08 november 2007 @ 13:16:
CJ, heb jij hetzelfde gehoord over de niet zo competatieve prijzen van de 3800 serie?
Ik heb van AMD gehoord vanaf $149. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 03-02 17:00

Splinter Cell

AMD HD7850

CJ, ik heb even een vraagje, m.b.t. de drivers. Je zei dat 7.10 uit juni 2007 kwam. En dat 7.11 uit juli 2007 stamt. Hoe zit dat dan, met de performance, voor de recente games?

En gaat er een dikke tijd overeen, voordat het een beetje goed komt? Zoals met Crysis etc? Hoe moet ik dat precies zien. En waarom vijf maanden oude drivers? Of waren dit de eerste echte performance updates, die ze in de maand juni en juli hebben gemaakt, voor de HD 2900XT?

  • Meekoh
  • Registratie: april 2005
  • Laatst online: 20:33
quote:
Splinter Cell schreef op donderdag 08 november 2007 @ 14:09:
CJ, ik heb even een vraagje, m.b.t. de drivers. Je zei dat 7.10 uit juni 2007 kwam. En dat 7.11 uit juli 2007 stamt. Hoe zit dat dan, met de performance, voor de recente games?

En gaat er een dikke tijd overeen, voordat het een beetje goed komt? Zoals met Crysis etc? Hoe moet ik dat precies zien. En waarom vijf maanden oude drivers? Of waren dit de eerste echte performance updates, die ze in de maand juni en juli hebben gemaakt, voor de HD 2900XT?
De drivers zijn zo oud, omdat ze eerst door het WHQL proces bij Microsoft moeten gaan voordat ze goedgekeurd worden.

Computer says no


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Cheetah schreef op donderdag 08 november 2007 @ 13:02:
Over een bekend/vertrouwd productieproces heb je meer controle dan over een nieuw proces.
Kinderziektes en aanloopproblemen zijn al opgelost bij de 'oudere' productieprocessen.
Meer een zaak van TSMC dan van ATi, dunkt me. ATi zit wel met de gebakken peren ondertussen.
Dat dan weer wel.
quote:
Ik had idd ivm X800/X850 Pro en XT erbij moeten zetten ;)
X800XL was toen ook op een nieuw procede (0,11 micron als ik me niet vergis).
Door ontbreken van low-k toch een gemiste kans van TSMC zijde. Geen idee waarom ATi ook toen hun enthusiast kaart daarop maakte. Zal wel iets met te maken hebben met die kortingen :|
quote:
CJ schreef op donderdag 08 november 2007 @ 13:02:
65nm en 55nm zien er wel goed uit op dit moment. 110nm was een tegenvaller. 90nm was redelijk succesvol. 130nm + low-k was ook wel vrij succesvol (meer voor de low-end/midrange dan highend).

Het is dus echt een mixed bag, maar gaat nu weer de goede kant op. Dat blijkt bijvoorbeeld uit het feit dat AMD aan de A11 revisie genoeg had voor de RV670.
Dat een A11 revisie genoeg is komt meer doordat de RV670 een copy-paste is van de R600. Verder hebben ze misschien @ATi de clocks t zelfde gelaten om zo t re-design-tijd beperkt te houden. An sich geen slechte strategie aangezien je er aardig wat tijd mee wint. Aan de andere kant had ik wel op hogere clocks gehoopt. Ach jah, overclocken dan maar :P

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
Ati zal gek zijn nog veel r&d in de r6xyz-top te steken...
R700 all the way!

Die 3750 zou best goed kunnen scalen: dan koop je toch twee voor een prikkie - klaar

  • dreee
  • Registratie: oktober 2004
  • Laatst online: 19-10-2017
Erm, er moet toch nog 2 x een R670 op een PCB aka de R680 uitkomen, volgens Fudzilla rond 15de van deze maand geloof ik. Deze zou dan richting 8800 Ultra prijs moeten gaan. Zal eerder goedkoper zijn.

Eens kijken hoe die kaart het er van af gaat brengen.

En nog iets, Ik vind het maar vreemde tijden in gfx land, van beide kampen, kijk nou nvidia haar eigen GTX de markt uit stampen. Ze hebben gewoon alles op de naam 8800 gegooid. Werkt wel, everybody wants to have a 8800. De high end markt is veranderd, zal wel weer goed komen als AMD de kroon weer pakt, alleen hoeft het nog niet zo blijkbaar.
Hoe groot het aandeel is van MS en DX10 performance dat hier aan bijdraagt is, is ook af te vragen. Loopt letterlijk en figuurlijk nog steeds niet echt.

Wel lijkt het erop dat crysis nu een kantelpunt lijkt te creeren, best wel next-gen graphix en een nette engine qua performance in vergelijking met andere dx10 games. Alleen is DX10 nog niet interessant genoeg imo om allemaal over te moeten stappen.

De weg kwijt? Vind je zelf weer terug... --> Radio Paradise <--


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Er zijn weer wat slides gelekt. :9~

http://img138.imageshack.us/img138/319/200711086962539c7b5c082zr7.jpg

De rest hier

-Edit
quote:
CJ schreef op donderdag 08 november 2007 @ 15:09:
512-bits -> 256-bits memory controller
1024-bits -> 512-bits ringbus controller
DX10.0 -> DX10.1
geen UVD -> UVD
720M transistors -> 666M transistors
80nm -> 55nm

Allemaal dingen die ingrijpende veranderingen zijn... Dat laatste is dus zelfs een volledige productieproces genereratieverschil... dus geen simpele die-shrink waar je dezelfde libraries van kan gebruiken...
Dat laatste ben ik wel met je eens alhoewel ze wel ervaring hebben met 0.065u, maar voor de rest.... Het overtollige gedeelte van de R600 verwijderd en UVD van de low/mid end van de HD2k erbij geplakt. Hoeveel de hardware veranderd moest worden om er DX10.1 van te maken heb ik niet echt een kijk op, maar ik kan mij eigenlijk niet voorstellen dat er veel voor gedaan moet worden. Nou ja, misschien horen we ooit nog wel eens wat de redenen zijn dat A11 een direct hit was.

aca wijzigde deze reactie 08-11-2007 15:26 (70%)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla

quote:
aca schreef op donderdag 08 november 2007 @ 14:33:
Dat een A11 revisie genoeg is komt meer doordat de RV670 een copy-paste is van de R600.
:X

512-bits -> 256-bits memory controller
1024-bits -> 512-bits ringbus controller
DX10.0 -> DX10.1
geen UVD -> UVD
720M transistors -> 666M transistors
80nm -> 55nm

Allemaal dingen die ingrijpende veranderingen zijn... Dat laatste is dus zelfs een volledige productieproces genereratieverschil... dus geen simpele die-shrink waar je dezelfde libraries van kan gebruiken...

Copy + Paste? Dacht het niet.

CJ wijzigde deze reactie 08-11-2007 15:10 (5%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

De mensen met een Dual core p4 of X2 AGP zullen nog wel blij zijn als die HD3850 kaartjes in AGP uitkomen :) misschien koop ik er nog wel een voor de pc van me pa. Of ik moet mijn pc doorschuiven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Taenadar
  • Registratie: januari 2004
  • Laatst online: 21:36
Wel vreemd, de 8800gt verbruikt 105 watt en de 3870 ook. Maar de 3870 is op 55nm. Zit hier misschien ook nog verschil in berekening van het aantal watt?

-als de waardes kloppen natuurlijk

Taenadar wijzigde deze reactie 08-11-2007 15:46 (11%)


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

Today is RV670 play time, testexamplaren zijn toegekomen.

It takes two fools to argue.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

Ah nice maar je mag zeker niets zeggen tot de 15e ? mag je misschien wel zeggen of de performance tegenvalt tegeven over de GT ? of schend je de NDA dan ook ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

quote:
Astennu schreef op donderdag 08 november 2007 @ 15:51:
Ah nice maar je mag zeker niets zeggen tot de 15e ? mag je misschien wel zeggen of de performance tegenvalt tegeven over de GT ? of schend je de NDA dan ook ?
Net zoals de G80 een jaar geleden zal ik wat resultaten posten ;)

It takes two fools to argue.


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 16-02 07:55
quote:
CJ schreef op donderdag 08 november 2007 @ 15:09:
[...]


512-bits -> 256-bits memory controller
1024-bits -> 512-bits ringbus controller
hieruit kunnen we ook wel concluderen dat de 512bit bus, en een 1024bit ringbus meer een checkbox-feature is geweest....zelfde bij nvidia met hun 384bit >256 bit

  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

quote:
Hacku schreef op donderdag 08 november 2007 @ 15:56:
[...]


Net zoals de G80 een jaar geleden zal ik wat resultaten posten ;)
dankje :> _/-\o_ _/-\o_ _/-\o_ Wanneer kunnen we ze verwachten :D

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Taenadar
  • Registratie: januari 2004
  • Laatst online: 21:36
Hopelijk komen er ook snel pre-orders in de verschillende webshops. Dan kan ik mijn bestelling teminste definitief plaatsen.

Go hacku :D

  • Raven
  • Registratie: november 2004
  • Niet online

Raven

Marion Raven fan

quote:
Astennu schreef op donderdag 08 november 2007 @ 15:33:
De mensen met een Dual core p4 of X2 AGP zullen nog wel blij zijn als die HD3850 kaartjes in AGP uitkomen :) misschien koop ik er nog wel een voor de pc van me pa. Of ik moet mijn pc doorschuiven.
dat zou heel mooi zijn ja :)

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


  • WoutF
  • Registratie: maart 2000
  • Laatst online: 14-02 14:11

WoutF

Hoofdredacteur

Afwezig tot 18/2

quote:
Hacku schreef op donderdag 08 november 2007 @ 15:56:
[...]


Net zoals de G80 een jaar geleden zal ik wat resultaten posten ;)
Ik ben heel benieuwd! :) Heb je een 8800GT om 'em mee te vergelijken?

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

It takes two fools to argue.

quote:
Mr. Detonator schreef op donderdag 08 november 2007 @ 16:01:
[...]


hieruit kunnen we ook wel concluderen dat de 512bit bus, en een 1024bit ringbus meer een checkbox-feature is geweest....zelfde bij nvidia met hun 384bit >256 bit
Nee. Geen checkbox feature. Maar dat heb ik in een vorig deel al uitgelegd.

Zowel NV als AMD doen niet met opzet miljoenen extra transistors in een GPU alleen maar als "checkbox-feature".

CJ wijzigde deze reactie 08-11-2007 16:42 (13%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Revolver2006
  • Registratie: april 2007
  • Laatst online: 01-06-2009
Ben voornamelijk benieuwd naar de HD3870 X2. Heb op diverse sites gelezen dat de r680 nog dit jaar op de markt komt. Als dat zo is laat ik de 15e aan me voorbij schieten... :9~

http://www.pcmweb.nl/artikel.jsp?id=2203741

Revolver2006 wijzigde deze reactie 08-11-2007 16:36 (11%)


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

pcm vertaalt meestal brak, van wat ik begrepen heb is dat AMD de R680 nog dit jaar wil demonstreren, maar de introductie is sowieso voor volgend jaar.

It takes two fools to argue.


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 03-02 17:00

Splinter Cell

AMD HD7850

De drivers voor 3800, zijn nog niet online, maar staan al wel, in het download menu:

http://www.sapphiretech.com/us/

  • edward2
  • Registratie: mei 2000
  • Laatst online: 20:22

edward2

Schieten op de beesten

quote:
Hacku schreef op donderdag 08 november 2007 @ 15:49:
Today is RV670 play time, testexamplaren zijn toegekomen.
Nice. Kan je ook een vergelijk maken met de HD2900XT? Ben benieuwd of de zwaktes wat zijn opgelost mbt HW AA.

Maximum IQ


  • elmystic
  • Registratie: mei 2007
  • Laatst online: 27-02-2012
yep hopelijk, dan zou het kaartje redelijk stukken aantrekkelijker worden. :) een echte high-end kaart die alles aankan ^^. prijs/prestatie zal die wel in orde zijn denk ik

  • Woutoud
  • Registratie: februari 2006
  • Laatst online: 16-02 13:27

Woutoud

Moderator Foto & Video

P/√P

High-end issie niet hè, RV(value)670...

Woutoud.com

quote:
Icec_Old schreef op donderdag 08 november 2007 @ 17:02:
High-end issie niet hè, RV(value)670...
Het zal wel even duren voordat sommige mensen door hebben dat de RV670 geen highend kaart is, maar de opvolger van de RV670 in hetzelfde prijsklassegment. Zelfs al staat het duidelijk in de first post vermeld... ;)

Oh, R680 launch staat voorlopig op 7-11 Januari bij CES 2008 geloof ik. Dit kan nog veranderen. De R680 wordt al wel ondersteunt in de drivers, dus ze zijn druk aan het testen (single setup, maar ook dual setup voor Quad CrossFire).

CJ wijzigde deze reactie 08-11-2007 17:20 (22%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
maar wel high-end prestaties (R600) :)

|2600k|Asus 290|


  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

het leuke van die R680 is wel dat mensen met crossfire waarschijnlijk ook performance boosts krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
CJ schreef op donderdag 08 november 2007 @ 17:10:
Het zal wel even duren voordat sommige mensen door hebben dat de RV670 geen highend kaart is, maar de opvolger van de RV670 in hetzelfde prijsklassegment. Zelfs al staat het duidelijk in de first post vermeld... ;)
Waaraan meet je high-end dan af? Core-codenaam, prijs of prestaties? Ik zeg: het laatste ;)
RV670 is wat dat betreft dus net zo (of zelfs meer) 'high-end' als R600...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 16-02 07:55
quote:
Astennu schreef op donderdag 08 november 2007 @ 18:00:
het leuke van die R680 is wel dat mensen met crossfire waarschijnlijk ook performance boosts krijgen.
dat is nog maar de vraag...want quad-sli is ook nooit echt wat geworden qua performance
Ik meet high-end af zoals AMD dat voor zichzelf heeft gedefinieerd. Ze hebben hun eigen producten in verschillende prijsklassen gepositioneerd. RV670 is mainstream met de performance van hun vorige high end. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Mr. Detonator schreef op donderdag 08 november 2007 @ 18:15:
[...]


dat is nog maar de vraag...want quad-sli is ook nooit echt wat geworden qua performance
Ik vind het geldverspilling want je 2e kaart wat je erbij zet, wordt op z'n hoogst 50% boost uitgehaald. Gooi je dus een hoop euro's weg. Doe mij maar 1 dikke kaart....

  • MauSS
  • Registratie: juni 2005
  • Laatst online: 14-08-2019
quote:
Revolver2006 schreef:
Ben voornamelijk benieuwd naar de HD3870 X2. Heb op diverse sites gelezen dat de r680 nog dit jaar op de markt komt. Als dat zo is laat ik de 15e aan me voorbij schieten... :9~
http://www.pcmweb.nl/artikel.jsp?id=2203741
PCM: "AMD zal de R680 vermoedelijk niet al op 19 november laten zien, maar de kans is groot dat de kaart voor de kerst in de winkel ligt."

Interessant nieuws vind ik! hopelijk kunnen ze het waarmaken!
Ik weet al wat mijn kerst-cadeautje wordt :*)
(en dan verhuisd de HD3870 naar m'n 2e pc)
quote:
Hacku schreef:
pcm vertaalt meestal brak, van wat ik begrepen heb is dat AMD de R680 nog dit jaar wil demonstreren, maar de introductie is sowieso voor volgend jaar.
hmmm... hopelijk komt hij dan toch nog vrij snel...!
quote:
Mr. Detonator schreef 18:33:
waaruit concludeer jij dat de r680 een 3870 x2 is ??

misschien is het wel een 3850 x2... of een nog lager geklokte versie, wat me waarschijnlijker lijkt
Lijkt mij niet waarschijnlijker,
want hij moet sneller worden dan de 8800Ultra en dat ga je niet redden met 2 x een 3850 ;) (denk ik) het ligt meer voor de hand dat ze een gepimpte 3870 gebruiken.


Weet iemand trouwens of de Thermalright HR-03 / R600 zal gaan passen op een RV670 ?
(ik denk persoonlijk van wel maar je weet 't nooit in videokaart land...)

MauSS wijzigde deze reactie 08-11-2007 18:57 (48%)

A world without gadgets is no world ;)


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 16-02 07:55
quote:
Revolver2006 schreef op donderdag 08 november 2007 @ 16:34:
Ben voornamelijk benieuwd naar de HD3870 X2.
waaruit concludeer jij dat de r680 een 3870 x2 is ??

misschien is het wel een 3850 x2... of een nog lager geklokte versie, wat me waarschijnlijker lijkt

  • Taenadar
  • Registratie: januari 2004
  • Laatst online: 21:36
club3d 3850 op azerty

Als je de specs vergelijkt met dan zit er toch wat verschil in....

http://img138.imageshack.us/img138/2912/200711086ce59cee982e351xl8.jpg

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
MauSS schreef op donderdag 08 november 2007 @ 18:26:
[...]

PCM: "AMD zal de R680 vermoedelijk niet al op 19 november laten zien, maar de kans is groot dat de kaart voor de kerst in de winkel ligt."
Dat zou de eerste goede zet zijn van de afgelopen anderhalf jaar, en hiermee bedoel ik een goede kaart launchen op het goede moment én op tijd.

En daarom geloof ik er ook niet in, dat is namelijk niets voor Ati. :+ Ain't gonna happen boys. :)

Apple|IA wijzigde deze reactie 08-11-2007 18:45 (5%)


  • Aries.Mu
  • Registratie: maart 2004
  • Laatst online: 14-02 12:13
Damn damn damn, Aries.Mu wants a new pc so badly :)

Ik zit hier al een uur te droelen op de fotos van de HD3850 en HD3870, en hoop stiekem dat ie heel erg ver overklokt en de 8800GT asskicked 8)

Effe serieus, wanneer kunnen we benchmarks verwachten?

iPhone 6s


  • Apoca
  • Registratie: november 2001
  • Laatst online: 16-02 12:03

Apoca

Array Technology Industry

Hacku zal een enkele teasers posten met waarde zei die. Maar dit zal erg oppervlakkig zijn, omdat zoiets gelijk over het gehele i-net gepost zal worden in allemaal fora en frontpages.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Nutral
  • Registratie: mei 2005
  • Laatst online: 16-02 15:19

Nutral

gamer/hardware freak

de HD3870 is niet zoveel beter is dan de 2900xt, ik kan mijn 2900xt vrij makkelijk overklokken naar de 830mhz, maar ik weet niet hoeveel perfromance je daarvan krijgt.

  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 16-10-2019
Buiten de 110% HD2900XT snelheid, minder stroom, goedkoper, UVD, DX10.1 etc. is de HD3870 inderdaad niet veel beter. :+

Indy91 wijzigde deze reactie 08-11-2007 20:41 (3%)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 03-02 17:00

Splinter Cell

AMD HD7850

quote:
yasinhm schreef op donderdag 08 november 2007 @ 20:13:
de HD3870 is niet zoveel beter is dan de 2900xt, ik kan mijn 2900xt vrij makkelijk overklokken naar de 830mhz, maar ik weet niet hoeveel perfromance je daarvan krijgt.
Ik wacht de benchmarks wel af. Voordat ik conslusies ga lopen roepen. :).

  • The Source
  • Registratie: april 2000
  • Laatst online: 04-02 22:42
De RV670 wordt een erg interessante kaart spec wise, preformance wise en powerconsumption wise. Enige vraag is hoe gaat hij het doen tov de NV tegenhangers en hoe goed kan AMD de voordelen gebruiken in haar marketing.

NV Q3 financiele resultaten zijn zojuist bekend gemaakt, ze hebben weer een nieuw record kwartaal gedraaid.

  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
hey source, jij zou die rv670 kaarten vorige week toch al binnen krijgen om te kunnen testen?

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
@The Source, verwacht je veel stock van ze?
De containers moeten dan toch al varen of komt het spul gevlogen?

  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

The Source weet veel maar hij verteld alleen maar dingen die hij mag vertellen. Hij zal ook niet zo maar scores lekken :) Maar we krijgen wel veel handige dingen van hem te weten.

Ben al bezig om te proberen een HD3870 @ launch te krijgen. Maar de prijzen die ik tot nu toe zie zijn erg hoog. 200 euro voor een HD3850 die lang niet zo snel is als een 8800 GT maar tot nu toe nog wel even duur. Mja tis pre order zodra ze echt te koop zijn zullen die prijzen wel zakken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Phyxion
  • Registratie: april 2004
  • Laatst online: 08-02 16:27

Phyxion

_/-\o_

quote:
CHH has seen the R680 card sample already. According to them, the card is very long as there are 2 GPUs on a PCB. Cooler looks like 2900XT but the fins are separated into 2 parts. We should see them by next year Chinese new year.
http://forums.vr-zone.com/showthread.php?t=202431
quote:
Upcoming R680, dual-RV670 board in its GPGPU form will be able to host 4GB of local memory, and should be able to pass the magical 1TFLOPS barrier. µ
http://forums.vr-zone.com/showthread.php?t=202427

'You like a gay cowboy and you look like a gay terrorist.' - James May

quote:
yasinhm schreef op donderdag 08 november 2007 @ 20:13:
de HD3870 is niet zoveel beter is dan de 2900xt, ik kan mijn 2900xt vrij makkelijk overklokken naar de 830mhz, maar ik weet niet hoeveel perfromance je daarvan krijgt.
De RV670 is klok voor klok net zo snel als een R600 ondanks de kleinere memory bus. Dus als je een HD2900XT overklokt zal je ongeveer kunnen wel inschatten wat je kan verwachten van een HD3870 waar een adviessnelheid van minimaal 775Mhz voor staat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • InfinityG35
  • Registratie: oktober 2005
  • Laatst online: 10-02 20:42
Leaked ATi HD3800 series sheets:

http://forums.vr-zone.com/showthread.php?t=202421

ziet er toch wel interessant uit hoor, veel stiller, de helft van het verbruik van een HD2900XT.

Tevens zeggen de sheets dat de HD3870 5% meer 3DMarks scoort in 2006.
De HD3850 zit op ongeveer 90% van de 2900XT.

Ben erg benieuwd, eindelijk weer eens goed nieuws voor de ATi-liefhebbers 8)

3770K@4.2 1.05v, Gigabyte Z77X-UD3H , 16Gb GSkill PC1866, Gigabyte GTX1070, Samsung 840Pro, Seasonic G550


  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
(CF) benchmarks! >:) => vanaf #903
(te veel voor copy/pasten...)
http://www.forum-3dcenter...read.php?t=387158&page=46

  • dreameater
  • Registratie: januari 2005
  • Laatst online: 22:33

dreameater

TOET'NKEAL ONIE DA!

quote:
Als dit waar is .... moet ik mijn 2900 XT meteen verkopen.. mag ik blij zijn als ik er nog 200 euro voor krijg :O

вɑʗ₭ ıƝ Ϯһㅌ ₲яıÐ


  • Astennu
  • Registratie: september 2001
  • Laatst online: 16-02 04:37

Astennu

-= RX 5700 XT 50th =-

Ziet er goed uit. Jammer genoeg geen 8800 GT in de vergelijking. Maar die HD3850 doet het goed in het segment van de HD2600 en 8600GTS mja dat is ook niet echt raar :) Maar wel bijna even duur.

Multi GPU overcloking met CCC uhmmm ben benieuwd of het werkt. Zou ik wel happy mee zijn :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 03-02 17:00

Splinter Cell

AMD HD7850

http://img140.imageshack.us/img140/5628/image3cp7.jpg

http://img140.imageshack.us/img140/3342/image4xr5.jpg

  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 14-02 18:51

Gurneyhck

>Sandy Bridge<

quote:
Ziet er wel goed uit, ben benieuwd naar de uiteindelijke prijs waarvoor je hem uiteindelijk over een maand ofzo kan kopen. nVidia gaat hier niets tegen hebben... :)
Overigens vreemde scores bij crysis. Ze zeggen bijvoorbeeld dat ze die ook in SLI/Crossfire hebben getest. Maar SLI werkt nog helemaal niet! Bij het inschakelen van SLI in crysis krijg je net zo veel of minder FPS dan met één kaart. Terwijl hier de 8600GTS er hier 4 FPS op vooruit gaat. Sowieso een vrij hoge score. Crysis in DX10 mode (dus alles very high...) @ 1600x1200 en dan nog een FPS met de 8600GTS van 24 en de HD3850 haalt er zelfs 28.1. Als crosfire wel goed werkt op Crysis (dat weet ik niet) dan zou dat nog wel kunnen.

Asrock P67 Extreme4 | Core i5 2500K@4.45GHz | Corsair Vengeance CMZ8GX3M2A1600C9 (4x4GB@1866MHz) | AMD R290X | Dell 2709w 27" 1920x1200 + 2x Eizo S2100 1600x1200 | Samsung EVO SSD 250GB | 2x Samsung F3 1TB | Asus Phoebus


  • waterking
  • Registratie: juli 2005
  • Laatst online: 22-11-2019
Die tabellen geven een vertekend beeld, als je goed leest zie je dat het vaak maar 2 frames scheelt terwijl die balk helemaal doorloopt. Maar hij is iig sneller als de 2900xt dat is al een hele prestatie !

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 03-02 17:00

Splinter Cell

AMD HD7850

quote:
waterking schreef op vrijdag 09 november 2007 @ 12:33:
Die tabellen geven een vertekend beeld, als je goed leest zie je dat het vaak maar 2 frames scheelt terwijl die balk helemaal doorloopt. Maar hij is iig sneller als de 2900xt dat is al een hele prestatie !
Ja dat wou ik net zeggen. Vier hokjes overslaan, voor 4 frames.

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
dreameater schreef op vrijdag 09 november 2007 @ 11:52:
Als dit waar is .... moet ik mijn 2900 XT meteen verkopen.. mag ik blij zijn als ik er nog 200 euro voor krijg :O
Kijk naar de daadwerkelijke fps in plaats van naar de balken. De schaal klopt niet.

http://img148.imageshack.us/img148/6932/200711094eab719d5ee22d6aa2.jpg

Kan aan mij liggen, maar ik ben niet echt onder de indruk.
UT3 en WiC daar gelaten scheelt de perf. zo goed als nix met de 2900XT... en zelfs die 2 games laten in werkelijkheid niet meer dan een 20% performanceverschil zien in AMD's eigen charts (ben wel benieuwd waar die bump vandaan komt overigens).
CoJ en CoH zijn precies in lijn met die 5% clockspeedbump, maar de 2 AA/AF benchmarks geven weinig hoop voor de AA performance: daar wordt zelfs verloren van de 2900XT.

Het is leuk voor 't beoogde prijspeil (naar ik hoop dus niet 249,- Euro), maar dit is performancewise absoluut geen uitdaging voor de 8800GT... naar wat ik uit de review van driverheaven kan opmaken kan een single GT in diverse games de 3870 in CF verslaan mits bovenstaand klopt...

Cheetah wijzigde deze reactie 09-11-2007 13:17 (38%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Pubbert
  • Registratie: juni 2002
  • Laatst online: 14-02 22:36

Pubbert

random gestoord

quote:
Cheetah schreef op vrijdag 09 november 2007 @ 12:56:
[...]
Kijk naar de daadwerkelijke fps in plaats van naar de balken. De schaal klopt niet.

[afbeelding]
ooh wat erg, maargoed dat nvidia dit nooooit doet :7

Bij onze leverancier staan van Club3D een 3850 en een 3870 in de lijst: 3850 voor 119 ex, 3870 voor 179 ex. (inkoopsprijzen dus)

Wel een duidelijk rood uitroepteken dat de prijzen niet definitief ijn, en dat ze over een week leverbar zijn.

Pubbert wijzigde deze reactie 09-11-2007 14:12 (25%)

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Thund3r schreef op vrijdag 09 november 2007 @ 14:06:
ooh wat erg, maargoed dat nvidia dit nooooit doet :7
Zeer nuttige troll. Natuurlijk doet nV dat ook. Kijk maar in de startpost. Grappig dat daar toen wel een bak kritiek op kwam (ook van mijzelf overigens) :)

Maargoed, wel weer jammer dat zo wordt omgesprongen met de aanmoediging om naar de fps i.p.v. naar de balken te kijken. Was een volkomen terechte opmerking toch, of niet?
De schaal op de onderas klopt zelfs letterlijk niet (er heeft iemand lopen crappen met Excel en .05)

Cheetah wijzigde deze reactie 09-11-2007 14:17 (9%)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Sig000
  • Registratie: augustus 2005
  • Laatst online: 11-05-2013
quote:
Thund3r schreef op vrijdag 09 november 2007 @ 14:06:
[...]


ooh wat erg, maargoed dat nvidia dit nooooit doet :7
Die brengen op 't laatste moment een kaart uit met goede performance maar de levensduur?

  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt


  • GENETX
  • Registratie: juni 2005
  • Laatst online: 22:14
Nouja, die balken kloppen prima, je kan precies zien hoeveel % sneller/trager de nieuwe kaart is tov de oude. Ok, op deze manier scores laten zien is niet gebruikelijk, maar als vergelijking tov de oude kun je direct zien waar veel winst is geboekt...

  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 16-02 07:55
quote:
GENETX schreef op vrijdag 09 november 2007 @ 14:15:
Nouja, die balken kloppen prima, je kan precies zien hoeveel % sneller/trager de nieuwe kaart is tov de oude. Ok, op deze manier scores laten zien is niet gebruikelijk, maar als vergelijking tov de oude kun je direct zien waar veel winst is geboekt...
http://img204.imageshack.us/img204/6585/200711096cb5ec8caddd6aepz4.jpg

http://img148.imageshack.us/img148/6932/200711094eab719d5ee22d6aa2.jpg
waar zit die winst dan, want zo te zien is het AA probleem niet opgelost ?

Mr. Detonator wijzigde deze reactie 09-11-2007 14:19 (14%)


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 03-02 17:00

Splinter Cell

AMD HD7850

quote:
GENETX schreef op vrijdag 09 november 2007 @ 14:15:
Nouja, die balken kloppen prima, je kan precies zien hoeveel % sneller/trager de nieuwe kaart is tov de oude. Ok, op deze manier scores laten zien is niet gebruikelijk, maar als vergelijking tov de oude kun je direct zien waar veel winst is geboekt...
Je kijkt toch naar de cijfertjes, en niet naar de balken? Je gaat toch niet voor vier frames verschil, vier hokjes naar voren? Dit doe je alleen als het 2x zo snel is. En dan zijn de frames er ook naar.

Splinter Cell wijzigde deze reactie 09-11-2007 14:28 (4%)


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Zie post Joepi boven je. Daar hebben we 't al de hele tijd over :P
quote:
Waarden op de onderas zijn niet goed.
Iemand weet niet hoe Excel met .x5 waarden omgaat (die worden omhoog afgerond nl).

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

Als ik zo vergelijk met de 8800gt in sli en de hd 3870 in crossfire. Is de gt net iets sneller in 3dmark06 vooral sm2 en sm3. Maar goed ik kan niet zeggen of de benchmarks kloppen die gelekt zijn.

Ludwig83 wijzigde deze reactie 09-11-2007 14:23 (22%)

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is GoT en geen kleuterschool... dus:

- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True