Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 78 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 9.242 views sinds 30-01-2008
http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
 

NOTE: Vragen over de HD3800 serie? That way please ----> Het HD38xx Ervaringen Topic . Wil je direct door naar de reviews over de HD3800 serie? Klik dan HIER!

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu een divisie is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 23 Januari - HD3870X2 Reviews toegevoegd
  • 18 December - HD3650, HD3470, HD3450 info toegevoegd
  • 26 November - First Post Update: Reviews HD3800
  • 8 November 2007 - Update over stock & allocation bij launch
  • 30 Oktober 2007 - First Post Update
  • 19 Oktober 2007 - FAQ geupdate over AA
  • 10 Oktober 2007 - Launch Date RV670 Toegevoegd ;)
  • 11 September 2007 - Game.amd.com toegevoegd en Catalyst links gewijzigd
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://img150.imageshack.us/img150/9367/atitopictopicregelsld3.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://img360.imageshack.us/img360/702/atitopictopicnavigatiesr2.jpg
http://img390.imageshack.us/img390/4301/atitopictopicgeschiedenav9.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70


http://img360.imageshack.us/img360/8606/atitopichd3800ji5.jpg


http://img90.imageshack.us/img90/1838/hd3870kk9.jpg


Op 15 November lanceerde AMD de ATI Radeon HD3800 serie. Deze serie is gebaseerd op de RV670 GPU. Met de komst van de ATI Radeon HD3800 serie vaart AMD ook meteen een nieuwe koers wat betreft de naamgeving. Daar waar vroeger de extensies GT, GTO, Pro, XL, XT en XTX gebruikt werden om de prestaties aan te duiden van de desbetreffende modellen, gebruikt AMD nu de laatste twee cijfers van de serie nummer om de prestaties aan te geven. De extensies vervallen dus volledig. Er zijn 2 modellen beschikbaar:

- ATI Radeon HD3870 (voorheen XT)
- ATI Radeon HD3850 (voorheen Pro)

Als derde variant op de RV670 zat AMD te spelen met de naam "ATI Radeon HD3830". Dit zou een kaart zijn met 240 streamprocessors, maar AMD heeft laten weten dat men de plannen voor deze kaart voorlopig in de ijskast heeft gezet.

De ATI Radeon HD3870 en ATI Radeon HD3850 onderscheiden zich van elkaar wat betreft de kloksnelheden van de core en het geheugen. Voor de rest zijn ze identiek.

Bedenk je wel... De ATI Radeon HD3800 Serie is niet de highend serie van AMD. Deze zal gevuld worden door een nieuwe serie die in het eerste kwartaal van 2008 gelanceerd wordt en gebaseerd zal zijn op de R680! De R680 kan je omschrijven als 2x een RV670 op 1 PCB.

De ATI Radeon HD3800 Serie heeft als hoofddoel om veel performance + features voor weinig geld met een laag stroomverbruik naar een grote massa te brengen. De meeste mensen zullen de ATI Radeon HD3800 serie vergelijken met de GF8800GT van de concurrentie. Deze G92 chip in die kaart is zo'n 73% groter dan de RV670, verbruikt meer stroom en wordt warmer. AMD heeft dus verschillende mogelijkheden om deze concurrentie te lijf te gaan, bv het omhoog gooien van de kloksnelheden of het omlaag gooien van de prijs. Dat ze hier niet voor schromen blijkt uit de positionering van de ATI Radeon HD2000 serie. Het verschil is nu echter dat de marges bij de nieuwe AMD serie een stuk hoger liggen. Dus AMD heeft de mogelijkheid om de prijzen verder omlaag te drukken dan nVidia dat kan zonder dat ze zichzelf pijn gaan doen. De goedkoopste HD3850 is al rond de €140 te krijgen, terwijl de goedkoopste HD3870 al rond de €160 over de toonbank gaat.

http://img360.imageshack.us/img360/9117/atitopichd3800namecs3.jpg

De ATI Radeon HD3800 Serie presteert iets beter dan de ATI Radeon HD2900 Serie, ondanks dat het hier gaat om een RVxxx GPU. RVxxx GPUs zijn GPUs die gemaakt zijn voor de lowend en mainstream. De V staat voor Value. De koers die AMD nu vaart met de nieuwe GPUs is die van "beste performance per prijs per watt" oftewel... de beste bang-for-buck.

http://img84.imageshack.us/img84/7973/hd3850xl2.jpg


Hoe kan het dat een Value GPU beter presteert dan een highend GPU in dezelfde serie? Dat komt door interne tweaks en voornamelijk door de hogere snelheid. De ATI Radeon HD3800 presteert iets beter dan de ATI Radeon HD2900 serie.

Waarom is er dan niet gekozen voor de naam ATI Radeon HD2950, maar wel voor de naam ATI Radeon HD3800? Dit komt omdat alle kaarten uit de ATI Radeon HD2000 serie DirectX10.0 ondersteunen. Alle kaarten van de HD3000 serie ondersteunen DX10.1 en PCI Express 2.0! Om het verschil aan te geven en geen overlappende kaarten met afwijkende technieken binnen dezelfde serie te hebben, heeft AMD eindelijk eens gekozen voor duidelijkheid. De ATI Radeon HD3000 Serie markeert dus het feit dat alle kaarten binnen de serie dezelfde functionaliteit bezitten. Voorheen liepen er wel eens kaarten door elkaar heen, zo waren de Radeon 9000 en 9100 DirectX 8.1 kaarten, terwijl de rest uit de 9000 serie volledig DX9.0 compliant waren.

Marketingtechnisch gezien zitten er natuurlijk ook voordelen aan het kiezen van een nieuw beginnummer. De HD2000 Serie was laat op de markt in vergelijking tot de competie en kreeg veel gemengde recensies. Door een nieuw nummer te kiezen, creeert AMD het gevoel dat ze met een schone lei beginnen en het oude achter zich laten. En de consument valt helaas vaak nog voor het "hoger is beter"-principe.

http://img214.imageshack.us/img214/3082/atitopicdirectx101vt6.jpg

Wat biedt DirectX 10.1 boven DX10.0? DirectX 10.1 biedt in het kort gezegd de volgende belangrijke zaken:
  • nieuw shadermodel 4.1
  • verbeterde anti-aliasing ondersteuning
  • flexibelere data toegang
  • striktere specificaties voor betere applicatie compatibileit
Deze features maken het mogelijk dat spannende nieuwe technieken zoals real-time global illumination sneller mogelijk zijn dan met DirectX 10.0. De efficientie ligt dus hoger, maar ook de beeldkwaliteit zal door de strictere regels en verhoogde precisie beter zijn.

Daarnaast brengt DirectX10.1 wat verbeteringen op het gebied van geluid en multi-core CPUs, maar aangezien dit topic over de ATI Radeons gaat, beperk ik me in de uitleg tot de verbeteringen voor GPUs.

De ATI Radeon HD3800 Serie is de allereerste GPU ter wereld die vanaf de grond op voor DirectX 10.1 is gebouwd. Daarnaast bevat de nieuwe serie andere technieken en standaarden zoals PCI Express 2.0, Unified Video Decoder (UVD), hardware accelerated tessellation en een zeer stroom efficient 55nm transistor design (inclusief de mobiele powersavings technlogie Powerplay).
http://img360.imageshack.us/img360/8105/atitopicdxoverzichtmx2.jpg

DirectX 10.1 volgt over het algemeen de structuur en het programmeermodel van DirectX10, maar biedt dus verscheidene verbeteringen. De vertex, geometry en pixelshader instructiesets zijn opgewaardeerd naar Shader Model 4.1. De nieuwe features van DX10.1 kan je het beste onderverdelen in 3 algemene categorieen:

- Nieuwe shading en texturing mogelijkheden
- verbeterde anti-aliasing
- striktere specificaties

Hieronder staat in het kort aangegeven wat de nieuwe features zijn, wat voor functie het heeft en wat de voordelen er van zijn:

http://img145.imageshack.us/img145/79/atitopicdxoverviewpl6.jpg

http://img360.imageshack.us/img360/8581/atitopicdxoverview2hf1.jpg

Omdat sommige termen vrij technisch zijn, staat hieronder in zo simpel mogelijk Nederlands uitgelegd wat er precies bedoeld wordt.

http://img360.imageshack.us/img360/8793/atitopicdxsm41gg4.jpg

DirectX 10.1 waardeert Shader Model 4.0 op naar Shader Model 4.1. De verbeteringen dienen vooral gezocht te worden in optimaliseringen die er voor zorgen dat bepaalde zaken sneller en efficienter uitgevoerd kunnen worden. Je moet hierbij vooral denken aan zaken als lichtval en schaduwberekeningen. In elke game komt dit voor en daar zal de GPU een groot deel van de tijd mee bezig zijn om dit op je scherm te toveren. Een hogere efficientie en snellere methodes om dit voor elkaar te krijgen zijn dan altijd welkom. En dat brengt Shader Model 4.1!

Cube Map Arrays: Ray tracing IQ & Global Illumination
Shader Model 4.1 brengt een IQ die dicht bij de IQ zit die ray-tracing brengt. Op dit moment is ray-tracing te zwaar voor de huidige GPUs, dus brengt DirectX 10.1 alternatieven om de kwaliteit zo veel mogelijk te benaderen. Een daarvan is Cube Map Arrays, wat er ook voor zorgt dat Global Illumination in real time gerenderd kan worden op een efficiente manier.

http://images.tomshardware.com/2007/10/29/amd_hd_3800_to_support_dx_10/gi-demo4-3.jpg


Efficientere Deferred Rendering
Daarnaast wordt er in steeds meer games gebruik gemaakt van "deferred rendering", zoals in alle games die gebruik maken van de Unreal Engine 3 (zoals Unreal Tournament 3). Deferred rendering is een manier van licht renderen die er voor zorgt dat alles er nog realistischer uit ziet. Hier is echter geen AA op mogelijk onder DX9, maar wel onder DX10. En Shader Model 4.1 zorgt er voor dat dit nog efficienter kan gebeuren dan onder Shader Model 4.0 in DX10.

Verbeterde performance voor complexe shaders
Door de vertex shader output te verbeteren van 16 naar 32 128-bit waardes per shader is het mogelijk om complexere shaders nog efficienter uit te voeren. Daarnaast brengt DX10.1 een techniek die Gather4 heet, iets dat AMD al ondersteunt sinds de RV515/RV530/R580. Deze techniek is vooral gericht op het verbeteren van Stream Computing applicaties (general purpose processing).

LOD Instruction
LOD Instruction is een nieuwe shader instruction die er voor zorgt dat er handgemaakte texture filtering technieken gebruikt kunnen worden die gericht zijn op verbeterde performance en beeldkwaliteit.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

Kartelige flikkerende randen veroorzaakt door aliasing kunnen zeer storend werken. Deze artifacts worden veroorzaakt door onvoldoende rendering en/of schermresolutie. Ze kunnen verminderd worden door middel van filtering technieken, waarbij meerdere samples (multi-samples) genomen worden per pixel en ze samengevoegd worden. Het truukje is om deze samples zo te kiezen dat ze zorgen voor een maximale gladheid zonder te veel wazigheid te veroorzaken, terwijl je tegelijkertijd er ook nog voor moet zorgen dat de performance redelijk blijft.

De meest gebruikte anti-aliasing techniek is multi-sample anti-aliasing (MSAA), maar dit werkt alleen maar met randen van polygonen. Het pakt niet het probleem aan van texture aliasing of shader aliasing. De ATI Radeon HD 2000 serie introduceerde Custom Filter AA (CFAA) die het mogelijk maakte om met verfijnde programmeerbare filters te werken. De laatste Catalyst drivers ondersteunen 4 verschillende soorten filters die toegepast kunnen worden op elke game die gebruik maakt van DX9 of zelfs eerder. De meest geavanceerde van deze filters was het Edge Detect Filter die alle randen (edges) detecteert en er AA op toepast (inclusief textures en shaders!).

http://img70.imageshack.us/img70/4664/atitopicdxaavc3.jpg

DirectX 10.1 maakt het mogelijk om op maat gemaakte anti-aliasing filters toe te passen op pixel shaders. Op maat gemaakte filters bieden een verbeterde beeldkwaliteit aan in de gevallen waar standaard MSAA problemen kan hebben zoals met HDR Lighting en deferred shading technieken. In die gevallen kunnen er vaak artifacts optreden wanneer MSAA geforceerd wordt (als dit al mogelijk is). Alle DX10.1 compatible hardware moet minimaal 4x MSAA ondersteunen. Dit is geen probleem want dit doen ATI Radeons al sinds de R300 (Radeon 9700). De specificaties bevatten nu echter enkele voor gedefinieerde AA sample patronen in tegenstelling tot eerdere versies van DirectX waar de GPU zelf bepaalde hoe de patronen er uit kwamen te zien.

Een nieuwe feature binnen DirectX 10.1 is dat het mogelijk is om alle AA buffers rechstreeks toegankelijk te maken voor de shaders. Voorheen was het alleen maar mogelijk om multi-sampled color buffers aan te spreken. Het was toen onmogelijk om voor elke sample informatie te ontrekken aan een depth buffer. Deze nieuwe feature maakt het voor game ontwikkelaars mogelijk om zelf geavanceerde AA technieken te gebruiken in combinatie met shaders en toegewijde hardware, zoals de ATI Radeon HD GPUs op dit moment doen met Custom Filter AA.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

De ATI Radeon HD introduceerde ook Adaptive Anti-aliasing die texture AA voor gedeeltelijk transparante textures (zoals struikgewas en hekwerk). DirectX 10.1 breidt deze mogelijkheden uit door de introductie van Sample Coverage Masking, die je de volledige controle geeft over de specifieke sample locaties waar de pixelshaders worden uitgevoerd. Hierdoor is het voor ontwikkelaars mogelijk om AAA techniek te gebruiken om meerdere types van aliasing artifacts aan te pakken. Op maat gemaakte sample patronen kunnen ook hier weer worden toegepast . Veel van deze technieken waren al aanwezig in de vorige ATI Radeon GPUs (zoals de Radeon 9700, X800 serie, X1000 serie en de HD2000 serie), maar DirectX 10.1 maakt het voor het eerst mogelijk dat developers hier rechtstreeks toegang toe hebben.

In het kort gezegd biedt DirectX 10.1 op AA gebied dus meer middelen om allerlei typen van aliasing artifacts op te lossen in real-time games, waardoor de beeldkwaliteit omhoog gaat.

http://img360.imageshack.us/img360/1526/atitopicdxspecsdf3.jpg

In het verleden namen kwam het vaak voor dat nieuwe features zeer traag geaccepteerd werden als nieuwe standaard doordat de ene GPU iets wel kon, maar een andere weer niet. Of doordat GPUs op verschillende manieren tot een bepaald resultaat kwamen waarvan de ene efficienter was dan de andere. Door deze verschillen in GPUs zag je soms onverwachte performancedrops, beeldkwaliteit problemen, foutmeldingen of zelfs crashes. In plaats van om deze problemen heen te werken, hebben vele ontwikkelaars er voor gekozen dat het beter is om te voorkomen dan te genezen en het probleem bij de basis - de GPU feature set - aan te pakken.

DirectX 10 was al een eerste grote stap richting het oplossen van de compatibiliteitsproblemen door strikte regels op te stellen over de vereisten van elke GPU ten opzichte van de functies en instructies, en veel minder features optioneel te maken dan voorheen het geval was. Hierdoor probeerde men te voorkomen dat de ene DX10 GPU een bepaalde feature had die een andere DX10 GPU niet had. Veel van de verbeteringen in DirectX 10.1 zijn geintroduceerd om naar nog meer gelijkheid te streven door nog striktere regels op te stellen. Enkele van deze regels waren in DirectX 10 optioneel aanwezig en zijn nu verplicht gesteld. Daarnaast zijn er ook enkele nieuwe specificaties toegevoegd.

http://img150.imageshack.us/img150/1119/atitopicdxtextureeo7.jpg

Een obstakel dat ontwikkelaars tegen hield om hogere precisie texturen te gebruiken en om gebruik te maken van de verschillende output formaten in recente versies van DirectX, was de beperking van het aantal soorten bewerkingen die elke GPU op ze kon doen. DirectX 10.1 verbeterd dit door verplicht te stellen dat elke DX10.1 compliant GPU texture filtering van 32-bits floating point formats en blending op 16-bit integer formats moet ondersteunen.

http://img150.imageshack.us/img150/1160/atitopicdxmsaacl1.jpg

Multi-sampling anti-aliasing (MSAA) is de meest gangbare techniek die op dit moment gebruikt wordt om de beeldkwaliteit te verbeteren. Door de jaren heen zijn er veel verbeteringen aan deze basistechniek toegebracht, maar vaak durfden developers het niet aan om hier gebruik van te maken omdat dit kon leiden tot verschillen in IQ op de GPUs van de verschillende independent hardware vendors (IHVs zoals AMD, nV). DirectX 10.1 brengt de vereiste dat elke kaart minimaal 4x AA moet ondersteunen, en tegelijkertijd brengt het voorgedefinieerd sample patronen waardoor AA op een GPU van AMD er hetzelfde uit ziet als op die van nVidia. Daarnaast blijft het mogelijk om de eigen verbeteringen zoals temporal AA en adaptive AA te blijven toepassen op de nieuwe vereisten van DirectX 10.1.

http://img360.imageshack.us/img360/5144/atitopicdxprecisionxj4.jpg

Alle soorten data formaten zijn beperkt tot een aantal precisies die ze kunnen ondersteunen. Dit is vooral afhankelijk van het aantal bits dat ter beschikking is. Bewerkingen die op deze formaten gedaan worden, maken echter niet vaak optimaal gebruik van de beschikbare precisie, waardoor er afrondingsfoutjes kunnen optreden wat resulteert in artifacts in games. DirectX 10.1 zorgt er voor dat dit niet meer voor komt en vereist dat standaard math bewerkingen op floatingpoint waardes ook echt gebruik maken van de beschikbare precisie.

http://img390.imageshack.us/img390/2459/atitopicreviewsit6.jpg


http://www.legitreviews.com/images/reviews/593/amd_crossfirex.jpg
CrossFire X4



Hieronder staan links naar de meeste HD3870 X2 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:Hieronder staan links naar de meeste HD38x0 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:Hieronder staan links naar de meeste HD34x0 / HD36x00 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

-
-
-

http://img360.imageshack.us/img360/245/atitopichd38xxxj1.jpg

http://img187.imageshack.us/img187/4837/gigabytehd3850ld5.jpg
Gigabyte ATI Radeon HD3850 512MB: RX385512H


Zoals gezegd zal de RV670 in eerste instantie in twee varianten op de markt komen, de ATI Radeon HD3850 en de ATI Radeon HD3870. Zoals het er nu naar uit ziet zal de ATI Radeon HD3870 op een kloksnelheid van 775Mhz draaien voor de core en 2400Mhz GDDR4 voor het geheugen. De HD3850 zal het moeten doen met een core snelheid van 667Mhz en een geheugensnelheid van 1800Mhz GDDR3. De feature list ziet er als volgt uit:
  • Aantal transistoren: 666 Miljoen
  • Productieproces: 55nm
  • Bus Interface: PCI Express 2.0 x16
  • Memory Interface: 256-bit GDDR3/GDDR4
  • Memory Controller: 512-bits Ring Bus (fully distributed)
  • DirectX: 10.1
    - Shadermodel 4.1
    - 32-bit floating point texture filtering
    - Indexed Cube Map Arrays
    - Independent Blend modes per Render Target
    - Pixel Coverage Sample Masking
    - Read/write multi-sample surfaces with shaders
    - Gather4
  • Streamprocessors: 320
    - 128-bit floating point precision on all operations
    - Command Processor for reduced CPU overhead
    - Shader instruction and constant caches
    - Up to 80 texture fetchus per clock cycle
    - Up to 128 textures per pixel
    - Fully associative multi-level texture cache design
    - High resolution texture support (up to 8192x8192)
    - Fully associative texture Z/stencil cache designs
    - Early Z test, Re-Z, Z Range optimization and Fast Z Clear
    - Lossless Z & Stencil Compression (up to 128:1)
    - DXTC and 3DC+ texture compression
    - 8 Render Targets (MRTs) with anti-aliasing support
    - Physics Processing Support
  • Dynamic Geometry Acceleration
    - High Performance Vertex Cache
    - Programmable Tesselation Unit
    - Accelerated Geometry Shader Path for Geometry Amplification
    - Memory red/write cache for improved stream output performance
  • Anti-aliasing features
    - Multi Sampling AA (2, 4 of 8 samples per pixel)
    - Up to 24x Custom Filter AA (CFAA) for improved quality
    - Adaptive Super-sampling and Multi-sampling
    - Temporal Anti-aliasing
    - Gamma Correct
    - Super AA (ATI CrossFire configurations only
    - All anti-aliasing features compatible with HDR
  • Texture Filtering Features
    - 2x/4x/8x/16x High Quality Adaptive Anisotropic Filtering Modes (up to 128 taps per pixel)
    - 128-bit Floating point HDR Texture Filtering
    - Bicubic Filtering
    - sRGB filtering (Gamma/degamma)
    - Percentage Closure Filtering (PFC)
    - Depth & Stencil Texture (DST) format Support
    - Shared Exponent HDR (RGBE 9:9:9:5) texture format support
  • OpenGL 2.0 support
  • ATI Avivo HD Video and Display Platform
    - Dedicated Unified Video Decoder (UVD) for H.264/AVC and VC-1 Video formats
    - Hardware MPEG-1, MPEG-2 and DivX video decode acceleration
    - ATI Avivo Video Post Processor
    - Two Independent Display Controllers
    - Two Integrated Dual-Link DVI Display Outputs
    - Two Integrated 400Mhz 30-bit RAMDACs
    - DisplayPort Output Support
    - HDMI Output Support
    - Integrated AMD Xilleon HDTV Decoder
    - MPEG-2, MPEG-4, DivX, WMV9, VC-1 and H.264/AVC Encoding and Transcoding
    - Seamless Integration of Pixel Shaders with Video in Real Time
    - VGA mode support on all display outputs
  • ATI PowerPlay
    - Advanced power management technology for optimal performance and powersavings
    - Performance-on-demand (voltage switching, dynamic clock gating, clock & memory speed throttling, GPU monitoring
    - Central thermal management - on-chip sensors monitors GPU temperature and triggers thermal actions as required
  • ATI CrossFireX Multi-GPU technology
    - Scale up rendering performance and image quality with two, three or four GPUs
    - Integrated compositing engine
    - High performance dual channel bridge interconnect
Hoe presteert de kaart? De HD3870 is op standaardkloksnelheden ongeveer net zo snel en soms iets sneller als een HD2900XT. De iets duurdere GF8800GT presteert vaak zo'n 10-15% sneller op standaardinstellingen. Wanneer AA wordt ingeschakeld zie je dat de HD3870 minder inlevert aan performance. Met 8xAA is de HD3870 in de meeste gevallen zelfs sneller dan een GF8800GT.



In de praktijk zal het er op neer komen dat de ATI Radeon HD3870 zo'n 10% sneller zal zijn dan de ATI Radeon HD2900XT terwijl de ATi Radeon HD3850 zo'n 13% langzamer zal zijn. Bedenk je wel dat dit een midrange kaart is, die sneller en goedkoper is met meer features dan de vorige high-end. Veel bang-for-buck dus! De HD3850 wordt gelanceerd voor dezelfde prijs als de HD2600XT, maar met een performance die vele malen hoger ligt. Ook de GF8600GTS die nu voor zo'n €149 over de toonbank gaat wordt weg gevaagd door de HD3850.

De focus van AMD zal dus in eerste instantie uit gaan naar de HD3850, want het is voor AMD mogelijk om van die kaart enorm veel te verkopen in het prijssegment waar deze zich in bevindt. De HD3850 zal bij launch de onbetwiste prijs/performance kaart worden zoals je straks zult zien. AMD vraagt zich dan ook af hoe ver nVidia durft te gaan met de prijs van de GF8800GT 256MB, want de marges zijn hier al zeer laag op en AMD kan nog verder zakken zonder verlies te maken.

Voor zover mijn bron weet zal de HD3870 echter wel redelijk snel goed verkrijgbaar moeten zijn dus een eventueel tekort bij launch zou snel opgelost zijn (in de dagen er na). De eerste HD3870 kaarten worden door AMD zelf gemaakt, maar tegelijkertijd zijn ze nu de productie van HD3870 ASICs aan het verhogen waardoor AIBs met hun eigen kaarten kunnen komen. Deze zijn vanaf December op de (eerst Aziatische) markt verschenen.

http://img360.imageshack.us/img360/2076/atitopichd3600vr5.jpg


http://img252.imageshack.us/img252/2415/rv635xtrh9.jpg
RV635: HD3650


Er komt maar 1 HD3600 kaart uit en wel de HD3650. Deze zal uit twee varianten bestaan, namelijk de GDDR2 versie en de GDDR3 versie. Performance voor de GDDR3 versie zal rond de 4400 punten in 3DM06 liggen terwijl de GDDR2 versie rond de 3900 punten scoort in 3DM06. De core zal op 725Mhz lopen. Dat is dus 75Mhz langzamer dan z'n oudere broertje, de HD2600XT, maar 125Mhz sneller dan de HD2600Pro.

http://img390.imageshack.us/img390/7408/atitopictoekomstigegpuspf9.jpg

Op korte termijn staan gepland:
  • RV620
  • RV635
  • R680
Al deze GPUs zullen gemaakt worden op het 55nm productieproces van TSMC. Daarnaast zullen al deze GPUs volledig DX10.1 ondersteunen.

De RV620 is de 55nm opvolger van de RV610 en zal ATI Radeon HD3400 Series heten.
De RV635 is de 55nm opvolger van de RV630 en zal ATI Radeon HD3600 Series heten.
De R680 is de opvolger van de R600 en zal ATI Radeon HD3870 X2 heten.

Al deze GPUs staan gepland voor Q1 2008. Volgens de laatste geruchten is de R680 een dubbele RV670. Volgens deze geruchten richt AMD zich op een 3DM06 score van 20.000 punten voor de R680. De eerste scores zijn bekend gemaakt een een R680 haalt minimaal 17000 punten in 3DM06.

http://www.legitreviews.com/images/reviews/593/ati_radeon_r680.jpg
R680 in CrossFire oftewel HD3870 X2 CFX


Voor halverwege 2008 (zal wel twee helft 2008 worden) staat de R700 gepland. Deze staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan en zal waarschijnlijk de eerste multi-core GPU worden.

http://img360.imageshack.us/img360/1716/atitopicprijsoverzichtcs1.jpg

Vernieuwde prijsoverzicht na lancering HD3600 en HD3400::
  • HD3870 X2: $399
  • HD3870: $199 [retail: €180]
  • HD3850: $159 [retail: €140]
  • HD3650: $99
  • HD3470: $59
  • HD3450: $49
  • HD2400(Pro): $29
Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://img145.imageshack.us/img145/6045/atitopicgeruchtenmolengz5.jpg

Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
Gerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://img360.imageshack.us/img360/4926/atitopicoverigenq6.jpg
ATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

CJ wijzigde deze reactie 23-01-2008 12:19 (101%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
Vraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
  • HD2400Pro
  • HD2400XT*
  • HD2600Pro*
  • HD2600XT*
* ook mogelijk via hardware CF indien dubbele CF connector aanwezig

Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Vanaf de ATI Radeon X1650XT en X1950Pro zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! Vanaf de HD2000 serie zullen (bijna) alle videokaarten dit systeem gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Vraag: CrossFire: Kan ik een RV670 aan een R600 of R700 koppelen?

Nee!

Als je CrossFire wilt gebruiken om twee videokaarten te laten samenwerken voor multi-renderen (dwz meerdere kaarten renderen het beeld), dan is dat NIET mogelijk. Je kan alleen videokaarten aan elkaar koppelen die gebruik maken van dezelfde GPU.

Een HD3870 kan je dus alleen koppelen aan een videokaart die ook gebruik maakt van een RV670, dus bijvoorbeeld de HD3850 of een andere HD3870.

Vraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Vraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
Vraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Vraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Vraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Vraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
Vraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Vraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200 (RD480)
- ATi Radeon Xpress 3200 (RD580/RD600)
- AMD 790FX
- Intel 955x
- Intel 965
- Intel 975x
- Intel X38
- Intel P35

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Vraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Vraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Vraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Vraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Vraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.

Op dit moment (Nov 2007) is GPU Physics echter min of meer dood verklaard door AMD, vanwege de overname van Havok door Intel. In de toekomst zou er nog verandering in kunnen komen door DirectX11 die een physics API zal bevatten.
Vraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

Vraag: Is AA "gebroken" in de R600?

Antwoord: Nee! AA als dusdanig is niet gebroken in de AA. Wanneer er AA wordt gevraagd in de toepassing of AA wordt geforceerd in de drivers wordt AA gewoon toegepast. De R600 heeft zelfs een hele flexibele vorm van AA aan boord.

Waar zeiken sommige mensen dan zo graag over? Dit komt door de performancedrop die groter lijkt dan bij de concurrentie en de voorgaande ATI Radeon chips. Hoe komt deze performancedrop? Door het ontbreken van hardwarematige AA resolve. Is dat een probleem? Nee. Overal gezien is de performance met AA nog altijd beter dan de performance van de voorganger (X1950XTX). Wil je nog sneller? G80 is your choice.

Maar maar.... hoe komt die grote performancedrop dan in vergelijking met de G80? Dat is een designbeslissing geweest. Er komen steeds meer games die gebruik maken van vormen van rendering waarbij er non-lineaire AA resolve moet worden toegepast. Fixed function hardware AA resolve, dat zegt het al, is lineair en wanneer dit wordt toegepast dan kunnen er artifacts optreden.

Wat zijn vormen van rendering waar non-linaire AA resolve technisch gezien 'beter' is dan de 'ouderwetse' manier? Nou, bijvoorbeeld bij HDR rendering (welke game gebruikt nu geen HDR meer?), deferred rendering (o.a. STALKER en alle games die gebruik maken de Unreal Engine 3 - en dat zijn er nog al wat) en bij het gebruik van anti-aliased shadow buffers. Deze vormen vereisen meer controle over de bewerking en over de pixel, daar waar voorheen de 'oude' hardware AA resolve adequaat genoeg was.

Maar maar... waarom hadden we dan vroeger nooit last van dat soort artefacts?? Tja... vroeger toen was alles anders. Tijden veranderen. Technologie verandert. Vroeger moesten er ook al workarounds worden gevonden om AA met HDR aan de praat te krijgen. Developers krijgen nu meer flexibiliteit om eindelijk op het scherm te toveren wat ze altijd al hadden willen laten zien zonder beperkt te worden door lineaire AA resolve. Tot op heden werkten ze hier namelijk omheen. Wij - als eindgebruiker - merkten dat niet. Nu kunnen ze het op een correcte manier doen.

Wat is dan de correcte manier? Op de correcte manier kan een pixelshader gebruikt worden om toegang te krijgen tot elke individuele sample binnen elke pixel. Hierdoor kan een graphics engine een hogere kwaliteit AA resolve toe passen en zelf beslissen wat voor filter er gebruikt moet worden. Microsoft heeft dit op verzoek van zowel developers en hardware vendors toegevoegd omdat er vraag was naar een betere beeldkwaliteit! Vragen om de 'oude' manier is dus tevergeefs!

Voor de mensen die er wat meer willen afweten over hoe de R600 het doet: De RBEs (voorheen ROPs) doen alles op het gebied van AA, behalve het gedeelte dat "resolve" heet. Dit wordt nu gedaan in de shadercore. Via een fastpath tussen de RBE en shadercore wordt data aan de shaderprocessors gevoerd om resolve toe te passen. Het grote voordeel hiervan is dat de resolve hierdoor zeer programmeerbaar is geworden. Het nadeel is dat het trager 'kan' zijn dan op de ouderwetse manier.

De redenatie van AMD om zich volledig op shader resolve te richten is het feit dat toekomstige games meer en meer op shader based AA resolve zal richten vanwege de hardware limitaties wanneer het aan komt op FP render targets. AMD heeft al eerder gegokt op toekomst gerichtheid met de R580 en daar plukken we nu (bijna 2 jaar na launch de vruchten van met engines als de Unreal Engine 3 waar de toenmalige concurrent GF7900GTX helemaal ingemaakt wordt). Daarnaast is het gebruik van custom resolve filters straks een vereiste in DX.

Het officiele statement van AMD:
quote:
We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'

While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."

CJ wijzigde deze reactie 11-01-2008 17:52 (99%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

PRICEWATCH

HD3K Series
  • Goedkoopste HD3850 256MB: €142
  • Goedkoopste HD3850 512MB: €159
  • Goedkoopste HD3870: €179
HD2K Series: http://tweakers.net/pricewatch/cat/670
  • Goedkoopste HD2400Pro: €36
  • Goedkoopste HD2400XT: €49
  • Goedkoopste HD2600Pro 256MB: €62
  • Goedkoopste HD2600Pro 512MB: €67
  • Goedkoopste HD2600XT 256MB: €73
  • Goedkoopste HD2600XT 512MB: €97
  • Goedkoopste HD2900GT 256MB: €151
  • Goedkoopste HD2900Pro 512MB: €223
  • Goedkoopste HD2900Pro 1GB: 269
  • Goedkoopste HD2900XT 512MB: €303
  • Goedkoopste HD2900XT 1GB: €417

CJ wijzigde deze reactie 11-01-2008 17:52 (99%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Welkom in deeltje 78. :)

Om maar met wat nieuws te beginnen. 3DMark Vantage zal volgens geruchten DX10.1 ondersteunen en nV is er niet blij mee.

En Catalyst 8.1 beta is gelekt. Deze bevat de strings voor de HD3400, HD3600 en HD3870 X2 kaarten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Dan zit er maar 1 ding op voor nVidia; de portemonnee trekken. Of ATi heeft de portemonnee al getrokken.

Dit zal Futuremark ook wel vantevoren bedacht hebben denk ik. De grapjassen. :P

Format-C wijzigde deze reactie 11-01-2008 18:16 (51%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL

Eigenlijk best sneu dat dat waarschijnlijk ook gaat gebeuren he? :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Mja, inderdaad; ik heb mijn post overigens wel aangepast; het kan zijn dat het al gebeurd is natuurlijk...


En dat ATi de knip al getrokken heeft om zo een beetje onrust te zaaien bij nVidia. ;)

Al zal er 1 van de 2 fabrikanten misschien niet blij zijn; Er is eigenlijk maar 1 winnaar; Futuremark. Slimmerds.

:7

Format-C wijzigde deze reactie 11-01-2008 18:21 (109%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 17:12
quote:
RappieRappie schreef op vrijdag 11 januari 2008 @ 18:13:
Dan zit er maar 1 ding op voor nVidia; de portemonnee trekken. Of ATi heeft de portemonnee al getrokken.

Dit zal Futuremark ook wel vantevoren bedacht hebben denk ik. De grapjassen. :P
dan wordt 3dmark 2008 dus de eerste ''game'' die dx10.1 ondersteund :)

tegen de tijd dat 3dmark uitkomt, heeft nvidia misschien ook al een dx10.1 kaart (of vlak erna)..8900gtx misschien ?


de g100 zal sowieso wel dx10.1 ondersteunen, en tegen die tijd komen misschien pas de eerste ''echte'' dx10.1 games uit

Mr. Detonator wijzigde deze reactie 11-01-2008 18:27 (23%)


  • Illidan
  • Registratie: augustus 2006
  • Laatst online: 09-02 18:44
Als DX10.1 default bij de score wordt meegeteld dan is dat een misser van 3dmark, dat gaat alleen ten koste van de betrouwbaarheid van die benchmark. Zelfde geldt overigens als ze weer zoveel punten toekennen aan de cpu (quadcores).

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Reken er maar niet op dat nVidia dit lekker zit.


Echt niet!!! :Y)

Al helemaal niet omdat de D9P OOK al geen DX10.1 ondersteunt...

Ati lacht zich dood. :)

Ook al zou DX10.1 geen keutel voorstellen, en al zou geen enkele game het ondersteunen, als 3DMark het WEL ondersteund is nVidia NOT amused... Ik wel. Lachen dit. _O-

Voor sommige mensen is 3DMark nog belangrijker dan gamen zelf... En die besteden al hun tijd aan benchmarken met PC's. Die kopen echt geen nVidia kaart als die geen DX10.1 ondersteunt. Dan kun je NOOIT een high score halen natuurlijk.

Ghehehe. :+ ;)

Format-C wijzigde deze reactie 11-01-2008 18:33 (58%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • Illidan
  • Registratie: augustus 2006
  • Laatst online: 09-02 18:44
quote:
RappieRappie schreef op vrijdag 11 januari 2008 @ 18:27:

Voor sommige mensen is 3DMark nog belangrijker dan gamen zelf...
Lol dat is anders ook wel grappig :)

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
Illidan schreef op vrijdag 11 januari 2008 @ 18:35:
[...]


Lol dat is anders ook wel grappig :)
Het is de werkelijkheid... Sommigen doen niets anders. :/

Format-C wijzigde deze reactie 11-01-2008 18:37 (7%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

quote:
RappieRappie schreef op vrijdag 11 januari 2008 @ 18:27:
Reken er maar niet op dat nVidia dit lekker zit.


Echt niet!!! :Y)

Al helemaal niet omdat de D9P OOK al geen DX10.1 ondersteunt...

Ati lacht zich dood. :)

Ook al zou DX10.1 geen keutel voorstellen, en al zou geen enkele game het ondersteunen, als 3DMark het WEL ondersteund is nVidia NOT amused... Ik wel. Lachen dit. _O-

Voor sommige mensen is 3DMark nog belangrijker dan gamen zelf... En die besteden al hun tijd aan benchmarken met PC's. Die kopen echt geen nVidia kaart als die geen DX10.1 ondersteunt. Dan kun je NOOIT een high score halen natuurlijk.

Ghehehe. :+ ;)
De D9m 9600gt krijgt wel dx10.1
quote:
Verdere details zijn bekend geworden van de nieuwe mid-range videokaart van nVidia die bekend staat onder de codenaam D9M. De 9600GT zoals de kaart vermoedelijk genoemd gaat worden wordt de opvolger van de 8600GT en volgens een vertegenwoordiger van nVidia 'is de GeForce 9600 dubbel zo snel als de GeForce 8600'. De kaart zal de strijd aanbinden met de Radeon 3850 die momenteel in het middensegment de prijs/prestatie kroon in handen houdt.
De videochip zal op het 65 nm procedé gebakken worden en krijgt een core mee die loopt op 650 MHz. De shaders - waarvan het aantal vooralsnog onbekend is - zullen een frequentie van 1625 MHz hebben. Het geheugen draait op een snelheid van 900 Mhz (effectief 1,8 GHz); gecombineerd met een 256-bit brede databus zou dat een theoretische geheugenbandbreedte opleveren van 57,6 GB/s. De texture fill rate wordt geschat op 20,8 miljard pixels per seconde.


De voorganger: de 8600GTS
nVidia bevestigde dat de nieuwe midrange kaart ondersteuning biedt voor DirectX10.1, Shader model 4.1, OpenGL 2.1 en PCIe 2.0 sloten. Een andere interessante feature is de support voor de Quantum Effect physics processing engine. Volgens ChileHardware heb je voor de 9600GT minimaal een 400W voeding nodig die de 3D kaart kan voorzien van 26A aan stroom op de 12V rail. Ook nieuw is de extra 6-pin voedingaansluiting die deze variant vereist.

nVidia wilde geen mededelingen doen over de prijs van de GeForce 9600GT. Als vermoedelijke introductiemaand wordt nog steeds februari aangehouden.

Ludwig83 wijzigde deze reactie 11-01-2008 18:54 (48%)

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt

quote:
Ludwig83 schreef op vrijdag 11 januari 2008 @ 18:53:
[...]

De D9m 9600gt krijgt wel dx10.1


[...]
Een link naar de bron zou handig zijn...

Ik heb namelijk gehoord dat NV tegen partners met geen woord rept over DX10.1, maar dat ze alleen maar praten over DX10.0. Het zou zelfs zo zijn dat ze DX10.1 willen skippen en gelijk willen door gaan naar DX11 in 2009.

Ook de officiele specsheets van de 9600GT noemen alleen DirectX 10 ondersteuning en niet DirectX 10.1...

Edit: Ik heb de bronnen al:
http://www.chilehardware....?=p=3D1638246#post1638246
http://www.dailytech.com/...+9600+GT/article10218.htm
En samengeraapt door hardware.info in een nieuwspost.

Dailytech zegt van wel, maar de slides op chilehardware noemen alleen DX10. Dailytech spreekt zichzelf echter tegen door te zeggen dat de 9600GT wel DX10.1 ondersteunt, maar verder te zeggen dat het shadermodel alleen maar 4.0 te ondersteunt... en niet 4.1 wat bij DX10.1 hoort.

CJ wijzigde deze reactie 11-01-2008 19:10 (33%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

bron
http://www.dailytech.com/...+9600+GT/article10218.htm

Ludwig83 wijzigde deze reactie 11-01-2008 19:14 (69%)

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt


  • Phyxion
  • Registratie: april 2004
  • Laatst online: 25-02 13:19

Phyxion

_/-\o_

quote:
Ludwig83 schreef op vrijdag 11 januari 2008 @ 18:53:
[...]

De D9m 9600gt krijgt wel dx10.1


[...]
Laatste bericht en specs van NVIDIA zeggen alleen SM4.0 en DX10.0, absoluut geen DX10.1.

'You like a gay cowboy and you look like a gay terrorist.' - James May


  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

Wie heeft dan een officiële bron ?
Want die zou ik graag willen zien
Edit
Er zijn namelijk ook al officiële benchmarks uit ben de 9600gt
Edit
hier een Oficiële bron dat het wel dx10.1 krijgt.
nieuws: Meer informatie over Geforce 9600GT duikt op
Voor diegene die er zowat op verheugde dat het niet zou gebeuren :>

Ludwig83 wijzigde deze reactie 11-01-2008 19:31 (109%)

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt

quote:
Ludwig83 schreef op vrijdag 11 januari 2008 @ 19:13:
Wie heeft dan een officiële bron ?
Want die zou ik graag willen zien
Edit
Er zijn namelijk ook al officiële benchmarks uit ben de 9600gt
Ik heb vrij 'officiele' bronnen. Maar als je dit topic al een tijdje volgt dan weet je ook dat ik die niet vrij geef. Anders krijg ik helemaal geen info meer. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • porthofax
  • Registratie: september 2005
  • Laatst online: 01-10-2017
Zou wel leuk zijn als een site even alle komende videokaarten in een tabel zet qua specs.
En die telkens blijft updaten als er meer info beschikbaar is, dit ook in log bijzetten.
Al die cijfertjes en lettertjes en data's, 't is een hele sport zeg :)

  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 16:15
quote:
porthofax schreef op vrijdag 11 januari 2008 @ 19:39:
Zou wel leuk zijn als een site even alle komende videokaarten in een tabel zet qua specs.
En die telkens blijft updaten als er meer info beschikbaar is, dit ook in log bijzetten.
Al die cijfertjes en lettertjes en data's, 't is een hele sport zeg :)
Waarom? Specs zeggen toch bar weinig over de performance. Er zijn genoeg lijstjes met alle soorten videokaarten, als je de specs hiervan wilt weten dan zoek je even op google.

  • Ludwig83
  • Registratie: juli 2007
  • Laatst online: 08-08-2008

Ludwig83

Het is mij Ludo...

Is de Catalyst 8.1 beta al bekent hier ? voor vista32/64
http://downloads.guru3d.com/download.php?det=1825

Asus p5n32-e sli 680i, 2xMSI 8800GT OC sli, Intel E6600 3600mhz, 2gig geil 800mhz 4-4-4-12 GameXstream 700watt


  • mad_max234
  • Registratie: september 2003
  • Laatst online: 15-06-2017

mad_max234

AMD Athlon II M320

quote:
leonpwner1 schreef op vrijdag 11 januari 2008 @ 19:41:
[...]


Waarom? Specs zeggen toch bar weinig over de performance. Er zijn genoeg lijstjes met alle soorten videokaarten, als je de specs hiervan wilt weten dan zoek je even op google.
Is toch leuk voor tweakers cijfertjes en getalletjes in tabelletjes, hoe hoger het getalletje hoe spannender het is. :P

-Andere hobby- -


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 24-02 19:02

Splinter Cell

AMD HD7850

quote:
Nee kende hem nog niet. Heb geen Win Vista. Anders had ik hem graag getest.

Ervaringen mogen dus gedeelt worden :).

  • Help!!!!
  • Registratie: juli 1999
  • Niet online
Nu ja, door de info die ik tot nu toe gelezen heb over DX10.1 denk ik dat het zeker op AA gebied een zeer zinvolle updat is. Zo zou DX10 er from the get go uit hebben moeten zien.

Vind het dan ook zeer sneu dat de huidige marktleider nvidia blijkbaar zijn invloed wil aanwenden om DX 10.1 te laten mislukken zodat we pas ergens in 2009 met DX11 ervan kunnen profiteren.

De consument is weer eens de verdrietige derde...... -O-

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

Hier ene ervaring van Catalyst 8.1 beta op Techpowerup forum
quote:
The driver is nice, multi monitoring works perfectly!, a new "CF diagnostic" is also available, but dunno what that is . And the performance is the same like the 7.12.
Die persoon heeft Intel quadcore systeem met twee HD3870's in CF

Goud is geen geld


  • Astennu
  • Registratie: september 2001
  • Laatst online: 17:52
quote:
Illidan schreef op vrijdag 11 januari 2008 @ 18:27:
Als DX10.1 default bij de score wordt meegeteld dan is dat een misser van 3dmark, dat gaat alleen ten koste van de betrouwbaarheid van die benchmark. Zelfde geldt overigens als ze weer zoveel punten toekennen aan de cpu (quadcores).
Hoezo dat ? omdat nVidia niet wint is het meteen onbetrouwbaar ? Kom op zeg. 3Dmark test de laatste video kaarten door de nieuwste DX versie's te gebruiken en raad eens dat is DX10.1 stom van nVidia dat hun video kaart het nog niet ondersteund. Straks komen er ook games die DX10.1 gebruiken kun je die dan ook niet als vergelijking materiaal gebruiken omdat nVidia geen DX10.1 kan ? strom van hun gemiste kans. Dit was ook met de Radeon 8500 die had al SM 1.4 support wat de Geforce 3 niet had. Nu is dat niet veel gebruikt maar in de games waar de ondersteuning wel in zat en ook latere DX9 games draaide wel sneller op die kaart omdat die features ook weer in latere versie's van DX zaten. Kortom nVidia is de gene die de fout gemaakt heeft geen support voor DX10.1 in hun nieuwe gpu's te hebben. :)
quote:
frankknopers schreef op vrijdag 11 januari 2008 @ 22:18:
Hier ene ervaring van Catalyst 8.1 beta op Techpowerup forum


[...]

Die persoon heeft Intel quadcore systeem met twee HD3870's in CF
Jammer genoeg dus geen performance boosts vraag me af hoe het dan met de Hd3870 X2 ??

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

Mensen met crysis 1.1 hoeven deze beta nog niet te proberen. Na het laden van het level wordt het scherm zwart en loopt het spel vast. Zowel met 32 als 64 bit en zowel met als zonder crossfire.

Verder nog niets getest, maar het lijkt er inderdaad op dat er multi monitor support in zit.

Goud is geen geld


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
Astennu schreef op vrijdag 11 januari 2008 @ 22:49:
[...]


Hoezo dat ? omdat nVidia niet wint is het meteen onbetrouwbaar ?
Ik weet het niet; nV had ook SM3 terwijl ATi dit lange tijd niet had. En er waren nauwelijks games die ook daadwerkelijk SM3.0 gebruikten. De X800 en X850 hebben het lang volgehouden, en niemand miste iets. De gamedevs maken de eventuele DX10.1 games heus wel DX10.0 compatible, ander verkopen ze simpelweg de helft minder games.

En over 3DMark; 3DMark is veel, maar dan ook VEEL te CPU afhankelijk. Pas op 1920x1200 + veel AA en AF zou je er misschien minder last van hebben, maar zelfs op 1920x1200 zonder AA is het momenteel zo dat de CPU de bottleneck is.

Zo haal ik op 1920x1200 16.000 in 3DMark06 en op 1280x1024 17.000. Scheelt dus bijna niets.

Als ik mijn CPU nog eens 500MHz overklok haal ik ineens 1500 tot 2500 punten meer. :X

Format-C wijzigde deze reactie 11-01-2008 23:16 (39%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
RappieRappie schreef op vrijdag 11 januari 2008 @ 23:09:
[...]
En over 3DMark; 3DMark is veel, maar dan ook VEEL te CPU afhankelijk. Pas op 1920x1200 + veel AA en AF zou je er misschien minder last van hebben, maar zelfs op 1920x1200 zonder AA is het momenteel zo dat de CPU de bottleneck is.
heh, doet me denken aan de kritieken op 3dMark03

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Tja, ik kan straks ook niet testen met 3DMark Vantage of die bottleneck weg is...

Ik heb geen DX10.1 kaart. >:)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • HugoBoss1985
  • Registratie: december 2006
  • Laatst online: 00:23
Het lijkt me geweldig als 3dmark08 in het voordeel van Ati gaat werken, dat is goed voor de concurrentie en goed voor ons.
Ati/Amd mag wel eens een keertje een winst halen t.o.v. Nvidia.

Coolermaster CM 690 III - Corsair HX1200 V2 - Gigabyte Z390 Elite - i7 9700k @ 4,9 1,305v - Gelid Phantom - 16gb G-skill CL15 3000 - Gigabyte Vega 56 OC - Samsung 970 Evo 1tb - Windows 10 Pro 64


  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 16:15
quote:
HugoBoss1985 schreef op vrijdag 11 januari 2008 @ 23:42:
Het lijkt me geweldig als 3dmark08 in het voordeel van Ati gaat werken, dat is goed voor de concurrentie en goed voor ons.
Ati/Amd mag wel eens een keertje een winst halen t.o.v. Nvidia.
Mja maar dat is eigenlijk al zo.

Daarnaast heb je er geen reet aan, want er zullen altijd real-world performance benchmarks verschijnen (en dat is maar goed ook) en aan de hand hiervan bepalen mensen of een kaart goed is. Het zou zeker mooi zijn als ATi weer eens sneller is, maar alleen sneller zijn in 3Dmark heeft geen nut; niemand 'speelt' dat ;)

Overigens zou dat ook een negatief effect hebben aangezien mensen 3Dmark dan nog minder serieus zullen nemen.

Avalaxy wijzigde deze reactie 11-01-2008 23:44 (7%)


  • HugoBoss1985
  • Registratie: december 2006
  • Laatst online: 00:23
quote:
leonpwner1 schreef op vrijdag 11 januari 2008 @ 23:44:
[...]


Mja maar dat is eigenlijk al zo.

Daarnaast heb je er geen reet aan, want er zullen altijd real-world performance benchmarks verschijnen (en dat is maar goed ook) en aan de hand hiervan bepalen mensen of een kaart goed is. Het zou zeker mooi zijn als ATi weer eens sneller is, maar alleen sneller zijn in 3Dmark heeft geen nut; niemand 'speelt' dat ;)

Overigens zou dat ook een negatief effect hebben aangezien mensen 3Dmark dan nog minder serieus zullen nemen.
Ik had het eigenlijk puur over 3Dmark08, maar ik kijk naar alles als ik een (of twee :P) nieuwe videokaart koop.
Het is in ieder geval goed om te zien dat je met Ati kaartjes de hoogste 3dmark06 score kan halen, want er zijn dus mensen die het alleen maar gaat om de hoogste 3dmark06 score.

Coolermaster CM 690 III - Corsair HX1200 V2 - Gigabyte Z390 Elite - i7 9700k @ 4,9 1,305v - Gelid Phantom - 16gb G-skill CL15 3000 - Gigabyte Vega 56 OC - Samsung 970 Evo 1tb - Windows 10 Pro 64


  • Astennu
  • Registratie: september 2001
  • Laatst online: 17:52
quote:
RappieRappie schreef op vrijdag 11 januari 2008 @ 23:09:
[...]

Ik weet het niet; nV had ook SM3 terwijl ATi dit lange tijd niet had. En er waren nauwelijks games die ook daadwerkelijk SM3.0 gebruikten. De X800 en X850 hebben het lang volgehouden, en niemand miste iets. De gamedevs maken de eventuele DX10.1 games heus wel DX10.0 compatible, ander verkopen ze simpelweg de helft minder games.

En over 3DMark; 3DMark is veel, maar dan ook VEEL te CPU afhankelijk. Pas op 1920x1200 + veel AA en AF zou je er misschien minder last van hebben, maar zelfs op 1920x1200 zonder AA is het momenteel zo dat de CPU de bottleneck is.

Zo haal ik op 1920x1200 16.000 in 3DMark06 en op 1280x1024 17.000. Scheelt dus bijna niets.

Als ik mijn CPU nog eens 500MHz overklok haal ik ineens 1500 tot 2500 punten meer. :X
Klopt zelfde verhaal en dat was toen ook de rede waarom veel mensen voor die kaart gingen dus nVidia heeft er zeker geen nadeel van gehad. En 3Dmark had later ook een SM3.0 test waar een GF6 dus nog goed kan scoren en de Xx0x serie niet. Nu zal het verhaal omgedraaid zijn. Tuurlijk krijgen DX10.1 games een DX10 path alleen er zitten wel wat leuke features in DX10.1 die de game mogelijk mooier kunnen maken en tegelijk ook zorgen voor meer FPS.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
quote:
Astennu schreef op zaterdag 12 januari 2008 @ 00:04:
[...]

Tuurlijk krijgen DX10.1 games een DX10 path alleen er zitten wel wat leuke features in DX10.1 die de game mogelijk mooier kunnen maken en tegelijk ook zorgen voor meer FPS.
Waar wachten ze dan nog op... :o

|2600k|Asus 290|


  • Astennu
  • Registratie: september 2001
  • Laatst online: 17:52
quote:
Bullus schreef op zaterdag 12 januari 2008 @ 00:14:
[...]


Waar wachten ze dan nog op... :o
Moet vanuit de game defs komen. De huidige games zijn al niet eens echt DX10. Want de meeste games kunnen bijna alle effecten ook onder DX9c. Dus de Echte DX10+ games moeten nog komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Illidan
  • Registratie: augustus 2006
  • Laatst online: 09-02 18:44
quote:
Astennu schreef op vrijdag 11 januari 2008 @ 22:49:
[...]


Hoezo dat ? omdat nVidia niet wint is het meteen onbetrouwbaar ?
Nee, niet omdat nV niet wint, maar omdat er punten worden toekent voor een feature die maar bij een zeer beperkt aantal games zullen meetellen. Zelfs bij nieuwe games NU is het nog niet eens vanzelfsprekend dat ze DX10.0 ondersteunen, laat staan 10.1 :+

Ik kopie-paste hier even mijn eigen reactie op het nV forum:

Hoe langer ik erover nadenk, hoe meer ik tot de conclusie kom dat het eigenlijk wel erg goed zal zijn als 3dmark idd DX10.1 een hoge score toekent. Alle ATi kaarten zullen dan opeens veel hoger scoren dan hun nV tegenhangers in dezelfde prijsklasse (en misschien zelfs hoger dan nV kaarten in een hogere prijsklasse). Vervolgens komen de echte game benchmarks aan bod, en dan veegt nV zoals gebruikelijk ATi van de kaart. Uhhh, hoe kén dat nou, ATi scoorde toch een hogere 3dmark Vantage? 8)7 8)7 Misschien, heel misschien, is 3dmark wel een erg brakke en onbetrouwbare benchmark....?? En walla; opeens is het voor de wereld, inclusief de huidige 3dmark fetischisten duidelijk dat de zo gekoesterde 3dmark geen drol voorrstelt en erg overrated is. Zijn we meteen van die hele 3dmark heisa af ;) ;)

i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 17:12
quote:
RappieRappie schreef op vrijdag 11 januari 2008 @ 23:09:
[...]

Ik weet het niet; nV had ook SM3 terwijl ATi dit lange tijd niet had. En er waren nauwelijks games die ook daadwerkelijk SM3.0 gebruikten.
jawel...3dmark 2006 :)

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
zeg, 3dMark05 gebruikte ook nvidia specifieke functies die hun score serieus verhoogde tov ati kaarten, maar daar hoor ik nu niemand meer over klagen en 3dmark05 is ook altijd de standaard benchmark geweest.

  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Wat ik her en der lees hebben we eindelijk multi-screen support bij het gebruik van CF in de leaked beta drivers _/-\o_

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Astennu
  • Registratie: september 2001
  • Laatst online: 17:52
Daarom het is een future bensh dus nieuwste technieken. En dat DX10 nu niet eens gebruikt wordt licht toch echt aan de Game defs. De stap van DX10 naar DX10.1 is maar klein. Zou me niets verbazen als de eerste echte DX10 games ook DX10.1 ondersteunen of er in ieder geval een patch voor krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Asus 0.8ns GDDR3 HD 3850 TOP

ASUS, producer of top quality graphic solutions has today introduced another top performance overclocking solution – the ASUS EAH3850 TOP/HTDI/512M. Being the world’s first EAH3850 TOP model to be equipped with the fastest upgraded DRR3 0.8ns memory modules, users can expect up to 12% improvement in gaming experiences. This powerful graphics card is also equipped with the newest thermal solution – the Glaciator Fansink; that utilizes a unique fansink design to keep GPU temperatures cool.

http://img150.imageshack.us/img150/8453/asus3850top2le9.jpg

http://img180.imageshack.us/img180/3282/asus3850topwv8.jpg

http://forum.donanimhaber.com/m_20288825/tm.htm

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Arctic Accelero Xtreme 2900 VGA cooler review

The Accelero Xtreme 2900 definitely is a great performer, yet does need to be tweaked a little as AMD is ruining the results a little with the RPM values set too low. But as explained on the previous page, just grab Rivatuner, set the RPM level to 60-70% and the cooling values will be awesome while you get to keep the extremely low noise levels. When you combine these two together, the cooler is just fantastic.

http://www.guru3d.com/admin/imageview.php?image=11732

http://www.guru3d.com/article/cooling/487/1

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • HugoBoss1985
  • Registratie: december 2006
  • Laatst online: 00:23
quote:
Apoca schreef op zaterdag 12 januari 2008 @ 13:37:
Arctic Accelero Xtreme 2900 VGA cooler review

The Accelero Xtreme 2900 definitely is a great performer, yet does need to be tweaked a little as AMD is ruining the results a little with the RPM values set too low. But as explained on the previous page, just grab Rivatuner, set the RPM level to 60-70% and the cooling values will be awesome while you get to keep the extremely low noise levels. When you combine these two together, the cooler is just fantastic.

[afbeelding]

http://www.guru3d.com/article/cooling/487/1
Dat ding ziet eruit alsof het flink gaat koelen, maar je kaartje neemt dan wel aardig wat sloten in beslag.
Ik ben nog steeds fan van koelers die de lucht gelijk uit de kast blazen.

Coolermaster CM 690 III - Corsair HX1200 V2 - Gigabyte Z390 Elite - i7 9700k @ 4,9 1,305v - Gelid Phantom - 16gb G-skill CL15 3000 - Gigabyte Vega 56 OC - Samsung 970 Evo 1tb - Windows 10 Pro 64


  • The Source
  • Registratie: april 2000
  • Laatst online: 04-02 22:42
Ik zag sommige mensen eerder in een topic al iets zeggen over waarom er 2 release dates zijn voor RS780 (opvolger van RS690 maar nu met DX10 en HybridCF). Op 23jan wordt deze al in China gereleased en pas in maart in de rest van de wereld. De stock / modellen die in china op de markt gezet worden zijn met A12 stepping van de RS780 en die heeft geen WHQL logo gekregen door technische problemen. AMD/ATI heeft hier al veel van geproduceerd maar geen een ODM / OEM wil een PC zonder WHQL logo. Dus eerst de A12 stepping in China dumpen en dan zal rond Cebit de A13 stepping verkocht gaan worden (met WHQL) in de rest van de wereld.

Over stock dumpen gesproken, NV released binnen een paar weken de 8800GS. Deze is ongeveer 25% trager ivm de 8800GT en kost ongeveer 50% minder dan de 8800GT. In EU komt deze officieel enkel door XFX op de markt, in USA enkel door eVGA en in Azia enkel door Asus en in China enkel door Palit. Elk ander merk dat deze kaart heeft zal deze laten OEMén maar ik denk niet dat we die in europa zullen zien, enkel XFX of nog wat grijze import. De stock is erg limited net zoals met die 7900GTO van MSI toen omdat de 8800GS eigenlijk de uitval van de 8800GT is. De prijs is zo agressief om de 3850 aan te vallen.

  • Raven
  • Registratie: november 2004
  • Niet online

Raven

Marion Raven fan

quote:
Apoca schreef op zaterdag 12 januari 2008 @ 13:37:
Arctic Accelero Xtreme 2900 VGA cooler review

The Accelero Xtreme 2900 definitely is a great performer, yet does need to be tweaked a little as AMD is ruining the results a little with the RPM values set too low. But as explained on the previous page, just grab Rivatuner, set the RPM level to 60-70% and the cooling values will be awesome while you get to keep the extremely low noise levels. When you combine these two together, the cooler is just fantastic.

[afbeelding]

http://www.guru3d.com/article/cooling/487/1
Dat ding neemt 3 sloten in gebruik 8)7 |:(

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde

quote:
The Source schreef op zaterdag 12 januari 2008 @ 13:46:
Over stock dumpen gesproken, NV released binnen een paar weken de 8800GS. Deze is ongeveer 25% trager ivm de 8800GT en kost ongeveer 50% minder dan de 8800GT. In EU komt deze officieel enkel door XFX op de markt, in USA enkel door eVGA en in Azia enkel door Asus en in China enkel door Palit. Elk ander merk dat deze kaart heeft zal deze laten OEMén maar ik denk niet dat we die in europa zullen zien, enkel XFX of nog wat grijze import. De stock is erg limited net zoals met die 7900GTO van MSI toen omdat de 8800GS eigenlijk de uitval van de 8800GT is. De prijs is zo agressief om de 3850 aan te vallen.
100.000 stuks toch maar van de 8800GS aldus HardOCP, en ook min of meer gelanceerd om het uit te zingen totdat de 9600GT er is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
CJ schreef op zaterdag 12 januari 2008 @ 15:42:
[...]


100.000 stuks toch maar van de 8800GS aldus HardOCP, en ook min of meer gelanceerd om het uit te zingen totdat de 9600GT er is.
Zijn deze 8800GS deficiente GT's of zijn ze 't de GT's zoals ze oorspronkelijk gepland waren?

Anyways, tijd voor ATi om de DX10.1 troef te spelen en awareness te creeren. In combinatie met 3dmark moet wel wat reclame te maken zijn. :)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 16-02 13:36

Krizzie

Progressive Music \o/

quote:
Apoca schreef op zaterdag 12 januari 2008 @ 13:37:
Arctic Accelero Xtreme 2900 VGA cooler review

The Accelero Xtreme 2900 definitely is a great performer, yet does need to be tweaked a little as AMD is ruining the results a little with the RPM values set too low. But as explained on the previous page, just grab Rivatuner, set the RPM level to 60-70% and the cooling values will be awesome while you get to keep the extremely low noise levels. When you combine these two together, the cooler is just fantastic.

[afbeelding]

http://www.guru3d.com/article/cooling/487/1
Dat is een zeer leuk speeltje! >:)

Ik denk dat als je het zaakje met arctic silver erop zet dat de temps nog een graadje of 5 naar beneden kunnen! Dan zal het stressed 20c lager zijn dan ik nu met de stock koeler idle heb en dat met minder lawaai! :o

Geluidswolk


  • Paladin
  • Registratie: maart 2000
  • Laatst online: 16:56

Paladin

Play Ball!

Iemand enig idee of de saphire Atomic ook in NL gaat komen of is die voorbehouden aan de rest van de wereld?

|Yesterday is History, Today is a gift, Tomorrow a Mystery | M3 - LRAWD - Referral-link:https://ts.la/p66085


  • dreee
  • Registratie: oktober 2004
  • Laatst online: 19-10-2017
Ok, ATi heeft DX10.1 ondersteuning, maar hebben weinig games en gamedevs achter hun staan. Zijn er dan buiten bestaande verhoudingen en contracten en dus betalingen nog andere redenen/motieven voor het feit dat AMD/ATi vrij vaak naast de pot pist kwa ondersteuning, ontwikkelen en samenwerking met gamedevelopers?
Dit resulteert vaak in slechte of geen reclame, wat dus weer slechter voor oa verkoop is.

De weg kwijt? Vind je zelf weer terug... --> Radio Paradise <--


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

quote:
CJ schreef op vrijdag 11 januari 2008 @ 18:15:
Eigenlijk best sneu dat dat waarschijnlijk ook gaat gebeuren he? :+
ik vind het alleen maar geweldig hehe het groene kamp loopt z'n eigen in een val heh pwned ;)

Nou ik heb pics voor jullie gemaakt van die original ATi doos vergeleken met die van Sapphire een 3rd party merk, als beloofd :)

http://www.3dfx.ch/gallery/d/28795-2/DSC02771.JPG http://www.3dfx.ch/gallery/d/28798-2/DSC02772.JPG http://www.3dfx.ch/gallery/d/28792-2/ATi3dfx.JPG

De ATi CrossFire cable is van de original ATI HD 2900 XT die ook onder me Voodoo5 5500 PCI Macintosh bevindt en die andere crossFire benaamde cable is van die Sapphire, de Sapphire HD 2900 XT bevindt zich boven de Voodoo5 5500 PCI Macintosh. :)
De Voodoo5 5500 PCI Macintosh is de groene kaart die tussen de Radeon's zit, deze is geflashed met PC Bios 1.18DVI. 8)

En dit werkt prima samen :)

2 HD 3870 X2's en een V5 PCI / PCI Mac moet ook geen probleem wezen :)

Zou er ook een HD 3850 X2 komen?

Gold Leader wijzigde deze reactie 13-01-2008 05:12 (23%)

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • tjtristan
  • Registratie: augustus 2005
  • Laatst online: 26-10-2019
quote:
Apoca schreef op zaterdag 12 januari 2008 @ 13:37:
Arctic Accelero Xtreme 2900 VGA cooler review

The Accelero Xtreme 2900 definitely is a great performer, yet does need to be tweaked a little as AMD is ruining the results a little with the RPM values set too low. But as explained on the previous page, just grab Rivatuner, set the RPM level to 60-70% and the cooling values will be awesome while you get to keep the extremely low noise levels. When you combine these two together, the cooler is just fantastic.

[afbeelding]

http://www.guru3d.com/article/cooling/487/1
Is deze al ergens te krijgen in nederland? want ik heb hem nog niet gevonden.
Duitsland/belgie zou eventueel ook kunnen.

http://specs.tweak.to/15535


  • hapSnap
  • Registratie: maart 2007
  • Laatst online: 21-01 07:06
quote:
tjtristan schreef op zondag 13 januari 2008 @ 13:58:
[...]


Is deze al ergens te krijgen in nederland? want ik heb hem nog niet gevonden.
Duitsland/belgie zou eventueel ook kunnen.
In Duitsland is ie te krijgen:

http://geizhals.at/eu/a293081.html

  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

quote:
Er komt maar 1 HD3600 kaart uit en wel de HD3850. Deze zal uit twee varianten bestaan, namelijk de GDDR2 versie en de GDDR3 versie. Performance voor de GDDR3 versie zal rond de 4400 punten in 3DM06 liggen terwijl de GDDR2 versie rond de 3900 punten scoort in 3DM06. De core zal op 725Mhz lopen. Dat is dus 75Mhz langzamer dan z'n oudere broertje, de HD2600XT, maar 125Mhz sneller dan de HD2600Pro.
staat een foutje in de startpost ;) Ja ik kijk af en toe nog wel eens in de startpost :P O-)

Youtube Download ubersnel.nl


  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 17:48

Ed_L

Edmin

Ik Henk &#039;m!

quote:
Obi-Wan Kenobi schreef op zondag 13 januari 2008 @ 05:06:
[...]

Zou er ook een HD 3850 X2 komen?
Ik zie eerlijk gezegd geen plek in de line-up voor een 3850X2. Waar zou die geplaatst moeten worden, net boven de 3870? In het vaarwater van de OC versies?

  • PeSr
  • Registratie: januari 2005
  • Niet online

PeSr

FLXy

Sapphire HD3870 met single slot koeler. Hij staat nog niet op de sapphire site zelf, maar is wel bijna verkrijgbaar.

http://www.alternate.nl/h...stingFrame&source2=coList

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

Iedereen praat hier maar over graphics en performance, maar DX10 is vooral gemaakt om het gamedevvers makkelijker te maken. Veel zaken kan je ook met DX9, maar omdat het zeer omslachtig is wordt het niet gedaan. Met DX10 wordt het plots veel eenvoudiger, en men gaat het dan ook inbouwen. Echter zijn het maar kleine details, vandaar ook de kleine verschillen tussen DX9 <> DX10 naar de end user. DX10.1 wordt nog een stuk beter, voor de gamedevvers dus. Ik blijf erbij dat we hier als end user niks van gaan merken. Performance zal slechts met enkele procenten toenemen, met uitschieters tot 10%. Daarmee ga je in World in Conflict van 20 naar 22 fps. Buiten AA/AF verwacht ik ook geen betere graphics.

Nee, DX10.1 wordt vooral een marketing stunt, net zoals SM3.0 in de tijd.
quote:
ik vind het alleen maar geweldig hehe het groene kamp loopt z'n eigen in een val heh pwned
AMD is ook groen ;)

It takes two fools to argue.


  • movo.
  • Registratie: april 2007
  • Laatst online: 12-01 22:10
quote:
Het blijft toch anders groen, iets met een rood tintje. ;)

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

Het ATI logo misschien, niet het AMD logo ;)

http://xtreview.com/images/RS690G-Radeon-X1250/amd-smarter-choise-logo.jpg

It takes two fools to argue.


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

quote:
Ed_L schreef op zondag 13 januari 2008 @ 17:54:
[...]


Ik zie eerlijk gezegd geen plek in de line-up voor een 3850X2. Waar zou die geplaatst moeten worden, net boven de 3870? In het vaarwater van de OC versies?
ja zo iets, het was maar een vage gok maar opzich voor de marketing als de possitie zou een HD 3850 X2 helemaal geen gek id wezen :)

men wilt iets meer power dan single HD 3870 maar ook goedkoper qua performance per watt dan een dual 3850 CF setup, well hello HD 3850 X2 met 2x RV670 met elk zeg amar 256MB 256Bit GDDR3?

mijn id heh vond het wel een nette vervulling ten opzichte vand de andere modellen, leuk plan iig.

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • betaplayer
  • Registratie: juli 2007
  • Laatst online: 15:41
quote:
Hacku schreef op zondag 13 januari 2008 @ 18:58:
Iedereen praat hier maar over graphics en performance, maar DX10 is vooral gemaakt om het gamedevvers makkelijker te maken. Veel zaken kan je ook met DX9, maar omdat het zeer omslachtig is wordt het niet gedaan. Met DX10 wordt het plots veel eenvoudiger, en men gaat het dan ook inbouwen. Echter zijn het maar kleine details, vandaar ook de kleine verschillen tussen DX9 <> DX10 naar de end user. DX10.1 wordt nog een stuk beter, voor de gamedevvers dus. Ik blijf erbij dat we hier als end user niks van gaan merken. Performance zal slechts met enkele procenten toenemen, met uitschieters tot 10%. Daarmee ga je in World in Conflict van 20 naar 22 fps. Buiten AA/AF verwacht ik ook geen betere graphics.

Nee, DX10.1 wordt vooral een marketing stunt, net zoals SM3.0 in de tijd.


[...]


AMD is ook groen ;)
Zéér juist, Dx 10.1 net als UVD(gedeeltelijk) is overhyped door ATI/AMD, echter DX10.1 beloofde wel betere AA performance, iets waar de R6xo serie niet bepaald goed in was, hopelijk kan dit wat compenseren...

Dat alles ten minste ALS er ooit een Dx10.1 game zou uitkomen, wat mijn inziens niet snel gaat gebeuren...

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
betaplayer schreef op zondag 13 januari 2008 @ 21:23:
[...]
echter DX10.1 beloofde wel betere AA performance,
je droomt.. dx10.1 bied nieuwe aa opties niet beter performance (eerder minder performance met die nieuwe opties :p, maar het is onvermijdelijk)
quote:
Obi-Wan Kenobi schreef op zondag 13 januari 2008 @ 21:22:
[...]

ja zo iets, het was maar een vage gok maar opzich voor de marketing als de possitie zou een HD 3850 X2 helemaal geen gek id wezen :)

men wilt iets meer power dan single HD 3870 maar ook goedkoper qua performance per watt dan een dual 3850 CF setup, well hello HD 3850 X2 met 2x RV670 met elk zeg amar 256MB 256Bit GDDR3?

mijn id heh vond het wel een nette vervulling ten opzichte vand de andere modellen, leuk plan iig.
Er stonden 2 versies van de HD3870 X2 op de planning. Eentje met 1GB (2x 512MB) geheugen en eentje met 512MB (2x 256MB) geheugen. Deze zullen dus de lineup tot €399 aardig aanvullen.

Daarnaast hebben verschillende AIBs ook al een 2GB (2x 1024MB) HD3870 X2 in de planning staan. Als deze inderdaad echt uit komen dan zullen deze wel richting de €499 gaan.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

quote:
PeSr schreef op zondag 13 januari 2008 @ 18:34:
Sapphire HD3870 met single slot koeler. Hij staat nog niet op de sapphire site zelf, maar is wel bijna verkrijgbaar.

http://www.alternate.nl/h...stingFrame&source2=coList
Dit is de vernieuwde non-reference versie van Sapphire. Die heeft inderdaad een single slot cooler en een korter PCB als ik het goed heb. De cooler is (bijna?) hetzelfde als die op de AGP HD3850 en de 1GB HD3850 als ik het goed heb:

http://img502.imageshack.us/img502/2205/sapagpju2.jpg

Meer pics van de HD3870 hier: http://en.expreview.com/?p=196#more-196

Ze zijn goed bezig daar bij Sapphire.

- HD3850 256MB
- HD3850 512MB
- HD3850 512MB Ultimate
- HD3850 512MB AGP (704Mhz core)
- HD3850 1GB
- HD3870 512MB Reference
- HD3870 512MB new version (non reference)
- HD3870 Atomic (825Mhz core)
- HD3870 OC (904Mhz core)

Da's een hele zooi. :o

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Hekking
  • Registratie: april 2006
  • Laatst online: 02-02 09:07

Hekking

Can of whoopass

Jep, integenstelling tot hun moederbord activiteiten zijn ze met de VGA's wel fanatiek. Ik zou graag eens zo'n mooi wit/rood bordje willen proberen :)

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


  • BlackWolf666
  • Registratie: november 2006
  • Laatst online: 22-11-2019

BlackWolf666

Dawn's Moonlight

Volgens fudzilla zal Sapphire geen snellere kaart uitbrengen dan de Atomic HD3870. Dus dat zou betekenen dat de OC-versie van 904MHz niet uit zal komen.. Linkje:

http://www.fudzilla.com/i...ask=view&id=5115&Itemid=1

Specs


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 16-02 13:36

Krizzie

Progressive Music \o/

Wel vreemd dat ze geen 1GB versie van de 3870 uitbrengen, die heeft er toch meer aan dan een 3850 volgens mij. :?

Geluidswolk


  • MensionXL
  • Registratie: juni 2004
  • Laatst online: 08:57

MensionXL

Optimaliseren!

quote:
Krizzie schreef op maandag 14 januari 2008 @ 12:21:
Wel vreemd dat ze geen 1GB versie van de 3870 uitbrengen, die heeft er toch meer aan dan een 3850 volgens mij. :?
Achja, meestal zijn het van die ventjes die denken: Ik wil alles zo goedkoop mogelijk, DX10, en zoveel mogelijk geheugen erop. (:')) Dus ik vind dat ze het goed aanpakken dan door ze lekker hun zin te geven :P

* Heeft het over een doorsnee videokaart-koper.

MensionXL wijzigde deze reactie 14-01-2008 12:31 (7%)

Gratis hardware! - Goedkoop bellen via VoIP


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Krizzie schreef op maandag 14 januari 2008 @ 12:21:
Wel vreemd dat ze geen 1GB versie van de 3870 uitbrengen, die heeft er toch meer aan dan een 3850 volgens mij. :?
Marketing... An sich lijkt het misschien geen overbodige luxe om 1GB op een kaartje te zetten als je het geheugengebruik van moderne games ziet. Er wordt al snel 500-600 MB verstouwd. Helaas ligt de bottleneck in praktijk ergens anders en heeft dat extra geheugen nauwelijks waarde B)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
Astennu schreef op vrijdag 11 januari 2008 @ 22:49:
Hoezo dat ? omdat nVidia niet wint is het meteen onbetrouwbaar ? Kom op zeg. 3Dmark test de laatste video kaarten door de nieuwste DX versie's te gebruiken en raad eens dat is DX10.1 stom van nVidia dat hun video kaart het nog niet ondersteund.
Niet omdat nVidia niet wint.
Het hele idee van een synthetische benchmark als 3D Mark is dat het een graadmeter is voor hoe de videokaart presteert (of zal presteren) in games. 3D Mark is op dat gebied al een aardige tijd nauwelijks een graadmeter meer, en zoals Ilidian terecht opmerkt verliest het een nog veel groter deel van zijn waarde naarmate de 3DM scores zich minder gaan vertalen naar real life / real world performance.
quote:
Straks komen er ook games die DX10.1 gebruiken kun je die dan ook niet als vergelijking materiaal gebruiken omdat nVidia geen DX10.1 kan?
Welke games zijn er aangekonigd met exclusive DX10.1 support?
Sterker: Welke games zijn er aangekondigd die uberhaupt DX10.1 support hebben?

Als er 1 ding is wat voor gamedevs op dit moment volgens mij niet bovenaan de prio-lijst staat is het wel DX10.1. Er is uberhaupt nog geen OS support, de marktpenetratie van Vista + DX10 hardware is gering, de marktpenetratie van DX10.1 compliant hardware (zeker i.c.m. Vista) is zeer minimaal, plus de grootste DX10-hardware schuiver ondersteund het - in ieder geval voorlopig - uberhaupt niet. Als gamedev zou ik er zoals het er nu voorstaat mijn resources iig niet op inzetten ;)

Als gamer zie ik ook geen enkele reden om binnenkort de overstap naar Vista (DX10.x) te maken (performancewise gezien: integendeel), en volgens mij hebben meer mensen dat idee erover :)
quote:
Dit was ook met de Radeon 8500 die had al SM 1.4 support wat de Geforce 3 niet had.
Tegen de tijd dat de 8500 enig 'voordeel' had van SM1.4 waren we al 2 videokaartgeneraties verder, en was de kaart allang uitgefaseerd. De 8500 had met SM1.4 ook de mazzel te kunnen meeliften vanwege de belabberde DX9 performance van de GFFX en daarvoor gecodeerde DX8.1 paden... voornamelijk vanwege de marktpenetratie van GFFX zagen de dev's er heil in om dit path te implementeren, anders was het al veel eerder een stille dood gestorven.
Bovendien was de 8500 eigenlijk te traag om optimaal gebruik te kunnen maken van SM1.4.

Precies hetzelfde gold voor nV's Geforce 6 met diens SM3.0 ondersteuning (destijds ook danig opgehyped) vs Radeon X8x0 met "slechts" SM2.0b (maar die wel beter presteerde dan GF6).

En exact datzelfde zal in nog sterkere mate gelden voor DX10.1, waar zelfs de basale OS ondesteuning nog niet eens voor in place is en nog maanden in de toekomst ligt :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Kyle Bennet van HardOCP over de R680:
quote:
You can count on the R680 being 1.7X to 2X faster than R670. Scaling is looking great in DX9, DX10 a bit more shaky but there are certainly games that it excels at in DX10. Certainly more mature drivers will come.

On R680, and it being a dual GPU card, one of the biggest advantages we are seeing is that it will idle around 45w, but will capable of up to 200w operation when fully utilized.

Count on it coming in around the price of the cheapest 8800 GTX currently at Newegg.
Bron: http://www.hardforum.com/...p=1031907018&postcount=29

De goedkoopste 8800GTX bij Newegg is zo'n $455. Dus een uiteindelijke prijs van €399 lijkt niet onrealistisch. Toch hoop ik dat dit lager gaat uit vallen aangezien je nu al een PEAK HD3870 voor €160 hebt... dus 2x PEAK HD3870 = €320 + extra CF dongles die niet bijgeleverd worden = ~€335.

Oh en over R700 heeft-ie ook wat:
quote:
R700 will be a multiple GPU architecture. Will not be CrossFire on a card. The architecture is being designed from the ground up to be "multiple GPU." Engineers at ATI have also told me specifically that AA is "fixed."

Hopefully this will clear up some of the rumors. As you know, we bat about 1000 when it comes to this kind of information. If I tell you more now, I will have to kill you.
Mensen hoeven dus niet bang te zijn dat R700 afhankelijk is van CrossFire profielen om mee te schalen met performance. R700 heeft hardware scaling en geen software scaling. En daarnaast gebruikt-ie hardware AA resolve wanneer dit handig is (voor bv snellere performance) of wanneer shader AA resolve niet nodig is om correct IQ te geven (dus bv HDR of in situaties waar men niet weet naar welke framebuffers er geschreven wordt zodat AA toepassen moeilijk is, zoals bij deferred rendering). Maar dit laatste was al bekend.

CJ wijzigde deze reactie 14-01-2008 14:16 (35%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Het PCB van die R680 is natuurlijk veel en veel duurder dan van zo'n PEAK, omdat het vele malen ingewikkelder is en waarschijnlijk ook gewoon iets beter. Misschien meer lagen? Ook de koeler van die X2 is groot en dus duurder dan dat simpele coolertje van de PEAK.

Desalniettemin; als ik een CF bord zou hebben zou ik zeker 2 PEAKS kopen. 320 euro is natuurlijk spotgoedkoop voor de prestaties die je ervoor terug krijgt. Ik ben best nieuwschierig naar de performance in alle games, en of er nog driverproblemen om de hoek komen kijken met de R680.

Die rollen er natuurlijk snel uit in het begin... Helemaal omdat het gewoon CF is.

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 04-12-2019

Cheetah

Try to live without WWW ;)

quote:
CJ schreef op maandag 14 januari 2008 @ 14:09:
De goedkoopste 8800GTX bij Newegg is zo'n $455. Dus een uiteindelijke prijs van €399 lijkt niet onrealistisch. Toch hoop ik dat dit lager gaat uit vallen aangezien je nu al een PEAK HD3870 voor €160 hebt... dus 2x PEAK HD3870 = €320 + extra CF dongles die niet bijgeleverd worden = ~€335.
Het performancevoordeel t.o.v. HD3870 CF zou een dergelijk prijspeil niet echt rechtvaardigen...
PCB- en productiekosten zullen wellicht hoger liggen dan voor 2x HD3870, maar de consument kijkt uiteraard naar price/performance... de X2 is wel een uitkomst voor mensen die geen CF bord hebben.
quote:
Oh en over R700 heeft-ie ook wat:
R700 will be a multiple GPU architecture. Will not be CrossFire on a card. The architecture is being designed from the ground up to be "multiple GPU." Engineers at ATI have also told me specifically that AA is "fixed."
Het lijkt er op dat ATi dus het eerst is met 'multi-core' GPU's, waarbij de logica qua scaling in de GPU en niet in pcb/drivers zit (net zoals bij multi-core CPU's) :)

Verder prettig om die bevestiging rond hardware AA te zien. Gelukkig dat ze toch terug zijn gekomen op het weglaten daarvan :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Klaus_1250
  • Registratie: december 2000
  • Laatst online: 30-12-2019
Is er iemand die al ergens een 3850 AGP (Sapphire of Powercolor) heeft zien rondzwerven?

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
CJ schreef op maandag 14 januari 2008 @ 14:09:
Mensen hoeven dus niet bang te zijn dat R700 afhankelijk is van CrossFire profielen om mee te schalen met performance. R700 heeft hardware scaling en geen software scaling. En daarnaast gebruikt-ie hardware AA resolve wanneer dit handig is (voor bv snellere performance) of wanneer shader AA resolve niet nodig is om correct IQ te geven (dus bv HDR of in situaties waar men niet weet naar welke framebuffers er geschreven wordt zodat AA toepassen moeilijk is, zoals bij deferred rendering). Maar dit laatste was al bekend.
Toch wel weer jammer weer van die hardware AA. Je zou toch wel mogen verwachten dat de R700 snel genoeg is voor softwarematige AA. Mijn ziens impliceert het dat de R700 te zwak is voor softwarematige AA zoals de R600, en dat men daardoor een fallback heeft gecreerd voor de R700 i.e. traditionele AA. Een beetje in de zin van "beter iets dan niets". Ik kan het hun niet kwalijk nemen na al die negatieve publiciteit omtrend AA performance, maar van een technologisch standpunt had ik wel wat meer verwacht.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • BlackWolf666
  • Registratie: november 2006
  • Laatst online: 22-11-2019

BlackWolf666

Dawn's Moonlight

Ik snap het geval met AA nog steeds niet. In Oblivion heb je bijvoorbeeld ook rare fratsen waarbij de minimale FPS met AA en AF aan hogere is dan zonder.. Daarnaast zakt de kaart bij 8xAA amper in vergeleken met 4xAA. Ik denk niet dat het iets te maken heeft met zwakte van de kaart, maar dat deze methode nog in de kinderschoenen staat en nog geoptimaliseerd moet worden. ATi voegt de hardwarematige AA toe voor de zekerheid. Vraag me wel af hoe ze gaan bepalen of HardwareAA of ShaderAA sneller is in een bepaalde applicatie en hoe dat in de drivers geimplementeerd gaat worden. Als de consument het handmatig moet instellen kan het nog wel een zooitje worden denk ik.

Specs

Ik zie het niet als te zwak zijn, maar meer als 'the best of both worlds'. AMD heeft naar de community geluisterd en heeft weer hardware AA resolve toegevoegd aan de ROPs.

Daarnaast is de R700 in ieder geval meer capabel dan de R600 om shader AA resolve te doen. Het zou me zelfs niets verbazen als shader AA resolve nu in sommige gevallen sneller is dan hardware AA resolve. Misschien hebben ze wel een techniek geimplementeerd die het volgende checkt:

1) Is er een situatie waar hardware resolve van huis uit niet werkt? Ja, zie 2. Nee, zie 3
2a) Check of de exacte framebuffers in de drivers bekend zijn om toch hardware AA toe te kunnen passen. Wel bekend, zie 2b. Niet bekend, zie 2c.
2b) Check wat sneller is en pas de snelste resolve methode toe.
2c) Use shader AA resolve
3) Check wat sneller is en pas de snelste resolve methode toe.

Op deze manier wordt er altijd de beste IQ toegepast en wordt de snelste resolve methode gebruikt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Zijn der mensen die de CCC gebruiken voor OC van hun CF setup?

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

Ja maar het heeft hier weinig effect, HD2900XT's @ 843-999 vs HD2900XT's 743-828
17000 vs 16500 3DMark06.
Cpu is te sloom.

N0taFAma wijzigde deze reactie 14-01-2008 16:38 (3%)

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Is dat voor 24/7 use zeg maar? Ik wilde via de QuantumForce 2900 Bios editor mijn biossen aanpassen naar 825 / 1850 voor daily use in CF. Is maar een 11 a 12% overclock maar goed, het is nog te vroeg om de setup de deur uit de doen he :)

En op deze manier trek ik het gaatje naar de 3870 X2 weer wat meer dicht.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

843-999 kan best 24/7, ik doe dat met mijn Bench OS.

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]

Ik kreeg net van het rode team te horen dat de HD3870 X2 misschien wel tegelijkertijd gelanceerd gaat worden met de HD3650 en HD3400-Serie. Dus een paar dagen eerder dan gepland. Maar nog niet zeker....

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

So ze gaan der flink tegen aan, nou ben heel erg benieuwd in ieder geval wat voor power de 3870 X2 uiteindelijk op tafel gaat leggen.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • edward2
  • Registratie: mei 2000
  • Laatst online: 16:21

edward2

Schieten op de beesten

quote:
CJ schreef op maandag 14 januari 2008 @ 18:40:
Ik kreeg net van het rode team te horen dat de HD3870 X2 misschien wel tegelijkertijd gelanceerd gaat worden met de HD3650 en HD3400-Serie. Dus een paar dagen eerder dan gepland. Maar nog niet zeker....
Wanneer was dat nu ook alweer 28 jan.?

Ik hoop dat de 2 gig versies ook snel komen. Ik denk dat Crysis, Dirt, en soms Oblivion en Stalker meer dan 512mb nodig hebben op hoge res met AA.
2 van die beestjes zouden Crysis op een speelbaar niveau moeten kunnen tillen.

Overigens loopt HD3870CF hier nu echt goed. UT3 is weer sneller geworden met de zgn 8.1 beta.
COD4 vliegt en Crysis is met patch 1.1 bijna speelbaar in dx10 met very high (20-25 fps, maar dips naar 6fps, vid.mem bottlencek?). CF in Stalker (ingame AF!)raped in gebieden met intense belichting m'n 8800Ultra met 2 maal meer snelheid. WIC dx10 draait ook eindelijk goed.
Er zijn echter nog een paar games, Two Worlds en Gothic3 die langzamer lopen met CF. Het zou mooi zijn als die nog zouden verbeteren.

Hier nog een recente review:

http://www.computerbase.d...rossfire_sli_einzelkarte/

edward2 wijzigde deze reactie 14-01-2008 19:32 (8%)

Maximum IQ


  • The Source
  • Registratie: april 2000
  • Laatst online: 04-02 22:42
quote:
CJ schreef op maandag 14 januari 2008 @ 18:40:
Ik kreeg net van het rode team te horen dat de HD3870 X2 misschien wel tegelijkertijd gelanceerd gaat worden met de HD3650 en HD3400-Serie. Dus een paar dagen eerder dan gepland. Maar nog niet zeker....
X2 Officieel nog niets gehoord, maar de eerste voorraden liggen eind van deze week in NL, dus het is mogelijk.

  • edward2
  • Registratie: mei 2000
  • Laatst online: 16:21

edward2

Schieten op de beesten

quote:
The Source schreef op maandag 14 januari 2008 @ 19:17:
[...]

X2 Officieel nog niets gehoord, maar de eerste voorraden liggen eind van deze week in NL, dus het is mogelijk.
Weet je iets mbt de beschikbaarheid van 2 gig versies? Onofficieel uiteraard ;)

edward2 wijzigde deze reactie 14-01-2008 19:32 (4%)

Maximum IQ


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

quote:
The Source schreef op maandag 14 januari 2008 @ 19:17:
X2 Officieel nog niets gehoord, maar de eerste voorraden liggen eind van deze week in NL, dus het is mogelijk.
Hmmm klinkt wel erg goed weer allemaal :)

Nu maar hopen dat de mensen die de reviews maken ook te spreken zijn over de kaart, anders maakt het niet uit of der voorraad is. Dan gaat het niks worden ben ik bang. Hoop echt dat ze het voor elkaar hebben gekregen bij ATi.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Sapphire passively cools 3870

Ze gaan maar door daar met het uitbrengen van versies...

http://www.fudzilla.com/images/stories/2008/January/General%20news/ces08/3870p.jpg

http://www.fudzilla.com/i...ask=view&id=5127&Itemid=1

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Lees trouwens net op FUD dat de 9800 GX2 qua prijs in de buurt van / dan wel over die van de 8800 Ultra zou komen te zitten. Weet niet of dat waar is, maar in dat geval zou ATi als ze de prijs goed weten in te schatten wel eens wat mensen over de streep kunnen trekken met hun 3870 X2.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Apoca schreef op maandag 14 januari 2008 @ 19:37:
Sapphire passively cools 3870

Ze gaan maar door daar met het uitbrengen van versies...

[afbeelding]

http://www.fudzilla.com/i...ask=view&id=5127&Itemid=1
Deze heb ik al lang gezien hoor?

  • warker
  • Registratie: augustus 2007
  • Laatst online: 28-09-2009
quote:
peakaboo schreef op maandag 14 januari 2008 @ 19:58:
[...]


Deze heb ik al lang gezien hoor?
Dat was de 3850, niet de 3870....

  • Astennu
  • Registratie: september 2001
  • Laatst online: 17:52
quote:
Apoca schreef op maandag 14 januari 2008 @ 19:41:
Lees trouwens net op FUD dat de 9800 GX2 qua prijs in de buurt van / dan wel over die van de 8800 Ultra zou komen te zitten. Weet niet of dat waar is, maar in dat geval zou ATi als ze de prijs goed weten in te schatten wel eens wat mensen over de streep kunnen trekken met hun 3870 X2.
Inderdaad ben benieuwd hoe hoog nVidia die kaart clockt want een 8800 GTS 512 Verbruikt erg veel. 30-40 watt meer dan een GT. Dus als ze niets aangepast hebben zit de kaart over de 250 watt heen. En is duur. Dus ATi heeft een goede kans ja ze zijn iets langzamer maar ook veel goedkoper.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

@ Astennu

Wat draai jij eigenlijk nu nog, een CF 3870 setup of die 8800GT waarmee ik je soms wel eens tegen kom in wat topics?

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • Astennu
  • Registratie: september 2001
  • Laatst online: 17:52
quote:
Apoca schreef op maandag 14 januari 2008 @ 20:35:
@ Astennu

Wat draai jij eigenlijk nu nog, een CF 3870 setup of die 8800GT waarmee ik je soms wel eens tegen kom in wat topics?
Heb HD3870 CF maar heel even getest. Had toen even niet het geld om een tweede kaart te kopen nu weer wel :P Dus heb nog een 8800 GT. Als die X2 een beetje redelijk is gaan we die eens proberen :)

Ik vind die 8800 GT niet zo imba zoals iedereen tis gewoon een Hype net als die C2D Mijn Q6600 op 3150 is in games net zo snel als mijn oude 5600+ merk echt geen verschil. Alleen In supreme commander. 8800 GT is wel iets sneller maar niet dat je zegt van wat een verschil het was die 60 euro meer waard.

Astennu wijzigde deze reactie 14-01-2008 22:17 (25%)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
Hoezo SLi schaalt minder? (Wordt vaak gezegd ;) )

Damn... in bijna elke game gewoon 80 tot 90% winst! Is dat fabeltje ook direkt uit de wereld geholpen bij deze. Morgen direkt vista er maar weer opzetten. :9

Format-C wijzigde deze reactie 14-01-2008 22:23 (8%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • edward2
  • Registratie: mei 2000
  • Laatst online: 16:21

edward2

Schieten op de beesten

http://www.techspot.com/a.../bench/1920_DX10_High.png

Zoals ik al zei, CF gaat lekker na de 1.1 Crysis patch :)

Maximum IQ


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Wat wel opvallend is is dat de minimum FPS met CF lager is dan die van een enkele kaart... Dus er MOET nog wel een driverupdate komen die de performance nog verder verbeterd... Dat kan haast niet anders. :)

Ga jij HD3870X2 in CF draaien Edward? :>

Edit; @ Edward; zou de hoeveelheid videomem echt zoveel uitmaken? In DEZE rerview maakt het namelijk maar bar weinig uit in de meeste games. Zelfs op 1920x1200 met AA en AF.


Nog even for the record; wanneer was de release van de HD3870X2? 28 januari?

Format-C wijzigde deze reactie 14-01-2008 22:36 (107%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • edward2
  • Registratie: mei 2000
  • Laatst online: 16:21

edward2

Schieten op de beesten

quote:
RappieRappie schreef op maandag 14 januari 2008 @ 22:24:
Wat wel opvallend is is dat de minimum FPS met CF lager is dan die van een enkele kaart... Dus er MOET nog wel een driverupdate komen die de performance nog verder verbeterd... Dat kan haast niet anders. :)

Ga jij HD3870X2 in CF draaien Edward? :>

Nog even for the record; wanneer was de release van de HD3870X2? :Y)

Edit; @ Edward; zou de hoeveelheid videomem echt zoveel uitmaken? In DEZE rerview maakt het namelijk maar bar weinig uit in de meeste games. Zelfs op 1920x1200 met AA en AF.
Bij Firingsquad testen ze niet met very high, dus dat kan een hoop schelen, maar ik meen al eens screens te hebben gezien van de sandbox waarin een level werd gedraaid en er al 7xx mb gebruikt werd. Ik weet niet of dat geheel vidmem was, of system RAM.

Als X2 CF goed genoeg schaalt, ga ik dat zeker draaien, of NV moet met een vette single GPU komen, maar dat zit er geloof ik op korte termijn niet in.

Maximum IQ


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Er schijnt nog wel een GTX te komen, maar goed, die is ook weer gebaseerd op de G92 schijnt het. Iig niet echt noemenswaardig snel om die te nemen (denk ik). :/ Het is nogal vaag allemaal wat nVidia betreft. Ik wil op zich ook wel 2 van die X2's proberen, alleen moet ik wel heel snel beslissen. Ik heb al een 780i mobo besteld namelijk. Tja, je MOET soms keuzes maken... Misschien dat ik eerst maar eens afwacht of een 4 tal GPU's in 1 PC _/-\o_ ook goed draaien en geen problemen geven. CJ postte laatst al iets dat dat onder Vista niet zo'n probleem hoeft te zijn en dat dat meer voor Xp is oid...

Dus ik ben best heel nieuwschierig hoe dat performed, alleen gaat het de laatste paar maanden weer lekker snel met nieuwe hardware, en releases van allerlei produkten;

HD3870/ HD3850/ HD3870X2/ 8800GT/ 8800GTS/ 9800GX2 (of wat dan ook) / 9800GTX??/ 750i/ 780i/ X38/ X48/ E8400/ E8500/ Q9450/ Q9550/Q9650... Lekker hoor... :|

Format-C wijzigde deze reactie 14-01-2008 23:06 (5%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True